FR2665969A1 - Reseau neural a couches multiples et son procede de conception. - Google Patents
Reseau neural a couches multiples et son procede de conception. Download PDFInfo
- Publication number
- FR2665969A1 FR2665969A1 FR9110414A FR9110414A FR2665969A1 FR 2665969 A1 FR2665969 A1 FR 2665969A1 FR 9110414 A FR9110414 A FR 9110414A FR 9110414 A FR9110414 A FR 9110414A FR 2665969 A1 FR2665969 A1 FR 2665969A1
- Authority
- FR
- France
- Prior art keywords
- layer
- output
- input
- neuron
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims description 21
- 238000013461 design Methods 0.000 title claims description 8
- 239000002365 multiple layer Substances 0.000 title abstract 2
- 210000002569 neuron Anatomy 0.000 claims abstract description 73
- 238000012546 transfer Methods 0.000 claims abstract description 12
- 210000000225 synapse Anatomy 0.000 claims description 36
- 230000013016 learning Effects 0.000 claims description 23
- 230000001537 neural effect Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000010287 polarization Effects 0.000 claims description 7
- 238000012886 linear function Methods 0.000 claims description 3
- 238000012938 design process Methods 0.000 claims description 2
- 230000007935 neutral effect Effects 0.000 claims description 2
- 239000010410 layer Substances 0.000 abstract description 90
- 241001661355 Synapsis Species 0.000 abstract 3
- 238000010586 diagram Methods 0.000 description 7
- 238000003909 pattern recognition Methods 0.000 description 5
- 239000002356 single layer Substances 0.000 description 4
- 210000002364 input neuron Anatomy 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 101100446506 Mus musculus Fgf3 gene Proteins 0.000 description 2
- 101000767160 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) Intracellular protein transport protein USO1 Proteins 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- RCZJVHXVCSKDKB-UHFFFAOYSA-N tert-butyl 2-[[1-(2-amino-1,3-thiazol-4-yl)-2-(1,3-benzothiazol-2-ylsulfanyl)-2-oxoethylidene]amino]oxy-2-methylpropanoate Chemical compound N=1C2=CC=CC=C2SC=1SC(=O)C(=NOC(C)(C)C(=O)OC(C)(C)C)C1=CSC(N)=N1 RCZJVHXVCSKDKB-UHFFFAOYSA-N 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 208000029067 Neuromyelitis optica spectrum disease Diseases 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009941 weaving Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Semiconductor Integrated Circuits (AREA)
- Logic Circuits (AREA)
Abstract
Le réseau neural à couches multiples recevant une entrée à m bits et générant une sortie à n bits comporte un neurone reliant en cascade une paire d'inverseur: CMOS possédant un nud de sortie avec inversion et un nud de sortie sans inversion, une couche d'entrée (L0) de m neurones de réception d'entrée à m bits, une couche de sortie (L3) de n neurones de sortie à n bits, au moins une couche inaccessible (L1, L2,) de n neurones de transfert de la couche d'entrée (L0) à la couche inaccessible supérieure ou à la couche de sortie (L3), un groupe synapse d'entrée (S1) pour relier la couche d'entrée (L0) à la couche de sortie (L3) et à au moins une couche inaccessible, au moins un groupe synapse de transfert (S1, S2,) afin de connecter une couche inaccessible à la couche inaccessible supérieure ou à la couche de sortie (L3), et un groupe synapse de polarisation (S4) pour chaque nud d'entrée de neurones des couches inaccessibles (L1, L2) et de la couche de sortie (L3).
Description
i
Réseau neural à couches multiples et son procédé de con-
ception. La présente invention a trait à un réseau neural à couches multiples et à son procédé de conception, et plus particulièrement à un réseau neural à couches multi-
ples et au procédé de conception de celui-ci qui peut réa-
liser facilement un-circuit intégré à très grande échelle
d'intégration pour un réseau neural à couches multiples.
Récemment, dans le domaine de la reconnaissance des formes, des réseaux neuraux qui peuvent effectuer un traitement parallèle à grande échelle en temps réel ont été introduits En 1988, Hans P Graf et al des laboratoires Bell, ont présenté un circuit neural de reconnaissance de formes dans lequel des amplificateurs ayant leurs entrées et leurs sorties interconnectées par l'intermédiaire d'un
dispositif de connexion résistif dans une matrice, consti-
tuent les synapses et les neurones du circuit neural, et une paire de commutateurs qui commutent selon les données dans une paire de cellules de mémoire vive pour une
interconnexion de neurones.
Le présent demandeur a déposé de nombreuses de-
mandes un additionneur ( demande américaine NO 07/473 653), un multiplicateur ( 07/473 633), un convertisseur analogique/ numérique ( 07/473 631, 07/473634), un classificateur de
modèles ( 07/473 464), etc, qui utilisent un circuit neu-
ral possédant des synapses de transistor PMOS ou NMOS, et des neurones de circuits tampons sous la forme de paires
en cascade d'inverseurs CMOS Les circuits neuraux classi-
ques précités utilisent un modèle de réseau neural à une seule couche et peuvent résoudre seulement des problèmes séparables linéairement, et non ceux qui sont des problèmes inséparables linéairement (problèmes non linéaires) Par
conséquent, la plage d'application est extrêmement limitée.
Par exemple, un circuit OU exclusif ne peut pas obtenir la
solution en utilisant un réseau neural à une seule couche.
La limitation d'un réseau neural à une seule couche peut
être surmontée grâce à un réseau neural à couches multiples.
Il est connu qu'un réseau neural peut apprendre par un algorithme de contre-propagation (cf IEEE ASSP MAGAZINE,
Pages 4 à 22, Avril 1987).
Il existe davantage de restrictions dans la réa-
lisation de réseaux neuraux à couches multiples que dans une simulation logicielle avec un calculateur Ceci est dû au fait que la réalisation du réseau neural à couches multiples dépend de la technologie d'intégration à très grande échelle courante, et que la réalisation de circuit de valeurs de poids de connexion d'un réseau neural et de fonctions non linéaires n'est pas libre comme dans le cas d'une simulation logicielle Bien que des opérations en nombre réel utilisant une virgule flottante, et un accroissement du nombre de connexions de réseau neural et de noeuds peuvent être accomplis par logiciel, plusieurs problèmes subsistent pour réaliser ceci en technologie
d'intégration à très grande échelle.
Un des buts de la présente invention est de proposer un réseau neural à couches multiples possédant des valeurs de poids de connexion entières et une fonction
échelon pour résoudre le problème de la technique classi-
que. Un autre but de la présente invention est de proposer un procédé de conception de circuit d'un réseau neural à couches multiples afin de concevoir le circuit neural à couches multiples selon la nouvelle règle d'apprentissage. Afin d'atteindre ce but, le réseau neural à couches multiples de la présente invention recevant une entrée à m bits et générant une sortie à N bits comporte
un neurone afin de cascader une paire d'inver-
seurs CMOS et possédant un noeud de sortie de l'inverseur CMOS précédent parmi la paire d'inverseurs CMOS en tant que noeud de sortie avec inversion de celui-ci et un noeud de sortie de l'inverseur CMOS suivant en tant que noeud de sortie sans inversion; une couche d'entrée possédant m neurones pour recevoir l'entrée à m bits; une couche de sortie possédant N neurones pour générer la sortie à N bits; au moins une couche inaccessible pourvue de n neurones afin de transférer l'entrée reçue de la couche d'entrée à la couche inaccessible directement supérieure ou à la couche de sortie; un groupe synapse d'entrée sur une matrice possédant chaque valeur de poids prédéterminée pour relier chaque sortie de neurones sur la couche d'entrée à chaque neurone de la couche de sortie et au moins une couche inaccessible; au moins un groupe synapse de transfert dans une matrice possédant chaque valeur de poids prédéterminée
pour relier chaque sortie de neurones de la couche inac-
cessible à chaque neurone de sa couche inaccessible direc-
tement supérieure et de la couche de sortie; et
un groupe synapse de polarisation afin de polari-
ser chaque noeud d'entrée de neurones des couches inacces-
sibles et de la couche de sortie.
Ici, le groupe synapse d'entrée, le groupe synapse de transfert et le groupe synapse de polarisation sont
constitués par des transistors PMOS et NMOS.
Afin d'atteindre l'autre but, on prévoit un pro-
cédé de conception du réseau neural à couches multiples décrit ci-dessus pour recevoir une entrée à m bits et générer une sortie à N bits, qui comporte les étapes suivantes: une première étape d'initialisation de la valeur de poids de connexion du groupe synapse d'entrée;
une seconde étape de fixation de la valeur d'en-
trée à m bits et d'une valeur de sortie désirée à N bits correspondant à
la valeur d'entrée et de sortie de la couche d'entrée et de sortie.
une troisième étape d'obtention de la somme des valeurs de poids d'entrée sur le noeudd'entrée de chaque neurone de la couche de sortie et de génération d'une sortie réelle par une fonction échelon; une quatrième étape de comparaison de la valeur de sortie réelle obtenue au cours de la troisième étape, à la valeur de sortie désirée fixée au cours de la seconde
étape pour calculer l'erreur et de mémorisation de la varia-
tion de la valeur de poids calculée selon la valeur d'erreur;
une cinquième étape de terminaison d'apprentis-
sage si chaque valeur de sortie est égale à sa valeur de sortie désirée, ou si elle ne l'est pas, d'obtention de la somme de la variation mémorisée de la valeur de poids et son addition à chaque valeur de poids courante pour
obtenir une nouvelle valeur de poids, après que les se-
conde à quatrième étapes ont été effectuées par rapport à 2 paires d'entrée et de sortie; une sixième étape de réduction de chaque valeur de poids d'un rapport prédéterminé, lorsque la somme de
la nouvelle valeur de poids obtenue au cours de la cin-
quième étape dans le noeud d'entrée de chaque neurone de la couche de sortie se trouve au-dessus d'une valeur prédéterminée; et une septième étape d'utilisation de la couche de sortie en tant que couche inaccessible, d'augmentation
de la nouvelle couche de sortie, et de répétition du processus en com-
mençant par la seconde étape en utilisant les sorties de chaque couche inac-
cessible inférieure et l'entrée initiale en tant que nouvelles entrées, lorsq le résultat désiré n'est pas obtenu après répétition de l'apprentissage jusqu'à la sixième étape par les nombres de fois prédéterminés de répé- titions. Les buts qui précèdent et autres avantages de la présente
invention ressortiront de la description du mode de réalisation préféré
de la présente invention en référence aux dessins annexés, sur lesquels la Figure 1 est un schéma de conception d'un réseau neural à couches multiples classique; la Figure 2 est un graphique caractéristique d'une fonction
sigmoide utilisée au cours de l'apprentissage du réseau neural à cou-
ches multiples classique; la Figure 3 est un schéma de concept d'un réseau neural à couches multiples selon la présente invention; la Figure 4 est un graphique caractéristique d'une fonction échelon utilisée au cours de l'apprentissage du réseau neural à couches multiples selon la présente invention;
la Figure 5 A est un schéma de circuit d'un mode de réalisa-
tion du réseau neural à couches multiples selon la présente invention;
la Figure 5 B est un schéma de circuit partiel afin d'expli-
quer la structure synapse de la Figure 5 A; la Figure 6 A est un schéma de motif hélicoïdal selon des coordonnées X-Y; et la Figure 6 B est un schéma de motif hélicoïdal pour chaque couche obtenue par apprentissage du motif hélicoïdal de la Figure 6 A selon le procédé de conception du circuit du réseau neural à couches
multiples de la présente invention.
La présente invention sera décrite ci-après en
référence aux dessins annexés.
La Figure 1 est un schéma de conception d'un
réseau neural à couches multiples général qui est un ré-
seau prédictif possédant des noeuds d'au moins une couche
entre des noeuds d'entrée et de sortie Ces couches supplé-
mentaires comprennent des unités ou noeuds inaccessibles qui ne sont pas directement reliés à la fois aux noeuds d'entrée et de sortie Comme représenté sur la Figure 1, le circuit neural à trois couches possède des couches inaccessibles à deux couches Ll et L 2 entre la couche d'entrée LO et la couche de sortie L 3 La couche d'entrée
LO possède cinq neurones ou noeuds N 01 à N 05 pour rece-
voir des entrées X O à X 4 Les couches inaccessibles Ll et L 2 possèdent chacune trois neurones ou noeuds Nll, N 12, et N 13 et N 21, N 22, et N 23, respectivement, tandis que la couche de sortie L 3 possède également trois neurones ou
noeuds N 31, N 32, N 33 pour générer respectivement des sor-
ties Y 0, Y 1 et Y 2 Ici, il faut remarquer que le nombre de neurones de chaque couche est déterminé par le nombre de bits d'entrée et de sortie du circuit du système Les neurones ou noeuds de chaque couche sont reliés à tous
les neurones de sa couche inférieure immédiatement précé-
dente seulement.
Le réseau neural à couches multiples classique
est instruit par l'algorithme d'entraînement à contre-
propagation antérieurement connu (BPTA) Le BPTA possède la caractéristique graphique représentée sur la Figure 2
et utilise la fonction sigmoîde représentée dans l'équa-
tion (I) suivante z tE 1 / T I tr OU) = 1 + expl-( î 0)l ( 1) Cependant, puisque la fonction sigmoide est une fonction exponentielle, la réalisation du circuit est
difficle et compliquée.
Egalement, lorsqu'une entrée binaire et une fonction échelon sont utilisées, le réseau neural à cou- ches multiples classique peut avoir seulement une valeur par rapport à différentes valeurs d'entrée du fait de la structure de connexion entre couches En résultat, les valeurs d'entrée de couche supérieure ne peuvent pas être
discriminées.
La Figure 3 est une vue du concept d'un réseau
neural à couches multiples selon la présente invention.
Le réseau neural à couches multiples de la présente inven-
tion est différent du réseau neural à couches multiples de la Figure 1 en ce que les neurones ou noeuds de chaque
couche sont reliés à tous les neurones de la couche d'en-
trée immédiate ainsi qu'à ceux de chaque couche inférieure Puisque d'autres parties de cette structure sont les mêmes que celles de la Figure 1, les
mêmes chiffres de référence seront utilisés pour les élé-
ments homologues Egalement, l'apprentissage du circuit
neural à couches multiples de la présente invention pos -
sède la caractéristique graphique représentée sur la Fi-
gure 4 et utilise la fonction échelon représentée par l'équation suivante (II) N-1 Yi = 2 Cfh( Z Wi Xi G) + 1 i= O fh ( y Wi Xi 0): fonction non linéaire à limite fixe 0 valeur de seuil du noeud de neurone Wi valeur de poids de connexion par rapport à Xi Xi entrée La réalisation du circuit du réseau neural à couches multiples selon la présente invention est conçue par
l'algorithme d'apprentissage comme suit.
Etape 1: toutes les valeurs de poids de connexion entre noeuds sont initialisées.
Etape 2: une paire d'entrée et de sortie dé-
sirée sont présentées à l'entrée et à la sortie Ici, les entrées sont des valeurs binaires à m bits et le nombre total d'entrées est 2, et les sorties sont des valeurs binaires à N bits et le nombre total de sorties est 2
Par conséquent, des valeurs de sortie identiques par rap-
port à différentes entrées peuvent être obtenues.
Etape 3: la somme des valeurs de poids d'entrée en chaque noeud est obtenue et la sortie réelle est générée par la fonction échelon Ici, l'équation (II) est utilisée
pour la fonction échelon.
Etape 4: la valeur de sortie désirée au noeud
de sortie est comparée à la valeur de sortie réelle obte-
nue au cours de l'étape 3, en calculant ainsi une erreur, et la variation de la valeur de poids selon l'erreur est mémorisée C'est-à- dire que l'erreur <S est: S = sortie désirée sortie réelle et la variation de valeur de poids À W est à W = S x entrée Etape 5 après que les étapes 2, 3 et 4 ont été effectuées pour chaque paire d'entrée et de sortie, si toutes les valeurs de sortie réelles sont égales aux valeurs de sortie désirées, l'apprentissage prend fin, mais si elles ne le sont pas, la somme totale de la variation de valeur de poids A W est ajoutée à chaque valeur de poids C'est-à-dire que la nouvelle valeur de poids (WT est: w T =WT 1 + w
o T est égal au nombre d'apprentissages.
Etape 6: lorsque la somme de la nouvelle valeur de poids WT par rapport à chaque entrée de noeud se trouve au-dessus d'une valeur déterminée M, les valeurs de poids WT sont réduites à un taux prédéterminé C'est-à- dire que la valeur de poids WT est réduite par l'équation suivante w' =W x M (III) T Tw T en supposant que i WT > M et o WT' est la valeur de poids obtenue après que
les T processus d'apprentissage ont été effectués.
Etape 7: si les étapes précédentes (à partir
de l'étape 2) ont été répétées le nombre de fois prédé-
terminé avec une nouvelle valeur de poids WT et sans atteindre le résultat désiré, la couche de sortie courante devient une couche inaccessible, la nouvelle couche de sortie est incrémentée et ensuite le processus est répété
(en commençant par l'étape 2) en utilisant l'entrée ini-
tiale conjointement avec les sorties de toutes les couches inaccessibles inférieures en tant que nouvelle entrée
de la nouvelle couche de sortie.
Ainsi, l'apprentissage est effectué par un appren-
tissage à une seule couche, et si la valeur de sortie désirée est correctement obtenue, l'apprentissage prend fin Cependant, si l'apprentissage a été répété le nombre
prédéterminé de fois, et si le résultat est encore incor-
rect, une couche est alors ajoutée Dans la nouvelle couche ajoutée, l'entrée initiale et les sorties réelles incomplè-
tes de chaque couche inaccessible inférieure sont utili-
sées en tant que nouvelles entrées, et l'apprentissage est répété pour la couche suivante A cet instant, la couche de sortie pour le premier apprentissage est changée pour jouer le rôle d'une couche inaccessible Ainsi, dans la couche suivante, l'apprentissage est répété en utilisant le même procédé que l'apprentissage de la couche précédente, mais avec davantage d'entrées par le nombre de sorties de chaque couche inaccessible Au cours du processus d'apprentissage, chaque fois qu'une entrée
est ajoutée, la variation de la valeur de poids est mémo-
risée Après que toutes les entrées ont été appliquées, la somme des variations des valeurs de poids totales est ajoutée à la valeur de poids, en obtenant ainsi une nouvelle
valeur de poids.
Ici, la somme de la valeur de poids à comparer à un neurone -est supérieure à la valeur prédéterminée M, l'équation (III) est appliquée par rapport à chaque valeur de poids pour les réduire à un taux prédéterminé, limitant ainsi la somme des valeurs de poids à l'intérieur de la valeur M. Un mode de réalisation d'un réseau neural à couches multiples conçu par rapport à des entrées et des sorties particulières grâce à un tel apprentissage est réalisé avec des inverseurs C<MS, des transistors PMOS et NMOS,cmae représer
sur la Figure 5 A Sur la figure 5 A, un réseau neural à trois couches pos-
il
sède une entrée à cinq bits et une sortie à trois bits.
Ainsi, une couche d'entrée LO possède cinq neurones N 01 à N 05, et deux couches inaccessibles Li et L 2 possèdent chacune trois neurones Nll, N 12 et N 13, et N 21, N 22 et N 23, respectivement, tandis qu'une couche de sortie L 3 possède également trois neurones N 31, N 32 et N 33 Ici, chaque neurone de chaque couche est un montage en cascade d'une paire d'inverseurs CMOS INT 1 et INT 2 comme représenté sur la Figure 5 B, et est réalisé avec un circuit tampon o un noeud de sortie de l'inverseur CMOS précédent INT 1 est un noeud de sortie avec inversion NDB et le noeud de sortie de l'inverseur CMOS suivant INT 2 est un noeud de sortie sans inversion ND La synapse pour relier chaque
neurone d'une couche d'entrée et chaque neurone d'une cou-
che de sortie est constituée de transistors PMOS et NMOS
par le procédé suivant.
Si l'apprentissage obtient un poids de connexion final qui est positif, et si le neurone d'entrée IN reçoit un signal logique haut (valeur de bit = 1), l'amplitude de connexion correspondante sous la forme d'une première
tension d'alimentation (par exemple la tension d'alimen-
tation Vcc) est appliquée au noeud d'entrée IND du neurone de sortie ON par l'intermédiaire du transistor PMOS B dont la grille est commune avec le noeud de sortie avec inversion NDB, et pour des valeursde poids de connexion négatives, la connexion se fait à une seconde tension
d'alimentation (par exemple la masse ou Vss) par l'inter-
médiaire du transistor NMOSC dont la grille est commune
avec le noeud de sortie sans inversion ND De façon con-
verse, lorsque le neurone d'entrée reçoit un signal logique bas (valeur de bit d'entrée = 0) et que le poids de connexion est positif, l'amplitude de connexion est sous la forme de la tension d'alimentation Vcc appliquée par l'intermédiaire du transistor PMOSA dont la grille est également commune au noeud de sortie sans inversion ND, tandis que pour des poids négatifs,l'amplitude de connexion est un potentiel de masse ou égal à la seconde
tension d'alimentation Vss, et est appliquée par l'inter-
médiaire du transistor NMOSD dont la grille est reliée au
noeud de sortie sans inversion NDB.
Si la valeur de poids de connexion est " O ", aucune connexion n'est faite, indépendamment de l'état
logique du bit d'entrée.
En utilisant ce procédé, un groupe de synapse d'entrée Si et des groupes de synapse de transfert 52 et 53 de la Figure SA sont constitués de transistors PMOS et NMOS Ici, chaque neurone de la couche d'entrée LO est relié à chaque noeud d'entrée de chaque neurone des deux couches inaccessibles Ll et L 2 et de la couche de
sortie L 3, par l'intermédiaire du groupe de synapse d'en-
trée précité SI en matrice Chaque neurone de la couche
inaccessible Ll est relié à chaque noeud d'entrée de neu-
rones de chaque couche inaccessible supérieure L 2 et d'une couche de sortie L 3, Dar l'intermédiaire du qroupe de synapse de transfert 52 de la matrice De façon similaire, chaque neurone de
la couche inaccessible L 2 est relié à chaque noeud d'en-
trée des neurones de la couche de sortie L 3, par l'inter-
médiaire du groupe de synapse de transfert 53 en matrice.
Egalement, tous les noeuds d'entrée de neurones des deux couches inaccessibles Ll et L 2 et de la couche de sortie L 3 représentés sur la Figure 5 A sont polarisés
à la seconde tension d'alimentation Vss ou GND par l'in-
termédiaire du groupe de synapse de polarisation
54 Puisque le groupe de synapse de polarisation 54 po-
larise le noeud d'entrée de chaque neurone à la seconde tension d'alimentation Vss ou GND lorsque l'entrée n'est pas appliquée et ainsi polarise chaque sortie de neurone à "", le groupe de synapse de polarisation 54 est constitué d'un transistor NMOS, dans lequel la première tension d'alimentation Vcc est appliquée à la grille, le drain est relié au noeud d'entrée de chaque neurone, et la se- conde tension d'alimentation (Vss ou GND) est appliquée à la source Ici, le transistor NMOS pour une synapse de polarisation présente un rapport géométrique (largeur de canal (W)/longueur du canal (L)) pour avoir une amplitude de connexion équivalente à la valeur de poids unité Par exemple, lorsque le rapport W/L du transistor NMOS est 2 gm/2 Nom en tant que valeur de poids unitaire, le rapport W/L du transistor PMOS devient 5 gm/2 1 m Celui-ci est fixé en considérant le rapport de mobilité d'un électron par rapport à un trou et chaque valeur de poids est un multiple de la valeur de poids unitaire; ce nombre étant un entier Ainsi, le terme "+ 1 " dans l'équation (II) est
une constante en considérant la valeur de synapse de po-
larisation. Le mode de réalisation appliquant le réseau neural à couches multiples de la présente invention tel que décrit ci- dessus à l'additionneur complet à deux bits et au circuit de reconnaissance de forme hélicoïdale est
comme suit.
Mode de réalisation I Additionneur complet à deux bits Un additionneur complet à deux bits possède une entrée à cinq bits constituée d'un cumulateur à deux bits, d'un cumulande à deux bits, et d'une entrée de retenue à
un bit, et d'une sortie à trois bits.
Tableau 1
I ENTREE I SORTIE I
____-iXj I Xe+ Y I X 4 X 3 X X, Xo I Y 3 Y 2 Y: I à q 0 o O o O o O 1
O O 1 'O
O O t 1 o 1 o O O 1 O t
O 1 1 O
o 1 1 1 1 o O o
1 O O 1
I O 1 O
1 o 1 1 1 1 O o
I 1 O 1
1 1 1 O
I 1 I f o o o o o O O 1
O O 1 O
O O 1 1
o 1 o O
O 1 O 1
O 1 1 O
o 1 1 1 1 O O o I O O t
1 O 1 O
1 O 1 1
1 1 O O
1 1 O 1
1 1 1 O
I I 1 1
O 1
O O 1
0 O 1
0 1 o 0 1 o
0 1 1
0 1 1
1 0 0
i o 1
0 1 O
0 I O
0 I 1
It o 1 o o 1 1 o i O
1 0 O
0 o O
0 1 1
0 1 1
1 o O 1 o O
1 O 1
1 O 1
1 0 1
0 1 1
1 O O
1 O 1
1 o i
1 1 0 O
I t 1 O
1 1 1 0
J
1 1 1
En résultat de l'apprentissage de l'entrée et de
la sortie ci-dessus selon le procédé de conception de cir-
cuit, un réseau à couches multiples de la présente inven-
tion peut être obtenu par un circuit neural à trois couches, et chaque valeur de poids de synapses est obtenue comme re-
présenté au Tableau 2.
1 O l O o 0 O 0 O 0 O 0 o o O O O O Io I 1 l 1 I 1 Il 1 1 I L-__
Tableau 2
r IN de i couches 1-__ F i I I l I
ENTREE
H 1 I
o o l I I___ o l o
-1 ___
r
VALEUR E
3 2 31 2 I
o oi
I1 2 1) O I
I o-1O 1 1 | o _ O-_
|-3 -2 -3 -1 -24
-2 -0 2 2
11 1 1 I
I 31334 1 1
I o 2 2-2-2 I
-2 -1 -1 -1 -1 J
-3 1 -3 -3 -4 '
0 2 2 2
*l 10211
1 O
I 3 6 6-2 O
I -I o -2 -1 -1 I-1 o o-1 o l -3 -6 -6 2 O L __
DE POIDS
r 1-t
$ 1 O
-8 1 -3
-3 O 7
-3 -1 O
8-1 3
3 O -7
-1 O O
-8 1 1 1
-2 O -1
1 O O
I 6 -1 -11
2 0 0
-1 4 1
-8 -5 O
-2 O O
I 1 -4 -1
l 6 5 O
L_ _ -
Mode de réalisation II Circuit de reconnaissance de forme hélicoidal Un circuit de reconnaissance de forme hélicoidal possède une entrée à 6 bits de valeurs X-Y sur un plan X-Y représenté sur la Figure 6 A, et une sortie à un seul bit. En résultat de l'apprentissage, des valeurs d'entrée et de sortie par le procédé de conception de circuit du réseau
neural à couches multiples de la présente invention, le ré-
sultat souhaitable peut être obtenu par le circuit neural à neuf couches représenté sur la Figure 6 B. I
Claims (9)
1 Réseau neural à couches multiples recevant
une entrée à m bits et générant une sortie à N bits, ca-
ractérisé en ce qu'il comporte: un neurone afin de relier en cascade une paire d'inverseurs CMOS et possédant un noeud de sortie de l'in- verseur CMOS précédent parmi ladite pa Xre d 'inverseurs CMOS en tant que noeud de sortie avec inversion de celui-ci, et un noeud-de sortie de l'inverseur CMOS suivant en tant que noeud de sortie sans inversion; une couche d'entrée (LO) possédant m neurones pour recevoir l'entrée à m bits; une couche de sortie (L 3) possédant N neurones pour générer ladite sortie à N bits; au moins une couche inaccessible (Ll, L 2) pourvue de N neurones afin de transférer l'entrée reçue de ladite couche d'entrée (LO) à chaque couche inaccessible supérieure et à ladite couche de sortie (L 3); un groupe synapse d'entrée (Sl) dans une matrice possédant chaque valeur de poids prédéterminée pour relier chaque sortie de neurones sur ladite couche d'entrée (LO)
à chaque neurone de ladite couche de sortie (L 3) et de la-
dite au moins une couche inaccessible; au moins un groupe synapse de transfert (Sl, 52)
dans une matrice possédant chaque valeur de poids prédéter-
minée pour relier chaque sortie de neurones de ladite couche inaccessible à chaque neurone de chaque couche inaccessible supérieure et de ladite couche de sortie (L 3); et un groupe synapse de polarisation ( 54) afin de polariser chaque noeud d'entrée de neurones de ladite au moins une couche inaccessible et de ladite couche de sortie
(L 3).
2 Réseau neural à couches multiples selon la revendication 1, caractérisé en ce que ledit groupe synapse d'entrée (Si) applique des tensions d'alimentation à chaque noeud d'entrée de neurones de ladite couche de sortie (L 3) et de ladite au moins une couche inaccessible de telle manière que, lorsqu'une valeur de bit d'entrée reçue dans chaque neurone de ladite couche d'entrée (LO) est " 1 ", si une valeur de poids de connexion est positive, une première tension d'alimentation est appliquée avec une amplitude de
connexion de ladite valeur de poids de connexion par l'in-
termédiaire d'un transistor PMOS dont la grille est reliée à chaque noeud de sortie avec inversion de neurone de ladite couche d'entrée (LO) et, si une valeur de poids de connexion
est négative, une seconde tension d'alimentation est appli-
quée avec une amplitude de connexion de ladite valeur de poids de connexion par l'intermédiaire d'un transistor NMOS dont la grille est reliée à chaque noeud de sortie sans inversion de neurone de ladite couche d'entrée (LO), lorsqu'une valeur de bit d'entrée est " O ", si une valeur de poids de connexion est positive, une première tension d'alimentation est appliquée avec une amplitude de connexion de ladite valeur de poids de connexion par l'intermédiaire d'un transistor PMOS dont la grille est reliée à chaque noeud de sortie sans inversion de neurone de ladite couche d'entrée (LO), et si une valeur de poids de connexion est négative, une seconde tension d'alimentation est appliquée avec une amplitude de connexion de ladite valeur de poids de connexion par l'intermédiaire d'un transistor NMOS dont
la grille est reliée à chaque noeud de sortie avec inver-
sion de neurone de ladite couche d'entrée (LO), et lorsque ladite valeur de bit d'entrée est " 1 " ou " O " et une valeur de poids de connexion est " O ", aucune connexion n'est effectuée, et en ce que ledit groupe synapse de transfert est constitué de transistors PMOS et NMOS afin de relier chaque noeud de
sortie avec et sans inversion de neurone de couche inacces-
sible à chaque noeud d'entrée de neuroned'une couche de
sortie (L 3) et de chaque couche inaccessible supé-
rieure desdites couches inaccessibles (Ll, L 2) selon le même procédé que ledit groupe synapse d'entrée (Sl).
3 Réseau neural à couches multiples selon la re-
vendication 2, caractérisé en ce que ledit groupe synapse de polarisation ( 54) est constitué par un transistor NMOS
dont la grille est reliée à ladite première tension d'ali-
mentation pour polariser le noeud d'entrée de chaque neu-
rone de ladite couche de sortie (L 3) et de ladite au moins
une couche inaccessible à la seconde tension d'alimenta-
tion en tant qu'amplitude de connexion d'une valeur de
poids unitaire.
4 Résau neural à couches multiples selon la re-
vendication 3, caractérisé en ce que l'amplitude de connexion de chaque valeur de poids desdites synapses est déterminée par un rapport géométrique d'un transistor MOS (largeur
de canal/longueur de canal).
5 Réseau neural à couches multiples selon la re-
vendication 1, caractérisé en ce que chaque valeur de poids
desdites synapses est un entier.
6 R éseau neural à couches multiples selon la re-
vendication 1, caractérisé en ce que la somme totale de valeurs de poids de synapses connectées à chaque noeud
d'entrée de neurone de la couche de sortie (L 3) ou de la-
dite au moins une couche inaccessible est inférieure à la valeur d'entrance de l'inverseur CMOS précédent dudit neurone.
Dans le réseau neural à couches multiples re-
7 cevant une entrée à m bits et générant une sortie à N bits, comportant un neurone afin de relier en cascade une paire
d'inverseurs CMOS et possédant un noeud de sortie de l'in-
verseur CMOS précédent parmi ladite paire d'inverseurs CMOS en tant que noeud de sortie avec inversion de celui-ci et un noeud de sortie de l'inverseur CMOS suivant en tant que noeud de sortie sans inversion; une couché d'entrée (LO) possédant m neurones pour recevoir ladite entrée à m bits; une couche de sortie (L 3) possédant N neurones pour générer ladite sortie à N bits; au moins une couche inaccessible (Ll, L 2) pourvue desdits N neurones afin de transférer l'entrée reçue de ladite couche d'entrée (LO) à chaque couche inaccessible supérieure et à ladite couche de sortie (L 3); un groupe synapse d'entrée (Sl)
dans une matrice possédant chaque valeur de poids prédéter-
minée pour relier chaque sortie de neurones sur ladite couche d'entrée (LO) à chaque neurone de ladite couche de sortie (L 3) etde ladite au moins une couche inaccessible; au moins un groupe synapse de transfert ( 51, 52) dans une matrice possédant chaque valeur de poids prédéterminée
pour relier chaque sortie de neurone de la couche inacces-
sible à chaque neurone de chaque couche inaccessible supérieure et de la couche de sortie (L 3); et un groupe synapse de polarisation ( 54) afin de polariser
chaque noeud d'entrée de neurones desdites couches inac-
cessibles (LI, L 2) et de ladite couche de sortie (L 3),
le procédé de conception de circuit d'un ré-
seau neural à couches multiples caractérisé en ce qu'il comporte une première étape d'initialisation de la valeur de poids de connexion dudit groupe synapse d'entrée (Sl)
unedlibew Y étape de fixation de la valeur d'en-
trée à m bits et d'une valeur de sortie désirée à N bits correspondant à la valeur d'entrée; une troisième étape d'obtention de la somme des valeurs de poids d'entrée sur le noeud d'entrée de chaque neurone de ladite couche de-sortie (L 3) et de génération d'une sortie réelle par une fonction échelon; une quatrième étape de comparaison de la valeur de sortie réelle obtenue au cours de ladite troisième étape,
à ladite valeur de sortie désirée fixée au cours de la se-
conde étape pour calculer l'erreur, et de mémorisation de la variation de la valeur de poids calculée selon la valeur d'erreur;
une cinquième étape de terminaison d'apprentis-
sage si chaque valeur de sortie est égale à la valeur de sortie désirée, ou si elle ne l'est pas, d'obtention de la somme des variations mémorisées de la valeur de poids et son addition- à chaque valeur de poids courante pour obtenir une nouvelle valeur de poids après que lesdites deuxième-à quatrième étapes ont été effectuées par rapport 2 m paires d'entrée et de sortie; une sixième étape de réduction de chaque valeur de poids d'un rapport prédéterminé, lorsque la somme de la nouvelle valeur de poids obtenue au cours de ladite cinquième étape dans le noeud d'entrée de chaque neurone de ladite couche de sortie (L 3) se trouve au-dessus d'une valeur prédéterminée; et une septième étape d'utilisation de ladite couche
de sortie (L 3) en tant que couche inaccessible, d'augmen-
tation de la nouvelle couche de sortie, et de répétition du processus en commençant par ladite seconde étape en utilisant la sortie de chaque couche inaccessible inférieure et l'entrée initiale en tant que nouvelles entrées, lorsque le résultat désiré n'est pas obtenu après répétition de l'apprentissage jusqu'à la sixième étape par
-les nombres de fois prédéterminés de répétitions.
8 Procédé de conception de circuit d'un réseau neu-
ral à couches multiples selon la revendication 7, caracté-
risé en ce que ladite fonction échelon est donnée par l'expression numérique suivante N-1 Yi = 1 1 fh ( z Wi Xi G) + 1 2 L i=l 1 fh: fonction non linéaire à limite fixe Wi: valeur de poids Xi: entrée Yi: sortie G: valeur de seuil de neurone de couche de sortie
9 Procédé de conception de circuit d'un réseau.
neural à couches multiples selon la revendication 7, ca-
ractérisé en ce qu'au cours de l'étape 6, lesdites nouvel-
les valeurs de poids s-ont réduites par l'expression numérique suivante:
W =W M
TWT WT: nouvelle valeur de poids obtenue après T fois apprentissages I WT somme de valeur de poids appliquée au noeud de sortie de neurone de la couche de sortie M valeur d'entrance de neurone de couche de sortie (constante)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019900012915A KR930009066B1 (ko) | 1990-08-18 | 1990-08-18 | 다층신경회로망 및 그 회로설계방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2665969A1 true FR2665969A1 (fr) | 1992-02-21 |
FR2665969B1 FR2665969B1 (fr) | 1994-12-09 |
Family
ID=19302592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR9110414A Expired - Lifetime FR2665969B1 (fr) | 1990-08-18 | 1991-08-19 | Reseau neural a couches multiples et son procede de conception. |
Country Status (4)
Country | Link |
---|---|
US (1) | US5347613A (fr) |
JP (1) | JP3229624B2 (fr) |
KR (1) | KR930009066B1 (fr) |
FR (1) | FR2665969B1 (fr) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3438241B2 (ja) * | 1992-10-29 | 2003-08-18 | 直 柴田 | 半導体神経回路装置 |
US5486999A (en) * | 1994-04-20 | 1996-01-23 | Mebane; Andrew H. | Apparatus and method for categorizing health care utilization |
US5717833A (en) * | 1996-07-05 | 1998-02-10 | National Semiconductor Corporation | System and method for designing fixed weight analog neural networks |
US6513023B1 (en) | 1999-10-01 | 2003-01-28 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Artificial neural network with hardware training and hardware refresh |
TWI251166B (en) * | 2001-11-26 | 2006-03-11 | Expl Of Next Generation Co Ltd | Synapse element with learning function and semiconductor integrated circuit device including the synapse element |
US10410117B2 (en) | 2008-09-21 | 2019-09-10 | Brainchip, Inc. | Method and a system for creating dynamic neural function libraries |
DE102011081197A1 (de) | 2011-08-18 | 2013-02-21 | Siemens Aktiengesellschaft | Verfahren zur rechnergestützten Modellierung eines technischen Systems |
RU2475843C1 (ru) * | 2011-12-15 | 2013-02-20 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Национальный исследовательский Томский государственный университет" (ТГУ) | Адаптивное управляющее устройство, нейроподобный базовый элемент и способ организации работы такого устройства |
CN105512723B (zh) * | 2016-01-20 | 2018-02-16 | 南京艾溪信息科技有限公司 | 一种用于稀疏连接的人工神经网络计算装置和方法 |
US20190378017A1 (en) * | 2018-06-12 | 2019-12-12 | Sun-Yuan Kung | System and method for implementing a neural network |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4926180A (en) * | 1988-03-25 | 1990-05-15 | Trustees Of Columbia University In The City Of New York | Analog to digital conversion using correlated quantization and collective optimization |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8720387D0 (en) * | 1987-08-28 | 1987-10-07 | British Telecomm | Matching vectors |
US5092343A (en) * | 1988-02-17 | 1992-03-03 | Wayne State University | Waveform analysis apparatus and method using neural network techniques |
EP0366804B1 (fr) * | 1988-03-25 | 1997-12-10 | Hitachi, Ltd. | Methode a reconnaitre des structures d'images |
US5220641A (en) * | 1988-10-11 | 1993-06-15 | Kabushiki Kaisha Toshiba | Multi-layer perceptron circuit device |
EP0377221B1 (fr) * | 1988-12-29 | 1996-11-20 | Sharp Kabushiki Kaisha | Ordinateur neuronal |
DE69032680T2 (de) * | 1989-01-06 | 1999-06-02 | Hitachi, Ltd., Tokio/Tokyo | Neuronaler Rechner |
KR920000840B1 (ko) * | 1989-02-02 | 1992-01-30 | 정호선 | 신경회로망을 이용한 a/d변환기 회로 |
KR920007505B1 (ko) * | 1989-02-02 | 1992-09-04 | 정호선 | 신경회로망을 이용한 곱셈기 |
US5195169A (en) * | 1989-03-03 | 1993-03-16 | Sharp Kabushiki Kaisha | Control device for controlling learning of a neural network |
US5195171A (en) * | 1989-04-05 | 1993-03-16 | Yozan, Inc. | Data processing system |
US5187680A (en) * | 1989-06-15 | 1993-02-16 | General Electric Company | Neural net using capacitive structures connecting input lines and differentially sensed output line pairs |
US5146542A (en) * | 1989-06-15 | 1992-09-08 | General Electric Company | Neural net using capacitive structures connecting output lines and differentially driven input line pairs |
US5214743A (en) * | 1989-10-25 | 1993-05-25 | Hitachi, Ltd. | Information processing apparatus |
FR2658337A1 (fr) * | 1990-02-09 | 1991-08-16 | Philips Electronique Lab | Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise. |
FR2658336A1 (fr) * | 1990-02-09 | 1991-08-16 | Philips Electronique Lab | Procede d'apprentissage d'un reseau de neurones en couches pour classification multiclasses et reseau de neurones en couches. |
US5087826A (en) * | 1990-12-28 | 1992-02-11 | Intel Corporation | Multi-layer neural network employing multiplexed output neurons |
-
1990
- 1990-08-18 KR KR1019900012915A patent/KR930009066B1/ko not_active IP Right Cessation
-
1991
- 1991-08-15 US US07/745,346 patent/US5347613A/en not_active Expired - Lifetime
- 1991-08-19 FR FR9110414A patent/FR2665969B1/fr not_active Expired - Lifetime
- 1991-08-19 JP JP20699191A patent/JP3229624B2/ja not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4926180A (en) * | 1988-03-25 | 1990-05-15 | Trustees Of Columbia University In The City Of New York | Analog to digital conversion using correlated quantization and collective optimization |
Non-Patent Citations (4)
Title |
---|
CONNER: "Data transformation explains the basics of neural networks", EDN ELECTRICAL DESIGN NEWS, vol. 33, no. 10, 12 May 1988 (1988-05-12), NEWTON, MASSACHUSETTS US, pages 138 - 144 * |
DISTANTE: "Area compaction in silicon structures for neural net implementation", MICROPROCESSING AND MICROPROGRAMMING, vol. 28, no. 1/5, March 1990 (1990-03-01), AMSTERDAM NL, pages 139 - 143 * |
GRAF: "VLSI implementation of a neural network model", COMPUTER, vol. 21, no. 3, March 1988 (1988-03-01), LONG BEACH US, pages 41 - 48 * |
SALAM: "A feedforward neural network for CMOS VLSI implementation", PROCEEDINGS OF THE 32ND MIDWEST SYMPOSIUM ON CIRCUITS AND SYSTEMS, 14 August 1989 (1989-08-14), CHAMPAIGN , USA, pages 489 - 492 * |
Also Published As
Publication number | Publication date |
---|---|
FR2665969B1 (fr) | 1994-12-09 |
JP3229624B2 (ja) | 2001-11-19 |
US5347613A (en) | 1994-09-13 |
KR930009066B1 (ko) | 1993-09-22 |
KR920005005A (ko) | 1992-03-28 |
JPH04245098A (ja) | 1992-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0322966B1 (fr) | Circuit et structure de réseau de neurones | |
JPH0713950A (ja) | 人工ニューロンおよびその使用方法 | |
FR2665969A1 (fr) | Reseau neural a couches multiples et son procede de conception. | |
US20180336470A1 (en) | Deep learning in bipartite memristive networks | |
Verleysen et al. | An analog VLSI implementation of Hopfield's neural network | |
KR102470924B1 (ko) | 인메모리 컴퓨팅 및 하이브리드 계산/저장 메모리 아키텍처를 위한 sram 기반 셀 | |
Hirotsu et al. | An analog neural network chip with random weight change learning algorithm | |
EP0837399B1 (fr) | Dispositif électronique pour l'exécution d'opérations de convolution | |
FR2695246A1 (fr) | Système de reconnaissance de la parole. | |
Choi et al. | A programmable analog VLSI neural network processor for communication receivers | |
EP0568146B1 (fr) | Processeur neuronal muni de moyens pour normaliser des données | |
US20190294957A1 (en) | Arithmetic device and arithmetic method | |
FR2665968A1 (fr) | Reseau neural a couches multiples et son procede de conception. | |
EP0706143B1 (fr) | Contrôleur à logique floue de type analogique | |
Campolucci et al. | On-line learning algorithms for neural networks with IIR synapses | |
US5625752A (en) | Artificial neural system with binary weighting by equal resistor network | |
TW202234399A (zh) | 記憶體系統 | |
EP0500481B1 (fr) | Circuit et procédé de sélection des k plus grandes données d'une suite de données | |
Lehmann | A hardware efficient cascadable chip set for ANN's with on-chip backpropagation | |
Spencer | Analog implementations of artificial neural networks | |
US11487990B2 (en) | Resistive crossbar arrays with reduced numbers of elements | |
Cao et al. | Algorithm and implementation of a learning multiple-valued logic network | |
Hirai | Recent VLSI neural networks in Japan | |
EP0432008A1 (fr) | Réseau neuronal électronique et procédé d'apprentissage | |
Pelayo et al. | CMOS Implementation of Synapse Matrices with programmable analog weights |