FR3109002A1 - Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel - Google Patents

Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel Download PDF

Info

Publication number
FR3109002A1
FR3109002A1 FR2003326A FR2003326A FR3109002A1 FR 3109002 A1 FR3109002 A1 FR 3109002A1 FR 2003326 A FR2003326 A FR 2003326A FR 2003326 A FR2003326 A FR 2003326A FR 3109002 A1 FR3109002 A1 FR 3109002A1
Authority
FR
France
Prior art keywords
neural network
artificial neural
pseudo
samples
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2003326A
Other languages
English (en)
Other versions
FR3109002B1 (fr
Inventor
Miguel Angel SOLINAS
Marina REYBOZ
Stephane ROUSSET
Martial MERMILLOD
Clovis GALIEZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universite Grenoble Alpes
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Universite Grenoble Alpes
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Universite Grenoble Alpes, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR2003326A priority Critical patent/FR3109002B1/fr
Priority to EP21715647.0A priority patent/EP4128072A1/fr
Priority to PCT/EP2021/058631 priority patent/WO2021198426A1/fr
Priority to US17/916,132 priority patent/US20230153632A1/en
Publication of FR3109002A1 publication Critical patent/FR3109002A1/fr
Application granted granted Critical
Publication of FR3109002B1 publication Critical patent/FR3109002B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Devices For Executing Special Programs (AREA)
  • Image Analysis (AREA)

Abstract

Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel La présente description concerne un procédé de génération de données d’apprentissage pour transférer de la connaissance d’un réseau neuronal artificiel entraîné (402) vers un autre réseau neuronal artificiel (406), le procédé comprenant : a) injecter un échantillon aléatoire (SEED) dans le réseau neuronal artificiel entraîné ; b) réinjecter un pseudo-échantillon (Xm), généré sur la base d’un échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné, dans le réseau neuronal artificiel entraîné afin de générer un nouvel échantillon reproduit ; et c) répéter b) une ou plusieurs fois, dans lequel les données d’apprentissage pour l’apprentissage de l’autre réseau neuronal artificiel (406) comprennent au moins deux des pseudo-échantillons réinjectés (Xm, X(m+1),…) issus du même échantillon aléatoire et des valeurs de sortie correspondantes (Ym, Y(m+1),…) générées par le réseau neuronal artificiel entraîné. Figure pour l'abrégé : Fig. 4

Description

Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel
La présente description concerne de façon générale le domaine des réseaux neuronaux artificiels, et en particulier un dispositif et un procédé pour transférer de la connaissance entre des réseaux neuronaux artificiels.
Les réseaux neuronaux artificiels (ANN) sont des architectures qui visent à imiter, dans une certaine mesure, le comportement d’un cerveau humain. De tels réseaux sont en général constitués de circuits de neurones et d’interconnexions entre les circuits de neurones, connues sous le nom de synapses.
Comme cela est connu de la personne du métier, les architectures ANN, comme les architectures de perceptrons multicouches, comprennent une couche d’entrée de circuits de neurones, une ou plusieurs couches cachées de circuits de neurones, et une couche de sortie de circuits de neurones. Chacun des circuits de neurones dans la ou les couches cachées applique une fonction d’activation, comme la fonction sigmoïde, à des entrées reçues de la couche précédente afin de générer une valeur de sortie. Les entrées sont pondérées par des paramètres θ au niveau des entrées des neurones de la ou des couches cachées. Bien que la fonction d’activation soit en général sélectionnée par le concepteur, les paramètres θ sont trouvés pendant l’apprentissage.
Pour un problème donné, une fonction à approximer est par exemple une fonction qui génère, sur la base d’entrées X, des étiquettes de sortie vraies , où est la fonction qui mappe X vers Y. Le réseau entraîné est entraîné pour générer une valeur qui est la plus proche possible de la valeur vraie en minimisant une fonction de perte. Les performances d’un ANN entraîné dans la résolution de la tâche pour laquelle un apprentissage est effectué reposent sur son architecture, sur le nombre de paramètres , et sur la manière dont l’ANN est entraîné. En général, plus l’ANN est grand et complexe, plus ses performances sont bonnes.
Dans certains modes de réalisation, il peut être souhaitable d’effectuer l’apprentissage de plus qu’un seul ANN pour effectuer la même fonction. Une solution pourrait consister à entraîner chaque ANN en utilisant le même ensemble d’échantillons de données brutes constituant les données d’apprentissage. Toutefois, cela impliquerait de conserver les données d’apprentissage afin de permettre l’apprentissage de nouveaux ANN, ce qui est coûteux en termes de ressources matérielles, et dans certains cas le jeu de données d’apprentissage d’origine peut ne plus être disponible lorsque l’on souhaite transférer la connaissance.
Une solution pour résoudre ce problème, connue sous le nom d’apprentissage par transfert, est de copier les paramètres d’un ANN entraîné sur un deuxième ANN non entraîné, évitant par cela le besoin de réaliser l’apprentissage du deuxième ANN. Une telle technique peut donner de bons résultats, mais repose sur le fait que les architectures des deux ANN sont basées sur le même modèle, en d’autres termes sur le fait que le nouveau modèle du deuxième ANN doit conserver l’architecture d’origine de l’ANN entraîné afin de transférer la fonction d’origine . En effet, si le deuxième ANN a une profondeur différente de celle de l’ANN entraîné, qu’elle soit moins profonde ou plus profonde, il ne sera pas capable de prendre en charge les paramètres d’origine. Puisque l’architecture d’origine doit rester fixe, cette technique n’offre pas une solution souple.
Il existe donc un besoin dans la technique d’une solution permettant de transférer de la connaissance entre des ANN ayant des profondeurs différentes.
Un objet des modes de réalisation de la présente invention est de pallier tout ou partie d’un ou plusieurs problèmes connus de l’art antérieur.
Selon un mode de réalisation, on prévoit un procédé de génération de données d’apprentissage pour transférer de la connaissance d’un réseau neuronal artificiel entraîné vers un autre réseau neuronal artificiel, le procédé comprenant : a) injecter un échantillon aléatoire dans le réseau neuronal artificiel entraîné, le réseau neuronal artificiel entraîné étant agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties ; b) réinjecter un pseudo-échantillon, généré sur la base de l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné, dans le réseau neuronal artificiel entraîné afin de générer un nouvel échantillon reproduit au niveau desdites une ou plusieurs sorties ; et c) répéter b) une ou plusieurs fois pour générer une pluralité de pseudo-échantillons réinjectés ; dans lequel les données d’apprentissage pour l’apprentissage de l’autre réseau neuronal artificiel comprennent au moins deux des pseudo-échantillons réinjectés issus du même échantillon aléatoire et des valeurs de sortie correspondantes générées par le réseau neuronal artificiel entraîné.
Selon un mode de réalisation, le réseau neuronal artificiel entraîné, ou un autre réseau neuronal artificiel entraîné, est agencé pour mettre en œuvre une fonction de classification, et les valeurs de sortie correspondantes des données d’apprentissage comprennent des pseudo-étiquettes générées par la fonction de classification sur la base des pseudo-échantillons réinjectés.
Selon un mode de réalisation, le procédé comprend en outre une détection, sur la base des pseudo-étiquettes, du moment où une frontière entre deux espaces de pseudo-étiquettes est traversée entre des réinjections consécutives de deux des pseudo-échantillons, et lesdits au moins deux pseudo-échantillons réinjectés formant les données d’apprentissage comprennent au moins les deux pseudo-échantillons réinjectés consécutivement.
Selon un mode de réalisation, les pseudo-étiquettes sont des sorties non normalisées de la fonction de classification.
Selon un mode de réalisation, l’autre réseau neuronal artificiel est agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties, et les valeurs de sortie correspondantes des données d’apprentissage comprennent les nouveaux échantillons reproduits générés par la fonction auto-associative du réseau neuronal artificiel entraîné sur la base des pseudo-échantillons réinjectés.
Selon un mode de réalisation, le procédé comprend en outre : d) répéter a), b) et c) au moins une fois sur la base de nouveaux échantillons aléatoires afin de générer, à chaque répétition, au moins deux autres pseudo-échantillons réinjectés formant les données d’apprentissage.
Selon un mode de réalisation, le procédé comprend en outre la génération de l’échantillon aléatoire sur la base d’une distribution normale ou sur la base d’une distribution uniforme ajustée.
Selon un mode de réalisation, la génération du pseudo-échantillon comprend l’injection de bruit dans l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné.
Selon un autre aspect, on prévoit un procédé de transfert de connaissance à partir d’un réseau neuronal artificiel entraîné vers un ou plusieurs autres réseaux neuronaux artificiels, le procédé comprenant : générer des données d’apprentissage en utilisant le procédé susmentionné ; et entraîner l’autre réseau neuronal artificiel sur la base des données d’apprentissage générées.
Selon un autre aspect, on prévoit un système de génération de données d’apprentissage pour transférer de la connaissance à partir d’un réseau neuronal artificiel entraîné vers un autre réseau neuronal artificiel, le système comprenant un générateur de données agencé pour : a) injecter un échantillon aléatoire dans le réseau neuronal artificiel entraîné, le réseau neuronal artificiel entraîné étant agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties ; b) réinjecter un pseudo-échantillon, généré sur la base de l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné, dans le réseau neuronal artificiel entraîné afin de générer un nouvel échantillon reproduit au niveau desdites une ou plusieurs sorties ; et c) répéter b) une ou plusieurs fois pour générer une pluralité de pseudo-échantillons réinjectés ; dans lequel le générateur de données est en outre agencé pour générer les données d’apprentissage pour l’apprentissage de l’autre réseau neuronal artificiel de manière à comprendre au moins deux des pseudo-échantillons réinjectés issus du même échantillon aléatoire et des valeurs de sortie correspondantes générées par le réseau neuronal artificiel entraîné.
Selon un mode de réalisation, le système comprend en outre l’autre réseau neuronal artificiel, et un système d’apprentissage agencé pour entraîner l’autre réseau neuronal artificiel sur la base des données d’apprentissage.
Selon un mode de réalisation, le réseau neuronal artificiel entraîné, ou un autre réseau neuronal artificiel entraîné, est agencé pour mettre en œuvre une fonction de classification, et le générateur de données est agencé pour générer des données d’apprentissage de manière à comprendre en outre des pseudo-étiquettes générées par la fonction de classification sur la base des pseudo-échantillons réinjectés, et l’autre réseau neuronal artificiel est capable de mettre en œuvre une fonction de classification.
Selon un mode de réalisation, l’autre réseau neuronal artificiel est agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties, et les données d’apprentissage comprennent en outre les nouveaux échantillons reproduits générés par la fonction auto-associative du réseau neuronal artificiel entraîné sur la base des pseudo-échantillons réinjectés.
Selon un mode de réalisation, le système comprend en outre un générateur de germes agencé pour générer l’échantillon aléatoire sur la base d’une distribution normale ou sur la base d’une distribution uniforme ajustée.
Selon un mode de réalisation, le générateur de données est agencé pour générer le pseudo-échantillon en injectant du bruit dans l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné.
Ces caractéristiques et avantages, ainsi que d'autres, seront exposés en détail dans la description suivante de modes de réalisation particuliers faite à titre non limitatif en relation avec les figures jointes parmi lesquelles :
la figure 1 représente une architecture ANN à perceptron multicouche selon un exemple de réalisation ;
la figure 2 représente un espace bidimensionnel donnant un exemple de modèle qui classe des éléments en trois classes, et un exemple d’échantillons aléatoires dans cet espace ;
la figure 3 représente schématiquement une architecture ANN selon un exemple de réalisation de la présente description ;
la figure 4 représente schématiquement un système de transfert de connaissance selon un exemple de réalisation de la présente description ;
la figure 5 est un organigramme illustrant des étapes dans un procédé de transfert de connaissance selon un exemple de réalisation de la présente description ;
la figure 6 représente un espace bidimensionnel donnant un exemple de modèle qui classe des éléments en trois classes, et un exemple de trajectoire de pseudo-échantillons dans cet espace ;
la figure 7 est un graphique illustrant des exemples de distributions aléatoires d’échantillons aléatoires selon un exemple de réalisation de la présente description ;
la figure 8 est un graphique illustrant un exemple de fonction d’activation selon un exemple de réalisation de la présente description ;
la figure 9 représente schématiquement un circuit de génération d’échantillons selon un exemple de réalisation de la présente description ;
la figure 10 représente schématiquement un système de transfert de connaissance selon un autre exemple de réalisation de la présente description ;
la figure 11 représente schématiquement une architecture ANN selon un autre exemple de réalisation de la présente description ;
la figure 12A représente schématiquement un système de transfert de connaissance selon un autre exemple de réalisation de la présente description ; et
la figure 12B représente schématiquement un système de transfert de connaissance selon encore un autre exemple de réalisation de la présente description.
De mêmes éléments ont été désignés par de mêmes références dans les différentes figures. En particulier, les éléments structurels et/ou fonctionnels communs aux différents modes de réalisation peuvent présenter les mêmes références et peuvent disposer de propriétés structurelles, dimensionnelles et matérielles identiques.
Par souci de clarté, seuls les étapes et éléments utiles à la compréhension des modes de réalisation décrits ont été représentés et sont détaillés. En particulier, des techniques pour l’apprentissage d’un réseau neuronal artificiel, basées par exemple sur la minimisation d’une fonction objective comme une fonction de coût, sont connues de la personne du métier et ne seront pas décrites ici en détail.
Sauf précision contraire, lorsque l'on fait référence à deux éléments connectés entre eux, cela signifie directement connectés sans éléments intermédiaires autres que des conducteurs, et lorsque l'on fait référence à deux éléments couplés entre eux, cela signifie que ces deux éléments peuvent être connectés ou être reliés par l'intermédiaire d'un ou plusieurs autres éléments.
Dans la description qui suit, lorsque l'on fait référence à des qualificatifs de position absolue, tels que les termes "avant", "arrière", "haut", "bas", "gauche", "droite", etc., ou relative, tels que les termes "dessus", "dessous", "supérieur", "inférieur", etc., ou à des qualificatifs d'orientation, tels que les termes "horizontal", "vertical", etc., il est fait référence sauf précision contraire à l'orientation des figures.
Sauf précision contraire, les expressions "environ", "approximativement", "sensiblement", et "de l'ordre de" signifient à 10 % près, de préférence à 5 % près.
Dans la description suivante, on supposera que les termes suivants ont les définitions suivantes :
- "données d’entrée réelles" : échantillons de données recueillis et utilisés pour l’apprentissage d’un ANN non entraîné, ces données d’entrée étant appelées "réelles" parce que ce ne sont pas des données générées par un ordinateur, et par conséquent ne sont pas synthétiques ;
- "échantillon aléatoire" : échantillon synthétique généré par ordinateur sur la base de valeurs aléatoires ou pseudo-aléatoires ;
- "données d’apprentissage" ou "pseudo-données" : données qui peuvent être utilisées pour l’apprentissage d’un ou plusieurs réseaux neuronaux, ces données comprenant par exemple, dans les modes de réalisation de la présente description, des données synthétiques sous la forme de pseudo-échantillons, et dans le cas d’un classificateur, de pseudo-étiquettes ;
- "pseudo-échantillon" : échantillon synthétique généré par un ordinateur, généré sur la base d’un processus de génération de données guidé ou utilisant un prétraitement ;
- "pseudo-étiquette" : étiquette générée par un réseau neuronal entraîné en réponse à l’injection d’un pseudo-échantillon, la pseudo-étiquette correspondant à la vérité de terrain à cibler pendant l’apprentissage d’un ANN utilisant des données d’apprentissage ; et
- "auto-associative" : la fonction de reproduction d’entrées, comme dans un auto-codeur. Toutefois, le terme "auto-codeur" est souvent associé à un ANN qui doit réaliser une certaine compression, par exemple impliquant une compression de l’espace latent signifiant que lesdites une ou plusieurs couches cachées contiennent moins de neurones que le nombre de neurones se trouvant dans l’espace d’entrée. En d’autres termes, l’espace d’entrée est projeté dans un espace plus petit. Le terme "auto-associative" est utilisé ici pour désigner une fonction de reproduction similaire à celle d’un auto-codeur, mais une fonction auto-associative est plus générale en ce qu’elle peut ou non impliquer de la compression.
La figure 1 illustre une architecture ANN à perceptron multicouche 100 selon un exemple de réalisation.
L’architecture ANN 100 selon l’exemple de la figure 1 comprend trois couches, en particulier une couche d’entrée (INPUT LAYER), une couche cachée (HIDDEN LAYER) et une couche de sortie (OUTPUT LAYER). Dans des variantes de réalisation, il pourrait y avoir plusieurs couches cachées. Chaque couche comprend par exemple un certain nombre de neurones. Par exemple, l’architecture ANN 100 définit un modèle dans un espace bidimensionnel, et il y a ainsi deux neurones visibles dans la couche d’entrée recevant les valeurs X1 et X2 correspondantes d’une entrée X. Le modèle comporte une couche cachée avec sept neurones de sortie cachés, et correspond ainsi à une matrice de dimensions . L’architecture ANN 100 de la figure 1 correspond à un réseau de classification, et le nombre de neurones dans la couche de sortie correspond ainsi au nombre de classes, l’exemple de la figure 1 comportant trois classes.
Le mappage appliqué par l’architecture ANN 100 est une fonction d’agrégation, comprenant une fonction associative dans chaque couche, ces fonctions étant connectées en chaîne pour mapper . Il y a seulement deux fonctions de la sorte dans l’exemple simple de la figure 1, correspondant à celles de la couche cachée et de la couche de sortie.
Chaque neurone de la couche cachée reçoit le signal provenant de chaque neurone d’entrée, un paramètre correspondant étant appliqué à chaque neurone j de la couche cachée à partir de chaque neurone d’entrée i de la couche d’entrée. La figure 1 illustre les paramètres à appliqués aux sorties d’un premier des neurones d’entrée vers chacun des sept neurones cachés.
Le but du modèle neuronal défini par l’architecture 100 est d’approximer une certaine fonction par l’intermédiaire de l’ensemble de paramètres . Le modèle correspond à un mappage , les paramètres étant par exemple modifiés pendant l’apprentissage sur la base d’une fonction objective, comme une fonction de coût. Dans certains modes de réalisation, la fonction de mappage est basée sur une projection non linéaire , appelée en général fonction d’activation, de sorte que la fonction de mappage peut être définie comme , où sont les paramètres de , et est une valeur de vecteur. En général, on utilise une même fonction pour toutes les couches, mais il est aussi possible d’utiliser une fonction différente pour chaque couche. Dans certains cas, une fonction d’activation linéaire pourrait aussi être utilisée, le choix entre une fonction linéaire et non linéaire dépendant du modèle particulier et des données d’apprentissage.
La valeur de vecteur est par exemple évaluée par la fonction non linéaire en tant qu’exemple d’agrégation. Par exemple, la valeur de vecteur est constituée de poids W, et chaque neurone k de la couche de sortie reçoit les sorties de chaque neurone j de la couche cachée pondérées par un poids correspondant parmi les poids . La valeur de vecteur peut par exemple être vue comme étant une autre couche cachée avec une fonction d’activation non linéaire et ses paramètres W. La figure 1 représente les poids à appliqués entre la sortie d’un neurone supérieur de la couche cachée et chacun des trois neurones de la couche de sortie.
La projection non linéaire est par exemple sélectionnée manuellement, par exemple une fonction sigmoïde. Les paramètres de la fonction d’activation sont toutefois appris par apprentissage, par exemple sur la base de la règle de descente de gradient. D’autres caractéristiques de l’architecture ANN, comme la profondeur du modèle, le choix de l’optimiseur pour la descente de gradient et la fonction de coût, sont aussi par exemple sélectionnées manuellement.
Il y a deux procédures qui peuvent être appliquées à un ANN comme l’ANN 100 de la figure 1, l’une étant une procédure d’apprentissage ou de propagation vers l’arrière afin d’apprendre les paramètres , et l’autre étant une procédure d’inférence ou de propagation vers l’avant, pendant laquelle des valeurs d’entrée X s’écoulent à travers la fonction, et sont multipliées par les calculs intermédiaires définissant la fonction de mappage , afin de générer une sortie .
La figure 2 représente un espace bidimensionnel donnant un exemple de modèle qui classe des éléments en trois classes. Dans l’exemple de la figure 2, un réseau neuronal artificiel, comme l’ANN 100 de la figure 1, est entraîné pour mapper des échantillons d’entrée définis sous forme de points représentés par des paires de valeurs d’entrée X1 et X2 en l’une de trois classes C, D et E.
À titre d’exemple, , où X1 est une caractéristique de poids, X2 est une caractéristique de hauteur correspondante, et la fonction mappe les échantillons de hauteur et de poids en une classification de chat (C), chien (D) ou éléphant (E). En d’autres termes, l’ANN est entraîné pour définir une frontière non linéaire entre des chats, des chiens et des éléphants sur la base d’une caractéristique de poids et d’une caractéristique de hauteur d’un animal, chaque échantillon décrit par ces caractéristiques tombant dans l’une des trois classes.
L’espace défini par la valeur X1 sur l’axe y et la valeur X2 sur l’axe x est divisé en trois régions de 202, 204 et 206 correspondant respectivement aux classes C, D et E. Dans la région de 202, chaque échantillon a une probabilité supérieure de tomber dans la classe C que dans l’une ou l’autre des autres classes D et E, et pareillement pour les régions 204 et 206. Une frontière 208 entre les classes C et D et une frontière 210 entre les classes D et E représentent l’incertitude du modèle, c’est-à-dire que, le long de ces frontières, les échantillons ont des probabilités égales d’appartenir à chacune des deux classes séparées par la frontière. Des contours en figure 2 représentent les distributions d’échantillons dans la région associée à chaque classe, les zones centrales marquées C, D et E correspondant à la densité d’échantillons la plus haute. Un contour extérieur dans chaque région 202, 204, 206 indique la limite des échantillons, la région extérieure au contour extérieur dans chaque région de 202, 204, 206 correspondant par exemple à des échantillons situés en dehors de l’ensemble.
Comme cela a été expliqué dans la section d’art antérieur susmentionnée, dans certains modes de réalisation il peut être souhaitable d’effectuer l’apprentissage de plusieurs ANN destinés à réaliser une même fonction. Une solution pourrait consister à effectuer l’apprentissage de chaque ANN en utilisant le même ensemble d’échantillons de données brutes constituant les données d’apprentissage. Toutefois, cela impliquerait de conserver les données d’apprentissage afin de permettre l’apprentissage de nouveaux ANN, ce qui est coûteux en ressources matérielles, et dans certains cas le jeu de données d’apprentissage d’origine pourrait ne plus être disponible au moment où l’on souhaite transférer la connaissance.
Ce problème pourrait être évité en utilisant un apprentissage par transfert, mais comme cela a été expliqué précédemment, le transfert de paramètres appris à partir d’un ANN entraîné vers un deuxième ANN est seulement applicable si les architectures des deux ANN sont basées sur le même modèle, en d’autres termes si le nouveau modèle du deuxième ANN conserve l’architecture d’origine de l’ANN entraîné afin de transférer la fonction d’origine . En effet, si le deuxième ANN a une profondeur différente de celle de l’ANN entraîné, qu’elle soit moins profonde ou plus profonde, il ne pourra pas prendre en charge les paramètres d’origine. Puisque l’architecture d’origine doit rester fixe, cette technique n’offre pas de solution souple.
Une autre solution qui présente l’avantage de ne pas nécessiter la mémorisation des données d’apprentissage brutes consiste à utiliser un ANN entraîné pour générer des données d’apprentissage artificielles qui caractérisent la fonction du modèle d’origine, et qui permettent ainsi à de nouveaux modèles ayant des profondeurs différentes de celle du modèle d’origine d’apprendre une approximation de la fonction . Une telle technique est appelée ici transfert de connaissance.
La figure 2 représente une approche simpliste pour générer ces données d’apprentissage, qui implique la génération de valeurs d’entrée aléatoires, correspondant à des échantillons aléatoires dans l’espace d’échantillons. Des exemples de telles échantillons aléatoires sont représentés par de petits cercles 212 en figure 2, dont seulement certains comportent des références pour faciliter l’illustration. En appliquant ces échantillons aléatoires à l’ANN classificateur entraîné, et en mémorisant les classifications résultantes, des données d’apprentissage peuvent être générées. En effet, chaque ensemble d’un échantillon aléatoire et d’une étiquette correspondante forme une paire d’apprentissage, et ces ensembles d’apprentissage caractérisent et représentent approximativement la fonction de classification X->Y, ou y=F(X), de l’ANN entraîné. Les paires d’apprentissage peuvent par conséquent être utilisées pour l’apprentissage d’un nouvel ANN. Par exemple, de telles données d’apprentissage peuvent être utilisées pour capturer, dans une certaine mesure, les frontières de décision 208, 210 du modèle d’origine. Toutefois, une limitation d’un tel procédé est que, à moins que le jeu d’apprentissage soit très grand, des régions intéressantes de l’espace d’entrée peuvent être omises du jeu d’apprentissage. Cela est particulièrement le cas lorsque l’espace d’entrée a des dimensions relativement grandes. Cela signifie que plus le nombre de dimensions à échantillonner est grand, plus la probabilité est faible qu’une région soit préservée. Il y a donc un problème technique pour générer des données d’apprentissage pour l’apprentissage d’ANN non entraînés qui permettent de capturer effectivement le modèle d’origine.
La figure 3 représente schématiquement une architecture ANN 300 selon un exemple de réalisation de la présente description. L’ANN 300 de la figure 3 est similaire à l’ANN 100 de la figure 1, mais il comprend en plus une partie auto-associative capable de reproduire les données d’entrée en utilisant des neurones de la couche de sortie. Ainsi, ce modèle réalise une incorporation à partir de , où n sont les caractéristique, et c les classes. Comme dans l’exemple de la figure 1, dans l’ANN 300 de la figure 3, chaque échantillon d’entrée comporte deux valeurs, correspondant à un espace d’entrée bidimensionnel, et il y a ainsi aussi deux neurones de sortie additionnels correspondants (FEATURES) pour générer un pseudo-échantillon de sortie (X’) reproduisant l’échantillon d’entrée. Par exemple, comme dans l’exemple des figures 1 et 2, les valeurs d’entrée de chaque échantillon représentent un poids (W) et une hauteur (H), et l’ANN 300 classe ces échantillons comme étant soit des chats (C), des chiens (D) ou des éléphants (E), correspondant à l’étiquette (LABELS) formant la valeur de sortie Y.
La partie auto-associative de l’ANN 300 se comporte de manière similaire à un auto-codeur. Les auto-codeurs sont un type d’ANN connu de la personne du métier dans lequel, plutôt que d’être entraînés pour réaliser une classification, ils sont entraînés pour reproduire leurs entrées au niveau de leurs sorties. Comme indiqué précédemment, le terme "auto-associative" est utilisé ici pour désigner une fonctionnalité similaire à celle d’un auto-codeur, excepté que l’espace latent n’est pas nécessairement comprimé. En outre, comme pour l’apprentissage d’un auto-codeur, l’apprentissage de la partie auto-associative pour l’ANN peut être réalisé avec certaines contraintes afin d’éviter que l’ANN converge rapidement vers la fonction identité, comme cela est bien connu de la personne du métier.
L’ANN 300 est par exemple mis en œuvre par du matériel dédié, comme un ASIC (circuit intégré spécifique d’application), ou par une émulation logicielle exécutée sur un dispositif informatique, ou par une combinaison de matériel dédié et de logiciel.
Dans l’exemple de la figure 3, le réseau est commun pour la partie auto-associative et pour la partie de classification, excepté dans la couche de sortie. En outre, chacun des neurones de sortie W et H de la partie auto-associative reçoit des sorties de chacun des neurones de la couche cachée. Toutefois, dans des variantes de réalisation, il pourrait y avoir une plus faible quantité de chevauchement, ou pas de chevauchement du tout, entre la partie auto- associative et la partie de classification de l’ANN 300. En effet, comme cela est décrit plus en détail ci-après, dans certains modes de réalisation, les fonctions auto-associative et hétéro-associative pourraient être mises en œuvre par des réseaux neuronaux séparés. Dans certains modes de réalisation, en plus des neurones communs dans la couche d’entrée, il y a au moins un autre neurone commun dans les couches cachées entre la partie auto-associative et la partie de classification de l’ANN 300. Un neurone commun implique que ce neurone fournit sa sortie directement, ou indirectement, c’est-à-dire par l’intermédiaire d’un ou plusieurs neurones d’autres couches, à au moins l’un des neurones de sortie de la partie auto-associative et au moins l’un des neurones de sortie de la partie de classification.
Comme cela est illustré en figure 3, une réinjection est réalisée à partir des sorties auto-associatives vers les entrées de l’ANN. Une telle réinjection est réalisée afin de générer des données d’apprentissage, et comme on va le décrire plus en détail ci-après, la réinjection est par exemple réalisée par un générateur de données qui est couplé à l’ANN. Ainsi, la partie auto-associative du modèle d’ANN est utilisée comme fonction récursive, en ce que ses sorties sont utilisées en tant que ses entrées. Cela entraîne une trajectoire des sorties, dans laquelle, après chaque réinjection, les échantillons générés se rapprochent des échantillons bruts réels dans des régions d’intérêt de l’espace d’entrée. Avantageusement, selon les modes de réalisation décrits ici, pour chaque germe injecté dans l’ANN, au moins deux points se trouvant sur cette trajectoire sont par exemple utilisés pour former des données d’apprentissage pour l’apprentissage d’un autre ANN.
On va maintenant décrire la génération de données d’apprentissage pour un transfert de connaissance basé sur l’ANN 300 plus en détail en faisant référence aux figures 4 à 8.
La figure 4 représente schématiquement un système 400 de transfert de connaissance selon un exemple de réalisation de la présente description.
Le système 400 comprend un ou plusieurs réseaux neuronaux artificiels 402, chacun correspondant par exemple à un ANN similaire à celui de la figure 3, et comprenant, en particulier, au moins une partie auto-associative. Dans l’exemple de la figure 4, les fonctions appliquées par les ANN sont référencées f1 à fn.
Dans un exemple, il y a un seul ANN entraîné 402, et l’on souhaite générer des données d’apprentissage afin de transférer la connaissance acquise de l’unique ANN 402 vers au moins un autre ANN ayant un modèle différent de celui de l’ANN entraîné 402.
Dans un autre exemple, il y a une pluralité d’ANN 402 entraînés, et l’on souhaite transférer la connaissance de la pluralité d’ANN entraînés 402 vers au moins un autre ANN, chaque autre ANN étant entraîné pour mettre en œuvre la totalité des fonctions de la pluralité d’ANN entraînés 402. En d’autres termes, la connaissance peut être fédérée à partir de multiples ANN, comme de multiples ANN classificateurs, vers un seul ANN, comme un seul ANN classificateur.
Dans encore un autre exemple, il y a une pluralité d’ANN entraînés 402, et l’on souhaite transférer la connaissance de la pluralité d’ANN 402 entraînés vers une pluralité d’autres ANN.
Le système 400 comprend aussi un générateur de données (DATA GENERATOR) 404 agencé pour faire usage de fonctions auto-associatives d’un ou plusieurs des ANN entraînées 402 afin de générer des pseudo-données (PSEUDO DATA) pour l’apprentissage d’un ou plusieurs autres ANN 406.
Le générateur de données 404 reçoit par exemple une valeur de germe (SEED) générée par un générateur de germes (SEED GEN) 408. Le générateur de germes 408 est par exemple mis en œuvre par un générateur pseudo-aléatoire ou similaire, et génère des valeurs basées sur une distribution aléatoire donnée, comme on va le décrire plus en détail ci-après.
Le générateur de données 404 génère par exemple des valeurs d’entrée (INPUTS) fournies auxdits un ou plusieurs ANN 402, reçoit des valeurs de sortie (OUTPUTS) provenant desdits un ou plusieurs ANN 402, et génère des données d’apprentissage (PSEUDO DATA) comprenant les pseudo-échantillons et des pseudo-étiquettes résultantes, comme on va le décrire plus en détail ci-après. Les pseudo-données sont par exemple utilisées au vol pour l’apprentissage desdits un ou plusieurs autres ANN 406, ou elles sont mémorisées dans un ou plusieurs fichiers, qui sont par exemple mémorisés par une mémoire, comme un dispositif mémoire non transitoire. Par exemple, les pseudo-données sont mémorisées dans un seul fichier, ou, dans le cas où il y a une pluralité d’autres ANN 406 différents à entraîner, les pseudo-données sont par exemple mémorisées dans une pluralité de fichiers associés aux fonctions f1 à fn mises en œuvre par les ANN.
Dans certains modes de réalisation, les fonctionnalités du générateur de données 404 sont mises en œuvre par un dispositif de traitement (P) 410, qui par exemple exécute des instructions de logiciel mémorisées dans une mémoire (M) 412. En variante, le générateur de données 404 pourrait être mis en œuvre par du matériel dédié, comme par un ASIC.
Lesdits un ou plusieurs autres ANN 406 à entraîner peuvent correspondent à une ou plusieurs architectures classiques qui sont agencées pour réaliser seulement une classification, par exemple du type décrit en relation avec la figure 1 précédente. En variante, un ou plusieurs des autres ANN 406 à entraîner pourraient comporter des parties auto-associatives ou auto-codeuses en plus de la fonction de classification, ces ANN étant par exemple du type représenté en figure 3. Il serait aussi possible qu’un ou plusieurs des autres ANN soient entraînés pour avoir seulement une fonctionnalité auto-associative, comme on va le décrire plus en détail ci-après.
La figure 5 est un organigramme illustrant des étapes dans un procédé de transfert de connaissance selon un exemple de réalisation de la présente description. Ce procédé est par exemple mis en œuvre par le système 400 de la figure 4.
Dans une étape 501, une variable s est initialisée, par exemple à 1, et une première valeur de germe est générée par le générateur de germes 408.
Dans une étape 502, la première valeur de germe est par exemple appliquée par le générateur de données 404 en tant qu’entrée desdits un ou plusieurs ANN 402. Ainsi, chacun desdits un ou plusieurs ANN 402 propage le germe X0 à travers ses couches et génère, au niveau de sa couche de sortie, des étiquettes Y0 correspondant à la classification du germe, et des caractéristiques X0’ correspondant au germe modifié sur la base de la partie auto-associative entraînée de l’ANN.
Dans un but de classification, il est en général souhaité que les pseudo-étiquettes générées d’un ANN soient normalisées, par exemple en utilisant un codage du type 1 parmi n, pour indiquer la classe déterminée. Toutefois, en réalité, l’ANN va générer des sorties non normalisées qui représentent la probabilité relative que l’échantillon d’entrée tombe dans chaque classe, en d’autres termes la probabilité relative pour affecter une probabilité de toutes les classes, au lieu d’une classe discrète. Avantageusement, les données d’apprentissage comprennent des pseudo-étiquettes sous la forme des données de sortie non normalisées, fournissant ainsi de plus grandes informations pour l’apprentissage des autres ANN, et en particulier comprenant les informations qui sont fournies pour toutes les classes, et pas seulement la classe qui est sélectionnée. Par exemple, on peut utiliser des procédés de logits ou de distillation pour l’apprentissage d’un modèle utilisant des pseudo-étiquettes, comme cela est connu de la personne du métier. Cela utilise par exemple l’entropie croisée binaire. La distillation est par exemple décrite plus en détail dans la publication de Geoffrey Hinton et al. intitulée “Distilling the Knowledge in a Neural Network” (arXiv.1503.02531v1, 9 March 2015), et dans la demande de brevet américain publiée sous la référence US2015/0356461. Dans le cas d’échantillons synthétiques qui peuvent ne pas appartenir nettement à une classe particulière, on utilise par exemple un procédé de logit/distillation comme cela est connu de la personne du métier, ce procédé étant par exemple utilisé pour affecter des probabilités de toutes les classes au lieu d’une classe discrète. Les probabilités relatives indiquent comment un modèle tend à se généraliser et aide à transférer la capacité de généralisation d’un modèle entraîné vers un nouveau modèle.
Dans une étape 503, on détermine si la variable s a atteint une valeur S, qui est par exemple une condition d’arrêt pour le nombre de réinjections en fonction de chaque germe. Dans un exemple, la valeur S est égale à 6, mais plus généralement elle pourrait être comprise entre 3 et 20, et par exemple entre 4 et 10, en fonction de la taille de l’espace d’entrée, et en fonction de la qualité de l’auto-association entraînée. En effet, lorsque l’auto-association est bien entraînée, en d’autres termes de telle sorte qu’il y a une erreur relativement faible entre les entrées dans les reproductions du réseau, on peut par exemple utiliser relativement peu de réinjections, par exemple moins de 10, pour assurer un bon échantillonnage de l’espace d’entrée. Sinon, on peut utiliser un nombre de réinjections relativement élevé, par exemple compris entre 10 et 20, pour trouver les régions d’intérêt.
Dans des variantes de réalisation, plutôt que la condition d’arrêt dans l’étape 503 soit un nombre fixe de réinjections, elle pourrait à la place être basée sur la variation entre les reproductions, comme par exemple basée sur une mesure de la distance euclidienne, ou un autre type quelconque de distance, entre les deux dernières projections. Par exemple, si la distance euclidienne est descendue en dessous d’un seuil donné, la condition d’arrêt est satisfaite. En effet, plus les reproductions se rapprochent les unes des autres, plus les pseudo-échantillons se rapprochent de la distribution d’échantillons vraie sous-jacente.
Initialement la variable s est mise à 1, et ainsi n’est pas égale à S. Par conséquent, l’étape suivante est une étape 504, dans laquelle le pseudo-échantillon à la sortie de chacun desdits un ou plusieurs ANN 402 est réinjecté dans l’ANN correspondant. Ensuite, dans une étape 505, le pseudo-échantillon réinjecté dans chacun desdits un ou plusieurs ANN 402 dans l’étape 504, et la pseudo-étiquette de sortie correspondante provenant de chacun desdits un ou plusieurs ANN 402, sont par exemple mémorisés pour former des données d’apprentissage, comme on va le décrire maintenant plus en détail en faisant référence à la figure 6.
La figure 6 représente un espace bidimensionnel donnant un exemple d’un modèle qui classe des éléments en trois classes, et un exemple de pseudo-échantillons dans cet espace qui suivent une trajectoire de pseudo-échantillons à partir d’un germe aléatoire jusqu’à un pseudo-échantillon final.
L’exemple de la figure 6 est basé sur les mêmes classes C, D et E, et les mêmes frontières de classe 208, 210, que l’exemple de la figure 2. Un exemple du germe est représenté par une étoile 602 en figure 6, et une trajectoire de pseudo-échantillons 604, 606, 608, 610, 612 et 614 générés en commençant avec ce germe est aussi représentée. Chacun de ces pseudo-échantillons résulte par exemple d’une réinjection du pseudo-échantillon précédent. Après un certain nombre de réinjections, égal à six réinjections dans l’exemple de la figure 6, la réinjection est par exemple stoppée avec un pseudo-échantillon final représenté par une étoile 614 en figure 6. Comme cela est représenté par l’étape 505, des valeurs d’entrée et de sortie correspondant à chaque point sur la trajectoire sont par exemple mémorisées pour former les données d’apprentissage. En variante, seul un sous-ensemble des points est utilisé pour former les données d’apprentissage. Par exemple, on utilise au moins deux points sur la trajectoire.
Étant donné que la partie auto-associative desdits un ou plusieurs ANN 402 a été entraînée pour reproduire des échantillons réels au niveau de sa sortie, ces ANN ont été entraînés sur la base de la distribution de ces échantillons réels, comme cela est représenté par les contours dans les figures 2 et 6. Ainsi, lorsqu’un échantillon aléatoire est fourni à ces ANN, ils vont générer des sorties sollicitées vers la distribution des échantillons réels. Cela explique le saut dans les pseudo-échantillons générés à la suite de chaque réinjection. Les présents inventeurs ont montré que cela est une propriété de tout modèle auto-associatif. En effet, en théorie, un modèle auto-associatif ne reproduit pas avec précision lorsqu’il est face à des échantillons aléatoires ou des pseudo-échantillons puisque il n’a pas été entraîné pour reproduire du bruit aléatoire par sa distribution d’apprentissage. La capacité à reproduire toute entrée implique que le modèle auto-associatif a appris la fonction identité. Il y a de nombreuses façons connues pour empêcher qu’un tel modèle apprenne la fonction identité, mais dans tous les cas, en général, un modèle ne va pas apprendre naturellement la fonction identité.
En faisant de nouveau référence à la figure 5, dans une étape 506, la variable s est incrémentée, puis le procédé revient à l’étape 503. Cette boucle se répète jusqu’à ce que, dans l’étape 503, la variable s soit égale à la limite S. Ensuite, l’opération suivante est une étape 507.
Dans l’étape 507, on détermine si un autre critère d’arrêt a été satisfait. Par exemple, cet autre critère d’arrêt pourrait être basé sur le fait qu’un nombre global de pseudo-échantillons a été généré, le procédé se terminant par exemple lorsque le nombre de pseudo-échantillons est considéré comme suffisamment élevé pour permettre l’apprentissage d’un ou plusieurs autres réseaux ANN. Cela peut dépendre par exemple la précision du modèle entraîné.
Si, dans l’étape 507, le critère d’arrêt n’a pas été satisfait, le procédé revient à l’étape 501, de sorte qu’un nouveau germe est généré, et un nouvel ensemble de pseudo-échantillons est généré pour ce nouveau germe.
Lorsque, dans l’étape 507, le critère d’arrêt a été satisfait, dans une étape 508, lesdits un ou plusieurs autres ANN 406 sont par exemple entraînés sur la base des données d’apprentissage générées. En effet, les pseudo-données recueillies contiennent le modèle de la fonction interne , et sont par exemple mémorisées sous forme d’un seul fichier qui caractérise le modèle entraîné. Un ou plusieurs autres ANN sont ensuite capables d’apprendre le modèle en utilisant les données d’apprentissage du pseudo-ensemble de données en utilisant des outils d’apprentissage profond qui sont bien connus de la personne du métier.
En variante, plutôt que de générer un fichier contenant toutes les données d’apprentissage générées, l’apprentissage desdits un ou plusieurs autres ANN 406 pourrait être réalisé progressivement pendant la génération de données d’apprentissage. En d’autres termes, l’apprentissage est réalisé au moins partiellement en parallèle avec la génération de pseudo-échantillons, ce qui par exemple éviterait d’avoir besoin de mémoriser tous les pseudo-échantillons jusqu’à la fin de la génération des données d’apprentissage.
On notera que, dans l’exemple de la figure 5, le premier pseudo-échantillon à être mémorisé est par exemple celui résultant de la première réinjection. Ainsi, le germe lui-même n’est pas utilisé comme valeur d’entrée d’un pseudo-échantillon. En effet, des échantillons aléatoires bruts ne sont pas considérés comme caractérisant efficacement la fonction qui doit être transférée.
En outre, comme cela a été indiqué précédemment, il est aussi possible de sélectionner seulement certains des points de la trajectoire des pseudo-échantillons pour former une partie des données d’apprentissage. Par exemple, dans certains modes de réalisation, on sélectionne des points qui se trouvent près d’une frontière de classe. Par exemple, en faisant référence à la figure 6, dans le cas de la trajectoire allant de 602 à 614, on choisit par exemple au moins les points 608 et 610 pour faire partie des données d’apprentissage, puisque ces points sont particulièrement pertinents pour la définition de la frontière 208. L’étape 505 de la figure 5 peut par conséquent impliquer de détecter si la pseudo-étiquette générée par l’échantillon réinjecté dans l’étape 504 est différente de la pseudo-étiquette générée par l’échantillon réinjecté immédiatement précédent, et si oui, ces deux pseudo-échantillons consécutifs sont par exemple sélectionnés pour faire partie des données d’apprentissage.
La figure 7 est un graphique illustrant des exemples de distributions aléatoires d’échantillons aléatoires générés par le générateur de germes 408 de la figure 4 selon un exemple de réalisation de la présente description.
Une courbe 702 représente un exemple dans lequel la distribution est une distribution gaussienne de la forme , bien que de manière plus générale on puisse utiliser toute distribution normale.
Une courbe 704 représente un autre exemple dans lequel la distribution est une distribution uniforme ajustée de la forme , bien que de manière plus générale on puisse utiliser une distribution uniforme ajustée de la forme , pour .
Quelle que soit la distribution aléatoire choisie, la même distribution est par exemple utilisée pour générer indépendamment la totalité des germes qui seront utilisés comme point de départ pour les trajectoires de pseudo-échantillons. Autant de valeurs aléatoires que de neurones se trouvant dans la couche d’entrée sont par exemple échantillonnées dans la distribution sélectionnée afin de générer chaque vecteur d’entrée. Ce vecteur d’entrée a ainsi la même longueur que celle de la couche d’entrée du modèle, et appartient à l’espace d’entrée des échantillons vrais.
La figure 8 est un graphique illustrant un exemple de fonction d’activation de l’ANN selon un exemple de réalisation de la présente description. Comme cela est illustré, dans certains modes de réalisation la fonction fournit des sorties non nulles seulement en réponse à des entrées non nulles, ce qui implique que des valeurs négatives générées de manière aléatoire vont être filtrées par le réseau. En effet, le modèle auto-associatif va approximer tout point de la distribution apprise sans tenir compte du point de départ ou de sa fonction d’activation.
Dans certains modes de réalisation, plutôt que de réinjecter les valeurs de sortie auto-associatives de l’ANN en tant qu’échantillon d’entrée suivant de l’ANN, les valeurs de sortie sont d’abord modifiées, comme on va le décrire maintenant plus en détail en faisant référence à la figure 9.
La figure 9 représente schématiquement un circuit de génération d’échantillons 900 selon un exemple de réalisation de la présente description. Ce circuit 900 est par exemple partiellement mis en œuvre par le générateur de données 404 de la figure 4, et partiellement par l’ANN 300 formant l’un des ANN 402 de la figure 4.
Le générateur de données 404 fournit des échantillons d’entrée Xm à l’ANN 300. La partie de classification de l’ANN 300 génère ainsi des pseudo-étiquettes Ym correspondantes, et la partie auto-associative génère ainsi des pseudo-échantillons Xm’ correspondants. Les pseudo-échantillons Xm’ sont fournis à un module d’injection de bruit (NOISE INJECTION) 902, qui par exemple ajoute un certain degré de bruit aléatoire aux pseudo-échantillons afin de générer le pseudo-échantillon suivant X(m+1) à fournir à l’ANN 300. Par exemple, dans certains modes de réalisation, le bruit aléatoire est sélectionné dans une distribution gaussienne, comme par exemple la gaussienne (0,I) et est par exemple pondéré par un coefficient Z. Par exemple, le coefficient Z est choisi de telle sorte que, après l’injection, la portion de bruit représente entre 1 % et 30 % de l’amplitude du pseudo-échantillon, et dans certains cas entre 5 % et 20 % de l’amplitude du pseudo-échantillon.
Par exemple, un multiplexeur 904 reçoit au niveau de l’une de ses entrées un échantillon aléatoire initial X0, et au niveau de l’autre de ses entrées les pseudo-échantillons X(m+1). Le multiplexeur sélectionne par exemple l’échantillon initial sur une première itération correspondant à l’étape 502 de la figure 5, et sélectionne l’échantillon X(m+1) sur des itérations suivantes, correspondant aux étapes 504 de la figure 5, jusqu’à ce que le nombre S de réinjections ait été atteint.
Bien qu’en figure 4 chacun desdits un ou plusieurs ANN 402 comprenne une fonction auto-associative intégrée ainsi que la fonction de classification, dans des variantes de réalisation, ces fonctions pourraient être mises en œuvre par des ANN séparés, comme on va le décrire maintenant plus en détail en faisant référence à la figure 10.
La figure 10 représente schématiquement un système 1000 de transfert de connaissance selon un autre exemple de réalisation de la présente description. Les éléments de la figure 10 qui sont communs avec des éléments de la figure 4 portent les mêmes références numériques, et ne seront pas décrits de nouveau en détail.
Dans le mode de réalisation de la figure 10, les fonctions du générateur de données 404 de la figure 4 sont réparties entre un ANN comportant une fonction auto-associative (AUTO-ASSOCIATIVE FUNCTION) 1002, qui peut correspondre à un auto-codeur et comprend par exemple un circuit de réinjection (REINJECTION) 1004, et un classificateur (CLASSIFIER) 1006.
Le fonctionnement du système 1000 de la figure 10 est par exemple le même que celui décrit en relation avec l’organigramme de la figure 5.
L’ANN 1002 est par exemple agencé pour reproduire au niveau de sa sortie un échantillon aléatoire qui est fourni par le générateur de germes (SEED GEN) 408. Le circuit de réinjection 1004 est ensuite par exemple agencé pour réinjecter les entrées reproduites présentes au niveau des sorties de l’ANN 1002 vers les entrées de l’ANN 1002, par exemple après une injection de bruit comme cela a été décrit en relation avec la figure 9. En outre, chaque entrée reproduite générée au niveau de la sortie de l’ANN 1002 forme un pseudo-échantillon, qui est fourni au classificateur 1006, et à une mémoire mémorisant les pseudo-données sous la forme d’un fichier.
Le classificateur 1006 est agencé pour réaliser une inférence sur les pseudo-échantillons et pour générer des pseudo-étiquettes correspondantes (PSEUDO LABELS), dont chacune est par exemple mémorisée en tant que partie des pseudo-données en association avec le pseudo-échantillon correspondant.
Comme cela a été décrit en relation avec la figure 4, les données d’apprentissage générées sont par exemple utilisées pour l’apprentissage d’un ou plusieurs autres ANN 406.
Bien que dans les modes de réalisation décrits précédemment une fonction de classification se trouve dans l’ANN, dans des variantes de réalisation, l’ANN pourrait comporter seulement la fonction auto-associative, sans réaliser de classification, comme on va le décrire maintenant plus en détail en faisant référence à la figure 11.
La figure 11 représente schématiquement une architecture ANN 1100 selon un autre exemple de réalisation de la présente description. L’architecture 1100 est similaire à l’architecture ANN 300, et de mêmes éléments portent les mêmes références et ne seront pas décrits de nouveau en détail. L’ANN 1100 comprend une couche de neurones d’entrée (INPUT LAYER), une couche de neurones de sortie (OUTPUT LAYER) et une seule couche cachée de neurones (HIDDEN LAYER), bien que dans des variantes de réalisation il puisse y avoir plusieurs couches cachées. Toutefois, l’ANN 1100 a par exemple seulement une fonction associative, et ainsi ne contient aucune fonction de classification. Dans l’exemple de la figure 11, l’ANN 1100 comporte trois neurones d’entrée correspondant à des canaux d’entrée A, B et C, et ainsi la couche de sortie génère trois canaux de sortie correspondant à A’, B’ et C’, qui sont par exemple réinjectés directement dans la couche d’entrée à chaque itération, ou du bruit aléatoire pourrait être ajouté, comme dans l’exemple de la figure 9.
La figure 12A représente schématiquement un système de transfert de connaissance selon un autre exemple de réalisation de la présente description. Dans l’exemple de la figure 12A, un ANN entraîné 1200 est du type de l’ANN 300 de la figure 3, comprenant à la fois une partie auto-associative et une partie hétéro-associative. L’ANN 1200 reçoit, au niveau d’une couche d’entrée 1202, un germe (SEED), et génère au niveau de sa couche de sortie des pseudo-étiquettes 1204 à partir de sa partie hétéro-associative, et des pseudo-échantillons 1206 à partir de sa partie auto-associative. Les pseudo-échantillons sont réinjectés par l’intermédiaire d’un chemin de rétroaction 1208, qui peut impliquer une injection de bruit, comme décrit précédemment.
Des données d’apprentissage générées en utilisant l’ANN 1200 sont par exemple utilisées pour l’apprentissage d’un autre ANN 1210, et/ou d’un autre ANN 1220.
L’ANN 1210 est aussi du type de l’ANN 300 de la figure 3, comprenant à la fois une partie auto-associative et une partie hétéro-associative, et comporte une couche d’entrée 1212 et une couche de sortie générant des pseudo-étiquettes 1214 à partir de sa partie hétéro-associative, et des pseudo-échantillons 1216 à partir de sa partie auto-associative. Un système d’apprentissage 1216, qui est par exemple mis en œuvre par du matériel et/ou par du logiciel, est par exemple agencé pour effectuer l’apprentissage du réseau 1210 en utilisant les données d’apprentissage, en fournissant des pseudo-échantillons à la couche d’entrée 1212, en recevant les données de sortie résultantes 1214 et 1216, et en ajustant en conséquence les paramètres du réseau 1210. Dans ce cas, les données d’apprentissage comprennent par exemple les pseudo-valeurs de données Xm, X(m+1), X(m+2), etc., qui ont été injectées dans le réseau 1200, les pseudo-étiquettes correspondantes Ym, Y(m+1), Y(m+2), etc., résultant de l’injection de chaque pseudo-valeur de données respective Xm, X(m+1), X(m+2), etc., et les pseudo-échantillons reproduits Xm’, X(m+1)’, X(m+2)’, etc., résultant de l’injection de chaque pseudo-valeur de donnée respective Xm, X(m+1), X(m+2), etc. En effet, le système d’apprentissage 1216 est par exemple agencé pour entraîner non seulement la partie hétéro-associative du réseau 1210 sur la base des paires pseudo-échantillon/pseudo-étiquette, mais aussi pour entraîner la partie auto-associative du réseau 1210 sur la base des paires pseudo-échantillon/pseudo-échantillon reproduit. En effet, ce dernier apprentissage implique l’apprentissage de la partie auto-associative du réseau 1210 pour générer les mêmes différences que le réseau 1200 entre les pseudo-échantillons injectés et les pseudo-échantillons reproduits au niveau de sa sortie.
L’ANN 1220 est un ANN classificateur, comme l’exemple de la figure 1, comprenant une couche d’entrée 1222 et une couche de sortie générant des pseudo-étiquettes 1224. Un système d’apprentissage 1226, qui est par exemple mis en œuvre par du matériel et/ou par du logiciel, est par exemple agencé pour l’apprentissage du réseau 1220 en utilisant les données d’apprentissage, en fournissant des pseudo-échantillons à la couche d’entrée 1222, en recevant les pseudo-étiquettes de sortie 1224 résultantes, et en ajustant en conséquence les paramètres du réseau 1220. Ainsi, dans ce cas, les données d’apprentissage ne comprennent pas par exemple les pseudo-échantillons reproduits Xm’, X(m+1)’, X(m+2)’, etc., résultant de l’injection de chaque pseudo-valeur de données respective Xm, X(m+1), X(m+2), etc. dans le réseau 1200.
La figure 12B représente schématiquement un système de transfert de connaissance selon encore un autre exemple de réalisation de la présente description.
Dans l’exemple de la figure 12B, un ANN entraîné 1250 est du type de l’ANN 1100 de la figure 11, mettant en œuvre seulement une fonction auto-associative. L’ANN 1250 est représenté de manière similaire à l’ANN 1200, excepté que les sorties de pseudo-étiquettes 1204 ne sont plus présentes.
Des données d’apprentissage générées en utilisant l’ANN 1250 sont par exemple utilisées pour l’apprentissage d’un autre ANN 1260, qui est par exemple similaire à l’ANN 1250, comprenant une couche d’entrée 1262 et une couche de sortie 1264. Un système d’apprentissage 1266, qui est par exemple mis en œuvre par du matériel et/ou par du logiciel, est par exemple agencé pour l’apprentissage du réseau 1260 en utilisant les données d’apprentissage, en fournissant des pseudo-échantillons à la couche d’entrée 1262, en recevant les données de sortie résultantes 1264, et en ajustant en conséquence les paramètres du réseau 1260. Dans ce cas, les données d’apprentissage comprennent par exemple les pseudo-valeurs de données Xm, X(m+1), X(m+2), etc., qui ont été injectées dans le réseau 1250, et les pseudo-échantillons reproduits Xm’, X(m+1)’, X(m+2)’, etc. résultant de l’injection de chaque pseudo-valeur de données respective Xm, X(m+1), X(m+2), etc.
Un avantage des modes de réalisation décrits ici est qu’on peut générer des données d’apprentissage qui capturent relativement bien des régions d’intérêt de l’espace d’entrée d’une fonction donnée, de sorte que l’apprentissage d’un ou plusieurs nouveaux réseaux peut être effectué relativement rapidement et avec précision. Par exemple, en utilisant, pour chaque injection de germe, au moins deux points, en excluant un premier point, sur une trajectoire de pseudo-échantillons générés par une réinjection dans un réseau auto-associatif entraîné, les présents inventeurs ont trouvé qu’on peut générer des données d’apprentissage particulièrement efficaces. En particulier, des données d’apprentissage pertinentes peuvent être générées dans le cas d’un classificateur en détectant le moment où une frontière de classe est traversée, et en utilisant les points de chaque côté de la frontière de classe.
En outre, à la différence de nombreuses solutions proposées précédemment, la solution proposée ici est entièrement agnostique en ce qui concerne la relation entre le ou les ANN entraînés, et le ou les ANN cibles vers lesquels la connaissance doit être transférée.
Divers modes de réalisation et variantes ont été décrits. La personne du métier comprendra que certaines caractéristiques de ces divers modes de réalisation et variantes pourraient être combinées, et d’autres variantes apparaitront à la personne du métier. Par exemple, bien qu’on ait décrit des modes de réalisation dans lesquels des ANN non entraînés sont entraînés en utilisant des données d’apprentissage, il serait aussi possible de transférer un ou plusieurs des paramètres de l’ANN entraîné, comme les poids appris d’une première couche de l’ANN, vers l’ANN non entraîné afin d’accélérer le transfert de connaissance. En effet, même si les modèles des ANN entraînés et non entraînés ne sont pas identiques, il peut être possible de transférer au moins certains des paramètres.
Enfin, la mise en œuvre pratique des modes de réalisation et variantes décrits est à la portée de la personne du métier à partir des indications fonctionnelles données ci-dessus. Par exemple, l’apprentissage d’un ANN en utilisant une technique d’apprentissage profond est bien connu de la personne du métier et n’a pas été décrit en détail.

Claims (15)

  1. Procédé de génération de données d’apprentissage pour transférer de la connaissance d’un réseau neuronal artificiel entraîné (402, 1002, 1200, 1250) vers un autre réseau neuronal artificiel (406, 1210, 1220, 1260), le procédé comprenant :
    a) injecter un échantillon aléatoire (SEED) dans le réseau neuronal artificiel entraîné, le réseau neuronal artificiel entraîné étant agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties ;
    b) réinjecter un pseudo-échantillon (Xm), généré sur la base de l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné, dans le réseau neuronal artificiel entraîné afin de générer un nouvel échantillon reproduit (Xm’) au niveau desdites une ou plusieurs sorties ; et
    c) répéter b) une ou plusieurs fois pour générer une pluralité de pseudo-échantillons réinjectés (Xm, X(m+1),…) ;
    dans lequel les données d’apprentissage pour l’apprentissage de l’autre réseau neuronal artificiel (406, 1210, 1220, 1260) comprennent au moins deux des pseudo-échantillons réinjectés (Xm, X(m+1),…) issus du même échantillon aléatoire (SEED) et des valeurs de sortie correspondantes (Ym, Y(m+1),…, Xm’, X(m+1)’,…) générées par le réseau neuronal artificiel entraîné.
  2. Procédé selon la revendication 1, dans lequel le réseau neuronal artificiel entraîné (402), ou un autre réseau neuronal artificiel entraîné (1006), est agencé pour mettre en œuvre une fonction de classification, et dans lequel les valeurs de sortie correspondantes des données d’apprentissage comprennent des pseudo-étiquettes (Ym, Y(m+1),...) générées par la fonction de classification sur la base des pseudo-échantillons réinjectés.
  3. Procédé selon la revendication 2, comprenant en outre une détection, sur la base des pseudo-étiquettes, du moment où une frontière (208, 210) entre deux espaces de pseudo-étiquettes est traversée entre des réinjections consécutives de deux des pseudo-échantillons, dans lequel lesdits au moins deux pseudo-échantillons réinjectés formant les données d’apprentissage comprennent au moins les deux pseudo-échantillons réinjectés consécutivement.
  4. Procédé selon la revendication 2 ou 3, dans lequel les pseudo-étiquettes sont des sorties non normalisées de la fonction de classification.
  5. Procédé selon l’une quelconque des revendications 1 à 4, dans lequel l’autre réseau neuronal artificiel (406) est agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties, et dans lequel les valeurs de sortie correspondantes des données d’apprentissage comprennent les nouveaux échantillons reproduits (Xm’, X(m+1)’,…) générés par la fonction auto-associative du réseau neuronal artificiel entraîné (402, 1002, 1200, 1250) sur la base des pseudo-échantillons réinjectés.
  6. Procédé selon l’une quelconque des revendications 1 à 5, comprenant en outre :
    d) répéter a), b) et c) au moins une fois sur la base de nouveaux échantillons aléatoires afin de générer, à chaque répétition, au moins deux autres pseudo-échantillons réinjectés formant les données d’apprentissage.
  7. Procédé selon l’une quelconque des revendications 1 à 6, comprenant en outre la génération de l’échantillon aléatoire sur la base d’une distribution normale ou sur la base d’une distribution uniforme ajustée.
  8. Procédé selon l’une quelconque des revendications 1 à 7, dans lequel la génération du pseudo-échantillon comprend l’injection de bruit dans l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné.
  9. Procédé de transfert de connaissance à partir d’un réseau neuronal artificiel entraîné (402, 1002, 1200, 1250) vers un ou plusieurs autres réseaux neuronaux artificiels (406, 1210, 1220, 1260), le procédé comprenant :
    - générer des données d’apprentissage en utilisant le procédé de l’une quelconque des revendications 1 à 8 ; et
    - entraîner l’autre réseau neuronal artificiel sur la base des données d’apprentissage générées.
  10. Système de génération de données d’apprentissage pour transférer de la connaissance à partir d’un réseau neuronal artificiel entraîné (402, 1002, 1200, 1250) vers un autre réseau neuronal artificiel (406, 1210, 1220, 1260), le système comprenant un générateur de données (404) agencé pour :
    a) injecter un échantillon aléatoire (SEED) dans le réseau neuronal artificiel entraîné, le réseau neuronal artificiel entraîné étant agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties ;
    b) réinjecter un pseudo-échantillon (Xm), généré sur la base de l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné, dans le réseau neuronal artificiel entraîné afin de générer un nouvel échantillon reproduit (Xm’) au niveau desdites une ou plusieurs sorties ; et
    c) répéter b) une ou plusieurs fois pour générer une pluralité de pseudo-échantillons réinjectés (Xm, X(m+1),…) ;
    dans lequel le générateur de données (404) est en outre agencé pour générer les données d’apprentissage pour l’apprentissage de l’autre réseau neuronal artificiel (406, 1210, 1220, 1260) de manière à comprendre au moins deux des pseudo-échantillons réinjectés (Xm, X(m+1),…) issus du même échantillon aléatoire (SEED) et des valeurs de sortie correspondantes (Ym, Y(m+1),…, Xm’, X(m+1)’,…) générées par le réseau neuronal artificiel entraîné.
  11. Système selon la revendication 10, comprenant en outre l’autre réseau neuronal artificiel (406, 1210, 1220, 1260), et un système d’apprentissage (1218, 1226, 1266) agencé pour entraîner l’autre réseau neuronal artificiel sur la base des données d’apprentissage.
  12. Système selon la revendication 11, dans lequel le réseau neuronal artificiel entraîné (402, 1200), ou un autre réseau neuronal artificiel entraîné (1006), est agencé pour mettre en œuvre une fonction de classification, et dans lequel le générateur de données (404) est agencé pour générer des données d’apprentissage de manière à comprendre en outre des pseudo-étiquettes (Ym, Y(m+1),...) générées par la fonction de classification sur la base des pseudo-échantillons réinjectés, et dans lequel l’autre réseau neuronal artificiel (1210, 1220) est capable de mettre en œuvre une fonction de classification.
  13. Système selon la revendication 11 ou 12, dans lequel l’autre réseau neuronal artificiel (406, 1210, 1260) est agencé pour mettre en œuvre au moins une fonction auto-associative pour reproduire des échantillons d’entrée au niveau d’une ou plusieurs de ses sorties, et dans lequel les données d’apprentissage comprennent en outre les nouveaux échantillons reproduits (Xm’, X(m+1)’,…) générés par la fonction auto-associative du réseau neuronal artificiel entraîné (402, 1200, 1250) sur la base des pseudo-échantillons réinjectés.
  14. Système selon l’une quelconque des revendications 10 à 13, comprenant en outre un générateur de germes (408) agencé pour générer l’échantillon aléatoire sur la base d’une distribution normale ou sur la base d’une distribution uniforme ajustée.
  15. Système selon l’une quelconque des revendications 10 à 14, dans lequel le générateur de données (404) est agencé pour générer le pseudo-échantillon en injectant du bruit dans l’échantillon reproduit présent au niveau desdites une ou plusieurs sorties du réseau neuronal artificiel entraîné.
FR2003326A 2020-04-02 2020-04-02 Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel Active FR3109002B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR2003326A FR3109002B1 (fr) 2020-04-02 2020-04-02 Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel
EP21715647.0A EP4128072A1 (fr) 2020-04-02 2021-04-01 Dispositif et procédé de transfert de connaissances à partir d'un réseau neuronal artificiel
PCT/EP2021/058631 WO2021198426A1 (fr) 2020-04-02 2021-04-01 Dispositif et procédé de transfert de connaissances à partir d'un réseau neuronal artificiel
US17/916,132 US20230153632A1 (en) 2020-04-02 2021-04-01 Device and method for transferring knowledge of an artificial neural network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2003326 2020-04-02
FR2003326A FR3109002B1 (fr) 2020-04-02 2020-04-02 Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel

Publications (2)

Publication Number Publication Date
FR3109002A1 true FR3109002A1 (fr) 2021-10-08
FR3109002B1 FR3109002B1 (fr) 2022-04-08

Family

ID=72470418

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2003326A Active FR3109002B1 (fr) 2020-04-02 2020-04-02 Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel

Country Status (1)

Country Link
FR (1) FR3109002B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117275220A (zh) * 2023-08-31 2023-12-22 云南云岭高速公路交通科技有限公司 基于非完备数据的山区高速公路实时事故风险预测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150356461A1 (en) 2014-06-06 2015-12-10 Google Inc. Training distilled machine learning models

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150356461A1 (en) 2014-06-06 2015-12-10 Google Inc. Training distilled machine learning models

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANS B ET AL: "Neural networks with a self-refreshing memory: Knowledge transfer in sequential learning tasks without catastrophic forgetting", CONNECTION SCIENCE, vol. 12, no. 1, March 2000 (2000-03-01), GB, pages 1 - 19, XP055762088, ISSN: 0954-0091, DOI: 10.1080/095400900116177 *
ANS B ET AL: "Self-refreshing memory in artificial neural networks: learning temporal sequences without catastrophic forgetting", CONNECTION SCIENCE, vol. 16, no. 2, June 2004 (2004-06-01), GB, pages 71 - 99, XP055762094, ISSN: 0954-0091, DOI: 10.1080/09540090412331271199 *
HINTON ET AL.: "Distilling the Knowledge in a Neural Network", 9 March 2015, GEOFFREY
SOLINAS M ET AL: "Generalization of iterative sampling in autoencoders", HAL ARCHIVES-OUVERTES.FR, CEA-02917445, 30 November 2020 (2020-11-30), XP055762074, Retrieved from the Internet <URL:https://hal-cea.archives-ouvertes.fr/cea-02917445/document> [retrieved on 20201221] *
TIANQI CHEN ET AL: "Net2Net: accelerating learning via knowledge transfer", ARXIV:1511.05641V4, 23 April 2016 (2016-04-23), XP055349756, Retrieved from the Internet <URL:https://arxiv.org/abs/1511.05641v4> [retrieved on 20170227] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117275220A (zh) * 2023-08-31 2023-12-22 云南云岭高速公路交通科技有限公司 基于非完备数据的山区高速公路实时事故风险预测方法

Also Published As

Publication number Publication date
FR3109002B1 (fr) 2022-04-08

Similar Documents

Publication Publication Date Title
Goodfellow et al. Multi-prediction deep Boltzmann machines
Xin et al. Palmprint recognition based on deep learning
WO2020208153A1 (fr) Procede de definition d&#39;un chemin
EP0514986B1 (fr) Procédé d&#39;apprentissage d&#39;un réseau de neurones et dispositif de classification pour la mise en oeuvre de ce procédé
EP0875032B1 (fr) Procede d&#39;apprentissage generant des reseaux de neurones de petites tailles pour la classification de donnees
FR3087033A1 (fr) Procedes d&#39;apprentissage de parametres d&#39;un reseau de neurones a convolution et de detection d&#39;elements d&#39;interet visibles dans une image
FR2661265A1 (fr) Systeme neuronal de classification et procede de classification utilisant un tel systeme.
FR3109002A1 (fr) Dispositif et procédé pour le transfert de connaissance d’un réseau neuronal artificiel
FR2660085A1 (fr) Dispositif de traitement de donnees et procede pour selectionner des mots de donnees contenus dans un dictionnaire.
FR3114180A1 (fr) Système et procédé pour éviter un oubli catastrophique dans un réseau neuronal artificiel
EP4202770A1 (fr) Reseau de neurones avec generation a la volee des parametres du reseau
EP3966739B1 (fr) Procédé d&#39;analyse automatique d&#39;images pour reconnaître automatiquement au moins une caractéristique rare
Chennupati Hierarchical decomposition of large deep networks
WO2021234252A1 (fr) Procédés d&#39;utilisation sécurisée d&#39;un premier réseau de neurones sur une donnée d&#39;entrée, et d&#39;apprentissage de paramètres d&#39;un deuxième réseau de neurones
Aubin Mean-field methods and algorithmic perspectives for high-dimensional machine learning
FR3080932A1 (fr) Procede de generation automatique de reseaux de neurones artificiels
Nooka Fusion of Mini-Deep Nets
EP4150574B1 (fr) Procédé de traitement d&#39;images
OURIACHI Prédiction Criminelle par Réseaux de Neurones
FR3117646A1 (fr) Méthode de compression d’un réseau de neurones artificiel
FR3118503A1 (fr) Procédé et dispositif de détection d&#39;anormalité de données
FR3111217A1 (fr) Méthode de réduction de la taille d’un réseau de neurones artificiel
Yi et al. Learning the group structure of deep neural networks with an expectation maximization method
Refinetti The Role of Architecture, Data Structure and Algorithm in Machine Learning: a Statistical Physics Approach
WO2022135964A1 (fr) Procédé de partitionnement de séries temporelles

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211008

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5