PROCEDE DE RECONNAISSANCE D'OBJETS CODES PAR DES VECTEURS METHOD FOR RECOGNIZING OBJECTS ENCODED BY VECTORS
DESCRIPTION DESCRIPTION
La présente invention concerne un procédé permettant de reconnaître des objets codés par des vecteurs. Elle trouve de nombreuses applications dans le domaine de la spect roscopie. De façon plus particulière, elle peut s'appliquer à la Résonance The present invention relates to a method for recognizing objects encoded by vectors. It finds many applications in the field of spect roscopy. More specifically, it can be applied to the Resonance
Magnétique Nucléaire (RMN), aux spectres de masse pour l'identification de polluants chimiques et aux spectres de rayons gamma pour la reconnaissance de déchets nucléaires. Nuclear Magnetic (NMR), mass spectra for the identification of chemical pollutants and gamma ray spectra for the recognition of nuclear waste.
On comprendra par "reconnaissance" d'objet, l'identification d'un objet inconnu à un objet de référence choisi parmi plusieurs références. We understand by "object recognition", the identification of an unknown object with a reference object chosen from several references.
Le procédé selon la présente invention s'applique dans des réseaux neuronaux. The method according to the present invention is applicable in neural networks.
Un réseau neuronal est un réseau dans lequel les informations sont traitées en parallèle. Ce réseau cherche à imiter le cerveau humain, dans lequel chaque neurone fonctionne de façon plus ou moins autonome. Un neurone informatique traite et mémorise des données indépendamment des autres neurones. L'organisation de tels neurones en réseau fournit un comportement global particulier, occasionné par un apprentissage, c'est-à-dire que chaque neurone choisit de laisser, ou de ne pas laisser, passer l'information selon les informations qui ont déjà transité par le réseau. Cet apprentissage est caractérisé, dans un réseau neuronal informatique, par des poids synaptiques.
De façon plus mathématique, chaque neurone voit à son entrée une somme d'informations pondérées par des poids synaptiques w. A neural network is a network in which information is processed in parallel. This network seeks to imitate the human brain, in which each neuron functions more or less autonomously. A computer neuron processes and stores data independently of other neurons. The organization of such neurons in a network provides a particular global behavior, occasioned by learning, that is to say that each neuron chooses to let, or not to let, pass information according to the information which has already passed through. through the network. This learning is characterized, in a computer neural network, by synaptic weights. More mathematically, each neuron sees at its input a sum of information weighted by synaptic weights w.
En résumé, un réseau neuronal permet de traiter de nombreuses informations en parallèle pour la recherche d'un résultat. In summary, a neural network makes it possible to process a lot of information in parallel in order to find a result.
De tels réseaux neuronaux sont décrits plus précisément dans le document "Réseaux de neurones artificiels" paru aux Presses Polytechniques et Universitaires Romandes, ouvrage dans lequel a été dressé un état de l'art, en 1989, dans le domaine des réseaux neuronaux. Such neural networks are described more precisely in the document "Networks of artificial neurons" published by the Presses Polytechniques et Universitaires Romandes, a work in which a state of the art was drawn up, in 1989, in the field of neural networks.
Il est connu. dans les procédés de reconnaissance d'objets, d'utiliser une méthode appelée méthode de la matrice pseudo-inverse appliquée dans un réseau neuronal. He is known. in object recognition methods, to use a method called the pseudo-inverse matrix method applied in a neural network.
Un tel procédé est décrit dans l'article intitulé "Collective computationa l properties of neural network : New learning mechanisms" de Messieurs PERSONNAZ, GUYON et DREYFUS, article publié dans la revue "Physical Review A" de Novembre 1986. Such a process is described in the article entitled "Collective computationa l properties of neural network: New learning mechanisms" by Messrs. PERSONNAZ, GUYON and DREYFUS, article published in the journal "Physical Review A" of November 1986.
Cette méthode de matrice pseudo-inverse consiste notamment à déterminer une matrice de GRAM-SCHMIDT [G] à partir de modèles S, c'est-à-dire d'ensembles de vecteurs Sμ codant des objets à reconnaître. Cette matrice de GRAM-SCHMIDT est définie par la relation :
This pseudo-inverse matrix method consists notably in determining a GRAM-SCHMIDT [G] matrix from models S, that is to say sets of vectors S μ coding objects to be recognized. This GRAM-SCHMIDT matrix is defined by the relation:
μ et v étant des numéros des vecteurs servant de modèles pour la reconnaissance, i indiquant le numéro de la coordonnée considérée desdits vecteurs, N étant
la dimension de l'espace de représentation considéré et P le nombre de vecteurs codant les différents modèles d'objets à reconnaître. μ and v being numbers of the vectors serving as models for recognition, i indicating the number of the coordinate considered of said vectors, N being the dimension of the representation space considered and P the number of vectors coding the different models of objects to be recognized.
Ces modèles sont normalisés de sorte que les éléments diagonaux Gμμ de la matrice [G], dans laquelle μ varie de 1 à P, sont égaux à 1. On constate alors que les autres coefficients de la matrice [G] sont tous proches de 1, les modèles étant fortement corrélés. These models are normalized so that the diagonal elements G μμ of the matrix [G], in which μ varies from 1 to P, are equal to 1. We then observe that the other coefficients of the matrix [G] are all close to 1, the models being strongly correlated.
Lorsque la matrice G est inversible, les poids synaptiques w du réseau neuronal peuvent alors être déterminés par la relation :
When the matrix G is invertible, the synaptic weights w of the neural network can then be determined by the relation:
Cependant, dans certains cas, la matrice [G] n'est pas inversible, notamment lorsque les coefficients de ladite matrice sont trop peu différents les uns des autres. However, in certain cases, the matrix [G] is not invertible, in particular when the coefficients of said matrix are too little different from each other.
Le procédé précédemment décrit présente un certain nombre d'inconvénients et, en particulier, celui de ne pas permettre la reconnaissance d'objets dont les vecteurs représentatifs pris comme références sont trop semblables. Il y a, par exemple, de nombreux cas de spectres non reconnai ssables car trop voisins. The method described above has a certain number of drawbacks and, in particular, that of not allowing the recognition of objects whose representative vectors taken as references are too similar. There are, for example, many cases of unrecognizable spectra because they are too close.
Dans le cas particulier de la reconnaissance de déchets nucléaires, les spectres des rayons gamma émis par ces déchets sont généralement très similaires les uns des autres. Et le procédé, tel qu'exposé précédemment, ne permet pas la reconnaissance de ces spectres de rayons gamma.
La présente invention a justement pour objet cette reconnaissance de spectres très voisins. Elle met en oeuvre un traitement des vecteurs codant les objets à reconnaître avant d'appliquer le procédé connu de la matrice pseudo-inverse. Ce traitement consiste à changer l'origine de l'espace de représentation dans lequel sont définis lesdits vecteurs. In the particular case of recognition of nuclear waste, the spectra of the gamma rays emitted by this waste are generally very similar to each other. And the method, as explained previously, does not allow the recognition of these gamma ray spectra. The object of the present invention is precisely this recognition of very close spectra. It implements a processing of the vectors coding the objects to be recognized before applying the known method of the pseudo-inverse matrix. This processing consists in changing the origin of the representation space in which said vectors are defined.
De façon plus précise, l'invention a pour objet un procédé de reconnaissance d'objets codés par des vecteurs dans lequel on utilise un réseau neuronal apte à comparer un vecteur inconnu à des vecteurs de référence définis dans un espace de représentation d'origine B, caractérisés chacun par un label et mémorisés par ledit réseau neuronal, ces vecteurs définissant : More specifically, the invention relates to a method of recognizing objects coded by vectors in which a neural network is used capable of comparing an unknown vector to reference vectors defined in an original representation space B , each characterized by a label and stored by said neural network, these vectors defining:
- une matrice de GRAM-SCHMIDT [G], telle que :
- a GRAM-SCHMIDT matrix [G], such as:
S étant une matrice représentatrice desdits vecteurs, i indiquant la coordonnée considérée desdits vecteurs, μ (ou ʋ ) indiquant le vecteur considéré ; S being a matrix representing said vectors, i indicating the considered coordinate of said vectors, μ (or ʋ) indicating the vector considered;
- des poids synaptiques w du réseau neuronal déterminés par un procédé de matrice pseudo-inverse tel que :
- synaptic weights w of the neural network determined by a pseudo-inverse matrix method such as:
[G-1] étant la matrice inverse de la matrice de GRAM-SCHMIDT, lesdits poids synaptiques permettant de comparer les vecteurs à reconnaître avec les vecteurs de référence,
procédé caractérisé en ce qu'il consiste en un prétraitement desdits vecteurs, ce prétraitement comprenant les étapes suivantes : [G -1 ] being the inverse matrix of the GRAM-SCHMIDT matrix, said synaptic weights making it possible to compare the vectors to be recognized with the reference vectors, process characterized in that it consists of a pretreatment of said vectors, this pretreatment comprising the following steps:
- détermination, pour les origines de l'espace de représentation, des indices de sensibilité définis par la trace de la matrice [G-1] à savoir σ = Tr [G-1] ; - determination, for the origins of the representation space, of the sensitivity indices defined by the trace of the matrix [G -1 ], namely σ = Tr [G -1 ];
- choix d'une nouvelle origine B' de l'espace de représentation assurant un indice de sensibilité minimum ; - choice of a new origin B 'of the representation space ensuring a minimum sensitivity index;
- calcul de la nouvelle matrice rectangulaire S' en appliquant la relation : S ' iμ = Siμ - B'i, - calculation of the new rectangular matrix S 'by applying the relation: S' iμ = S iμ - B ' i ,
- application du procédé de la matrice pseudo-inverse à la nouvelle matrice S' en calculant la nouvelle matrice [G'] de GRAM-SCHMIDT et les nouveaux poids synaptiques w' . - application of the pseudo-inverse matrix method to the new matrix S 'by calculating the new matrix [G'] of GRAM-SCHMIDT and the new synaptic weights w '.
Avantageusement, le prétraitement des vecteurs comprend une première étape de reconnaissance hiérarchique. ladite première étape comportant les sous-étapes suivantes : Advantageously, the pretreatment of the vectors comprises a first step of hierarchical recognition. said first step comprising the following sub-steps:
- liste, selon un ordre de valeurs croissantes, de toutes les distances entre vecteurs de référence de sorte que tous les labels soient pris en considération ; - list, in an order of increasing values, of all the distances between reference vectors so that all the labels are taken into consideration;
- regroupement en agrégats des vecteurs de référence les plus voisins les uns des autres ; - grouping into aggregates of the reference vectors closest to each other;
- comparaison du vecteur inconnu avec chacun des agrégats, chaque agrégat étant représenté par un vecteur moyen ;
- sélection de l'agrégat dont le vecteur moyen est le plus proche du vecteur inconnu ; et - comparison of the unknown vector with each of the aggregates, each aggregate being represented by an average vector; - selection of the aggregate whose average vector is closest to the unknown vector; and
- comparaison du vecteur inconnu avec chaque vecteur contenu dans l'agrégat sélectionné comme étant le plus voisin. - comparison of the unknown vector with each vector contained in the aggregate selected as being the closest.
Une application du procédé consiste en un dispositif de signalisation manipulable à distance afin de reconnaître des spectres, notamment de rayons gamma émis par des déchets nucléaires. One application of the method consists of a signaling device which can be manipulated remotely in order to recognize spectra, in particular of gamma rays emitted by nuclear waste.
D'autres caractéristiques et avantages ressortiront de la description qui va suivre, donnée à titre illustratif et non limitatif en référence aux dessins dans lesquels : Other characteristics and advantages will emerge from the description which follows, given by way of illustration and not limitation with reference to the drawings in which:
- les figures 1a, 1b, 1c, 1d et 1e sont les représentations de spectres de rayons gamma provenant de déchets nucléaires ; - Figures 1a, 1b, 1c, 1d and 1e are the representations of gamma ray spectra from nuclear waste;
- la figure 2 est une représentation schématique d'un espace de représentation correspondant aux figures 1a à 1e. - Figure 2 is a schematic representation of a representation space corresponding to Figures 1a to 1e.
Tout au long de la description, on comprendra par "vecteur" un ensemble de canaux décrivant un spectre. Mathématiquement, ces vecteurs sont codés par une suite de nombres représentant les coordonnées dudit vecteur dans un espace à N dimensions et regroupés dans une matrice rectangulaire S. Throughout the description, “vector” will be understood to mean a set of channels describing a spectrum. Mathematically, these vectors are coded by a series of numbers representing the coordinates of said vector in an N-dimensional space and grouped in a rectangular matrix S.
Afin de mieux illustrer la description, un exemple concret, mais limité à un petit nombre de vecteurs, sera décrit. Cet exemple utilise cinq spectres comportant chacun soixante dix canaux, comme montré sur les figures 1a à 1e, ce qui signifie que la matrice des modèles S est de dimension 70 × 5, soit cinq colonnes et soixante dix lignes.
Ainsi, tout couple de vecteurs ( Sμ , Sʋ ) définit des coefficients d'une matrice de GRAM-SCHMIDTIn order to better illustrate the description, a concrete example, but limited to a small number of vectors, will be described. This example uses five spectra each comprising seventy channels, as shown in FIGS. 1a to 1e, which means that the matrix of the models S is of dimension 70 × 5, that is to say five columns and seventy rows. Thus, any pair of vectors (S μ , S ʋ ) defines coefficients of a GRAM-SCHMIDT matrix
[G], telle que :
[G], such as:
μ et ʋ variant de 1 à 5, pour notre exemple de réa li sation. μ and ʋ varying from 1 to 5, for our example of realization.
On peut voir sur les figures 1a et le que les spectres 1 et 5 sont très similaires. Il en est de même des spectres 2 et 3 des figures 1b et 1c. Le spectre 4 de la figure 1d est, quant à lui, assez dissemblable des spectres 1, 2, 3 et 5 pour être reconnu aisément. It can be seen in Figures 1a and le that spectra 1 and 5 are very similar. It is the same for spectra 2 and 3 of Figures 1b and 1c. Spectrum 4 in Figure 1d is quite dissimilar from spectra 1, 2, 3 and 5 to be easily recognized.
Selon ces spectres, les valeurs des coefficients Sμʋ de la matrice de GRAM-SCHMIDT [G], des coefficients dμʋ de la matrice [d] représentant les distances entre les vecteurs Sμ et Sʋ et s'écrivant : dμʋ = (2 - 2Gμʋ ) ½, et des coefficients αμʋ de la matrice [α] représentant les différences angulaires entre les vecteurs Sμ et Sʋ et s'écrivant : αμʋ Cos-1 [Gμʋ], sont les suivantes :
According to these spectra, the values of the coefficients S μʋ of the GRAM-SCHMIDT matrix [G], of the coefficients d μʋ of the matrix [d] representing the distances between the vectors S μ and S ʋ and written: d μʋ = (2 - 2G μʋ ) ½ , and coefficients α μʋ of the matrix [α] representing the angular differences between the vectors S μ and S ʋ and written: α μʋ Cos -1 [G μʋ ], are the following:
Les matrices d et α sont deux façons différentes d'exprimer la même notion de différence entre deux vecteurs Sμ et Sʋ . The matrices d and α are two different ways of expressing the same notion of difference between two vectors S μ and S ʋ .
Dans un cas i déa l d ' o rthogonali té des vecteurs Sμ et Sʋ , la matrice [G] est une matrice unité, la matrice a tous ses coefficients dμʋ non diagonaux égaux à
et la matrice [α] ne possède, hors de sa diagonale, que des coeffi cient s αμʋ de 90°. In a case i déa ld o rthogonali ty of the vectors S μ and S ʋ , the matrix [G] is a unit matrix, the matrix has all its non-diagonal coefficients d μʋ equal to and the matrix [α] has, outside its diagonal, only coeffi cient s α μʋ of 90 °.
La matrice [α] confirme ce que montrent les figures 1a et 1e, à savoir que les spectres 1 et 5 sont très ressemblants l'un à l'autre : en effet.
l'angle α15 entre les vecteurs S1 et S2 n'est que de 3°. De même, l'angle α23 entre les vecteurs S2 et S3 n'est que de 7°, ce qui est très loin de l'angle droit idéal. Les autres angles sont d'un ordre de grandeur plus élevé, à savoir 25° environ. The matrix [α] confirms what FIGS. 1a and 1e show, namely that the spectra 1 and 5 are very similar to each other: indeed. the angle α 15 between the vectors S 1 and S 2 is only 3 °. Similarly, the angle α 23 between the vectors S 2 and S 3 is only 7 °, which is very far from the ideal right angle. The other angles are of an order of magnitude higher, namely about 25 °.
Ces spectres (1, 5) et (2, 3) font donc typiquement partie des spectres difficiles, voire impossibles, à différencier par la méthode connue. These spectra (1, 5) and (2, 3) are therefore typically part of the spectra which are difficult, even impossible, to differentiate by the known method.
Pour chaque matrice [G] déterminée, un indice de sensibilité σ peut être calculé par la somme des valeurs propres de [G-1], communément appelée trace (abréviation Tr) par la relation : σ = Tr [G-1] . For each matrix [G] determined, a sensitivity index σ can be calculated by the sum of the eigenvalues of [G -1 ], commonly called trace (abbreviation Tr) by the relation: σ = Tr [G -1 ].
Cet indice de sensibilité a est défini pour une origine B de l'espace de représentation. Dans le procédé selon l'invention, on cherche à trouver une nouvelle origine B' de l'espace de représentation afin de rendre les vecteurs Sμ et Sʋ plus orthogonaux. Cette nouvelle origine B' est trouvée lorsque l'indice de sensibilité σ est minimum. This sensitivity index a is defined for an origin B of the representation space. In the method according to the invention, it is sought to find a new origin B ′ of the representation space in order to make the vectors S μ and S ʋ more orthogonal. This new origin B 'is found when the sensitivity index σ is minimum.
Dans un mode de réalisation préféré de l'inventeur, les différents indices de sensibilité σ sont choisis en utilisant une méthode d'échantillonnage systématique parmi toutes les origines possibles, toute autre méthode de choix de B' pouvant être utilisée. In a preferred embodiment of the inventor, the different sensitivity indices σ are chosen using a systematic sampling method from among all the possible origins, any other method of choosing B 'being able to be used.
Dans l'exemple selon le procédé objet de l'invention, la valeur de l'indice σ m in im u m est σmin = 38,3.
Idéalement, si le changement d'origine permet de rendre tous les vecteurs orthogonaux, l'indice de sensibilité minimum serait égal à P, c'est-à-dire au nombre de vecteurs pris en considération dans la réalisation. Dans l'exemple décrit, on aurait σmin = 5. In the example according to the process which is the subject of the invention, the value of the index σ m in im um is σ min = 38.3. Ideally, if the change of origin makes all the vectors orthogonal, the minimum sensitivity index would be equal to P, that is to say the number of vectors taken into consideration in the realization. In the example described, we would have σ min = 5.
Cet indice de sensibilité choisi, les nouvelles matrices [G'], [d'] e t [ α'] sont déterminables à partir des relations suivantes : This chosen sensitivity index, the new matrices [G '], [d'] e t [α '] can be determined from the following relationships:
S'iμ = Siμ - B'i S ' iμ = S iμ - B' i
d 'μʋ = (2 - 2G 'μʋ)½, et d ' μʋ = (2 - 2G' μʋ ) ½ , and
α'μʋ = Cos -1 (G'μʋ) α ' μʋ = Cos -1 (G' μʋ )
Les nouvelles matrices obtenues sont les ui vantes : The new matrices obtained are the following:
Les coefficients, hors diagonale, de ces nouvelles matrices sont plus proches respectivement de 0, de
et de 90°. The coefficients, except diagonal, of these new matrices are closer respectively to 0, of and 90 °.
La nouvelle matrice [G'] ainsi obtenue est inversible. Il est alors possible de calculer les nouveaux poids synaptiques w' par la relation :
The new matrix [G '] thus obtained is invertible. It is then possible to calculate the new synaptic weights w 'by the relation:
La figure 2 est une représentation de l'espace de représentation des cinq vecteurs de l'exemple considéré. Lesdits vecteurs sont représentés par les points S1, S2, S3, S4 et S5. Le point B' est la nouvelle origine choisie de façon à ce que l'indice de sensibilité soit minimum, à savoir σ'min = 38,3 pour l'exemple considéré. FIG. 2 is a representation of the representation space of the five vectors of the example considered. Said vectors are represented by points S1, S2, S3, S4 and S5. The point B 'is the new origin chosen so that the sensitivity index is minimum, namely σ' min = 38.3 for the example considered.
Suivant un perfectionnement tout à fait intéressant, l'invention permet de mettre en oeuvre un prétraitement hiérarchique de reconnaissance des vecteurs. Il s'agit tout d'abord de lister dans un ordre croissant de valeurs toutes les distances dμʋ entre deux vecteurs Sμ et Sʋ , formant uneAccording to an entirely advantageous improvement, the invention makes it possible to implement a hierarchical preprocessing for vector recognition. It is first of all a question of listing in an increasing order of values all the distances d μʋ between two vectors S μ and S ʋ , forming a
"paire ordonnée", μ étant inférieur à ʋ . On obtient ainsi
distances ordonnées. Cependant, seules les premières plus petites distances, faisant apparaître tous les labels μ ou ʋ de valeurs 1
à P, sont prises en considération pour la suite dudit traitement. Des agrégats de D vecteurs sont ainsi déterminés, D étant le nombre choisi de vecteurs compris dans un agrégat. "ordered pair", μ being less than ʋ. We thus obtain ordered distances. However, only the first smallest distances, showing all the labels μ or ʋ with values 1 to P are taken into account for the continuation of said processing. Aggregates of D vectors are thus determined, D being the chosen number of vectors included in an aggregate.
Il est possible de représenter sous forme de matrice de connexion [c] l'ensemble des agrégats déterminés : ses coefficients Cμʋ où le couple de labels ( μ , ʋ ) a été pris en considération et ses coefficients Cʋμ symétriques de Cμʋ valant 1 ; les autres coefficients valent 0. It is possible to represent in the form of a connection matrix [c] the set of determined aggregates: its coefficients C μʋ where the pair of labels (μ, ʋ) has been taken into account and its coefficients C ʋμ symmetrical of C μʋ being equal 1; the other coefficients are 0.
La comparaison d'un vecteur inconnu se fait alors en plusieurs étapes. Le vecteur inconnu à déterminer est tout d'abord comparé à un vecteur représentant l'agrégat, ledit vecteur étant déterminé comme une moyenne de tous les vecteurs contenus dans un agrégat. Le vecteur inconnu est alors comparé à chaque vecteur contenu dans l'agrégat sélectionné comme étant le plus ressemblant. The comparison of an unknown vector is then done in several stages. The unknown vector to be determined is first compared to a vector representing the aggregate, said vector being determined as an average of all the vectors contained in an aggregate. The unknown vector is then compared to each vector contained in the selected aggregate as being the most similar.
Dans l'exemple considéré, d'après les valeurs données par la matrice [d], la liste des distances entre les vecteurs est la suivante : d15 < d23 < d14 < d45 < d12 < d34 < d25 < d24 < d13 < d35 In the example considered, according to the values given by the matrix [d], the list of the distances between the vectors is as follows: d 15 <d 23 <d 14 <d 45 <d 12 <d 34 <d 25 <d 24 <d 13 <d 35
Les distances d15, d23 et d14 font apparaître tous les labels, à savoir 1, 2, 3, 4 et 5. Seules, ces trois distances sont prises en compte pour la suite du traitement. On prend ainsi le nombre 3 comme nombre D de paires définissant les agrégats. Ces agrégats sont (145) et (23) pour D = 3. The distances d 15 , d 23 and d 14 show all the labels, namely 1, 2, 3, 4 and 5. Only these three distances are taken into account for further processing. We thus take the number 3 as the number D of pairs defining the aggregates. These aggregates are (145) and (23) for D = 3.
La matrice de connexion [c] est la suivante :
The connection matrix [c] is as follows:
Le nombre de paires ordonnées retenues peut aussi bien prendre des valeurs inférieures D', telles que D' = D/2 ou toute autre fraction significative de D. The number of ordered pairs retained may as well take lower values D ', such as D' = D / 2 or any other significant fraction of D.
Par exemple, on peut choisir D' = 2. Dans ce cas, le nombre de vecteurs par agrégat est au maximum deux, et les agrégats sont (15), (23) et (4). La matrice de connexion [C'] correspondante est alors la suivante : For example, we can choose D '= 2. In this case, the number of vectors per aggregate is at most two, and the aggregates are (15), (23) and (4). The corresponding connection matrix [C '] is then as follows:
Lorsque le prétraitement décrit ci-dessus est terminé, la suite de la reconnaissance du vecteur inconnu se poursuit, telle que décrite précédemment. When the pretreatment described above is finished, the continuation of the recognition of the unknown vector continues, as described previously.
La figure 2 permet de comprendre que la nouvelle origine B', choisie sans effectuer le prétraitement hiérarchique de reconnaissance, n'assure pas la quasi-orthogona lité des vecteurs.
En effet, en considérant plus particulièrement l'agrégat (S2, S3), on voit que l'origine B' choisie, telle que montré sur la figure 2, ne permet pas l 'orthogona li té entre les vecteurs S2 et S3. Au contraire, si l'on a choisi l'agrégat (S2, S3) comme le plus ressemblant, on peut se placer dans un espace restreint avec une origine B" permettant une quasi-orthogonalité de S2 et S3. FIG. 2 makes it possible to understand that the new origin B ', chosen without carrying out the hierarchical recognition preprocessing, does not ensure the quasi-orthogonality of the vectors. Indeed, by considering more particularly the aggregate (S 2 , S 3 ), it is seen that the origin B 'chosen, as shown in FIG. 2, does not allow the orthogona li ted between the vectors S 2 and S 3 . On the contrary, if we have chosen the aggregate (S 2 , S 3 ) as the most similar, we can place ourselves in a restricted space with an origin B "allowing a quasi-orthogonality of S 2 and S 3 .
La d e s c r ip t ion ci-dessus s'appuie sur un exemple précis de spectres de rayons gamma émis par des déchets nucléaires, mais l'invention peut s'appliquer à de nombreux autres domaines de la spect roscopie. The above description is based on a specific example of gamma ray spectra emitted by nuclear waste, but the invention can be applied to many other fields of spectroscopy.
L'invention peut en effet se concrétiser dans un dispositif de signalisation manipulable ou autonome comportant notamment les organes suivants : The invention can indeed be embodied in a manipulative or autonomous signaling device comprising in particular the following organs:
- un détecteur multicanaux de spectre de rayons γ émis par des déchets nucléaires ; et - a multi-channel γ-ray spectrum detector emitted by nuclear waste; and
- un microcaIculateur recevant les informations captées par le détecteur. Ce mi croca Iculateur comporte deux couches successives d'éléments : - a microcomputer receiving the information received by the detector. This mi croca Iculateur has two successive layers of elements:
a) la couche mémoire des poids synaptiques, enregistrant les modèles de reconnaissance, selon la règle exposée par l'invention ; et a) the memory layer of the synaptic weights, recording the recognition models, according to the rule exposed by the invention; and
b) la couche de neurones identificateurs aptes à évaluer la ressemblance entre le signal et l'un des modèles. b) the layer of identifying neurons capable of assessing the resemblance between the signal and one of the models.
L'invention s'applique également à de nombreux autres domaines où l'information est codable par un vecteur, notamment la spectroscopîe : spectres de masse de polluants, spectres de résonance magnétique nucléai re, etc.
The invention also applies to many other fields where the information is codable by a vector, in particular spectroscopy: mass spectra of pollutants, nuclear magnetic resonance spectra, etc.