EP0568616A1 - Vector-coded object recognition method - Google Patents

Vector-coded object recognition method

Info

Publication number
EP0568616A1
EP0568616A1 EP92904649A EP92904649A EP0568616A1 EP 0568616 A1 EP0568616 A1 EP 0568616A1 EP 92904649 A EP92904649 A EP 92904649A EP 92904649 A EP92904649 A EP 92904649A EP 0568616 A1 EP0568616 A1 EP 0568616A1
Authority
EP
European Patent Office
Prior art keywords
vectors
vector
matrix
aggregate
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP92904649A
Other languages
German (de)
French (fr)
Inventor
Bertrand Giraud
Lon Chang Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA filed Critical Commissariat a lEnergie Atomique CEA
Publication of EP0568616A1 publication Critical patent/EP0568616A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Definitions

  • the present invention relates to a method for recognizing objects encoded by vectors. It finds many applications in the field of spect roscopy. More specifically, it can be applied to the Resonance
  • Nuclear Magnetic (NMR) mass spectra for the identification of chemical pollutants and gamma ray spectra for the recognition of nuclear waste.
  • the method according to the present invention is applicable in neural networks.
  • a neural network is a network in which information is processed in parallel. This network seeks to imitate the human brain, in which each neuron functions more or less autonomously.
  • a computer neuron processes and stores data independently of other neurons. The organization of such neurons in a network provides a particular global behavior, occasioned by learning, that is to say that each neuron chooses to let, or not to let, pass information according to the information which has already passed through. through the network.
  • This learning is characterized, in a computer neural network, by synaptic weights. More mathematically, each neuron sees at its input a sum of information weighted by synaptic weights w.
  • a neural network makes it possible to process a lot of information in parallel in order to find a result.
  • He is known. in object recognition methods, to use a method called the pseudo-inverse matrix method applied in a neural network.
  • This pseudo-inverse matrix method consists notably in determining a GRAM-SCHMIDT [G] matrix from models S, that is to say sets of vectors S ⁇ coding objects to be recognized.
  • This GRAM-SCHMIDT matrix is defined by the relation:
  • ⁇ and v being numbers of the vectors serving as models for recognition, i indicating the number of the coordinate considered of said vectors, N being the dimension of the representation space considered and P the number of vectors coding the different models of objects to be recognized.
  • the synaptic weights w of the neural network can then be determined by the relation:
  • the matrix [G] is not invertible, in particular when the coefficients of said matrix are too little different from each other.
  • the method described above has a certain number of drawbacks and, in particular, that of not allowing the recognition of objects whose representative vectors taken as references are too similar. There are, for example, many cases of unrecognizable spectra because they are too close.
  • the spectra of the gamma rays emitted by this waste are generally very similar to each other. And the method, as explained previously, does not allow the recognition of these gamma ray spectra.
  • the object of the present invention is precisely this recognition of very close spectra. It implements a processing of the vectors coding the objects to be recognized before applying the known method of the pseudo-inverse matrix. This processing consists in changing the origin of the representation space in which said vectors are defined.
  • the invention relates to a method of recognizing objects coded by vectors in which a neural network is used capable of comparing an unknown vector to reference vectors defined in an original representation space B , each characterized by a label and stored by said neural network, these vectors defining:
  • S being a matrix representing said vectors, i indicating the considered coordinate of said vectors, ⁇ (or ⁇ ) indicating the vector considered;
  • the pretreatment of the vectors comprises a first step of hierarchical recognition. said first step comprising the following sub-steps:
  • One application of the method consists of a signaling device which can be manipulated remotely in order to recognize spectra, in particular of gamma rays emitted by nuclear waste.
  • Figures 1a, 1b, 1c, 1d and 1e are the representations of gamma ray spectra from nuclear waste;
  • Figure 2 is a schematic representation of a representation space corresponding to Figures 1a to 1e.
  • vector will be understood to mean a set of channels describing a spectrum. Mathematically, these vectors are coded by a series of numbers representing the coordinates of said vector in an N-dimensional space and grouped in a rectangular matrix S.
  • the values of the coefficients S ⁇ of the GRAM-SCHMIDT matrix [G], of the coefficients d ⁇ of the matrix [d] representing the distances between the vectors S ⁇ and S ⁇ and written: d ⁇ (2 - 2G ⁇ ) 1 ⁇ 2 , and coefficients ⁇ ⁇ of the matrix [ ⁇ ] representing the angular differences between the vectors S ⁇ and S ⁇ and written: ⁇ ⁇ Cos -1 [G ⁇ ], are the following:
  • the matrices d and ⁇ are two different ways of expressing the same notion of difference between two vectors S ⁇ and S ⁇ .
  • the matrix [G] is a unit matrix, the matrix has all its non-diagonal coefficients d ⁇ equal to and the matrix [ ⁇ ] has, outside its diagonal, only coeffi cient s ⁇ ⁇ of 90 °.
  • the matrix [ ⁇ ] confirms what FIGS. 1a and 1e show, namely that the spectra 1 and 5 are very similar to each other: indeed.
  • the angle ⁇ 15 between the vectors S 1 and S 2 is only 3 °.
  • the angle ⁇ 23 between the vectors S 2 and S 3 is only 7 °, which is very far from the ideal right angle.
  • the other angles are of an order of magnitude higher, namely about 25 °.
  • This sensitivity index a is defined for an origin B of the representation space.
  • it is sought to find a new origin B ′ of the representation space in order to make the vectors S ⁇ and S ⁇ more orthogonal.
  • This new origin B ' is found when the sensitivity index ⁇ is minimum.
  • the different sensitivity indices ⁇ are chosen using a systematic sampling method from among all the possible origins, any other method of choosing B 'being able to be used.
  • the new matrices obtained are the following:
  • FIG. 2 is a representation of the representation space of the five vectors of the example considered. Said vectors are represented by points S1, S2, S3, S4 and S5.
  • the invention makes it possible to implement a hierarchical preprocessing for vector recognition. It is first of all a question of listing in an increasing order of values all the distances d ⁇ between two vectors S ⁇ and S ⁇ , forming a
  • connection matrix [c] the set of determined aggregates: its coefficients C ⁇ where the pair of labels ( ⁇ , ⁇ ) has been taken into account and its coefficients C ⁇ symmetrical of C ⁇ being equal 1; the other coefficients are 0.
  • the comparison of an unknown vector is then done in several stages.
  • the unknown vector to be determined is first compared to a vector representing the aggregate, said vector being determined as an average of all the vectors contained in an aggregate.
  • the unknown vector is then compared to each vector contained in the selected aggregate as being the most similar.
  • the list of the distances between the vectors is as follows: d 15 ⁇ d 23 ⁇ d 14 ⁇ d 45 ⁇ d 12 ⁇ d 34 ⁇ d 25 ⁇ d 24 ⁇ d 13 ⁇ d 35
  • connection matrix [c] is as follows:
  • connection matrix [C '] is then as follows:
  • FIG. 2 makes it possible to understand that the new origin B ', chosen without carrying out the hierarchical recognition preprocessing, does not ensure the quasi-orthogonality of the vectors. Indeed, by considering more particularly the aggregate (S 2 , S 3 ), it is seen that the origin B 'chosen, as shown in FIG. 2, does not allow the orthogona li ted between the vectors S 2 and S 3 . On the contrary, if we have chosen the aggregate (S 2 , S 3 ) as the most similar, we can place our in a restricted space with an origin B "allowing a quasi-orthogonality of S 2 and S 3 .
  • the invention can indeed be embodied in a manipulative or autonomous signaling device comprising in particular the following organs:
  • This mi croca Iculateur has two successive layers of elements:
  • the invention also applies to many other fields where the information is codable by a vector, in particular spectroscopy: mass spectra of pollutants, nuclear magnetic resonance spectra, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Optimization (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Procédé permettant de reconnaître des objets codés par des vecteurs. L'invention concerne un procédé mis en oeuvre dans des réseaux neuronaux et permettant de différencier des objets de référence très similaires afin de pouvoir leur identifier très précisément des objets inconnus. Ce procédé consiste à changer l'origine de l'espace dans lequel sont représentés les vecteurs codant lesdits objets, afin de rendre les vecteurs plus orthogonaux entre eux et donc plus différenciables. Ce changement d'origine effectué, la méthode connue de la matrice pseudo-inverse est mise en oeuvre. Un perfectionnement de l'invention consiste en un prétraitement des vecteurs, les vecteurs de référence étant alors regroupés en agrégats. Le vecteur inconnu est tout d'abord comparé à chaque vecteur moyen représentatif d'un agrégat puis, lorsque l'agrégat le plus ressemblant a été sélectionné, le vecteur inconnu est comparé à chaque vecteur de référence composant ledit agrégat. L'invention s'applique à la spectrométrie et particulièrement, aux spectres de rayons gamma émis par des déchets nucléaires.Method for recognizing objects encoded by vectors. The invention relates to a method implemented in neural networks and making it possible to differentiate very similar reference objects in order to be able to identify them very precisely from unknown objects. This method consists in changing the origin of the space in which the vectors encoding said objects are represented, in order to make the vectors more orthogonal to each other and therefore more differentiable. Once this change of origin has been carried out, the known method of the pseudo-inverse matrix is implemented. An improvement of the invention consists of a preprocessing of the vectors, the reference vectors then being grouped together in aggregates. The unknown vector is first of all compared with each mean vector representative of an aggregate then, when the most similar aggregate has been selected, the unknown vector is compared with each reference vector making up said aggregate. The invention applies to spectrometry and particularly to gamma ray spectra emitted by nuclear waste.

Description

PROCEDE DE RECONNAISSANCE D'OBJETS CODES PAR DES VECTEURS METHOD FOR RECOGNIZING OBJECTS ENCODED BY VECTORS
DESCRIPTION DESCRIPTION
La présente invention concerne un procédé permettant de reconnaître des objets codés par des vecteurs. Elle trouve de nombreuses applications dans le domaine de la spect roscopie. De façon plus particulière, elle peut s'appliquer à la Résonance The present invention relates to a method for recognizing objects encoded by vectors. It finds many applications in the field of spect roscopy. More specifically, it can be applied to the Resonance
Magnétique Nucléaire (RMN), aux spectres de masse pour l'identification de polluants chimiques et aux spectres de rayons gamma pour la reconnaissance de déchets nucléaires. Nuclear Magnetic (NMR), mass spectra for the identification of chemical pollutants and gamma ray spectra for the recognition of nuclear waste.
On comprendra par "reconnaissance" d'objet, l'identification d'un objet inconnu à un objet de référence choisi parmi plusieurs références.  We understand by "object recognition", the identification of an unknown object with a reference object chosen from several references.
Le procédé selon la présente invention s'applique dans des réseaux neuronaux.  The method according to the present invention is applicable in neural networks.
Un réseau neuronal est un réseau dans lequel les informations sont traitées en parallèle. Ce réseau cherche à imiter le cerveau humain, dans lequel chaque neurone fonctionne de façon plus ou moins autonome. Un neurone informatique traite et mémorise des données indépendamment des autres neurones. L'organisation de tels neurones en réseau fournit un comportement global particulier, occasionné par un apprentissage, c'est-à-dire que chaque neurone choisit de laisser, ou de ne pas laisser, passer l'information selon les informations qui ont déjà transité par le réseau. Cet apprentissage est caractérisé, dans un réseau neuronal informatique, par des poids synaptiques. De façon plus mathématique, chaque neurone voit à son entrée une somme d'informations pondérées par des poids synaptiques w. A neural network is a network in which information is processed in parallel. This network seeks to imitate the human brain, in which each neuron functions more or less autonomously. A computer neuron processes and stores data independently of other neurons. The organization of such neurons in a network provides a particular global behavior, occasioned by learning, that is to say that each neuron chooses to let, or not to let, pass information according to the information which has already passed through. through the network. This learning is characterized, in a computer neural network, by synaptic weights. More mathematically, each neuron sees at its input a sum of information weighted by synaptic weights w.
En résumé, un réseau neuronal permet de traiter de nombreuses informations en parallèle pour la recherche d'un résultat.  In summary, a neural network makes it possible to process a lot of information in parallel in order to find a result.
De tels réseaux neuronaux sont décrits plus précisément dans le document "Réseaux de neurones artificiels" paru aux Presses Polytechniques et Universitaires Romandes, ouvrage dans lequel a été dressé un état de l'art, en 1989, dans le domaine des réseaux neuronaux.  Such neural networks are described more precisely in the document "Networks of artificial neurons" published by the Presses Polytechniques et Universitaires Romandes, a work in which a state of the art was drawn up, in 1989, in the field of neural networks.
Il est connu. dans les procédés de reconnaissance d'objets, d'utiliser une méthode appelée méthode de la matrice pseudo-inverse appliquée dans un réseau neuronal.  He is known. in object recognition methods, to use a method called the pseudo-inverse matrix method applied in a neural network.
Un tel procédé est décrit dans l'article intitulé "Collective computationa l properties of neural network : New learning mechanisms" de Messieurs PERSONNAZ, GUYON et DREYFUS, article publié dans la revue "Physical Review A" de Novembre 1986.  Such a process is described in the article entitled "Collective computationa l properties of neural network: New learning mechanisms" by Messrs. PERSONNAZ, GUYON and DREYFUS, article published in the journal "Physical Review A" of November 1986.
Cette méthode de matrice pseudo-inverse consiste notamment à déterminer une matrice de GRAM-SCHMIDT [G] à partir de modèles S, c'est-à-dire d'ensembles de vecteurs Sμ codant des objets à reconnaître. Cette matrice de GRAM-SCHMIDT est définie par la relation : This pseudo-inverse matrix method consists notably in determining a GRAM-SCHMIDT [G] matrix from models S, that is to say sets of vectors S μ coding objects to be recognized. This GRAM-SCHMIDT matrix is defined by the relation:
μ et v étant des numéros des vecteurs servant de modèles pour la reconnaissance, i indiquant le numéro de la coordonnée considérée desdits vecteurs, N étant la dimension de l'espace de représentation considéré et P le nombre de vecteurs codant les différents modèles d'objets à reconnaître. μ and v being numbers of the vectors serving as models for recognition, i indicating the number of the coordinate considered of said vectors, N being the dimension of the representation space considered and P the number of vectors coding the different models of objects to be recognized.
Ces modèles sont normalisés de sorte que les éléments diagonaux Gμμ de la matrice [G], dans laquelle μ varie de 1 à P, sont égaux à 1. On constate alors que les autres coefficients de la matrice [G] sont tous proches de 1, les modèles étant fortement corrélés. These models are normalized so that the diagonal elements G μμ of the matrix [G], in which μ varies from 1 to P, are equal to 1. We then observe that the other coefficients of the matrix [G] are all close to 1, the models being strongly correlated.
Lorsque la matrice G est inversible, les poids synaptiques w du réseau neuronal peuvent alors être déterminés par la relation : When the matrix G is invertible, the synaptic weights w of the neural network can then be determined by the relation:
Cependant, dans certains cas, la matrice [G] n'est pas inversible, notamment lorsque les coefficients de ladite matrice sont trop peu différents les uns des autres.  However, in certain cases, the matrix [G] is not invertible, in particular when the coefficients of said matrix are too little different from each other.
Le procédé précédemment décrit présente un certain nombre d'inconvénients et, en particulier, celui de ne pas permettre la reconnaissance d'objets dont les vecteurs représentatifs pris comme références sont trop semblables. Il y a, par exemple, de nombreux cas de spectres non reconnai ssables car trop voisins.  The method described above has a certain number of drawbacks and, in particular, that of not allowing the recognition of objects whose representative vectors taken as references are too similar. There are, for example, many cases of unrecognizable spectra because they are too close.
Dans le cas particulier de la reconnaissance de déchets nucléaires, les spectres des rayons gamma émis par ces déchets sont généralement très similaires les uns des autres. Et le procédé, tel qu'exposé précédemment, ne permet pas la reconnaissance de ces spectres de rayons gamma. La présente invention a justement pour objet cette reconnaissance de spectres très voisins. Elle met en oeuvre un traitement des vecteurs codant les objets à reconnaître avant d'appliquer le procédé connu de la matrice pseudo-inverse. Ce traitement consiste à changer l'origine de l'espace de représentation dans lequel sont définis lesdits vecteurs. In the particular case of recognition of nuclear waste, the spectra of the gamma rays emitted by this waste are generally very similar to each other. And the method, as explained previously, does not allow the recognition of these gamma ray spectra. The object of the present invention is precisely this recognition of very close spectra. It implements a processing of the vectors coding the objects to be recognized before applying the known method of the pseudo-inverse matrix. This processing consists in changing the origin of the representation space in which said vectors are defined.
De façon plus précise, l'invention a pour objet un procédé de reconnaissance d'objets codés par des vecteurs dans lequel on utilise un réseau neuronal apte à comparer un vecteur inconnu à des vecteurs de référence définis dans un espace de représentation d'origine B, caractérisés chacun par un label et mémorisés par ledit réseau neuronal, ces vecteurs définissant :  More specifically, the invention relates to a method of recognizing objects coded by vectors in which a neural network is used capable of comparing an unknown vector to reference vectors defined in an original representation space B , each characterized by a label and stored by said neural network, these vectors defining:
- une matrice de GRAM-SCHMIDT [G], telle que : - a GRAM-SCHMIDT matrix [G], such as:
S étant une matrice représentatrice desdits vecteurs, i indiquant la coordonnée considérée desdits vecteurs, μ (ou ʋ ) indiquant le vecteur considéré ; S being a matrix representing said vectors, i indicating the considered coordinate of said vectors, μ (or ʋ) indicating the vector considered;
- des poids synaptiques w du réseau neuronal déterminés par un procédé de matrice pseudo-inverse tel que : - synaptic weights w of the neural network determined by a pseudo-inverse matrix method such as:
[G-1] étant la matrice inverse de la matrice de GRAM-SCHMIDT, lesdits poids synaptiques permettant de comparer les vecteurs à reconnaître avec les vecteurs de référence, procédé caractérisé en ce qu'il consiste en un prétraitement desdits vecteurs, ce prétraitement comprenant les étapes suivantes : [G -1 ] being the inverse matrix of the GRAM-SCHMIDT matrix, said synaptic weights making it possible to compare the vectors to be recognized with the reference vectors, process characterized in that it consists of a pretreatment of said vectors, this pretreatment comprising the following steps:
- détermination, pour les origines de l'espace de représentation, des indices de sensibilité définis par la trace de la matrice [G-1] à savoir σ = Tr [G-1] ; - determination, for the origins of the representation space, of the sensitivity indices defined by the trace of the matrix [G -1 ], namely σ = Tr [G -1 ];
- choix d'une nouvelle origine B' de l'espace de représentation assurant un indice de sensibilité minimum ;  - choice of a new origin B 'of the representation space ensuring a minimum sensitivity index;
- calcul de la nouvelle matrice rectangulaire S' en appliquant la relation : S ' = S - B'i, - calculation of the new rectangular matrix S 'by applying the relation: S' = S - B ' i ,
- application du procédé de la matrice pseudo-inverse à la nouvelle matrice S' en calculant la nouvelle matrice [G'] de GRAM-SCHMIDT et les nouveaux poids synaptiques w' . - application of the pseudo-inverse matrix method to the new matrix S 'by calculating the new matrix [G'] of GRAM-SCHMIDT and the new synaptic weights w '.
Avantageusement, le prétraitement des vecteurs comprend une première étape de reconnaissance hiérarchique. ladite première étape comportant les sous-étapes suivantes :  Advantageously, the pretreatment of the vectors comprises a first step of hierarchical recognition. said first step comprising the following sub-steps:
- liste, selon un ordre de valeurs croissantes, de toutes les distances entre vecteurs de référence de sorte que tous les labels soient pris en considération ;  - list, in an order of increasing values, of all the distances between reference vectors so that all the labels are taken into consideration;
- regroupement en agrégats des vecteurs de référence les plus voisins les uns des autres ;  - grouping into aggregates of the reference vectors closest to each other;
- comparaison du vecteur inconnu avec chacun des agrégats, chaque agrégat étant représenté par un vecteur moyen ; - sélection de l'agrégat dont le vecteur moyen est le plus proche du vecteur inconnu ; et - comparison of the unknown vector with each of the aggregates, each aggregate being represented by an average vector; - selection of the aggregate whose average vector is closest to the unknown vector; and
- comparaison du vecteur inconnu avec chaque vecteur contenu dans l'agrégat sélectionné comme étant le plus voisin.  - comparison of the unknown vector with each vector contained in the aggregate selected as being the closest.
Une application du procédé consiste en un dispositif de signalisation manipulable à distance afin de reconnaître des spectres, notamment de rayons gamma émis par des déchets nucléaires.  One application of the method consists of a signaling device which can be manipulated remotely in order to recognize spectra, in particular of gamma rays emitted by nuclear waste.
D'autres caractéristiques et avantages ressortiront de la description qui va suivre, donnée à titre illustratif et non limitatif en référence aux dessins dans lesquels :  Other characteristics and advantages will emerge from the description which follows, given by way of illustration and not limitation with reference to the drawings in which:
- les figures 1a, 1b, 1c, 1d et 1e sont les représentations de spectres de rayons gamma provenant de déchets nucléaires ;  - Figures 1a, 1b, 1c, 1d and 1e are the representations of gamma ray spectra from nuclear waste;
- la figure 2 est une représentation schématique d'un espace de représentation correspondant aux figures 1a à 1e.  - Figure 2 is a schematic representation of a representation space corresponding to Figures 1a to 1e.
Tout au long de la description, on comprendra par "vecteur" un ensemble de canaux décrivant un spectre. Mathématiquement, ces vecteurs sont codés par une suite de nombres représentant les coordonnées dudit vecteur dans un espace à N dimensions et regroupés dans une matrice rectangulaire S.  Throughout the description, “vector” will be understood to mean a set of channels describing a spectrum. Mathematically, these vectors are coded by a series of numbers representing the coordinates of said vector in an N-dimensional space and grouped in a rectangular matrix S.
Afin de mieux illustrer la description, un exemple concret, mais limité à un petit nombre de vecteurs, sera décrit. Cet exemple utilise cinq spectres comportant chacun soixante dix canaux, comme montré sur les figures 1a à 1e, ce qui signifie que la matrice des modèles S est de dimension 70 × 5, soit cinq colonnes et soixante dix lignes. Ainsi, tout couple de vecteurs ( Sμ , Sʋ ) définit des coefficients d'une matrice de GRAM-SCHMIDTIn order to better illustrate the description, a concrete example, but limited to a small number of vectors, will be described. This example uses five spectra each comprising seventy channels, as shown in FIGS. 1a to 1e, which means that the matrix of the models S is of dimension 70 × 5, that is to say five columns and seventy rows. Thus, any pair of vectors (S μ , S ʋ ) defines coefficients of a GRAM-SCHMIDT matrix
[G], telle que : [G], such as:
μ et ʋ variant de 1 à 5, pour notre exemple de réa li sation.  μ and ʋ varying from 1 to 5, for our example of realization.
On peut voir sur les figures 1a et le que les spectres 1 et 5 sont très similaires. Il en est de même des spectres 2 et 3 des figures 1b et 1c. Le spectre 4 de la figure 1d est, quant à lui, assez dissemblable des spectres 1, 2, 3 et 5 pour être reconnu aisément.  It can be seen in Figures 1a and le that spectra 1 and 5 are very similar. It is the same for spectra 2 and 3 of Figures 1b and 1c. Spectrum 4 in Figure 1d is quite dissimilar from spectra 1, 2, 3 and 5 to be easily recognized.
Selon ces spectres, les valeurs des coefficients Sμʋ de la matrice de GRAM-SCHMIDT [G], des coefficients dμʋ de la matrice [d] représentant les distances entre les vecteurs Sμ et Sʋ et s'écrivant : dμʋ = (2 - 2Gμʋ ) ½, et des coefficients αμʋ de la matrice [α] représentant les différences angulaires entre les vecteurs Sμ et Sʋ et s'écrivant : αμʋ Cos-1 [Gμʋ], sont les suivantes : According to these spectra, the values of the coefficients S μʋ of the GRAM-SCHMIDT matrix [G], of the coefficients d μʋ of the matrix [d] representing the distances between the vectors S μ and S ʋ and written: d μʋ = (2 - 2G μʋ ) ½ , and coefficients α μʋ of the matrix [α] representing the angular differences between the vectors S μ and S ʋ and written: α μʋ Cos -1 [G μʋ ], are the following:
Les matrices d et α sont deux façons différentes d'exprimer la même notion de différence entre deux vecteurs Sμ et Sʋ . The matrices d and α are two different ways of expressing the same notion of difference between two vectors S μ and S ʋ .
Dans un cas i déa l d ' o rthogonali té des vecteurs Sμ et Sʋ , la matrice [G] est une matrice unité, la matrice a tous ses coefficients dμʋ non diagonaux égaux à et la matrice [α] ne possède, hors de sa diagonale, que des coeffi cient s αμʋ de 90°. In a case i déa ld o rthogonali ty of the vectors S μ and S ʋ , the matrix [G] is a unit matrix, the matrix has all its non-diagonal coefficients d μʋ equal to and the matrix [α] has, outside its diagonal, only coeffi cient s α μʋ of 90 °.
La matrice [α] confirme ce que montrent les figures 1a et 1e, à savoir que les spectres 1 et 5 sont très ressemblants l'un à l'autre : en effet. l'angle α15 entre les vecteurs S1 et S2 n'est que de 3°. De même, l'angle α23 entre les vecteurs S2 et S3 n'est que de 7°, ce qui est très loin de l'angle droit idéal. Les autres angles sont d'un ordre de grandeur plus élevé, à savoir 25° environ. The matrix [α] confirms what FIGS. 1a and 1e show, namely that the spectra 1 and 5 are very similar to each other: indeed. the angle α 15 between the vectors S 1 and S 2 is only 3 °. Similarly, the angle α 23 between the vectors S 2 and S 3 is only 7 °, which is very far from the ideal right angle. The other angles are of an order of magnitude higher, namely about 25 °.
Ces spectres (1, 5) et (2, 3) font donc typiquement partie des spectres difficiles, voire impossibles, à différencier par la méthode connue.  These spectra (1, 5) and (2, 3) are therefore typically part of the spectra which are difficult, even impossible, to differentiate by the known method.
Pour chaque matrice [G] déterminée, un indice de sensibilité σ peut être calculé par la somme des valeurs propres de [G-1], communément appelée trace (abréviation Tr) par la relation : σ = Tr [G-1] . For each matrix [G] determined, a sensitivity index σ can be calculated by the sum of the eigenvalues of [G -1 ], commonly called trace (abbreviation Tr) by the relation: σ = Tr [G -1 ].
Cet indice de sensibilité a est défini pour une origine B de l'espace de représentation. Dans le procédé selon l'invention, on cherche à trouver une nouvelle origine B' de l'espace de représentation afin de rendre les vecteurs Sμ et Sʋ plus orthogonaux. Cette nouvelle origine B' est trouvée lorsque l'indice de sensibilité σ est minimum. This sensitivity index a is defined for an origin B of the representation space. In the method according to the invention, it is sought to find a new origin B ′ of the representation space in order to make the vectors S μ and S ʋ more orthogonal. This new origin B 'is found when the sensitivity index σ is minimum.
Dans un mode de réalisation préféré de l'inventeur, les différents indices de sensibilité σ sont choisis en utilisant une méthode d'échantillonnage systématique parmi toutes les origines possibles, toute autre méthode de choix de B' pouvant être utilisée.  In a preferred embodiment of the inventor, the different sensitivity indices σ are chosen using a systematic sampling method from among all the possible origins, any other method of choosing B 'being able to be used.
Dans l'exemple selon le procédé objet de l'invention, la valeur de l'indice σ m in im u m est σmin = 38,3. Idéalement, si le changement d'origine permet de rendre tous les vecteurs orthogonaux, l'indice de sensibilité minimum serait égal à P, c'est-à-dire au nombre de vecteurs pris en considération dans la réalisation. Dans l'exemple décrit, on aurait σmin = 5. In the example according to the process which is the subject of the invention, the value of the index σ m in im um is σ min = 38.3. Ideally, if the change of origin makes all the vectors orthogonal, the minimum sensitivity index would be equal to P, that is to say the number of vectors taken into consideration in the realization. In the example described, we would have σ min = 5.
Cet indice de sensibilité choisi, les nouvelles matrices [G'], [d'] e t [ α'] sont déterminables à partir des relations suivantes :  This chosen sensitivity index, the new matrices [G '], [d'] e t [α '] can be determined from the following relationships:
S' = S - B'i S ' = S - B' i
d 'μʋ = (2 - 2G 'μʋ)½, et d ' μʋ = (2 - 2G' μʋ ) ½ , and
α'μʋ = Cos -1 (G'μʋ) α ' μʋ = Cos -1 (G' μʋ )
Les nouvelles matrices obtenues sont les ui vantes : The new matrices obtained are the following:
Les coefficients, hors diagonale, de ces nouvelles matrices sont plus proches respectivement de 0, de et de 90°. The coefficients, except diagonal, of these new matrices are closer respectively to 0, of and 90 °.
La nouvelle matrice [G'] ainsi obtenue est inversible. Il est alors possible de calculer les nouveaux poids synaptiques w' par la relation : The new matrix [G '] thus obtained is invertible. It is then possible to calculate the new synaptic weights w 'by the relation:
La figure 2 est une représentation de l'espace de représentation des cinq vecteurs de l'exemple considéré. Lesdits vecteurs sont représentés par les points S1, S2, S3, S4 et S5. Le point B' est la nouvelle origine choisie de façon à ce que l'indice de sensibilité soit minimum, à savoir σ'min = 38,3 pour l'exemple considéré. FIG. 2 is a representation of the representation space of the five vectors of the example considered. Said vectors are represented by points S1, S2, S3, S4 and S5. The point B 'is the new origin chosen so that the sensitivity index is minimum, namely σ' min = 38.3 for the example considered.
Suivant un perfectionnement tout à fait intéressant, l'invention permet de mettre en oeuvre un prétraitement hiérarchique de reconnaissance des vecteurs. Il s'agit tout d'abord de lister dans un ordre croissant de valeurs toutes les distances dμʋ entre deux vecteurs Sμ et Sʋ , formant uneAccording to an entirely advantageous improvement, the invention makes it possible to implement a hierarchical preprocessing for vector recognition. It is first of all a question of listing in an increasing order of values all the distances d μʋ between two vectors S μ and S ʋ , forming a
"paire ordonnée", μ étant inférieur à ʋ . On obtient ainsi distances ordonnées. Cependant, seules les premières plus petites distances, faisant apparaître tous les labels μ ou ʋ de valeurs 1 à P, sont prises en considération pour la suite dudit traitement. Des agrégats de D vecteurs sont ainsi déterminés, D étant le nombre choisi de vecteurs compris dans un agrégat. "ordered pair", μ being less than ʋ. We thus obtain ordered distances. However, only the first smallest distances, showing all the labels μ or ʋ with values 1 to P are taken into account for the continuation of said processing. Aggregates of D vectors are thus determined, D being the chosen number of vectors included in an aggregate.
Il est possible de représenter sous forme de matrice de connexion [c] l'ensemble des agrégats déterminés : ses coefficients Cμʋ où le couple de labels ( μ , ʋ ) a été pris en considération et ses coefficients Cʋμ symétriques de Cμʋ valant 1 ; les autres coefficients valent 0. It is possible to represent in the form of a connection matrix [c] the set of determined aggregates: its coefficients C μʋ where the pair of labels (μ, ʋ) has been taken into account and its coefficients C ʋμ symmetrical of C μʋ being equal 1; the other coefficients are 0.
La comparaison d'un vecteur inconnu se fait alors en plusieurs étapes. Le vecteur inconnu à déterminer est tout d'abord comparé à un vecteur représentant l'agrégat, ledit vecteur étant déterminé comme une moyenne de tous les vecteurs contenus dans un agrégat. Le vecteur inconnu est alors comparé à chaque vecteur contenu dans l'agrégat sélectionné comme étant le plus ressemblant.  The comparison of an unknown vector is then done in several stages. The unknown vector to be determined is first compared to a vector representing the aggregate, said vector being determined as an average of all the vectors contained in an aggregate. The unknown vector is then compared to each vector contained in the selected aggregate as being the most similar.
Dans l'exemple considéré, d'après les valeurs données par la matrice [d], la liste des distances entre les vecteurs est la suivante : d15 < d23 < d14 < d45 < d12 < d34 < d25 < d24 < d13 < d35 In the example considered, according to the values given by the matrix [d], the list of the distances between the vectors is as follows: d 15 <d 23 <d 14 <d 45 <d 12 <d 34 <d 25 <d 24 <d 13 <d 35
Les distances d15, d23 et d14 font apparaître tous les labels, à savoir 1, 2, 3, 4 et 5. Seules, ces trois distances sont prises en compte pour la suite du traitement. On prend ainsi le nombre 3 comme nombre D de paires définissant les agrégats. Ces agrégats sont (145) et (23) pour D = 3. The distances d 15 , d 23 and d 14 show all the labels, namely 1, 2, 3, 4 and 5. Only these three distances are taken into account for further processing. We thus take the number 3 as the number D of pairs defining the aggregates. These aggregates are (145) and (23) for D = 3.
La matrice de connexion [c] est la suivante : The connection matrix [c] is as follows:
Le nombre de paires ordonnées retenues peut aussi bien prendre des valeurs inférieures D', telles que D' = D/2 ou toute autre fraction significative de D. The number of ordered pairs retained may as well take lower values D ', such as D' = D / 2 or any other significant fraction of D.
Par exemple, on peut choisir D' = 2. Dans ce cas, le nombre de vecteurs par agrégat est au maximum deux, et les agrégats sont (15), (23) et (4). La matrice de connexion [C'] correspondante est alors la suivante :  For example, we can choose D '= 2. In this case, the number of vectors per aggregate is at most two, and the aggregates are (15), (23) and (4). The corresponding connection matrix [C '] is then as follows:
Lorsque le prétraitement décrit ci-dessus est terminé, la suite de la reconnaissance du vecteur inconnu se poursuit, telle que décrite précédemment. When the pretreatment described above is finished, the continuation of the recognition of the unknown vector continues, as described previously.
La figure 2 permet de comprendre que la nouvelle origine B', choisie sans effectuer le prétraitement hiérarchique de reconnaissance, n'assure pas la quasi-orthogona lité des vecteurs. En effet, en considérant plus particulièrement l'agrégat (S2, S3), on voit que l'origine B' choisie, telle que montré sur la figure 2, ne permet pas l 'orthogona li té entre les vecteurs S2 et S3. Au contraire, si l'on a choisi l'agrégat (S2, S3) comme le plus ressemblant, on peut se placer dans un espace restreint avec une origine B" permettant une quasi-orthogonalité de S2 et S3. FIG. 2 makes it possible to understand that the new origin B ', chosen without carrying out the hierarchical recognition preprocessing, does not ensure the quasi-orthogonality of the vectors. Indeed, by considering more particularly the aggregate (S 2 , S 3 ), it is seen that the origin B 'chosen, as shown in FIG. 2, does not allow the orthogona li ted between the vectors S 2 and S 3 . On the contrary, if we have chosen the aggregate (S 2 , S 3 ) as the most similar, we can place ourselves in a restricted space with an origin B "allowing a quasi-orthogonality of S 2 and S 3 .
La d e s c r ip t ion ci-dessus s'appuie sur un exemple précis de spectres de rayons gamma émis par des déchets nucléaires, mais l'invention peut s'appliquer à de nombreux autres domaines de la spect roscopie.  The above description is based on a specific example of gamma ray spectra emitted by nuclear waste, but the invention can be applied to many other fields of spectroscopy.
L'invention peut en effet se concrétiser dans un dispositif de signalisation manipulable ou autonome comportant notamment les organes suivants : The invention can indeed be embodied in a manipulative or autonomous signaling device comprising in particular the following organs:
- un détecteur multicanaux de spectre de rayons γ émis par des déchets nucléaires ; et - a multi-channel γ-ray spectrum detector emitted by nuclear waste; and
- un microcaIculateur recevant les informations captées par le détecteur. Ce mi croca Iculateur comporte deux couches successives d'éléments :  - a microcomputer receiving the information received by the detector. This mi croca Iculateur has two successive layers of elements:
a) la couche mémoire des poids synaptiques, enregistrant les modèles de reconnaissance, selon la règle exposée par l'invention ; et  a) the memory layer of the synaptic weights, recording the recognition models, according to the rule exposed by the invention; and
b) la couche de neurones identificateurs aptes à évaluer la ressemblance entre le signal et l'un des modèles.  b) the layer of identifying neurons capable of assessing the resemblance between the signal and one of the models.
L'invention s'applique également à de nombreux autres domaines où l'information est codable par un vecteur, notamment la spectroscopîe : spectres de masse de polluants, spectres de résonance magnétique nucléai re, etc.  The invention also applies to many other fields where the information is codable by a vector, in particular spectroscopy: mass spectra of pollutants, nuclear magnetic resonance spectra, etc.

Claims

REVENDICATIONS
1. Procédé de reconnaissance d'objets codés par des vecteurs, permettant l'analyse de spectres, dans lequel on utilise un réseau neuronal apte à comparer un vecteur inconnu, déterminé par des moyens de détection multicanaux, à des vecteurs de référence définis dans un espace de représentation d'origine B, caractérisés chacun par un label et mémorisés par ledit réseau neuronal, ces vecteurs définissant : - une matrice de GRAM-SCHMIDT [G], telle que : 1. Method for recognizing objects coded by vectors, allowing the analysis of spectra, in which a neural network is used capable of comparing an unknown vector, determined by multichannel detection means, with reference vectors defined in a original representation space B, each characterized by a label and stored by said neural network, these vectors defining: - a GRAM-SCHMIDT matrix [G], such as:
S étant une matrice représentatrice desdits vecteurs, i une coordonnée considérée desdits vecteurs, μindiquant le vecteur considéré, μindiquant un autre vecteur considéré ; S being a matrix representing said vectors, i a considered coordinate of said vectors, μ indicating the vector considered, μ indicating another vector considered;
- des poids synaptiques w du réseau neuronal déterminés par un procédé de matrice pseudo-inverse, tel que : - synaptic weights w of the neural network determined by a pseudo-inverse matrix method, such as:
[G-1] étant la matrice inverse de la matrice de GRAM-SCHMIDT, lesdits poids synaptiques permettant de comparer les vecteurs à reconnaître avec les vecteurs de référence, [G -1 ] being the inverse matrix of the GRAM-SCHMIDT matrix, said synaptic weights making it possible to compare the vectors to be recognized with the reference vectors,
procédé caractérisé en ce qu'il consiste en un prétraitement desdits vecteurs effectué par des moyens de calculs reliés aux moyens de détection, ce prétraitement comprenant les étapes suivantes : process characterized in that it consists of a pretreatment of said vectors carried out by calculation means connected to the detection means, this pretreatment comprising the following steps:
- détermination pour des origines de l'espace de représentation, des indices de sensibilité définis par la trace [G-1], à savoir σ= Tr [G-1] ; - choix d'une nouvelle origine B' de l'espace de représentation assurant un indice de sensibilité minimum σmin ; - determination for origins of the representation space, of the sensitivity indices defined by the trace [G -1 ], namely σ = Tr [G -1 ]; - choice of a new origin B 'of the representation space ensuring a minimum sensitivity index σ min ;
- calcul de la nouvelle matrice rectangulaire S' en appliquant la relation :  - calculation of the new rectangular matrix S 'by applying the relation:
S' = S - B'i ; S ' = S - B'i;
- application du procédé de la matrice pseudo-inverse à la nouvelle matrice S' en calculant la nouvelle matrice [G'] de GRAM-SCHMIDT et les nouveaux poids synaptiques w' ; - application of the pseudo-inverse matrix method to the new matrix S 'by calculating the new matrix [G'] of GRAM-SCHMIDT and the new synaptic weights w ';
- obtention, en fonction des poids synaptiques w' déterminés, du vecteur de référence le plus ressemblant au vecteur inconnu.  - Obtaining, as a function of the determined synaptic weights w ', the reference vector most resembling the unknown vector.
2. Procédé selon la revendication 1, caractérisé en ce que le prétraitement des vecteurs comprend une première étape de reconnaissance hiérarchique, ladite première étape comportant les sous-étapes suivantes :  2. Method according to claim 1, characterized in that the preprocessing of the vectors comprises a first step of hierarchical recognition, said first step comprising the following substeps:
- liste, selon un ordre de valeurs croissantes, de toutes les distances entre vecteurs de référence de sorte que tous les labels soient pris en considération ;  - list, in an order of increasing values, of all the distances between reference vectors so that all the labels are taken into consideration;
- regroupement en agrégats des vecteurs de référence les plus voisins les uns des autres ;  - grouping into aggregates of the reference vectors closest to each other;
- comparaison du vecteur inconnu avec chacun des agrégats, chaque agrégat étant représenté par un vecteur moyen ; - comparison of the unknown vector with each of the aggregates, each aggregate being represented by an average vector;
- sélection de l'agrégat dont le vecteur moyen est le plus proche du vecteur inconnu ; et  - selection of the aggregate whose average vector is closest to the unknown vector; and
- comparaison du vecteur inconnu avec chaque vecteur contenu dans l'agrégat sélectionné comme étant le plus voisin. - comparison of the unknown vector with each vector contained in the aggregate selected as being the closest.
3. Application du procédé selon l'une des revendications 1 ou 2, à un dispositif de signalisation manipulable à distance afin de reconnaître des spectres de rayons gamma émis par des déchets nucléaires. 3. Application of the method according to one of claims 1 or 2, to a signaling device which can be manipulated remotely in order to recognize spectra of gamma rays emitted by nuclear waste.
EP92904649A 1991-01-25 1992-01-23 Vector-coded object recognition method Ceased EP0568616A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9100867 1991-01-25
FR9100867A FR2672141B1 (en) 1991-01-25 1991-01-25 METHOD FOR RECOGNIZING OBJECTS CODED BY VECTORS.

Publications (1)

Publication Number Publication Date
EP0568616A1 true EP0568616A1 (en) 1993-11-10

Family

ID=9409064

Family Applications (1)

Application Number Title Priority Date Filing Date
EP92904649A Ceased EP0568616A1 (en) 1991-01-25 1992-01-23 Vector-coded object recognition method

Country Status (3)

Country Link
EP (1) EP0568616A1 (en)
FR (1) FR2672141B1 (en)
WO (1) WO1992013315A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675253A (en) * 1991-11-20 1997-10-07 Auburn International, Inc. Partial least square regression techniques in obtaining measurements of one or more polymer properties with an on-line nmr system
US5517667A (en) * 1993-06-14 1996-05-14 Motorola, Inc. Neural network that does not require repetitive training
US5602755A (en) * 1995-06-23 1997-02-11 Exxon Research And Engineering Company Method for predicting chemical or physical properties of complex mixtures
US5600134A (en) * 1995-06-23 1997-02-04 Exxon Research And Engineering Company Method for preparing blend products
DE19713194C2 (en) 1997-03-27 1999-04-01 Hkr Sensorsysteme Gmbh Method and arrangement for recognizing properties of a sample on the basis of mass spectroscopy
GB2577909B (en) * 2018-10-10 2020-11-18 Symetrica Ltd Gamma-ray spectrum classification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO9213315A1 *

Also Published As

Publication number Publication date
WO1992013315A1 (en) 1992-08-06
FR2672141A1 (en) 1992-07-31
FR2672141B1 (en) 1993-04-09

Similar Documents

Publication Publication Date Title
EP0521548B1 (en) Neural network device and method for data classification
FR3057090A1 (en) METHODS FOR SECURELY LEARNING PARAMETERS FROM A CONVOLVED NEURON NETWORK AND SECURED CLASSIFICATION OF INPUT DATA
EP3620970B1 (en) Method for extracting characteristics of a fingerprint represented by an input image
FR3087558A1 (en) METHOD FOR EXTRACTING CHARACTERISTICS OF A FINGERPRINT REPRESENTED BY AN INPUT IMAGE
FR3088467A1 (en) METHOD FOR CLASSIFYING A REPRESENTATIVE INPUT IMAGE OF A BIOMETRIC TRAIT USING A CONVOLUTIONAL NEURON NETWORK
EP0875032B1 (en) Learning method generating small size neurons for data classification
EP0552575B1 (en) Procedure of polytomic segmentation
EP0454535B1 (en) Neural classification system and method
EP0568616A1 (en) Vector-coded object recognition method
EP0681270A1 (en) Object trajectory determination process and device for carrying out this process
EP1007961B1 (en) Classifying apparatus designed in particular for odour recognition
FR2767943A1 (en) CLASSIFICATION APPARATUS USING A COMBINATION OF STATISTICAL METHODS AND NEURAL NETWORKS, IN PARTICULAR FOR THE RECOGNITION OF ODORS
EP1639579A1 (en) Method and system for analysis of vocal signals for a compressed representation of speakers
EP2825995B1 (en) System for identification of a digital camera starting from a picture and method implemented with said system
FR3123748A1 (en) ANNOTATION-FREE MACHINE LEARNING ENHANCED BY ADAPTIVE GROUPING IN OPEN SET OF CLASSES
WO2004038346A1 (en) Method and test device comprising a vibratory signal sensor
EP3920101A1 (en) Method for reducing the size of an artificial neural network
EP4166931B1 (en) Method for multi-species mapping of an area from spectral data
EP3340065A1 (en) Method for determining the state of a system, method for determining an optimal projection method and device implementing said methods
FR2660459A1 (en) Method for segmenting images by analysis of textures
EP4187445A1 (en) Method for learning synaptic weight values of a neural network, data processing method, associated computer program, calculator and processing system
EP4202772A1 (en) Method for developing a classification device, method and system thereof
EP1554687A2 (en) Fuzzy associative system for multimedia object description
FR2491235A1 (en) MEASUREMENT OF DISCORDANCE BETWEEN SIGNALS
FR3083354A1 (en) MODELING METHOD FOR MONITORING RESULTS PROVIDED BY A ARTIFICIAL NEURON NETWORK AND OTHER RELATED METHODS

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 19930527

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): DE GB

17Q First examination report despatched

Effective date: 19940104

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 19940709