FR2977056A1 - Procede d'etablissement d'un score final de similarite entre des images - Google Patents

Procede d'etablissement d'un score final de similarite entre des images Download PDF

Info

Publication number
FR2977056A1
FR2977056A1 FR1155518A FR1155518A FR2977056A1 FR 2977056 A1 FR2977056 A1 FR 2977056A1 FR 1155518 A FR1155518 A FR 1155518A FR 1155518 A FR1155518 A FR 1155518A FR 2977056 A1 FR2977056 A1 FR 2977056A1
Authority
FR
France
Prior art keywords
image
pixel
gradient
similarity
gradients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1155518A
Other languages
English (en)
Other versions
FR2977056B1 (fr
Inventor
Liming Chen
Di Huang
Mohsen Ardabilian
Yunhong Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Aeronautics and Astronautics
INST NAT SCIENCES APPLIQ
LYON 2 A ET L LUMIERE, University of
Centre National de la Recherche Scientifique CNRS
Universite Claude Bernard Lyon 1 UCBL
Ecole Centrale de Lyon
Institut National des Sciences Appliquees de Lyon
Original Assignee
Beijing University of Aeronautics and Astronautics
INST NAT SCIENCES APPLIQ
LYON 2 A ET L LUMIERE, University of
Centre National de la Recherche Scientifique CNRS
Universite Claude Bernard Lyon 1 UCBL
Ecole Centrale de Lyon
Institut National des Sciences Appliquees de Lyon
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Aeronautics and Astronautics, INST NAT SCIENCES APPLIQ, LYON 2 A ET L LUMIERE, University of, Centre National de la Recherche Scientifique CNRS, Universite Claude Bernard Lyon 1 UCBL, Ecole Centrale de Lyon, Institut National des Sciences Appliquees de Lyon filed Critical Beijing University of Aeronautics and Astronautics
Priority to FR1155518A priority Critical patent/FR2977056B1/fr
Priority to PCT/EP2012/061227 priority patent/WO2012175391A1/fr
Publication of FR2977056A1 publication Critical patent/FR2977056A1/fr
Application granted granted Critical
Publication of FR2977056B1 publication Critical patent/FR2977056B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

Ce procédé d'établissement d'un score final de similarité entre une image numérique acquise et une image numérique préenregistrée, comporte : a) la construction (42) à partir de l'image acquise de O cartes J de gradients calculés selon un jeu i respectif de directions, b) pour chaque carte de gradients J , le calcul (52) d'un score intermédiaire Si de similarité entre cette carte de gradients J et une carte de référence J correspondante, chaque score intermédiaire S de similarité étant un nombre réel représentant le degré de similitude entre les cartes comparées, la carte de référence J étant une carte de gradients calculés selon le même jeu i de directions que la carte de gradients J à partir de l'image préenregistrée, et c) l'établissement (54) d'un score final S de similarité entre l'image acquise et l'image préenregistrée en fonction des O scores intermédiaires S de similarité.

Description

PROCEDE D'ETABLISSEMENT D'UN SCORE FINAL DE SIMILARITE ENTRE DES IMAGES
[ooli L'invention concerne un procédé d'établissement d'un score final de similarité entre une image numérique d'un objet acquise par un capteur électronique et une image numérique préenregistrée dans une bibliothèque d'images. L'invention concerne également un support d'enregistrement pour la mise en oeuvre de ce procédé ainsi qu'un procédé et un dispositif de reconnaissance d'un objet. [2] Une image numérique est formée de pixels P(x,y) et comporte une matrice qui à chaque position (x,y) d'un pixel dans l'image associe au moins une valeur a(x,y) d'une grandeur physique acquise ou mesurée par le capteur électronique. [3] Un pixel est la plus petite surface homogène d'une image 2D ou 3D. Généralement, dans une image, les pixels sont alignés en lignes et en colonnes. Par la suite, la direction dans laquelle s'étendent les lignes est dite horizontale tandis que la direction dans laquelle s'étendent les colonnes est dite verticale. [4] Dans une image 2D, la position de chaque pixel est codée par deux coordonnées dans un repère à deux dimensions. [5] Dans une image 3D, la position de chaque pixel est codée par trois coordonnées dans un repère à trois dimensions. Ceci permet donc de coder en plus 20 la profondeur. [6] On appelle image de texture, plus connue sous le terme anglais de « texture image », une image où la valeur a(x,y) est une valeur codant une couleur ou la puissance d'un rayonnement dans une plage prédéterminée de rayonnement. Cette valeur a(x,y) peut être acquise par différents types de capteur. Par exemple, le 25 capteur peut être un capteur infrarouge. Il peut aussi s'agir d'une intensité lumineuse ou d'une couleur codée par un triplet d'informations. [7] Une image télémétrique de profondeur, plus connue sous le terme anglais de « range image », associe à chaque position d'un pixel une valeur a(x,y) qui représente la distance qui sépare le point de l'objet correspondant à ce pixel d'un 30 plan de référence tel que celui attaché à l'objectif du capteur électronique. [8] Dans la suite de cette description, lorsqu'il est nécessaire de distinguer une donnée relative à une image de texture de celle relative à une image télémétrique de profondeur, cette donnée comporte l'indice « T ». A l'inverse, une donnée relative à une image télémétrique de profondeur comporte l'indice « R ». Par exemple, la valeur 35 ar(x,y) correspond à la valeur a(x,y) dans l'image de texture et la valeur aR(x,y) correspond à la valeur a(x,y) dans l'image télémétrique de profondeur. Dans le cas où la donnée ne comporte ni l'indice « T » ni l'indice « R », cela signifie qu'elle concerne indifféremment une image de texture ou à une image télémétrique. [9] Des procédés connus d'établissement d'un score final de similarité 40 comportent : a) la construction à partir de l'image acquise de O cartes J; de gradients calculés selon un jeu i respectif de directions, où : - O est un nombre entier, de jeu i de directions, supérieur ou égale à deux, - i est un identifiant du jeu de directions dans lesquelles sont calculés les gradients, - un jeu i de directions associe à chaque pixel P(x,y) de l'image une direction O;(x,y), la direction O;(x,y) étant décalée angulairement par rapport à la direction O,(x,y) d'un angle 8;, cet angle 8; étant le même quel que soit le pixel considéré de l'image, - une carte de gradients calculés selon un jeu i de directions étant une matrice qui à chaque pixel P(x,y) de l'image acquise associe une valeur p;(x,y) représentative du gradient de la grandeur physique dans la direction O;(x,y) associée à ce pixel dans le jeu i [oolo] Une carte de gradients calculés selon une direction i est une matrice qui à chaque pixel P(x,y) de l'image acquise associe une valeur p;(x,y) représentative du gradient de la grandeur physique dans la direction i à partir de ce pixel. [0011] Un exemple d'un procédé connu est par exemple divulgué dans la demande de brevet US 2010/0135540. [0012] Les procédés d'établissement d'un score final de similarité entre deux images sont particulièrement utiles pour comparer deux images et pour reconnaître un objet dans une image. [0013] Dans les procédés connus, une matrice de gradients entre une image 1 et des images de références est construite selon la direction horizontale et verticale. Ensuite un score final de similarité est directement calculé à partir de cette matrice de différences. [0014] Ces procédés connus fonctionnent correctement. Toutefois, i1 est nécessaire d'améliorer la justesse et la précision de ces procédés d'établissement du score final, par exemple, pour atteindre des taux de reconnaissance d'un objet dans une image encore plus élevé. [0015] L'invention vise donc à proposer un procédé amélioré d'établissement d'un score final de similarité dans lequel le procédé comprend : b) pour chaque carte de gradients J;, le calcul d'un score intermédiaire Si de similarité entre cette carte de gradients J; et une carte de référence J;ref correspondante, chaque score intermédiaire Si de similarité étant un nombre réel représentant le degré de similitude entre les cartes comparées, la carte de référence J;ref étant une carte de gradients calculés selon le même jeu i de directions que la carte de gradients J; à partir de l'image préenregistrée, et c) l'établissement d'un score final Sf de similarité entre l'image acquise et l'image préenregistrée en fonction des O scores intermédiaires Si de similarité. [0016] Le fait de calculer des scores intermédiaires de similarité entre des cartes de gradients calculés selon des directions différentes permet d'accroître la précision et la justesse du score final de similarité. Par conséquent, un procédé de reconnaissance d'un objet dans une image utilisant les scores finaux établis selon le procédé ci-dessus obtient un taux de reconnaissance exacte plus élevé. [0017] De plus, puisque des cartes de gradients sont utilisées pour établir le score final de similarité, ce procédé est robuste vis-à-vis des changements, par exemple lors de l'acquisition de l'image, qui ajoute une constante à la valeur a(x,y). Par exemple, un tel changement peut être une prise de vue plus éloignée. [oola] Enfin, le procédé ci-dessus est générique. En effet, il peut être appliqué à n'importe quel type d'image telle qu'une image d'un visage, d'une empreinte digitale, 10 d'un iris d'un oeil, des veines, d'un paysage et autre. [0019] Les modes de réalisation de ce procédé d'établissement d'un score final de similarité peuvent comporter une ou plusieurs des caractéristiques suivantes : ^ la construction de la carte J; de gradients comprend la normalisation du gradient associé à chaque pixel de cette carte en le divisant par au moins une 15 composante ou une combinaison de composantes d'un vecteur de gradients directionnels, cette composante ou cette combinaison de composantes étant telle que si chaque composante du vecteur de gradients directionnels et ce gradient sont multipliés par une même constante À, le gradient normalisé reste indépendant de cette constante À, le vecteur de gradients directionnels 20 regroupant uniquement des valeurs des gradients, dans des directions différentes, associés à ce même pixel ; ^ la construction de la carte J; de gradients comprend la normalisation du gradient associé à chaque pixel de cette carte en le divisant par la norme du vecteur de gradients directionnels ou le maximum ou le minimum ou encore 25 une combinaison linéaire des composantes de ce même vecteur de gradients directionnels ; ^ le procédé comporte la détermination de la direction O;(x,y) associée à chaque pixel P(x,y) dans le jeu i de directions, à partir des gradients, dans au moins deux directions différentes, des pixels voisins compris dans un périmètre 30 prédéterminé centré sur ce pixel P(x,y) ; ^ la direction O;(x,y) associée à chaque pixel P(x,y) dans le jeu i de directions est la même quel que soit le pixel de l'image ; ^ la construction de chaque carte J; de gradients comprend le lissage du gradient associé à chaque pixel, dit pixel central, de cette carte en réalisant 35 une moyenne pondérée du gradient du pixel central avec ceux des pixels adjacents situés à l'intérieur d'un périmètre prédéterminé centré sur le pixel central ; ^ des coefficients de pondération sont affectés à chaque gradient d'un pixel de la moyenne pondérée, le coefficient de pondération affecté à un gradient d'un pixel adjacent étant d'autant plus petit que le pixel adjacent est éloigné du pixel central , ^ les étapes a) et b) sont réalisées sur une image de texture et sur une image télémétrique de profondeur de l'objet et, lors de l'étape c), le score final Sf est établi à partir des scores intermédiaires Si obtenus à partir de l'image de texture et de l'image télémétrique de profondeur ; ^ l'établissement du score final Sf comporte la réalisation d'une somme pondérée des scores intermédiaires Si, un poids différent étant affecté à chaque score intermédiaire de cette somme ; ^ les poids de la somme pondérée sont sélectionnés en mettant en oeuvre un algorithme génétique ; ^ O est un entier supérieur ou égal à deux si les cartes de gradients comportent des valeurs négatives et positives ou quatre si les cartes de gradients comportent uniquement des valeurs nulles ou positives. [0020] Les modes de réalisation de ce procédé d'établissement d'un score final de similarité présentent en outre les avantages suivants : - la normalisation du vecteur de gradients directionnels rend le procédé robuste vis-à-vis des changements qui, par exemple lors de l'acquisition de l'image, introduisent un coefficient multiplicateur sur la valeur a(x,y) de la grandeur physique acquise ; - l'utilisation de jeux de directions construits à partir des gradients des pixels voisins permet de rendre le procédé robuste vis-à-vis d'une rotation d'un groupe local de pixels de l'image autour d'un axe perpendiculaire au plan de l'image ; - le lissage de gradients directionnels supprime les variations abruptes de gradients directionnels d'un pixel à ses voisins, créées, notamment, par la numérisation de 25 l'image de l'objet ; - lors du lissage, utiliser des coefficients de pondération d'autant plus faibles que le pixel adjacent correspondant est éloigné du pixel central permet d'accroître la robustesse du procédé ; - l'utilisation de la loi gaussienne pour affecter une valeur à ces coefficients de 30 pondération permet d'accroître la justesse du score final de similarité et donc le taux de reconnaissance exacte d'un objet lorsque ce procédé est utilisé à cette fin, - l'utilisation combinée d'une image de texture et d'une image télémétrique de profondeur d'un même objet améliore le taux de reconnaissance de cet objet lorsque le score final de similarité est utilisé à cette fin. 35 [0021] L'invention a également pour objet un procédé de reconnaissance d'un objet, ce procédé comportant : - l'acquisition par un capteur électronique d'une image numérique de l'objet à reconnaître, chaque image numérique étant formée de pixels P(x,y) et comportant une matrice qui associe à chaque position (x,y) d'un pixel P(x,y) dans l'image au moins une valeur a(x,y) d'une grandeur physique mesurée par le capteur électronique, - le calcul d'un score final Sf de similarité entre l'image acquise et chaque image préenregistrée d'une bibliothèque d'images numériques en mettant en oeuvre le 5 procédé ci-dessus d'établissement d'un score final de similarité, et - l'établissement de la correspondance entre l'image acquise et l'une des images préenregistrées de la bibliothèque en fonction du score final Sf de similarité calculé entre ces deux images, l'objet étant reconnu lorsque l'image acquise de cet objet correspond à l'une des images préenregistrées. 10 [0022] L'invention a également pour objet un support d'enregistrement d'informations comportant des instructions pour la mise en oeuvre du procédé ci-dessus, lorsque ces instructions sont exécutées par un calculateur électronique. [0023] Enfin, l'invention a pour objet un dispositif de reconnaissance d'un objet, ce dispositif comportant : 15 - un capteur électronique apte à acquérir une image numérique de l'objet à reconnaître, chaque image numérique étant formée de pixels P(x,y) et comportant une matrice qui associe à chaque position (x,y) d'un pixel dans l'image au moins une valeur a(x,y) d'une grandeur physique mesurée par le capteur électronique, - un calculateur électronique programmé pour : 20 ^ construire, à partir de l'image acquise, O cartes Ji de gradients calculés selon un jeu i respectif de directions, où : - O est un nombre entier, de jeux i de directions, supérieur ou égale à deux, - i est un identifiant du jeu de directions dans lesquelles sont calculés les gradients, 25 - un jeu i de directions associe à chaque pixel P(x,y) de l'image une direction Oi(x,y), la direction Oi(x,y) étant décalée angulairement par rapport à la direction Oi(x,y) d'un angle 8i, cet angle 8i étant le même quel que soit le pixel considéré de l'image, - une carte de gradients calculés selon un jeu i de directions étant une matrice 30 qui à chaque pixel P(x,y) de l'image acquise associe une valeur pi(x,y) représentative du gradient de la grandeur physique dans la direction Oi(x,y) associée à ce pixel dans le jeu i, - a) pour chaque carte de gradients Ji, calculer un score intermédiaire Si de similarité entre cette carte de gradients Ji et une carte de référence Jiref 35 correspondante, chaque score intermédiaire Si de similarité étant un nombre réel représentant le degré de similitude entre les cartes comparées, la carte de référence Jiref étant une carte de gradients calculés selon le même jeu i de directions que la carte de gradients J; à partir d'une image préenregistrée d'une bibliothèque d'images numériques, et - b) établir un score final Sf de similarité entre l'image acquise et l'image préenregistrée en fonction des O scores intermédiaires Si de similarité, ^ réitérer les étapes a) et b) pour chaque image préenregistrée de la bibliothèque et établir la correspondance entre l'image acquise et l'une des images préenregistrées de la bibliothèque en fonction du score final Sf de similarité calculé entre ces deux images, l'objet étant reconnu lorsque l'image acquise de cet objet correspond à l'une des images préenregistrées. [0024] L'invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d'exemple non limitatif et faite en se référant aux dessins sur lesquels : - la figure 1 est une illustration schématique d'un système biométrique de contrôle d'accès ; - la figure 2 est une illustration de différentes directions utilisées dans le système de la figure 1 ; - la figure 3 est un organigramme d'un procédé de contrôle d'accès à l'aide du système de la figure 1 ; - la figure 4 est une illustration schématique de la loi Gaussienne utilisée dans le 20 procédé de la figure 3. [0025] Dans ces figures, les mêmes références sont utilisées pour désigner les mêmes éléments. [0026] Dans la suite de cette description, les caractéristiques et fonctions bien connues de l'homme du métier ne sont pas décrites en détail. 25 [0027] La figure 1 représente un système biométrique 2 de contrôle d'accès à une ressource 4. A titre d'illustration, la ressource 4 est un bâtiment. [0028] Le système 2 est décrit dans le cas particulier où, pour un indice i donné, toutes les directions O;(x,y) sont parallèles. On note O; cette direction commune. [0029] L'accès à cette ressource n'est autorisé par le système 2 que si l'utilisateur 30 est un utilisateur autorisé. Un utilisateur autorisé est un utilisateur dont les caractéristiques biométriques sont associées, par une base de données, à un droit d'utiliser cette ressource 4. Ici, les caractéristiques biométriques sont le visage de l'utilisateur. [0030] A cet effet, le système 2 comprend un dispositif 6 de reconnaissance d'un 35 objet par comparaison d'une image numérique de cet objet à une bibliothèque d'images numériques préenregistrées. Dans ce cas particulier, l'objet est un visage. [0031] Le dispositif 6 comprend un appareil 8 d'acquisition d'images numériques du visage de l'utilisateur. Dans ce cas particulier, l'appareil 8 comprend un capteur électronique 10 apte à acquérir une image de texture du visage de l'utilisateur. Par exemple, le capteur 10 est une caméra infrarouge qui mesure l'intensité du rayonnement infrarouge en une multitude de points sur le visage de l'utilisateur. [0032] L'appareil 8 comprend également un autre capteur électronique 12 pour acquérir une image télémétrique de profondeur du visage de l'utilisateur. Ce capteur 12 est typiquement un télémètre qui mesure la distance qui sépare des points du visage de l'utilisateur par rapport à un plan de référence. Par exemple, le capteur 12 utilise la technologie de la télémétrie laser. Typiquement, des dizaines de milliers de points du visage sont pris en compte pour acquérir l'image télémétrique de profondeur. [0033] Les capteurs 10 et 12 sont raccordés à une unité centrale 14. L'unité centrale 14 est programmée pour autoriser l'accès à la ressource 4 si l'image de l'utilisateur acquise par les capteurs 10 et 12 correspond à celle d'un utilisateur autorisé. Dans le cas contraire, l'unité centrale 14 interdit l'accès à la ressource 4. [0034] L'unité centrale 14 est réalisée à partir d'un calculateur électronique 16 programmable apte à exécuter des instructions enregistrées sur un support d'enregistrement. A cet effet, le calculateur 16 est raccordé à une mémoire 18 contenant les instructions nécessaires pour exécuter le procédé de la figure 3. [0035] La mémoire 18 contient aussi la base de données 20 qui associe les caractéristiques biométriques des utilisateurs à un droit d'utiliser la ressource 4. Ici, on suppose que l'autorisation d'accéder à la ressource 4 est donnée dès que les caractéristiques biométriques de l'utilisateur sont enregistrées dans la base de données 20. Ainsi, cette base de données 20 n'a pas besoin de coder le droit d'utiliser la ressource 4 dans un champ particulier. Mais on peut imaginer des applications où l'autorisation d'accéder à une ressource varie en fonction de personnes reconnues. Il est alors nécessaire de coder le droit d'utilisation correspondant. [0036] Les caractéristiques biométriques enregistrées dans la base de données 20 pour chaque utilisateur autorisé peuvent être des images numériques du visage de cet utilisateur, des images de veine, des images télémétrique de profondeur (range image) de visage ou une combinaison quelconque de celles-ci. Par exemple, pour chaque utilisateur autorisé, une image de texture et une image télémétrique de profondeur de son visage peuvent être enregistrés dans la base 20. Dans ce cas, la base 20 contient : - pour chaque image de texture, O cartes de référence Jirefr calculées à partir de cette 35 image de texture, et - pour chaque image télémétrique, O cartes de référence JirefR calculées à partir de cette image télémétrique. [0037] O est un nombre entier de directions supérieur ou égal à deux et, de préférence, supérieur ou égal à quatre, huit ou seize. Dans la suite de cette 40 description, 0 est pris égal à huit. On note N le nombre de cartes Jiref associées à un même utilisateur autorisé. Ici ce nombre N est égal à 2*0 désignant le nombre de cartes calculées sur l'image de texture et l'image télémétrique de profondeur. [0038] Chaque carte de référence J;ref est une carte de gradients calculés selon une direction i respective. Ici, huit directions différentes sont utilisées. Ces huit directions sont représentées sur la figure 2 par des flèches O, à Os. Ici, ces directions O, à o8 sont uniformément réparties dans le plan de l'image. Autrement dit, l'angle 8 entre deux directions successives est constant. Ici cet angle 8 est égale à 45°. La direction O, est la direction horizontale. [0039] La figure 2 représente également un pixel P(x,y) carré dont le centre géométrique est repéré par un point O. Dans la direction horizontale, ce pixel P(x,y) est suivi du pixel P(x+1,y) et précédé du pixel P(x-1,y). Dans la direction verticale, ce pixel P(x,y) est suivi du pixel P(x, y+1) et précédé du pixel P(x,y-1). Dans la direction diagonale 02, le pixel P(x,y) est suivi du pixel P(x+1,y+1) et précédé du pixel P(x-1, y-1). Dans la direction diagonale 04, le pixel P(x,y) est suivi du pixel P(x-1,y+1) et précédé du pixel P(x+1, y-1). [0040] Le calcul des cartes de référence J;ref est décrit plus en détail en référence à la figure 3. [0041] Le fonctionnement du système 2 va maintenant être décrit en référence au procédé de la figure 3. [0042] Initialement, lors d'une étape 40, l'utilisateur 40 présente son visage devant les capteurs 10 et 12. En réponse, les capteurs 10 et 12 acquièrent une image numérique de texture et une image numérique télémétrique de profondeur de ce visage. Pour cela, ces capteurs mesurent les valeurs a(x,y) pour chaque pixel de chaque image. Les images acquises sont enregistrées, pour traitement, dans la mémoire 18. Dans l'image de texture, ar(x,y) est fonction de l'intensité lumineuse reçue par le capteur. Dans l'image télémétrique de profondeur, aR(x,y) est une distance mesurée par le capteur 12. La combinaison de l'image de texture et de l'image télémétrique forme une image 3D texturée dans laquelle la position de chaque pixel est codée par un triplet (x, y, z) et, à chaque position, la valeur ar(x,y) est associée. La coordonnée z est établie à partir de la valeur aR(x,y). [0043] Lors d'une étape 42, le calculateur 16 construit O cartes Ji,- de gradients selon les O directions de la figure 2 à partir de l'image de texture acquise. [0044] Plus précisément, lors d'une opération 44, le calculateur 16 construit pour l'image de texture acquise O cartes de gradients LIT à LOT. Chaque carte L;r contient pour chaque pixel P(x,y), le gradient ou la dérivées ôar(x,y)/bi de la valeur ar(x,y) dans la direction i, où i est l'identifiant de la direction selon laquelle la carte de gradients est calculée. Par exemple, chaque carte Li,- associe à la position (x,y) d'un pixel P(x,y) la valeur du gradient p;r(x,y) en partant de ce pixel vers le pixel immédiatement consécutif dans la direction i. [0045] Ici, l'ensemble des directions prises en comptes, comprend pour chaque direction i sa direction opposée. Dans ces conditions dans chaque carte L;r, seules les valeurs positives de chaque gradient sont conservées. Lorsque le gradient associé à un pixel P(x,y) est négatif, il est remplacé par une valeur nulle. [0046] Par exemple, dans le cas de la direction horizontale positive O,, p,r(x,y) est calculé à l'aide de la relation suivante : p,r(x,y) _ (ar(x+1,y) - ar(x-1,y»12. De préférence, la même relation est utilisée dans toutes les directions. [0047] Ensuite, lors d'une opération 46, à partir de chaque carte L;r, une nouvelle carte de gradients L;rR est construite. Dans la carte L;rR les variations abruptes de 10 gradients p;r(x,y) entre deux pixels voisins sont lissées. [0048] Par exemple, pour cela, le calculateur 16 réalise la moyenne pondérée de la valeur p;r(x,y) avec les gradients des pixels contenus dans un périmètre prédéterminé centré sur le centre O du pixel P(x,y). [0049] Par exemple, le périmètre prédéterminé est un cercle de rayon R. De plus, le 15 coefficient de pondération affecté à chaque gradient est d'autant plus petit que le pixel correspondant est éloigné du pixel P(x,y). De préférence, les coefficients de pondération suivent une loi Gaussienne. [0050] Cette valeur moyenne du gradient p;r(x,y) est ici notée p;rR(x,y). [0051] A titre d'illustration, on suppose que le rayon R choisi est tel que le périmètre 20 englobe uniquement les pixels représentés sur la figure 2. Dans ce cas, le gradient p;rR(x,y) est calculée selon la relation suivante : PirR(x,Y) = c,Pi(x,Y) + c2Pi(x+1,Y) + c3Pi(x,Y+1) + c4Pi(x-1,Y) + c5Pi(x,Y-1) +c6Pi(x+1, y+1) + c7pi(x-1, y+1) + c8pi(x-1, y-1) + c9p;(x+1, y-1) [0052] Les coefficients c; sont choisis en fonction de la loi gaussienne représentée 25 sur la figure 3. Sur cette figure d est la distance entre le centre O du pixel P(x,y) et les centres des pixels voisins. La loi gaussienne est symétrique. Pour des raisons de clarté, les coefficients c; ont été représentés soit à droite soit à gauche de cet axe des ordonnées. La loi gaussienne choisie est paramétrée par le rayon R du périmètre. [0053] D'un point de vue pratique, un noyau gaussien G dont la déviation standard 30 est proportionnelle au rayon R est utilisé pour calculer les valeurs p;rR(x,y). Par exemple, la carte de gradients L;r est convoluée avec ce noyau G pour obtenir toutes les valeurs p;rR(x,y) de la carte L;rR. [0054] Par exemple,, les valeurs du noyau G sont données par la relation suivante : exp {-Ilx-x,112«2*8igma) } , où 35 - « exp » est la fonction exponentielle, - ~~ x-xc II est la distance entre le centre O et le pixel adjacent, - « sigma » est l'écart type choisi en fonction de la distance R. [0055] Par la suite on note prR(x,y) le vecteur de gradients directionnels [p,rR(x,y), ..., PorR(x,y)]r, où l'exposant « T » est le symbole transposé. [0056] Ensuite, lors d'une opération 48, chaque carte LirR est normalisée. La carte LirR normalisée est notée Jir. Cette carte Jir est appelée image faciale perçue. [0057] La normalisation consiste à diviser la valeur pirR(x,y) d'un pixel P(x,y) par la norme du vecteur prR(x,y), associé à ce même pixel P(x,y). La valeur normalisée du pixel P(x,y) dans la carte Ji est notée pir"(x,y). [0058] Ici, la norme 1 prR(x,y)l du vecteur prR(x,y) est donnée par la définition classique, c'est-à-dire la racine carrée de la somme de ses composantes au carré :1 prR(x,y)l =sgrt(E pirR(x,y)2) pour i variant de 1 à O, où « sqrt » est la fonction racine carré. [0059] La normalisation permet de rendre le procédé ci-dessus robuste vis-à-vis de toute modification de l'environnement lors de l'acquisition de l'image qui multiplie la valeur pir(x,y) par une constante À. En effet, la valeur pir"(x,y) devient indépendante de cette constante À. Ainsi, ce procédé est robuste vis-à-vis des changements tels qu'un changement de contraste lumineux lors de l'étape 40. De plus, dans ce procédé, À n'est pas nécessairement constante sur toute l'image et peut varier d'un pixel à l'autre. Ainsi le procédé est insensible aux changements locaux tels qu'un changement local de contraste lors de l'acquisition de l'image. [0060] L'étape de construction de la carte de gradients se termine lorsque la carte de gradients Jir a été construite pour chacune des O directions. [0061] Après l'étape 42, lors d'une étape 52, le calculateur 16 procède au calcul de scores intermédiaires Sir de similarité entre chaque carte Jir et la carte Jirefr correspondante. [0062] Les cartes Jiref sont construites comme décrit à l'étape 42 sauf qu'elles sont obtenues à partir de l'image de texture et de l'image télémétrique de profondeur préenregistrées. Typiquement la construction des cartes Jiref pour chaque direction i est réalisée avant l'étape 40 puis elles sont enregistrées dans la base de données 20. [0063] Le score intermédiaire Sir de similarité est un nombre réel représentatif de la probabilité que les cartes de gradients Jir et Jirefr correspondent au même objet. Par exemple, ici, le score intermédiaire Sir est d'autant plus grand que la probabilité qu'il s'agisse d'une image du même objet est importante. [0064] Ici, chaque score Sir est calculé selon la méthode de transformation de caractéristiques visuelles invariante à l'échelle, plus connue sous l'acronyme SIFT (Scale Invariant Feature Transform). [0065] La méthode SIFT est bien connue et ne sera donc pas décrite plus en détail. 35 Pour plus d'informations sur cette méthode, le lecteur peut se reporter à la demande de brevet US 6711293 ainsi qu'à l'article suivant : D. G. Lowe, « Distinctive Image Features from Scale-invariant Keypoints », International Journal of Computer Vision, 60(4) : 91-110, 2004. [0066] Les cartes Ji font ressortir un plus grand nombre de points clés ou points 40 caractéristiques d'un objet que l'image initialement acquise lors de l'étape 40. Or ce sont ces points clés qui sont comparés aux points clés de la carte Jiref pour établir le score de similarité entre ces cartes. Par exemple, il a été mesuré que la méthode SIFT identifie 41 et 61 points clés respectivement, dans les images télémétrique et de texture alors que la même méthode identifie 116 et 304 points clés dans les cartes JirefR et Jirefr correspondantes. [0067] Ici, les étapes 42 et 52 sont également réalisée pour l'image télémétrique de profondeur acquise lors de l'étape 40 de manière à obtenir des scores intermédiaires SiR de similarité entre les cartes JiR et JirefR- [oo68] Une fois les scores intermédiaires Sir et SiR calculés, lors d'une étape 54, le calculateur 16 établit un score final Sf de similarité à partir de ces scores intermédiaires Sir et SiR. Ici, le score Sf est établi à l'aide d'une somme pondérée des scores Sir et SiR. Ainsi, le score Sf est donné par la relation suivante : i=N S f= E wi Si i=i où wi est un poids prédéterminé. [0069] Différentes méthodes peuvent être utilisées pour déterminer la valeur des 15 poids wi. Par exemple, un algorithme génétique tel que celui décrit dans le document suivant est avantageusement mis en oeuvre : Y.H. Said, « On Genetic Algorithms and their Applications » Handbook of statistics, 2005. [0070] Ensuite, lors d'une étape 56, le calculateur 16 établit la correspondance entre 20 le visage acquis et le visage contenu dans l'une des images préenregistrées. Par exemple, si le score final Sf dépasse un seuil prédéterminé B, lorsqu'il est comparé à l'une des images préenregistrées, alors on considère que le visage de l'utilisateur est reconnu. Dans ce cas, on procède à une étape 58 lors de laquelle le calculateur 16 autorise l'accès à la ressource 4. Par exemple, dans le cadre d'un accès à un 25 bâtiment, le calculateur 16 commande le déverrouillage d'une porte. [oui] Dans le cas où le score final Sf ne franchit pas le seuil B,, l'utilisateur est considéré comme n'ayant pas été reconnu et l'on retourne à l'étape 40. [0072] Le procédé précédemment décrit a été testé en utilisant une base de données standard connue sous l'acronyme FRGC, version 2, de manière à permettre 30 une comparaison des résultats obtenus avec d'autres procédés connus. La base de données de visage FRGC, version 2, est bien connue. Par exemple, elle est présentée dans l'article suivant : P. J. Phillips, P.J. Flynn, T. Scruggs, K. W. Bowyers, K. 1 Chang, K. Hoffman, J. Marques, J. Min et W. Worek, « Overview of the face recognition grand challenge » 35 International Conference on Computer Vision and Pattern Recognition, 2005. [0073] Cette base de données contient 4007 visages 3D, chaque visage 3D contenant aussi bien les valeurs d'intensité que télémétriques de profondeur pour chaque pixel. Ainsi, pour chaque visage 3D, on dispose d'une image de texture et d'une image télémétrique de profondeur. [0074] Un prétraitement a été appliqué aux images de cette base de données pour : - éliminer les variations anormalement élevées de la valeur a(x,y) dans l'image en 5 utilisant un filtre médian, et - remplir les trous en utilisant une interpolation des moindres carrés à partir des valeurs des pixels adjacents. [0075] Parmi les 4007 visages 3D, 466 ont été retenus pour former les cartes Jiref mémorisées dans la base de données 20. Les 3541 visages 3D restants ont été 10 utilisés pour le test. [0076] Le tableau qui suit donne le taux de reconnaissance, (« rank-one rate » en anglais) et le taux de vérification avec un FAR (False Acceptance Result) de 0,1 obtenus en appliquant différents procédés, dont le procédé précédemment décrit, à la base de données FRGC. 15 Procédé utilisé Taux de Taux de reconnaissance vérification avec (rank-one rate) un FAR de 0,1 Mian et al [24] 0,961 0,986 Mian et al [23] 0,974 0,993 Gokberk et al [25] 0,955 NA Xu et al [26] NA 0,975 Maurer et al [13] NA 0,958 Husken et al [11 ] NA 0,973 Ben Soltana et al [28] 0,955 0,970 Le procédé décrit ci-dessus 0,980 0,989 [0077] Le symbole NA dans le tableau signifie que les données ne sont pas disponibles. [0078] Les références indiquées entre crochets dans le tableau ci-dessus 20 correspondent aux procédés décrits dans les articles suivants : - [24] A.S. Mian, M. Bennamoun et R. Owens, « Keypoint Detection and Local Feature Matching for Textured 3D Face Recognition », International Journal of Computer Vision, 79(1) : 1-12, 2008, - [23] A.S. Mian, M. Bennamoun et R. Owens, « An Efficient Multimodal 2D-3D Hybrid 25 Approach to Automatic Face Recognition », IEEE Transactions in Pattern Analysis and Machine Intelligence, 29(11) : 1927-1943, 2007, - [25] B. Gokberk, H. Dutagaci, A. Ulas, L. Akarun et B. Sankur, « Representation Plurality and Fusion for 3D Face Recognition », IEEE Transactions on Systems, Man and Cybernetics - B : Cybernetics, 38(1) : 155-173, 2008, - [26] C. Xu, F. Li, T. Tan et L. Quan, « Automatic 3D Face Recognition from Depth and Intensity Gabor Features », Pattern Recognition, 42(9) : 1895-1905, 2009, - [13] T. Maurer et al, « Performance of Geometrix ActivelDTM 3D Face Recognition Engine on FRGC Data », IEEE Workshop on FRGC Experiments, 2005, - [Il] M. Husken, M. Brauckmann, S. Gehlen et C. v.d. Malsburg, « Strategies and Benefits of Fusion of 2D and 3D Face Recognition », IEEE Workshop on Face Recognition Grand Challenge Experiments, 2005, - [28] W. Ben Soltana, D. Huang, M. Ardabilian, L. Chen et C. Ben Amar, « Comparison of 2D/3D Features and their Adaptative Score Level Fusion for 3D Face Recognition », 3D Data Processing, Visualisation and Transmission, 2010. [0079] Comme le montre le tableau ci-dessus, le procédé décrit ici obtient le meilleur taux de reconnaissance parmi les différents procédés auxquels il a été comparé. [0080] De nombreux autres modes de réalisation sont possibles. Par exemple, d'autres capteurs que ceux décrits peuvent être utilisés pour acquérir une image. Par exemple, le capteur peut être un appareil photo numérique ou un scanner. Le capteur électronique peut aussi être un ordinateur sur lequel s'exécute un logiciel de capture ou de génération d'une image en réponse aux commandes d'un utilisateur. Par exemple, le capteur peut être un ordinateur sur lequel s'exécute un logiciel de DAO (Dessin Assisté par Ordinateur). En effet, un tel logiciel de DAO permet d'acquérir une image en réponse aux commandes de l'utilisateur. Dans ce dernier cas, les valeurs a(x,y) de chaque pixel ne sont pas mesurées mais générées par le logiciel. [0081] Le nombre de directions utilisées pour construire les différentes cartes de gradients peut être différent de huit. De plus, les différentes directions utilisées peuvent être choisies de manière à ce qu'elles ne soient pas uniformément réparties dans le plan de l'image. Dans ce cas, l'angle 8 entre deux directions immédiatement successives n'est pas forcément le même entre toutes les directions successives.
Enfin, le nombre de directions prises en compte pour l'image de texture n'est pas nécessairement le même que celui utilisé pour l'image télémétrique de profondeur. Les directions utilisées pour l'image de texture ne sont d'ailleurs pas nécessairement les mêmes que celles utilisées pour l'image télémétrique de profondeur. [0082] Dans les cartes, il est aussi possible de ne conserver que les valeurs négatives et de remplacer les valeurs positives par une valeur nulle. Si dans les cartes de gradients, les valeurs négatives et positives sont conservées, le nombre O de directions ou de jeux de directions peut être divisé par deux. [0083] Le procédé peut aussi comporter la détermination de la direction O, à utiliser pour chaque pixel P(x,y) de manière à rendre ces cartes indépendantes à la rotation 40 d'une image. Puisque dans ce mode de réalisation, la direction O, dépend du pixel concerné, celle-ci est notée Oi(x,y). Pour cela, la direction Oi(x,y) de chaque pixel est choisie comme étant la direction principale des gradients des pixels voisins. La direction principale des gradients des pixels voisins est calculée comme étant la moyenne des gradients de l'ensemble des pixels dans le voisinage d'un pixel. Ces pixels sont considérés comme voisin s'ils sont contenus à l'intérieur d'un périmètre prédéterminé centré sur le pixel pour lequel on calcule sa direction 01. Ce périmètre est par exemple un cercle de rayon R choisi. Par exemple, initialement, les gradients dans les directions horizontale et verticale sont calculés pour chaque pixel de l'image. On note g(x,y) le vecteur gradient de chaque pixel P(x,y) dont les composantes sont formées par les gradients horizontal et vertical calculés pour ce pixel P(x,y). La direction principale des gradients des pixels voisins est, par exemple, déterminée en sommant les vecteurs g(x,y) des pixels voisins et, éventuellement, en divisant cette somme par A, où A est le nombre de pixels voisins. Ainsi, dans ce mode de réalisation, la direction Oi(x,y) d'un pixel peut être différente de la direction O,(x',y') d'un autre pixel de la même image. Ensuite, le procédé décrit ci-dessus est appliqué pour chaque pixel P(x,y) de l'image mais en utilisant la direction O,(x,y) déterminée pour ce pixel et non pas une direction O, commune à l'ensemble des pixels de l'image. Les directions O2(x,y), 03(x,y) et suivantes associées au pixel P(x,y) sont construites à partir de la direction Oi(x,y). Par exemple, la direction Oi(x,y) est déduite de la direction Oi(x,y) en y appliquant une rotation angulaire d'un angle 6i prédéterminé. L'angle ei qui permet de construire la direction Oi(x,y) à partir de la direction O,(x,y) est le même quel que soit le pixel P(x,y) de l'image. Dès lors, dans ce mode de réalisation, l'indice « i » identifie non pas une direction O, commune à l'ensemble des pixels de l'image mais un jeu i de directions Oi(x,y) associées à chaque pixel P(x,y) de l'image. Un tel choix de la direction O,(x,y) permet de rendre le procédé ci-dessus robuste vis-à-vis de rotation de l'objet autour d'un axe perpendiculaire au plan de l'image. Les différentes variantes décrites dans le cas particulier où toutes les directions Oi(x,y) du jeu i sont parallèles, s'appliquent également au cas où les directions Oi(x,y) varient d'un pixel à un autre de la même image. [0084] Dans un autre mode de réalisation, la base de données 20 contient uniquement les cartes Jiref sans les images de texture et les images télémétriques correspondantes. [0085] Le procédé décrit ci-dessus peut être aussi exécuté uniquement sur les images de texture ou uniquement sur les images télémétriques de profondeur. Dans le cas où seul les images de texture sont utilisées, on parlera alors de reconnaissance 2D. [0086] II est aussi possible que le nombre Or de cartes de gradients que l'on calcule sur une image de texture soit différente du nombre OR de cartes de gradients que l'on calcule sur l'image télémétrique de profondeur. Dans ce cas, N est la somme de Or et OR. [0087] D'autres formules pour calculer le gradient d'un pixel sont possibles. Par exemple, la formule suivante, donnée pour la direction O,, peut aussi être utilisée : p,(x,y) = a(x,y) - a(x+1,y). D'autres exemples de formules sont également donnés dans la demande de brevet US 2010 0135540, paragraphes 46 et suivants. [0088] D'autres méthodes de lissage de la carte de gradients peuvent être mise en oeuvre. Il est aussi possible de ne pas réaliser de lissage. [0089] D'autres méthodes de normalisation du vecteur de gradients directionnels sont possibles. Par exemple, le vecteur pR(x,y) peut être normalisé en divisant ses composantes par la plus petite valeur de celles-ci ou plus généralement une combinaison linéaire de celles-ci comme par exemple la somme de ses composantes. Ainsi, en variante, cette normalisation consiste à diviser chaque valeur p;rR(x,y) par le maximum ou le minimum des composantes du vecteur prR(x,y). Au cas où le vecteur prR(x,y) est normalisé par le maximum de ses composantes, per"(x,y) est donnée par la relation suivante : p;r"(x,y) = p;rR(x,y) / Max[p,rR(x,y) ; ... ; porR(x,y)], où « Max » désigne la fonction qui retourne le maximum des différentes composantes contenues entre crochets. [0090] Dans une autre variante, l'opération de normalisation est omise. [0091] D'autres méthodes d'extraction de caractéristiques que la méthode SIFT peuvent être utilisées. Par exemple, la méthode DAISY peut aussi être utilisée. Cette méthode est par exemple décrite dans l'article suivant : E. Tola, V. Lepetit et P. Fua, « A Fast Local Descriptor for Dense Matching », IEEE International Conference on Computer Vision and Pattern Recognition, 2008. [0092] Dans la somme pondérée utilisée pour établir le score final Sf de similarité, tous les poids w; peuvent avoir la même valeur. [0093] Un objet peut être considéré comme reconnu lorsqu'une correspondance a été établie entre l'image de cet objet et l'image de référence avec laquelle il présente le score final de similarité le plus élevé. Dans ce cas, il n'est pas nécessaire que le score final dépasse un seuil prédéterminé pour qu'il y ait reconnaissance de l'objet. [0094] En variante, la bibliothèque d'images préenregistrées peut ne contenir qu'une seule image. [0095] La ressource 4 n'est pas nécessairement une porte d'accès à un bâtiment, il peut s'agir de tous types de ressource tels qu'un ordinateur ou un logiciel. Le système biométrique peut aussi configurer des paramètres de la ressource 4 en fonction de la personne identifiée. [0096] Le procédé d'établissement du score final de similarité est utilisable dans d'autres contextes qu'un procédé de reconnaissance d'un objet. Par exemple, il peut être utilisé pour classer ou rechercher par similitude des images entre elles sans que l'on recherche nécessairement à identifier l'objet contenu dans ces images. [0097] L'objet peut être autre chose qu'un visage. Par exemple, dans le cadre d'un procédé de reconnaissance d'un être humain, il peut s'agir d'une empreinte digitale, des veines d'une main lorsque l'on présente le poing fermé devant le capteur électronique, de l'iris d'un l'oeil. L'objet peut aussi être autre chose qu'une caractéristique biométrique. Par exemple, l'objet peut être la texture d'un matériau tel que la texture d'un papier, d'un textile ou d'un billet de banque. L'objet peut aussi être un paysage ou autre lorsque le procédé pour établir le score final de similarité est mis en oeuvre, par exemple, dans un logiciel de recherche d'images par similarité.

Claims (14)

  1. REVENDICATIONS1. Procédé d'établissement d'un score final de similarité entre une image numérique d'un objet, acquise par un capteur électronique, et une image numérique préenregistrée dans une bibliothèque d'images, chaque image numérique étant formée de pixels P(x,y) et comportant une matrice qui à chaque position (x,y) d'un pixel dans l'image associe au moins une valeur a(x,y) d'une grandeur physique acquise par le capteur électronique, ce procédé comportant : a) la construction (42) à partir de l'image acquise de O cartes J; de gradients calculés 10 selon un jeu i respectif de directions, où : - O est un nombre entier, de jeu i de directions, supérieur ou égale à deux, - i est un identifiant du jeu de directions dans lesquelles sont calculés les gradients, - un jeu i de directions associe à chaque pixel P(x,y) de l'image une direction O;(x,y), la direction O;(x,y) étant décalée angulairement par rapport à la direction O,(x,y) d'un 15 angle 8;, cet angle 8; étant le même quel que soit le pixel considéré de l'image, - une carte de gradients calculés selon un jeu i de directions étant une matrice qui à chaque pixel P(x,y) de l'image acquise associe une valeur p;(x,y) représentative du gradient de la grandeur physique dans la direction O;(x,y) associée à ce pixel dans le jeu i, 20 caractérisé en ce que le procédé comprend : b) pour chaque carte de gradients J;, le calcul (52) d'un score intermédiaire Si de similarité entre cette carte de gradients J; et une carte de référence J;ref correspondante, chaque score intermédiaire Si de similarité étant un nombre réel représentant le degré de similitude entre les cartes comparées, la carte de référence 25 J;ref étant une carte de gradients calculés selon le même jeu i de directions que la carte de gradients J; à partir de l'image préenregistrée, et c) l'établissement (54) d'un score final Sf de similarité entre l'image acquise et l'image préenregistrée en fonction des O scores intermédiaires Si de similarité. 30
  2. 2. Procédé selon la revendication 1, dans lequel la construction de la carte J; de gradients comprend la normalisation (48) du gradient associé à chaque pixel de cette carte en le divisant par au moins une composante ou une combinaison de composantes d'un vecteur de gradients directionnels, cette composante ou cette combinaison de composantes étant telle que si chaque composante du vecteur de 35 gradients directionnels et ce gradient sont multipliés par une même constante À, le gradient normalisé reste indépendant de cette constante À, le vecteur de gradients directionnels regroupant uniquement des valeurs des gradients, dans des directions différentes, associés à ce même pixel.
  3. 3. Procédé selon la revendication 2, dans lequel la construction de la carte J; de gradients comprend la normalisation (48) du gradient associé à chaque pixel de cette carte en le divisant par la norme du vecteur de gradients directionnels ou le maximum ou le minimum ou encore une combinaison linéaire des composantes de ce même vecteur de gradients directionnels.
  4. 4. Procédé selon l'une quelconque des revendications précédentes, dans lequel le procédé comporte la détermination de la direction O;(x,y) associée à chaque pixel P(x,y) dans le jeu i de directions, à partir des gradients, dans au moins deux directions différentes, des pixels voisins compris dans un périmètre prédéterminé centré sur ce pixel P(x,y).
  5. 5. Procédé selon l'une quelconque des revendications 1 à 3, dans lequel la direction 15 O;(x,y) associée à chaque pixel P(x,y) dans le jeu i de directions est la même quel que soit le pixel de l'image.
  6. 6. Procédé selon l'une quelconque des revendications précédentes, dans lequel la construction de chaque carte J; de gradients comprend le lissage (46) du gradient 20 associé à chaque pixel, dit pixel central, de cette carte en réalisant une moyenne pondérée du gradient du pixel central avec ceux des pixels adjacents situés à l'intérieur d'un périmètre prédéterminé centré sur le pixel central.
  7. 7. Procédé selon la revendication 6, dans lequel des coefficients de pondération 25 sont affectés à chaque gradient d'un pixel de la moyenne pondérée, le coefficient de pondération affecté à un gradient d'un pixel adjacent étant d'autant plus petit que le pixel adjacent est éloigné du pixel central.
  8. 8. Procédé selon l'une quelconque des revendications précédentes, dans lequel les 30 étapes a) et b) sont réalisées sur une image de texture et sur une image télémétrique de profondeur de l'objet et, lors de l'étape c), le score final Sf est établi à partir des scores intermédiaires Si obtenus à partir de l'image de texture et de l'image télémétrique de profondeur. 35
  9. 9. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'établissement du score final Sf comporte la réalisation d'une somme pondérée des scores intermédiaires Si, un poids différent étant affecté à chaque score intermédiaire de cette somme.
  10. 10. Procédé selon la revendication 9, dans lequel les poids de la somme pondérée sont sélectionnés en mettant en oeuvre un algorithme génétique.
  11. 11. Procédé selon l'une quelconque des revendications précédentes, dans lequel O est un entier supérieur ou égal à deux si les cartes de gradients comportent des valeurs négatives et positives ou quatre si les cartes de gradients comportent uniquement des valeurs nulles ou positives.
  12. 12. Procédé de reconnaissance d'un objet, ce procédé comportant : - l'acquisition (40) par un capteur électronique d'une image numérique de l'objet à reconnaître, chaque image numérique étant formée de pixels P(x,y) et comportant une matrice qui associe à chaque position (x,y) d'un pixel P(x,y) dans l'image au moins une valeur a(x,y) d'une grandeur physique mesurée par le capteur électronique, caractérisé en ce que le procédé comporte : - le calcul d'un score final Sf de similarité entre l'image acquise et chaque image préenregistrée d'une bibliothèque d'images numériques en mettant en oeuvre un procédé conforme à l'une quelconque des revendications précédentes, et - l'établissement (56) de la correspondance entre l'image acquise et l'une des images préenregistrées de la bibliothèque en fonction du score final Sf de similarité calculé entre ces deux images, l'objet étant reconnu lorsque l'image acquise de cet objet correspond à l'une des images préenregistrées.
  13. 13. Support d'enregistrement d'informations, caractérisé en ce qu'il comporte des instructions pour la mise en oeuvre d'un procédé conforme à l'une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un calculateur électronique.
  14. 14. Dispositif de reconnaissance d'un objet, ce dispositif comportant : - un capteur électronique (10, 12) apte à acquérir une image numérique de l'objet à reconnaître, chaque image numérique étant formée de pixels P(x,y) et comportant une matrice qui associe à chaque position (x,y) d'un pixel dans l'image au moins une valeur a(x,y) d'une grandeur physique mesurée par le capteur électronique, - un calculateur électronique (16) programmé pour construire, à partir de l'image acquise, O cartes J; de gradients calculés selon un jeu i respectif de directions, où : - O est un nombre entier, de jeux i de directions, supérieur ou égale à deux, - i est un identifiant du jeu de directions dans lesquelles sont calculés les gradients,- un jeu i de directions associe à chaque pixel P(x,y) de l'image une direction O;(x,y), la direction O;(x,y) étant décalée angulairement par rapport à la direction O,(x,y) d'un angle 8;, cet angle 6; étant le même quel que soit le pixel considéré de l'image, - une carte de gradients calculés selon un jeu i de directions étant une matrice qui à chaque pixel P(x,y) de l'image acquise associe une valeur p;(x,y) représentative du gradient de la grandeur physique dans la direction O;(x,y) associée à ce pixel dans le jeu i, caractérisé en ce que le calculateur électronique (16) est également programmé pour a) pour chaque carte de gradients J;, calculer un score intermédiaire Si de similarité entre cette carte de gradients J; et une carte de référence J;ref correspondante, chaque score intermédiaire Si de similarité étant un nombre réel représentant le degré de similitude entre les cartes comparées, la carte de référence J;ref étant une carte de gradients calculés selon le même jeu i de directions que la carte de gradients J; à partir d'une image préenregistrée d'une bibliothèque d'images numériques, et b) établir un score final Sf de similarité entre l'image acquise et l'image préenregistrée en fonction des O scores intermédiaires Si de similarité, c) réitérer les étapes a) et b) pour chaque image préenregistrée de la bibliothèque et établir la correspondance entre l'image acquise et l'une des images préenregistrées de la bibliothèque en fonction du score final Sf de similarité calculé entre ces deux images, l'objet étant reconnu lorsque l'image acquise de cet objet correspond à l'une des images préenregistrées.
FR1155518A 2011-06-22 2011-06-22 Procede d'etablissement d'un score final de similarite entre des images Expired - Fee Related FR2977056B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1155518A FR2977056B1 (fr) 2011-06-22 2011-06-22 Procede d'etablissement d'un score final de similarite entre des images
PCT/EP2012/061227 WO2012175391A1 (fr) 2011-06-22 2012-06-13 Procede d'etablissement d'un score final de similarite entre des images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1155518A FR2977056B1 (fr) 2011-06-22 2011-06-22 Procede d'etablissement d'un score final de similarite entre des images

Publications (2)

Publication Number Publication Date
FR2977056A1 true FR2977056A1 (fr) 2012-12-28
FR2977056B1 FR2977056B1 (fr) 2014-02-07

Family

ID=46420087

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1155518A Expired - Fee Related FR2977056B1 (fr) 2011-06-22 2011-06-22 Procede d'etablissement d'un score final de similarite entre des images

Country Status (2)

Country Link
FR (1) FR2977056B1 (fr)
WO (1) WO2012175391A1 (fr)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
US7676068B2 (en) 2006-09-18 2010-03-09 Miguel Angel Cervantes Biometric authentication

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DI HUANG ET AL: "A novel geometric facial representation based on multi-scale extended local binary patterns", AUTOMATIC FACE&GESTURE RECOGNITION AND WORKSHOPS (FG 2011), 2011 IEEE INTERNATIONAL CONFERENCE ON, IEEE, 21 March 2011 (2011-03-21), pages 1 - 7, XP031869326, ISBN: 978-1-4244-9140-7, DOI: 10.1109/FG.2011.5771323 *
DI HUANG ET AL: "Local Binary Patterns and Its Application to Facial Image Analysis: A Survey", IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS: PART C:APPLICATIONS AND REVIEWS, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 41, no. 6, 1 November 2011 (2011-11-01), pages 765 - 781, XP011363204, ISSN: 1094-6977, DOI: 10.1109/TSMCC.2011.2118750 *
WAEL BEN SOLTANA ET AL: "Adaptive Feature and Score Level Fusion Strategy Using Genetic Algorithms", PATTERN RECOGNITION (ICPR), 2010 20TH INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 23 August 2010 (2010-08-23), pages 4316 - 4319, XP031772710, ISBN: 978-1-4244-7542-1 *

Also Published As

Publication number Publication date
WO2012175391A1 (fr) 2012-12-27
FR2977056B1 (fr) 2014-02-07

Similar Documents

Publication Publication Date Title
CN110852160B (zh) 以图像为基准的生物识别***及计算机实施方法
EP3707676B1 (fr) Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé
EP3640843B1 (fr) Procédé d'extraction de caractéristiques d'une empreinte digitale représentée par une image d'entrée
FR2931006A1 (fr) Systeme et procede pour la reconnaissance visuelle
WO2016010724A1 (fr) Analyse multispectrale de l'œil pour l'authentification d'identité
EP2751739B1 (fr) Detection de fraude pour systeme de controle d'acces de type biometrique
US10885171B2 (en) Authentication verification using soft biometric traits
FR2915301A1 (fr) Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference
US10915739B2 (en) Face recognition device, face recognition method, and computer readable storage medium
FR3088467A1 (fr) Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution
FR3053500B1 (fr) Procede de detection de fraude d'un systeme de reconnaissance d'iris
EP3582141A1 (fr) Procédé d'apprentissage de paramètres d'un réseau de neurones à convolution
Purnapatra et al. Presentation attack detection with advanced cnn models for noncontact-based fingerprint systems
Jingade et al. DOG-ADTCP: A new feature descriptor for protection of face identification system
EP3210166B1 (fr) Procede de comparaison d'images numeriques
FR2977056A1 (fr) Procede d'etablissement d'un score final de similarite entre des images
EP3567521B1 (fr) Procédé de reconnaissance biométrique à partir des iris
EP3929809A1 (fr) Procédé de détection d'au moins un trait biométrique visible sur une image d entrée au moyen d'un réseau de neurones à convolution
WO2011089517A1 (fr) Procede et dispositif de reconnaissance de visages en conditions de poses variables
Nirmal et al. Contactless fingerprint recognition and fingerprint spoof mitigation using CNN
EP3908968A1 (fr) Procédé de traitement d'images numériques
Pathak et al. Match score level fusion of iris and sclera descriptor for iris recognition
EP4099200A1 (fr) Procede et dispositif d'identification et/ou d'authentification biometrique
EP4136565A1 (fr) Procede de detection d'attaque par presentation pour des empreintes digitales
WO2023031305A1 (fr) Procédé de mise en relation d'une image candidate avec une image de référence

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 6

ST Notification of lapse

Effective date: 20180228