FR3122275A1 - Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee - Google Patents

Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee Download PDF

Info

Publication number
FR3122275A1
FR3122275A1 FR2104320A FR2104320A FR3122275A1 FR 3122275 A1 FR3122275 A1 FR 3122275A1 FR 2104320 A FR2104320 A FR 2104320A FR 2104320 A FR2104320 A FR 2104320A FR 3122275 A1 FR3122275 A1 FR 3122275A1
Authority
FR
France
Prior art keywords
fingerprint
image
neural network
inter
deformed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2104320A
Other languages
English (en)
Other versions
FR3122275B1 (fr
Inventor
Hervé Jarosz
Cédric Thuillier
Laurent KAZDAGHLI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR2104320A priority Critical patent/FR3122275B1/fr
Publication of FR3122275A1 publication Critical patent/FR3122275A1/fr
Application granted granted Critical
Publication of FR3122275B1 publication Critical patent/FR3122275B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

Un procédé de reconstruction d’une image d’une empreinte digitale à partir d’une image déformée de l’empreinte digitale acquise par un capteur sans contact est décrit. Une carte de fréquences inter-crête est déterminée (S40) pour l’empreinte digitale à partir de ladite image déformée. L’image déformée est ensuite segmentée (S42) pour obtenir un masque de ladite empreinte. A partir du masque, un contour de l’empreinte digitale et des informations d’orientation de ladite empreinte digitale sont obtenus (S42). Des paramètres de déformation de l’image déformée sont alors déterminés (S44) au moyen d’un réseau de neurones convolutionnel avec en entrée du réseau la carte de fréquences inter-crête dudit contour et les informations d’orientation. Finalement, une image de l’empreinte digitale est reconstruite (S46) en appliquant lesdits paramètres de déformation déterminés sur ladite image déformée. Fig. 5

Description

PROCEDE DE RECONSTRUCTION D’UNE IMAGE D’UNE EMPREINTE DIGITALE A PARTIR D’UNE IMAGE DEFORMEE
Au moins un mode de réalisation concerne un procédé de reconstruction d’une image d’une empreinte digitale à partir d’une image, dite image déformée, de ladite empreinte digitale acquise par un capteur sans contact. Au moins un autre mode de réalisation concerne un dispositif de reconstruction mettant en œuvre ledit procédé de reconstruction.
ETAT DE LA TECHNIQUE ANTERIEURE
Pour sécuriser leurs locaux, les entreprises ont besoin de solutions de contrôle d'accès complètes, fiables et qui ne ralentissent pas les usagers.
A cet effet, il est connu des capteurs d’empreintes configurés pour capturer sans contact les empreintes de quatre doigts en 3D. Un tel capteur d’empreinte permet ainsi de fluidifier la circulation dans les lieux de fort trafic puisque les utilisateurs ne marquent pas de temps d’arrêt lors du contrôle biométrique. En effet, un seul passage de la main, sans contact, au-dessus du capteur suffit pour acquérir une image d’empreinte digitale et la forme 3D des doigts.
La forme 3D des doigts est utilisée pour corriger les déformations géométriques induites sur l’image d’empreinte digitale du fait de la forme des doigts et plus particulièrement de la position de la surface de la peau du doigt relativement au plan du capteur de la caméra utilisée pour capturer l’image d’empreinte digitale. Ainsi, lorsque la surface de la peau du doigt est parallèle au plan du capteur de la caméra, l’espacement inter-crête obtenu à partir de l’image d’empreinte digitale est représentatif du véritable espacement inter-crête du doigt. En revanche, si cette surface a un angle d’inclinaison avec le plan du capteur de la caméra, l’espacement inter-crête est inférieur au véritable espacement inter-crête du doigt.
Afin de déterminer la forme 3D des doigts, il est connu de projeter un motif de franges (« fringe pattern » en anglais) sur les doigts, ledit motif de franges étant contenu dans une mire 3D. L’analyse de la déformation du motif de franges dans l’image d’empreinte permet d’extraire la forme 3D des doigts. Cette forme 3D est ensuite utilisée pour reconstruire une image d’empreinte digitale sans déformation, i.e. une image dans laquelle les déformations induites par la forme des doigts sont corrigées.
Toutefois, un tel procédé d’analyse de la déformation du motif de franges dans l’image d’empreinte et de reconstruction d’une image d’empreinte digitale sans déformation est coûteux à mettre en œuvre du fait de l’utilisation d’une mire 3D contenant ce motif de franges.
Il est souhaitable de pallier ces différents inconvénients de l’état de la technique. Il est notamment souhaitable de proposer un procédé de reconstruction d’une image d’empreinte digitale qui soit moins coûteux à mettre en œuvre.
Selon un mode de réalisation, un procédé de reconstruction d’une image d’empreinte digitale à partir d’une image déformée de ladite empreinte digitale acquise par un capteur sans contact est décrit. Le procédé comprend :
- déterminer une carte de fréquences inter-crête pour ladite empreinte digitale à partir de ladite image déformée ;
- segmenter ladite image déformée pour obtenir un masque de ladite empreinte ;
- déterminer un contour de l’empreinte digitale et des informations d’orientation de ladite empreinte digitale à partir dudit masque ;
- déterminer des paramètres de déformation de ladite image déformée au moyen d’un réseau de neurones convolutionnel avec en entrée dudit réseau ladite carte de fréquences inter-crête, ledit contour et lesdites informations d’orientation ; et
- reconstruire une image de l’empreinte digitale en appliquant lesdits paramètres de déformation déterminés sur ladite image déformée.
Le procédé de reconstruction est peu coûteux à mettre en œuvre. En effet, aucune mire 3D n’est nécessaire pour mettre en œuvre ledit procédé.
Dans un mode de réalisation particulier, ledit réseau de neurones convolutionnel utilise une fonction de coût qui compare une image reconstruite à partir de paramètres de déformation déterminés au moyen dudit réseau de neurones convolutionnel et une image non déformée de ladite empreinte digitale acquise par un capteur avec contact.
Dans un mode de réalisation particulier, comparer ladite image reconstruite et ladite image non déformée comprend :
– extraire un premier ensemble de minuties de ladite image reconstruite et un second ensemble de minuties de ladite image non déformée ; et
– comparer ledit premier ensemble de minuties audit second ensemble de minuties.
Dans un mode de réalisation particulier, ladite carte de fréquences inter-crête pour ladite empreinte digitale est déterminée au moyen d’un autre réseau de neurones.
Dans un mode de réalisation particulier, les informations d’orientation comprennent un axe longitudinal de ladite empreinte et un centre de ladite empreinte.
Un dispositif de reconstruction d’une image d’une empreinte digitale à partir d’une image déformée de ladite empreinte digitale acquise par un capteur sans contact est décrit. Le dispositif de reconstruction comprend au moins un processeur configuré pour :
- déterminer une carte de fréquences inter-crête pour ladite empreinte digitale à partir de ladite image déformée ;
- segmenter ladite image déformée pour obtenir un masque de ladite empreinte ;
- déterminer un contour de l’empreinte digitale et des informations d’orientation de ladite empreinte digitale à partir dudit masque ;
- déterminer des paramètres de déformation de ladite image déformée au moyen d’un réseau de neurones convolutionnel avec en entrée dudit réseau ladite carte de fréquences inter-crête, ledit contour et lesdites informations d’orientation ;
- reconstruire une image corrigée de l’empreinte digitale en appliquant lesdits paramètres de déformation déterminés sur ladite image déformée.
Dans un mode de réalisation particulier, ledit réseau de neurones convolutionnel utilise une fonction de coût qui compare une image reconstruite à partir de paramètres de déformation déterminés au moyen dudit réseau de neurones convolutionnel et une image non déformée de ladite empreinte digitale acquise par un capteur avec contact.
Un système d’identification est décrit qui comprend :
  • un capteur d’empreinte digitale sans contact ;
  • un dispositif de reconstruction selon l’un des modes de réalisation précédents configuré pour reconstruire une image à partir d’une image déformée de ladite empreinte digitale acquise par ledit capteur d’empreinte digitale sans contact ; et
  • un module d’identification configuré pour identifier un individu à partir de l’image reconstruite par ledit dispositif de reconstruction et d’images de référence stockées dans une base de données.
Un produit programme d’ordinateur est décrit qui comprend des instructions pour mettre en œuvre, par un processeur, le procédé selon l’un des modes de réalisation précédents, lorsque ledit programme est exécuté par ledit processeur.
Un support de stockage caractérisé est décrit qui stocke un programme d’ordinateur comprenant des instructions pour mettre en œuvre, par un processeur, le procédé selon l’un des modes de réalisation précédents, lorsque ledit programme est exécuté par ledit processeur.
Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante d'un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels :
illustre un système d’identification dans lequel la présente invention peut être implémentée ;
illustre schématiquement un procédé de reconstruction d’une image d’empreinte digitale selon un mode particulier de réalisation ;
illustre un procédé d’apprentissage des paramètres du réseau de neurones à partir d’images déformées stockées dans une base de données ;
illustre une architecture de réseau de neurones convolutif selon un mode particulier de réalisation ;
illustre schématiquement un procédé de reconstruction d’une image d’empreinte digitale selon un autre mode particulier de réalisation ; et,
illustre schématiquement un exemple d’architecture matérielle d’un dispositif de reconstruction d’une image d’empreinte digitale selon un mode particulier de réalisation.
EXPOSE DETAILLE DE MODES DE REALISATION
La illustre un système d’identification 1 dans lequel la présente invention peut être implémentée.
Le système d’identification 1 comprend un dispositif 10 de capture sans contact d’empreintes digitales. Les images capturées par ce dispositif sont donc déformées du fait de la forme des doigts.
Le système d’identification 1 comprend un dispositif de reconstruction 12 d’une image d’empreinte digitale relié audit dispositif 10 de capture sans contact. Ce dispositif de reconstruction 12 est configuré pour corriger les déformations dans l’image capturée par le dispositif 10 de capture sans contact.
Le système d’identification 1 comprend en outre un module d’identification 16 relié au dispositif de reconstruction 12. Ce module d’identification 16 est configuré pour identifier un individu à partir de son empreinte digitale.
A cet effet, le module d’identification 16 est configuré pour comparer l’image de l’empreinte digitale reconstruite avec un ensemble d’images de référence contenues dans une base de données 14. La comparaison permet de déterminer si l’image de l’empreinte digitale reconstruite appartient ou non à une personne référencée dans la base de données. Si tel est le cas, alors l’accès, e.g. à un bâtiment, est autorisé 18 sinon l’accès est refusé 20.
Dans un mode particulier de réalisation, le dispositif de reconstruction 12 et le module d’identification 16 sont intégrés au dispositif 10 de capture sans contact d’empreintes digitales. La base de données peut également être intégrée au dispositif 10 de capture.
La illustre schématiquement un procédé de reconstruction d’une image d’empreinte digitale selon un mode particulier de réalisation.
Lors d’une étape S10, une image déformée d’une empreinte digitale est introduite dans un réseau de neurones de type CNN (acronyme anglais de « Convolutional Neural Network ») entraîné, i.e. dont les poids sont connus, tel que le réseau de neurones décrit en référence à la . L’image déformée de l’empreinte digitale est obtenue par exemple par un capteur sans contact.
Les paramètres du réseau de neurones ont, par exemple, été appris sur une base de données d’empreintes digitales pour lesquelles les données de sortie du réseau de neurones, en l’occurrence les paramètres de déformation, sont connues. Le réseau de neurones aura été entraîné à partir d’images d’empreintes digitales capturées de la même manière que l’image introduite dans le réseau de neurones.
L’application sur l’image déformée d’une empreinte digitale du réseau de neurones CNN entraîné permet d’obtenir les paramètres de déformation.
Lors d’une étape S12, les paramètres de déformation obtenus en sortie du réseau de neurones sont utilisés pour reconstruire une image corrigée de l’empreinte digitale. Dans cette image corrigée, les espaces inter-crête sont représentatifs du véritable espacement inter-crête du doigt. Une telle image corrigée de l’empreinte digitale permet d’améliorer une authentification (respectivement une identification) d’un individu. Les paramètres de déformation sont par exemple les paramètres caractérisant une transformée prédéfinie comme par exemple une transformée homographique.
La illustre un procédé d’apprentissage des paramètres du réseau de neurones à partir d’images déformées stockées dans une base de données.
Lors d’une étape S20, une image déformée d’une empreinte digitale est introduite dans le réseau de neurones de type CNN. Un exemple d’architecture de réseau de neurones est illustré par la . En sortie du réseau de neurones, des paramètres de déformation associés à l’image d’entrée sont obtenus. Les images déformées sont obtenues par exemple par un capteur sans contact.
Lors d’une étape S22, les paramètres de déformation obtenus à l’étape S20 sont utilisés pour reconstruire une version corrigée de l’image déformée introduite dans le réseau de neurones.
Lors d’une étape S24, l’image reconstruite ainsi obtenue est comparée à une image non déformée de la même empreinte digitale. Cette version non déformée de l’empreinte digitale est par exemple obtenue à partir d’un capteur d’empreinte digitale avec contact. Un tel capteur permet d’obtenir une image de l’empreinte digitale sans déformation. La comparaison entre les deux images comprend l’appariement de points particuliers, e.g. des minuties. Une minutie est un point qui se situe sur le changement de continuité des lignes papillaires. Une fonction de coût est utilisée pour l’écart entre deux ensembles de points, i.e. l’ensemble de points particuliers associé à l’image de l’empreinte digitale sans déformation et l’ensemble de points particuliers associé à l’image reconstruite. Si les deux ensembles de points se superposent, alors la valeur de la fonction de coût est faible, sinon elle est élevée. La fonction de coût (« Loss function » en anglais), est une fonction qui évalue l’écart entre les prédictions réalisées par le réseau de neurones et les valeurs réelles des observations utilisées pendant l’apprentissage.
Ainsi, connaissant les images d’entrées du réseau de neurones et les sorties attendues, en l’occurrence les images non déformées obtenues avec un capteur avec contact, il est possible de déterminer (i.e. apprendre) les paramètres du réseau de neurones. Cet apprentissage est effectué classiquement en utilisant la fonction de coût. Il s’agit de déterminer les paramètres du réseau de neurones qui permettent d’obtenir les sorties désirées, i.e. les paramètres de déformation et donc les images reconstruites associées, en minimisant la fonction de coût. Plus le résultat de cette fonction est minimisé, plus le réseau de neurones est performant. Sa minimisation, c’est-à-dire réduire au minimum l’écart entre la valeur prédite et la valeur réelle pour une observation donnée, se fait en ajustant les différents poids du réseau de neurones.
Durant l’apprentissage, le réseau de neurones reçoit donc en entrée des images d’empreintes digitales déformées, et obtient en sortie des paramètres de déformation. L’apprentissage consistera donc à lui donner autant d’images d’empreintes digitales que possible afin que le réseau puisse être le plus robuste possible.
La illustre une architecture de réseau de neurones convolutif selon un mode particulier de réalisation. Une architecture de réseau de neurones convolutif est formée par un empilement de couches de traitement parmi lesquelles :
- au moins une couche de convolution, CONV1 et CONV2, ;
- au moins une couche de correction, ReLU ;
- au moins une couche de mise en commun (« pooling » en anglais) POOL qui permet de compresser l'information en réduisant la taille de l'image intermédiaire (souvent par sous-échantillonnage) ;
- au moins une couche de combinaison linéaire FC, dite « fully connected ».
La couche de convolution comprend une convolution ou plusieurs convolutions successives par un noyau de convolution. En sortie de chaque convolution de données d’entrée par le noyau de convolution, on obtient un ensemble de caractéristiques représentatives desdites données d’entrée. Les caractéristiques obtenues ne sont pas prédéfinies mais apprises par le réseau de neurones lors d’une phase d'entraînement. Pendant la phase d’entraînement, le noyau de convolution évolue de manière à « apprendre » à extraire des caractéristiques pertinentes pour un problème donné.
La couche de correction opère une fonction mathématique dite d’activation aux données obtenues en sortie de chaque convolution. La correction ReLU (acronyme anglais de « Rectified Linear Unit ») définie par f(x)=max(0,x) est par exemple utilisée. Cette fonction, appelée aussi « fonction d'activation non saturante », augmente les propriétés non linéaires de la fonction de décision et de l'ensemble du réseau sans affecter les champs récepteurs de la couche de convolution. D’autres fonctions (e.g. la fonction tangente hyperbolique) peuvent être appliquées.
La couche de mise en commun est une couche intermédiaire entre deux convolutions. Chaque phase de mise en commun a pour but de réduire la taille des données qu’elle reçoit en entrée, tout en préservant les caractéristiques importantes de ces données d’entrée. La phase de mise en commun permet de réduire le nombre de calculs dans le réseau de neurones convolutif. En particulier, les types de mise en commun les plus utilisés sont le Max et la moyenne (« average pooling » en anglais), où les valeurs maximales et moyennes d’une surface sont prises en compte, respectivement.
La couche de combinaison linéaire constitue toujours la dernière phase d’un réseau de neurones, qu’il soit convolutif ou non. Cette phase reçoit un vecteur en entrée, dit vecteur d’entrée, et produit un nouveau vecteur en sortie, dit vecteur de sortie. Pour cela, elle applique une combinaison linéaire aux composantes du vecteur d’entrée. La phase de combinaison linéaire permet de classifier les données d’entrée du réseau de neurones suivant un nombre de classes prédéfinies N. Dans le cas présent, chaque classe correspond à un jeu de paramètres de déformation. Elle renvoie donc un vecteur de sortie de tailleN. Chaque composante du vecteur de sortie, i.e. pour chaque classe, est associée à un jeu de paramètres de déformation et est représentative d’une probabilité que l’image d’empreinte digitale en entrée du réseau de neurones ait pour paramètres de déformation les paramètres de déformation associés à la classe en question.
La forme la plus commune d'une architecture de réseau de neurones convolutif empile quelques couches Conv-ReLU suivies de couches Pool, et répète ce schéma jusqu'à ce que l'entrée soit réduite dans un espace d'une taille suffisamment petite.
Chaque composante du vecteur d’entrée peut contribuer différemment au vecteur de sortie. Pour ce faire, lors de l’application de la combinaison linéaire, un poids différent est appliqué à chaque composante en fonction de l’importance qu’on souhaite donner à la caractéristique que cette composante représente. La couche de combinaison linéaire est généralement suivie d’une couche de transformation du vecteur de sortie en distribution de probabilité. Le réseau de neurones convolutif apprend les valeurs des poids de la phase de combinaison linéaire de la même manière qu'il apprend à faire évoluer le noyau de convolution. On dit que les poids de la phase de combinaison linéaire et les caractéristiques du noyau de convolution constituent les paramètres du réseau de neurones convolutif.
Les paramètres du réseau de neurones utilisé à l’étape S10 ont été obtenus par un apprentissage à partir d’images d’empreintes digitales déformées dont les paramètres de déformation sont connus. Ainsi, connaissant les images d’entrées du réseau de neurones et les sorties attendues, il est possible de déterminer (i.e. apprendre) les paramètres du réseau de neurones. Cet apprentissage est effectué classiquement en utilisant une fonction de coût. Il s’agit de déterminer les paramètres du réseau de neurones qui permettent d’obtenir les sorties désirées, i.e. les paramètres de déformation connus, en minimisant la fonction de coût.. L’apprentissage consistera donc à lui donner autant d’images d’empreintes digitales déformées que possible afin que le réseau puisse être le plus robuste possible.
Il est classique de vérifier qu’un réseau de neurones a été correctement entraîné. Pour ce faire, des images d’empreinte digitales, dites images de validation, sont utilisées qui n’ont pas servi à l’entraînement du réseau de neurones mais dont les paramètres de déformation sont également connus. Ainsi, on vérifie que le réseau de neurones fournit des paramètres de déformation corrects pour ces images de validation. En général, si un taux d’erreur est trop élevé, le réseau de neurones est à nouveau entraîné.
La illustre schématiquement un procédé de reconstruction d’une image d’empreinte digitale selon un autre mode particulier de réalisation.
Lors d’une étape S40, une carte de fréquences inter-crête est déterminée à partir d’une image déformée d’une empreinte digitale. L’image déformée de l’empreinte digitale est par exemple obtenue par un capteur sans contact. Dans le cas particulier où la carte de fréquences inter-crête comprend des fréquences homogènes, une fraude (e.g. utilisation d’un faux doigt) est détectée. En effet, dans une carte de fréquences inter-crête obtenue à partir d’un doigt réel les fréquences inter-crête ne sont pas homogènes du fait de la forme du doigt.
Un banc de filtres couvrant les différentes fréquences inter-crête possibles peut être utilisé. La fréquence inter-crête est ensuite déterminée pour chaque pixel de l’image déformée comme étant celle associée au filtre pour lequel l’énergie est la plus élevée.
La méthode décrite dans le document de Hong et al intitulé «Fingerprint image enhancement : algorithm and performance evaluation» publié en 1998 dans IEEE Transactions on Pattern Analysis and Machine Intelligence ( Volume: 20, Issue: 8, Aug 1998) est un autre exemple d’un procédé de détermination d’une carte de fréquences inter-crête.
D’autres méthodes peuvent être utilisées pour déterminer la carte de fréquences inter-crête. Par exemple, l’image déformée d’une empreinte digitale est introduite dans un premier réseau de neurones CNN1 de type CNN (acronyme anglais de « Convolutional Neural Network ») entraîné, i.e. dont les poids sont connus. L’application sur l’image déformée du réseau de neurones CNN1 entraîné permet d’obtenir la carte de fréquences inter-crête pour cette image. Les paramètres du réseau de neurones ont, par exemple, été appris sur une base de données d’empreintes digitales déformées pour lesquelles les données de sortie du réseau de neurones, en l’occurrence la carte de fréquences inter-crête, sont connues. Le réseau de neurones aura été entraîné à partir d’images d’empreinte digitale capturées de la même manière que l’image introduite dans le réseau de neurones.
Lors d’une étape S42, le contour de l’empreinte digitale et des informations d’orientation qui comprennent un axe longitudinal et un centre sont déterminés. A cet effet, l’image d’empreinte digitale est segmentée afin de séparer l’empreinte de l’arrière-plan dans l’image. La méthode de segmentation décrite dans le document de Chen et al. intitulé «Segmentation of Fingerprint Images Using Linear Classifier» publié en 2004 dans EURASIP Journal on Applied Signal Processing 2004 peut être utilisée pour segmenter l’empreinte digitale. Toutefois, d’autres méthodes de segmentation peuvent être utilisées. La segmentation de l’empreinte digitale permet d’obtenir un masque, e.g. un masque binaire, qui indique pour chaque pixel ou bloc de pixels de l’image s’il appartient ou non à l’empreinte digitale. A partir du masque de l’empreinte, le contour, l’axe longitudinal de l’empreinte digitale représentatif de son orientation ainsi qu’un centre sont obtenus. Un doigt ayant une forme de tube, l’axe longitudinal représentatif de l’orientation du doigt peut être obtenu par une analyse en composantes principales. A cet effet, le procédé décrit dans la section III-B du document de Nguyen et al intitulé «Automatic 3D seed location and orientation in CTimages for prostate brachytherapy» peut être utilisé.
La portion de l’axe longitudinal située dans l’empreinte digitale définit un segment de droite. Le centre est situé au milieu dudit segment.
Lors d’une étape S44, la carte de fréquences inter-crête, les informations d’orientation et le contour de l’empreinte sont introduits en entrée d’un second réseau de neurones CNN2 de type CNN entraîné, i.e. dont les poids sont connus. En effet, il existe un lien entre la valeur des fréquences inter-crête et l’angle entre la surface du doigt et la surface du capteur d’empreinte. En utilisant ce lien, il est possible de déterminer les déformations. Les paramètres du réseau de neurones ont, par exemple, été appris sur une base de données d’empreintes digitales pour lesquelles les données de sortie du réseau de neurones, en l’occurrence les paramètres de déformations, sont connues. Les paramètres de déformation sont par exemples les paramètres d’une transformation homographique. Dans une variante, les paramètres de déformations sont définis par une carte dans l’espace de projection qui contient les coordonnées des pixels de l’image à projeter. Dans ce cas, pour chaque pixel de l’image de sortie, on cherche à apprendre la position exacte de ce point dans l’image de départ.
Comme dans l’exemple décrit en référence à la , lors de l’apprentissage des paramètres du second réseau de neurones CNN2, une fonction de coût peut être utilisée. Par exemple, la même fonction de coût que celle utilisée à l’étape S24.
Lors d’une étape S46, les paramètres de déformation obtenus en sortie du réseau de neurones sont utilisés pour reconstruire une image corrigée de l’empreinte digitale. Cette étape est identique à l’étape S12 de la .
La illustre schématiquement un exemple d’architecture matérielle d’un dispositif 140 de reconstruction d’une image d’empreinte digitale selon un mode particulier de réalisation. Selon l’exemple d’architecture matérielle représenté à la , le dispositif 140 comprend alors, reliés par un bus de communication 1400 : un processeur ou CPU (« Central Processing Unit » en anglais) 1401 ; une mémoire vive RAM (« Random Access Memory » en anglais) 1402 ; une mémoire morte ROM (« Read Only Memory » en anglais) 1403 ; une unité de stockage 1404 telle qu’un disque dur ou telle qu’un lecteur de support de stockage, e.g. un lecteur de cartes SD (« Secure Digital » en anglais) ; au moins une interface de communication 1405 permettant au dispositif 140 d’envoyer ou de recevoir des informations.
Le processeur 1401 est capable d’exécuter des instructions chargées dans la RAM 1402 à partir de la ROM 1403, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le dispositif 140 est mis sous tension, le processeur 1401 est capable de lire de la RAM 1402 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 1401, de tout ou partie des procédés décrits en relation avec les Figs. 2 à 5.
Les procédés décrits en relation avec les Figs. 2 à 5 peuvent être implémentés sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais) ou un microcontrôleur, ou être implémentés sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gate Array » en anglais) ou un ASIC (« Application-Specific Integrated Circuit » en anglais). En général, le dispositif 140 comprend de la circuiterie électronique configurée pour mettre en œuvre les procédés décrits en relation avec les Figs. 2 à 5.

Claims (10)

  1. Un procédé de reconstruction d’une image d’une empreinte digitale à partir d’une image déformée de ladite empreinte digitale acquise par un capteur sans contact comprenant :
    - déterminer (S40) une carte de fréquences inter-crête pour ladite empreinte digitale à partir de ladite image déformée ;
    - segmenter (S42) ladite image déformée pour obtenir un masque de ladite empreinte ;
    - déterminer (S42) un contour de l’empreinte digitale et des informations d’orientation de ladite empreinte digitale à partir dudit masque ;
    - déterminer (S44) des paramètres de déformation de ladite image déformée au moyen d’un réseau de neurones convolutionnel avec en entrée dudit réseau ladite carte de fréquences inter-crête, ledit contour et lesdites informations d’orientation ; et
    - reconstruire (S46) une image de l’empreinte digitale en appliquant lesdits paramètres de déformation déterminés sur ladite image déformée.
  2. Le procédé selon la revendication 1, dans lequel ledit réseau de neurones convolutionnel utilise une fonction de coût qui compare une image reconstruite à partir de paramètres de déformation déterminés au moyen dudit réseau de neurones convolutionnel et une image non déformée de ladite empreinte digitale acquise par un capteur avec contact.
  3. Le procédé selon la revendication 2, dans lequel comparer ladite image reconstruite et ladite image non déformée comprend :
    – extraire un premier ensemble de minuties de ladite image reconstruite et un second ensemble de minuties de ladite image non déformée ; et
    – comparer ledit premier ensemble de minuties audit second ensemble de minuties.
  4. Le procédé selon l’une des revendications 1 à 3, dans lequel ladite carte de fréquences inter-crête pour ladite empreinte digitale est déterminée au moyen d’un autre réseau de neurones.
  5. Le procédé selon l’une des revendications 1 à 4, dans lequel lesdites informations d’orientation comprennent un axe longitudinal de ladite empreinte et un centre de ladite empreinte.
  6. Un dispositif de reconstruction d’une image d’une empreinte digitale à partir d’une image déformée de ladite empreinte digitale acquise par un capteur sans contact comprenant au moins un processeur configuré pour :
    - déterminer (S40) une carte de fréquences inter-crête pour ladite empreinte digitale à partir de ladite image déformée ;
    - segmenter (S42) ladite image déformée pour obtenir un masque de ladite empreinte ;
    - déterminer (S42) un contour de l’empreinte digitale et des informations d’orientation de ladite empreinte digitale à partir dudit masque ;
    - déterminer (S44) des paramètres de déformation de ladite image déformée au moyen d’un réseau de neurones convolutionnel avec en entrée dudit réseau ladite carte de fréquences inter-crête, ledit contour et lesdites informations d’orientation ; et
    - reconstruire (S46) une image corrigée de l’empreinte digitale en appliquant lesdits paramètres de déformation déterminés sur ladite image déformée.
  7. Le dispositif selon la revendication 6, dans lequel ledit réseau de neurones convolutionnel utilise une fonction de coût qui compare une image reconstruite à partir de paramètres de déformation déterminés au moyen dudit réseau de neurones convolutionnel et une image non déformée de ladite empreinte digitale acquise par un capteur avec contact.
  8. Un système d’identification comprenant :
    • un capteur (10) d’empreinte digitale sans contact ;
    • un dispositif de reconstruction (12) selon l’une des revendications 6 à 7 configuré pour reconstruire une image à partir d’une image déformée de ladite empreinte digitale acquise par ledit capteur d’empreinte digitale sans contact ; et
    • un module d’identification (16) configuré pour identifier un individu à partir de l’image reconstruite par ledit dispositif de reconstruction et d’images de référence stockées dans une base de données.
  9. Un produit programme d’ordinateur caractérisé en ce qu’il comprend des instructions pour mettre en œuvre, par un processeur, le procédé selon l’une quelconque des revendications 1 à 5, lorsque ledit programme est exécuté par ledit processeur.
  10. Un support de stockage caractérisé en ce qu’il stocke un programme d’ordinateur comprenant des instructions pour mettre en œuvre, par un processeur, le procédé selon l’une quelconque des revendications 1 à 5, lorsque ledit programme est exécuté par ledit processeur.
FR2104320A 2021-04-26 2021-04-26 Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee Active FR3122275B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2104320A FR3122275B1 (fr) 2021-04-26 2021-04-26 Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2104320A FR3122275B1 (fr) 2021-04-26 2021-04-26 Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee
FR2104320 2021-04-26

Publications (2)

Publication Number Publication Date
FR3122275A1 true FR3122275A1 (fr) 2022-10-28
FR3122275B1 FR3122275B1 (fr) 2023-06-02

Family

ID=76159608

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2104320A Active FR3122275B1 (fr) 2021-04-26 2021-04-26 Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee

Country Status (1)

Country Link
FR (1) FR3122275B1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020247494A1 (fr) * 2019-06-03 2020-12-10 West Virginia University Appariement croisé d'empreintes digitales sans contact à des empreintes digitales basées sur un contact existantes

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020247494A1 (fr) * 2019-06-03 2020-12-10 West Virginia University Appariement croisé d'empreintes digitales sans contact à des empreintes digitales basées sur un contact existantes

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHEN ET AL.: "Segmentation of Fingerprint Images Using Linear Classifier", EURASIP JOURNAL ON APPLIED SIGNAL PROCESSING 2004, 2004
GALBALLY JAVIER ET AL: "3D-FLARE: A Touchless Full-3D Fingerprint Recognition System Based on Laser Sensing", IEEE ACCESS, IEEE, USA, vol. 8, 5 August 2020 (2020-08-05), pages 145513 - 145534, XP011804747, DOI: 10.1109/ACCESS.2020.3014796 *
HONG ET AL.: "Fingerprint image en-hancement: algorithm and performance évaluation", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 20, no. 8, August 1998 (1998-08-01)
NGUYEN ET AL., AUTOMATIC 3D SEED LOCATION AND ORIENTATION IN CTIMAGES FOR PROSTATE BRACHYTHERAPY
PRIESNITZ JANNIS ET AL: "An overview of touchless 2D fingerprint recognition", SPRINGER OPEN. EURASIP JOURNAL ON IMAGE AND VIDEO PROCESSING, vol. 2021, no. 1, 8, 24 February 2021 (2021-02-24), pages 8, XP055868836, Retrieved from the Internet <URL:https://jivp-eurasipjournals.springeropen.com/articles/10.1186/s13640-021-00548-4> DOI: 10.1186/s13640-021-00548-4 *

Also Published As

Publication number Publication date
FR3122275B1 (fr) 2023-06-02

Similar Documents

Publication Publication Date Title
US10789465B2 (en) Feature extraction and matching for biometric authentication
Pandya et al. Fingerprint classification using a deep convolutional neural network
EP3640843B1 (fr) Procédé d&#39;extraction de caractéristiques d&#39;une empreinte digitale représentée par une image d&#39;entrée
EP3620970B1 (fr) Procédé d&#39;extraction de caractéristiques d&#39;une empreinte digitale représentée par une image d&#39;entrée
FR3088467A1 (fr) Procede de classification d&#39;une image d&#39;entree representative d&#39;un trait biometrique au moyen d&#39;un reseau de neurones a convolution
FR3098960A1 (fr) Procédé d’extraction d’un vecteur caractéristique à partir d’une image d’entrée représentative d’un iris au moyen d’un réseau de neurones entrainable de bout-en-bout
Liu et al. An improved 3-step contactless fingerprint image enhancement approach for minutiae detection
Appati et al. Implementation of a Transform‐Minutiae Fusion‐Based Model for Fingerprint Recognition
Oliveira et al. Cross-domain deep face matching for real banking security systems
CN113378609B (zh) 代理商代签名的识别方法及装置
EP2652674B1 (fr) Procede de comparaison d&#39;images d&#39;iris par selection intelligente de zones texturees
Patel et al. Performance improvement in preprocessing phase of fingerprint recognition
EP4016381A1 (fr) Procédé d&#39;extraction d&#39;une signature d&#39;une empreinte digitale et dispositif mettant en oeuvre ledit procédé
FR3122275A1 (fr) Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee
Ivanov et al. Authentication of area fingerprint scanners
Bouhamed et al. Two no-reference image quality assessment methods based on possibilistic choquet integral and entropy: Application to automatic fingerprint identification systems
WO2007077175A1 (fr) Procede de classification d&#39;images par reseaux neuroniques et classifieur d&#39;images prealablement appris, dispositif et programme d&#39;ordinateur correspondants
Ghafoor et al. Robust palmprint identification using efficient enhancement and two‐stage matching technique
FR3112008A1 (fr) Procédé de détection d’au moins un trait biométrique visible sur une image d’entrée au moyen d’un réseau de neurones à convolution
US12014569B2 (en) Synthetic human fingerprints
EP4273815B1 (fr) Procédé de génération d&#39;une image de paume à partir d&#39;images de paume partielles
FR3135804A1 (fr) Procédé et dispositif d’identification biométrique
Gundgurti et al. An Effective Finger-Print Validation and Identification Using A-KAZE and SURF Algorithm.
WO2021209412A1 (fr) Procede de detection d&#39;attaque par presentation pour des empreintes digitales
Kumar et al. Digital Signature Verification using Support Vector Machine

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20221028

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4