FR3110010A1 - Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu - Google Patents

Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu Download PDF

Info

Publication number
FR3110010A1
FR3110010A1 FR2004490A FR2004490A FR3110010A1 FR 3110010 A1 FR3110010 A1 FR 3110010A1 FR 2004490 A FR2004490 A FR 2004490A FR 2004490 A FR2004490 A FR 2004490A FR 3110010 A1 FR3110010 A1 FR 3110010A1
Authority
FR
France
Prior art keywords
image
individual
biometric
background
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2004490A
Other languages
English (en)
Inventor
Jean Beaudet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR2004490A priority Critical patent/FR3110010A1/fr
Publication of FR3110010A1 publication Critical patent/FR3110010A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

La présente invention concerne un procédé d’acquisition d’un trait biométrique d’un individu, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données (11) d’un terminal (1) des étapes suivantes : Obtention, depuis des premiers moyens d’acquisition optique (14a) du terminal (1), d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ; Génération, d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ; Affichage de ladite deuxième image sur une interface (13) dudit terminal (1) de sorte à éclairer l’individu avec ledit fond lumineux. Figure de l’abrégé : Fig. 1

Description

Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu
DOMAINE TECHNIQUE GENERAL
La présente invention concerne le domaine de l’authentification et l’identification biométrique, en particulier par reconnaissance de visage ou d’iris.
ETAT DE L’ART
On connait des terminaux de contrôle d’accès biométrique, en particulier basés sur de la reconnaissance optique : un utilisateur autorisé place un trait biométrique (son visage, son iris, etc.), devant le terminal, ce dernier est reconnu, et un accès par exemple est déverrouillé.
Aujourd’hui cette technologie est embarquée sur des terminaux mobiles personnels de type smartphone : au moyen d’une camera avant du terminal, le trait biométrique de l’utilisateur peut être reconnu, en particulier pour déverrouiller le terminal ou accéder à un service sensible (par exemple une application bancaire).
La difficulté qui se pose est l’acquisition en environnement sombre (la nuit, en intérieur, etc.). En effet, le terminal mobile étant un équipement nomade, il doit pouvoir être utilisé partout et pas nécessairement dans un environnement standardisé. Il est connu de « régler » la caméra pour adapter l’exposition en fonction de la luminosité observée, mais en environnement trop sombre la surexposition cause une image bruitée qui rend difficile la reconnaissance et/ou la détection de fraudes.
La solution la plus naturelle est d’éclairer le visage de l’utilisateur au moyen d’une source lumineuse. Cependant, si la plupart des smartphones ont un flash sur la face arrière, peu en ont sur la face avant, de sorte qu’il est nécessaire de trouver une méthode plus universelle.
Il a ainsi été proposé d’utiliser l’écran du terminal comme une source lumineuse, premièrement en affichant un écran entièrement blanc pour un temps court. Toutefois, cette solution est peu ergonomique, car elle coupe le retour vidéo, c’est-à-dire la possibilité pour l’utilisateur d’observer l’image acquise de sorte à bien positionner son visage. On peut éventuellement enchaîner des phases d’acquisition où l’écran est blanc et des phases de vérification où l’on affiche l’image acquise, mais cela reste peu pratique et même agressif pour les yeux.
Pour avoir un retour vidéo en continu tout en bénéficiant de l’éclairage de l’écran, il a alors été proposé d’afficher un « bandeau » ou un « pourtour » blanc, superposé au retour vidéo à la manière d’un cadre. Cependant, la luminosité apportée est limitée car la superficie de la zone blanche est faible, et en plus le retour vidéo est de petite taille ou rogné, ce qui empêche l’utilisateur de l’utiliser convenablement.
Il serait par conséquent souhaitable de disposer d’une nouvelle solution simple, fiable et efficace quelles que soient les conditions d’éclairement, d’acquisition d’un trait biométrique, en vue d’une authentification ou identification biométrique.
PRESENTATION DE L’INVENTION
Selon un premier aspect, la présente invention concerne un procédé d’acquisition d’un trait biométrique d’un individu, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données d’un terminal des étapes suivantes :
  1. Obtention, depuis des premiers moyens d’acquisition optique du terminal, d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
  2. Génération, d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
  3. Affichage de ladite deuxième image sur une interface dudit terminal de sorte à éclairer l’individu avec ledit fond lumineux.
Selon d’autres caractéristiques avantageuses et non limitatives :
Le procédé comprend une nouvelle occurrence de l’étape (a) pendant que la deuxième image est affichée sur l’interface.
La deuxième image correspond à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux, en particulier entièrement remplacé par ledit fond lumineux.
L’étape (b) comprend l’extraction préalable d’une région d’intérêt de la première image contenant le trait biométrique, la deuxième image étant générée à partir de la région d’intérêt extraite.
Ladite extraction d’une région d’intérêt de la première image contenant le trait biométrique comprend la détection du trait biométrique de l’individu dans la première image, en particulier par segmentation de la première image.
L’étape (b) comprend en outre l’adaptation de l’exposition de la première image par rapport au trait biométrique détecté avant l’extraction de la région d’intérêt.
Le procédé comprend en outre une étape (d) d’authentification ou identification dudit individu sur la base du trait biométrique détecté.
L’étape (d) comprend la comparaison du trait biométrique détecté avec des données biométriques de référence stockées sur des moyens de stockage de données.
L’étape (d) comprend la mise en œuvre d’un contrôle d’accès en fonction du résultat de ladite identification ou authentification biométrique.
Ledit fond lumineux est un fond uni clair, préférentiellement blanc.
Ledit trait biométrique de l’individu est choisi parmi un visage et un iris de l’individu.
Ladite première image est une image visible.
Selon un deuxième aspect, la présente invention concerne un terminal comprenant des moyens de traitement de données configurés pour implémenter :
  • L’obtention, depuis des premiers moyens d’acquisition optique du terminal, d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
  • La génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
  • L’affichage de ladite deuxième image sur une interface dudit terminal de sorte à éclairer l’individu avec ledit fond lumineux.
Selon un troisième et un quatrième aspect, l’invention propose un produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon le premier aspect d’acquisition d’un trait biométrique d’un individu ; et un moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon le premier aspect d’acquisition d’un trait biométrique d’un individu.
PRESENTATION DES FIGURES
D’autres caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description qui va suivre d’un mode de réalisation préférentiel. Cette description sera donnée en référence aux dessins annexés dans lesquels :
  • [Fig. 1]la figure 1 représente de façon générale un terminal pour la mise en œuvre du procédé d’acquisition d’un trait biométrique d’un individu selon l’invention ;
  • [Fig. 2]la figure 2 représente schématiquement les étapes d’un mode de réalisation du procédé d’acquisition d’un trait biométrique d’un individu selon l’invention ;
  • [Fig. 3a]la figure 3a représente un exemple de première image utilisée dans le procédé selon l’invention ;
  • [Fig. 3b]la figure 3b représente un exemple de deuxième image utilisée dans le procédé selon l’invention.
DESCRIPTION DETAILLEE
Architecture
En référence à la , est proposé un terminal 1 pour la mise en œuvre d’un procédé d’acquisition d’un trait biométrique d’un individu. De manière préférée ce procédé d’acquisition fait partie d’un procédé d’authentification ou d’identification dudit individu, c’est-à-dire visant à déterminer ou vérifier l’identité de l’individu se présentant devant le terminal 1, pour le cas échéant autoriser un accès à cet individu. Comme on le verra, il s’agit typiquement de biométrie du visage (reconnaissance faciale ou d’iris), dans laquelle l’utilisateur doit approcher son visage, mais également de biométrie d’empreinte (digitale ou palmaire) à distance dans laquelle l’utilisateur approche sa main.
Le terminal 1 est typiquement un terminal mobile personnel à un individu, comme par exemple un téléphone portable ou « smartphone », une tablette électronique, un ordinateur personnel, etc.
Dans la suite de la présente description on prendra l’exemple préféré d’un terminal de type smartphone, le présent procédé étant alors utilisé généralement pour autoriser un accès logiciel sur le terminal 1 (par exemple déverrouiller le terminal 1, accéder à des données personnelles ou une application, mettre en œuvre une transaction, etc.), mais on notera que le présent procédé reste utilisable dans de très nombreuses situations telles que l’authentification préalable d’un individu souhaitant embarquer dans un avion, l’ouverture d’un portail verrouillé, etc.
Le terminal 1 comprend des moyens de traitement de données 11, typiquement de type processeur, gérant le fonctionnement du terminal 1, et contrôlant ses divers composants, le plus souvent dans un boitier 10 protégeant ses divers composants.
De manière préférée, le terminal 1 comprend des premiers moyens d’acquisition optique 14a, typiquement disposés de sorte à observer un espace généralement situé « devant » le terminal 1 (i.e. sur la face avant) et acquérir des données, en particulier des images d’un trait biométrique tel que le visage ou l’iris d’un individu. Comme l’on verra, les premiers moyens d’acquisition optique 14a sont avantageusement disposés au voisinage d’une interface 13 du terminal 1 (le plus souvent de type écran tactile), de sorte à pouvoir observer le visage d’un individu prenant en main le terminal 1 et regardant l’interface 13. En effet, comme l’on verra le présent procédé met en œuvre un « retour vidéo » des données acquises via les premiers moyens d’acquisition optique 14a, de sorte que l’utilisateur doit pouvoir simultanément observer l’interface 13 et être observé par les premiers moyens d’acquisition optique 14a. Typiquement, dans le cas d’un smartphone, les premiers moyens d’acquisition optique 14a sont disposés juste au-dessus de ladite interface 13.
Comme l’on verra, l’interface 13 joue le rôle de moyens d’éclairage adaptés pour éclairer ledit espace en regard desdits premiers moyens d’acquisition optique 14a (c’est-à-dire qu’ils vont pouvoir éclairer les sujets observables par les moyens d’acquisition optique 14a, dans la mesure où l’utilisateur « regarde » vers l’interface 13 et donc tourne son visage vers cette interface 13). On comprend ainsi que la lumière émise par l’interface 13 est reçue et réémise par le sujet vers le terminal 1, ce qui permet que les moyens d’acquisition optique 14a puissent acquérir des données de qualité correcte et augmenter la fiabilité de l’éventuel traitement biométrique subséquent. En effet, un visage dans la pénombre sera par exemple plus difficile à reconnaître. Également, on constate que des techniques de « spoofing » (en français « usurpation » ou « mystification ») dans lesquels un individu essaye de tromper frauduleusement un terminal de contrôle d’accès au moyen d’accessoires tel qu’un masque ou une prothèse sont plus facilement repérables sous éclairage adéquat.
On note qu’il peut tout à fait y avoir des deuxièmes moyens d’acquisition optique 14b qui observeraient un autre espace (et qui ne sont pas impliqués dans le fonctionnement biométrique souhaité) : les terminaux mobiles de type smartphone ont généralement à la fois des caméras sur la face avant et sur la face arrière, et alors les deuxièmes moyens d’acquisition optique 14b sont typiquement ceux situés sur la face arrière, i.e. de manière opposée aux premiers moyens d’acquisition optique 14a.
On se focalisera dans la suite de la présente description sur l’espace situé « en regard » des moyens d’acquisition optique 14a, c’est-à-dire celui situé « en face » des moyens d’acquisition optique 14a, qui est donc observable et dans lequel on souhaite faire l’identification ou de l’authentification biométrique.
Les premiers moyens d’acquisition optique 14a sont typiquement des capteurs permettant l’acquisition d’une image « de radiation », c’est-à-dire une image classique dans laquelle chaque pixel reflète l’apparence réelle de la scène observée, i.e. où chaque pixel présente une valeur correspondant à la quantité de rayonnement électromagnétique reçu dans une partie du spectre électromagnétique donnée. Le plus souvent, ladite image de radiation est comme on le voit sur la une image visible (généralement une image couleur - type RGB - pour laquelle la valeur d’un pixel définit sa couleur, mais également une image en niveaux de gris voire en noir et blanc – pour laquelle la valeur d’un pixel définit sa luminosité), i.e. l’image telle que l’œil humain peut la voir (le spectre électromagnétique concerné est le spectre visible – bande de 380 à 780 nm), mais ce peut être alternativement une image IR (infrarouge – pour laquelle le spectre électromagnétique concerné est celui de longueur d’onde au-delà de 700 nm, en particulier de l’ordre de 700 à 2000 nm pour la bande « proche infrarouge », NIR), voire des images liées à d’autres parties du spectre.
On note que le présent procédé peut utiliser plusieurs images de radiation en parallèle, en particulier dans différentes parties de spectre électromagnétique, le cas échéant respectivement acquises via plusieurs premiers moyens d’acquisition optique 14a différents. Par exemple, on peut utiliser une image visible et une image IR. Dans la suite de la présente description, on prendra l’exemple d’une image visible.
Enfin, les moyens de traitement de données 11 sont souvent connectés à des moyens de stockage de données 12 stockant une base de données biométriques de référence, préférentiellement des images de visages (faces) ou d’iris, de sorte à permettre la comparaison d’un trait biométrique de l’individu apparaissant sur l’image de radiation avec les données biométriques de référence. Les moyens 12 peuvent être ceux d’un serveur distant auquel le terminal 1 est connecté, mais avantageusement il s’agit de moyens 12 locaux, i.e. inclus dans le terminal 1 (en d’autres termes le terminal 1 comprends les moyens de stockage 12), de sorte à éviter tout transfert de données biométriques sur le réseau et limiter des risques d’interception ou de fraude.
Procédé
En référence à la , le présent procédé, mis en œuvre par les moyens de traitement de données 11 du terminal 1, commence par une étape (a) d’obtention d’une image sur laquelle apparait un trait biométrique dudit individu, dite première image. Plus précisément, la première image est une image dudit individu représentant (au moins partiellement) ledit trait biométrique, sur un arrière-plan.
Généralement, cette étape comprend l’acquisition de données de la part de ces moyens 14a et l’obtention de la première image à partir des données acquises par les premiers moyens d’acquisition optique 14a.
Par arrière-plan de l’image, on entend un fond généralement « complexe » sur lequel se surimprime le trait biométrique, souvent l’aspect de l’endroit où se trouve l’individu : typiquement le visage de l’individu apparait « devant » cet arrière-plan. Cet arrière-plan peut être très sombre, notamment si l’individu est dans une petite pièce mal éclairée ou dehors alors que le soleil est couché. Par commodité, dans la présente description on définit comme étant l’arrière-plan « tout ce qui n’est pas le trait biométrique » et donc potentiellement y compris le corps de l’individu si le trait est son visage (voire même tout le reste du visage si le trait est un œil).
Le présent procédé se distingue en ce qu’il comprend une étape (b) de génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux. La représente un exemple deuxième image correspondant à la première image de la figure 3a.
Cette deuxième image peut alors être affichée (en lieu et place de la première image) sur l’interface 13 comme retour vidéo dans une étape (c), de sorte à éclairer l’individu avec ledit fond lumineux.
On comprend que la deuxième image représente tout le trait biométrique, et le représente de manière identique à la première image, c’est-à-dire ne vient modifier que l’arrière-plan, lequel ne comprend pas d’information utile pour une application biométrique et peut donc être altéré. Ainsi :
  • Le retour vidéo peut être mis en œuvre en permanence ;
  • La taille ou la surface du trait biométrique n’est pas diminuée, ce qui présente un confort maximal pour l’utilisateur lors du retour vidéo ;
  • On dispose d’une grande surface pouvant être utilisée comme source lumineuse pour une prochaine occurrence de l’étape (a) de sorte qu’on n’a pas de problème d’éclairement.
Plus précisément, une nouvelle occurrence de l’étape (a) est avantageusement mise en œuvre pendant que la deuxième image est affichée sur l’interface 13 de sorte que lors de l’acquisition d’une nouvelle première image l’individu soit éclairé par le fond lumineux de la deuxième image, i.e. les étapes (a) à (c) sont mises en œuvre de manière cyclique.
Ainsi, préférentiellement à l’étape (a) on obtient un premier flux de premières images avec notamment une acquisition de données à une fréquence prédéterminée, par exemple 15Hz, chaque première image est traitée à la volée de sorte à générer à l’étape (b) un deuxième flux de deuxièmes images, et afficher ce deuxième flux à l’étape (c) : cela permet d’avoir les étapes (a) et (c) mises en œuvre simultanément de sorte à avoir un éclairement constant de l’individu et des premières images « améliorées » et ainsi de bonne qualité. On comprend naturellement que l’amélioration de la première image impacte légèrement la deuxième image, et ainsi de suite la prochaine première image, mais en quelques images (et donc une fraction de seconde) on atteint un état stable.
Par « fond lumineux », on entend tout fond présentant une luminosité suffisante pour les besoins d’éclairement de l’individu, généralement un fond uni clair, préférentiellement blanc, mais on comprend qu’il peut s’agir par exemple du même arrière-plan mais avec une luminosité sensiblement rehaussée (de manière décorrélée du trait biométrique). Comme l’on verra, la qualité de lumière produite par le fond lumineux peut être adaptée dynamiquement, notamment soit en faisant varier sa couleur, soit en ajustant le taux de l’arrière-plan qui est remplacé par le fond lumineux (avantageusement tout l’arrière-plan), voire en jouant sur le zoom pour ajuster le taux de la première image qui est occupé par le trait biométrique.
L’idée de l’étape (b) est d’isoler le trait biométrique (ou du moins une « région d’intérêt » contenant le trait biométrique) de la première image et de l’utiliser comme base à la deuxième image, i.e. que la deuxième image corresponde à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux.
Par région d’intérêt on entend une zone spatiale sémantiquement plus intéressante et contenant le trait biométrique, typiquement tout le corps si le trait biométrique est le visage, ou tout le visage si le trait biométrique est l’iris.
Ici, le remplacement est préférentiellement « total », i.e. que ladite zone d’intérêt coïncide avec le trait biométrique, mais comme expliqué on comprend que l’on peut garder des zones qui font stricto sensu partie de l’arrière-plan, notamment le reste de la personne comme c’est le cas dans l’exemple de la figure 3b : si le trait biométrique est seulement le visage, le cou et le buste de l’individu font techniquement partie de l’arrière-plan, mais pour des questions esthétiques il peut être intéressant de ne pas représenter le visage flottant seul dans la deuxième image et donc de garder également le corps (qui dans cet exemple est la région d’intérêt). Par commodité, dans la suite de la présente description on prendra l’exemple dans lequel la région d’intérêt coïncide avec le trait biométrique, mais on pourra rester un peu moins spécifique et avoir une région d’intérêt allant un peu au-delà du seul trait biométrique (dans tous les cas la région d’intérêt doit contenir le trait biométrique).
L’étape (b) comprend ainsi avantageusement deux sous-parties, à savoir tout d’abord l’extraction du trait biométrique (ou du moins de la région d’intérêt) de la première image, puis la génération de la deuxième image à partir du trait biométrique extrait.
Pour ce faire, on commence avantageusement par la détection préalable du trait biométrique de l’individu dans la première image en vue de le localiser, et plus précisément la segmentation dite « sémantique » de la première image, c’est-à-dire la séparation du trait biométrique (ou du moins de la région d’intérêt) et de l’arrière-plan par analyse d’image. Plus précisément, la segmentation sémantique permet de « détourer » le trait biométrique/la région d’intérêt.
Comme expliqué il reste possible de séparer seulement une « région d’intérêt » contenant le trait biométrique du reste de l’image, par exemple toute la personne. Dans ce cas, la détection portera toujours sur le trait biométrique, mais alors la segmentation tiendra compte de la région d’intérêt. Plus précisément, la segmentation peut en pratique distinguer plusieurs zones de la première image, dont le trait biométrique et des parties de la région d’intérêt, il suffit alors de sélectionner les zones correspondantes pour reconstituer la région d’intérêt.
De manière préférée, la détection du trait biométrique et l’extraction de la région d’intérêt sont directement mise en œuvre en une seule action grâce à la segmentation, mais il reste tout à fait possible de détecter initialement le trait biométrique, puis dans un deuxième temps de déterminer la région d’intérêt associée à ce trait biométrique et l’extraire.
La détection du trait biométrique consiste en pratique en la génération d’une ou plusieurs « annotations » quelconques qui localisent dans la première image la zone qui contient ledit trait biométrique, par exemple un boite l’englobant, dite boite de détection, en anglais « box » (définie par sa taille et sa position). On comprend que la boite de détection est assez grossière et comprend le plus souvent des pixels faisant clairement partie de l’arrière-plan.
Dans le cas préféré où la détection est plus particulièrement une « segmentation », l’annotation finale générée est typiquement un « masque de segmentation » (ou carte de segmentation) de la première image, c’est-à-dire une image binaire de même taille que l’image initiale. Plus précisément, les pixels de la première image ayant un pixel correspondant « blanc » dans le masque de segmentation sont considérés comme des pixels du trait biométrique/de la région d’intérêt, et les pixels de la première image ayant un pixel correspondant « noir » dans le masque de segmentation sont considérés comme des pixels de l’arrière-plan.
Ensuite, l’application du masque sur la première image permet d’isoler le trait biométrique biométrique/la région d’intérêt qui y est représenté, de la même façon qu’un utilisateur l’entourerait à la main, et ainsi de l’extraire.
On suppose que l’utilisateur place son visage de manière adaptée en face des premiers moyens d’acquisition 14a (en particulier grâce au guidage offert par le retour vidéo) pour qu’il n’y ait qu’un trait biométrique détectable et/ou que l’algorithme de détection est apte à choisir un unique trait biométrique « candidat » comme celui de l’utilisateur du terminal 1, même si d’autres visage seraient visibles à l’arrière-plan (ces derniers seraient donc considérés comme faisant partie de l’arrière-plan).
De nombreuses techniques de détection/segmentation adaptées pour séparer le trait biométrique/la région d’intérêt de l’arrière-plan sont connues de l’homme du métier. On connait par exemple des réseaux de neurones à convolution adaptés, tels que U-Net, DeepLab, mask RCNN, YOLO, Inception, etc. qui peuvent être entraînés pour cette tâche. On pourra aussi se référer au document Li, H., Ngan, K. N., & Liu, Q. (2008). FaceSeg: automatic face segmentation for real-time video. IEEE Transactions on Multimedia, 11(1), 77-88.
Alternativement à la segmentation sémantique, on peut obtenir et utiliser une image de profondeur représentant également ledit individu représentant ledit trait biométrique, par exemple si les premiers moyens d’acquisition 14a présentent au moins deux caméras juxtaposées et consistent une « caméra 3D » permettant donc de faire de la stéréovision.
Par « image de profondeur » ou « carte de profondeur », on entend une image dont la valeur des pixels est la distance selon l’axe optique entre le centre optique du capteur et le point observé. Une image de profondeur est parfois représentée (afin d’être visuellement appréhendable), comme une image en niveaux de gris ou de couleur dont la luminance de chaque point est fonction de la valeur de distance (plus un point est près, plus il est clair) mais on comprendra qu’il s’agit d’une image artificielle par opposition à la première image qui est une image de radiation tel que définie ci-avant.
On comprendra que de nombreuses autres technologies de capteurs permettant l’obtention d’une image de profondeur sont connues (« temps de vol », sonar, lumière structurée, etc.), et que dans la plupart des cas, l’image de profondeur est en pratique reconstruite par les moyens de traitement 11 à partir de données brutes fournies par les premiers moyens d’acquisition optique 14a et qu’il faut traiter (on répète qu’une image de profondeur est un objet artificiel qu’un capteur ne peut pas facilement obtenir par une mesure directe).
Il est bien plus facile de détecter le trait biométrique/la région d’intérêt dans une image de profondeur que dans la première image car :
  • celle-ci n’est que peu affectée par l’exposition (l’image de profondeur ne comprend aucune information dépendant de la luminosité) ;
  • est très discriminante car elle permet de séparer sans difficulté les objets distinct et notamment ceux du premier plan par rapport à ceux du second plan (i.e. l’arrière-plan).
Pour cela, ledit trait biométrique/la région d’intérêt est avantageusement identifié comme l’ensemble des pixels de ladite image de profondeur associés à une valeur de profondeur comprise dans une gamme prédéterminée, avantageusement les pixels les plus proches. Il s’agit d’un simple seuillage de l’image de profondeur, permettant de filtrer les objets à la distance souhaitée du terminal 1, éventuellement couplé à un algorithme permettant d’agréger des pixels en objets ou blobs (pour éviter d’avoir plusieurs « fragments » du même trait biométrique).
De manière préférée, on prendra par exemple la gamme [0 ; 1 m] voire [0 ; 50 cm] dans le cas d’un terminal 1 mural, mais selon les cas d’application on pourra faire varier cette gamme. On peut alors extraire les pixels correspondants de la première image.
Dans un tel mode de réalisation, la détection du trait biométrique peut être mise en œuvre de manière indépendante de l’extraction de la région d’intérêt ; il est même d’ailleurs préféré de mettre en œuvre a posteriori un algorithme de détection tel que ceux présentés avant (par exemple à CNN) sur la région d’intérêt identifiée.
Enfin, quelle que soit la technique d’extraction du trait biométrique, on génère la deuxième image, cette dernière correspondant comme expliqué à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux. Pour cela, on « insère » par exemple la région d’intérêt extraite sur le fond lumineux.
Préférentiellement, la deuxième image correspond à la première image dans laquelle tout sauf la région d’intérêt a été remplacé par ledit fond lumineux.
Dans le cas où la région d’intérêt coïncide avec le trait biométrique, la deuxième image correspond à la première image dans laquelle l’arrière-plan a été entièrement remplacé par ledit fond lumineux.
On rappelle que la luminosité/couleur du fond lumineux ainsi que le niveau de zoom peuvent être contrôlés pour ajuster l’éclairement fourni par le retour lumineux.
A noter qu’avoir une région d’intérêt « proche » du trait biométrique, voir coïncidant totalement avec le trait biométrique présente un intérêt supplémentaire, à savoir limiter l’information exploitable par un fraudeur sur le retour vidéo.
Par exemple, un fraudeur utilisant un masque pour tenter de duper l’algorithme ne verra pas le bord de son masque du fait de la segmentation, et ne pourra pas estimer la qualité de sa fraude et tenter de l’améliorer. Par contre, le procédé travaille toujours sur la première image (et non la deuxième image) de sorte qu’il peut toujours mettre en œuvre des techniques d’anti-spoofing efficaces.
A ce titre, de manière préférée, l’étape (b) comprend en outre la vérification de l’authenticité du trait biométrique détecté, en utilisant des techniques connues.
En effet, le spoofing concerne principalement des masques plats ou semi-plats qui peuvent tromper les algorithmes de détection classique, mais qui laissent visible un « bord » suspect du masque.
Par ailleurs, de manière classique, l’étape (b) comprend préférentiellement l’adaptation préalable de l’exposition de la première image (avant qu’elle serve de base à la deuxième image) par rapport au trait biométrique détecté. Pour cela, comme expliqué on normalise l’exposition de toute l’image par rapport à celle de la zone considérée : ainsi, on est sûr que les pixels du trait biométrique sont exposés de manière optimale, le cas échéant au détriment du reste de la première image (i.e. l’arrière-plan), mais cela est sans importance puisqu’on va l’écraser lors de la génération de la deuxième image.
Cela est d’autant plus efficace en cas de mise en œuvre des étapes (a) à (c) de manière cyclique puisque l’exposition est ainsi progressivement optimisée de manière dynamique en même temps que la première image est améliorée.
Authentification/identification
Enfin, dans une étape (d), est avantageusement mise en œuvre l’authentification ou l’identification à proprement parler dudit individu sur la base du trait biométrique détecté (en particulier sur la première image le cas échéant améliorée par l’éclairage de la deuxième image, comme expliqué on comprend que la deuxième image ne sert avantageusement qu’au retour vidéo de l’étape (c) pour améliorer la première image et pas de base au traitement biométrique. De surcroit l’étape (b) comprend comme expliqué préférentiellement déjà la détection du trait biométrique de l’individu dans la première image de sorte que ledit trait est directement disponible. Alternativement, il reste cependant possible de faire une nouvelle acquisition et/ou une nouvelle détection indépendante).
Plus précisément, on considère ledit trait biométrique détecté comme une donnée biométrique candidate, et il est comparé avec une ou plusieurs données biométriques de référence de la base de données des moyens de stockage de données 12.
Il suffit alors de vérifier que cette donnée biométrique candidate coïncide avec la/une donnée biométrique de référence. De façon connue, la donnée biométrique candidate et la donnée biométrique de référence coïncident si leur distance selon une fonction de comparaison donnée est inférieure à un seuil prédéterminé.
Ainsi, la mise en œuvre de la comparaison comprend typiquement le calcul d’une distance entre les données, dont la définition varie en fonction de la nature des données biométriques considérées. Le calcul de la distance comprend le calcul d’un polynôme entre les composantes des données biométriques, et avantageusement le calcul d’un produit scalaire.
Par exemple, dans le cas où les données biométriques ont été obtenues à partir d’images d’iris, une distance classiquement utilisée pour comparer deux données est la distance de Hamming. Dans le cas où les données biométriques ont été obtenues à partir d’images du visage d’individus, il est courant d’utiliser la distance euclidienne.
Ce type de comparaison est connu de l’Homme du Métier et ne sera pas décrit plus en détails ci-avant.
L’individu est authentifié/identifié si la comparaison révèle un taux de similarité entre la donnée candidate et la/une donnée de référence excédant un certain seuil, dont la définition dépend de la distance calculée.
Terminal
Selon un deuxième aspect, la présente invention concerne le terminal 1 pour la mise en œuvre du procédé selon le premier aspect.
Le terminal 1 comprend des moyens de traitement de données 11, de type processeur, avantageusement des premiers moyens d’acquisition optique 14a (pour l’acquisition de la première), une interface 13, et le cas échéant des moyens de stockage de données 12 stockant une base de données biométriques de référence.
Les moyens de traitement de données 11 sont configurés pour implémenter :
  • L’obtention, depuis les premiers moyens d’acquisition optique 14a du terminal 1, d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
  • La génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
  • l’affichage de ladite deuxième image sur l’interface 13 dudit terminal 1 de sorte à éclairer l’individu avec ledit fond lumineux.
Selon un troisième et un quatrième aspects, l’invention concerne un produit programme d’ordinateur comprenant des instructions de code pour l’exécution (en particulier sur les moyens de traitement de données 11 du terminal 1) d’un procédé selon le premier aspect de l’invention d’acquisition d’un trait biométrique d’un individu, ainsi que des moyens de stockage lisibles par un équipement informatique (une mémoire 12 du terminal 2) sur lequel on trouve ce produit programme d’ordinateur.

Claims (15)

  1. Procédé d’acquisition d’un trait biométrique d’un individu, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données (11) d’un terminal (1) des étapes suivantes :
    1. Obtention, depuis des premiers moyens d’acquisition optique (14a) du terminal (1), d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
    2. Génération, d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
    3. Affichage de ladite deuxième image sur une interface (13) dudit terminal (1) de sorte à éclairer l’individu avec ledit fond lumineux.
  2. Procédé selon la revendication 1, comprenant une nouvelle occurrence de l’étape (a) pendant que la deuxième image est affichée sur l’interface (13).
  3. Procédé selon l’une des revendications 1 et 2, dans lequel la deuxième image correspond à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux, en particulier entièrement remplacé par ledit fond lumineux.
  4. Procédé selon l’une des revendications 1 à 3, dans lequel l’étape (b) comprend l’extraction préalable d’une région d’intérêt de la première image contenant le trait biométrique, la deuxième image étant générée à partir de la région d’intérêt extraite.
  5. Procédé selon la revendication 4, dans lequel ladite extraction d’une région d’intérêt de la première image contenant le trait biométrique comprend la détection du trait biométrique de l’individu dans la première image, en particulier par segmentation de la première image.
  6. Procédé selon la revendication 5, dans lequel l’étape (b) comprend en outre l’adaptation de l’exposition de la première image par rapport au trait biométrique détecté avant l’extraction de la région d’intérêt.
  7. Procédé selon l’une des revendications 5 et 6, comprenant en outre une étape (d) d’authentification ou identification dudit individu sur la base du trait biométrique détecté.
  8. Procédé selon la revendication 7, dans lequel l’étape (d) comprend la comparaison du trait biométrique détecté avec des données biométriques de référence stockées sur des moyens de stockage de données (12).
  9. Procédé selon l’une des revendications 7 et 8, dans lequel l’étape (d) comprend la mise en œuvre d’un contrôle d’accès en fonction du résultat de ladite identification ou authentification biométrique.
  10. Procédé selon l’une des revendications 1 à 9, dans lequel ledit fond lumineux est un fond uni clair, préférentiellement blanc.
  11. Procédé selon l’une des revendications 1 à 10, dans lequel ledit trait biométrique de l’individu est choisi parmi un visage et un iris de l’individu.
  12. Procédé selon l’une des revendications 1 à 11, dans lequel ladite première image est une image visible.
  13. Terminal (1) comprenant des moyens de traitement de données (11) configurés pour implémenter :
    • L’obtention, depuis des premiers moyens d’acquisition optique (14a) du terminal (1), d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
    • La génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
    • L’affichage de ladite deuxième image sur une interface (13) dudit terminal (1) de sorte à éclairer l’individu avec ledit fond lumineux.
  14. Produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 12 d’acquisition d’un trait biométrique d’un individu, lorsque ledit procédé est exécuté sur un ordinateur.
  15. Moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 12 d’acquisition d’un trait biométrique d’un individu.
FR2004490A 2020-05-06 2020-05-06 Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu Pending FR3110010A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2004490A FR3110010A1 (fr) 2020-05-06 2020-05-06 Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2004490A FR3110010A1 (fr) 2020-05-06 2020-05-06 Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu
FR2004490 2020-05-06

Publications (1)

Publication Number Publication Date
FR3110010A1 true FR3110010A1 (fr) 2021-11-12

Family

ID=72088256

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2004490A Pending FR3110010A1 (fr) 2020-05-06 2020-05-06 Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu

Country Status (1)

Country Link
FR (1) FR3110010A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050323A1 (en) * 2010-08-25 2012-03-01 International Business Machines Corporation Background replacement for videoconferencing
US20150334567A1 (en) * 2014-05-14 2015-11-19 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones
WO2016045922A1 (fr) * 2014-09-24 2016-03-31 Thomson Licensing Appareil d'amélioration de la lumière d'arrière-plan répondant à un signal vidéo de sortie de caméra local

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050323A1 (en) * 2010-08-25 2012-03-01 International Business Machines Corporation Background replacement for videoconferencing
US20150334567A1 (en) * 2014-05-14 2015-11-19 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones
WO2016045922A1 (fr) * 2014-09-24 2016-03-31 Thomson Licensing Appareil d'amélioration de la lumière d'arrière-plan répondant à un signal vidéo de sortie de caméra local

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AHUJA N ET AL: "Detecting faces in images: a survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 24, no. 1, 1 January 2002 (2002-01-01), pages 34 - 58, XP011094133, ISSN: 0162-8828, DOI: 10.1109/34.982883 *
DUSTIN T. VAN DER HAAR: "Facial Authentication in Video Conferencing", SOUTHERN AFRICA TELECOMMUNICATION NETWORKS AND APPLICATIONS CONFERENCE, 17 November 2009 (2009-11-17), XP055767435, Retrieved from the Internet <URL:http://home.intekom.com/satnac/proceedings/2009/papers/progress-oral/Paper%20117.pdf> [retrieved on 20210121] *
LI, H.NGAN, K. N.LIU, Q.: "FaceSeg: automatic face segmentation for real-time video", IEEE TRANSACTIONS ON MULTIMEDIA, vol. 11, no. 1, 2008, pages 77 - 88, XP011346572, DOI: 10.1109/TMM.2008.2008922
SMITH DANIEL F ET AL: "Face Recognition on Consumer Devices: Reflections on Replay Attacks", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, IEEE, PISCATAWAY, NJ, US, vol. 10, no. 4, 1 April 2015 (2015-04-01), pages 736 - 745, XP011575421, ISSN: 1556-6013, [retrieved on 20150312], DOI: 10.1109/TIFS.2015.2398819 *

Similar Documents

Publication Publication Date Title
EP2013816B1 (fr) Procede d&#39;identification d&#39;une personne par analyse de caracteristiques de ses cils
US10691939B2 (en) Systems and methods for performing iris identification and verification using mobile devices
EP2901370B1 (fr) Procédé de détection d&#39;un vrai visage
WO2007140988A1 (fr) Procédé d&#39;identification d&#39;une personne et dispositif d&#39;acquisition
EP2751739B1 (fr) Detection de fraude pour systeme de controle d&#39;acces de type biometrique
EP3901794A1 (fr) Procédé d&#39;authentification ou d&#39;identification d&#39;un individu
EP3866064A1 (fr) Procede d&#39;authentification ou d&#39;identification d&#39;un individu
FR3053500B1 (fr) Procede de detection de fraude d&#39;un systeme de reconnaissance d&#39;iris
FR3103938A1 (fr) Procédé de détection d’au moins un élément d’intérêt visible dans une image d’entrée au moyen d’un réseau de neurones à convolution
WO2007000504A1 (fr) Procede de reconnaissance biometrique d&#39;une main, systeme et dispositif associes
EP3264329B1 (fr) Procede et dispositif de detection de fraude par examen a deux focales distinctes lors d&#39;une reconnaissance automatique d&#39;un visage
FR3089661A1 (fr) Procédé de reconnaissance faciale
EP3073441B1 (fr) Procédé de correction d&#39;une image d&#39;au moins un objet présenté à distance devant un imageur et éclairé par un système d&#39;éclairage et système de prise de vues pour la mise en oeuvre dudit procédé
FR3110010A1 (fr) Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu
EP3567521B1 (fr) Procédé de reconnaissance biométrique à partir des iris
EP3929809A1 (fr) Procédé de détection d&#39;au moins un trait biométrique visible sur une image d entrée au moyen d&#39;un réseau de neurones à convolution
WO2020109122A1 (fr) Dispositif et procede d&#39;authentification d&#39;un individu
WO2016151071A1 (fr) Dispositif et procede pour l&#39;acquisition biometrique de l&#39;iris
FR3100070A1 (fr) Procédé de reconnaissance biométrique à contrôle de dérive et installation associée
WO2012163927A1 (fr) Systeme et methode pour l&#39;identification d&#39;individus a la volee
FR3122004A1 (fr) Systeme et procede de traitement de donnees personnelles
FR3077657A1 (fr) Dispositif et procede pour detecter des tentatives d&#39;usurpation d&#39;identite
FR2881546A1 (fr) Procede de determination d&#39;un axe de reference d&#39;un oeil
FR3013480A1 (fr) Systeme et procede de prise de vues integrant un systeme d&#39;eclairage de la scene a prendre
WO2008099110A2 (fr) Procede d&#39;obtention de coefficients biometriques et systeme associe

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20211112

RX Complete rejection

Effective date: 20220203