FR2975519A1 - Procede de recherche de contours parametres pour la comparaison d'iris - Google Patents

Procede de recherche de contours parametres pour la comparaison d'iris Download PDF

Info

Publication number
FR2975519A1
FR2975519A1 FR1101526A FR1101526A FR2975519A1 FR 2975519 A1 FR2975519 A1 FR 2975519A1 FR 1101526 A FR1101526 A FR 1101526A FR 1101526 A FR1101526 A FR 1101526A FR 2975519 A1 FR2975519 A1 FR 2975519A1
Authority
FR
France
Prior art keywords
contours
contour
iris
energy
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1101526A
Other languages
English (en)
Other versions
FR2975519B1 (fr
Inventor
Thierry Lefevre
Nadege Lemperiere
Sonia Garcia
Bernadette Dorizzi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IN IDT SAS
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1101526A priority Critical patent/FR2975519B1/fr
Priority to KR1020137033541A priority patent/KR101967007B1/ko
Priority to PCT/EP2012/058835 priority patent/WO2012156333A1/fr
Priority to EP12721811.3A priority patent/EP2710513A1/fr
Priority to SG2013086053A priority patent/SG195076A1/en
Priority to US14/118,874 priority patent/US9183439B2/en
Publication of FR2975519A1 publication Critical patent/FR2975519A1/fr
Application granted granted Critical
Publication of FR2975519B1 publication Critical patent/FR2975519B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

L'invention a pour objet un procédé détection de contours pour la comparaison d'iris. Il comprend une étape de sélection (301, 401, 402) de N contours candidats de forme circulaire (403, 404, 405, 406) par application d'une technique de recherche de cercle sur une image de bords d'un iris (300). Il comprend aussi une étape d'optimisation (302, 504, 505, 506, 507) de la forme et de la position des N contours candidats, les contours candidats optimisés étant déterminés en utilisant des modèles paramétriques, un jeu de paramètres étant déterminé par contour candidat en minimisant une quantité d'énergie E(C). Le procédé comprend en outre une étape de sélection (303, 604) du meilleur contour candidat optimisé (605).

Description

PROCEDE DE RECHERCHE DE CONTOURS PARAMETRÉS POUR LA COMPARAISON D'IRIS L'invention concerne un procédé de recherche de contours paramétrés pour la comparaison d'iris et s'applique notamment au domaine de la biométrie et plus particulièrement de la comparaison d'iris. Les techniques de biométrie ont pour objectifs l'identification d'êtres vivants. Ces techniques peuvent être utilisées dans le cadre d'applications requérant un certain niveau de sécurité, comme par exemple le contrôle d'accès à des sites sensibles. Pour cela, une analyse morphologique appliquées aux individus est mise en oeuvre dans le but d'identifier les caractéristiques physiques leurs étant propres. Cette analyse s'appuie par exemple sur l'iris ou les empreintes digitales. Pour ce qui est de l'analyse de l'iris, un exemple de méthode d'analyse existante est la méthode dite de Daugman, décrite dans le brevet US5291560. Cette méthode permet la comparaison entre plusieurs échantillons numériques représentatifs d'iris et permet de déterminer ensuite Si ces échantillons correspondent à un même individu. Pour cela, une première étape a pour objectif de segmenter et de normaliser les iris puis une étape vise à en extraire un code binaire pour le comparer à une référence. L'extraction du code binaire est réalisée en appliquant une démodulation de phase autour de points d'application pour transformer la texture de l'iris en un code binaire. Lors de la segmentation mise en oeuvre pour les méthodes d'analyse, les contours de l'iris sont habituellement considérés comme circulaires. Ainsi, des cercles délimitant les contours de l'iris sont recherchés. Cette recherche de contours est un traitement critique du processus de reconnaissance car une erreur de quelques pixels sur l'estimation du centre ou du rayon des cercles fait nettement diminuer les performances du système et dégrade la fiabilité de la reconnaissance. Deux méthodes sont habituellement utilisées pour trouver ces cercles. Dans le cadre de la méthode de Daugman, un opérateur intégro-35 différentiel de détection de cercles est utilisé. Cet opérateur dépend de trois paramètres (x~, yc,r) correspondant aux coordonnées du centre du cercle et à son rayon, et est évalué sur toute l'image numérique de l'oeil pour une plage importante de rayons. Suite à l'application de l'opérateur à l'image, deux jeux de trois paramètres (xc, y,,r) sont retenus, ces deux jeux correspondant respectivement aux contours intérieur et extérieur de l'iris.
Le principal inconvénient de cette méthode est que l'opérateur intégro-différentiel doit être calculé sur une portion importante de l'image et sur une grille discrète limitant la précision que l'on peut atteindre pour la description du contour. De plus, cet opérateur est sensible aux minima locaux, lesdits minima étant introduits par exemple par les artefacts tels que des portions de paupière. Une deuxième méthode pour trouver les cercles délimitant l'iris est la méthode de Wildes. Dans un premier temps, un filtre est appliqué à l'image numérique de l'oeil pour mettre en oeuvre une détection de bords. Pour cela, un filtre de Canny peut être utilisé. Une transformée de Hough circulaire est ensuite appliquée à l'image résultant de la détection de bords pour trouver les cercles à partir des bords détectés. Le principal inconvénient de cette méthode est qu'elle dépend fortement de la méthode de détection de bords utilisée. De plus, la transformée de Hough circulaire est une opération très couteuse en temps de calcul.
Ces deux méthodes de détection de contours ont également été étendues pour des types de contours plus complexes que les cercles pour pouvoir prendre en compte par exemple les contours de forme elliptiques. Cependant dans le cas des ellipses l'opérateur de Daugman et la transformée de Hough elliptique augmentent de manière significative la complexité de calcul. Ainsi, la méthode des moindres carrés est habituellement utilisée dans la pratique car celle-ci est moins coûteuse en puissance de calcul, même si celle-ci est moins robuste.
Un but de l'invention est notamment de pallier les inconvénients 30 précités. A cet effet l'invention a pour objet un procédé de détection de contours pour la comparaison d'iris II comprend une étape de sélection de N contours candidats de forme circulaire par application d'une technique de recherche de cercle sur une image de bords d'un iris . II comprend aussi une 35 étape d'optimisation de la forme et de la position des N contours candidats, les contours candidats optimisés étant déterminés en utilisant des modèles paramétriques, un jeu de paramètres étant déterminé par contour candidat en minimisant une quantité d'énergie E(C). Il comprend en outre une étape de sélection du meilleur contour candidat optimisé.
Selon un aspect de l'invention, la technique de recherche de cercle utilisée pour la sélection de N contours candidats de forme circulaire est une transformée de Hough circulaire. Alternativement, la technique de recherche de cercle utilisée pour la sélection de N contours candidats de forme circulaire peut être la méthode RANSAC, acronyme venant de l'expression anglo-saxonne « RANdom SAmple Consensus ». La quantité d'énergie E(C) est minimisée en utilisant par exemple la méthode de descente de gradient. Selon un aspect de l'invention, la quantité d'énergie E(C) associée à un contour candidat C est égale à la somme de l'énergie de bord Eedge(C) et de l'énergie de région Eregion(C) dudit contour. L'énergie de bords est déterminée en utilisant par exemple l'expression suivante : zj'[I(Î c_ Eedge(C) = p (B))]-ned9 0 dans laquelle : ne représente le vecteur unitaire normal sortant au point de paramètre angulaire B ; '[ ] représente la fonction gradient ; Xp(e) représente un vecteur colonne dont les éléments sont les coordonnées x(9), y(9) d'un point de l'image ; I(Xp(e)) représente l'intensité de l'image au point associé au vecteur Xp(6) L'énergie de région Eregion(C) est déterminée en utilisant, par 30 exemple, l'expression suivante : Eregion(C) = -'log Pin(I(X))dX - 'log Pout(I(X))dX Rin Rout dans laquelle : R;,, représente la région de l'image numérique de l'ceil intérieure au contour ; Rouf représente la région de l'image numérique de l'oeil extérieure au contour F;,,() et Pouf() correspondent aux probabilités pour un pixel d'intensité I(X) de l'image de se trouver à l'intérieur ou à l'extérieur du contour.
Le modèle paramétrique est par exemple un modèle de cercle, le jeu de paramètres associé à ce modèle paramétrique comprenant alors 3 10 paramètres. De manière alternative, le modèle paramétrique est un modèle d'ellipse, le jeu de paramètres associé à ce modèle paramétrique comprenant alors 5 paramètres. Le meilleur contour parmi les N contours candidats optimisés est, 15 par exemple, celui pour lequel l'énergieE(C) a la valeur la plus faible. L'invention a aussi pour objet un procédé de détection des contours intérieurs et extérieurs de l'iris d'un oeil. Pour cela, le procédé décrit précédemment est appliqué une première fois pour la détection du contour intérieur et une seconde fois pour la détection du contour extérieur. 20 L'invention a notamment comme avantage de permettre l'utilisation de la transformée de Hough avec une faible résolution ce qui diminue la complexité des calculs. De plus, la mise en oeuvre d'une optimisation locale limite l'impact de la détection de bords puisque l'on 25 travaille directement sur l'image.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description qui suit donnée à titre illustratif et non limitatif, faite en regard des dessins annexés parmi lesquels : la figure 1 montre un oeil ainsi que la zone habituellement utilisée pour la comparaison d'iris ; la figure 2 présente un diagramme illustrant le fonctionnement de la méthode Daugman de comparaison d'iris ; 30 la figure 3 illustre de schématiquement les étapes du procédé selon l'invention ; la figure 4 illustre l'étape de sélection de N contours candidats de forme circulaire ; 5 la figure 5 illustre l'étape d'optimisation locale ; la figure 6 illustre l'étape de sélection du meilleur contour du après optimisation locale.
La figure 1 montre un oeil ainsi que la zone habituellement utilisée pour la comparaison d'iris. Sur l'oeil 100 donné en exemple, on distingue l'iris 101 et la pupille 102. Une zone définie par la surface entre deux contours 103, 104 comprenant la partie visible de l'iris permet de segmenter l'iris, c'est-à-dire de l'isoler du blanc de l'oeil 105 et de la pupille 102.
La figure 2 présente un diagramme illustrant le fonctionnement de la méthode Daugman de comparaison d'iris. Cette méthode a pour objectif de déterminer si deux images d'iris appartiennent à la même personne. Ainsi, une image d'iris de test 201 est comparée à une image d'iris de référence 200. Une première étape a pour but de segmenter 202 les iris de ces deux images, c'est-à-dire d'isoler chaque iris du blanc de l'oeil et de la pupille. L'étape de segmentation 202 permet de distinguer dans l'image les pixels appartenant à l'iris ce qui permet de générer un masque de segmentation. Ce masque peut être utilisé pour trouver les bords de l'iris sur l'image numérique de l'oeil et il est ensuite possible de chercher la description paramétrique des contours intérieurs et extérieurs de l'iris en vu d'effectuer la normalisation. Les images de référence et de test après segmentation 203, 204 sont ensuite normalisées 205. L'étape de normalisation 205 consiste à dérouler l'iris de façon à obtenir une bande qui contient la texture de l'iris et dont la forme est indépendante la dilatation de la pupille. Une étape d'encodage 208 permet d'obtenir un code de référence 209 pour l'image de référence et un code de test 210 pour l'image de test. Ces codes sont ensuite comparés en calculant, par exemple, leur distance de Hamming 211. Le résultat de cette comparaison est appelé score de similarité 212 et permet de décider si l'iris de test correspond à l'iris de référence, la correspondance étant établie si le score de similarité dépasse une valeur prédéterminée.
La figure 3 illustre de schématiquement les étapes du procédé selon l'invention. Ce procédé permet de déterminer de manière précise, rapide et peu complexe les contours intérieurs et extérieurs de l'iris par la mise en oeuvre d'une optimisation de modèle paramétré, c'est-à-dire une optimisation à partir d'une courbe générée par un jeu de paramètres. Cette détection de contours d'iris peut ainsi être mise en oeuvre en deux temps, un premier temps pour la détection du contour intérieur, c'est-à-dire la séparation entre pupille et iris et un second temps pour la détection du contour extérieur, c'est-à-dire la séparation entre iris et blanc de l'oeil. Ce traitement s'applique après l'obtention d'un masque de segmentation identifiant la région de l'iris et permettant d'obtenir une première estimation des contours intérieur et extérieur. Ce masque de segmentation est obtenu par les méthodes classiques de segmentation utilisées en reconnaissance d'iris. Ainsi, le procédé selon l'invention correspond à un traitement intermédiaire entre la segmentation et la normalisation de l'iris numérisé.
La première étape 301 du procédé consiste à déterminer un ensemble de N contours candidats. Pour cela, une image de bords de l'iris 300 est utilisée. Une transformée de Hough circulaire 301 est par exemple appliquée à cette image afin de trouver les paramètres représentatifs des N contours candidats de forme circulaire.
Une deuxième étape 302 a pour objectif d'optimiser localement la forme et la position des contours candidats. Suite à cette optimisation, une troisième étape 303 sélectionne le cercle à retenir en tant que contours intérieur ou extérieur.
La figure 4 illustre l'étape de sélection de N contours candidats de forme circulaire. Pour cela, une transformée de Hough circulaire 401 peut être appliquée au masque de segmentation 400. Les N meilleurs cercles 403, 404, 405, 406 au sens de cette transformée, c'est-à-dire les cercles de poids plus important sont ensuite sélectionnés et mémorisés. De manière alternative à la transformée de Hough, une autre technique de recherche de cercle, technique dite de « circle fitting » en anglais, peut être utilisée, comme par exemple la méthode RANSAC, acronyme venant de l'expression anglo-saxonne « RANdom SAmple Consensus ». Dans l'exemple de la figure, quatre cercles sont sélectionnés.
La figure 5 illustre l'étape d'optimisation locale du procédé selon l'invention. Une optimisation locale 504, 505, 506, 507 est effectuée sur chacun des N cercles 500, 501, 502, 503 retenus suite à l'application de la transformée de Hough circulaire.
L'optimisation locale des contours sélectionnés consiste à faire évoluer les contours candidats de façon à ce qu'ils minimisent une quantité d'énergie E(C) définie le long de ces contours, lesdits contours étant définis par des modèles paramétriques. Afin de minimiser l'énergie E(C) , la méthode classique de descente en gradient peut être utilisée pour un modèle paramétrique donné. Ainsi, un jeu de paramètres associé à un modèle de paramètres minimisant l'énergie E(C) sera alors déterminé pour chaque contour candidat. A titre d'exemples, un jeu de trois paramètres (xc, ye,r) sera déterminé si un modèle paramétrique de cercle est utilisé et un jeu de cinq paramètres 20 (xe,ye,a,b,O) sera déterminé si un modèle paramétrique d'ellipse est utilisé. Dans le cas du cercle, le modèle paramétrique est par exemple le suivant : x(8) = xc + r cos(e) y(0) = + r sin(0) 25 dans lequel : x(9), y(9) représentent les coordonnées des points composants le cercle pour les angles B ; xe, ye représentent les coordonnées du centre du cercle ; 30 r représente le rayon du cercle. Pour ce qui est des ellipses, le modèle paramétrique suivant peut être utilisé : (1) x(0) = xe + a cos(B) cos(0) -b sin(0) sin(0) y(0) = ye + a cos(B) sin(0) + b sin(0) cos(0) dans lequel : x(B), y(B) représentent les coordonnées des points composants les ellipses 5 pour l'angle Be [0,2,c] ; xe, ye représentent les coordonnées du centre de l'ellipse ; a,b représentent les paramètres de grand axe et du petit axe de l'ellipse ; 0 représente le paramètre de rotation. 10 A titre d'exemple, l'énergie E(C) peut être déterminée en combinant deux types d'énergie associés aux contours actifs. Le premier type est l'énergie de bord Eedge(C) et le second type est une énergie de région Eregion(C) . Ainsi, la quantité d'énergie E(C) à minimiser peut être déterminée en utilisant l'expression suivante : 15 E(C) = Eedge(C) + Eregion(C) (3) L'énergie de bords va permettre de privilégier les zones à forts gradients. En d'autres termes, la contribution de l'énergie de bords Eedge(C) à 20 E(C) va permettre de guider les contours candidats vers les zones de forts gradients. L'énergie de bords peut être exprimée en utilisant l'expression suivante : Dr Eedge(C) = iII(Xp(0))].nedO (4) 0 25 dans laquelle : ne représente le vecteur unitaire normal sortant au point de paramètre angulaire B. ô[ ] représente la fonction gradient ; Xp(B) représente un vecteur colonne dont les éléments sont les 30 coordonnées x(B), y(B) d'un point de l'image. I(Xp(B)) représente l'intensité de l'image au point associé au vecteur Xp(B) . (2) L'énergie de bords Eedge(C) peut être déterminée simplement à partir des paramètres du contour. Le calcul de l'énergie de région Eregion(C) va permettre d'adapter le contour en maximisant les disparités entre les régions intérieures et extérieures au contour. En d'autres termes, la contribution de l'énergie de bords Eregion(C) à E(C) va contribuer à guider le contour vers l'extérieur si l'on est à l'intérieur de l'iris vers l'intérieur si l'on est à l'extérieur de l'iris. On parle alors habituellement de méthode de compétition de région.
L'énergie Eregion(C) peut être déterminée en utilisant l'expression suivante :
Eregion(C) = - jlog Prn(I(X))dX - f log Pout(I(X))dX (5) Rin Roui dans laquelle : Rin représente la région de l'image numérique de l'oeil intérieure au contour ; Rouf représente la région de l'image numérique de l'oeil extérieure au contour Pin() et Pout() correspondent aux probabilités pour un pixel d'intensité I(X) de l'image de se trouver à l'intérieur ou à l'extérieur du contour. Ces termes 20 peuvent être estimés au préalable et/ou mis à jours au cours de la descente en gradient. Les détails pour dériver l'énergie de région Eregion(C) peuvent être trouvés dans la littérature, notamment dans l'article de S. C. Zhu et A. Yuille intitulé Region Competition : Unifying Snakes, Region Growing, and 25 Bayes/MDL for Multiband Image Segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1996. Avantageusement, l'optimisation locale fait que l'on n'a pas à utiliser de grille de pas fixé et qu'une bonne résolution est obtenue. De plus, le fait d'utiliser plusieurs contours candidats circulaires en entrée de 30 l'optimisation locale permet de se prémunir des minima locaux qui sont le principal inconvénient des méthodes variationnelles employées habituellement.
La figure 6 illustre une étape de sélection du meilleur contour du après optimisation locale. De par les optimisations locales décrites précédemment et conduites sur les N contours candidats sélectionnés, les contours ont été déplacés et transformés pour s'adapter aux contours réellement présents dans l'image. Il reste ensuite à identifier 604 quel est le meilleur contour parmi les N contours candidats optimisés 600, 601, 602, 603. Plusieurs méthodes de sélection peuvent être mises en oeuvre. Une première possibilité est de prendre le contour qui a la valeur optimale d'énergieE(C). ~o Une alternative est d'appliquer l'opérateur de Daugman pour chacun de ces contours et de sélectionner le meilleur au sens de cet opérateur.

Claims (11)

  1. REVENDICATIONS1- Procédé de détection de contours pour la comparaison d'iris caractérisé en ce qu'il comprend : une étape de sélection (301, 401, 402) de N contours candidats de forme circulaire (403, 404, 405, 406) par application d'une technique de recherche de cercle sur une image de bords d'un iris (300), une étape d'optimisation (302, 504, 505, 506, 507) de la forme et de la position des N contours candidats, les contours candidats optimisés étant déterminés en utilisant des modèles paramétriques, un jeu de paramètres étant déterminé par contour candidat en minimisant une quantité d'énergie E(C) , une étape de sélection (303, 604) du meilleur contour candidat optimisé (605).
  2. 2- Procédé de détection de contours selon la revendication 1 dans lequel la technique de recherche de cercle utilisée pour la sélection (301) de 20 N contours candidats de forme circulaire est une transformée de Hough circulaire (401).
  3. 3- Procédé de détection de contours selon la revendication 1 dans lequel dans lequel la technique de recherche de cercle utilisée pour la 25 sélection de N contours candidats de forme circulaire (301) est la méthode RANSAC.
  4. 4- Procédé de détection de contours selon l'une quelconque des revendications précédentes dans lequel la quantité d'énergie E(C) est 30 minimisée en utilisant la méthode de descente de gradient.
  5. 5- Procédé de détection de contours selon l'une quelconque des revendications précédentes dans lequel la quantité d'énergie E(C) associée à un contour candidat C est égale à la somme de l'énergie 35 de bord Eedge(C) et de l'énergie de région Eregion(C) dudit contour. 10 15
  6. 6- Procédé de détection de contours selon la revendication 5 dans lequel l'énergie de bords est déterminée en utilisant l'expression suivante : 2,t Eedge(C)= fÔb(Xp(9))]-nede 0 dans laquelle : ne représente le vecteur unitaire normal sortant au point de paramètre angulaire 6 ; '[ ] représente la fonction gradient ; 1 o X p (0) représente un vecteur colonne dont les éléments sont les coordonnées x(0),y(0) d'un point de l'image ; I(Xp(e)) représente l'intensité de l'image au point associé au vecteur Xp(e) . 15
  7. 7- Procédé de détection de contours selon l'une des revendications 5 ou 6 dans lequel l'énergie de région Eregion(C) est déterminée en utilisant l'expression suivante : Eregion(C) = - f log Pin(I(X))dX - f log Pont(I(X))dX Rin Roui 20 dans laquelle : Rin représente la région de l'image numérique de l'ceil intérieure au contour ; Rouf représente la région de l'image numérique de l'oeil extérieure au 25 contour ; ;n() et Pont() correspondent aux probabilités pour un pixel d'intensité I(X) de l'image de se trouver à l'intérieur ou à l'extérieur du contour.
  8. 8- Procédé de détection de contours selon la revendication 6 dans lequel 30 le modèle paramétrique est un modèle de cercle, le jeu de paramètres associé à ce modèle paramétrique comprenant alors 3 paramètres.
  9. 9- Procédé de détection de contours selon la revendication 6 dans lequel le modèle paramétrique est un modèle d'ellipse, le jeu de paramètres associé à ce modèle paramétrique comprenant alors 5 paramètres.
  10. 10- Procédé de détection de contours selon l'une quelconque des revendications précédentes dans lequel le meilleur contour (604) parmi les N contours candidats optimisés (600, 601, 602, 603) est celui pour lequel l'énergie E(C) a la valeur la plus faible.
  11. 11- Procédé de détection des contours intérieurs et extérieurs de l'iris d'un oeil caractérisé en ce que le procédé selon l'une quelconque des revendications précédentes est appliqué une première fois pour la détection du contour intérieur et une seconde fois pour la détection du contour extérieur.15
FR1101526A 2011-05-19 2011-05-19 Procede de recherche de contours parametres pour la comparaison d'iris Active FR2975519B1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR1101526A FR2975519B1 (fr) 2011-05-19 2011-05-19 Procede de recherche de contours parametres pour la comparaison d'iris
KR1020137033541A KR101967007B1 (ko) 2011-05-19 2012-05-11 홍채들을 비교하기 위해 파라미터화된 컨투어들을 검색하는 방법
PCT/EP2012/058835 WO2012156333A1 (fr) 2011-05-19 2012-05-11 Procédé de recherche de contours paramétrés pour la comparaison d'iris
EP12721811.3A EP2710513A1 (fr) 2011-05-19 2012-05-11 Procédé de recherche de contours paramétrés pour la comparaison d'iris
SG2013086053A SG195076A1 (en) 2011-05-19 2012-05-11 Method of searching for parameterized contours for comparing irises
US14/118,874 US9183439B2 (en) 2011-05-19 2012-05-11 Method of searching for parameterized contours for comparing irises

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1101526A FR2975519B1 (fr) 2011-05-19 2011-05-19 Procede de recherche de contours parametres pour la comparaison d'iris

Publications (2)

Publication Number Publication Date
FR2975519A1 true FR2975519A1 (fr) 2012-11-23
FR2975519B1 FR2975519B1 (fr) 2013-07-05

Family

ID=46124326

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1101526A Active FR2975519B1 (fr) 2011-05-19 2011-05-19 Procede de recherche de contours parametres pour la comparaison d'iris

Country Status (6)

Country Link
US (1) US9183439B2 (fr)
EP (1) EP2710513A1 (fr)
KR (1) KR101967007B1 (fr)
FR (1) FR2975519B1 (fr)
SG (1) SG195076A1 (fr)
WO (1) WO2012156333A1 (fr)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9070015B2 (en) * 2013-02-07 2015-06-30 Ittiam Systems (P) Ltd. System and method for iris detection in digital images
CN106326825B (zh) * 2015-08-26 2019-08-06 北京巴塔科技有限公司 虹膜边缘定位方法及虹膜识别***
CN105894000A (zh) * 2016-03-28 2016-08-24 江南大学 基于ransac的激光网格标记图像特征提取
JP6751324B2 (ja) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
US10319108B2 (en) * 2017-02-14 2019-06-11 Jx Imaging Arts, Llc System and method for machine vision object orientation measurement
WO2018199890A1 (fr) * 2017-04-24 2018-11-01 Truthvision, Inc. Système et procédé de mesure de la distance pupillaire
CN107358224B (zh) * 2017-08-18 2021-01-05 北京工业大学 一种白内障手术中虹膜外轮廓检测的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180635A1 (en) * 2004-02-17 2005-08-18 Trifonov Mikhail I. Method and apparatus for selecting an object in an image
US20090252382A1 (en) * 2007-12-06 2009-10-08 University Of Notre Dame Du Lac Segmentation of iris images using active contour processing

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US7444017B2 (en) * 2004-11-10 2008-10-28 Eastman Kodak Company Detecting irises and pupils in images of humans
JP4664147B2 (ja) * 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
KR20100101914A (ko) * 2009-03-10 2010-09-20 삼성전자주식회사 영상신호처리장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180635A1 (en) * 2004-02-17 2005-08-18 Trifonov Mikhail I. Method and apparatus for selecting an object in an image
US20090252382A1 (en) * 2007-12-06 2009-10-08 University Of Notre Dame Du Lac Segmentation of iris images using active contour processing

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Active Contours", 1 April 1998, SPRINGER, article ANDREW BLAKE ET AL: "Chapter 2 - Active shape models", pages: 25 - 37, XP055015352 *
JAEHAN KOH ET AL: "A Robust Iris Localization Method Using an Active Contour Model and Hough Transform", PATTERN RECOGNITION (ICPR), 2010 20TH INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 23 August 2010 (2010-08-23), pages 2852 - 2856, XP031771992, ISBN: 978-1-4244-7542-1 *
MARTIN A. FISCHLER ET AL: "Random Sample Consensus: A Paradigm for Model Fitting with Apphcatlons to Image Analysis and Automated Cartography", GRAPHICS AND IMAGE PROCESSING, 1 June 1981 (1981-06-01), pages 381 - 395, XP055003484, Retrieved from the Internet <URL:http://delivery.acm.org/10.1145/360000/358692/p381-fischler.pdf?ip=145.64.134.242&CFID=34255274&CFTOKEN=59747171&__acm__=1311589577_77da89f5cf12c2f2dff4511b02c0a90c> [retrieved on 20110725] *
SONG CHUN ZHU ET AL: "REGION COMPETITION: UNIFYING SNAKES, REGION GROWING, AND BAYES/MDL FOR MULTIBAND IMAGE SEGMENTATION", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 18, no. 9, 1 September 1996 (1996-09-01), pages 884 - 900, XP000632870, ISSN: 0162-8828, DOI: 10.1109/34.537343 *
YUILLE A L ET AL: "Feature extraction from faces using deformable templates", COMPUTER VISION AND PATTERN RECOGNITION, 1989. PROCEEDINGS CVPR '89., IEEE COMPUTER SOCIETY CONFERENCE ON SAN DIEGO, CA, USA 4-8 JUNE 1989, WASHINGTON, DC, USA,IEEE COMPUT. SOC. PR, US, 4 June 1989 (1989-06-04), pages 104 - 109, XP010016433, ISBN: 978-0-8186-1952-6, DOI: 10.1109/CVPR.1989.37836 *

Also Published As

Publication number Publication date
KR101967007B1 (ko) 2019-04-08
US9183439B2 (en) 2015-11-10
FR2975519B1 (fr) 2013-07-05
SG195076A1 (en) 2013-12-30
US20140226875A1 (en) 2014-08-14
KR20140033143A (ko) 2014-03-17
WO2012156333A1 (fr) 2012-11-22
EP2710513A1 (fr) 2014-03-26

Similar Documents

Publication Publication Date Title
FR2975519A1 (fr) Procede de recherche de contours parametres pour la comparaison d&#39;iris
JP5107045B2 (ja) 目に関して取得される画像中の虹彩を表す画素を特定する方法
CN106845414B (zh) 用于生物特征验证的质量度量的方法和***
EP1986126B1 (fr) Procédé et dispositif de localisation d&#39;un iris humain dans une image
Wang et al. Toward accurate localization and high recognition performance for noisy iris images
US9454817B2 (en) Relating to image processing
JP2009523265A (ja) 画像中の虹彩の特徴を抽出する方法
JP2007188504A (ja) 画像中の画素強度をフィルタリングする方法
EP3018615B1 (fr) Procede de comparaison de donnees ameliore
FR2915301A1 (fr) Procede de comparaison d&#39;images d&#39;une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l&#39;image d e reference
FR2979727A1 (fr) Identification par reconnaissance d&#39;iris
KR20030066512A (ko) 노이즈에 강인한 저용량 홍채인식 시스템
EP3285209A2 (fr) Procede de surveillance au moyen d&#39;un systeme multi-capteur
Ng et al. An effective segmentation method for iris recognition system
EP2652674B1 (fr) Procede de comparaison d&#39;images d&#39;iris par selection intelligente de zones texturees
EP2333693B1 (fr) Procédé de correction de la position des yeux dans une image
EP2517151A1 (fr) Codage biometrique
Zhao et al. A performance comparison between circular and spline-based methods for iris segmentation
Rajput et al. Iris biometric technique for person authentication based on fusion of radon and 2D multi-wavelet transform
EP1365350A1 (fr) Extraction de minuties d&#39;une image d&#39;empreinte digitale
Garg et al. Comparative survey of various iris recognition algorithms
CN116542918A (zh) 图像配准模型训练方法及装置、图像处理方法
FR3135804A1 (fr) Procédé et dispositif d’identification biométrique
Hentati et al. Measuring the quality of IRIS segmentation for Improved IRIS recognition performance
Karymian et al. Detection of reflection in Iris images using back propagation

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

CA Change of address

Effective date: 20171222

CD Change of name or company name

Owner name: IN-IDT, FR

Effective date: 20171222

TP Transmission of property

Owner name: IN-IDT, FR

Effective date: 20171222

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14