FR2910668A1 - Procede de classification d'une image d'objet et dispositif correspondant - Google Patents

Procede de classification d'une image d'objet et dispositif correspondant Download PDF

Info

Publication number
FR2910668A1
FR2910668A1 FR0655795A FR0655795A FR2910668A1 FR 2910668 A1 FR2910668 A1 FR 2910668A1 FR 0655795 A FR0655795 A FR 0655795A FR 0655795 A FR0655795 A FR 0655795A FR 2910668 A1 FR2910668 A1 FR 2910668A1
Authority
FR
France
Prior art keywords
image
images
subset
classification
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0655795A
Other languages
English (en)
Inventor
Sid Ahmed Berrani
Christophe Garcia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR0655795A priority Critical patent/FR2910668A1/fr
Priority to EP07871938A priority patent/EP2100259A2/fr
Priority to PCT/FR2007/052522 priority patent/WO2008081143A2/fr
Publication of FR2910668A1 publication Critical patent/FR2910668A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de classification d'une image d'objet appartenant à une catégorie d'objets, ledit procédé comportant une étape préalable d'obtention d'un sous-ensemble (Ej) d'images d'objets de ladite catégorie, ledit sous-ensemble étant associé à un critère de classification, et ledit procédé étant caractérisé en ce qu'il comporte en outre:- une étape de calcul (b1) de distance entre ladite image et ledit sous-ensemble (Ej) selon la formule: où :- Dist(q, Ej) est une distance entre un vecteur d'image q correspondant à ladite image et les vecteurs des images dudit sous-ensemble Ej,- {v1, v2, ..., vN} sont les vecteurs v1 à vN des images dudit sous-ensemble Ej,- et DMC({x1,...,xP}) est un opérateur qui retourne le déterminant de la matrice de covariance des vecteurs x1 à xP, assimilés à un nombre P d'observations d'une variable vectorielle aléatoire xi, i étant un indice variant de 1 à P,- et une étape de comparaison (b2) de la distance ainsi calculée avec un seuil de décision (deltaj).

Description

1 Procédé de classification d'une image d'objet et dispositif
correspondant La présente invention se situe dans le domaine du traitement d'images. Plus précisément, l'invention concerne un procédé de classification d'images d'objets d'une même catégorie, suivant des critères visuels liés à cette catégorie. Dans les systèmes automatiques de reconnaissance d'objets dans une image ou dans une vidéo, la localisation des objets dans l'image ou la vidéo constitue une première étape indispensable avant la reconnaissance. Il s'agit de la détection d'objet. Cette étape a pour objectif d'extraire uniquement les morceaux de l'image contenant chacun un objet à détecter. Ces morceaux d'images sont ensuite passés au module de reconnaissance pour identification. Ces techniques de reconnaissance d'objets sont cependant très sensibles à la qualité des objets extraits et en particulier à leurs positions dans les morceaux d'image. En effet les modules de reconnaissance d'objets ont en général appris à reconnaître un objet dans une position bien déterminée dans une image. Les performances des systèmes de reconnaissance d'objets se dégradent donc significativement lorsque l'objet n'est pas dans cette position déterminée. Il est donc essentiel de disposer d'un classificateur d'images qui permette de classer les morceaux d'image suivant la position de l'objet extrait dans ces morceaux, afin de ne présenter au module de reconnaissance que les morceaux d'image dans lesquels l'objet extrait est dans une position adaptée pour sa reconnaissance. Cette classification est indispensable dans la phase d'apprentissage des systèmes de reconnaissance d'objets, pour que l'apprentissage soit efficace, mais aussi dans la phase d'identification, pour que la reconnaissance ait le plus de chances d'aboutir. 2910668 2 Si l'on dispose de plusieurs systèmes de reconnaissance d'objets spécialisés chacun dans une position déterminée de l'objet à reconnaître, le classificateur permet éventuellement d'aiguiller, lors de la phase d'identification, les morceaux d'image vers les systèmes de reconnaissance 5 d'images adéquats, en fonction des positions des objets dans ces morceaux d'image. Ces systèmes sont surtout appliqués à la reconnaissance de visages. Actuellement les systèmes de reconnaissance de visages ne fonctionnent de manière optimale que sur des images de visages en position frontale. C'est 10 pourquoi la classification d'images de visages suivant leur pose, frontale, semifrontale ou de profil, est un enjeu important dans le domaine de l'analyse faciale. La classification de visages en poses a ainsi donné lieu à de nombreux travaux suivant essentiellement trois approches. La première approche se 15 base sur des algorithmes de suivi pour estimer dans les images d'une vidéo le modèle d'un visage, et pour déduire également la pose de ce visage. Deux exemples de travaux suivant cette première approche sont décrits dans les articles suivants: "Face Tracking and Pose Estimation Using Affine Motion Parameters", 20 de P. Yao et G. Evans, publié en 2001 à l'occasion de la douzième conférence SCIA, d'après l'anglais "Scandinavian Conference on Image Analysis", et " Face pose estimation system by combining hybrid ICA-SVM learning and re-registration" de K. Seo, I. Cohen, S. You et U. 25 Neumann, publié en janvier 2004 à l'occasion d'une conférence ACCV, d'après l'anglais " Asian Conference on Computer Vision". Les techniques selon cette approche utilisent une information temporelle pour estimer le mouvement d'un visage d'une image à une autre, et présentent donc l'inconvénient d'être limitées aux vidéos, et de ne pas être applicables à la classification de visages extraits à partir d'images fixes. 2910668 3 La deuxième approche utilise les positions des éléments faciaux, tels que les yeux, le nez et la bouche, et des règles de biométrie du visage, pour déduire la pose d'un visage dans une image. Un exemple de classification de visages en poses utilisant la détection d'éléments faciaux est donné dans 5 l'article "Pose classification of human faces by weighting mask function approach", de C. Lin et K.-C. Fan, publié dans le numéro 24 de la revue "Pattern Recognition Letters". Les méthodes selon cette deuxième approche sont limitées par les performances des méthodes automatiques de détection d'éléments faciaux: 10 celles-ci fournissent des positions d'éléments faciaux qui ne sont pas suffisamment précises pour assurer un taux de bonne classification satisfaisant, en particulier pour des poses de profil. La troisième approche se base sur des modèles statistiques des poses à rechercher, construits à partir d'une analyse en composantes principales à 15 partir d'exemples d'imagettes, ou encore sur des masques binaires pour caractériser une pose particulière. Des exemples de travaux utilisant une analyse en composantes principales sont décrits dans les articles suivants: "View-Based and Modular Eigenspaces for Face Recognition", de Alex Pentland, Baback Moghaddam et Thad Starner, publié en 1994 à 20 l'occasion de la treizième conférence "Institute of Electrical and Electronic Engineer (IEEE) Conference on Computer Vision and Pattern Recognition ", et "Eigenfaces for recognition", de M. Turk et A. Pentland, publié dans le troisième volume du premier numéro de la revue "Journal of 25 Cognitive Neuroscience". Il est de plus à noter que dans l'article de C. Lin et K.-C. Fan cité précédemment, on utilise des masques binaires pour classifier des visages en poses, combinant ainsi détection d'éléments faciaux et utilisation de modèles caractéristiques. 30 Un masque binaire est un masque de référence que l'on applique à une image de visage en niveaux de gris, laquelle est transformée en image binaire 2910668 4 en noir et blanc par seuillage à partir de ce masque, puis une corrélation est effectuée pour déterminer la pose du visage. Les méthodes à base de masques binaires utilisent donc les zones plus ou moins foncées et les zones d'ombre des visages, ce qui rend leur efficacité très sensible à l'éclairage: en 5 effet un éclairage de côté par exemple fausse les zones d'ombre que l'on s'attend à trouver sur un visage éclairé de face dans une image en niveaux de gris. De même les méthodes utilisant une analyse en composantes principales sont des méthodes linéaires ce qui les rend très peu robustes aux variations lumineuses. Plus généralement les techniques selon cette troisième approche 10 sont très sensibles aux variations importantes des visages, telles que la présence d'éléments occultants comme des lunettes, de la barbe ou de la moustache, qui diminuent significativement leurs taux de bonne classification. D'autres systèmes de classification d'images, comme par exemple le système de classification décrit dans l'article "Application d'un processus 15 itératif de classification dirigée à un site urbain et périurbain algérien", de N. Ouarab et Y. Smara, publié en 1997 dans le livre "Télédétection des milieux urbains et périurbains" par l'Agence Universitaire de la Francophonie, utilisent la notion de distance entre images. Les distances utilisées dans ces systèmes sont par exemple des 20 distances euclidiennes, ou la distance dite de Mahalanobis. Ces distances sont applicables entre deux vecteurs d'images seulement et sont associées à d'autres méthodes de classification comme la classification au plus proche voisin. Les comparaisons effectuées pour la classification sont ainsi des comparaisons image à image. Ces systèmes sont utilisés pour faire du 25 regroupement d'images très proches l'une de l'autre. Contrairement à l'invention, ils ne prennent cependant pas en compte l'ensemble des caractéristiques des vecteurs d'une classe et de leur dispersion. 30 La présente invention a pour but de résoudre les inconvénients de la technique antérieure en fournissant un procédé et un dispositif de classification 2910668 5 d'images, qui utilisent une nouvelle distance applicable entre un vecteur descripteur d'image et un ensemble de vecteurs descripteurs d'images. A cette fin, l'invention propose un procédé de classification d'une image d'objet appartenant à une catégorie d'objets, ledit procédé comportant une 5 étape préalable d'obtention d'un sous-ensemble d'images d'objets de ladite catégorie, ledit sous-ensemble étant associé à un critère de classification, et ledit procédé étant caractérisé en ce qu'il comporte en outre: - une étape de calcul (b1) de distance entre ladite image (I) et ledit sous-ensemble (Ej) selon la formule: 10 Dist(q, Ej) = DMC({vi, v2, ..., vN}u{q}) - DMC({vi, v2, ..., vN}) où : Dist(q, Ej) est une distance entre un vecteur d'image q correspondant à ladite image et les vecteurs des images dudit sous-ensemble Ej, 15 {VI, v2, ..., vN} sont les vecteurs vl à vN des images dudit sous-ensemble Ej, et DMC({xi,...,xp}) est un opérateur qui retourne le déterminant de la matrice de covariance des vecteurs xi à Xp, assimilés à un nombre P d'observations d'une variable vectorielle aléatoire x;, i 20 étant un indice variant de 1 à P, - et une étape de comparaison (b2) de la distance ainsi calculée avec un seuil de décision (b). Grâce à l'invention, on obtient un procédé de classification d'images applicable à des images fixes, rapide, indépendant de l'efficacité d'un système 25 utilisé en amont par exemple pour la détection d'éléments, et qui est robuste par rapport à des variations importantes des images entre elles. Notamment lorsqu'il est utilisé pour la reconnaissance de visage, il permet de classifier différents types de visages en poses frontale, semi-frontale et de profil de manière robuste par rapport aux variations lumineuses et à la présence 2910668 6 d'éléments occultants, aussi bien lors de la phase d'apprentissage que lors de la phase d'identification. Selon une caractéristique préférée, ledit seuil de décision est associé audit sous-ensemble d'images. 5 Pour déterminer si une image à classer répond à un critère de classification, sa distance par rapport à plusieurs sous-ensembles d'images correspondant à ce critère est calculée et comparée à un seuil de décision. Le fait d'adapter le seuil de décision à chaque sous-ensemble permet de tenir compte de l'hétérogénéité des sous-ensembles qui obéissent à un même 10 critère de classification, de manière à optimiser le taux de bonne classification du procédé selon l'invention. Selon une autre caractéristique préférée, ledit seuil de décision est égal à la plus petite distance calculée entre ledit sous-ensemble et les images d'un ensemble d'images négatives ne correspondant pas à un critère de 15 classification associé audit sous-ensemble. Ce choix de seuil de décision permet d'obtenir une classification cohérente par rapport aux images d'apprentissage, réparties en sous-ensembles d'images positives, correspondant à un critère de classification, et un ensemble d'images négatives, qui n'obéissent pas à ce critère. 20 Selon une autre caractéristique préférée, ledit seuil de décision est choisi de manière à maximiser la somme: du taux de bonne classification d'images d'un autre sous-ensemble d'images obéissant à un même critère de classification que ledit sous-ensemble, 25 et du taux de rejet d'images d'un ensemble d'images négatives ne correspondant pas audit critère de classification. Ce choix de seuil de décision permet d'améliorer le taux de bonne classification du procédé selon l'invention. L'invention concerne aussi un procédé de reconnaissance de visage 30 utilisant le procédé de classification d'image d'objet selon l'invention. 2910668 7 L'invention concerne également un dispositif mettant en oeuvre le procédé de classification selon l'invention et le procédé de reconnaissance de visage utilisant ce procédé. Le dispositif et le procédé de reconnaissance de visage présentent des 5 avantages analogues à ceux du procédé de classification selon l'invention. L'invention concerne encore un programme d'ordinateur comportant des instructions pour mettre en oeuvre le procédé de classification selon l'invention ou le procédé de reconnaissance de visage l'utilisant, lorsqu'il est exécuté sur un ordinateur. 10 D'autres caractéristiques et avantages apparaîtront à la lecture d'un mode de réalisation préféré décrit en référence aux figures dans lesquelles: - la figure 1 représente différentes phases du procédé de classification selon 15 l'invention, - la figure 2 représente un dispositif mettant en oeuvre le procédé de classification selon l'invention, - la figure 3 représente différentes étapes d'une phase d'apprentissage du procédé de classification selon l'invention, 20 - la figure 4 représente le contenu d'une base de données d'apprentissage, - la figure 5 représente différentes étapes d'une phase d'utilisation du procédé de classification selon l'invention, - la figure 6 représente plus précisément l'obtention d'un résultat de classification par le procédé selon l'invention lors de cette phase d'utilisation, 25 - la figure 7 représente un mode d'obtention de seuil de décision associé à un sous-ensemble d'images d'apprentissage. Selon un mode préféré de réalisation de l'invention, le procédé selon 30 l'invention est appliqué à la classification de visages en poses, et plus précisément il est utilisé pour déterminer si un visage dans une image est en 2910668 8 pose frontale ou non. Cependant le procédé de classification d'images d'objets selon l'invention est utilisable pour classer tout autre type d'objet selon divers critères de classification, comme par exemple pour classer des images de logos. De plus l'utilisation du procédé de classification selon l'invention, qui s'effectue dans une phase d'utilisation 92 représentée à la figure 1, nécessite au préalable l'exécution d'une phase d'apprentissage (p1, détaillée plus loin, et qui n'est pas répétée ensuite à chaque utilisation du procédé selon l'invention. 10 Le procédé de classification selon l'invention est typiquement implémenté de manière logicielle dans un ordinateur ORD représenté à la figure 2. La phase d'apprentissage (p1 est par exemple implémentée à l'aide d'un module d'apprentissage MA, et la phase d'utilisation 92 est implémentée 15 dans un module de classification MC, qui reçoit une image à classer I en entrée, et retourne un résultat de classification Res. La phase d'apprentissage (p1 permet de remplir la base de données d'apprentissage BDD à laquelle sont reliés le module d'apprentissage MA et le module de classification MC. 20 Cette phase d'apprentissage (p1 comporte deux étapes a1 et a2, représentées à la figure 3, et qui ont pour objectif de fournir des données d'apprentissage nécessaires à la phase d'utilisation 92. La première étape a1 est l'obtention de sous-ensembles d'images 25 d'apprentissage. Ces images d'apprentissage sont en fait des images de visage correspondant à des boîtes englobantes de visages extraits après détection de visages dans des images de plus grand format. L'étape a1 nécessite une base d'images d'apprentissage, qui comprend des images en niveaux de gris représentatives de la pose à apprendre, c'est-à-dire des 30 images de visages en position frontale. Ces images sont appelées "images positives", et forment l'ensemble IP représenté à la figure 4. La base d'images 5 2910668 9 d'apprentissage comprend également un ensemble IN d'images de visages en niveaux de gris représentant les autres poses, non frontales, appelées "images négatives". Ces images positives et négatives représentent différents visages, représentés à la même échelle dans chacune de ces images. Pour la 5 classification en pose frontale, tous les détails du visage n'étant pas nécessaires, les images de la base d'apprentissage ont une résolution d'image de 40 pixels * 40 pixels seulement, mais qui s'avère suffisante. A l'étape a1, l'ensemble IP d'images positives est partitionné en sous-ensembles Ej, j étant un indice variant de 1 à M. Ces sous-ensembles El à EM 10 sont associés au critère de classification de la pose frontale, et sont homogènes, c'est-à-dire qu'on retrouve dans chaque sous-ensemble des visages en position frontale avec des critères visuels communs. Par exemple l'ensemble IP contient quatre sous-ensembles El à E4 tels que: El contient des images de visages avec lunettes, 15 E2 contient des images de visages avec moustaches, E3 contient des images de visages sans moustaches ni lunettes, souriants, E4 contient des images de visages sans moustaches ni lunettes, neutres. 20 Les sous-ensembles El à EM caractérisent de préférence la plupart des types de visages en pose frontale. Cette partition de l'ensemble IP d'images positives est effectuée manuellement ou automatiquement à l'aide d'algorithmes de regroupement. Ces algorithmes permettent de regrouper des images très proches l'une de l'autre en utilisant par exemple des mesures de 25 similarité ou de distances euclidiennes entre deux vecteurs d'image. Cette partition en sous-ensembles homogènes permet dans la suite d'obtenir des sous-classifications plus spécialisées de visages en position frontale, de manière performante. L'ensemble IN d'images négatives contient quant à lui des images de 30 visages de tous types dans des poses non-frontales, par exemple qui 2910668 10 présentent un profil gauche, un profil droit, ou qui sont dans une pose semiprofil, avec ou sans lunettes, avec barbe, etc. La seconde étape a2 de la phase d'apprentissage 91 est le calcul des paramètres de classification associés à chaque sous-ensemble Ej d'images. 5 Ces paramètres font partie des données d'apprentissage et sont les suivants: La matrice de covariance Zi du sous-ensemble Ej. Si celuici contient par exemple N images de visages, N étant un entier, ces images sont décrites par N vecteurs v;, i étant un indice variant de 1 à N. Ces vecteurs contiennent les 40*40 valeurs de niveaux 10 de gris correspondants aux 40*40 pixels de chaque image du sous-ensemble Ej. La matrice de covariance Zi est alors définie par: N / N \T \ 1 vi vi i=1 i=1 N N N le déterminant detj de la matrice de covariance 15 et un seuil de décision 6j, dont l'obtention est détaillée plus loin. Les paramètres Zi et detj permettent dans la phase d'utilisation 92 de calculer la distance d'une image I à classer avec le sous-ensemble Ej, tandis que le seuil de décision bj permet de déterminer, au vu de cette distance, si l'image I pourrait être classée dans le sous-ensemble Ej. Autrement dit les 20 paramètres d'un sous-ensemble permettent de classifier l'image I selon l'invention dans une catégorie plus fine que la pose frontale uniquement. En effet si les sous-ensembles Ej se limitaient par exemple à un seul sous-ensemble El contenant des images de visages avec lunettes, ce mode de réalisation du procédé de classification selon l'invention permettrait de 25 sélectionner les images de visages en pose frontale correspondant à ce critère visuel uniquement. T N i=1 2910668 11 La phase d'utilisation 92 se décompose donc en deux étapes b1 et b2, représentées à la figure 5. La première étape b1 est le calcul de la distance entre l'image I à classer avec chaque sous-ensemble Ej, en utilisant la formule suivante: 5 Dist(q, Ej) = DMC({vi, v2, ..., vN}u{q}) - DMC({vi, v2, ..., vN}) où : Dist(q, Ej) est la distance entre un vecteur d'image q correspondant à l'image I, et le sous-ensemble des vecteurs des images du sous-ensemble Ej, 10 {VI, v2,
., vN} sont les vecteurs vl à vN des images du sous-ensemble Ej, et DMC({xi,...,xp}) est un opérateur qui retourne le déterminant de la matrice de covariance des vecteurs xi à xp, assimilés à un nombre P d'observations d'une variable vectorielle aléatoire x;, i étant un indice 15 variant de 1 à P. La distance entre l'image I et le sous-ensemble Ej est donc calculée en soustrayant le déterminant detj de la matrice Zi au déterminant de la matrice de covariance de l'ensemble formé pas les vecteurs vl à vN et le vecteur q. Le choix de cette métrique nouvelle est motivé par le fait que, étant 20 donné l'homogénéité des sous-ensembles d'apprentissage, la classification d'une image I dans un sous-ensemble Ej revient à évaluer l'impact de l'ajout de l'image I au sous-ensemble Ej sur l'homogénéité de ce sous-ensemble Ej. Par rapport à la distance de Mahalanobis utilisée dans l'état de l'art, qui s'applique uniquement à deux vecteurs, la distance utilisée par le procédé selon 25 l'invention a l'avantage de considérer un vecteur par rapport à un ensemble de vecteurs, ce qui permet de mieux prendre en compte la distribution des vecteurs d'un même ensemble de référence. Autrement dit le procédé de classification selon l'invention est un procédé de classification statistique qui se base sur l'étude de la répartition des vecteurs descripteurs des images dans 30 l'espace.
2910668 12 La seconde étape b2 est la comparaison de la distance Dist(q, Ej) précédemment calculée avec le seuil de décision bj du sous-ensemble Ej, comme représenté à la figure 6: 5 Si la distance Dist(q, Ej) est inférieure au seuil de décision 6j, le résultat de cette sous-classification dans le sous-ensemble Ej vaut 1, c'est-à-dire que l'image I pourrait être classée dans ce sous-ensemble d'images, Si la distance Dist(q, Ej) est supérieure au seuil de décision 6j, le 10 résultat de cette sous-classification dans le sous-ensemble Ej vaut 0, c'est-à-dire que l'image I n'est pas frontale ou ne correspond pas aux critères visuels associés au sous-ensemble d'images Ej. Les résultats de chacune de ces sous-classifications pour chacun des 15 sous-ensembles El à EM sont combinés par un "OU" logique pour donner le résultat final Res de la classification de l'image I en pose frontale: - une valeur 1 du résultat Res indique une pose frontale, - et une valeur 0 du résultat Res indique une pose non-frontale. En effet les sous-ensembles El à EM étant représentatifs de la plupart des 20 types de visages en pose frontale, si l'image I représente un visage en pose frontale, le résultat d'au moins une de ces sous-classifications vaudra 1 et le résultat final Res vaudra également 1. On détaille maintenant différents modes d'obtentions du seuil de 25 décision bj associé au sous-ensemble d'images Ej. D'autres modes d'obtentions sont possibles, la valeur du seuil de décision bj devant permettre d'obtenir un bon taux de classification d'images en pose frontale. Un premier mode d'obtention du seuil de décision bj consiste à choisir la valeur de ce seuil égale à la plus petite distance calculée entre chaque image 30 négative contenue dans l'ensemble IN, et le sous-ensemble Ej. Le calcul des 2910668 13 distances entre les images négatives et le sous-ensemble Ej utilise la même formule qu'à l'étape b1. Un second mode d'obtention du seuil de décision 6j, représenté à la 5 figure 7, utilise un autre sous-ensemble E'j d'images positives de critères visuels similaires à ceux des images du sous-ensemble Ej, et l'ensemble IN d'images négatives. On calcule tout d'abord les distances d'; entre les images du sous-ensemble E'j et le sous-ensemble Ej, ainsi que les distances d; entre les images de l'ensemble IN et le sousensemble Ej, en utilisant la même 10 formule qu'à l'étape b1. Puis on choisit la valeur de seuil bj de façon à maximiser le taux de bonne classification des images du sous-ensemble E'j, et le taux de rejet des images de l'ensemble IN. Si l'on donne la même importance à chacun de ces taux, alors on choisit la valeur de seuil bj qui maximise la somme de ces taux. Ainsi: 15 Si la plus grande distance d' des images du sous-ensemble E'j est inférieure à la plus petite distance d des images de l'ensemble IN, le seuil de décision bj est fixé à la valeur médiane entre ces deux distances. Si à l'inverse, la plus grande distance d' des images du sous-ensemble 20 E'j est supérieure à la plus petite distance d des images de l'ensemble IN, une recherche de seuil maximisant la somme du taux de bonne classification des images du sous-ensemble E'j et du taux de rejet des images de l'ensemble IN, est exécutée dans l'intervalle [d;d'] formé par ces deux distances. Cet intervalle est partitionné à des pas réguliers et 25 pour chaque valeur, la somme de ces taux est évaluée. Le seuil de décision bj retenu est celui qui maximise cette somme. Il est à noter que dans ce mode de réalisation de l'invention on classe des images de visages selon un seul critère de classification, celui de la pose 30 frontale, mais il est possible de l'adapter pour classer des images de visages suivant plusieurs critères de classification. Par exemple, une fois qu'une image 2910668 14 I a été classée comme non-frontale par le procédé décrit dans ce mode de réalisation, on exécute sur cette image le procédé de classification selon l'invention réalisé de manière similaire mais avec un critère de classification différent. On utilise ainsi deux critères de classification. Il suffit pour cela 5 d'adapter de manière appropriée les ensembles d'apprentissage d'images positives et d'images négatives à chaque nouveau critère de classification...FT: PROCEDE DE CLASSIFICATION D'UNE IMAGE D'OBJET ET DISPOSITIF CORRESPONDANT

Claims (7)

REVENDICATIONS
1. Procédé de classification d'une image (I) d'objet appartenant à une catégorie d'objets, ledit procédé comportant une étape préalable d'obtention (a1) d'un sous-ensemble (Ej) d'images d'objets de ladite catégorie, ledit sous-ensemble étant associé à un critère de classification, et ledit procédé étant caractérisé en ce qu'il comporte en outre: - une étape de calcul (b1) de distance entre ladite image (I) et ledit sous- ensemble (Ej) selon la formule: Dist(q, Ej) = DMC({vi, v2,
., vN}v{q}) - DMC({vi, V2, ..., VN}) où : Dist(q, Ej) est une distance entre un vecteur d'image q correspondant à ladite image et les vecteurs des images dudit sous-ensemble Ej, {VI, v2, ..., VN} sont les vecteurs vl à vN des images dudit sous-ensemble Ej, et DMC({xi,...,xp}) est un opérateur qui retourne le déterminant de la matrice de covariance des vecteurs xi à Xp, assimilés à un nombre P d'observations d'une variable vectorielle aléatoire x;, i étant un indice variant de 1 à P, - et une étape de comparaison (b2) de la distance ainsi calculée avec un seuil de décision (El)...CLMF:
2. Procédé de classification selon la revendication 1, caractérisé en ce que ledit seuil de décision (El) est associé audit sous-ensemble (Ej) d'images.
3. Procédé de classification selon la revendication 2, caractérisé en ce que 30 ledit seuil de décision (El) est égal à la plus petite distance calculée entre ledit 20 25 2910668 16 sous-ensemble (Ei) et les images d'un ensemble d'images négatives (IN) ne correspondant pas à un critère de classification associé audit sous-ensemble (Ei). 5
4. Procédé de classification selon la revendication 2, caractérisé en ce que ledit seuil de décision (bi) est choisi de manière à maximiser la somme: - du taux de bonne classification d'images d'un autre sous-ensemble d'images obéissant à un même critère de classification que ledit sous-ensemble (Ei), 10 - et du taux de rejet d'images d'un ensemble d'images négatives (IN) ne correspondant pas audit critère de classification.
5. Procédé de reconnaissance de visage utilisant le procédé de classification d'image d'objet selon l'une quelconque des revendications 1 à 4.
6. Dispositif comportant des moyens adaptés à mettre en oeuvre l'un des procédés selon l'une quelconque des revendications 1 à 5.
7. Programme d'ordinateur comportant des instructions pour mettre en oeuvre 20 l'un des procédés selon l'une quelconque des revendications 1 à 5, lorsqu'il est exécuté sur un ordinateur. 25 15 30
FR0655795A 2006-12-21 2006-12-21 Procede de classification d'une image d'objet et dispositif correspondant Withdrawn FR2910668A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR0655795A FR2910668A1 (fr) 2006-12-21 2006-12-21 Procede de classification d'une image d'objet et dispositif correspondant
EP07871938A EP2100259A2 (fr) 2006-12-21 2007-12-14 Procede de classification d'une image d'objet et dispositif correspondant
PCT/FR2007/052522 WO2008081143A2 (fr) 2006-12-21 2007-12-14 Procede de classification d'une image d'objet et dispositif correspondant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0655795A FR2910668A1 (fr) 2006-12-21 2006-12-21 Procede de classification d'une image d'objet et dispositif correspondant

Publications (1)

Publication Number Publication Date
FR2910668A1 true FR2910668A1 (fr) 2008-06-27

Family

ID=38222291

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0655795A Withdrawn FR2910668A1 (fr) 2006-12-21 2006-12-21 Procede de classification d'une image d'objet et dispositif correspondant

Country Status (3)

Country Link
EP (1) EP2100259A2 (fr)
FR (1) FR2910668A1 (fr)
WO (1) WO2008081143A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115740A (zh) * 2019-06-19 2020-12-22 北京海益同展信息科技有限公司 用于处理图像的方法和装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366430B2 (en) * 2017-02-06 2019-07-30 Qualcomm Incorporated Systems and methods for customizing amenities in shared vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996036022A2 (fr) * 1995-05-09 1996-11-14 Mars Incorporated Validation
WO2006103240A1 (fr) * 2005-03-29 2006-10-05 France Telecom Procédé d'identification de visages à partir d'images de visage, dispositif et programme d'ordinateur correspondants

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996036022A2 (fr) * 1995-05-09 1996-11-14 Mars Incorporated Validation
WO2006103240A1 (fr) * 2005-03-29 2006-10-05 France Telecom Procédé d'identification de visages à partir d'images de visage, dispositif et programme d'ordinateur correspondants

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAWATANI T: "Handwritten kanji recognition with determinant normalized quadratic discriminant function", PATTERN RECOGNITION, 2000. PROCEEDINGS. 15TH INTERNATIONAL CONFERENCE ON SEPTEMBER 3-7, 2000, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 2, 3 September 2000 (2000-09-03), pages 343 - 346, XP010533825, ISBN: 0-7695-0750-6 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115740A (zh) * 2019-06-19 2020-12-22 北京海益同展信息科技有限公司 用于处理图像的方法和装置
CN112115740B (zh) * 2019-06-19 2024-04-09 京东科技信息技术有限公司 用于处理图像的方法和装置

Also Published As

Publication number Publication date
WO2008081143A3 (fr) 2008-10-23
EP2100259A2 (fr) 2009-09-16
WO2008081143A2 (fr) 2008-07-10

Similar Documents

Publication Publication Date Title
Sakkos et al. End-to-end video background subtraction with 3d convolutional neural networks
US8712157B2 (en) Image quality assessment
Ramamonjison et al. Simrod: A simple adaptation method for robust object detection
RU2427911C1 (ru) Способ обнаружения лиц на изображении с применением каскада классификаторов
Hernandez-Juarez et al. A multi-hypothesis approach to color constancy
Shepley Deep learning for face recognition: a critical analysis
US20090274364A1 (en) Apparatus and methods for detecting adult videos
Zhang et al. Boosting-based face detection and adaptation
Gong et al. Low quality video face recognition: Multi-mode aggregation recurrent network (MARN)
Nadeem et al. Real time surveillance for low resolution and limited data scenarios: An image set classification approach
Kowdle et al. Learning to segment a video to clips based on scene and camera motion
Shukla et al. Face recognition using convolutional neural network in machine learning
An et al. Face recognition in multi-camera surveillance videos using dynamic Bayesian network
FR2910668A1 (fr) Procede de classification d'une image d'objet et dispositif correspondant
Malisiewicz Exemplar-based representations for object detection, association and beyond
Yang Face Detection.
Liu et al. Learning a Mid‐Level Representation for Multiview Action Recognition
Ozay et al. Sequential sparsification for change detection
CN103150574B (zh) 基于最邻近标签传播算法的图像型垃圾邮件检测方法
Sugandi et al. Face recognition based on pca and neural network
CN111353353A (zh) 跨姿态的人脸识别方法及装置
Peng et al. Deep tiny network for recognition-oriented face image quality assessment
Iqbal et al. Who is the hero? semi-supervised person re-identification in videos
Choi et al. Face annotation for online personal videos using color feature fusion based face recognition
Thakral et al. Efficient Object Recognition using Convolution Neural Networks Theorem

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20081020