DE69914370T2 - Bestimmung von gesichtsunterräumen - Google Patents

Bestimmung von gesichtsunterräumen Download PDF

Info

Publication number
DE69914370T2
DE69914370T2 DE69914370T DE69914370T DE69914370T2 DE 69914370 T2 DE69914370 T2 DE 69914370T2 DE 69914370 T DE69914370 T DE 69914370T DE 69914370 T DE69914370 T DE 69914370T DE 69914370 T2 DE69914370 T2 DE 69914370T2
Authority
DE
Germany
Prior art keywords
image
subspaces
images
facial
subspace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69914370T
Other languages
English (en)
Other versions
DE69914370D1 (de
Inventor
Christopher John Offerton TAYLOR
Timothy Francis Heaton Moor COOTES
Gareth Buxton EDWARDS
Nicholas Paul Sale Moor COSTEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victoria University of Manchester
University of Manchester
Original Assignee
Victoria University of Manchester
University of Manchester
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB9826398.1A external-priority patent/GB9826398D0/en
Priority claimed from GBGB9922807.4A external-priority patent/GB9922807D0/en
Application filed by Victoria University of Manchester, University of Manchester filed Critical Victoria University of Manchester
Publication of DE69914370D1 publication Critical patent/DE69914370D1/de
Application granted granted Critical
Publication of DE69914370T2 publication Critical patent/DE69914370T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Automatic Focus Adjustment (AREA)
  • Air Conditioning Control Device (AREA)
  • Complex Calculations (AREA)

Description

  • Die vorliegende Erfindung betrifft die Bestimmung von Unterräumen von Gesichtsvariationen.
  • Eine Gesichtsvariation kann konzeptionell in eine Anzahl von 'funktionalen' Unterräumen aufgeteilt werden; Typen einer Variation, die nützliche Gesichtsdimensionen reflektieren [M. J. Black, D. J. Fleet und Y. Yacoob. A framework for modelling appearance change in image sequences. 6th ICCV, Seiten 660–667, 1998]. Eine mögliche Auswahl von diesen Gesichtsunterräumen ist: Identität, Ausdruck (was hier sämtliche transienten plastischen Deformationen des Gesichts einschließt), Pose und der Beleuchtung. Andere Räume können extrahiert werden, wobei der offensichtlichste das Alter ist. Wenn ein praktisches Gesichts-Analysesystem konstruiert wird, muss wenigstens einer von diesen Unterräumen isoliert und modelliert werden. Z. B. wird eine Sicherheitsanwendung erfordern Personen unabhängig von dem Ausdruck, der Pose und der Beleuchtung zu erkennen, während ein Lippenleser sich nur auf den Ausdruck konzentrieren wird. Bei bestimmten Umständen werden genaue Abschätzungen von sämtlichen Unterräumen benötigt, z. B. wenn Gesichts- und Kopfbewegungen von einer Videosequenz einer Person an eine andere transferiert werden, um eine synthetische Sequenz herzustellen.
  • Obwohl Gesichts-Bilder in einer angemessenen Weise unter Verwendung eines Erscheinungs-Modell-Raums, der die Bilder aufspannt, angepasst werden können, ist es nicht möglich, die verschiedenen Unterräume linear zu trennen [S. Duvdevani-Bar, S. Edelman, A. J. Howell, und H. Buxton. A similaritybased method for the generalisation of face recognition over pose and expression. 3rd Face and Gesture, Seiten 118–123, 1998]. Dies liegt daran, weil die Unterräume einen gewissen Grad einer Überlappung einschließen (z. B. wird ein 'neutraler' Ausdruck tatsächlich einen Ausdruck mit geringer Intensität enthalten).
  • Es ist eine Aufgabe der Erfindung, ein verbessertes Verfahren zum Bestimmen von Gesichts-Unterräumen bereitzustellen, wie in den beigefügten Ansprüchen aufgeführt.
  • Die Erfindung rechnet gleichzeitig Bildgewichtungen zwischen anfänglichen überlappenden Abschätzungen von diesen funktionalen Räumen proportional zu der Unterraum-Varianz zu. Dies teilt die Gesichter in einen Satz von nicht-orthogonalen Projektionen auf, wobei ein iterativer Ansatz auf einen Satz von reinen, aber überlappenden Räumen zugelassen wird. Diese sind spezifischer als die anfänglichen Räume, was die Identitätserkennung verbessert.
  • In Übereinstimmung mit der Erfindung ist ein Verfahren zum Bestimmen von Gesichts-Unterräumen vorgesehen, wobei das Verfahren die folgenden Schritte umfasst:
    • a. Erzeugen einer ersten Reihe von anfänglichen Bildern, bei denen eine erste vorgegebene Gesichtseigenschaft modifiziert ist;
    • b. Erzeugen einer zweiten Reihe von anfänglichen Bildern, bei denen eine zweite vorgegebene Gesichtseigenschaft modifiziert ist,
    • c. Codieren jeder Reihe von Bildern in Übereinstimmung mit der Varianz der Bilder, um einen abgeschätzten Unterraum für jede Gesichtseigenschaft zu ermitteln,
    • d. Verketten der Unterräume, um einen einzelnen übererschöpfenden Raum bereitzustellen.
    • e. Approximieren jedes Bilds der ersten und zweiten Reihen auf dem übererschöpften Raum, um aproximierte Versionen von jedem Bild auf jedem abgeschätzten Eigenschafts-Unterraum zu ermitteln.
    • f. Erzeugen von insgesamt approximierten Versionen jedes Bilds auf dem übererschöpften Raum,
    • g. Vergleichen der gesamten approximierten Version von jedem Bild mit dem anfänglichen Bild, um einen Fehlerwert für jedes Bild zu bestimmen,
    • h. Unterteilen des Fehlerwerts für jedes Bild in einen Unterfehler für jeden abgeschätzten Eigenschafts-Unterraum proportional zu der Varianz dieses Unterraums,
    • i. Kombinieren jedes Unterfehlers für jedes Bild mit der approximierten Version dieses Bilds auf dem abgeschätzten Eigenschafts-Unterraum, um eine neue approximierte Version in dem Eigenschafts-Unterraum für jedes Bild zu ermitteln, und
    • j. Codieren der neuen approximierten Versionen der Bilder in Übereinstimmung mit deren Varianz, um neue abgeschätzte Unterräume zu ermitteln.
  • Das Verfahren in Übereinstimmung mit dem zweiten Aspekt der Erfindung umfasst vorzugsweise ferner das Approximieren jedes Bilds auf den neuen abgeschätzten Unterräumen, die in den Schritten 'a' bis 'j' beschrieben, und dann das Wiederholen der Schritte 'd' bis 'j', bis die Unterräume sich stabilisiert haben.
  • Vorzugsweise werden drei oder mehr Reihen von Bildern erzeugt, wobei eine andere vorgegebene Gesichtseigenschaft in jeder Reihe modifiziert wird.
  • Vorzugsweise werden die vorgegebenen Gesichtseigenschaften als wenigstens eine der Identität, des Ausdrucks, der Pose, der Beleuchtung und des Alters kategorisiert.
  • Vorzugsweise wird wenigstens eine weitere Reihe von Bildern erzeugt, wobei eine weitere vorgegebene Gesichtseigenschaft in der Reihe modifiziert wird.
  • Eine spezifische Ausführungsform der Erfindung wird nun nur beispielhaft unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben. In den Zeichnungen zeigen:
  • 1 die ersten zwei Dimensionen eines Gesichtsraums, wie durch ein Erscheinungsmodell definiert, das von der Erfindung verwendet wird;
  • 2 ein Beispiel eines Ensemblebilds aus einem Ausdruckssatz, wie durch die Erfindung verwendet, wobei die Entsprechungspunkte gezeigt sind;
  • 3 die ersten zwei Dimensionen von Startidentitäts-Eigengesichtern, die von der Erfindung verwendet werden;
  • 4 die ersten zwei Dimensionen von Startidentitäts-Eigengesichtern, die von der Erfindung verwendet werden, wobei die Eigengesichter nur eine Identität verändern;
  • 5 einen Graph, der die Konvergenz darstellt, die von dem Verfahren in Übereinstimmung mit der Erfindung erzielt wird;
  • 6 einen Graph, der mittlere Codierungsfehler für Einzel- und Testbilder darstellt, über Iterationen des Verfahrens in Übereinstimmung mit der Erfindung;
  • 7 einen Graph, der mittlere Personen Innen-Varianzen für die verschiedenen Unterräume als eine Funktion der Iterationsanzahl zeigt; und
  • 8 einen Graph, der Erkennungsraten für eine Euclid-sche Durchschnitts-Bild-Anpassung zeigt.
  • Eine Gesichtscodierung erfordert die Approximation einer vielfältigen oder hochdimensionalen Oberfläche, von der man sagen kann, dass auf ihr ein Gesicht liegt. Dies erlaubt eine genaue Codierung, Erkennung und Wiedergabe von vorher nicht gesehenen Beispielen. Eine Anzahl von vorangehenden Studien [N. P. Costen, I. G. Craw, G. J. Robertson, und S. Akamatsu. Automatic face recognition: What representation? European Conference on Computer Vision, vol. 1, Seiten 504–513, 1996; G. J. Edwards, A. Lanitis, C. J. Taylor, und T. F. Cootes. Modelling the variability in face images. 2nd Face and Gesture, Seiten 328–333, 1996; N. P. Costen, I. G. Craw, T. Kato, G. Robertson und S. Akamatsu. Manifold caricatures: On the psychological consistency of computer face recognition. 2nd Face and Gesture, Seiten 4–10, 1996] haben vorgeschlagen, dass die Verwendung einer formfreien Codierung eine einfache Einrichtung bereitstellt, um dies zu tun, wenigstens wenn der Bereich des Posenwinkels relativ klein ist, unter Umständen ±20° [T. Poggio und D. Beymer. Learning networks for face analysis and synthesis. Face and Gesture, Seiten 160–165, 1995]. Bei dieser Ausführungsform der Erfindung wird das Entsprechungsproblem zwischen Gesichtern zunächst dadurch gelöst, dass ein vorgewählter Satz von bestimmten Punkten (Ecken von Augen oder Mündern, z. B.), die in sämtlichen Gesichtern vorhanden sind, aufgefunden wird. Dies wird typischerweise per Hand während eines Trainings ausgeführt. Diejenigen Pixel, die so definiert sind, dass sie ein Teil des Gesichts sind, können auf eine Standardform durch standardmäßige Graupegel-Interpolationstechniken gewölbt werden, wobei sichergestellt wird, dass die Bild-bezogenen und Gesichts-bezogenen Koordinaten eines gegebenen Bilds äquivalent sind. Wenn eine starre Transformation zum Entfernen des Maßstabs, des Orts und der Orientierungseffekte für die Punktorte durchgeführt wird, können sie in der gleichen Weise wie die Graupegel behandelt werden, da wiederum identische Werte für entsprechende Punkte auf unterschiedlichen Gesichtern die gleiche Bedeutung aufweisen werden.
  • Obwohl diese Operationen den Raum linearisieren, wobei eine Interpolation zwischen Paaren von Gesichtern erlaubt wird, ergeben sie nicht eine Abschätzung der Dimensionen. Somit kann die Akzeptierungsfähigkeit als ein Gesicht eines Objekts nicht gemessen werden; dies verringert eine Erkennung [N. P. Costen, I. G. Craw, G. J. Robertson, und S. Akamatsu. Automatic face recognition: What representation? European Conference on Computer Vision, vol. 1, Seiten 504–513, 1996]. Zusätzlich können Redundanzen zwischen Merkmalspunkt-Orts- und Graupegel-Werten nicht beschrieben werden. Beide dieser Probleme werden in dieser Ausführungsform der Erfindung durch eine Prinzipal-Komponenten-Analyse (Principal Components Analysis; PCA) angegangen. Diese extrahiert einen Satz von orthogonalen Eigenvektoren Φ aus der Kovarianzmatrix der Bilder (entweder der Pixelgraupegel, oder der Merkmalspunkt-Orte). Kombiniert mit den Eigenwerten stellt dies eine Abschätzung der Dimensionen und des Bereichs des Gesichtsraums bereit. Die Gewichtungen w eines Gesichts q können dann gefunden werden. w = ΦT(q – q) (1)und dies gibt den Mahalanobis-Abstand
    Figure 00040001
    zwischen Gesichtern q1 und q2, eine Codierung im Hinblick auf eine erwartete Variation [B. Moghaddam, W. Wahid und A. Pentland. Beyond eingefaces: Probabilistic matching for face recognition. 3rd Face and Gesture, Seiten 30–35, 1998]. Redundanzen zwischen Form- und Graupegeln werden durch Ausführen von getrennten PCAs auf die Form- und Graupegel hin entfernt, bevor die Gewichtungen des Ensembles kombiniert werden, um einzelne Vektoren zu bilden, auf denen eine zweite PCA ausgeführt wird [G. J. Edwards, A. Lanitis, C. J. Taylor und T. F. Cootes. Modelling the variability in face images. 2nd Face and Gesture, Seiten 328–333, 1996].
  • Dieses 'Erscheinungsmodell' erlaubt die Beschreibung des Gesichts im Hinblick auf eine echte Variation – die Verzerrungen, die benötigt werden, um sich von einem auf ein anderes zu bewegen. Die folgenden Studien werden eingebettet innerhalb dieser Darstellung ausgeführt. Jedoch werden sie den gesamten Raum, wie durch unseren Satz von Bildern spezifiziert, codieren, wie aus der 1 ersichtlich (von links, –2s:d:, das Mittlere +2s:d). Die Eigenwerte verändern sich mit der Identität, dem Ausdruck, der Pose und der Beleuchtung. Somit wird z. B. der Abstand zwischen den Darstellungen von zwei Bildern eine Kombination der Identitäts-, Gesichtsausdruck-, Winkel- und Beleuchtungs-Bedingungen sein. Diese müssen getrennt werden, um eine detaillierte Analyse des Gesichtsbilds zu ermöglichen.
  • Obwohl Abschätzungen der Gesichtsräume aus externen Codes von jedem Gesicht bei jedem Typ von Veränderung erhalten werden können, sind diese typischerweise nicht verfügbar. Anstelle davon wurden unterschiedliche Sätze, die jeweils eine Hauptveränderung auf jedem Unterraum alleine zeigen, verwendet. Diese Sätze umfassten:
    • 1. einen Beleuchtungssatz, der aus fünf Bildern einer einzelnen männlichen Person entsteht, die alle frontparallel und mit einem festen neutralen Ausdruck fotografiert sind. Der Proband wurde durch eine einzelne Lampe beleuchtet, die um sein Gesicht herum bewegt wurde.
    • 2. Ein Posensatz, der 100 Bilder von 10 unterschiedlichen Probanden, 10 Bilder pro Proband, besteht. Die Köpfe der Proband waren in einer Vielzahl von zweidimensionalen Richtungen mit einem relativ konsistenten Winkel ausgerichtet. Ausdrucks- und Beleuchtungs-Änderungen waren minimal.
    • 3. Ein Ausdruckssatz, mit 397 Bildern von 19 unterschiedlichen Probanden, wobei jeder sieben grundlegende Ausdrücke ausdrückt: glücklich, traurig, ängstlich, verärgert, überrascht, neutral und entsetzt. Diese Bilder zeigten eine bemerkenswerte Personen-spezifische Beleuchtungs-Variation und eine gewissen Posen-Variation.
    • 4. Ein Identitätssatz, mit 188 unterschiedlichen Bildern, jeweils eins pro Proband. Diese wurden alle frontparallel, bei einer flachen Beleuchtung und mit neutralen Ausdrücken vorgenommen. Wie es jedoch unvermeidbar mit jeder großen Gruppe von Personen ist, bestand eine beträchtliche Variation bei dem offensichtlichen Ausdruck, der als neutral angenommen wurde.
  • Sämtliche Bilder hatten einen gleichförmigen Satz von 122 Landmarken, die manuell gefunden wurden. Ein Beispiel eines Ensemblebilds mit Landmarken ist in 2 gezeigt. Eine Triangulation wurde auf die Punkte angewendet und eine bilineare Interpolation wurde verwendet, um die Bilder auf eine Standardform und -größe abzubilden, die eine feste Anzahl von Punkten ergeben würden. Für Testzwecke fand man diese Merkmalspunkte unter Verwendung eines Mehrauflösungs-Aktiv-Erscheinungsmodells (multi-resolution Active Appearance Model), welches unter Verwendung der Ensemblebilder konstruiert wurde, aber ohne eine Graupegel-Normalisierung [T. F. Cootes, G. J. Edwards, und C. J. Taylor. Active Appearance Models. European Conference on Computer Vision, vol. 2, Seiten 484–498, 1998].
  • Da die Bilder mit einer Vielzahl von Kameras gesammelt wurden, war es erforderlich, die Beleuchtungspegel zu normalisieren. Für einen gegebenen Pixel weist ein Graupegel von beispielsweise 128 = 256 eine unterschiedliche Bedeutung in einem Form-normalisierten Bild von einem anderen auf. Der Form-freie Graupegelfleck gi wurde mit dem i-ten Form-normalisierten Bild abgetastet. Um den Effekt von einer globalen Beleuchtungsvariation zu minimieren, wurde dieser Fleck an jedem Punkt j normalisiert, um
    Figure 00050001
    zu ergeben, wobei μj, σj die mittlere Abweichung und die Standardabweichung sind.
  • Diese Operationen erlaubten die Konstruktion eines Erscheinungsmodells [G. J. Edwards, A. Lanitis, C. J. Taylor und T. F. Cootes. Modelling the variability in face images. 2nd Face and Gesture, Seiten 328–333, 1996] Codierung 99,5% der Variation in den 690 Bildern, eine mit 19826 Pixeln in dem Gesichtsbereich. Dies erforderte insgesamt 636 Eigenvektoren.
  • Tests zeigten, dass die verschiedenen Unterräume nicht linear trennbar waren. Ein Versuch wurde durchgeführt, um sukzessiv die Gesichter durch die Räume, die durch die anderen Kategorien von Gesichtern definiert werden, zu projizieren und den Codierungsfehler als die Daten für eine nachfolgende Prinzipal-Komponenten-Analyse (Principal Component Analysis; PCA) zu nehmen, aber dies war nicht erfolgreich. Der vierte und abschließende Satz von Komponenten codierte wenig außer Rauschen konsistent. Eine Prozedur, bei der jeder Unterraum nur Gesichtscodes innerhalb seiner eigenen Aufspannung (typischerweise ±2S.D.) entfernte, erzeugte einen verwendbaren vierten Satz, aber die Anwendung war im Wesentlichen beliebig und verwendete nur einen kleinen Untersatz, um jeden Unterraum zu berechnen.
  • Die relevanten Daten wurden anstelle davon in einer mehr prinzipiellen Weise extrahiert, und zwar unter Verwendung der relevanten Information, die in jedem Bildsatz vorhanden ist. Das grundlegende Problem war, dass jeder der Unterräume, die durch die Ensembles spezifiziert werden, sowohl die gewünschte 'offizielle' Varianz als auch eine nicht bekannte Mischung der anderen Typen codierte. Diese Verunreinigung stammte hauptsächlich einer Ermangelung der Steuerung der relevanten Gesichtsfaktoren, so enthielten z. B. die 'neutralen' Ausdrücke, die in dem Identitätssatz gesehen werden tatsächlich einen Bereich von unterschiedlichen Ausdrücken mit geringer Intensität. Beispiele der Startidentitäts-Eigengesichter sind in 3 gezeigt, wobei die begrenzte Identitätsaufspannung dieses Ensembles (von links, –2s:d:, im Mittel +2s:d:) gezeigt ist. Die Eigengesichter unterschieden sich hauptsächlich hinsichtlich der Identität und der Beleuchtung.
  • Es gibt keine Garantie, dass die gewünschten 'reinen' Prinzipal-Komponenten für einen Unterraum orthogonal zu den anderen sein werden. Dies folgt aus den ultimativen Verbindungsfaktoren, insbesondere der dreidimensionalen Gesichtsform und der Größe und dem Ort der Gesichtsmuskulatur. Signifikante Verbesserungen bei der Auffindung und der Erkennung sind durch Lernen des Pfads durch den Gesichtsraum, der durch eine Sequenz von Gesichtsbildern genommen wird, möglich [D. B. Graham und N. M. Allinson. Face recognition from unfamiliar views: Subspace methods and pose dependency. 3rd Face and Gesture, Seiten 348–353, 1998]. Diese Erfindung stammt von der Realisation, dass diese Beziehungen empfänglich für eine Modellierung zweiter Ordnung sind, und dass die Abschätzungen der Moden der Veränderung, gegeben durch die Ensembles, durch die Auswahl von Bildern vorgespannt sein werden. Somit erlaubt die Erfindung die Entfernung der verunreinigenden Varianz aus den nicht-orthogonalen Abschätzungen der Unterräume, und auch die Verwendung der größtmöglichen Anzahl von Bildern. Dies wird durch Verwendung der Differenzen in der Varianz auf den Prinzipal-Komponenten, die aus den verschiedenen Ensembles extrahiert werden, durchgeführt.
  • Unter der Annahme, dass die Ensembles vorherrschend die beabsichtigten Typen der Varianz codieren, sollten die Eigenwerte für die 'Signal'-Komponenten der Varianz größer als diejenigen der 'Rausch'-Komponenten der Varianz sein. Die 'Signal'-Komponenten der Varianz sollten auch etwas orthogonaler zueinander sein als die 'Rausch'-Komponenten, und sollten natürlich weniger durch geringfügige Änderungen in den Ensembles, die sie erzeugen, sein.
  • Die Erfindung ermittelt verbesserte Werte der Varianz-Komponenten durch Codieren von Bildern auf übererschöpfenden Mehrfach-Unterräumen proportional zu deren Varianz, dann durch Approximieren der Bilder auf den getrennten Unterräumen, und durch Neuberechnen der mehreren Räume. Dieser Prozess wird iteriert, um einen Satz von stabilen und relativ orthogonaleren Unterräumen zu ermitteln, die nur die gewünschten Merkmale codieren.
  • Wenn ns Unterräume verwendet werden, wird jeder, beschrieben durch Eigenvektoren Φ(j) mit den zugehörigen Eigenwerten λ(j) für ein gegebenes q1 der Projektion aus den kombinierten Unterräumen, folgendermaßen gegeben:
    Figure 00060001
    mit den Randbedingungen, dass
    Figure 00060002
    minimiert wird. Wenn somit M die Matrix ist, die durch Verketten von Φ(j=1, 2 ...) gebildet wird, ist und D die Diagonalmatrix von λ(j=1, 2 ...) ist, dann gilt: w = (DMTM + 1)–1DMT(q – q) (6)und dies ergibt auch eine projizierte Version des Gesichts: q = (DMT)–1(DMTM + 1)w + q (7)mit w1 = 0 für diejenigen Unterräume, die nicht benötigt werden.
  • Die erste Stufe einer Implementierung der Erfindung bestand darin, das Gesamtmittel von jedem Gesicht zu subtrahieren, um so sicherzustellen, dass das Mittel von jedem Unterraum so nahe auf null wie möglich war. Getrennte Prinzipal-Komponenten-Analysen (PCAs) wurden dann für die Bildsätze durchgeführt, wobei jegliche weitere Differenz zwischen der Gruppe und dem gesamten Mittel beseitigt wurde. Die Kovarianz-Matrizen für die Identität- und Beleuchtungs-Unterräume wurden folgendermaßen berechnet
    Figure 00070001
    die Pose und der verwendete Ausdruck
    Figure 00070002
    wobei n0 die Anzahl von Beobachtungen pro Person, und np die Anzahl von Personen, und q das Mittel der Person i ist. Obwohl sämtliche Eigenvektoren, die nach dem Identitäts-, dem Beleuchtungs-, und dem Ausdruckssatz impliziert sind, verwendet wurden, wurden nur die zwei am meisten variablen aus dem Posensatz extrahiert.
  • Die Eigenvektoren wurden kombiniert, um M und die projizierte Version für jedes Gesicht auf jedem Unterraum, gefunden unter Verwendung der Gleichungen 6 und 7, zu bilden, um die Projektionen q'j des Gesichts q für den Unterraum j zu ergeben. Diese Prozedur lockert die verwendbare Variation. Z. B. ist es unwahrscheinlich, dass die Identitätskomponente der Ausdrucks- und Posen-Bilder genau durch den Identitäts-Satz alleine codiert werden. Somit wurde die volle Projektion q' berechnet, und das aufgezeichnete Bild rj enthielt eine nicht proportionale Fehlerkomponente:
  • Figure 00070003
  • Dies ergab vier Ensembles, mit jeweils 690 Bildern. Weitere vier PCAs wurden für die aufgezeichneten Bilder (alle unter Verwendung von Gleichung 8) ausgeführt, wobei die gleiche Anzahl von Komponenten wie bei der vorangehenden PCA für die Beleuchtungs-, Posen- und Ausdrucks-Unterräume und sämtliche nicht-null-Komponenten für den Identitäts-Unterraum extrahiert wurden. Diese bildeten eine neue Abschätzung von M und die ursprünglichen Gesichter reprojiziert auf diese Abschätzung der zweiten Ebene der Unterräume ergaben eine Abschätzung dritten Grades usw. Das abschließende Ergebnis in Bezug auf die Identitätsbilder ist in 4 gezeigt, die die ersten zwei Dimensionen des Identitäts-Gesichtsraums (von links –2s:d:, das Mittel +2s:d:) zeigt. Die Eigengesichter unterscheiden sich nur nach der Identität, wobei der Bereich davon erhöht worden ist. Im Vergleich mit denjenigen in 1 scheinen die Gesichtsdimensionen die gleichen Identitäten aufzuweisen, sind aber hinsichtlich des Ausdrucks, der Pose und der Beleuchtung normalisiert.
  • Da dem Identitätsraum erlaubt wurde, die Anzahl von Eigengesichtern zu verändern, während die anderen fest waren, tendierte irgendwelches Rauschen, das in dem System vorhanden ist, vermeidbar sich in dem Identitätsraum zu akkumulieren und würde eine Gesichtserkennung verringern, wenn ein Mahalanobis-Maß genommen werden würde. Sobald sich das System stabilisiert hatte, wurde somit eine abschließende PCA für
    Figure 00070004
    für die Identitäts-Projektionen des vollständigen Satzes von Bildern angewendet, wobei 97% der Varianz codiert wurde. Dies erlaubte eine abschließende Drehung, um eine Personenzwischenvarianz zu maximieren, wobei die Identitätseigenvektoren von 497 auf 153 verringert wurden. Diese gedrehten Eigengesichter wurden nur für eine Erkennung verwendet.
  • Eine Konvergenz des Verfahrens wurde durch Verwendung der Mahalanobis-Abstände zwischen sämtlichen Bildern auf jedem der Unterräume abgeschätzt. Eine Pearson-Produkt-Moment-Korrelation wurde zwischen den Abständen von sukzessiven Iterationen genommen und erlaubte eine Konvergenz auf die Maschinengenauigkeit, obwohl in der Praxis ein geringfügig kleinerer Wert die gleichen Ergebnisse mit verringerter Verarbeitungszeit erzielen würde. Das Verfahren gab einen relativ glatten Satz von Korrelationskoeffizienten, wie in 5 gezeigt, die auf ungefähr sieben Iterationen konvergieren (5 zeigt Änderungen in den Korrelationen zwischen den Mahalonobis-Abständen, die sämtliche Bilder auf dem Mehrfachraum zwischen der Iteration n und n – 1 trennen). Da nur 99,99% der Varianz in dem Ensemble Probleme mit einer numerischen Genauigkeit vermeidet, wurde eine praktische Konvergenz mit der vierten Iteration erzielt.
  • Da die Iterationen den Einschluss von Information beinhalteten, die bei der vorangehenden Iteration nicht codiert wurden, sollte erwartet werden, dass die Differenz zwischen den ursprünglichen und projizierten Bildern abnehmen sollte. Dies sollte sowohl auf das Ensemble als auch auf Nicht-Ensemble-Bilder zutreffen, da die Eigengesichter bessere Repräsentanten werden.
  • Dies wurde durch Projizieren der Bilder durch die kombinierten Räume (unter Verwendung der Gleichungen 6 und 7) und Messung der Größe der Fehler getestet. Dies wurde sowohl für die Ensemble bzw. Gruppen-Bilder als auch für einen großen Testsatz durchgeführt (der als 'Manchester' bezeichnet wurde), der zuerst in [A. Lanitis, C. J. Taylor, und T. F. Cootes. An automatic face identification system using flexible appearance models. British Machine Vision Conference, Seiten 65–74, 1994] verwendet wurde. Dieser bestand aus 600 Bildern von 30 Personen, aufgeteilt in eine Hälfte: eine Galerie von 10 Bildern pro Person und einen Satz von 10 Proben pro Person. Wie aus der 6 ersichtlich, nahmen in beiden Fällen die Fehler schnell auf einen vernachlässigbaren Pegel ab (Fehler nehmen schnell auf einen vernachlässigbaren Pegel in beiden Fällen ab. Fehler auf den individuellen Unterräumen bleiben hoch (4.000 bis 11.000)). Im Vergleich weisen die zwei Sätze mittlere Größen (Gesamtvarianz) von 11345 und 11807, gemessen auf den Erscheinungs-Modell-Eigengewichtungen, auf.
  • Der Grad der Normalisierung wurde für den Manchester-Satz gemessen, wobei die Identitätsgewichtungen unter Verwendung von Gleichung 6 berechnet und das Personenmittel w j aufgefunden wurde. Eine bessere Entfernung einer verunreinigenden Varianz sollte die Varianz für jede Person, relativ zu diesem Mittel, verringern. Die Varianz
    Figure 00080001
    wurde berechnet. Die Ergebnisse dieses Tests in 7 zeigen eine stetige Abnahme in der Identitäts-Unterraum-Varianz (7 zeigt die mittleren Personeninnen-Varianzen für die verschiedenen Unterräume als eine Funktion der Iterationsanzahl). Die einzige Ausnahme dazu ist der Wert für die Iteration zwei; dies ist dahingehend ungewöhnlich, dass ein großer Anstieg in der Anzahl von Dimensionen vorhanden ist, ohne eine Gelegenheit, diese Variation in die anderen Unterräume neu zu verteilen.
  • Die Ergebnisse einer Projektion der Gesichter in die anderen Unterräume sind gezeigt, wie auch die Varianz in dem Erscheinungsmodell. Wie erwartet wird, sind diese alle höher als der Identitäts-Unterraum-Wert, und zeigen keine ausgeprägten Abnahmen mit dem Fortschreiten der Iterationen. In der Tat steigt die Posen-Varianz geringfügig an.
  • Eine Erkennung wurde ebenfalls für den Manchester-Satz getestet, wobei die Bilder auf dem abschließenden gedrehten Raum codiert wurden. Das Erscheinungs-Modell (Appearance-Model), welches zum Bereitstellen von Entsprechungen verwendet wurde, ergab nicht vollständig genaue Positionen, wobei die Erkennung absinkt. Die gepoolte Kovarianz-Matrix wurde unter Verwendung der Gleichung 9 auf der wi gefunden. Dies erlaubte d2i→k = (w i – wk)TC–1W (w i – wk) (13)zu bestimmen, wobei 1 ≤ k ≤ (n0 × np) ist, um Mahalanobis-Abstände für die mittleren Bilder zu ergeben. Eine Erkennung wurde bewertet, wobei das kleinste d die gleiche Identität für i und k aufwies. Die Ergebnisse sind in 8 gezeigt (was Erkennungsraten für eine Euclid-sche Durchschnitts-Bild-Anpassung zeigt), und zeigen, dass relativ zu der Basisbedingung eine Erkennung sich um ungefähr ein Prozent bei der Iteration 4 verbessert. Auch gezeigt sind die Effekte der Projektion der Testbilder durch den vollständigen Raum, um die Beleuchtung-Pose-Ausdruck-normalisierte Version zu ermitteln, und dann codiert auf dem abschließenden gedrehten Raum. Dies erzeugte nicht eine Verbesserung der Erkennung. Es sei hier darauf hingewiesen, dass zwingende, nicht-funktionale Korrelationen zwischen Parametern auf unterschiedlichen Unterräumen für Personen (z. B. eine konsistente Tendenz nach oben oder nach unten zu sehen) vorhanden sein können, deren Weglassung gegenüber theoretisch bevorzugten Eigengesichtern abgewogen werden muss.
  • Sobald ein genaues Codierungssystem für Gesichter erzielt worden ist, besteht das Hauptproblem darin, sicherzustellen, dass nur ein nützlicher Untersatz der Codes für irgendeine gegebene Manipulation oder Messung verwendet werden. Dies ist eine besonders schwierige Aufgabe, da mehrere nicht-orthogonale Erläuterungen für irgendeine gegebene Gesichtskonfiguration vorhanden sind. Zusätzlich ist es typischerweise der Fall, dass nur ein relativ kleiner Abschnitt der sehr großen Datenbank, die benötigt wird, in dem vollen Bereich von Bedingungen und mit den Labels, die zum Ausführen einer einfachen linearen Extraktion benötigt werden, vorhanden sein wird.
  • Die Erfindung beseitigt diese Probleme durch Verwendung eines iterativen Recodierungsverfahrens, welches sowohl die Varianz der als auch die Kovarianz zwischen den Unterräumen berücksichtigt, die extrahiert werden können, um Sätze von Gesichtern aufzuspannen, die sich in unterschiedlicher Weise unterscheiden. Dies ergibt 'sauberere' Eigengesichter, mit einer geringeren Varianz innerhalb der geeigneten Gruppe und mit einer höheren Varianz für eine ungeeignete Gruppe. Beide dieser Tatsachen reflektieren eine größere Orthogonalität zwischen den Unterräumen. Zusätzlich wurde eine Erkennung für einen vollständig nicht verbundenen Testsatz verbessert, obwohl marginal. Die Erfindung kann zum Nachverfolgen, Lippenlesen und einen Transfer einer Identität von einer Person auf eine andere angewendet werden.

Claims (5)

  1. Verfahren zum Bestimmen von Gesichts-Unterräumen, wobei das Verfahren umfasst: a. Erzeugen einer ersten Reihe von anfänglichen Bildern, bei denen eine erste vorgegebene Gesichtseigenschaft modifiziert ist, b. Erzeugen einer zweiten Reihe von anfänglichen Bildern, bei denen eine zweite vorgegebene Gesichtseigenschaft modifiziert ist, c. Kodieren jeder Reihe von Bildern in Übereinstimmung mit der Varianz der Bilder, um einen abgeschätzten Unterraum für jede Gesichtseigenschaft zu ermitteln, d. Verketten der Unterräume, um einen einzelnen übererschöpfenden Raum bereitzustellen, e. Approximieren jedes Bilds der ersten und der zweiten Reihen auf dem übererschöpften Raum, um approximierte Versionen von jedem Bild auf jedem abgeschätzten Eigenschafts-Unterraum zu ermitteln, f. Erzeugen von insgesamt approximierten Versionen jedes Bilds auf dem gesamten übererschöpfenden Raum, g. Vergleichen der gesamten approximierten Version von jedem Bild mit dem anfänglichen Bild, um einen Fehlerwert für jedes Bild zu bestimmen, h. Unterteilen des Fehlerwerts für jedes Bild in einen Unterfehler für jeden abgeschätzten Eigenschafts-Unterraum proportional zu der Varianz dieses Unterraums, i. Kombinieren jedes Unterfehlers für jedes Bild mit der approximierten Version dieses Bilds auf dem abgeschätzten Eigenschafts-Unterraum, um eine neue aproximierte Version in dem Eigenschafts-Unterraum für jedes Bild zu ermitteln, und j. Kodieren der neuen approximierten Versionen der Bilder in Übereinstimmung mit deren Varianz, um neue abgeschätzte Unterräume zu ermitteln.
  2. Verfahren zum Bestimmen von Gesichts-Unterräumen nach Anspruch 1, ferner umfassend das Approximieren jedes Bilds auf den neuen abgeschätzten Unterräumen, wie in den Schritten 'a' bis 'j' beschrieben, und dann das Wiederholen der Schritte 'd' bis 'j', bis die Unterräume sich stabilisiert haben.
  3. Verfahren zum Bestimmen von Gesichts-Unterräumen nach Anspruch 1 oder Anspruch 2, wobei drei oder mehr Reihen von Bildern erzeugt werden, wobei eine andere vorgegebene Gesichtseigenschaft in jeder Reihe modifiziert wird.
  4. Verfahren nach Anspruch 3, wobei die vorgegebenen Gesichtseigenschaften als wenigstens eine der Identität, des Ausdrucks, der Pose, der Beleuchtung und des Alters kategoriert werden.
  5. Verfahren nach irgendeinem der Ansprüche 1 bis 4, wobei wenigstens eine weitere Reihe von Bildern erzeugt wird, wobei eine weitere vorgegebene Gesichtseigenschaft in der Reihe modifiziert wird.
DE69914370T 1998-12-02 1999-11-29 Bestimmung von gesichtsunterräumen Expired - Fee Related DE69914370T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB9826398 1998-12-02
GBGB9826398.1A GB9826398D0 (en) 1998-12-02 1998-12-02 Face sub-space determination
GB9922807 1999-09-28
GBGB9922807.4A GB9922807D0 (en) 1999-09-28 1999-09-28 Face sub-space determination
PCT/GB1999/003953 WO2000033240A1 (en) 1998-12-02 1999-11-29 Face sub-space determination

Publications (2)

Publication Number Publication Date
DE69914370D1 DE69914370D1 (de) 2004-02-26
DE69914370T2 true DE69914370T2 (de) 2004-11-04

Family

ID=26314765

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69914370T Expired - Fee Related DE69914370T2 (de) 1998-12-02 1999-11-29 Bestimmung von gesichtsunterräumen

Country Status (10)

Country Link
US (1) US6876755B1 (de)
EP (1) EP1138011B1 (de)
JP (1) JP2002531901A (de)
AT (1) ATE258322T1 (de)
AU (1) AU762625B2 (de)
CA (1) CA2356252A1 (de)
DE (1) DE69914370T2 (de)
DK (1) DK1138011T3 (de)
ES (1) ES2212857T3 (de)
WO (1) WO2000033240A1 (de)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690830B1 (en) * 1998-04-29 2004-02-10 I.Q. Bio Metrix, Inc. Method and apparatus for encoding/decoding image data
US6853745B1 (en) * 2000-11-03 2005-02-08 Nec Laboratories America, Inc. Lambertian reflectance and linear subspaces
DE60233935D1 (de) * 2002-07-19 2009-11-19 Mitsubishi Electric Inf Tech Verfahren und Gerät zur Datenverarbeitung
HK1052831A2 (en) * 2002-09-19 2003-09-05 Xiaoou Sean Tang Sketch-photo recognition
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8363951B2 (en) * 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
JP2005128956A (ja) * 2003-10-27 2005-05-19 Pentax Corp 被写体判定プログラム及びデジタルカメラ
US7003140B2 (en) * 2003-11-13 2006-02-21 Iq Biometrix System and method of searching for image data in a storage medium
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
JP2006081156A (ja) * 2004-08-13 2006-03-23 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7668402B2 (en) * 2004-11-05 2010-02-23 Intergraph Technologies Company Method for generating a composite image
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7768528B1 (en) * 2005-11-09 2010-08-03 Image Metrics Limited Replacement of faces in existing video
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
EP2033142B1 (de) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
WO2008015586A2 (en) * 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP5049356B2 (ja) * 2007-02-28 2012-10-17 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド テクスチャ空間分解に基づく統計的顔モデリングにおける指向性照明変動性の分離
EP2188759A1 (de) 2007-03-05 2010-05-26 Fotonation Vision Limited Gesichtssuche und detektion in einer digitalbild-beschaffungseinrichtung
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
JP2008243093A (ja) * 2007-03-29 2008-10-09 Toshiba Corp 辞書データの登録装置及び辞書データの登録方法
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US7936906B2 (en) * 2007-06-15 2011-05-03 Microsoft Corporation Face recognition using discriminatively trained orthogonal tensor projections
US8750578B2 (en) * 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
WO2010012448A2 (en) 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8442330B2 (en) * 2009-03-31 2013-05-14 Nbcuniversal Media, Llc System and method for automatic landmark labeling with minimal supervision
US8358855B2 (en) * 2009-07-08 2013-01-22 Honeywell International Inc. Determining probabilities from compared covariance appearance models to detect objects of interest in images
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9235929B2 (en) 2012-05-23 2016-01-12 Glasses.Com Inc. Systems and methods for efficiently processing virtual 3-D data
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9152847B2 (en) * 2012-11-27 2015-10-06 Adobe Systems Incorporated Facial landmark localization by exemplar-based graph matching
US10068027B2 (en) 2015-07-22 2018-09-04 Google Llc Systems and methods for selecting content based on linked devices
US20190332848A1 (en) 2018-04-27 2019-10-31 Honeywell International Inc. Facial enrollment and recognition system
US11074733B2 (en) 2019-03-15 2021-07-27 Neocortext, Inc. Face-swapping apparatus and method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774576A (en) * 1995-07-17 1998-06-30 Nec Research Institute, Inc. Pattern recognition by unsupervised metric learning
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
US5867587A (en) * 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
US6009209A (en) * 1997-06-27 1999-12-28 Microsoft Corporation Automated removal of red eye effect from a digital image
US6148092A (en) * 1998-01-08 2000-11-14 Sharp Laboratories Of America, Inc System for detecting skin-tone regions within an image

Also Published As

Publication number Publication date
EP1138011B1 (de) 2004-01-21
DE69914370D1 (de) 2004-02-26
ATE258322T1 (de) 2004-02-15
AU762625B2 (en) 2003-07-03
US6876755B1 (en) 2005-04-05
ES2212857T3 (es) 2004-08-01
CA2356252A1 (en) 2000-06-08
AU1287900A (en) 2000-06-19
WO2000033240A1 (en) 2000-06-08
DK1138011T3 (da) 2004-03-08
EP1138011A1 (de) 2001-10-04
JP2002531901A (ja) 2002-09-24

Similar Documents

Publication Publication Date Title
DE69914370T2 (de) Bestimmung von gesichtsunterräumen
EP3657440B1 (de) Verfahren und system zur dreidimensionalen rekonstruktion eines menschlichen kopfes aus mehreren bildern
CN112766160B (zh) 基于多级属性编码器和注意力机制的人脸替换方法
Besserve et al. Counterfactuals uncover the modular structure of deep generative models
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE69838181T2 (de) Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung
DE60133840T2 (de) Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild
DE69934478T2 (de) Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
DE60223361T2 (de) Objektidentifikation
Zhao et al. Discriminant analysis of principal components for face recognition
Schneiderman et al. Probabilistic modeling of local appearance and spatial relationships for object recognition
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
DE60036780T2 (de) Verfahren zum Vergleichen eines zweidimensionalen Bildes zu einem unter mehreren in einem Datenbank gespeicherten dreidimensionalen Kandidatmodellen
DE69718553T2 (de) Gesichtserkennung unter der Verwendung von dct-gestützten Merkmalsvektoren
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE69719085T2 (de) Biometrische erkennung mittels eines satzes von vergleichsmustern
Nefian Embedded Bayesian networks for face recognition
DE69919464T2 (de) Elektronische Vorrichtung zur Bildausrichtung
DE60019786T2 (de) Identifizierung oder überprüfung von objektklassen, oder erzeugung von objektbildern
DE112004001906T5 (de) Verfahren und System zur hybriden starren Registrierung anhand gemeinsamer Korrespondenzen zwischen skaleninvarianten hervortretenden Regionsmerkmalen
DE60126040T2 (de) Erkennung von Gegenständen mit Verwendung linearer Unterräume
DE102006012499A1 (de) Verfahren zum Durchführen von Regression auf Bildbasis mit Boosten
DE69330708T2 (de) Texterkennung unter Verwendung zwei-dimensionaler stochastischer Modelle
DE69331419T2 (de) Bilddatenverarbeitung
DE69820578T2 (de) Verfahren und Mittel um Dokumente zu Vergleichen auf der Basis des räumlichen Layouts

Legal Events

Date Code Title Description
8339 Ceased/non-payment of the annual fee