DE602004009863T2 - Gesichtsformregistrierung aus Stereobildern - Google Patents

Gesichtsformregistrierung aus Stereobildern Download PDF

Info

Publication number
DE602004009863T2
DE602004009863T2 DE602004009863T DE602004009863T DE602004009863T2 DE 602004009863 T2 DE602004009863 T2 DE 602004009863T2 DE 602004009863 T DE602004009863 T DE 602004009863T DE 602004009863 T DE602004009863 T DE 602004009863T DE 602004009863 T2 DE602004009863 T2 DE 602004009863T2
Authority
DE
Germany
Prior art keywords
facial
face
model
points
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004009863T
Other languages
English (en)
Other versions
DE602004009863D1 (de
Inventor
Lie Pittsburgh Gu
Ziqing Li
Hong-Jiang Jingshun Road Chaoyang Dis Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of DE602004009863D1 publication Critical patent/DE602004009863D1/de
Application granted granted Critical
Publication of DE602004009863T2 publication Critical patent/DE602004009863T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Golf Clubs (AREA)

Description

  • Technisches Gebiet
  • Diese Erfindung ist auf Gesichtserkennung gerichtet und bezieht sich im Speziellen auf die Erkennung von Gesichtsmerkmalen durch die Platzierung von Punkten auf den Gesichtsmerkmalen, wobei mehrere Bilder eines Gesichtes verwendet werden.
  • Hintergrund
  • Ein dreidimensionales Objekt kann in zwei Dimensionen dargestellt werden. In der Tat hat die Darstellung von dreidimensionalen Objekten unter der Verwendung von zweidimensionalen Ansichten Vorteile in der Objektmodellierung und Synthese. In solch zweidimensionalen Darstellungen müssen die dreidimensionalen Merkmale eines Objektes nicht explizit wiederhergestellt werden und somit werden Schwierigkeiten in auf drei Dimensionen basierenden Methoden vermieden. Es ist eher üblich, Ansichten basierte Modelle zur Darstellung eines Objektes mit mehreren zweidimensionalen Ansichtsprojektionen zu verwenden. Wenn ein Objekt mit mehr als einer zweidimensionalen Ansicht dargestellt wird, wird üblicherweise ein pixelgenauer Übereinstimmungsplan für jede der zweidimensionalen Ansichten benötigt. Alternativ kann ein dürftiger Übereinstimmungsplan (correspondence map) zwischen einer kleinen Gruppe von Merkmalspunkten oder Kanten von Merkmalen auf dem Objekt zwischen jeder der zweidimensionalen Ansichten verwendet werden. Die Übereinstimmungskarte kann berechnet und angewendet werden, um die Form des Objektes von der Textur des Objektes zu separieren. Als solche können jeweils die Form des Objektes und die Textur des Objektes von einem bestimmten Sichtpunkt in einem linearen Unterraum (subspace) modelliert werden.
  • Wenn ein Objekt mit mehr als einer zweidimensionalen Ansicht dargestellt wird, kann es von Vorteil sein, Punkte festzulegen, die Merkmale des Objektes repräsentieren (Merkmalspunkte). Ein Merkmalspunkt basiert auf einer Übereinstimmung zwischen mehreren zweidimensionalen Ansichten und ist in einigen Anwendungen von Vorteil, weil er im Umgang mit Helligkeit und Farbabweichungen verlässlicher ist und weniger Berechnungsaufwand als die Bildung einer hochauflösenden bzw. dichten (dense) Darstellung des Objektes erfordert. Um dementsprechend eine Bildklasse (image class) eines Objektes genau zu modulieren, können zwei Probleme angegangen und gelöst werden. Das erste Problem ist es, die Merkmalspunkte auf den Merkmalen des Objektes durch die Verwendung einer Trainingsmenge von zweidimensionalen Ansichten zu lokalisieren. Wenn die Merkmalspunkte der Merkmale auf dem Objekt erstmal lokalisiert sind, ist das zweite Problem, die zugrundeliegende Übereinstimmung zwischen zwei oder mehr Gruppen bzw. Mengen (sets) von Merkmalspunkten aus einer entsprechenden Anzahl von zweidimensionalen Ansichten festzulegen.
  • Ein weiterer Schwierigkeitsgrad ergibt sich, wenn Merkmale in einem komplexen und unstarren Objekt bei der Verwendung von zweidimensionalen Ansichten lokalisiert werden sollen. Diese Schwierigkeiten können unter der Verwendung von schon vorhandenem Wissen bezüglich des Objektes selber angegangen werden. Zum Beispiel ist ein deformierbares Modell des Objektes ein Beispiel für solch vorhandenes Wissen. Deformierbare Modelle können Beschränkungen für die Lokalisierung von Merkmalen auf dem Objekt zur Verfügung stellen. Diese Beschränkungen, die von Bilddaten bezüglich des Objektes abgeleitet werden können, können verwendet werden, um mit den Problemen der Segmentation des Objektes oder der Detektion von Merkmalen auf dem Objekt verwendet zu werden. Im Speziellen bringen aktive Formmodelle (Active Shape Model – ASM), wie sie von Cootes et al. (Active Shape Model, T. F. Cootes, C. Taylor, D. Cooper und J. Graham. Active shape models – their training and their applications. Computer Vision and Image Understanding, 61 (1), Seiten 38 bis 59, Januar 1995) vorgeschlagen werden, den Vorteil, dass die Instanzen des Modells des Objektes nur auf die Weisen deformiert werden können, die aus der Trainingsmenge, aus der das Modell abgeleitet wurde, erlernt wurden. Das heißt, das Modell kann eine zu erwartende Varianz in der Segmentation (Einteilung) des Objektes beinhalten oder in der Detektion seiner Merkmale, aber das Modell sollte immer noch zu der Klasse des Objektes, die das Modell repräsentiert, zugeordnet sein. ASM verwendet die prinzipielle Komponentenanalysetechnik (Principle Component Analysis technique – PCA), um ein Objekt durch jeweils die zweidimensionalen Formvariationen des Objektes und die lokalen Graustufenstrukturen des Objektes zu modellieren. ASM ist insbesondere ein Prozess, der die Abfrage bzw. Interrogation von zweidimensionalen Ansichten eines Objektes und die Abschätzung der Form der Merkmale auf dem Objekt unter der Verwendung von Punkten (Merkmalspunkten), die jeweils ein jeweiliges Merkmal auf dem Objekt repräsentieren, beinhaltet.
  • Wenn zwei oder mehr verschiedene zweidimensionale Ansichten des gleichen Objektes zur Verfügung stehen, können die Merkmale auf dem Objekt für jede der Ansichten durch die Verwendung der ASM mit einem Modell des Objektes abgeglichen werden. Nachdem der Abgleich für jede Ansicht des Modells durchgeführt wurde, wäre es wünschenswert, die Übereinstimmung zwischen den jeweiligen Merkmalspunkten der Merkmale auf dem Objekt für die verschiedenen Ansichten herauszufinden, so wie durch eine Implikation über jede der verschiedenen Ansichten. Die ausfindig gemachten Merkmalspunkte für jedes Merkmal auf dem Objekt können allerdings nicht über die verschiedenen Ansichten geometrisch konsistent sein. Diese Inkonsistenz tritt auf, weil ASM nur eine einzelne Ansicht anstatt der Übereinstimmung zwischen den verschiedenen Ansichten berücksichtigt. Der Abgleich des Modells mit jeder der verschiedenen Ansichten könnte von der Verwendung einer Geometrie mehrerer Ansichten profitieren. Obwohl dies erreicht werden kann, setzt es voraus, dass alle wichtigen Merkmalspunkte von jedem Merkmal auf dem Objekt in jeder der zweidimensionalen Ansichten sichtbar bleiben.
  • Eine Technik zur Anwendung von ASM beinhaltet die Verwendung einer Menge von Trainingsbeispielen einer einzigen Gesichtsdarstellung aus verschiedenen Ansichten. Aus diesen Ansichten des einen Gesichtes kann eine Menge von Merkmalspunkten der Gesichtsmerkmale auf dem Gesicht manuell gekennzeichnet werden. Diese manuelle Kennzeichnung stellt eine Deformation des Gesichtes in seine verschiedenen Gesichtsmerkmale und die Punkte, welche die Gesichtsmerkmale ergeben, dar. Diese Merkmale können zum Beispiel eine Nase, Augen und einen Mund beinhalten. Die Merkmalspunkte sind diejenigen Punkte, welche die Gesichtsmerkmale auf dem Gesicht markieren. ASM benutzt die Menge von Trainingsdaten, welche die Deformation des Gesichtes repräsentieren, um die Gesichtsmerkmale auf einem anderen Gesicht durch die Verwendung von Ansichten des anderen Gesichtes zu analysieren. Diese konventionelle ASM-Technik leidet allerdings unter einer Ungenauigkeit bei der Lokalisierung von Gesichtsmerkmalen in den Ansichten des analysierten Gesichtes. Darüber hinaus kann die konventionelle ASM-Technik nur ein Gesicht deformieren, das auf dem Wege des in der Menge der Trainingsdaten deformierten Gesichtes analysiert wurde. Eine Teillösung zur Überwindung der innewohnenden Ungenauigkeit ist die Verwendung größerer Trainingsdatenbanken. Solch eine Lösung ist nur teilweise, weil sie nicht die lokale Graustufenmodellanpassung für die verschiedenen Ansichten des Gesichtes in Betracht zieht. Lokale Graustufenmodellanpassung tendiert dazu, die Daten so zu interpretieren, dass die Gesichtsmerkmale zu den stärksten photometrischen Kanten hin verschoben werden, was nicht notwendigerweise die eigentlichen Kanten eines Gesichtsmerkmales sind, wodurch weitere Ungenauigkeit erzeugt wird. Darüber hinaus kann die Verwendung einer größeren Trainingsdatenbank die Genauigkeit weiter herabsetzen, weil die zusätzlichen Daten dazu tendieren, die akzeptierbaren Gesichtsmerkmalsformen in einen für das analysierte Gesicht ungenauen Bereich zu erweitern.
  • Zusätzlich zu den vorangegangenen Problemen, ist ASM beim Finden der gleichen Gesichtsmerkmale in zwei leicht verschiedenen Ansichten des gleichen Gesichtes nicht konsistent. ASM gewährleistet nicht immer, dass die in Trainingsdaten für ein Trainingsobjekt identifizierten Merkmale zu gleichen Merkmalen führen, wenn zwei leicht unterschiedliche Ansichten eines anderen Objektes abgesucht werden. Diese Unzulänglichkeit kann Beleuchtungsschwankungen zugewiesen werden, die aus einer Rotation des Objektes in verschiedenen zweidimensionalen Ansichten resultieren, oder sie kann verschiedenen Ausgangswerten bzw. -parametern zugewiesen werden. Zwei negative Ergebnisse können auftreten, wenn die konventionelle ASM in dieser Umgebung benutzt wird. Ein Ergebnis ist, dass das konventionelle ASM-Modell Merkmale auf einem Objekt falsch identifiziert oder die Merkmalspunkte für die Merkmale auf dem Objekt unterschiedlich lokalisiert. In beiden Fällen werden unterschiedliche zweidimensionale Ansichten des gleichen Objektes Merkmale hervorbringen, die nicht zwischen den verschiedenen zweidimensionalen Ansichten übereinstimmen, wenn die konventionelle ASM verwendet wird. Daraus folgt, dass die Übereinstimmung zwischen den identifizierten Merkmalen der verschiedenen Ansichten ungenau ist, wenn die konventionelle ASM verwendet wird.
  • Es wäre ein technischer Fortschritt, eine Technologie zu entwickeln, die genau und konsistent die gleichen Merkmale in verschiedenen Ansichten des gleichen Objektes ausfindig machen kann.
  • Ein System und ein Verfahren zur Bereitstellung verbesserter Kopfbewegungsabschätzungen für Animationen ist in der US 2002/0102010 A1 beschrieben.
  • Zusammenfassung
  • Eine Ausführungsform der Erfindung identifiziert Gesichtsmerkmale über die Lokalisierung von Punkten für die Gesichtsmerkmale, so wie Augenwinkel und eine Nasenspitze. Um dies zu vollbringen, wird eine Trainingsmenge von mehreren zweidimensionalen Ansichten eines Gesichtes verwendet, um einen Trainingsdatensatz zu entwickeln. Der Trainingsdatensatz wird mit den zweidimensionalen Ansichten des Gesichtes in einem mathematischen Modell verwendet. Das mathematische Modell wird zur Identifizierung sowohl der inneren als auch der äußeren Gesichtsmerkmale auf den zwei verschiedenen zweidimensionalen Ansichten verwendet, um somit einen Stereokopplungsmechanismus zur Identifikation von Gesichtsmerkmalen auf jeder der zwei verschiedenen Ansichten zu präsentieren. Das mathematische Modell verwendet eine innerhalb einer Fundamentalmatrix enkodierte epipolare Geometrie, um die Regionen in jeder der beiden verschiedenen Ansichten einzugrenzen, in welchen die Gesichtsmerkmale lokalisiert werden. Das mathematische Modell findet eine geometrische Übereinstimmung zwischen den Punkten für jedes Merkmal bzw. auf jeder der beiden verschiedenen Ansichten des gleichen Gesichtes.
  • In einer anderen Ausführungsform der Erfindung werden äußere und innere Gesichtsmerkmale eines Gesichtsmodells mit denen eines ersten Modells für eine erste Gesichtsdarstellung und mit denen eines zweiten Modells für eine zweite Gesichtsdarstellung abgeglichen. Jeder der Abgleiche der äußeren und inneren Gesichtsmerkmale des ersten und zweiten Gesichtsmodells wird unter Verwendung der dazugehörigen epipolaren Rand- oder Nebenbedingungen bzw. Eingrenzungen oder Einschränkungen für das erste und das zweite Modell angepasst. Die erste und zweite Gesichtsdarstellung sind Darstellungen bzw. Abbildungen des gleichen Gesichtes, das im Wesentlichen jeweils in der gleichen Kameraausrichtung aufgenommen ist. In anderen Ausführungsformen haben die Darstellungen verschiedene, sich in der Gierung unterscheidende Gesichtsposenbereiche.
  • In noch einer anderen Ausführungsform der Erfindung wird eine Initialisierung durchgeführt, indem ein Gesichtsmodell für erste und zweite Modelle für entsprechende erste und zweite Darstellungen durchgeführt wird. Jedes der ersten und zweiten Modelle hat äußere und innere Gesichtsmerkmale, die durch eine Vielzahl von Punkten definiert werden. Eine Fundamentalmatrix wird für das erste und zweite Modell abgeschätzt. Die Punkte werden für jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells unter Verwendung der jeweiligen lokalen Textur für jeden Punkt aktualisiert. Jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells wird dann aktualisiert. Die Punkte für jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells werden unter Verwendung der Fundamentalmatrix und der entsprechenden epipolaren Randbedingungen aktualisiert. Eine Aktualisierung wird dann für jedes der äußeren Gesichtsmerkmale des ersten und zweiten Gesichtsmodells ausgeführt. Wenn das erste Modell innerhalb einer vorbestimmten Toleranz des Gesichtsmodells konvergiert hat, wird eine Repräsentation bzw. Symbolisierung oder Darstellung der ersten und zweiten Gesichtsmerkmale des ersten Gesichtsmodells ausgegeben. Wenn das zweite Modell innerhalb einer vorbestimmten Toleranz des Gesichtsmodells konvergiert hat, wird eine Repräsentation der inneren und äußeren Gesichtsmerkmale des zweiten Modells ausgegeben.
  • Kurze Beschreibung der Zeichnungen
  • Ein vollständigeres Verständnis der Ausführungsformen kann mit Bezug auf die folgende detaillierte Beschreibung erlangt werden, wenn diese in Verbindung mit den begleitenden Zeichnungen gesetzt wird, von denen:
  • 1a1b einen Mechanismus zum Abgleich von Ecken verschiedener Gesichtsmerkmale über Punkte, die eine Umrisslinie um jedes Gesichtsmerkmal auf zwei verschiedenen zweidimensionalen Ansichten des Gesichtes bilden, darstellt, wobei sich das Gesicht in zwei (2) verschiedenen Positionen befindet und wobei der Mechanismus eine Fundamentalmatrixabschätzung verwendet.
  • 2 stellt eine Zerlegung eines Gesichtes in innere und äußere Gesichtsmerkmale dar, die jeweils von einer eine Mehrzahl von Punkten verbindenden Linie umrissen werden.
  • 3a3b zeigen entsprechende zweidimensionale Ansichten eines Gesichtes in verschiedenen Posen, wobei die Ansichten Startbilder repräsentieren, die bei Ausführungsformen der Erfindung verwendet werden können.
  • 4a4b sind epipolare geometrische Darstellungen, welche die Übereinstimmung zwischen Punkten auf zwei verschiedenen zweidimensionalen Ansichten eines Bildes gemäß einer Ausführungsform der Erfindung darstellen.
  • 5a5b repräsentieren gemäß einer Ausführungsform der Erfindung eine erste Iteration eines Stereokopplungsmechanismus zur Identifikation der übereinstimmenden Gesichtsmerkmale auf den zwei verschiedenen Ansichten von jeweils 3a3b, durch die Verwendung einer in einer Fundamentalmatrix enkodierten Geometrie.
  • 6a6b, 7a7b und 8a8b repräsentieren entsprechende Iterationen des Stereokopplungsmechanismus, wie er in Bezug auf die 5a und 5b verwendet wurde.
  • 9 ist ein Flussdiagramm von einer Prozedur für das Auffinden von Gesichtsmerkmalen, die gemäß einer Ausführungsform der Erfindung einen Stereokopplungsmechanismus verwendet, wobei die Prozedur mit den in 3a3b gezeigten Darstellung verwendet werden kann, um die entsprechenden in 5a5b bis zu 8a8b gezeigten Ergebnisse zu zielen.
  • 10 ist ein Blockdiagramm eines vernetzten Computers gemäß einer Ausführungsform, der zur Implementierung entweder als Server oder als Client verwendet werden kann.
  • Ausführliche Beschreibung
  • Die vorliegende Erfindung richtet sich auf die Gesichtsmodellierung und Identifikation von Gesichtsmerkmalen. Ausführungsformen der vorliegenden Erfindung verwenden epipolare Geometrie bei der Gesichtsformenanalyse, um Gesichtsmerkmale wie eine Nase, Augen, Augenbrauen, einem Mund usw. zu bestimmen. Diese ausführliche Beschreibung geht davon aus, dass der Leser ein Verständnis von der epipolaren Geometrie hat.
  • Abschätzung der Fundamentalmatrix
  • 1a1b zeigen zwei Zieldarstellungen, die durch die Abschätzung der Fundamentalmatrix E zwischen ihnen kalibriert werden. Ein Beispiel einer Formel für die Berechnung der Fundamentalmatrix E für ein Darstellungspaar wird von Zhang et al. (Z. Zhang, Determining the epipolar geometry and its uncertainty: a review. The International Journal of Computer Vision, 27 (2): 161-195, 1998) zur Verfügung gestellt. Die zwei Bilder werden von einer statischen bzw. feststehenden Kamera aufgenommen während der Kopf sich in einer Frontalposition befindet und in der Gierungsrichtung zwischen den beiden Ansichten bewegt wird. Wegen der Beleuchtungsänderung, wenn der Kopf rotiert, erscheint die Farbe von den gleichen physikalischen Punkten in den zwei Ansichten unterschiedlich zu sein. Somit ist es vorteilhaft, Gesichtsmerkmale des Gesichtes zu identifizieren, weil die Identifikation von Gesichtsmerkmalen widerstandsfähiger gegenüber Identitätsvariationen ist, als auf dem optischen Fluss basierte Verfahren. Die Abschätzung der Fundamentalmatrix E kann vier (4) Schritte beinhalten: 1) Schätze die Lokalisierung von Gesichtern über die Bestimmung von Unterschieden zwischen den zwei verschiedenen Ansichten ab; 2) mache die Ecken von jedem Gesichtsmerkmal in den Darstellungen ausfindig; 3) gleiche die Ecken jedes Gesichtsmerkmals über eine Korrelation zwischen den zwei verschiedenen Darstellungen ab; und 4) lehne falsche Abgleiche ab und schätze die Fundamentalmatrix über kleinste mittlere Fehlerquadrate ab. 1a1b zeigen ein Gesichtsdarstellungspaar und die Menge von Eckübereinstimmungen für Gesichtsmerkmale, die mit dieser Technik aufgestellt wurden. Dennoch wird ein Gesichtsmodell für noch genauere Korrelationen der Gesichtsmerkmale zwischen den zwei verschiedenen Darstellungen benötigt. So ein Gesichtsmodell, wie es in 2 gezeigt und weiter unter erörtert wird, ist eine Repräsentation von Gesichtsmerkmalen, d. h. Nase, Augen, Augenbrauen, Mund usw.
  • Zerlegung eines Gesichtsformenmodells
  • Eine Trainingsmenge von Gesichtsformen,
    Figure 00080001
    kann zur Verfügung gestellt werden, wobei ein Formenvektor durch
    Figure 00080002
    repräsentiert wird. Si, ein Formenvektor, repräsentiert die Punkte, die verschiedene Merkmale auf einem Gesicht (Gesichtsmerkmale) ergeben. Wie in 2 ersichtlich, wurde ein Gesicht in innere Gesichtsmerkmale (Augen, Nase und Mund) zerlegt, von denen jedes als mit einer eine Mehrzahl von Punkten verbindenden Linie umrissen bzw. umrandet gezeigt ist. 2 zeigt 63 Punkte, die zusammen diese drei inneren Gesichtsmerkmale ausmachen. Das Gesicht wurde auch in äußere Gesichtsmerkmale (ein Paar Augenbrauen und eine Silhouette des Kiefers, Kinns und der Wangen) zerlegt, von denen jedes mit einer eine Mehrzahl von Punkten verbindenden Linie umrissen ist. 2 zeigt 19 Punkte, die diese zwei verschiedenen äußeren Gesichtsmerkmale ergeben. Somit ergeben insgesamt 83 Punkte fünf (5) verschiedene Gesichtsmerkmale, wie in der Zusammensetzung der zerlegten Gesichtsmerkmale an der unteren Seite von 2 zu sehen ist.
  • Die Punkte auf der Silhouette sind hilfreich, weil sie dabei behilflich sein können, die Regionen des Gesichtes vom Hintergrund abzugrenzen bzw. zu segmentieren. Wegen der Selbstokklusion (occlusion), die durch die Rotation des Kopfes in der Gierrichtung herbeigeführt wird, sind die Punkte auf der Silhouette allerdings schwierig genau den zwei verschiedenen Ansichten des gleichen Gesichtes zuzuordnen, da diese Punkte nicht den epipolaren Randbedingungen genügen werden. Um diese Schwierigkeit zu überwinden, wird ein zerlegtes Gesichtsmodell verwendet. Wie in 2 gezeigt ist, ist der Formenvektor S; in zwei Teile unterteilt, der innere Vektor Sin und der äußere Vektor Sout. Sin zeigt die 64 Punkte an, welche die drei inneren Gesichtsmerkmale ergeben, und der äußere Vektor Sout zeigt die anderen 19 Punkte an, welche die Augenbrauen und die Silhouette oder Gesichtskontur definieren. Selbstverständlich könnte eine andere Anzahl von Punkten ausgewählt werden, um jedes der Gesichtsmerkmale zu repräsentieren. Ein weiterer Grund zur Abgrenzung bzw. Freistellung der Silhouette des Kiefers, Kinns und der Wangen ergibt sich aus der Tatsache, dass ihr lokales Graustufenmodell weniger stabil als das der Punkte ist, welche die drei inneren Gesichtsmerkmale ergeben, wenn die Hintergründe, die in den Trainingsdarstellungen präsentiert werden, überladen sind. In Anbetracht dessen, dass die Peripherie der Augenbrauen schwieriger auszumachen ist, als andere innere Gesichtsmerkmale und eher von anderen Faktoren, so wie durch verschiedene Frisuren, beeinflusst wird, werden die Augenbrauen auch dem Sout Formenvektor zugewiesen.
  • Nach der Ausrichtung aller Formenvektoren (Sin, Sout) am Tangentenraum (tangent space) der mittleren Form
    Figure 00090001
    in einer iterativen ASM-Prozedur wird eine Menge von normalisierten Formenvektoren
    Figure 00090002
    erhalten, wobei T eine euklidische Transformation über die Durchführung der Rotation θ, eine Skalierung S und eine Translation durch (Xi, Yi) darstellen. Ein Beispiel für solch eine iterative ASM-Prozedur, die verwendet werden kann, wird von Cootes et al., wie oben beschrieben ist, zur Verfügung gestellt.
  • Der Zerlegungsstrategie folgend wird jedes ausgerichtete Gesicht
    Figure 00090003
    in zwei Vektoren entkoppelt
    Figure 00090004
    Zwei Formenräume UF und Uin werden unter Verwendung der prinzipiellen Komponentenanalysetechnik (PCA) von der ASM als
    Figure 00090005
    berechnet, worin UF die Matrix ist, die aus k Hauptmöglichkeiten von Variationen in
    Figure 00090006
    (princial modes of variations und Uin ist die aus
    Figure 00090007
    erlernt wurde. Für jeden Punkt j für jedes Gesichtsmerkmal in der Form i aus der Trainingsmenge wird ein Graustufenprofil gμ extrahiert, das um die j zentriert ist. Der Abweichungsvektor dμ von gμ wird berechnet und normalisiert aus:
    Figure 00090008
    worin k der Index der Punkte entlang des Profils ist. PCA wird nochmals verwendet, um die Variation des Vektors
    Figure 00090009
    zu modellieren. Ein Beispiel für die PCA der ASM, wie sie hierbei verwendet wird, wird in Cootes et al., wie oben beschrieben, gegeben.
  • Stereokopplungsmodellsuche
  • Ein Stereokopplungsmodell von abgeglichenen übereinstimmenden Gesichtsmerkmalen von zwei Ansichten des gleichen Gesichtes beginnt mit einer anfänglichen Abschät zung der Gesichtsposition und des mittleren Formenvektors in beiden Darstellungen. ASM wird für jede der beiden Ansichten angewendet, um jeden Punkt von jedem Gesichtsmerkmal entsprechend der lokalen Texturstatistiken (z. B. photometrische Daten nahe jedes Punktes) zu aktualisieren. Um dies zu tun, werden die Punkte entlang einer Richtung bewegt, die senkrecht zu der Modellgrenze verläuft. Die Qualität der Anpassung wird dann bewertet und daraus kann eine neue Position für jeden Punkt vorgeschlagen werden. Die beste Übereinstimmung wird oft an einer starken Kante gefunden, basierend auf dem Umfang der photometrischen Daten.
  • Der nächste Schritt beinhaltet, die plausibelste Form zu finden, die sowohl der vorangegangenen Formenverteilung als auch den epipolaren Randbedingungen genügt. Die Modellanpassung kann als das Finden der optimalen Parametersätze bzw. Mengen c der Formenmodelle in den zwei Darstellungen formuliert werden, um eine Verlustfunktion L(c) zu minimieren, die zwei Randbedingungen besitzt, z. B. sind
    Figure 00100001
    den Randbedingungen
    Figure 00100002
    untergeordnet, worin d (x, y) der euklidische Abstand zwischen den Punkten x und y und Sin1 sowie Sin2 die beobachteten Merkmalspunkte nach der auf der lokalen Textur basierenden Aktualisierung sind,
    Figure 00100003
    und
    Figure 00100004
    die Modellinstanzen angeben:
    Figure 00110001
  • Die Parameter bin1 und bin2 sollten der zweiten Bedingung genügen, um eine wünschenswert genaue Gesichtsform zu erzeugen.
  • L(c) wird verwendet, um die Unterschiede zwischen den Modellinstanzen und den beobachteten Merkmalen zu bewerten.
  • Alternativ kann die epipolare Geometrie gemäß L(c) auch als eine Maßnahme angesehen werden, um die richtigen korrespondierenden Punkte zu finden. Während der Suchprozedur kann eine typische beobachtete Angleichung μ ↔ μ' unter den Formen Sin1, Sin2 verrauscht (noisy) sein und es ist wünschenswert, die eine Richtige zu erhalten. L(c) zeigt den Abstand zwischen den ursprünglichen Merkmalspunkten
    Figure 00110002
    und den korrekten dazugehörigen Punkten
    Figure 00110003
    an, worin
    Figure 00110004
    die Punkte in den Forminstanzen
    Figure 00110005
    sind. Eine Annahme wird gemacht, dass dabei eine gaußsche Fehlerverteilung von μ, μ' über den Punkten
    Figure 00110006
    liegt, die wiederum bzw. der Reihe nach die Verlustfunktion L(c) für die wahrscheinlichsten Werte minimieren wird, welche eine genaue Übereinstimmung zwischen Punkten auf zwei verschiedenen Ansichten repräsentieren werden.
  • Eine Prozedur für die Lokalisierung und genaue Übereinstimmung zwischen Punkten auf den zwei verschiedenen Ansichten beinhaltet das Zerlegen von Formenvektoren und die kombinierten Randbedingungen von beiden epipolaren Randbedingungen (Gleichung 3) und den vorangegangenen Formenrandbedingungen (Gleichung 4). Im Allgemeinen beginnt eine solche Prozedur mit der Initialisierung eines Formenmodells auf zwei verschiedenen Ansichten des gleichen Gesichtes hinsichtlich bzw. im Sinne der Ergebnisse des Auffindens des Gesichtes. Ein Beispiel für die Initialisierung von Formenmodellen auf zwei verschiede nen Ansichten, das hierbei verwendet werden kann, wird von Li et al. (S.Z. Li, Q.D. Fu, L. Cu, B. Scholkopf, Y.M. Cheng, H.J. Zhang. „Kernel Machine Based Leaming for Multi-View Face Detection and Pose Estimation" in den Unterlagen der 8. IEEE International Conference an Computer Vision. Vancouver, Canada. 9.–12. Juli 2001) gegeben. Nachdem die Formenmodelle von den verschiedenen Ansichten initialisiert wurden, werden die Punkte für jedes Gesichtsmerkmal unabhängig von der Verwendung der Textur (d. h. der photometrischen Daten) nahe jedes Punktes aktualisiert. Dann wird die Darstellung der inneren Form aktualisiert. Um dies zu tun, wird eine anfängliche Abschätzung für die inneren Formenvektoren Sin1, Sin2 vorgegeben. Diese anfängliche Abschätzung wird an die Bilddaten für die zwei verschiedenen Ansichten des Gesichtes angepasst. Eine Optimierung wird für die Parameter von Tin1, Tin2, bin1, bin2 gesucht und ein Abschneiden (truncation) von bin1, bin2 wird innerhalb von
    Figure 00120001
    entsprechend der vorangegebenen Formenrandbedingungen vorgenommen. Nach dem Abschneiden wird eine Aktualisierung der Punkte für die inneren Gesichtsmerkmale (Nase, Augen und Mund) entsprechend der epipolaren Randbedingungen vorgenommen.
  • Daher, dass die Punkte für die inneren Gesichtsmerkmale für die zwei verschiedenen Ansichten womöglich noch nicht die epipolare Randbedingung befriedigen, wird eine nichtlineare Optimierungslösung eingeführt, um die korrekte Übereinstimmung von
    Figure 00120002
    vom Angleich von μ ↔ μ'| zu finden. Wie bei den epipolaren geometrischen in 4a4b gezeigten Diagrammen gezeigt, ist lμ in der epipolaren Linie des Merkmalpunktes μ in der zweiten Ansicht oder dem Bild des gleichen Gesichtes. Eine Linie lμ wird rechtwinklig zu lμ' von μ', welche lμ an dem Punkt M schneidet, gezogen. Eine Linie lν, die von e2 durch einen Punkt ν auf lμ verläuft, ist eine epipolare Linie. Dementsprechend definiert der Punkt ν das Bündel von epipolaren Linien in der zweiten Darstellung. Das Bündel kann durch den Parameter λ parametrisiert werden, der durch den Abstand zwischen ν und μ' gezeichnet ist. Der Parameter μ' wird nach lν projiziert, um
    Figure 00130001
    zu erhalten. Der Parameter
    Figure 00130002
    ist die epipolare Linie von
    Figure 00130003
    in der ersten Ansicht oder dem Bild von dem gleichen Gesicht. Der Parameter μ wird auf
    Figure 00130004
    projiziert, um
    Figure 00130005
    zu erhalten. Um das optimale λν-μ zu finden, um L(c) wie in (2) zu minimieren, kann ein klassischer Levenberg-Marquardt Optimierer verwendet werden. Worin der Anfangswert von λ zu
    Figure 00130006
    gesetzt wird. Mehrere Iterationen können gemacht werden, um ein optimalen Wert von λ zu erreichen. Letztlich werden alle Punkte S1, S2, für alle Merkmale, wie es in dem ersten Schritt gemacht wurde, aktualisiert.
  • Im Allgemeinen wird die Form eines Gesichtes in einer Ausführungsform durch die vorangegangenen Schritte zur Minimierung einer internen Energiefunktion abgeschätzt. Die epipolaren Randbedingungen repräsentieren einen speziellen Energiebegriff, der auf das Finden der besten Übereinstimmungen zwischen den Punkten der Gesichtsmerkmale für jedes der zwei verschiedenen zweidimensionalen Ansichten des gleichen Gesichtes abzielt.
  • 5a5b bis zu 8a8b zeigen ein Ergebnis entsprechender Iterationen von einer Ausführungsform eines Stereokopplungsmechanismus, der die epipolare Geometrie verwendet, wobei 3a3b die zwei Anfangsansichten des gleichen Gesichtes repräsentieren. Wie in den letzten Ansichten in 8a8b gesehen werden kann, lokalisiert ein genaues Stereokopplungsmodell jedes Gesichtsmerkmal in zwei verschiedenen Ansichten, wobei die Konvergenz der Gesichtsmerkmale in den jeweiligen Ansichten gleich ist. Die Konvergenz ist möglich, weil geometrische auf die inneren Gesichtsmerkmale (Augen, Nase und Mund) angewendete Randbedingungen der Übereinstimmungszuordnung zwischen den zwei verschiedenen Ansichtsmodellen regulieren.
  • Eine Prozedur 900, gesehen in 9, stellt eine Ausführungsform der vorliegenden Erfindung dar, welche die Schritte eins (1) bis acht (8) beinhaltet, die auf zwei (2) verschiedene Ansichten des gleichen Gesichtes unter Verwendung des gleichen Gesichtsmodells angewendet werden. Die zwei Ansichten sind in der gleichen jeweiligen Kameraausrichtung zum Gesicht aufgenommen, wobei das Gesicht in der Gierrichtung zwischen den zwei verschiedenen Ansichten rotiert wurde. Die zwei Ansichten werden simultan bearbeitet. Schritte zwei bis sieben werden als Iterationen innerhalb der Prozedur 900 wiederholt.
  • Die Eingabe für die Prozedur 900 sind zwei Gesichtsdarstellungen, von denen ein Beispiel in 3a3b zur Verfügung gestellt wird. Die Eingabe ist am Schritt 1 in der Prozedur 900 in den Blöcken 902904 jeweils für die ersten und zweiten Gesichter (d. h. die zwei verschiedenen Ansichten des gleichen Gesichtes) ersichtlich. Nach Schritt 1 der Prozedur 900 folgt Schritt 2, in welchem die Eckpunkte von jedem Gesichtsmerkmal auf jedem Gesicht in jeder der zwei Darstellungen durch die Initialisierung des Formenmodells auf den ersten und zweiten Gesichtern in den Blöcken 908910 ausfindig gemacht werden. Die Blöcke 908910 können gleichzeitig ausgeführt werden. Mit Bezug auf die inneren Gesichtsmerkmale beinhalten die Eckpunkte für den Mund eine Vielzahl von Mundwinkeln. Die Eckpunkte für jedes der Augen beinhalten eine Vielzahl von Augenwinkeln und die Eckpunkte für die Nase beinhalten eine Nasenspitze.
  • Nachdem die Eckpunkte von jedem Gesichtsmerkmal ausfindig gemacht wurden, beinhaltet die Initialisierung des Gesichtsmodells auf den ersten und zweiten Gesichtern in den Blöcke 908910 auch die Festlegung der Übereinstimmungen zwischen den zwei Mengen von Eckpunkten. Mit anderen Worten verlangen die Blöcke 908910 die Initialisierung des ersten und zweiten Modells für die jeweiligen ersten und zweiten Gesichtsdarstellungen. Diese Initialisierung verwendet ein Gesichtsmodell, das äußere und innere Gesichtsmerk male hat, wobei jedes Gesichtsmerkmal durch eine Vielzahl von Punkten definiert wird und wobei jedes der ersten und zweiten Modelle äußere und innere Gesichtsmerkmale hat. Beispielsweise wird in 5a5b ein Beispiel für zwei verschiedene Ansichten gegeben, auf welche die Prozedur 900 angewendet wird. 2 zeigt ein Beispiel für das Gesichtsmodell, das sowohl innere als auch äußere Gesichtsmerkmale hat, von denen jedes durch eine Vielzahl von Punkten definiert wird. Die inneren Gesichtsmerkmale in 2 sind eine Nase, ein Mund und ein Paar Augen. Die äußeren Gesichtsmerkmale in 2 sind eine bogenförmige Unterkante des Gesichtes und ein Paar Augenbrauen. Wie anhand der Anfangseingaben von 3a3b gesehen werden kann, sind die ersten und zweiten Gesichtsdarstellungen das gleiche Gesicht, das im Wesentlichen in der gleichen Kameraorientierung aufgenommen wurde. Die jeweiligen Gesichtsposen der ersten und zweiten Gesichtsdarstellung sind im Wesentlichen im Nickwinkel gleich, im Wesentlichen im Rollwinkel gleich und mit Bezug auf die Gierung in einem Bereich von etwa 3 bis ungefähr 10 Grad (10°) unterschiedlich.
  • Nachfolgend wird eine Übereinstimmung zwischen den Eckpunkten der Gesichtsmerkmale in den zwei verschiedenen Ansichten festgelegt und eine Abschätzung der Fundamentalmatrix „E" für die ersten und zweiten Gesichter (Modelle) wird im Block 906 gemacht. Ein Beispiel einer Technik zum Abschätzen der Fundamentalmatrix „E", die im Block 905 der Prozedur 900 verwendet werden kann, ist in Pentland et al. beschrieben, wie oben erwähnt.
  • In Schritt 3 der Prozedur 900 wird eine Aktualisierung der Mehrzahl der Punkte für jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells (d. h. die ersten und zweiten Gesichter) gemacht, indem die jeweilige lokale Textur für jeden Punkt verwendet wird. Diese Aktualisierung tritt in den Blöcken 912914 der Prozedur 900 auf, wobei die loka le Textur für jeden Punkt die photometrischen Daten an und nahe dem Punkt beinhaltet. In Schritt 4 in den Blöcken 916918 wird eine Aktualisierung jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells vorgenommen, wobei die Ergebnisse der Aktualisierungen der Punkte aus Schritt 3 verwendet werden.
  • Schritte 1–4 werden vorgenommen, um zwei verschiedene Modelle zu aktualisieren, von denen jedes eine unterschiedliche Ansicht des gleichen Gesichtes darstellt. In Schritt 5 im Block 920 wird eine einheitliche Operation, anstatt von einem Paar von Operationen wie in den Schritten 1–4, ausgeführt. Block 920 benutzt die Fundamentalmatrix und die entsprechenden epipolaren Randbedingungen, um die Vielzahl der Punkte für jedes der inneren Gesichtsmerkmale in dem ersten und zweiten Modell zu aktualisieren. Mit anderen Worten, die im Block 920 ausgeführten Operationen verfeinern die aktualisierten ersten und zweiten Modelle durch die Verwendung zweier Randbedingungen, die mathematisch in den Gleichungen (3) und (4) oben ausgedrückt sind.
  • Der Schritt 6 führt zur Ausführung eines Paares von Operationen in den Blöcken 922924 zurück, worin eine Aktualisierung jedes der äußeren Gesichtsmerkmale des ersten und zweiten Gesichtsmodells gemacht wird. Ein Paar von Anfragen wird im siebten Schritt durchgeführt. Diese Anfragen tauchen in den Blöcken 926 und 928 für jeweils das erste und das zweite Modell auf. Im Block 926 wird eine Repräsentation für die inneren und äußeren Gesichtsmerkmale des ersten Gesichtsmodells ausgegeben, wenn das erste Modell innerhalb einer vorbestimmten Toleranz für das Gesichtsmodell konvergiert hat. Sonst werden die Schritte 3 bis 7 wiederholt, bis die Konvergenz für das erste Modell innerhalb der vorbestimmten Toleranz für das Gesichtsmodell liegt. Ebenso wird im Block 928 eine Repräsentation der inneren und äußeren Gesichtsmerkmale des zweiten Gesichtsmodells ausgegeben, wenn das zweite Gesichtsmodell innerhalb einer vorbestimmten Toleranz des Gesichtsmo dells konvergiert hat. Sonst werden die Schritte 3 bis 7 wiederholt, bis die Konvergenz für das zweite Modell innerhalb der vorbestimmten Toleranz für das Gesichtsmodell liegt. Ein Beispiel für die Ergebnisse von vier (4) Iterationen der Schritte 3 bis 7 ist jeweils in den 5a5b bis zu 8a8b gezeigt.
  • Der Konvergenz der Gesichtsmerkmale zwischen den zwei verschiedenen Ansichten folgend, kann das Ergebnis der Prozedur 900 für einen Gesichtserkennungsprozess verwendet werden. Zum Beispiel kann die Identifikation des Gesichtes einer Person in einer Datenbank vorgenommen werden, die wenigstens eine der ersten und zweiten Gesichtsdarstellungen abgleicht bzw. mit ihr übereinstimmt. Hierbei kann der Abgleichsprozess die ausgegebenen Repräsentationen der inneren und äußeren Gesichtsmerkmale von einem oder beiden der ersten und zweiten Modelle verwenden.
  • Ein Computersystem
  • 10 zeigt ein beispielhaftes Computersystem, das in den hierin beschriebenen Ausführungsformen verwendet werden kann. Der Computer 1042 beinhaltet einen oder mehrere Prozessoren oder Prozessoreinheiten 1044, einen Systemspeicher 1046 und einen Bus bzw. eine Datentransfereinrichtung 1048, die verschiedenartige Systemkomponenten verbindet, die den Systemspeicher 1046 bis zu den Prozessoren 1044 beinhalten. Der Bus 1048 repräsentiert einen oder mehrere von irgendeinem von mehreren Typen von Busstrukturen, inklusive einem Speicherbus oder einem Speichercontroller bzw. einer Speicherkontrollvorrichtung, einem Peripheriebus, einem beschleunigten Graphikanschluss (accelerated graphics Port) und einem Prozessor oder örtlichem Bus (local bus), der irgendeine der vielen verschiedenartigen Busarchitekturen verwendet. Der Systemspeicher 1046 beinhaltet einen nur lesbaren Speicher (read only memory – ROM) 1050 und einen Zufallszugriffsspeicher (random access memory – RAM) 1052. Ein rudimentäres Ein- und Ausgabesystem (BIOS) 1054 beinhaltet die rudimentären Routinen, die dabei behilflich sind, Informationen
  • zwischen den Elementen innerhalb des Computers auszutauschen, wie während des Startvorganges, der im ROM 1050 abgespeichert ist. Der Computer 1042 beinhaltet ferner einen Festplattenspeicher 1056, um auf eine Festplatte (nicht gezeigt) zu schreiben sowie von ihr zu lesen, Magnetscheibenspeicher 1058, um von einer entnehmbaren Magnetscheibe 1060 zu lesen und sie zu beschreiben, und ein optisches Laufwerk 1062, um von einer entnehmbaren optischen Scheibe (optical disc) 1064, so wie einer CD ROM oder anderen optischen Medien zu lesen oder diese zu beschreiben. Festplattenlaufwerke 1056, das Magnetscheibenlaufwerk 1058 und das optische Scheibenlaufwerk 1062 sind mit dem Bus 1048 über eine SCSI-Schnittstelle 1066 oder eine andere geeignete Schnittstelle verbunden. Die Laufwerke und die dazugehörigen computerlesbaren Medien ermöglichen eine nichtflüchtige Speicherung von computerlesbaren Instruktionen, Datenstrukturen, Programmmodulen und anderen Daten für den Computer 1042. Obwohl die hierin als Beispiel beschriebene Umgebung eine Festplatte, eine entnehmbare magnetische Scheibe 1060 und eine entnehmbare optische Scheibe 1064 beinhalten, sollte es für einen Fachmann ersichtlich sein, dass alle anderen Arten von computerlesbaren Medien, welche Daten speichern können, die für einen Computer zugänglich sind, wie zum Beispiel magnetische Kassetten, Flash-Speicherkarten, digitale Videoscheiben, Zufallszugriffsspeicher (RAMs), nur lesbare Speicher (ROMS) und ähnliche, ebenfalls in einer beipielsgemäß funktionierenden Umgebung verwendet werden können.
  • Eine Zahl von Programmmodulen kann auf der Festplatte 1056, der magnetischen Scheibe 1060, der optischen Scheibe 1064, dem ROM 1050 oder dem RAM 1052 gespeichert werden, die ein Betriebssystem 1070 oder einen oder mehrere Anwendungsprogram me 1072 (so wie eine Designanwendung), andere Programmmodule 1074 und Programmdaten 1076 beinhalten. Ein Anwender kann Kommandos und Informationen durch Eingabegeräte, wie eine Tastatur 1078 und ein Anzeigegerät 1080, eingeben. Andere Eingabegeräte (nicht gezeigt) können ein Mikrofon, einen Joystick (Steuerknüppel), ein Game-pad (Spielkontrollvorrichtung), eine Satellitenschüssel, einen Scanner oder ähnliches beinhalten. Diese und andere Eingabegeräte sind mit der Prozessoreinheit 1044 durch eine Schnittstelle 1082 verbunden, die an den Bus 1048 gekoppelt ist. Ein Monitor 1084 oder eine anderweitige Anzeigevorrichtung sind ebenfalls mit dem Bus 1048 über eine Schnittstelle, wie einem Videoadapter 1086 verbunden. Zusätzlich zu dem Monitor können Personalcomputer üblicherweise andere periphere Ausgabegeräte (nicht gezeigt), so wie Lautsprecher und Drucker, beinhalten.
  • Der Computer 1042 arbeitet im Allgemeinen in einer vernetzten Umgebung, die logische Verbindungen mit einem oder mehreren Computern andernorts verwendet, so wie einem andernortigen (remote) Computer 1088. Der anderortige Computer 1088 kann ein anderer Personalcomputer sein, ein Server, ein Router, ein Netzwerk-PC, ein gleichrangiges gekoppeltes Gerät (peer) oder ein anderer üblicher Netzwerkknoten, und beinhaltet üblicherweise viele oder alle der Elemente, die oben mit Bezug auf den Computer 1042 beschrieben sind.
  • Die logischen Verbindungen, die in 10 dargestellt sind, beinhalten ein lokales Netzwerk (local area network – LAN) 1090 und ein Großraumnetzwerk (wide area network – WAN) 1092. Solche Netzwerkumgebungen sind üblich für Büros, firmenübergreifende Computernetzwerke, interne Netzwerke (Intranets) und das Internet. Wenn der Computer in einer LAN-Netzwerkumgebung verwendet wird, ist er mit dem lokalen Netzwerk durch eine Netzwerkschnittstelle oder einen Adapter 1094 verbunden. Wenn der Computer in einer WAN- Netzwerkumgebung verwendet wird, beinhaltet der Computer in typischerweise ein Modem 1096 oder eine andere Vorrichtung zur Einrichtung einer Kommunikation über ein Großraumnetzwerk 1092, so wie das Internet. Das Modem 1096, welches intern oder extern sein kann, ist mit dem Bus 1048 über eine serielle Schnittstelle 1068 verbunden. In einer vernetzen Umgebung werden Programmmodule mit Bezug auf den Computer 1042 oder als Schnitte von ihm angezeichnet und können in einer fernliegenden Speichermedienvorrichtung abgespeichert werden. Es sollte verstanden werden, dass die Netzwerkverbindungen, die gezeigt sind, beispielhaft sind und andere Mittel zur Errichtung einer Kommunikationsverbindung zwischen den Computern verwendet werden können.
  • Im Allgemeinen sind die Datenprozessoren des Computers 1042 durch Instruktionsmittel programmiert, die zu verschiedenen Zeiten in den verschiedenen computerlesbaren Speichermedien des Computers abgespeichert werden. Programme und das Betriebssystem sind üblicherweise verteilt, z. B. auf einer Diskette (floppy disc) oder CD-ROMs. Von dort aus werden sie installiert oder in den sekundären Speicher des Computers geladen. Bei ihrer Ausführung werden sie wenigstens teilweise in den elektronischen Primärspeicher des Computers geladen. Das hierin beschriebene System beinhaltet diese und andere verschiedenartige Typen computerlesbarer Speichermedien, wenn solche Medien Instruktionen bzw. Befehle oder Programme zur Ausführung der beschriebenen Blöcke bzw. Abschnitte oder Kästen zusammen mit einem Mikroprozessor oder Datenprozessor beinhalten. Das beschriebene System kann auch den Computer selber beinhalten, wenn dieser entsprechend den hierin beschriebenen Verfahren und Techniken programmiert ist.
  • Aus Gründen der Darstellung werden Programme und andere ausführbare Programmkomponenten, so wie das Betriebssystem, hierin als abgegrenzte Blöcke bzw. Kästchen dargestellt, obwohl erkannt werden sollte, dass solche Programme und Komponenten zu verschiedenen Zeitpunkten in verschiedenen Speicherkomponenten des Computers auftreten und durch den bzw. die Datenprozessoren des Computers ausgeführt werden.
  • Schlussbetrachtung
  • Ausführungsformen ermöglichen die Darstellung von Gesichtsmerkmalen und die Lokalisierung von Punkten für die Gesichtsmerkmale, so wie Augenwinkeln, Nasenspitzen usw. Eine Übereinstimmung der Gesichtsmerkmale für ein Paar von verschiedenen Ansichten des gleichen Gesichtes kann durch die Verwendung einer epipolaren Geometrie herausgefunden werden. Ein mathematisches Modell beinhaltet die Variationen der Formen von sowohl den inneren Gesichtsmerkmalen als auch der äußeren Silhouette des Gesichtes. Ein Algorithmus verwendet ein Gesichtsmodell, das in innere und äußere Gesichtsmerkmale zerlegt ist, um den Abgleich der Gesichtsmerkmale auf einem Paar von verschiedenen Ansichten des gleichen Gesichtes zu verbessern.
  • Im Folgenden werden bevorzugte Ausführungsformen beschrieben:
  • Ausführungsform 1:
  • Ein Verfahren zum Identifizieren von Gesichtsmerkmalen, umfassend die Schritte eines:
    • (a) Initialisierens, unter Verwendung eines Gesichtsmodells, das äußere und innere Gesichtsmerkmale beinhaltet, die jeweils eine Vielzahl von Punkten beinhalten, sowie erste und zweite Modelle für entsprechende erste und zweite Gesichtsdarstellung, worin jedes der ersten und zweiten Modelle äußere und innere Gesichtsmerkmale beinhaltet, die jeweils eine Vielzahl von Punkten beinhalten;
    • (b) Abschätzens einer Fundamentalmatrix für die ersten und zweiten Modelle;
    • (c) Aktualisierens der Vielzahl von Punkten für jedes der inneren Gesichtsmerkmale des ersten und zweiten Gesichtsmodells durch die Verwendung der jeweiligen lokalen Texturen für jeden der Punkte;
    • (d) Aktualisierens jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells;
    • (e) Aktualisierens der Vielzahl von Punkten für jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells unter Verwendung der Fundamentalmatrix und der entsprechenden epipolaren Randbedingungen; und
    • (f) Aktualisierens jedes der äußeren Gesichtsmerkmale des ersten und zweiten Modells.
  • Ausführungsform 2:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, worin die Schritte ferner umfassen:
    • (g) Wenn das erste Modell innerhalb einer vorgeschriebenen Toleranz für das Gesichtsmodell konvergiert hat, wird eine Repräsentation der inneren und äußeren Gesichtsmerkmale des ersten Modells ausgegeben, sonst werden die Schritte (c) bis (f) für das erste Modell wiederholt; und
    • (h) wenn das erste Modell innerhalb einer vorbestimmten Toleranz für das Gesichtsmodell konvergiert hat, wird eine Repräsentation der inneren und äußeren Gesichtsmerkmale des zweiten Modells ausgegeben, sonst werden die Schritte (c) bis (f) für das zweite Modell wiederholt.
  • Ausführungsform 3:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, worin:
    die inneren Gesichtsmerkmale eine Nase, einen Mund und ein Paar von Augen beinhalten; und
    die äußeren Gesichtsmerkmale eine bogenförmige Unterkante des Gesichtes und ein Paar Augenbrauen beinhalten.
  • Ausführungsform 4:
  • Das Verfahren, wie es in der Ausführungsform 3 definiert wurde, wobei die Vielzahl von Punkten zu inneren Gesichtsmerkmalen gehören:
    der Mund beinhaltet eine Vielzahl von Mundwinkeln;
    jedes der Augen beinhaltet eine Vielzahl von Augenwinkeln; und
    die Nase beinhaltet eine Nasenspitze.
  • Ausführungsform 5:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, wobei die ersten und zweiten Gesichtsdarstellungen das gleiche Gesicht sind, das jeweils in der im Wesentlichen gleichen Kameraausrichtung aufgenommen wurde.
  • Ausführungsform 6:
  • Das Verfahren, wie es in der Ausführungsform 5 beschrieben ist, worin die jeweiligen Gesichtsposen der ersten und zweiten Gesichterstellungen:
    im Wesentlichen im Nickwinkel gleich;
    im Wesentlichen im Rollwinkel gleich; und
    im Gierwinkel in einem Bereich von etwa 3 Grad bis ungefähr 10 Grad unterschiedlich sind.
  • Ausführungsform 7:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, wobei die ersten und zweiten Gesichtsdarstellungen Bilder des gleichen Gesichtes sind, die in der im Wesentlichen gleichen jeweiligen Kameraausrichtung in dem im Wesentlichen gleichen Gesichtsposenbereich aufgenommen sind, sich jedoch in der Gierung unterscheiden.
  • Ausführungsform 8:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, worin der Gesichtsposenbereich der ersten und zweiten Gesichtsdarstellungen um einen Gierwinkel von nicht mehr als etwa 10 Grad (10°) unterschiedlich ist.
  • Ausführungsform 9:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, wobei:
    die erste Gesichtsdarstellung eine volle Frontalansicht eines menschlichen Gesichtes ist; und
    die zweite Gesichtsdarstellung sich von der ersten Gesichtsdarstellung durch eine Gierung von nicht mehr als etwa 10 Grad (10°) unterscheidet.
  • Ausführungsform 10:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, wobei die lokalen Texturen für jeden der Punkte photometrische Daten an oder nahe dem Punkt beinhalten.
  • Ausführungsform 11:
  • Das Verfahren, wie es in der Ausführungsform 1 beschrieben ist, das des Weiteren die Identifikation des Gesichtes einer Person in einer Datenbank umfasst, die wenigstens eine der ersten der ersten und zweiten Gesichtsdarstellungen abgleicht und aber jeweils die ausgegebene Repräsentation der inneren und äußeren Gesichtsmerkmale von:
    dem ersten Gesichtsmodell; und
    dem zweiten Gesichtsmodell verwendet.
  • Ausführungsform 12:
  • Ein computerlesbares Medium, das Instruktionen beinhaltet, die, wenn sie ausgeführt werden, das Verfahren der Ausführungsform 1 ausführen.
  • Ausführungsform 13:
  • Eine Vorrichtung zur Identifikation von Gesichtsmerkmalen umfassend:
    Mittel zur Initialisierung, die ein Gesichtsmodell verwenden, das äußere und innere Gesichtsmerkmale hat, die jeweils eine Vielzahl von Punkten beinhalten, sowie erste und zweite Modelle für die jeweiligen ersten und zweiten Gesichtsdarstellungen, wobei jedes der ersten und zweiten Modelle äußere und innere Gesichtsmerkmale hat, die jeweils eine Vielzahl von Punkten beinhalten;
    Mittel zur Abschätzung einer Fundamentalmatrix für die ersten und zweiten Modelle;
    Mittel zur Aktualisierung der Vielzahl von Punkten für jedes der inneren und äußeren Gesichtsmerkmale auf dem ersten und zweiten Gesichtsmodell, durch die Verwendung der jeweiligen lokalen Texturen für jeden der Punkte;
    Mittel zur Aktualisierung jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells;
    Mittel zur Aktualisierung der Vielzahl von Punkten für jedes der inneren Gesichtsmerkmale des ersten und zweiten Modells, wobei die Mittel die Fundamentalmatrix und die dazugehörigen epipolaren Randbedingungen verwenden, und
    Mittel zur Aktualisierung jedes der äußeren Gesichtsmerkmale des ersten und zweiten Modells, wobei die Mittel die Vielzahl von Punkten für jedes der inneren Gesichtsmerkmale der ersten und zweiten Modelle verwenden.
  • Ausführungsform 14:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, die des Weiteren beinhaltet:
    Mittel zur Ausgabe einer Repräsentation der inneren und äußeren Gesichtsmerkmale des ersten und des zweiten Modells, wenn eine Mehrheit der Punkte für jedes der äußeren und inneren Gesichtsmerkmale auf dem ersten Modell, welche mit denen des Gesichtsmodells übereinstimmen, einen relativen Versatz zwischen sich aufweisen, der nicht größer als eine vorgegebene Konvergenztoleranz ist; und
    Mittel zur Ausgabe einer Repräsentation der inneren und äußeren Gesichtsmerkmale des zweiten Gesichtsmodells, wenn eine Mehrzahl der Punkte für jedes der äußeren und inneren Gesichtsmerkmale auf dem ersten Modell, die mit denen des Gesichtsmodells übereinstimmen, einen relativen Versatz zwischen sich aufweisen, der nicht größer als eine vorbestimmte Konvergenztoleranz ist.
  • Ausführungsform 15:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei:
    die inneren Gesichtsmerkmale einen Nase, einen Mund und Augenpaar beinhalten; und
    die äußeren Gesichtsmerkmale eine bogenförmige Unterkante des Gesichtes und ein Augenbrauenpaar beinhalten.
  • Ausführungsform 16:
  • Die Vorrichtung, wie sie in der Ausführungsform 15 beschrieben ist, wobei die Vielzahl von Punkten zu dem inneren Gesichtsmerkmal gehören:
    wobei der Mund eine Vielzahl von Mundwinkeln beinhaltet;
    jedes der Augen eine Vielzahl von Augenwinkeln beinhaltet; und
    die Nase eine Nasenspitze beinhaltet.
  • Ausführungsform 17:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei die ersten und zweiten Gesichtsdarstellungen das gleiche Gesicht sind, das in der jeweils im Wesentlichen gleichen Kameraausrichtung aufgenommen ist.
  • Ausführungsform 18:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei die jeweiligen Gesichtsposen der ersten und zweiten Gesichtsdarstellung:
    im Wesentlichen im Nickwinkel gleich;
    im Wesentlichen im Rollwinkel gleich; und
    in der Gierung in einem Bereich von etwa 3 Grad bis ungefähr 10 Grad unterschiedlich sind.
  • Ausführungsform 19:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei die ersten und zweiten Gesichtsdarstellungen Bilder sind, die in der im Wesentlichen gleichen jeweiligen Kameraausrichtung von dem gleichen Gesicht in der im Wesentlichen gleichen Gesichtspose aufgenommen sind, sich jedoch in der Gierung unterscheiden.
  • Ausführungsform 20:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei der Gesichtsposenbereich in den ersten und zweiten Gesichtsdarstellungen in der Gierung um nicht mehr als etwa 10 Grad (10°) unterschiedlich ist.
  • Ausführungsform 21:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei: die erste Gesichtsdarstellung eine volle Frontalansicht ei nes menschlichen Gesichtes ist; und die zweite Gesichtsdarstellung sich von der ersten Gesichtsdarstellung in der Gierung um nicht mehr als etwa 10 Grad (10°) unterscheidet.
  • Ausführungsform 22:
  • Die Vorrichtung, wie sie in der Ausführungsform 13 beschrieben ist, wobei die lokale Textur für jeden der Punkte photometrische Daten an oder nahe dem Punkt beinhaltet.

Claims (20)

  1. Ein Verfahren zum Identifizieren von Gesichtsmerkmalen umfassend: Abgleichen äußerer und innerer Gesichtsmerkmale eines zweidimensionalen Gesichtsmodells, die jeweils durch eine Vielzahl von Punkten repräsentiert sind, mit: denen eines ersten Gesichtsmodells für eine erste Gesichtsdarstellung; und denen eines zweiten Gesichtsmodells für eine zweite Gesichtsdarstellung; wobei das Gesichtsmodell durch eine Trainingsmenge aus einer Vielzahl von zweidimensionalen Ansichten eines dreidimensionalen Gesichtes entwickelt wird; die Vielzahl von Punkten für jedes übereinstimmende äußere und innere Gesichtsmerkmal des ersten und zweiten Modells unter Verwendung der entsprechenden epipolaren Randbedingung für das erste und zweite Modell angepasst wird; und der Abgleich und das Anpassen wiederholt werden, bis: eine Mehrheit der Punkte für jedes der äußeren und inneren Gesichtsmerkmale an dem ersten Modell, die mit dem Gesichtsmodell übereinstimmt, einen relativen Versatz zwischen sich aufweist, der nicht größer als eine vorbestimmte Konvergenztoleranz ist; und eine Mehrheit der Punkte für jedes der äußeren und inneren Gesichtsmerkmale an dem zweiten Modell, die mit dem Gesichtsmodell übereinstimmt, einen relativen Versatz zwischen sich aufweist, der nicht größer als die vorbestimmte Konvergenztoleranz ist.
  2. Das Verfahren nach Anspruch 1, das des Weiteren die Ausgabe einer Darstellung von jedem der ersten und zweiten Modelle umfasst, die jeweils die jeweiligen inneren und äußeren Gesichtsmerkmale beinhalten.
  3. Das Verfahren nach Ansprach 1, worin: die inneren Gesichtsmerkmale eine Nase, einen Mund und ein Augenpaar umfassen; und die äußeren Gesichtsmerkmale eine gebogene Unterkante eines Gesichtes und eines Augenbrauenpaares umfassen.
  4. Das Verfahren nach Anspruch 1, worin die Vielzahl der Punkte und das dazugehörige innere Gesichtsmerkmal aus der Gruppe ausgewählt werden, bestehend aus: einer Vielzahl von zu einem Mund gehörenden Mundwinkeln; einer Vielzahl von zu einem Auge gehörenden Augenwinkeln; und einer zu einer Nase gehörenden Nasenspitze.
  5. Das Verfahren nach Anspruch 1, wobei die ersten und zweiten Gesichtsdarstellungen das gleiche, mit jeweils der gleichen Kameraausrichtung aufgenommene Gesicht sind.
  6. Das Verfahren nach Anspruch 5, wobei die jeweiligen Gesichtsposen der ersten und zweiten Gesichtsdarstellungen im Nickwinkel gleich; im Rollwinkel gleich; und in der Gierung in einem Bereich von etwa 3 Grad bis etwa 10 Grad unterschiedlich sind.
  7. Das Verfahren nach Anspruch 1, wobei die ersten und zweiten Gesichtsdarstellungen mit jeweils der gleichen Kameraausrichtung aufgenommene Bilder des gleichen Gesichtes in dem gleichen Gesichtsposenbereich sind, sich aber in der Gierung unterscheiden.
  8. Das Verfahren nach Anspruch 1, wobei der Gesichtsposenbereich in den ersten und zweiten Gesichtsdarstellungen mit einer um nicht mehr als etwa 10 Grad (10°) abweichenden Gierung abweicht.
  9. Das Verfahren nach Anspruch 1, wobei: die erste Gesichtsdarstellung eine volle Frontalansicht eines menschlichen Gesichtes ist; und die zweite Gesichtsdarstellung von der ersten Gesichtsdarstellung mit einer nicht mehr als 10 Grad (10°) betragenden Gierung abweicht.
  10. Das Verfahren nach Anspruch 1, das weiterführend die Identifikation des Gesichtes einer Person in einer Datenbank umfasst, die unter Verwendung der Punkte, die jeweils zu den äußeren und inneren Gesichtsmerkmalen des ersten und zweiten Modells gehören, mit wenigstens einer der ersten oder zweiten Gesichtsdarstellungen übereinstimmt.
  11. Ein Computer-lesbares Medium, das Anweisungen beinhaltet, die, wenn sie ausgeführt werden, das Verfahren nach Anspruch 1 durchführen.
  12. Eine Vorrichtung zur Identifikation von Gesichtsmerkmalen umfassend: einen Speicher beinhaltend: ein oder mehrere Programme; äußere und innere Gesichtsmerkmale eines zweidimensionalen Gesichtsmodells, die jeweils durch eine Vielzahl von Punkten repräsentiert sind; eine erste Gesichtsdarstellung; und eine zweite Gesichtsdarstellung; ein oder mehrere zur Ausführung des einen oder der mehreren Programme in dem Speicher konfigurierte Prozessoren, um somit Schritte auszuführen, die beinhalten: Abgleichen der Vielzahl von Punkten der äußeren und inneren Gesichtsmerkmale des Gesichtsmodells mit: denen eines ersten Modells für die erste Gesichtsdarstellung; und denen eines zweiten Modells für die zweite Gesichtsdarstellung; wobei das Gesichtsmodell durch eine Trainingsmenge aus einer Vielzahl von zweidimensionalen Ansichten eines dreidimensionalen Gesichtes entwickelt ist; die Vielzahl von Punkten für jedes übereinstimmende äußere und innere Gesichtsmerkmal des ersten und zweiten Modells unter Verwendung der dazugehörigen epipolaren Randbedingung für die ersten und zweiten Modelle angepasst wird; und die Abgleich- und Einstellungsschritte wiederholt werden bis: eine Mehrheit der Punkte für jedes der äußeren und inneren Gesichtsmerkmale an dem ersten Modell, die mit dem Gesichtsmodell übereinstimmt, einen relativen Versatz zwischen sich aufweist, der nicht größer als eine vorbestimmte Konvergenztoleranz ist; und eine Mehrheit der Punkte für jedes der äußeren und inneren Gesichtsmerkmale an dem zweiten Modell, die mit dem Gesichtsmodell übereinstimmt, einen relativen Versatz zwischen sich aufweist, der nicht größer als eine vorbestimmte Konvergenztoleranz ist.
  13. Die Vorrichtung nach Anspruch 12, wobei die Schritte des Weiteren eine Ausgabe einer Darstellung von jedem der ersten und zweiten Modelle umfassen, die jeweils die jeweiligen inneren und äußeren Gesichtsmerkmale beinhalten.
  14. Die Vorrichtung nach Anspruch 12, wobei: die inneren Gesichtsmerkmale eine Nase, einen Mund und ein Augenpaar umfassen; und die äußeren Gesichtsmerkmale eine bogenförmige Unterkante eines Gesichtes und eines Augenbrauenpaares umfassen.
  15. Die Vorrichtung nach Anspruch 12, wobei die Vielzahl von Punkten und das dazugehörige innere Gesichtsmerkmal aus der Gruppe ausgewählt werden, bestehend aus: einer Vielzahl zu einem Mund gehörender Mundwinkel; einer Vielzahl zu einem Auge gehörender Augenwinkel; und einer zu einer Nase gehörenden Nasenspitze.
  16. Die Vorrichtung nach Anspruch 12, wobei die ersten und zweiten Gesichtsdarstellungen die gleichen unter der jeweils gleichen Kameraausrichtung aufgenommenen Gesichter sind:
  17. Die Vorrichtung nach Anspruch 16, wobei die jeweiligen Gesichtsposen der ersten und zweiten Gesichtsdarstellungen: im Nickwinkel gleich sind; im Rollwinkel gleich sind; und in der Gierung in einem Bereich von etwa 3 Grad bis etwa 10 Grad unterschiedlich sind.
  18. Die Vorrichtung nach Anspruch 12, wobei die ersten und zweiten Gesichtsdarstellungen mit jeweils der gleichen Kameraausrichtung aufgenommene Bilder des gleichen Gesichtes in dem gleichen Gesichtsposenbereich sind, sich aber in der Gierung unterscheiden.
  19. Die Vorrichtung nach Anspruch 12, wobei der Gesichtsposenbereich in den ersten und zweiten Gesichtsdarstellungen mit einer um nicht mehr als etwa 10 Grad (10°) abweichenden Gierung abweicht.
  20. Die Vorrichtung nach Anspruch 12, wobei: die erste Gesichtsdarstellung eine volle Frontalansicht eines menschlichen Gesichtes ist; und die zweite Gesichtsdarstellung von der ersten Gesichtsdarstellung mit einer nicht mehr als 10 Grad (10°) betragenden Gierung abweicht.
DE602004009863T 2003-06-30 2004-05-21 Gesichtsformregistrierung aus Stereobildern Expired - Lifetime DE602004009863T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US610494 1990-11-07
US10/610,494 US7218760B2 (en) 2003-06-30 2003-06-30 Stereo-coupled face shape registration

Publications (2)

Publication Number Publication Date
DE602004009863D1 DE602004009863D1 (de) 2007-12-20
DE602004009863T2 true DE602004009863T2 (de) 2008-02-28

Family

ID=33452630

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004009863T Expired - Lifetime DE602004009863T2 (de) 2003-06-30 2004-05-21 Gesichtsformregistrierung aus Stereobildern

Country Status (7)

Country Link
US (1) US7218760B2 (de)
EP (1) EP1496466B1 (de)
JP (1) JP4466951B2 (de)
KR (1) KR100874817B1 (de)
CN (1) CN100530216C (de)
AT (1) ATE377806T1 (de)
DE (1) DE602004009863T2 (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421097B2 (en) * 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
US7236615B2 (en) * 2004-04-21 2007-06-26 Nec Laboratories America, Inc. Synergistic face detection and pose estimation with energy-based models
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
KR101122513B1 (ko) * 2005-04-04 2012-03-15 (주)아이리스아이디 3차원 위치정보를 이용한 안구위치 추정시스템 및 안구위치추정방법
KR100810326B1 (ko) * 2006-10-10 2008-03-04 삼성전자주식회사 다해상도 3차원 모델 생성 방법
JP5003242B2 (ja) * 2007-03-28 2012-08-15 富士通株式会社 照合装置、照合方法および照合プログラム
CN102197412B (zh) * 2008-10-28 2014-01-08 日本电气株式会社 伪装检测***和伪装检测方法
CN102035755B (zh) * 2010-10-15 2012-06-13 东莞宇龙通信科技有限公司 一种采用表情传输载体传输心情的方法、装置及聊天***
US8891876B2 (en) 2011-04-25 2014-11-18 Hewlett-Packard Development Company, L.P. Mouth corner candidates
US8903198B2 (en) * 2011-06-03 2014-12-02 International Business Machines Corporation Image ranking based on attribute correlation
US8983203B2 (en) * 2011-10-14 2015-03-17 Ulsee Inc. Face-tracking method with high accuracy
US9342735B2 (en) * 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
US8972310B2 (en) * 2012-03-12 2015-03-03 The Boeing Company Method for identifying structural deformation
JP5808282B2 (ja) * 2012-03-23 2015-11-10 三菱電機株式会社 映像信号記録再生装置及び監視方法
TWI510082B (zh) * 2012-06-06 2015-11-21 Etron Technology Inc 用於影像辨識之影像擷取方法及其系統
US9406135B2 (en) * 2012-10-29 2016-08-02 Samsung Electronics Co., Ltd. Device and method for estimating head pose
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
US9916495B2 (en) * 2014-03-28 2018-03-13 Nec Corporation Face comparison device, method, and recording medium
US9251427B1 (en) * 2014-08-12 2016-02-02 Microsoft Technology Licensing, Llc False face representation identification
US10326972B2 (en) 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
JP6747443B2 (ja) * 2015-07-21 2020-08-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN106529409B (zh) * 2016-10-10 2019-08-09 中山大学 一种基于头部姿态的眼睛注视视角测定方法
CN108133221B (zh) * 2016-12-01 2022-06-07 佳能株式会社 对象形状检测装置和方法、图像处理装置及监视***
CN110763150B (zh) * 2018-07-26 2021-05-25 王东 一种面部轮廓测量方法
CN110728287A (zh) * 2019-10-10 2020-01-24 深圳铂石空间科技有限公司 图像识别方法及装置、电子设备、存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1045129C (zh) * 1993-03-29 1999-09-15 松下电器产业株式会社 个人识别装置
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
KR20020007744A (ko) * 2000-07-18 2002-01-29 최창석 미래 자녀 얼굴 모델링 방법과 미래 얼굴 모델링 방법
KR20020032048A (ko) * 2000-10-25 2002-05-03 이인동 얼굴 인식 보안방법
US7020305B2 (en) 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
KR100372811B1 (ko) * 2000-12-19 2003-02-26 (주) 웹씨인터미디어 2차원 얼굴 정면 이미지를 이용한 3차원 얼굴 모델 생성방법
KR100445800B1 (ko) * 2001-01-05 2004-08-25 학교법인 인하학원 상관관계를 이용한 유사도 측정의 얼굴 인증 방법

Also Published As

Publication number Publication date
CN1577379A (zh) 2005-02-09
JP4466951B2 (ja) 2010-05-26
KR100874817B1 (ko) 2008-12-26
ATE377806T1 (de) 2007-11-15
CN100530216C (zh) 2009-08-19
DE602004009863D1 (de) 2007-12-20
EP1496466A2 (de) 2005-01-12
EP1496466A3 (de) 2006-01-18
EP1496466B1 (de) 2007-11-07
KR20050002611A (ko) 2005-01-07
JP2005025748A (ja) 2005-01-27
US7218760B2 (en) 2007-05-15
US20040264745A1 (en) 2004-12-30

Similar Documents

Publication Publication Date Title
DE602004009863T2 (de) Gesichtsformregistrierung aus Stereobildern
DE112016004266B4 (de) Verfahren zur Gesichtsausrichtung
EP3657440B1 (de) Verfahren und system zur dreidimensionalen rekonstruktion eines menschlichen kopfes aus mehreren bildern
DE112018000298T5 (de) System und verfahren zur poseninvarianten gesichtsausrichtung
EP2206090B1 (de) Verfahren und vorrichtung zum darstellen eines virtuellen objekts in einer realen umgebung
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE69817879T2 (de) Erkennung verzerrter bilder durch schnelle faltung und mittels bilderfassung von markanten punkten und volumeninformation
DE102007045834B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102020000810A1 (de) 3D-Objektrekonstruktion unter Nutzung einer fotometrischen Netzdarstellung
DE69934478T2 (de) Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
DE60223361T2 (de) Objektidentifikation
DE60133840T2 (de) Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild
DE69927738T2 (de) Verfahren und Vorrichtung zum Editieren von skizzierten Kurven
EP1413972B1 (de) Prüfung von Bildaufnahmen von Personen
DE60213032T2 (de) Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
DE602004005496T2 (de) Lokalisieren von Zähnen in Dentalbildern
DE10317917B4 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
EP1444654A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE102006054822A1 (de) Registrierung eines charakteristischen Pfads eines Kolons
DE10392259T5 (de) Objektkorrespondenzidentifikation ohne volle Volumenregistration
DE102007046582A1 (de) System und Verfahren zum Segmentieren von Kammern eines Herzens in einem dreidimensionalen Bild
EP3355214A1 (de) Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells
DE10354752A1 (de) Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
DE102017216821A1 (de) Verfahren zur Erkennung einer Objektinstanz und/oder Orientierung eines Objekts
DE102007019514A1 (de) Allgemeines Framework für die Bildsegmentierung unter Verwendung geordneter räumlicher Abhängigkeit

Legal Events

Date Code Title Description
8364 No opposition during term of opposition