DE68928825T2 - Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts - Google Patents

Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts

Info

Publication number
DE68928825T2
DE68928825T2 DE68928825T DE68928825T DE68928825T2 DE 68928825 T2 DE68928825 T2 DE 68928825T2 DE 68928825 T DE68928825 T DE 68928825T DE 68928825 T DE68928825 T DE 68928825T DE 68928825 T2 DE68928825 T2 DE 68928825T2
Authority
DE
Germany
Prior art keywords
image
eyeball
center
pupil
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE68928825T
Other languages
English (en)
Other versions
DE68928825D1 (de
Inventor
Muneo Iida
Kazunori Omura
Akira Tomono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR TSUSHIN SYST KENKYUSHO
Original Assignee
ATR TSUSHIN SYST KENKYUSHO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR TSUSHIN SYST KENKYUSHO filed Critical ATR TSUSHIN SYST KENKYUSHO
Publication of DE68928825D1 publication Critical patent/DE68928825D1/de
Application granted granted Critical
Publication of DE68928825T2 publication Critical patent/DE68928825T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren des Erfassens einer Blickrichtung. Genauer, die vorliegende Erfindung bezieht sich auf ein Verfahren des Erfassens einer Blickrichtung zum Erfassen einer Augenfixierung auf kontaktlose Weise unter Benutzung von Merkmalspunkten eines Gesichtes, von Pupillen und von Bildern, die von der Hornhaut reflektiert sind usw., die aus den von dem Bildaufnahmegerät aufgenommenen Bildern extrahiert sind.
  • Kürzlich sind Computer entwickelt worden zum Realisieren komplizierter und verschiedener Funktionen, und ihr Anwendungsgebiet ist weiter und weiter geworden. Nicht nur Fachleute, sondern gewöhnliche Menschen haben die Benutzung von Computern aufgenommen. Zum Erleichtern der Benutzung von Systemen, die kompliziert gewesen sind und immer komplizierter werden, wird die Technologie der Schnittstelle zwischen Mensch und Maschine immer wichtiger. Menschen verständigen sich nicht nur durch die Sprache, sondern auch durch Minenspiele und Gesten, wobei Absichten des Partners angenommen und bestätigt werden, Insbesondere spielt die Augenbewegung eine wichtige Rolle zum Ermöglichen einer guten Kommunikation.
  • Die Augenbewegung spiegelt sehr die Absichten einer Person wider. Wenn die Bewegung von Blickpunkten auf einem Schirm eines Benutzers, der irgendeinem Anzeigegerät zugewandt ist, kontinuierlich in einer Schnittstelle erfaßt werden könnte, könnte es eine gute Hilfe sein, die Absicht des Benutzers zu kennen. Es kann eine gute Hilfe sein, zu wissen, wo der Benutzer beobachtet, da es dahin führen kann, was der Benutzer beabsichtigt oder worüber er nachdenkt.
  • Im Hinblick auf das Vorangehende haben die Erfindung der vorliegenden Anmeldung die Wichtigkeit eines effektiven Augenverfolgungsverfahrens zum Realisieren einer Schnittstellenfunktion auf gezeigt, die eine Absicht der Betätigung des Benutzers zum flexiblen Reagieren vermutet und zum Realisieren auf dem Gebiet der intelligenten Kommunikation einer sehr reaktiven und benutzerorientierten visuellen Kommunikation durch Herausziehen eines Objektes des Interesses gemäß der Bewegung der Augen eines Empfängers und durch Rückkupplung derselben zu einem Sender.
  • Eine Augenkamera ist als das oben beschriebene Augenverfolgungsgerät gut bekannt. Die Augenkamera ist jedoch nicht sehr geeignet zur Benutzung der Bewegung der Augen in einer Schnittstelle zwischen Mensch und Maschine oder bei einer visuellen Kommunikation, da der Benutzer eine Brille tragen muß und der Kopf des Benutzers feststehen muß, damit die Augenfixierung in einem Koordinatensystem eine Anzeige verfolgt werden kann, der der Benutzer zugewandt ist. Ein Verfahren der Erfassung, das Bildverarbeitung benutzt, ist bequemer beim Erfassen der Augenbewegung auf berührungslose Weise ohne die Notwendigkeit des Tragens einer speziellen Vorrichtung.
  • Fig. 1 zeigt ein Beispiel einer Anordnung eines berührungslosen Augenverfolgungsgerätes. Es wird Bezug genommen auf Fig. 1, Kameras 2, 3 und Beleuchtungsgeräte 4 und 5 sind entsprechend auf beiden Seiten einer Anzeigeeinheit 1 vorgesehen. Bei solch einem berührungslosen Augenverfolgungsgerät ist ein erstes Problem, das gelöst werden muß, das die Bilder eines Benutzers, der durch die Beleuchtungsgeräte 4 und 5 beleuchtet ist, von den Kameras 2 und 3 aufgenommen werden müssen und eine Mehrzahl von Merkmalspunkten herausgezogen werden müssen, die zum Verfolgen der Augenbewegung von den aufgenommenen Bildern notwendig sind, Das zweite Problem ist es, die räumlichen Positionen der Merkmalspunkte bei hoher Geschwindigkeit mit hoher Genauigkeit zu messen. Das dritte Problem ist es, die Richtung der Augenfixierung und der Blickpunkte auf der Anzeigeeinheit auf der Grundlage der Positionen der Merkmalspunkte zu finden.
  • Da eine Person und insbesondere ihre Augen sich schnell bewegen, müssen klare Bilder aufgenommen werden und die Merkmalspunkte müssen durch eine einfache Bildverarbeitung herausgezogen werden, damit der Bewegung genau gefolgt wird und sie erfaßt wird. Bei der tatsächlichen Anwendung jedoch in einem Zimmer ändert sich die Beleuchtung des Benutzers, da die Reflexion von Licht von der Anzeigeeinheit durch externe Beleuchtungen wie eine Leuchtstoffröhre beeinflußt wird, so daß Bilder guter und gleichförmiger Qualität nicht immer vorgesehen werden können. Wenn die eingegebenen Bilder in der Qualität schlechter sind, dauert es lange, das Rauschen zu verringern, und folglich kann ein schneller Betrieb nicht erwartet werden.
  • Eine Person, die das aufzunehmende Objekt ist, kann beleuchtet werden, damit das oben beschriebene Problem gelöst wird. Solch eine Beleuchtung hat jedoch die folgenden Nachteile. Zuerst ist es schwierig, eine natürliche Umgebung für die Schnittstelle vorzusehen. Genauer gesagt, Glühlampen, Xenonlampen und Halogenlampen sind gut bekannt als Beleuchtungsgeräte, die einen weiten Bereich von Wellenlänge aufweisen und deren Verteilung auf dem sichtbaren Wellenlängenbereich zentriert ist. Daher ist es nicht sehr gut, den Benutzer von vorn zum Vorsehen einer natürlichen Schnittstelle zu beleuchten.
  • Zweitens wird das Gerät sehr groß und viel Wärme erzeugt. Damit nämlich die Bedingungen der Beleuchtung der herkömmlichen Beleuchtungsgeräte im Hinblick auf die Aufwendung auf die Schnittstelle verbessert wird, müssen optische Teile wie ein Bandpaßfilter und ein Polarisator vor der leuchtenden Lichtquelle angebracht werden. Wenn zum Beispiel eine Beleuchtung im nahen Infraroten, die von einem Mensch nicht erfaßt werden kann, benutzt wird zum Auffangen des reflektierten Lichtes, müssen sichtbare Lichter unterbrochen werden. Die oben erwähnten herkömmlichen Beleuchtungsgeräte weisen jedoch eine niedrige Effektivität beim Emittieren von Licht auf und viel Wärme wird von ihnen erzeugt. Folglich wird die Temperatur um das Gerät höher, Folglich kann das Gerät nicht kompakt gemacht wer den, indem zum Beispiel eine Lichtquelle und die optischen Elemente einstückig vorgesehen werden, so daß unausweichlich ein großes Beleuchtungsgerät benutzt werden muß.
  • Drittens, obwohl die Beleuchtung bei dem Herausziehen von Merkmalspunkten effektiv ist und klarer Bilder vorgesehen werden können, wenn die Beleuchtung richtig benutzt wird, wird die Beleuchtung eine Rauschquelle und sieht einen gegenteilhaftigen Effekt vor, wenn die Beleuchtung nicht richtig benutzt wird. Eine detaillierte Beschreibung wird im folgenden unter Benutzung eines Falles des Herausziehens von Merkmalspunkten einer Person oder der Augen als ein Beispiel gegeben.
  • Fig. 2 zeigt ein Beispiel eines Experimentes zum Herausziehen von blauen Markierungen entsprechend eines Gesichtes einer Person unter Benutzung eines herkömmlichen Beleuchtungsgerätes und des Bildaufnahmegerätes. Fig. 3A und 3B zeigen ein Beispiel des Herausziehens von Merkmalspunkten des Gesichtes, das durch das in Fig. 2 gezeigte Experiment vorgesehen wird.
  • Blaue Markierungen 6 sind an vier Abschnitten des Gesichtes angebracht, wie in Fig. 3A gezeigt ist. Referenzlicht 9 wird von dem Beleuchtungsgerät 8 zu einem Objekt 10 emittiert, wie in Fig. 2 gezeigt ist, das von dem Objekt reflektierte Licht wird durch eine Kamera 13 aufgefangen, eine blaue Komponente wird von dem aufgenommenen Bild herausgezogen und einer Schwellenabschätzung unterworfen. Wie aus Fig. 3B ersichtlich ist, werden sowohl Rauschkomponenten 7 als auch blaue Markierungen 6 aufgenommen. Der Grund dafür ist wie folgt. Wenn nämlich das Objekt 10 durch das Referenzlicht 9 beleuchtet wird, kann das davon reflektierte Licht in weiterem Sinne in zwei Komponenten zerlegt werden. Eine ist das Licht 11, das von Oberfläche des Objektes 10 zerstreut und reflektiert wird, was die optische Natur des das Licht reflektierenden Materiales wiedergibt. Daher ist diese Komponente effektiv beim Herausziehen von Merkmalspunkten wie Teile des Gesichtes (Mund, Augenwimper, Nase usw.) und der Pupille mit der Ausnahme der Bilder, die von der Horn haut reflektiert werden, aus den Merkmalspunkten, die bei dem Augenverfolgen notwendig sind. Die andere ist die Komponente 12, die regelmäßig von der Oberfläche des Objektes 10 reflektiert wird, die die optische Natur der Lichtquelle wiedergibt. Die Komponente 12 gibt nicht die Natur des Objektes 10 wider, so daß sie dazu neigt, rauschbehaftet zu sein. Die letztere Komponente ist viel in glatten Abschnitten des Objektes 10 enthalten. Genauer gesagt, wenn das Objekt eine Person ist, bilden Schweiß auf dem Gesicht, Brillengestell, Brillen, Kunststoffe und Gläser um die Person usw. solche glatte Abschnitte. In dem in Fig. 34B gezeigten Beispiel entspricht das Rauschen 7 dem Schweiß.
  • Bei dem in Fig. 3A und 3B gezeigten Beispiel werden blaue Markierungen, die auf dem Gesicht angebracht sind, herausgezogen. Das Vorangehende wird ähnlich angewendet, wenn Markierungen verschiedener Farben benutzt werden und die Farbkomponenten herauszuziehen sind. Die regulär reflektierte Komponente 12 wird in meisten Fällen rauschbehaftet, wenn solche Abschnitte wie Augen, Nase, Mund und Augenwimpern von dem natürlichen Bild ohne die Benutzung von Markierungen herausgezogen werden. Eine sogenannte aktive Stereovision wird als ein anderes Verfahren zum Erfassen der Form eines Gesichtes ohne die Benutzung von Markierungen benutzt, Moire-Typographie und Spaltstrahlenverfahren sind die Repräsentativen solch eines Verfahrens, bei dem das Objekt mit einem vorgeschriebenen gesteuerten Formmuster beleuchtet wird, Schwellenwertbilder (reflektierte Muster) von den reflektierten Bildern herausgezogen werden und die dreidimensionale Form des Objektes unter Benutzung des Merkmales des reflektierten Musters entsprechend dem herausgezogenen Muster gemessen wird. Wenn das Objekt dazu neigt. Regulärlicht zu reflektieren, werden auch bei diesem Verfahren Bilder, die durch reguläre Reflexion gebildet werden, rauschbehaftet, wodurch es schwierig wird, genau die reflektierten Muster herauszuziehen, die die Merkmale des Objektes sind.
  • Probleme im Zusammenhang mit der Anordnung des herkömmlichen Beleuchtungsgerätes und der Effektivität des Herausziehens eines Pupillenmerkmalpunktes werden im folgenden beschrieben. Damit eine Augenfixierung eines Benutzers, der keine spezielle Vorrichtung trägt, erfaßt wird, muß eine Mehrzahl von Merkmalspunkten durch Bildverarbeitung herausgezogen, wie später beschrieben wird. Eine Pupille ist eine Öffnung in der Iris, die im allgemeinen dunkel aussieht. Daher muß, wenn die Iris dunkelbraun ist, die Pupille von der Iris unterschieden werden, damit sie herausgezogen werden kann. Die Pupille ist ein guter Merkmalspunkt, der weithin angewendet wird, da die Größe der Pupille angenehm ist, sie nicht sehr durch die Bewegung des Augenlides beeinflußt wird und sie bequem bei der Umwandlung auf die Augenfixierung ist. Das Herausziehen der Pupille wurde in einer Augenkamera usw. durchgeführt, und eine Zahl von Verfahren zum Herausziehen einer Pupille ist bekannt gewesen. Solche Verfahren sind zum Beispiel offenbart in dem US-Patent 4.102.564, US-Patent 4.145.122, US-Patent 3.689.135, US-Patent 4.074.657, US-Patent 4.755.045, US-Patent 4.303.394, US-Patent 4.651.145 und US-Patent 4702.575. Bei einem Typ von Augenkameras ist eine Lichtquelle in Brillen eingebaut zum Erleuchten der Augäpfel, und das reflektierte Licht wird zum Messen der Intensität des reflektierten Lichtes von der Pupille und von der Iris aufgenommen. Bei einem Gerät wie eine Augenkamera, die an dem Kopf von jemanden angebracht ist, ist der Abstand zwischen dem Beleuchtungsgerät und dem Bildaufnahmegerät klein, und das Gerät bewegt sich entsprechend der Bewegung des Kopfes. Daher müssen die Beleuchtungsgeräte nur die Augäpfel beleuchten und die Bildaufnahmegeräte müssen nur die Bilder der Aufäpfel aufnehmen. Daher ist der Einfluß von Rauschen klein, und die Pupille kann in Abhängigkeit von nur der Differenz in der Intensität des reflektierten Lichtes von der Pupille und der Iris herausgezogen werden.
  • Die Augenverfolgung für die Anwendung auf die Schnittstelle muß jedoch in berührungsloser Weise durchgeführt werden, wie oben beschrieben wurde. Daher sollten nicht nur die Abschnitte der Augäpfel, sondern ein weiter Bereich genommen werden, der das Verfolgen einer Bewegung in einem Abstand ermöglicht. Zum Beispiel muß ein Verfahren zum Herausziehen der Pupillen aus dem Bild des Gesichtes von jemanden überlegt werden. In solch einem Fall ist es schwierig, die Pupillen von dem Hintergrundrauschen durch die oben beschriebenen Verfahren herauszuziehen.
  • Fig. 4 zeigt ein anderes Verfahren zum Herausziehen der Pupille, bei dem das Licht in die Pupille eintritt und das von der Netzhaut reflektierte Licht aufgenommen wird. Es wird Bezug genommen auf Fig. 4, ein Halbspiegel 23 ist auf einer optischen Achse 22 eines Aufnahmeobjektives 21 einer Kamera 20 vorgesehen, und ein herkömmliches Beleuchtungsgerät 24 ist so angeordnet, daß seine optische Achse mit der optischen Achse 22 mittels des Halbspiegels 23 übereinstimmt. Damit die Verteilung der reflektierten Intensität von der Pupille unter Benutzung eines Beleuchtungsgeräte mit nur einer Lichtquelle gleichmäßig gemacht wird, das heißt damit ein Bild der Pupille mit geringer Unebenheit der Intensität erhalten wird, ist die Benutzung des Halbspiegels 23 wesentlich.
  • Ein Filter 25 zum Abschneiden sichtbarer Wellenlänge ist vor dem Beleuchtungsgerät 24 vorgesehen. Die Komponente sichtbarer Wellenlänge des Lichtes von dem Beleuchtungsgerät 24 wird durch diesen Filter 25 abgeschnitten, und der verbleibende Teil des Lichtes trifft auf die optische Achse 22 des Objektives 21 zum Beleuchten des Benutzers 26. Das Licht tritt in die Pupille des Benutzers 26 ein, wird von der Netzhaut reflektiert, geht durch den Halbspiegel 23, so daß es von der Kamera 20 aufgenommen wird. Daher wird die Pupille heller genommen als die Iris.
  • Das in Fig. 4 gezeigte Verfahren hat jedoch die folgenden Nachteile. Das Gerät wird nämlich groß, da es einen Halbspiegel 23 einsetzt. Wenn der Bereich der Bildaufnahme nicht nur die Abschnitte nahe den Augäpfeln sind, sondern breiter sind und zum Beispiel das Gesicht selbst enthalten, wird der Einfluß des Rauschens groß selbst bei diesem Verfahren, wodurch es schwie rig wird, die Pupillen richtig herauszuziehen. Damit der Einfluß des Rauschens verringert wird, kann die Intensität der Beleuchtung vergrößert werden. Dieses ist jedoch nicht sehr effektiv, da die Intensität des Lichtes durch den Filter 25 zum Abschneiden sichtbarer Wellenlängen verringert wird, weiter wird es auf - durch den Halbspiegel 23 verringert, und das reflektierte Licht wird weiter auf 1/2 durch den Halbspiegel 23 verringert, das heißt viel des Lichtes von dem Beleuchtungsgerät 24 ist verloren zu dem Zeitpunkt, in dem es von der Kamera 20 aufgefangen wird, wenn die Intensität der Beleuchtung vergrößert wird, wird viel Leistung verbraucht und viel Wärme erzeugt. Damit andere Einflüsse verringert werden, müssen unter Umständen entsprechende Teile getrennt voneinander angebracht werden, was weiter zu einer Vergrößerung in der Größe des Gerätes führt. Wenn die Beleuchtung zu intensiv ist, wird eine physiologische Last auf die Augen des Benutzers ausgeübt. Daher ist für dieses Verfahren auch nicht geeignet, an der Seite der Anzeigeeinheit für die Anwendung auf die Schnittstelle angebracht zu werden.
  • Ein von einer Hornhaut reflektiertes Bild ist das virtuelle Bild, das von dem regulär von der konvexen Oberfläche der Netzhaut reflektierten Licht gebildet wird, und es bewegt sich in die gleiche Richtung wie die Augäpfel gemäß der Bewegung der Augenfixierung. Daher ist es einer der Merkmalspunkte, der notwendig zum Augenverfolgen ist. Ein Problem bei dem Herausziehen ist das Trennen von dem Hintergrundrauschen.
  • Fig. 5 zeigt ein Beispiel eines Gerätes, das Bilder durch eine Kamera aufnimmt, die von der Hornhaut reflektiert sind. Es wird Bezug genommen auf Fig. 5, wenn Licht von einer Referenzlichtquelle 31 Augen eines Benutzers 30 beleuchtet, werden Bilder, die von der Hornhaut reflektiert sind, die notwendig für die Augenverfolgung sind, von der Kamera 32 aufgenommen. Es tritt jedoch nicht nur das Licht von der Referenzlichtquelle 31, sondern auch von der Anzeigeeinheitenoberfläche der Anzeigeneinheit 33 und von einer externen Beleuchtung 34 wie eine Leucht stoffröhre in die Augen des Benutzers 30, welches von der Hornhaut zum Vorsehen virtueller Bilder reflektiert wird. Daher gibt es verschiedene Bilder, die von der Hornhaut in dem Augapfel reflektiert sind, die das Rauschen darstellen, was es schwierig macht, die Bilder zu extrahieren, die von der Netzhaut reflektiert sind, die durch Licht von der Referenzlichtquelle 31 gemacht sind.
  • Wenn ein bewegendes Objekt wie eine Person oder Augen zu fotografieren ist, sollte die Belichtungszeit so klein wie möglich sein, damit Bilder ohne Verwackelung vorgesehen werden. Eine Kamera mit einem elektrischen Verschluß ist kürzlich in Benutzung gekommen. Solche Kameras mit kurzer Belichtungszeit benötigen intensive Beleuchtung. Wenn jedoch ein herkömmliches Beleuchtungsgerät zum Beleuchten des Benutzers in der Schnittstelle benutzt wird, wird der Benutzer der Wärme eines intensiven Lichtes während einer langen Zeitdauer ausgesetzt, was die Augen oder den Körper des Benutzers beeinflussen kann.
  • Inzwischen sind Stereosichtmessungen in dem Feld der Messungen räumlicher Positionen der Merkmalspunkte bekanntgeworden. Da jedoch das Herausziehen der Merkmalspunkte schwierig war, wie oben beschrieben wurde, ist bis jetzt keine Echtzeitmessung der räumlichen Positionen der Merkmalspunkte auf dem Gesicht oder der Augäpfel durchgeführt, falls die Benutzung für die Schnittstelle in Betracht gezogen wurde.
  • Einige Verfahren sind für das Augenverfolgen durch Bildverarbeitung vorgeschlagen worden. Es müssen jedoch verschiedene Bedingungen zum Anwenden einer jeglichen dieser Verfahren zum Augenverfolgen befriedigt sein, und daher ist das Anwendungsgebiet beschrankt, da effektives Herausziehen der Merkmalspunkte schwierig ist und Hochgeschwindigkeitserfassung der räumlichen Positionen mit jeder dieser Verfahren schwierig ist. In den meisten dieser Verfahren wird eine Schwarz/Weiß-Kamera eingesetzt. Ein solches Beispiel wird im folgenden beschrieben.
  • Fig. 6 stellt ein Verfahren zum Erfassen der Iris und der Pupille in dem Weißen des Auges auf einem aufgenommenen Bild zum Erfassen der Augenfixierung unter Benutzung dergleichen dargestellt. Es wird Bezug genommen auf Fig. 6, das Gesicht einer Person wird durch eine Kamera 41 aufgenommen, der Abschnitt 42 des Auges wird von dem aufgenommenen Bild des Gesichtes herausgezogen, und der dunkle Abschnitt 43 und das Weiße in dem Auge werden voneinander getrennt. Danach werden die Länge a des Weißen 44 und die Länge x von einer Kante des Weißen 44 zu der Mitte des dunklen Abschnittes 43 berechnet. Die Richtung der Augenfixierung ist ungefähr proportional zu x/a. Da der Vorgang zum Herausziehen des Weißen 44 und des dunklen Abschnittes 43 des Auges schwierig mit einer hohen Geschwindigkeit durchzuführen ist, ist Echtzeiterfassung bis jetzt nicht realisiert. Bei diesem Verfahren ist der Freiheitsgrad auf die Rotationsbewegung des Augapfels beschränkt, wenn nicht die Position und die Richtung des Gesichtes durch die eine oder andere Methode berechnet werden. Die Genauigkeit bei der Erfassung der Rotation des Augapfels ist nicht sehr hoch, da sich die Größe des Auges ändert, wenn der Benutzer seinen Ausdruck ändert. Die Aufwärts- und Abwärtsbewegung des Auges ist besonders eigenartig und kompliziert, da sich der dunkle Abschnitt 43 durch die Bewegung des Augenlides beeinflußt ändert.
  • Fig. 7 stellt ein Verfahren zum Erfassen der Pupille und der Bilder, die von der Hornhaut reflektiert sind, als Merkmalspunkte durch eine Kamera dar. Es wird Bezug genommen auf Fig. 7, die Position einer Referenzlichtquelle 51 wird als bekannt in Zusammenhang mit dem Koordinatensystem der Kamera 50 angenommen. Die räumliche Position des Bildes 53, das von der Netzhaut reflektiert ist und durch das Referenzlicht von der Referenzlichtquelle 51 erzeugt ist, und die räumliche Position der Pupille 54 unabhängig auf der Grundlage der Position des Rotationszentrums des Augapfels 52 und der Rotationswinkel α und β in die Richtung des Augapfels nach oben, nach unten, nach links und nach rechts bestimmt. Wenn daher die Position des Bildes, das von der Hornhaut reflektiert ist, die Position der Pupille 54, der Radius a des Augapfels, der ein struktureller Parameter des Augapfels 52 ist, der Krümmungsradius c der Hornhaut und der Abstand b zwischen der Mitte des Augapfels zu dem Krümmungsmittelpunkt der Hornhaut bekannt sind, werden das Rotationszentrum des Augapfels 52 und der Rotationswinkel des Augapfels 52 bestimmt, und folglich kann die Augenfixerung bestimmt werden. Die Position des Bildes 53, das von der Hornhaut reflektiert ist, und der Pupille 54 können aus einem projizierenden Bild erhalten werden, indem eine Bedingung geschaffen wird, daß der Abstand von der Kamera zu dem Augapfel 52 ungefähr konstant ist. Auf diese Weise können die Augenfixierung in Zusammenhang mit dem Rotationswinkel α nach links und nach rechts und des Rotationswinkels β nach oben und nach unten des Augapfels 52 erfaßt werden. Die Genauigkeit der Erfassung wird jedoch niedriger, wenn sich das Gesicht in die Richtung der z- Achse aus der oben beschriebenen Bedingung bewegt.
  • Bei den in Fig. 6 und 7 gezeigten Beispielen ist es schwierig, den Blickpunkt zu erfassen, da nur eine Kamera eingesetzt wird. Wenn eine der oben beschriebenen Verfahren auf die Schnittstelle anzuwenden ist, ist es notwendig, zu wissen, auf welchen Punkt der Anzeigeeinheit der Benutzer blickt. Daher muß der Blickpunkt in dem Anzeigeneinheitenkoordinatensystem vorgesehen werden. Damit der Blickpunkt des Benutzers in dem Anzeigeneinheitenkoordinatensystem bekannt ist, ist es notwendig, daß der Benutzer auf einen vorbestimmten Punkt blickt.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Erfassen einer Blickrichtung vorzusehen, das die Bewegung einer Augenfixierung eines Benutzers auf kontaktfreie Weise ohne die Benutzung irgendeiner speziellen Einrichtung auf dem Benutzer auf der Grundlage von Bildern von dem Objekt erfassen kann, das von dem Bildaufnahmegerät aufgenommen wird.
  • Es ist eine noch weitere Aufgabe der vorliegenden Erfindung, ein Verfahren des Erfassens einer Blickrichtung vorzusehen, das Augenfixierung mit hoher Geschwindigkeit und mit hoher Genauig keit erfassen kann, während eine freie Bewegung des Kopfes des Benutzers erlaubt ist.
  • Es ist eine noch weitere Aufgabe der vorliegenden Erfindung, ein Verfahren des Erfassens einer Blickrichtung vorzusehen, bei dem ein Blickpunkt auf einem Anzeigenkoordinatensystem erfaßt werden kann, den der Benutzer tatsächlich betrachtet, und bei dem keine Kalibration auf eine einfache Weise zu der Zeit der Erfassung ausgeführt werden kann.
  • Diese Aufgaben werden gelöst durch das Verfahren, wie es in Anspruch 1, 2 oder 3 angegeben ist.
  • Bevorzugte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
  • Bei dem Verfahren zum Augenverfolgen gemäß der vorliegenden Erfindung wird die Augenfixierung durch zwei von den drei folgenden Merkmalssätzen erfaßt: Die Position und die Richtung des Gesichtes, die Position der Pupille und das von der Hornhaut reflektierte Bild; so daß die Zahl von Parametern zur Kalibrierung zum Erfassen des Blickpunktes des Benutzers klein ist. Daher kann die Kalibrierung auf einfache Weise ausgeführt werden, die Genauigkeit der Erfassung ist hoch und die Belastung für den Benutzer ist klein.
  • Gemäß der vorliegenden Erfindung kann durch Erfassen der Position und der Richtung des Kopfes die Position des Zentrums des Augapfels in Zusammenhang mit dem Meßkoordinatensystem erhalten werden. Nur ein konstanter Vektor in Näherung wird als Parameter, der notwendig für den Vorgang ist, benötigt, so daß die Kalibrierung in einer einfachen Weise ausgeführt werden kann, und die Richtung der Augenfixierung kann unabhängig von der Bewegung des Kopfes des Benutzers auf kontaktfreie Weise durch Ermitteln des Zentrums des Augapfels und der räumlichen Position der Pupille erfaßt werden. Da die Zahl von Parametern für die Kalibrierung gleich ist, kann die Genauigkeit erhöht wer den. Zusätzlich kann die Richtung der Augenfixierung von zwei Augen unabhängig vorgesehen werden, daher kann die Überlappung der Richtung der Augen erfaßt werden und folglich die Augenfixierung kann nicht nur auf einer ebenen sondern dreidimensional erfaßt werden. Zusätzlich kann bei dem Vorgang des Erfassens der Augenfixierung die Fläche der Pupille erfaßt werden, so daß die Richtung der Augenfixierung als auch die Ausdehnung der Pupille gleichzeitig erfaßt werden können.
  • Gemäß der vorliegenden Erfindung kann unter Benutzung dreier Punkten an dem Kopf als ein Modell die Position und die Richtung des Kopfes auf der Grundlage von drei Punkten auf dem Gesicht erfaßt werden. Wenn diese drei Punkte zuvor bestimmt werden, kann die Extrahierung dieser drei Punkte durch Anbringung von Markierungen auf diesen Punkten erleichtert werden, wodurch die Erfassung der Augenfixierung mit hoher Geschwindigkeit möglich ist. Bei einer bevorzugten Ausführungsform werden Markierungen, deren Merkmale leicht extrahiert werden können, an mindestens drei Abschnitten auf einem Brillenrahmen angebracht, und der Kopf wird in ein Modell durch die Markierungen gewandelt, wenn der Benutzer die Brille trägt. Die Position und die Richtung des Kopfes kann gemäß den Positionen der Markierungen erfaßt werden. Daher kann der Kopf in ein Modell schon durch Vorsehen der Markierungen auf Brillen umgewandelt werden, wodurch die Position des Kopfes auf eine einfache Weise erfaßt werden kann. Die Position des Kopfes kann genau so lange erkannt werden, wie die Brille auf dem Gesicht sitzt, und daher kann die Augenfixierung auf eine einfache Weise mit hoher Genauigkeit erkannt werden.
  • Referenzlicht kann in das Auge eintreten, die Position und Richtung des Kopfes werden aus dem aufgenommenen Bild erfaßt, die erfaßte Position des Kopfes wird bewegt und gedreht, die Position des Zentrums des Augapfels, die von der Drehbewegung des Augapfels unabhängig ist und in der Position stabil ist, wird erfaßt, die Position des von der Hornhaut reflektierten Bildes, das von dem Referenzlicht erzeugt wird, wird aus dem aufgenommenen Bild erfaßt, und die Augenfixierung wird gemäß den erfaßten Positionen des Zentrums des Augapfels und des von der Hornhaut reflektierten Bildes erfaßt.
  • Daher kann gemäß der vorliegenden Erfindung durch Erfassen von räumlichen Positionen des Zentrums des Augapfels und des von der Hornhaut reflektierten Bildes die Richtung der Augenfixierung auf kontaktfreie Weise unabhängig von der Bewegung des Kopfes des Benutzers erfaßt werden.
  • Die vorangehenden und weiteren Aufgaben, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden ersichtlicher aus der folgenden detaillierten Beschreibung der vorliegenden Erfindung, wenn sie in Zusammenhang mit den begleitenden Zeichnungen genommen wird.
  • Fig. 1 zeigt ein Beispiel eines herkömmlichen berührungslosen Augenverfolgungsgerätes;
  • Fig. 2 zeigt ein Beispiel eines Experimentes zum Herausziehen blauer Markierungen als Merkmalspunkte auf einem Gesicht einer Person unter Benutzung eines herkömmlichen Beleuchtungsgerätes und Bildaufnahmegerätes;
  • Fig. 3A und 3B zeigen Beispiele des Herausziehens von Merkmalspunkten des Gesichtes, die durch das in Fig. 2 gezeigte Experiment vorgesehen werden;
  • Fig. 4 zeigt ein anderes Verfahren zum Herausziehen von Pupillen, bei dem Licht durch die Pupille eintritt und das an der Netzhaut reflektierte Licht genommen wird;
  • Fig. 5 zeigt ein Beispiel eines Gerätes, bei dem ein von der Hornhaut reflektiertes Licht von einer Kamera aufgenommen wird;
  • Fig. 6 stellt ein Verfahren zum Erfassen einer Position eines dunklen Abschnittes eines Auges auf einem aufgenommenen Bild zum Erfassen der Augenfixierung unter Benutzung desselben dar;
  • Fig. 7 stellt ein Verfahren zum Herausziehen der Pupille und des von der Hornhaut reflektierten Bildes als Merkmalspunkte durch eine Kamera dar;
  • Fig. 8 zeigt das Konzept dieser Merkmalsherausziehung;
  • Fig. 9 zeigt verschiedene Typen und Arten von Merkmalspunkten, die zur Erkennung der Augenfixierung notwendig sind;
  • Fig. 10 zeigt ein Bildaufnahmegerät;
  • Fig. 11 ist eine Frontansicht der in Fig. 10 gezeigten Aufnahmelinse;
  • Fig. 12 ist eine Seitenansicht der Aufnahmelinse;
  • Fig. 13 zeigt optische Eigenschaften der optischen Teile, die eingesetzt werden;
  • Fig. 14 ist eine perspektivische Ansicht, die ein Beispiel eines Beleuchtungsgerätes zeigt, das eine lichtemittierende Diode und einen Polarisator aufweist, die als eine Einheit vorgesehen sind;
  • Fig. 15A zeigt ein diffus reflektiertes Bild, das von einem Bildaufnahmegerät aufgenommen ist, und Fig. 15B zeigt die Effekte des Herausziehens von Merkmalspunkten;
  • Fig. 16A bis 16C zeigen Beispiele des Herausziehens des von der Hornhaut reflektierten Bildes;
  • Fig. 17, 18A, 18B, 18C und 19 stellen eine Anordnung von Lichtquellen dar, durch die die Pupille heller aufgenommen wird;
  • Fig. 20A bis 20C zeigen Beispiele der Bilder, die durch das in Fig. 10 gezeigte Gerät aufgenommen sind;
  • Fig. 20 zeigt ein Beispiel einer Markierung, die an dem Gerät einer Ausführungsform der vorliegenden Erfindung angebracht ist;
  • Fig. 21 zeigt ein Beispiel einer an dem Gerät angebrachten Markierung;
  • Fig. 22 ist eine Querschnittsansicht, die ein anderes Beispiel der Markierung zeigt;
  • Fig. 23 zeigt Bildaufnahmegerät mit einem elektrischen Verschluß;
  • Fig. 24 und 25 zeigen Antriebszeitpunkte des Bildaufnahmegerätes und des Beleuchtungsgerätes, die in Fig. 23 gezeigt sind;
  • Fig. 26A ist ein schematisches Blockschaltbild, das eine Gesamtstruktur eines Bildverarbeitungsgerätes zeigt, das in Echtzeit Merkmalspunkte erkennt durch Benutzen des Bildaufnahmege rätes, und Fig. 26D ist ein spezielles Blockschaltbild des in Fig. 26A gezeigten Bildverarbeitungsgerätes;
  • Fig. 27, 28 und 29 zeigen Beispiele eines Bildaufnahmegerätes, das auf ein aktives Stereosehmeßverfahren angewendet ist Fig. 30 zeigt schematisch den Aufbau eines Auges;
  • Fig. 31 stellt das Stereosehmessen dar;
  • Fig. 32 und 33 stellen ein Verfahren zum Erfassen einer dreidimensionalen Position eines Bildes dar, das von zwei willkürlich gesetzten Kameras gemäß einem Weltkoordinatensystem aufgenommen wird;
  • Fig. 34 zeigt eine Ausführungsform des Augenverfolgens;
  • Fig. 35 stellt eine Koordinatentransformation einschließlich der Bewegung des Nullpunktes und der Drehung der Koordinatenachse dar;
  • Fig. 36 entspricht Fig. 34, wobei der Nullpunkt des Weltkoordinatensystemes, der der Merkmalspunkt P&sub1; des Gesichtes ist, bewegt ist;
  • Fig. 37 zeigt ein Zustand des gedrehten Weltkoordinatensysteme 5;
  • Fig. 38 stellt den Vektor des Zentrums des Augapfels an dem Kopfkoordinatensystem dar;
  • Fig. 39 zeigt einen Fall, in dem das Zentrum des Augapfels nicht auf einem Segment vorhanden ist, das die Pupille und die Fovea verbindet;
  • Fig. 40 zeigt ein Beispiel eines Kopfmodelles unter Benutzung von einer Brille mit Markierungen;
  • Fig. 41 zeigt einen in ein Modell gewandelten Kopf mit vier Punkten;
  • Fig. 42A und 42B zeigen ein Beispiel zum Erfassen eines statischen virtuellen Merkmalspunktes aus zwei Merkmalspunkten und
  • Fig. 43 stellt eine andere Ausführungsform einer Augenverfolgung dar.
  • Fig. 8 zeigt das Konzept der Merkmalsherausziehung und Fig. 9 zeigt Typen und Eigenschaften der Merkmalspunkte, die für die Augenverfolgung notwendig sind.
  • Zuerst wird Bezug genommen auf Fig. 8 und 9, das Konzept der Merkmalsherausziehung wird beschrieben. Ein Gesichtsbild wird durch eine Kamera 60 aufgenommen, und Merkmalspunkte, die den Kopf reflektieren, und Merkmalspunkte der Augen werden aus den Bildsignalen herausgezogen, die die Ausgangssignale von der Kamera 60 sind. Der laterale Winkel des Auges, der mediale Winkel des Auges, die Lippe usw. können durch die Farbdifferenz als die Merkmalspunkte, die den Kopf widerspiegeln, erkannt werden, wie in Fig. 2 gezeigt ist. Die Merkmalspunkte des Auges sind das Bild, das an der Hornhaut reflektiert ist, der dunkle Abschnitt des Auges und die Pupille. Das von der Hornhaut reflektierte Bild ist das virtuelle Bild, das von dem regulär an der konvexen Oberfläche der Hornhaut reflektierte Licht gebildet wird, das sich in die gleiche Richtung wie der Augapfel im Verhältnis zur der Bewegung der visuellen Achse bewegt. Der dunkle Abschnitt des Auges kann durch die Differenz in der Intensität der Reflexion zwischen der Iris und der Hornhaut überwacht werden. Die Bewegung des dunklen Abschnittes kann nur durch die Zimmerbeleuchtung mit einem Referenzlicht herausgezogen werden. Die Pupille kann durch die Differenz in der Intensität des Lichtes, das von der Hornhaut und an der Iris und an dieser Öffnung reflektiert wird, erkannt werden, und die Pupille wird nicht sehr durch die Bewegung des Augenlides beeinflußt.
  • Die Position und die Richtung des Kopfes werden aus den herausgezogenen Merkmalspunkten bestimmt, die von dem Kopf reflektiert werden, und die Resultate werden in die Position der Mitte des Augapfels umgewandelt. Weiterhin werden die Mitte der Pupille und die Mitte des dunklen Abschnittes aus den herausgezogenen Merkmalspunkten des Auges erfaßt, und die Richtung der Augenfixierung wird als Reaktion auf das Resultat und die Position der Mitte des Augapfels erkannt, die durch Umwandlung zur Verfügung gestellt wird.
  • Der Kopf wird in ein Modell gewandelt. Das Umwandeln in das Modell wird ausgeführt, indem mindestens drei Merkmalspunkte des Gesichtes benutzt werden, an denen sich die Haut nicht sehr be wegt. Die Position und die Richtung des Kopfes werden auf der Grundlage der Positionen der entsprechenden Merkmalspunkte auf dem Gesicht erkannt.
  • Bei dem Umwandeln des Kopfes in ein Modell werden mindestens drei virtuelle Merkmalspunkte, die relativ statisch sind, von mindestens vier oder mehr Merkmalspunkten auf dem Gesicht herausgenommen, und die Position und die Richtung des Kopfes werden auf der Grundlage der Positionen der virtuellen Merkmalspunkte erfaßt.
  • Markierungen, deren Merkmale leicht herausgezogen werden können, werden an mindestens drei Abschnitten eines Brillengestelles angebracht, der Kopf wird in das Modell unter Benutzung der Markierungen umgewandelt, wenn der Benutzer die Brille trägt, und die Position und Richtung des Kopfes werden auf der Grundlage der Positionen der Markierungen erkannt.
  • Fig. 10 zeigt ein Bildaufnahmegerät, das bei der vorliegenden Erfindung verwendet werden kann, Fig. 11 ist eine Frontansicht des in Fig. 10 gezeigten Aufnahmeobjektives und Fig. 12 ist eine Seitenansicht des Aufnahmeobjektives.
  • Es wird Bezug genommen auf Fig. 10, ein Beleuchtungsgerät 61 und ein Objektiv 65 sind in Front einer Kameraeinheit 60 angeordnet. Das Beleuchtungsgerät 61 weist lichtemittierende Dioden 66 auf, die um das Objektiv angeordnet sind, wie in Fig. 11 gezeigt ist. Ein linearer Polarisator 63 ist in Front der lichtemittierenden Dioden 66 angeordnet, und ein Abschneidefilter 68 für sichtbare Wellenlängen ist in Front des Objektives 45 angeordnet. Der lineare Polarisator 63 polarisiert das von den lichtemittierenden Dioden 66 emittierte Licht, und der Abschneidefilter für sichtbare Wellenlängen schneidet das sichtbare Licht ab, das von einer externen Beleuchtung wie einer Leuchtstoffröhre emittiert ist. Ein Beleuchtungsapparat 62 ist an einer Position entfernt von der optischen Achse des Objektives 65 angeordnet. Der Beleuchtungsapparat 62 weist lichtemit tierende Dioden 64 und einen linearen Polarisator 67 auf, der davor vorgesehen ist.
  • Die Kameraeinheit 60 weist drei Prismen 607, 608 und 609 auf. Eine Wellenlängen trennende Ebene 610 ist zwischen den Prismen 607 und 608 gebildet, und ein Halbspiegel 611 ist zwischen den Prismen 608 und 609 angeordnet. Ein Polarisator 615 und ein CCD-Bildaufnahmeelement 412 sind der lichtemittierenden Oberfläche des Prismas 607 zugewandt angeordnet. Ein CCD- Bildaufnahmeelement 614 ist der lichtemittierenden Oberfläche des Prismas 608 zugewandt angeordnet, und ein Polarisator 616 und ein CCD-Bildaufnahmeelement 613 sind der lichtemittierenden Oberfläche des Prismas 609 zugewandt angeordnet. Die polarisierenden Oberflächen der Polarisatoren 615 und 616 stehen senkrecht zu den linearen Polarisatoren 63 und 67, die in Front der Beleuchtungsgeräte 61 und 62 vorgesehen sind. Die Ausgangssignale der CCD-Bildaufnahmeelemente 613 und 614 werden an ein Bildsubtraktionsbetriebsmittel 617 angelegt, indem das von der Hornhaut reflektierte Bild herausgezogen wird. Die Ausgangssignale der CCD-Bildaufnahmeelemente 612 und 613 werden an ein Subtraktionsbetriebsmittel 618 angelegt, indem die Pupille herausgezogen wird.
  • Fig. 13 ist ein Diagramm, das die optischen Eigenschaften der optischen Teile zeigt, die in einem Bildaufnahmegerät eingesetzt werden. Nahes Infrarotlicht, das nicht von dem Auge von jemandem erfaßt werden kann, wird für die lichtemittierenden Dioden 64 und 66 benutzt, die in den Beleuchtungsgeräten 61 und 62 eingesetzt werden, die in Fig. 10 gezeigt sind. Bei dieser Ausführungsform beträgt die Wellenlänge λ1 der lichtemittierenden Diode 64 gerade 850 nm, während die Wellenlänge λ2 der lichtemittierenden Diode 66 gerade 950 nm beträgt. Die Wellenlängeneigenschaften der lichtemittierenden Dioden 64 und 66 sind durch (1) und (2) in Fig. 13 gezeigt. Die Eigenschaften des Abschneidefilters 68 für sichtbares Licht, das vor dem Objektiv 65 vorgesehen ist, wird durch (4) in Fig. 13 dargestellt, und die Empfindlichkeit der CCDs 612, 613 und 614 ist durch (3) in Fig. 13 gezeigt. Wie aus Fig. 13 ersichtlich ist, ist die Halbwertsbreite der Wellenlänge jeder der lichtemittierenden Dioden 64 und 66 schmal, so daß das von den entsprechenden lichtemittierenden Dioden 64 und 66 emittierte Licht nicht das jeweils andere stört, wenn die Mittenwellenlängen der zwei sich um ungefähr mehr 100 nm unterscheiden. Das Licht mit solcher Wellenlänge kann nicht durch die Augen eines Menschen erfaßt werden. Wenn das Licht durch die Augen eines Menschen erfaßt wird, kann die Wellenlänge des emittierten Lichtes geändert werden, so daß es länger ist. Die aus Silizium gebildeten CCD- Bildaufnahmeelemente 612, 613 und 614 weisen eine ausreichende Empfindlichkeit in diesem Wellenlängenbereich auf, wie in Fig. 13 gezeigt ist.
  • Fig. 14 ist eine perspektivische Ansicht, die einen Überblick über ein Beleuchtungsgerät zeigt, das lichtemittierende Dioden und einen Polarisator als ein Beispiel aufweist, die als eine Einheit vorgesehen sind. Es wird Bezug genommen auf Fig. 14, lichtemittierende Dioden 72 sind auf einer Basisplatte 71 angebracht, und ein Rahmen 74 zum Anbringen optischer Elemente ist an der Basisplatte 71 in einem vorbestimmten Abstand mittels eines Abstandshalters 73 angebracht. Optische Elemente 75 wie ein Polarisator, ein Filter, der sichtbare Wellenlänge abschneidet und Infrarot durchläßt usw. sind auf dem Rahmen 74 angebracht. Löcher für ein Kameraobjektiv sind in der Basisplatte 71 und auf dem optischen Element 75 gebildet, und ein Zylinder 76 ist zum Verbinden dieser zwei Löcher vorgesehen.
  • Wie oben beschrieben wurde, sind bei dem in Fig. 14 gezeigten Beispiel die optischen Elemente 75 durch einen Rahmen 74 so abgedeckt, daß die mechanische Festigkeit zum Verhindern von Schrägstellungen oder ähnlichem der optischen Elemente 75 vergrößert wird. Diese Struktur ist insbesondere wichtig, wenn der Brechungsindex des optischen Elementes 75 eine Anisotropie aufweist und die Eigenschaften der Elemente sich in Abhängigkeit von der Wellenlänge ändern. Genauer gesagt, wenn das Element eine Schiefe hat, wenn es verzerrt oder gebogen wird, kann vor geschriebenes Referenzlicht nicht vorgesehen werden. Der Zylinder 76 verändert den Eintritt des Referenzlichtes, das von den lichtemittierenden Dioden 72 emittiert ist, direkt in das Objektiv. Das Referenzlicht und das reflektierte Licht werden nämlich voneinander durch den Zylinder 76 getrennt.
  • Ein Betrieb eines Bildaufnahmegeräte wird im folgenden unter Bezugnahme auf Fig. 10 beschrieben. Das von den lichtemittierenden Dioden 64 und 66 der Beleuchtungsgeräte 61 und 62 emittierte Licht wird durch die Polarisatoren 67 bzw. 63 zum Beleuchten einer Person polarisiert. Das davon reflektierte Licht tritt in das Prisma 607 durch das Abschneidefilter 68 für sichtbares Licht und das Objektiv 65 ein. Das Licht mit der Wellenlänge λ2 (950 nm) wird durch den Wellenlängen trennenden Film 610 getrennt, so daß es das CCD-Bildaufnahmeelement 612 durch den Polarisator 615 zum Bilden eines Abbildes eintritt, Es sei angenommen, daß die Polarisation der Beleuchtung durch das Beleuchtungsgerät 62 in der Querrichtung ist, dann wird ein Bild mit der regulär reflektierten Komponente abgeschnitten, das heißt ein Bild mit der diffus reflektierten Komponente wird auf der photoempfindlichen Oberfläche des CCD-Bildaufnahmeelementes gebildet, wenn die Polarisationsrichtung des Polarisators 615 um 90º verschoben wird, so daß sie in der vertikalen Richtung steht. Da die reguläre Reflexion auf glatten Oberflächen des Objektes auftritt, werden die optischen Eigenschaften der Lichtkurve gut in den regulär reflektierten Komponenten gehalten.
  • Dagegen wird die diffus reflektierte Komponente durch die absorbierenden und reflektierenden Eigenschaften des Objektes modifiziert. Damit Merkmalspunkte des Gesichtes und der Pupille und des dunklen Abschnittes des Auges herausgezogen werden, sollte das diffus reflektierte Bild bevorzugt in Hinblick auf Rauschverringerung und Verbesserung des Signal/Rauschverhältnisses benutzt werden, Dagegen geht das reflektierte Licht mit der Wellenlänge λ1 durch das Abschneidefilter 68 für sichtbare Wellenlänge, das Objekt 65 und das Prisma 607, so daß es durch einen Halbspiegel 611 aufgeteilt wird, der an der Schnittstelle zwischen den Prismen 608 und 609 vorgesehen ist. Ein Teil des unterteilten Lichtes geht in das CCD-Bildaufnahmeelement 613 durch den Polarisator 616 zum Bilden eines Abbildes, und der andere Teil des unterteilten Lichtes geht direkt in das CCD-Bildaufnahmeelement 614 zum Bilden eines Abbildes. Daher ist ein Bild mit der regulär reflektierten Komponente und der diffus reflektierten Komponente in den Ausgangssignalen von dem CCD-Bildaufnahmelement 614 enthalten, während ein Bild mit der diffus reflektierten Komponente nur in den Ausgangssignalen von dem CCD-Bildaufnahmelement 613 enthalten ist. Da die Intensität des durch die Polarisatoren 615 und 616 gehenden Lichtes 1/2 wird, ist das Teilungsverhältnis des Halbspiegels 611 auf 1 : 2 gesetzt, so daß die Intensitäten der Bilder von den CCD-Bildaufnahmeelementen 613 und 614 ungefähr die gleichen sind.
  • Fig. 15A zeigt ein diffus reflektiertes Bild, das von einem Bildaufnahmegerät aufgenommen ist, und Fig. 15B zeigt den Effekt des Herausziehens von Merkmalspunkten. Ein Experiment wird durchgeführt zum Herausziehen blauer Markierungen, die an einem Gesicht einer Person als Merkmalspunkt angebracht sind zum Bestätigen des Prinzips dieser Erfindung. Zum Vergleich mit dem herkömmlichen Bildaufnahmeverfahren werden keine lichtemittierenden Dioden, sondern eine weiße Lichtquelle (Halogenlicht) als die Lichtquelle benutzt, die zum Beleuchten des Objektes polarisiert wird. Eine herkömmliche 3-Farben-CCD-Kamera wird benutzt, und ein Polarisator, dessen Polarisationsrichtung senkrecht auf dem Polarisator steht, der zur Beleuchtung eingesetzt wird, wird in die bildherstellende optische Achse eingesetzt. Fig. 15A zeigt ein Beispiel des Herausziehens der diffus reflektierten Komponente aus dem reflektierten Licht, das von der Kamera gemäß dem oben beschriebenen Verfahren aufgefangen wurde. Fig. 15B zeigt Bilder, die durch Herausziehen von Gesichtsfarbkomponenten aus den Bildpunkten von Fig. 15A und durch Unterwerfen einer Schwellenwertoperation erhalten werden. Wenn wird Fig. 15B mit dem in Fig. 3B gezeigten herkömmlichen Beispiel vergleichen, ist das Rauschen verringert und die blauen Markierungen 77 sind effektiv als Merkmalspunkte herausgezogen.
  • Das Herausziehen der von der Hornhaut reflektierten Bilder wird im folgenden beschrieben. Die von der Hornhaut reflektierten Bilder sind virtuelle Bilder, die dadurch gebildet werden, daß das Licht der Referenzlichtquelle regulär auf der Oberfläche der Hornhaut reflektiert wird. Daher sind in diesem Fall die regulär reflektierten Bilder die gewünschten Signale. Das Herausziehen der von der Hornhaut reflektierten Bilder wird realisiert durch Herausziehen der Differenz zwischen den Bildern auf den in Fig. 10 gezeigten CCD-Bildaufnahmeelementen 613 und 614 durch das Subtraktionsbetriebsmittel 617. Ein Problem bei dem Herausziehen der von der Hornhaut reflektierten Bilder bei dem Stand der Technik war es, daß das Licht von externen Oberflächen oder von der Anzeigeneinheit von der Hornhaut zum Bilden von Bildern reflektiert wird, die mit den von der Referenzlichtquelle erhaltenen Bildern überlappen. Bei einer Ausführungsform der vorliegenden Erfindung ist jedoch das Licht von der lichtemittierenden Diode 64 polarisiert, so daß die von der Hornhaut reflektierten Bilder, die durch Reflexion des Lichtes von der lichtemittierenden Diode 64 gebildet sind, durch den Polarisator 614 abgeschnitten werden, der orthogonal damit schneidet, wodurch die diffus reflektierten Bilder verbleiben. Daher kann das von der Hornhaut reflektierte Bild aus dem Hintergrund durch das Subtraktionsbetriebsmittel 617 herausgezogen werden, wie oben beschrieben wurde.
  • Da jedoch die externe Beleuchtung im allgemeinen nicht polarisiert ist, werden ähnliche Bilder von den CCD-Bildaufnahmeelementen 613 und 614 auf genommen, und es gibt keinen Unterschied zwischen den von diesen zwei Elementen aufgenommen Bildern. Daher enthält das Differenzbild, das von dem Subtraktionsbetriebsmittel 617 vorgesehen wird, geringeres Rauschen, wodurch das Herausziehen des von der Hornhaut reflektierten Bildes mit hohem Signal/Rauschverhältnis realisiert werden kann.
  • Fig. 16A bis 16C zeigen Beispiele des Herausziehens des von der Hornhaut reflektierten Bildes. Die in den Fig. 16A bis 16C gezeigten Beispiele sind die Resultate eines Experimentes zum Herausziehen des von der Hornhaut reflektierten Bildes unter Benutzung des gleichen Bildaufnahmesystemes, wie es in Fig. 10 gezeigt ist, damit das oben beschriebene Konzept bestätigt wird. Fig. 16A zeigt ein von dem CCD-Bildaufnahmeelement 614 vorgesehenes Bild einschließlich der regulär reflektierten Komponente und der diffus reflektierten Komponente. Fig. 16B zeigt von dem CCD-Bildaufnahmeelement 613 vorgesehene Bilder einschließlich der diffus reflektierten Komponente. Das von dem Subtraktionsbetriebsmittel 617 ausgegebene subtrahierte Bild entspricht Fig. 16C, indem das von der Hornhaut reflektierte Bild klar von dem Hintergrund herausgezogen ist.
  • Das Herausziehen der Pupille wird im folgenden beschrieben. Wie in Fig. 10 gezeigt ist, weist das erste Beleuchtungsgerät 61 lichtemittierende Dioden 66 auf, die um die optische Achse des Objektives 65 angeordnet sind, wie in Fig. 11 gezeigt ist. Bei dem reflektierten Bild, das aus der Beleuchtung des Beleuchtungsgerätes 61 abgeleitet wird, das heißt das von dem CCD- Bildaufnahmeelement 612 ausgegebene Bild, wird die Pupille heller als der Hintergrund aufgenommen. Obwohl die Hervorhebung der Pupille gegen den Hintergrund nicht ausreichend ist, kann die Pupille herausgezogen werden, wenn der Bereich der Anwendung begrenzt ist. Dagegen ist das zweite Beleuchtungsgerät 62 getrennt von der optischen Achse des Objektives 65 angeordnet. Bei dem von der Beleuchtung des Beleuchtungsgerätes 62 abgeleiteten reflektierten Bild, das heißt das von dem CCD-Bildaufnahmeelement 613 oder 614 vorgesehenen Bild, ist die aufgenommene Pupille dunkel. Daher wird durch die Subtraktionstätigkeit zwischen dem von dem CCD-Bildaufnahmeelement 612 vorgesehenen Bild und dem von dem CCD-Bildaufnahmeelement 613 vorgesehenen Bild oder durch die Subtraktionstätigkeit zwischen dem von dem CCD-Bildaufnahmeelement 613 vorgesehenen Bild und dem von dem CCD-Bildaufnahmeelement 614 vorgesehenen Bild die Pupille weiter gegen den Hintergrund hervorgehoben, wodurch ihre Heraus ziehung erleichtert wird. Da die Bedingungen des Anbringens des zweiten Beleuchtungsgerätes 62 nicht sehr restriktiv sind, wie oben beschrieben wurde, kann es durch eine externe Beleuchtung wie eine Leuchtstoffröhre ersetzt werden. In diesem Fall muß jedoch das von der Beleuchtung reflektierte Licht das CCD- Bildaufnahmelement 613 oder 614 erreichen, daher muß die externe Beleuchtung eine Komponente im nahen Infrarot aufweisen, oder das Abschneidefilter 68 für sichtbare Wellenlänge muß entfernt werden.
  • Fig. 17, 18 und 19 stellen Anordnungen der Lichtquellen zum hellen Aufnehmen der Pupille dar.
  • Die Beziehung zwischen den Positionen der Lichtquellen und der Helligkeit der Pupille wird im einzelnen im folgenden unter Bezugnahme auf Fig. 17 beschrieben. Der Augapfel 80 kann als ein Modell einer zusammengesetzten Sphäre betrachtet werden, bei dem transparente Sphären mit unterschiedlichen Radien einander überlappen, wobei ihre Mittelpunkte in einem Abstand voneinander angeordnet sind. Es sei ein Fall angenommen, in dem der Augapfel 80, der auf der optischen Achse des Aufnahmeobjektives 86 liegt, beleuchtet wird und das davon reflektierte Licht aufgefangen werden soll. Ein offener Abschnitt der Iris 81 des Augapfels 80 ist die Pupille 85. Das von einer Lichtquelle 87 emittierte Licht tritt in den Augapfel durch die Pupille 85 ein, wird an der Hornhaut reflektiert, geht durch die Pupille 85 und erreicht eine diffus reflektierende Oberfläche 82, die der Netzhaut entspricht. Ein Teil des Lichtes wird von den Netzhautzellen absorbiert. Der Rest des Lichtes wird hier zerstreut und reflektiert. Ein Teil des reflektierten Lichtes, der wieder durch die Pupille 85 gehen kann, kehrt ungefähr in die Richtung der Lichtquelle zurück. Wenn daher das Aufnahmeobjektiv 86 in dieser Richtung zum Auffangen des reflektierten Lichtes angeordnet ist, ist der der Pupille 85 entsprechende Teil in dem aufgenommenen Bild hell.
  • Wenn jedoch das Aufnahmeobjektiv 86 entfernt von der Lichtquelle 87 angeordnet ist, wird es schwierig, ausreichend das reflektierte Licht aufzufangen, und die Fläche, die in dem Abschnitt der Pupille 85 hell ist, hat eine einmalige Form. Wie in Fig. 17 gezeigt ist, wird, wenn die Lichtquelle 87 nahe der optischen Achse des Aufnahmeobjektives 86 angeordnet ist, die helle Fläche in der Pupille 85 größer, wie in Fig. 18B gezeigt ist. Wenn jedoch die Lichtquelle entfernt von dem Aufnahmeobjektiv 86 ist, wie es durch 88 dargestellt ist, die helle Fläche ist deutlich schräger, wie in Fig. 18A gezeigt ist. Die Mitte der Pupille 85 kann nicht richtig dargestellt werden, selbst wenn die Schwellenwerttätigkeit durchgeführt wird zum Auffinden der Mitte, da die Helligkeit des Pupillenbildes nicht gleichförmig ist. Daher kann möglicherweise ein Fehler beim Augenverfolgen auftreten. Im Hinblick auf die Genauigkeit beim Augenverfolgen wird es insbesondere gewünscht, daß die Pupille 85 mit gleichförmiger Helligkeit aufgenommen wird.
  • Daher ist es bevorzugt, die Lichtquelle in 87 nahe und um die optische Achse des Aufnahmeobjektives 86 angeordnet sind. Fig. 18C zeigt schematisch das Pupillenbild, das unter Benutzung des in Fig. 11 gezeigten Beleuchtungsgerätes 61 aufgenommen worden ist. Die in Fig. 11 gezeigten lichtemittierenden Dioden 66 dienen zum Aufnehmen eines speziellen Teiles der Pupille 85 als hell, wie in Fig. 18A gezeigt ist. Das durch die Summe der Funktionen der lichtemittierenden Dioden 66, die um die optische Achse angeordnet sind, aufgenommene Pupillenbild ist 26 gleichförmig hell. Die Anordnung, die die Lichtquellen 87 nahe der optischen Achse des Objektives aufweist, wird nur realisiert, wenn kompakte und effektive Lichtquellen wie lichtemittierende Dioden 66 benutzt werden.
  • Es wird Bezug genommen auf Fig. 19 die Bedingungen zum gleichförmigen hellen Aufnehmen der Pupille wird im folgenden beschrieben. Hauptsächliche Parameter, die die Bedingungen der Bildaufnahme beeinflussen, sind wie folgt.
  • (1) Positionen d, g des Augapfels, wobei die Position der Mitte des Objektives eine Referenz ist, und Rotationswinkel ξ des Augapfels
  • (2) Position der Lichtquelle
  • Von den oben erwähnten Parametern ist der Parameter (1) durch die Umgebungsbedingung definiert, in der das Augenverfolgungsverfahren eingesetzt wird. Bei der Schnittstellenumgebung beträgt die Position D des Augapfels 50 cm bis 200 cm, die Position g des Augapfels beträgt ±30 cm und der Rotationswinkel beträgt ±20º. Unter solchen Bedingungen wird die Bedingung der Anordnung der Lichtquellen zum Aufnehmen von mindestens einem Teil der Pupille als hell, wie in Fig. 18A und 18B gezeigt ist, durch Experimente gefunden. Die Bedingung wird nämlich durch einen Winkel θ definiert, der durch eine Linie, die die entsprechenden Lichtquellen mit dem aufzunehmenden Objekt verbindet, und die Linie, die die Mitte des Objektives mit dem Augapfel verbindet, definiert, wobei der Winkel θ gleich θth1 (5º) oder weniger ist.
  • Wenn der Winkel nicht weniger als θth2 (6º) ist, weist die Pupille keinen Teil mehr auf, der hell aufgenommen wird. Ob die Pupille hell oder dunkel aufgenommen wird, wird nämlich durch den Winkel θ bestimmt, wobei der Grenzwert 5º ist. Die Werte von θth1 und θth2 werden in Abhängigkeit von den Bedingungen der Umgebung gesetzt. Daher sollten bei dem Beleuchtungsgerät 61 zum Aufnehmen eines hellen Pupillenbildes die entsprechenden Lichtquellen um die optische Achse des Objektives mit einem Winkel von nicht mehr als θth1 gesetzt werden. Was die Zahl der Lichtquellen betrifft, je mehr desto besser. Bevorzugt können drei oder mehr Lichtquellen benutzt werden.
  • Unter Benutzung des Referenzbildes, das durch Subtraktion zwischen dem Bild, bei dem die Pupille hell aufgenommen ist, und dem Bild, bei dem die Pupille dunkel aufgenommen ist, vorgese hen wird, kann der Teil der Pupille gegen den Hintergrund hervorgehoben werden.
  • Fig. 20A bis 20C zeigen Beispiele von Bildern, die mit dem in Fig. 10 gezeigten Gerät aufgenommen sind. Fig. 20A ist ein Bild, das von dem CCD-Bildaufnahmeelement 612 aufgenommen ist, während Fig. 20B das Bild ist, das von dem CCD-Bildaufnahmeelement 614 aufgenommen ist. Durch Unterwerfen einer Schwellenwerttätigkeit des subtrahierten Bildes kann der Teil der Pupille mit hohem Signal/Rauschverhältnis herausgezogen werden, wie in Fig. 20C gezeigt ist.
  • Bei einer Ausführungsform der vorliegenden Erfindung wird die Pupille hell aufgenommen, indem das an der Netzhaut des Augapfels aus der Pupille reflektierte Licht aufgenommen wird. Diese Technik kann zum Herausziehen von Merkmalspunkten benutzt werden. Genauer, bei einem Verfahren des Erfassens der Position und der Richtung des Gesichtes von jemandem durch Anbringen von Markierungen auf dem Gesicht und Herausziehen dieser Markierungen können transparente Kugeln als die Markierungen benutzt werden.
  • Fig. 21 zeigt ein Beispiel der an einem Gerät angebrachten Markierung. Es wird Bezug genommen auf Fig. 21, eine diffus reflektierende Schicht 91 wird durch Anbringen einer Beschichtung wie eine weiße Farbe auf einer Glaskugel 90 gebildet. Eine Beschichtung wie eine schwarze Farbe wird weiter darauf aufgebracht zum Vorsehen einer lichtabsorbierenden Schicht 92. Das Licht tritt in die Glaskugel 90 durch einen Öffnungsabschnitt ein, wird an der Krümmung des Öffnungsabschnittes reflektiert und erreicht die zerstreuende Oberfläche. Obwohl kein Bild durch das einfallende Licht auf der zerstreuende Oberfläche gebildet wird, wird das einfallende Licht gesammelt, wie in Fig. 21 gezeigt ist, da die Krümmung des Öffnungsabschnittes als eine Linse dient. Das von der zerstreuenden Oberfläche reflektierte Licht wird ungefähr in die Richtung des einfallenden Lichtes reflektiert, da die Krümmung als die Linse dient, wenn das Licht durch den Öffnungsabschnitt hindurchgeht.
  • Da die Richtung des reflektierten Lichtes in der Nähe des einfallenden Lichtes ist, wenn das reflektierte Licht durch das Bildaufnahmegerät von Fig. 10 aufgenommen wird, wird der Öffnungsabschnitt heller als die Umgebung in dem durch das CCD- Bildaufnahmeelement 612 aufgenommenen Bild aufgenommen. Da das reflektierte Licht, das von dem Licht des Beleuchtungsgerätes 62, das getrennt von dem Aufnahmeobjektiv 65 vorgesehen ist, abgeleitet ist, nicht durch die Kamera 60 aufgenommen wird, wie es in dem Fall des Augapfels ist, wird der Öffnungsabschnitt in dem von den CCD-Bildaufnahmeelementen 613 und 614 aufgenommenen Bildern dunkel. Daher kann durch die Subtraktionstätigkeit zwischen den zwei verschiedenen Bildern der Öffnungsabschnitt als der Merkmalspunkt herausgezogen werden. Auf diese Weise kann der Öffnungsabschnitt der Glaskugel 90 auf ähnliche Weise wie das Herausziehen der Pupille herausgezogen werden. Eine Glaskugel 90 mit einem Durchmesser von 3 bis 5 mm kann benutzt werden, wobei sie bevorzugt an einem Teil des Gesichtes angebracht wird, an dem sich die Haut nicht sehr viel bewegt, oder die Glaskugel kann in das Gestell einer Brille eingebettet werden.
  • Fig. 22 ist eine Querschnittsansicht, die ein anderes Beispiel der Markierung zeigt. Es wird Bezug genommen auf Fig. 22, die Markierung 93 ist ein Kreis mit einem Durchmesser von ungefähr 2 bis 5 mm, der durch Bearbeiten von Glas gebildet wird. Ein Film 94, der Licht mit einer Wellenlänge länger als 900 nm durchläßt und Licht mit einer Wellenlänge nicht länger als 900 nm reflektiert, ist auf der Oberfläche gebildet, und die rückseitige Oberfläche ist eine diffus reflektierende Oberfläche 95. Daher wird Licht mit einer Wellenlänge länger als 900 nm zerstreut und reflektiert durch die hintere Oberfläche, so daß es von der Kamera aufgefangen werden kann, Das Licht mit einer Wellenlänge nicht langer als 900 nm wird auf der Oberfläche der Markierung 93 reflektiert. Wenn jedoch die Richtung der Reflexion unterschiedlich von der Richtung des Aufnahmeobjektives ist, wird das Licht nicht aufgenommen. Da zusätzlich dieses Licht regulär reflektiert ist, kann es unter Benutzung eines Polarisators abgeschnitten werden. Bei dem Bild, das von dem in Fig. 10 gezeigten CCD-Bildaufnahmeelement 612 aufgenommen wird, wird der markierte Abschnitt hell. Bei dem von dem CCD- Bildaufnahmeelement 613 aufgenommenen Bild, wird die Markierung dunkel. Dadurch kann durch Subtraktion dieser Bilder der markierte Abschnitt als auch die Pupille herausgezogen werden.
  • Fig. 23 zeigt ein Bildaufnahmegerät mit einem elektrischen Verschluß. Es wird Bezug genommen auf Fig. 23, eine Kamera 101 vom Typ mit elektrischen Verschluß weist ein Objektiv 102, einen elektrischen Verschluß 103, ein optisches Gerät 104 zum Trennen von Bildern entsprechend der Wellenlänge, ein Bildaufnahmeelement 105 zum Aufnehmen von Bildern mit der Wellenlänge λ&sub1; und ein Bildaufnahmeelement 106 zum Aufnehmen von Bildern mit der Wellenlänge λ&sub2; auf. Die Ausgangssignale von dem Bildaufnahmeelement 105 werden an einen Speicher 107 angelegt, während die Bildaufnahmeausgangssignale von dem Bildaufnahmeelement 106 an einen Speicher 108 angelegt werden. Die Speicher 107 bzw. 108 speichern die Bildaufnahmeausgangssignale. Ein Bildverarbeitungsgerät 109 verarbeitet Bildausgangssignale, die in dem Speicher 107 bzw. 108 gespeichert sind, und gibt zum Beispiel die Differenz zwischen ihnen aus. Der elektrische Verschluß 103 und die Bildaufnahmeelemente 105 und 106 werden durch eine Steuereinheit 110 gesteuert, die durch einen Mikrocomputer zum Beispiel gebildet ist. Ein Beleuchtungsgerät 111 weist ein Beleuchtungsgerät 113, das Licht mit der Wellenlänge λ&sub1; emittiert, und ein Beleuchtungsgerät 115, das Licht mit der Wellenlänge λ&sub2; emittiert, auf, die durch Treiberschaltungen 112 bzw. 114 unter der Steuerung der Steuereinheit 110 betrieben werden.
  • Fig. 24 und 25 zeigen Zeitpunkte des Treibens des Bildaufnahmegerätes und des Beleuchtungsgerätes, die in Fig. 23 gezeigt sind. Die Kamera 101 vom Typ des elektrischen Verschlus ses, die in Fig. 23 gezeigt ist, kann ein sich bewegendes Objekt mit keiner oder nur wenig Verwaschung aufnehmen. Das Konzept der Kamera ist wie folgt. Der elektrische Verschluß 103 wird während einer kurzen Zeitdauer zum Belichten der Bildaufnahmeelemente 105 und 106 geöffnet. Bildsignale werden zeitweilig in den Bildaufnahmeelementen 105 und 106 während einer kurzen Zeitdauer 116 gespeichert, zum Beispiel 1 msec, wie in Fig. 24(b) gezeigt ist. Danach werden zu dem Zeitpunkt 117, der in Fig. 24(a) gezeigt ist, die Bildsignale, die von den Bildaufnahmeelementen 105 und 106 ausgegeben sind, zu den Speichern 107 und 108 übertragen. Am Ende der Signalübertragung wird der elektrische Verschluß 103 wieder geöffnet, die Bildaufnahmeelemente 105 und 106 werden belichtet und der Betrieb wiederholt. Bei der in Fig. 23 gezeigten Kamera 101 vom Typ des elektrischen Verschlusses muß ein Bildaufnahmeelement mit einer hohen Empfindlichkeit als die Bildaufnahmeelemente 105 und 105 benutzt werden. Das Licht muß intensiver werden, wenn die Verschlußzeit kürzer wird. Der Einsatz des Beleuchtungsgerätes 111 in solch einem Gerät sieht die folgenden Vorteile vor.
  • Die lichtemittierenden Dioden können nämlich mit hoher Geschwindigkeit ein- und ausgeschaltet werden, ein größerer Strom kann dadurch bei einem unterbrochenen Treiberbetrieb im Vergleich mit dem kontinuierlichen Treiben fließen, und daher kann das von der Diode vorgesehene Licht intensiver sein. Daher kann zu dem Zeitpunkt der Belichtung des Bildaufnahmeelementes 105 und 106 ausreichend Licht emittiert werden. Auf diese Weise erfüllt das Beleuchtungsgerät 111, das lichtemittierende Dioden verwendet, die Anforderung an eine intensive Beleuchtung während einer kurzen Zeitdauer, was für die Kamera 101 vom Typ des elektrischen Verschlusses wünschenswert ist.
  • Die Belichtungszeit einer Bildebene der Bildaufnahmeelemente 105 und 106 ist in dem Bereich von 33 msec bis 0,5 msec. Wenn ein Fall angenommen wird, in dem 30 Bilder pro Sekunde mit einer minimalen Belichtungszeit von 1 msec oder 0,5 msec aufgenommen werden, ist die Belichtungszeit nicht mehr als 1/1000 im Vergleich mit der kontinuierlichen Beleuchtung. In diesem Fall leitet eine lichtemittierende Diode, die nur ungefähr 50 mA leitet, wenn sie kontinuierlich betrieben wird. Strom von etlichen A durch den unterbrochenen Betrieb. Daher kann die für die Belichtung notwendige Beleuchtung sichergestellt werden.
  • Bei dem Bildaufnahmegerät sollte externe Beleuchtung bevorzugt abgeschnitten werden, da sie Rauschen verursacht. Ein Effekt der Reduzierung der Belichtungszeit ist der, daß die Intensität der externen Beleuchtung relativ niedrig im Vergleich mit der Intensität des Beleuchtungsgerätes wird. Daher ist die Reflexionskomponente, die von der externen Beleuchtung abgeleitet wird, relativ klein und folglich wird die Rauschkomponente kleiner und das Signal/Rauschverhältnis besser. Da zusätzlich die Beleuchtung der notwendigen Intensität nur vorgesehen wird, wenn sie notwendig ist, kann der Leistungsverbrauch verringert werden und weniger Wärme wird erzeugt.
  • Als ein anderes Beispiel des unterbrochenen Antreibens wird ein Verfahren zum Entfernen reflektierter Komponenten, die von einer externen Beleuchtung stammen, im folgenden beschrieben.
  • Fig. 25 zeigt Zeitpunkte zum Antreiben des Beleuchtungsgerätes. Bei diesem Beispiel wird die Bildaufnahme in einer Zeitunterteilung durchgeführt, wobei zwei Bilder als ein Satz angenommen werden. Die zum Aufnehmen einer Bildebene benötigte Zeit beträgt 33 msec zum Beispiel, die durch A1 und A2 dargestellt ist. Zu der Zeit der Bildaufnahme A1 ist das Beleuchtungsgerät eingeschaltet. Zu der Zeit der Bildaufnahme A2 ist das Beleuchtungsgerät ausgeschaltet. Die zu den Zeiten A1 und A2 aufgenommenen Bilder sind beide durch die externe Beleuchtung beleuchtet. Unter der Annahme, daß die Bedingung der externen Beleuchtung die gleiche ist zu den Zeiten A1 und A2 kann das Bild, bei dem das Beleuchtungsgerät eingeschaltet ist, herausgezogen werden, indem das Bild zu der Zeit A2 von dem zu der Zeit A1 aufgenommenen Bild abgezogen wird.
  • Ein Bildverarbeitungsgerät, bei dem Merkmalspunkte eines Objektes, das aufzunehmen ist, in Echtzeit herausgezogen werden, das heißt mit 30 Bildern/sec wird im folgenden als eine Anwendung beschrieben. Wenn eine Bewegung einer Person in Echtzeit zu erfassen ist, muß das Verfahren zum Bildaufnehmen, das das Herausziehen der Merkmalspunkte erleichtert, ausgewählt werden, wie ein Aufbringen von Markierungen auf dem Gesicht oder des Körpers oder das Vorsehen von Referenzlicht. Diese Auswahl ist jedoch nicht ausreichend für Echtzeiterfassung. Der Hochgeschwindigkeitsbetrieb des Bildverarbeitungsgerätes ist wesentlich. Die oben beschriebenen Merkmalspunkte können leicht durch den Subtraktionsbetrieb zwischen zwei Bildern herausgezogen werden.
  • Fig. 26A ist ein schematisches Blockschaltbild, das eine Gesamtanordnung eines Bildverarbeitungsgerätes zeigt, bei dem Merkmalspunkte in Echtzeit durch Verwendung des Bildaufnahmegerätes erfaßt werden. Fig. 26B ist ein spezielles Blockschaltbild des in Fig. 26A gezeigten Bildverarbeitungsgerätes.
  • Es wird Bezug genommen auf Fig. 26A, R-, G- und B-Bildsignale, die durch Kameras 121 und 122 für das nahe Infrarot aufgenommen worden sind, werden entsprechend an die Bildverarbeitungsgeräte 123 und 124 angelegt, darin verarbeitet und an einen Host- Rechner 125 angelegt. Die Bildverarbeitungsgeräte 123 und 124 sind strukturiert, wie in Fig. 26B gezeigt ist. Das Bildverarbeitungsgerät 123 besteht grundsätzlich aus einem Modul 130, in dem ein Zeitsignal für eine Pipeline-Verarbeitung aus eingegebenen Signalen gebildet wird. Andere Eingangsmodule 131 und 132 und verschiedene Pipeline-Prozessormodule 153, 154, 155 und 156, die mit dem Modul 130 verbunden sind, sind parallel tätig. Die Kamera 121 für nahes Infrarot weist CCD-Bildaufnahmeelemente 612, 613 und 614 auf, wobei die Bildsignale von denen getrennt an die Module 130, 131 bzw. 132 angelegt werden. Die Module 130, 131 und 132 wandeln die Bildsignale in Bildpunktdaten durch A/D-Wandlung in Synchronisation mit den Ausgangssignalen von den CCD-Bildaufnahmeelementen 612, 613 bzw. 614 um, und die Bildpunktdaten werden aufeinanderfolgend an die Pipeline- Prozessormodule 133, 134, 135 und 136 über Videobusse angelegt. Jedes der Pipeline-Prozessormodule 133, 134, 135 und 136 weist eine Mehrzahl von Eingängen auf. Zum Beispiel führt bei einer Subtraktionstätigkeit zwischen zwei Bildern das Pipeline- Prozessormodul 133 die Subtraktion in B-R und eine Schwellenwerttätigkeit aus. Der Pipelineprozessor 134 führt eine Subtraktion B-G und die Schwellenwertverarbeitung aus. Der Pipelineprozessor 135 nimmt die in den Pipeline-Prozessoren 133 und 134 verarbeiteten Bildsignale auf, und der Pipelineprozessor 136 berechnet den Schwerpunkt der herausgezogenen Merkmalspunkte.
  • Die berechneten Schwerpunktskoordinaten werden durch einen Zwischenverstärker 138 an den Host-Rechner 125 zum Erfassen der Augenfixierung übertragen. Auf diese Weise werden die A/Dgewandelten Bildpunktdaten durch eine Mehrzahl von Pipeline- Prozessormodule 133 bis 136 bearbeitet, während ein Bild aufgenommen wird. Die zum Bearbeiten eines Bildes benötigte Zeit ist die Zeit von 33 msec, in der der letzte Bildpunkt aufgenommen ist plus die Verzögerungszeit bei der Pipelineverarbeitung. Die Eingangsmodule 130, 131 und 132 können das Aufnehmen des nächsten Bildes beginnen, sobald sie den letzten Bildpunkt zu dem Prozessor übertragen haben. Daher kann bei einer Bildverarbeitung, die durch einfache vier Regeln realisiert wird (Subtraktionsprozeß zwischen Bildern), die Echtzeitverarbeitung in der Rate von 33/sec mit einer Verzögerungszeit von 33 msec + α realisiert werden.
  • Die Anwendung an ein aktives Stereosehen, bei dem ein Formenmuster das aufzunehmende Objekt beleuchtet als das Referenzlicht und die dreidimensionale Form des Objektes gemäß der Änderung in dem reflektierten Muster entsprechend dem für die Beleuchtung benutzten Muster berechnet wird, als anderes Beispiel der Anwendung auf das Gebiet, das nicht augenverfolgend ist.
  • Fig. 27, 28 und 29 zeigen eine Anwendung auf die aktive Stereosehmessung. Es wird Bezug genommen auf Fig. 27, Referenzlicht, das von einem Beleuchtungsgerät 141 emittiert ist, das lichtemittierende Dioden als Lichtquellen verwendet, beleuchtet ein Objekt 145 durch ein Linsensystem 142, ein Formenmuster 143 und einen Polarisator 144. Das Objekt ist zum Beispiel das Gesicht einer Person, das Formenmuster 143 sieht zum Beispiel wie Fig. 28 gezeigt aus, und das Referenzlicht von der Lichtquelle 141 projiziert das Muster 146 des Formenmuster 143 auf das Objekt 145 durch das Linsensystem 142. Das von dem Objekt 145 reflektierte Licht geht durch die Aufnahmelinse 151 und den Polarisator 152 so, daß ein Bild auf dem Bildaufnahmeelement 153 gebildet wird. Die polarisierende Oberfläche des Polarisators 152 ist um 90º gegen die polarisierende Oberfläche des Polarisators 144 gedreht.
  • Fig. 29 zeigt ein Bild des auf das Objekt 145 projizierten Musters, das von dem Bildaufnahmeelement 153 aufgenommen ist. Allgemein weist das Objekt 145 glatte Teile auf. Das Referenzlicht wird auf diesen Abschnitten regulär reflektiert, so daß die regulär reflektierten Bilder, die das projizierte Muster stören, allgemein in dem projizierten Bild von Fig. 29 im Stand der Technik ohne Polarisation auftauchen. Bei diesem Verfahren jedoch, bei dem das Referenzlicht zur Beleuchtung polarisiert ist und die regulär reflektierte Komponente von dem reflektierten Licht abgeschnitten ist, können die Rauschkomponenten, die von den regulär reflektierten Bildern herrühren, verringert werden, wodurch das Formenmusterbild, das die Merkmalsinformation der Form des Objektes wiedergibt, effektiv herausgezogen werden kann, wie in Fig. 28 gezeigt ist.
  • Das Augenverfolgungsgerät wird im folgenden beschrieben, und die Augenfixierung wird vor der detaillierten Beschreibung des Gerätes beschrieben.
  • Fig. 30 zeigt schematisch den Aufbau eines Augapfels. Es wird Bezug genommen auf Fig. 30, eine transparente Schicht, die die vordere Oberfläche des Auges bedeckt, ist die Hornhaut 161. Das Sammeln des Lichtes auf der Netzhaut 162 wird hauptsächlich durch die Hornhaut 161 ausgeführt. Feineinstellung (Einstellen der Funktion) zum Fokussieren eines Objektes wird durch Ändern der Dicke einer Linse 163 durchgeführt. Ein Abschnitt, der Fovea 164 genannt wird, der die höchste Auflösung auf der Hornhaut 162 aufweist, existiert an einem Punkt einer Linie, die durch die Hornhaut 161 und die optische Achse der Linse 163 geht. Wenn eine Person ein Objekt betrachtet, bewegt sich das Auge derart, daß das Bild des Objektes auf der Fovea 164 gebildet wird. Daher können wir annehmen, daß die visuelle Achse ungefähr auf der ein Bild herstellenden optischen Achse liegt. Das Zentrum der Pupille 165 und das Rotationszentrum des Augapfels sind ebenfalls in der Nähe der optischen Achse. Daher ist Augenverfolgen grundsätzlich möglich durch Berechnen der Position des Zentrums der Pupille und des Zentrums des Augapfels. In dem folgenden wird der Algorithmus des Augenverfolgens beschrieben, wobei die visuelle Achse als die Linie angesehen wird, die das Zentrum des Augapfels und das Zentrum der Pupille verbindet. Die Korrektur für den Fall, in dem die Richtung der visuellen Achse von der Linie im engeren Sinne unterschiedlich ist, wird später beschrieben.
  • Die Stereosehmessung, bei der ein Weltkoordinatensystem auf einem Anzeigeschirm vorgesehen ist, das der Benutzer betrachtet, und die Positionen der oben beschriebenen Merkmalspunkte, die für das Augenverfolgen notwendig sind, werden auf diesem Koordinatensystem gemessen, wie im folgenden beschrieben wird.
  • Fig. 31 stellt die Stereosehmessung dar. Es wird Bezug genommen auf Fig. 31, , , stellt das Weltkoordinatensystem 161 dar, das mit dem Anzeigeschirm überlappt. Ein Spiegel ist parallel zu der - -Ebenen an einer vorgeschriebenen Position in der Richtung der -Achse des Weltkoordinatensystems 161 nur dann eingeführt, wenn das Stereomeßsystem zu kalibrieren ist.
  • (X, Y, Z) stellt das Koordinatensystem dar, das eine Projektion des Weltkoordinatensystems 161 ist, wobei die - -Ebenen davon von dem Spiegel 164 projiziert wird. Es wird ein Objektkoordinatensystem 162 genannt. (x, y, z) stellt ein Koordinatensystem 163 der Kamera dar, wobei der Nullpunkt o der Hauptpunkt der Linse ist. Eine Bildaufnahmeoberfläche 165 ist in einem Abstand der Fokallänge f von dem Hauptpunkt o positioniert. Das durch die Kamera aufzunehmende Objekt ist das Objektkoordinatensystem 162, das das Spiegelbild des Weltkoordinatensystemes 161 ist. Das Objektkoordinatensystem 162 ist nämlich der Anzeige zugewandt, und der Benutzer kann nahe seiner Position sitzen in der Umgebung der Schnittstelle.
  • Es ist die letzte Aufgabe der vorliegenden Erfindung, die Augenbewegung in dem Gebiet der Schnittstelle zu benutzen, und daher ist das Augenverfolgen in dem Anzeigenkoordinatensystem notwendig. Folglich müssen die Merkmalspunkte der Person genau in dem Anzeigenkoordinatensystem gefunden werden. Im allgemeinen ist, wenn die Positionen der Merkmalspunkt, die in dem Kamerakoordinatensystem 163 genommen werden, die in ein von dem Kamerakoordinatensystem 163 unterschiedliches Kamerakoordinatensystem umzuwandeln sind, eine Kalibrierung notwendig. Bei der Kalibrierung wird ein Punkt, dessen Position zuvor bekannt ist, in einem Koordinatensystem vorbereitet, in das die Position umzuwandeln ist, der Punkt wird von der Kamera aufgenommen und die Parameter für die Umwandlung werden berechnet. Da die Messung bevorzugt in dem Anzeigenkoordinatensystem gemäß der Aufgabe der vorliegenden Erfindung auszuführen sein sollte, wird die Kalibrierung realisiert, indem grundsätzlich ein Punkt angezeigt wird, dessen Position auf der Anzeige definitiv ist, und durch Aufnehmen des Punktes durch die Kamera. In dem Fall ist die Kamera natürlicherweise jedoch der Anzeige zugewandt und kann nicht den Benutzer aufnehmen, der der Anzeige zugewandt ist.
  • Daher ist ein Spiegel 164 vor dem Weltkoordiantensystem 161 zu der Zeit der Kalibrierung vorgesehen, wie in Fig. 31 gezeigt ist, und das virtuelle Bild auf dem Spiegel wird als Daten für die Kalibrierung benutzt. Das virtuelle Bild wird von der Kamera aufgenommen, und die räumliche Position des virtuellen Bildes wird genau in dem Weltkoordinatensystem 161 gefunden. Der Punkt in dem Weltkoordinatensystem 161 wird durch den Spiegel 164 reflektiert und erscheint als der Punkt P in dem Objektkoordinatensystem 162, wie in Fig. 31 gezeigt ist. Das Licht wird von dem Spiegel 164 reflektiert, wie durch den Pfeil (1) in Fig. 31 dargestellt ist. Gesehen von dem Kamerakoordinatensystem 163 wird das Licht gemessen, als ob es von dem Koordinatensystem 162 kommt, wie durch den Pfeil (2) dargestellt ist.
  • Der Spiegel 164 ist so angeordnet, daß die Position und die Richtung davon in Verknüpfung mit dem Weltkoordinatensystem 161 definit sind. Indem das getan wird, wird die Umwandlung von dem Weltkoordinatensystem 161 zu dem Objektkoordinatensystem 162 erleichtert. Wenn zum Beispiel der Spiegel 164 orthogonal die Z-Achse des Weltkoordinatensystemes 161 schneidend angeordnet wird, können die räumlichen Positionskoordinaten in dem Objektkoordinatensystem 162 in das Weltkoordinatensystem 161 umgewandelt werden, indem nur das Vorzeichen in der Richtung der Z- Achse umgedreht wird. Wenn die Umwandlung zwischen dem Weltkoordinatensystem 161 und dem Objektkoordinatensystem 162 leicht ist, wird die Umwandlung zwischen dem Kamerakoordinatensystem 163 und dem Weltkoordinatensystem 161, das heißt das Anzeigenkoordinatensystem ermöglicht, indem ein Verfahren der Umwandlung zwischen dem Kamerakoordinatensystem 163 und dem Objektkoordinatensystem 162 aufgestellt wird.
  • Daher wird in der folgenden Beschreibung ein Verfahren zum Berechnen der räumlichen Position des Merkmalspunktes P in dem Objektkoordinatensystem 162 auf der Grundlage der Daten der zweidimensionalen Position des von der Kamera in Fig. 31 aufgenommenen Merkmalspunktes beschrieben.
  • Zuerst wird die Beziehung zwischen der Koordinate (ξ, η) der Bildaufnahmeoberfläche der Kamera, der Kamerakoordinate (x, y, z) und der Objektkoordinate (X, Y, Z) beschrieben. Wie aus Fig. 31 ersichtlich ist
  • wobei f ein Abstand von dem Hauptpunkt der Linse zu der Bildaufnahmeoberfläche ( = Fokallänge) ist. Wenn nämlich die Koordinate des Bildes auf der Bildaufnahmeoberfläche bekannt ist (in der Messung bekannt), ist nur die Richtung des Objektes definit, und der Richtungsvektor des Punktes P in dem Kamerakoordinatensystem 163 in Fig. 31 wird wie folgt dargestellt
  • (t ist ein Parameter)...(2)
  • unter der Annahme, daß die Koordinate des Punktes P in dem Objektkoordinatensystem 162 P(X, Y, Z) ist, dann
  • wenn das Kamerakoordinatensystem 163 als p(x, y, z) dargestellt wird, dann
  • wenn die Koordinate des Punktes P auf dem Film als p'(ξ, η) dargestellt wird, dann
  • gemäß der Gleichung (2). Genauer
  • t ist ein Parameter...(5)
  • gemäß den Gleichungen (2) und (3) wird die inverse Transformation dargestellt als
  • Es sei ein Fall angenommen, in dem ξ, η, X, Y und Z als Eingaben in die obige Gleichung 6 zum Finden der Positionsparameter R&supmin;¹, f X&sub0;, Y&sub0; und Z&sub0; als Ausgaben gegeben sind. Genauer, das Verfahren des Berechnens der Neigung der Position der Kamera und der Fokallänge in dem Objektkoordinatensystem 162 (X, Y, Z) wird im folgenden beschrieben.
  • N Punkte Pi (Xi, Yi, Zi) (i = 1 bis N) der Objektkoordinaten, die bekannt sind, werden aufgenommen und die Positionskoordinaten (ξi, ηi) (i = 1 bis N) des Bildes werden gemessen. Indem das getan wird, werden die Position der Kamera (X&sub0;, Y&sub0;, Z&sub0;), der Rotationswinkel (α, β, γ), die die Richtung der optischen Achse der Kamera und die Neigung der Kamera bestimmen, und die Fokallänge F bestimmt.
  • Beim Entwickeln der Gleichung (5) werden die folgenden Gleichungen (7) vorgesehen
  • - ξi/f · ti = R&sub1;&sub1;(Xi - X&sub0;) + R&sub1;&sub2;(Yi - Y&sub0;) + R&sub1;&sub3;(Zi - Z&sub0;)
  • - ηi/f · ti = R&sub2;&sub1;(Xi - X&sub0;) + R&sub2;&sub2;(Yi - Y&sub0;) + R&sub2;&sub3;(Zi - Z&sub0;)
  • ti = R&sub3;&sub1;(Xi X&sub0;) + R&sub3;&sub2;(Yi - Y&sub0;) + R&sub3;&sub3;(Zi - Z&sub0;)
  • (i = 1 bis n)... (7)
  • Rij (i, j = 1 bis 3) sind Elemente einer Drehmatrix, in der
  • R&sub1;&sub1; = cosß cosγ
  • R&sub1;&sub2; = sinα sinß cosγ + cosα sinγ
  • R&sub1;&sub3; = -cosα sinß cosγ + sinα sinγ
  • R&sub2;&sub1; = -cosß sinγ
  • R&sub2;&sub2; = -sinα sinß sinγ + cosα cosγ
  • R&sub2;&sub3; = cosα sinγ sinγ + sinα cosγ
  • R&sub3;&sub1; = sinβ
  • R&sub3;&sub2; = -sinα cosß
  • R&sub3;&sub3; = -cosα cosß
  • Indem die dritte Gleichung für die erste und zweite Gleichung der oben beschriebenen Gleichungen (7) ersetzt wird, um den Ausdruck ti, zu eliminieren, werden die folgenden Gleichungen (9) vorgesehen.
  • (R&sub1;&sub1; + ξi/f · R&sub3;&sub1;)(Xi - X&sub0;) + (R&sub1;&sub2; + ξi/f · R&sub3;&sub2;)(Yi - Y&sub0;)
  • + (R&sub1;&sub3; + ξi/f · R&sub3;&sub3;)(Zi - Z&sub0;) = 0
  • (R&sub2;&sub1; + ηi/f · R&sub3;&sub1;)(Xi - X&sub0;) + (R&sub2;&sub2; + ηi/f· R&sub3;&sub2;)(Yi - Y&sub0;)
  • + (R&sub2;&sub3; + ηi/f · R&sub3;&sub3;)(Zi - Zi) = 0
  • (i = 1 bis N)... (9)
  • Die zu berechnenden Unbekannten sind (X&sub0;, Y&sub0;, Z&sub0;), (α, β, γ) und f. Daher muß N ≥ 4 sein. Tatsächlich wird der genaueste Wert durch das Verfahren der kleinsten Fehlerquadrate bestimmt, wie in der Lösung im folgenden gezeigt wird, und daher sollte der Wert N relativ groß sein. Die Lösung wird im folgenden beschrieben. Aufgrund des Fehlers in der Messung ist die linke Seite der Gleichung (9) nicht 0 sondern σi und εi. Daher kann die Lösung berechnet werden, indem die Summe der Fehlerquadrate (σi² + εi²) minimiert wird.
  • Auf diese Weise können durch Aufnehmen einer Mehrzahl von Punkten der räumlichen Positionen, die bekannt sind, durch eine Kamera die Kamerakoordinate, die Richtung der Kamera und die Fokallänge in dem Objektkoordinatensystem 162 berechnet werden. Da das Objektkoordinatensystem 162 leicht in das Weltkoordinatensystem 163 umgewandelt werden kann, können die Parameter für die Messung für das Weltkoordinatensystem 161 berechnet werden. Die Messung der dreidimensionalen Position wird im folgenden beschrieben.
  • Fig. 32 und 33 stellen ein Verfahren zum Berechnen einer dreidimensionalen Position eines von zwei Kameras aufgenommenen Bildes dar, die willkürlich in dem Weltkoordinatensystem angeordnet sind.
  • Es wird Bezug genommen auf Fig. 32, die Koordinaten ( 0i, 0i, 0i) der Hauptpunkte des Kameraobjektives, der Dreh winkel (αi, βi, γi), die die Richtungen der optischen Achse und die Neigungen der Kameras 165 und 166 definieren, und die Fokallänge fi (i = 1 bis 2) der zwei Kameras 165 und 166 sind in dem Weltkoordinatensystem bekannt. Wenn ein Punkt P ( , , ) in dem Weltkoordinatensystem 161 von den zwei Kameras 165 und 166 aufgenommen wird, werden die Koordinaten der durch diese zwei Kameras aufgenommenen Bilder entsprechend als (ξ&sub1;, η&sub1;) und (ξ&sub2;, η&sub2;) dargestellt. Wenn wir die Richtungsvektoren von den Bildern (ξi, ηi) zu den Hauptpunkten des Objektives als A&sub1; und A&sub2; darstellen, dann
  • P1 = A&sub1;t&sub1; + X&sub0;&sub1;
  • P2 = A&sub2;t&sub2; + X&sub0;&sub2; (t&sub1;, t&sub2; sind Parameter)... (10)
  • Gemäß der Gleichung (6) können A&sub1; und A&sub2; als
  • dargestellt werden, wobei die Werte A&sub1;, A&sub2;, X&sub0;&sub1;, X&sub0;&sub2; bekannt sind, da sie in der obenbeschriebenen Kalibrierung berechnet werden. Daher können die Wert P&sub1; und P&sub2; definiert werden, wenn die Werte t&sub1; und t&sub2; berechnet werden. Wenn es keine Fehler gibt, ist der P&sub1; gleich P&sub2;, so daß die Gleichungen (10) durch Ersetzen von P&sub1; = P&sub2; gelöst werden kann. Die Werte t&sub1; und t&sub2; können durch die Gleichungen (10) berechnet werden. Da jedoch der Wert P&sub1; nicht gleich dem Wert P&sub2; ist wegen der Fehler in der Messung, wird der nächste Punkt berechnet. Auf diese Weise kann die räumliche Position eines willkürlichen Punkte in dem Weltkoordinatensystem unter Benutzung zweier Bilder gemessen werden.
  • Ein Augenverfolgungsverfahren, das die Position und die Richtung des Gesichtes und die zentralen Positionen der Pupille und des dunklen Abschnittes des Auges benutzt, wird im folgenden beschrieben. Die Richtung der visuellen Achse kann als eine Linie berechnet werden, die die Koordinate des Zentrums des Augapfels und die Koordinate der Pupille verbindet. Da die Pupille direkt von der Kamera aufgenommen werden kann, das Weltkoordinatensystem davon gemäß dem Algorithmus des oben beschriebenen Stereosehmessens vorgesehen werden. Obwohl das Zentrum des Augapfels nicht direkt gemessen werden kann, wird angenommen, daß die Position des Zentrums des Augapfels in einem Kopfkoordinatensystem fest ist, das aus drei Merkmalspunkten auf dem Gesicht besteht. Daher wird die Koordinate des Zentrums des Augapfels, die in dem Kopfkoordinatensystem gegeben ist, in das Weltkoordinatensystem 161 umgewandelt.
  • Fig. 34 zeigt eine Ausführungsform des Augenverfolgens. Bei der oben beschriebenen Stereosehmessung kann das Weltkoordinatensystem 161 als das Anzeigekoordinatensystem in Fig. 34 angesehen werden. Indem dieses Verfahren benutzt wird, können die räumlichen Positionen aller Merkmalspunkte, die direkt durch die Kamera aufgenommen werden können, in dem Weltkoordinatensystem 161 gefunden werden.
  • Es wird Bezug genommen auf Fig. 34, in dem Kopfkoordinatensystem ist der Nullpunkt an dem Zentrum PG eines Dreieckes (P&sub1;, P&sub2;, P&sub3;), und die Richtung eines Segmentes, das P&sub1; und P&sub2; verbindet, wird als die x-Achse angesehen, und eine Richtung, die senkrecht die x-Achse schneidet, wird als die y-Achse angesehen, und die normale Richtung des Dreieckes wird als die z- Achse angesehen. Das Bezugszeichen e (xe, ye, ze) stellt einen Positionsvektor des Zentrums des Augapfels 171 in dem Kopfkoordinatensystem dar. Obwohl er gegenwärtig unbekannt ist, ist er ein konstanter Vektor. Die Position von dem Zentrum PG kann durch ein Verfahren oder ein anderes gemessen werden. Der Vektor kann durch Kalibrierung berechnet werden, wie später be schrieben wird. Daher wird im folgenden angenommen, daß der Vektor als Eingangswert gegeben ist.
  • Daher sind die Eingangsdaten (1) drei Merkmalspunkte Pi (Xi, Yi, Zi) (i = 1 bis 3) und (2) die Koordinate e (xe, Ye, ze) des Zentrums des Augapfels in dem Kopfkoordinatensystem (x, y, z). Die Ausgangsdaten sind der Weltkoordinatenwert C (xc, yc, zc) des Zentrums des Augapfels. Wenn dieses Resultat bekannt ist, kann die Richtung der Augenfixierung als D (xD, yD, zD) - C(xc, yc, zc) in Fig. 34 berechnet werden.
  • Das Problem in dem Vorangehenden ist die Umwandlung des Kopfkoordinatnsystemes (x, y, z) in das Weltkoordinatensystem ( , , ).
  • Fig. 35 stellt die Umwandlung der Koordinate einschließlich der Bewegung des Ursprungs und der Drehung der Achse der Koordinate dar. Es wird Bezug genommen auf Fig. 35, die Umwandlung der Koordinate einschließlich der Bewegung des Nullpunktes und der Drehung der Achse der Koordinate wird gemäß der folgenden Gleichung (12) im allgemeinen realisiert.
  • Die inverse Transformation wird durch die folgende Gleichung (13) dargestellt.
  • Der Wert R&supmin;¹ wird durch die folgende Gleichung (14) dargestellt, wobei angenommen ist, daß das Weltkoordinatensystem um β um die Y-Achse gedreht wird, dann um α um die X-Achse gedreht wird und dann um γ in die Richtung der Z-Achse so, daß es dem Kopfkoordinatensystem entspricht.
  • Da der Wert PG(XG, YG, ZG) gemessen wird, sind die Werte sincL, sinß, sinγ, cosα, cosß und cosy zu berechnen. Das Verfahren zum Berechnen dieser Werte wird im folgenden beschrieben.
  • Fig. 36 zeigt die Bewegung des Nullpunktes des Weltkoordinatensystemes, der der Merkmalspunkt P&sub1; des in Fig. 34 gezeigten Gesichtes ist. Die z-Richtung des Kopfkoordinatensystemes wird gleich dem normalen Vektor des Dreieckes angenommen, daß durch die drei Punkte auf dem Gesicht gebildet wird. Der Richtungscosinus des normalen Vektors des Dreieckes in dem Weltkoordinatensystem kann durch die folgenden Gleichungen (15) dargestellt werden
  • nx = cosθ
  • ny = cosφ
  • nz = cosφ... (15)
  • Diese Werte können auf die folgende Weise auf der Grundlage der Positionskoordinaten der drei Punkte auf dem Gesicht berechnet werden, die in dem Weltkoordinatensystem gemessen sind. Es wird Bezug genommen auf Fig. 35, die Gleichung einer Ebenen wird durch die folgende Gleichung (16) dargestellt.
  • A · X + B · Y + C · Z + D = 0... (16) Da der Wert X, Y, Z den drei Punkten Pi(Xi, Yi, Zi) (i = 1 bis 3) entspricht, wird die folgende Gleichung vorgesehen.
  • Da die Lösung der Gleichung (17) eine andere ist als A = B = C = D = 0, ist die Matrix der Kooeffizienten gleich 0, so daß die Gleichung der Ebenen die folgende Gleichung (18) wird.
  • Genauer
  • Daher wird der Normalen Vektor N der Ebenen 170 gleich:
  • Der Richtungscosinus (nx, ny, nz) des normalen Vektors des Dreieckes kann auf ähnliche Weise auf der Grundlage der Bedingung berechnet werden, daß das Weltkoordinatensystem um β um die Y- Achse gedreht wird, dann um α um die X-Achse so gedreht wird, daß die Z-Achse der Z-Achse des Kopfkoordinatensystemes entspricht.
  • Es wird Bezug genommen auf Fig. 37, das Bezugszeichen (1) stellt die Rotation des Weltkoordinatensystems um die Y-Achse um β dar. Zu der Zeit wird (X, Y, Z) in (X', Y', Z') umgewandelt, was durch die gestrichelten Linien dargestellt ist. Das Bezugszeichen (2) bezeichnet die Rotation des Weltkoordinatensystems um X' um α. Durch diese Tätigkeit fällt die Z'-Achse mit der z-Achse zusammen. Daher wird aus Fig. 37 der Richtungscosinus (nx, ny, nz) wie folgt dargestellt.
  • nx = cosα · sinβ
  • ny = -sinα
  • nz = cosα · sinβ ... (24)
  • Auf diese Weise wird die Richtung der z-Achse bestimmt, und eine Bedingung zum Berechnen der Wert sinα, sinβ, sinγ, cosα, cosß, cosγ ist gemäß den Gleichungen (23) und (24) vorgesehen.
  • Danach wird, es wird Bezug genommen auf Fig. 37, das Weltkoordinatensystem um γ um die z-Achse (das heißt N) der Kopfkoordinate gedreht, wie durch das Bezugszeichen (3) gezeigt ist, so daß die X'-Achse mit der x-Achse des Kopfkoordinatensystemes überlappt. Es sind nämlich die beiden X- und Y-Achsen parallel zu dem Kopfkoordinatensystem.
  • Es sei angenommen, daß der durch P&sub1; P&sub2; und XZ-Ebene gebildete Winkel δ ist, kann die folgende Gleichung angewendet werden und wird aus Fig. 37 verständlich.
  • Wenn wir m für die obige Gleichung ersetzen, werden die Rotationswinkel α, β und γ durch die folgende Gleichung (26) gemäß der oben beschriebenen Gleichungen (23), (24) und (25) dargestellt.
  • sinα = -ny ,cosα = 1 - n²y
  • sinβ = nz/ 1 - n²y , cosß = nz 1 - n²y
  • sinγ = m/ 1 - n²y ,cos γ = 1 - n²y - m²/ 1 - n²y
  • Der Wert R&supmin;¹ kann durch Ersetzen der Werte der obigen Gleichungen (26) in der Gleichung (20) berechnet werden. Daher kann gemäß der Gleichung (21) der Punkt in dem Kopfkoordinatensystem in das Weltkoordinatensystem umgewandelt werden. Daher kann die Position des Zentrums des Augapfels in dem Weltkoordinatensystem berechnet werden.
  • Ein Verfahren zum Augenverfolgen wird im folgenden beschrieben. In der oben beschriebenen Fig. 34 entspricht, wenn der Wert des Zentrums des Augapfels in dem Weltkoordinatensystem berech net wird, das heißt C (XC, YC, ZC) das Segment, daß den Wert C mit der Koordinate D(XD, YD, ZD) der Pupille verbindet, der visuellen Achse. Ein Vektor eines willkürlichen Punktes auf der visuellen Achse kann dargestellt werden als
  • A = C + t · (D-C)... (27)
  • wobei das Zeichen t einen Parameter darstellt, der einen Abstand zu dem Index bezeichnet, der durch verschiedene Verfahren berechnet werden kann. Wenn die in dem Weltkoordinatensystem vorgesehene Anzeige eine Ebene ist (zum Beispiel die YZ-Ebene in der Anzeigenoberfläche in Fig. 34) werden der Nullpunkt und die Richtung des visuellen Achsenvektors (D-C) berechnet, und daher kann der Punkt, an dem der Vektor die Anzeige trifft, eindeutig in der Anzeigenkoordinate berechnet werden.
  • Da die Richtungen der visuellen Achsen des linken und rechten Auges unabhängig bei der vorliegenden Erfindung erfaßt werden können, kann ein Blickpunkt nicht auf einer Ebene ebenfalls erfaßt werden. Es kann nämlich ein räumlicher Blickpunkt herausgezogen werden. Wenn wird die Vektoren zu willkürlichen Punkten auf der linken und rechten visuellen Achse als A1 und A2 darstellen, wird die folgende Gleichung (28) gemäß der Gleichung (27) vorgesehen.
  • A&sub1; = C1 + t1 · (D1 - C1)
  • A&sub2; = C2 + t2 · (D2 - C2)
  • worin
  • C1, C2: Vektoren zu den Zentren des linken und rechten Auges
  • D1 - C1), (D2 - C2): 1 inker und rechter visueller Achsenvektor
  • t1, t2: Parameter (t&sub1;, t&sub2; > 1)... (28) Der Punkt, an dem A1 und A2 am nächsten zueinander kommen, was unter Benutzung von t1 und t2 als Parameter erfaßt wird, dieser Punkt ist der Blickpunkt. Auf diese Weise können der Blickpunkt als auch der Winkel der Überlappung des linken und rechten Auges gleichzeitig in der vorliegenden Erfindung erfaßt werden.
  • Das Schätzen der Koordinate des Zentrums des Augapfels wird im folgenden beschrieben. Die Position des Zentrums des Augapfels wird als fest in dem Kopfkoordinatensystem angenommen und wurde daher im vorangehenden als Eingangswert bezeichnet. Es ist jedoch schwierig, genau die Koordinate des Zentrums des Augapfels zu erfassen. Daher wird er gemäß der folgenden Art geschätzt.
  • Nun wird eine Person dazu gebracht, aufeinanderfolgend auf M Punkte Li(Xi, Yi, Zi) zu schauen, deren Koordinaten in dem Weltkoordinatensystem bekannt sind. Die Weltkoordinate Di(XDi, YDi, ZDi) der Pupille zu der Zeit und die Weltkoordinaten P1i (X1i, Y1i, Z1i), P2i (X2i, Y2i, Z2i) und P3i (X3i, Y3i, Z3i) der drei Merkmalspunkte auf dem Gesicht, die die Kopfkoordinaten darstellen, werden gemessen. Unter Benutzung dieser gemessenen Werte wird der nächste Wert der Koordinate e (xe, ye, ze) des Zentrums des Augapfels in dem Kopfkoordinatensystem unter Benutzung des Verfahrens der kleinsten Fehlerquadrate geschätzt.
  • Es wird Bezug genommen auf Fig. 38, der Vektor des Zentrums des Augapfels in dem Kopfkoordinatensystem wird als e dargestellt, und die Vektoren des Zentrums der Pupille, des Zentrums der drei Merkmalspunkte auf dem Gesicht und der Vektor des Punktes Li, wenn die Person auf den Punkt Li schaut, werden entsprechend als Di, PGi, Li in dem Weltkoordinatensystem ausgedrückt. Wenn der Vektor e in dem Weltkoordinatensystem ausgedrückt wird, wird die folgende Gleichung (29) angewendet, wie aus Fig. 38 ersichtlich ist, da sie Ri&supmin;¹ · e ist.
  • Li + ti (Di - Li) = Ri&supmin;¹e + PGi
  • (i = 1 bis M)...(29)
  • ti ist ein Parameter (ti > 1)
  • Es werden nämlich die folgenden simultanen Gleichungen (30) vorgesehen.
  • (i = 1 bis M)...(30)
  • Wobei r11i, r12i... r33i Elemente der Rotationsmatrix Ri&supmin;¹ sind, die durch Ersetzen der Gleichung (26) für die Gleichung (20) erhalten werden. Durch Eliminieren des Ausdruckes ti aus der Gleichung (29) und Anordnen der Ausdrücke für xe, ye und ze werden die folgenden Gleichungen (31) erhalten.
  • U1ixe + U2iye + U3iZe + U&sub0;&sub1; = 0
  • V1ixe + V2iye + V3iZe + V&sub0;&sub1; = 0
  • (i = 1 bis N)...(31)
  • Die Werte U1i, U2i, U3i, U&sub0;&sub1;, V1i, V2i, V3i und V&sub0;&sub1; werden als Meßdaten vorgesehen. Daher können die Lösungen der Unbekannten xe, ye und ze durch Setzen von δi und ε&sub1; entsprechend auf die rechte Seite der Gleichung (29) und durch Minimieren der Summe der Fehlerquadrate
  • Σ(δi² + εi²) berechnet werden.
  • Bei dem Vorangehenden ist der Parameter, der durch Kalibrierung berechnet werden muß, nur die Zentralposition des Augapfels in der Kopfkoordinate. Daher kann die Zahl von Indizes, die der Person zur Kalibrierung vorgesetzt werden, klein sein. Da die Kalibrierung auf eine einfache Weise ausgeführt werden kann, kann die Zahl der Fehler, die durch den Unterschied der Person verursacht wird, verringert werden und hohe Genauigkeit reali siert werden. Obwohl die visuelle Achse als eine Linie, die die Pupille und das Zentrum des Augapfels verbindet, in dem Vorangehenden angesehen wird, müssen sie nicht immer unbedingt miteinander zusammenfallen.
  • Fig. 39 zeigt einen Fall, in dem das Zentrum des Augapfels nicht auf der Linie vorhanden ist, die die Pupille und die Fovea verbindet. Es wird Bezug genommen auf Fig. 39, wenn das Zentrum des Augapfels nicht auf der Linie liegt, die die Pupille und die Fovea verbindet, wird die Position des Zentrums des Augapfels angenommen und der Vektor von dem angenommenen Punkt zu der Fovea kann mit einem oder einem anderen Mittel berechnet werden, oder der Vektor kann als ein konstanter Vektor während der Kalibrierung berechnet werden. In jedem Fall ist es wirksam, den Punkt des Zentrums des Augapfels zu berechnen, der unabhängig von der Rotation des Augapfels ist und sich nicht bei der Erfassung der Augenfixierung bewegt. Das oben beschriebene Problem kann bei einer weiteren Verbesserung behandelt werden. Wenn die Person eine optische Brille trägt, muß die Kalibrierung in Hinblick auf den Einfluß der Brillengläser ausgeführt werden. In diesem Fall kann auch die Kalibrierung durch die Verbesserung dieser Erfindung ausgeführt werden.
  • Das Verfahren, das die Pupille und die von der Hornhaut reflektierten Bilder benutzt, verwendet nur die Merkmalspunkte in dem Auge. Es sei angenommen, daß die Positionen der Lichtquellen bekannt sind und daß der Aufbau des Augapfels konstant ist, die von der Hornhaut reflektierten Bilder werden eindeutig in Abhängigkeit der Position des Zentrums des Augapfels und der Position der Pupille (entsprechend der Drehung des Augapfels) bestimmt. Daher kann die Position des Zentrums des Augapfels aus den von der Hornhaut reflektierten Bildern und der Position der Pupille unter Benutzung der Parameter des Augapfelaufbaues berechnet werden. Die visuelle Achse kann aus dem Zentrum des Augapfels und der Position der Pupille berechnet werden. Die Parameter des Augapfelaufbaues weisen den Radius des Augapfels, den Krümmungsradius der Hornhaut und den Abstand zwischen dem Zentrum des Augapfels und dem Krummungszentrum der Hornhaut auf. Diese Parameter können zuvor gemessen werden oder während der Benutzung kalibriert werden, indem der Benutzer an einen speziellen Abschnitt auf der Anzeige schaut.
  • Im folgenden wird beschrieben, wie die Merkmalspunkte auf dem Gesicht auszuwählen sind. Allgemein ändert ein Benutzer, der der Anzeige zugewandt ist, seinen Ausdruck nicht sehr stark. Daher bewegt sich die Haut nicht sehr viel. Selbst wenn sie sich bewegt, kehrt sie sehr schnell dahin zurück, wo sie war. Daher gibt es Abschnitte, die sich kaum auf dem Gesicht bewegen, die nicht das Augenverfolgen verhindert. Genauer, diese Abschnitte enthalten den inneren Augenwinkel, die Nasenspitze, einen zentralen Punkt auf der Oberlippe usw. Diese Punkte bewegen sich nicht sehr, wenn sie nicht der Ausdruck sehr ändert. Zusätzlich unterscheiden sich die Farben dieser Abschnitte von den Rändern, so daß die Merkmale leicht durch Bildverarbeitung herausgezogen werden können. Die Positionen der Merkmalspunkte können nämlich durch Kantenherausziehen und Schwellenwertbearbeitung identifiziert werden. Zum Verbessern der Genauigkeit der Augenverfolgung ist es bevorzugt. Abschnitte um die Augen vergrößert aufzunehmen. Daher ist es bevorzugt, die Merkmalspunkte des Gesichtes nahe den Augen auszuwählen. Es gibt viele solche Punkte um die Augen. Wenn die Augenfixierung mit hoher Geschwindigkeit durch eine einfache Bildverarbeitung zu erfassen ist, können Markierungen auf diesen Punkten angebracht werden.
  • Fig. 40 zeigt ein Beispiel eines Modelles des Kopfes, der eine Brille mit Markierungen verwendet. Wenn es schwierig ist. Markierungen auf dem Gesicht anzubringen, können Markierungen 172 auf drei Abschnitten auf dem Rahmen der optischen Brille angebracht werden, wie in Fig. 40 gezeigt ist. Indem diese Brille 171 getragen wird, kann der Kopf in ein Modell durch die Markierungen 172 umgewandelt werden. Wie diese Markierungen 172 herausgezogen werden, wird später zusammen mit der Herausziehung der Pupillen beschrieben. Obwohl drei Punkte auf dem Ge sicht zum Modellieren bei dem in Fig. 40 gezeigten Beispiel benutzt werden, können vier oder mehr Punkte benutzt werden.
  • Fig. 41 zeigt einen Fall, in dem vier Punkte zum Modellieren benutzt werden. Bei diesem Beispiel wird das Zentrum des Augapfels durch ein zweites Dreieck 174 anstelle eines ersten Dreieckes 173 in dem Fall berechnet, in dem das erste Dreieck 173 nicht gefunden werden kann, da die Merkmalspunkte nicht gut herausgezogen werden konnten. Da sich der Kopf einer Person verschieden bewegt, werden die entsprechenden Merkmalspunkte nicht immer von der Kamera tatsächlich aufgefangen. Daher kann bei der tatsächlichen Anwendung eine Mehrzahl von Dreiecken vorbereitet werden, zu denen nach Notwendigkeit zum kontinuierlichen Verfolgen der Augen geschaltet wird.
  • Es gibt nicht viele Punkte in dem Gesicht, die sich nicht sehr bewegen. Manchmal ist es schwierig, solche Punkte herauszuziehen. Daher werden vier oder mehr Merkmalspunkte auf dem Gesicht (tatsächlich je mehr desto besser) benutzt und drei oder mehr virtuelle Punkte werden wieder aus diesen Punkten so kalibriert, daß der Kopf in ein Modell gewandelt wird.
  • Fig. 42A und 42B zeigen Beispiele der Berechnung eines statischen virtuellen Merkmalspunktes aus zwei Merkmalspunkten auf dem Gesicht. Die Positionen des inneren Augwinkels und des äußeren Augwinkels ändern sich, wenn die Person die Augen verengt. Wenn jedoch die Person ihre beiden Augen verengt (was man normalerweise tut) ändert sich die Position des Zentrums zwischen den zwei Merkmalspunkten auf dem äußeren Augwinkel des Auges kaum. Dasselbe kann für Ecken der Nase, der Augenwimpern usw. angewendet werden. Da sich die Haut mehr als die Muskeln auf dem Gesicht bewegen, wenn sich ein Abschnitt ausdehnt, schrumpft ein anderer Teil unvermeidlich. Daher können durch Vorbereiten der Ausdrucksweisen und entsprechende Bewegungen in der Haut als Datenbasis relativ statische Merkmalspunkte virtuell vorgesehen werden. Durch Benutzen solcher virtuellen Merkmalspunkte kann die Genauigkeit bei der Augenverfolgung weiter verbessert werden. Es ist wünschenswert, in der Zukunft die Bewegung des Auges als auch die Ausdrucksweise zu verfolgen.
  • Fig. 43 stellt eine andere Ausführungsform der Augenverfolgung dar. Es wird Bezug genommen auf Fig. 43, ein Beleuchtungsgerät 181 ist vorgesehen, und ein Referenzlicht 182 wird von dem Beleuchtungsgerät 181 emittiert. Da die Hornhaut als konvexe Linse betrachtet werden kann, wird ein virtuelles Bild in der Hornhaut gebildet, wenn das Referenzlicht 182 ungefähr parallel ist, so daß scheinbar die Lichtquelle in diesem Punkt ist. Dieses wird das von der Hornhaut reflektierte Bild 183 genannt. Die Position E des von Hornhaut reflektierten Bildes 183 wird eindeutig in Abhängigkeit der Position des Zentrums 184 des Augapfels berechnet, ein Punkt (zum Beispiel das Zentrum 185 der Krümmung der Hornhaut) auf der optischen Achse der Hornhaut und der Krümmungsradius ge der Hornhaut.
  • Die Position des Zentrums des Augapfels ist hier A + B, was wie oben beschrieben berechnet werden kann. Wenn daher die Position des Zentrums 185 der Krümmung der Hornhaut berechnet wird, kann die Augenfixierung erfaßt werden. Wenn der Abstand zwischen dem Zentrum des Augapfels und dem Zentrum der Krümmung der Hornhaut und der Krümmungsradius ge der Hornhaut bekannt sind, kann die Position des Zentrums 185 der Krümmung der Hornhaut geometrisch berechnet werden, indem die Position des Zentrums 184 des Augapfels und die Position e des von der Hornhaut reflektierten Bildes benutzt werden. Auf diese Weise kann die Augenfixierung unter Benutzung der Merkmalspunkte auf dem Gesicht und des auf der Hornhaut reflektierten Bildes 183 erfaßt werden. Wenn die Werte ge und de tatsächlich nicht gemessen werden können, können diese als Unbekannte durch die oben beschriebene Kalibrierung bestimmt werden.

Claims (8)

1. Verfahren zum Erfassen einer Blickrichtung durch Herausziehen und Messen von Positionen von Merkmalspunkten auf einem Gesicht, die durch ein Bildaufnahmegerät (2, 3) in Fig. 1, 50 in Fig. 7) aufgenommen werden, mit den Schritten:
- Herausziehen mindestens dreier vorbestimmter Merkmalspunkte (77, in Fig. 15, "MARKS" in Fig. 40-42), an denen sich die Gesichtshaut nicht sehr viel bewegt, und einer Pupille (54 in Fig. 7) aus dem Bild des Gesichtes;
- Erfassen der räumlichen Positionen ( , , in Fig. 34) der mindestens drei Merkmalspunkte auf dem Gesicht und der räumlichen Position ( in Fig. 34) des Zentrums (172 in Fig. 34) der Pupille in einem Koordinatensystem, das eine räumliche Position eines Objektes des Blickens beschreiben kann;
- Modellieren des Kopfes als einen starren Körper unter Benutzen der mindestens drei Merkmalspunkte (77, MARKS) auf dem Gesicht;
- Setzen eines Rotationszentrums (171 in Fig. 34) eines Augapfels in dem modellierten Kopf und Schätzen einer Position (C in Fig. 34) des Rotationszentrums (171) des Augapfels aus den räumlichen Positionen von mindestens drei der Merkmalspunkte (77, MARKS);
- Berechnen einer Linie, die in dem Rotationszentrum (171) des Augapfels entspringt und durch das Zentrum der Pupille (172) geht, oder einer anderen Linie (Fig. 39), die eine vorbestimmte Neigung gegenüber dieser Linie aufweist, als die Blickrichtung.
2. Verfahren zum Erfassen einer Blickrichtung durch Herausziehen und Messen von Positionen von Merkmalspunkten (P) auf einem Gesicht, die durch ein Bildaufnahmegerät (2, 3 in Fig. 1, 40 in Fig. 7) aufgenommen werden, mit den Schritten:
- Erzeugen eines von der Kornea (53 in Fig. 7) eines Auges reflektierten Bildes durch Beleuchten der Kornea (53) mit Strahlen;
- Extrahieren von mindestens drei vorbestimmten Merkmalspunkten (77 in Fig. 15, "MARKS" in Fig. 40-42) auf dem Gesicht, an denen sich die Gesichtshaut nicht sehr viel bewegt, einer Pupille (54 in Fig. 7) und des von der Kornea (54) reflektierten Bildes aus dem Bild des Gesichtes;
- Erfassen der räumlichen Positionen ( , , in Fig. 34) der mindestens drei Merkmalspunkte (77, MARKS) auf dem Gesicht in einem Koordinatensystem, das eine räumliche Position eines Objektes des Blickens beschreiben kann;
- Modellieren des mit dem Gesicht verknüpften Kopfes als einen starren Körper unter Benutzung der mindestens drei Merkmalspunkte (P) des Gesichtes;
- Setzen eines Rotationszentrums (171 in Fig. 34, 184 in Fig. 43) eines Augapfels in dem modellierten Kopf und Schätzen der räumlichen Position (C in Fig. 34) des Rotationszentrums (171) des Augapfels aus den räumlichen Positionen ( , , ) der mindestens drei Merkmalspunkte (77, MARKS)
- Modellieren des Augapfels (Fig. 30) als einen doppelten sphärischen Körper (80 in Fig. 17, Fig. 7, Fig. 43), bei dem zwei Sphären mit einem großen und einem kleinen Radius überlappen, wobei ihre Zentren gegeneinander versetzt sind und die große Sphäre einen ähnlichen Radius wie der Augapfel aufweist und die kleine Sphäre eine ähnliche Krümmung und ein Zentrum wie die Krümmung bzw. das Zentrum der Kornea aufweist, und Setzen des Zentrums der großen Sphäre als das Rotationszentrum (171, 184) des Augapfels;
- Berechnen der Änderung der Relativpositionen des von der Kornea (53) reflektierten Bildes und des Pupillenzentrums (55 in Fig. 7, 172 in Fig. 34) auf dem aufgenommenen Bild nahe eines Auges (Fig. 7), die durch die Augapfeldrehung auftritt;
- Berechnen des Augapfelrotationswinkels, der die Richtung einer Linie ist, die in dem Zentrum der großen Sphäre (171 oder 184) entspringt und durch das Zentrum der Pupille (56 oder 172) geht in dem Augapfelmodell ist, in dem die Änderung der Relativpositionen benutzt wird;
- Berechnen der Linie oder einer anderen Linie (Fig. 39), die eine vorbestimmte Neigung aufweist, als eine Blickrichtung.
3. Verfahren zum Erfassen einer Blickrichtung durch Herausziehen und Messen von Positionen von Merkmalspunkten auf einem Gesicht, die durch ein Bildaufnahmegerät (2, 3 in Fig. 1, Fig. 50 in Fig. 7) aufgenommen werden, mit den Schritten:
- Erzeugen eines von der Kornea (53 in Fig. 7) eines Auges reflektierten Lichtes durch Beleuchten des Auges mit Strahlen;
- Extrahieren einer Pupille (54 in Fig. 7) und des von der Kornea (53) des Auges reflektierten Lichtes aus dem Bild des Gesichtes;
- Erfassen der räumlichen Positionen der Pupille (54) und des von der Kornea (53) des Auges reflektierten Bildes in einem Koordinatensystem, das eine räumliche Position eines Objektes des Blickens (Fig. 43) beschreiben kann;
- Modellieren des Augapfels (80 in Fig. 17) als einen doppelten sphärischen Körper, bei dem zwei Sphären mit großem und kleinem Radius überlappen, wobei ihre Zentren gegeneinander versetzt sind, die große Sphäre einen ähnlichen Radius wie der Augapfel (80) aufweist und die kleine Sphäre eine ähnliche Krümmung und ein Zentrum wie die Krümmung bzw. das Zentrum (85) der Kornea aufweist;
- Bestimmen der Parameter des Radius einer jeden Sphäre und des Abstandes zwischen den Zentren und
- Setzen des Zentrums der großen Sphäre als den Nullpunkt einer Linie, die eine Blickrichtung ausdrückt;
- Schätzen der Position des Rotationszentrums (171 in Fig. 34, 184 in Fig. 43) des Augapfels (80) aus den räumlichen Position der Pupille (54) und des von der Kornea (53) des Auges reflektierten Lichtes;
- Berechnen des Augapfelrotationswinkels aus den Relativpositionen des von der Kornea (53) reflektierten Bildes und des Pupillenzentrums (36) auf dem aufgenommenen Gesichtsbild;
- Berechnen der Linie, die in dem Zentrum (184 in Fig. 43) der großen Sphäre entspringt und als Neigung den Winkel der Augapfelrotation aufweist, als die Blickrichtung.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem der Schritt des Schätzens der Position des Rotationszentrums (171 in Fig. 34) des Augapfels in dem Kopfmodell oder dem Augapfelmodell aus den räumlichen Positionen aller oder einiger der Merkmalspunkte (77, MARKS) die Schritte aufweist:
- aufeinanderfolgendes Zeigen einer Mehrzahl von Zielpunkten (Li in Fig. 38), von denen die räumlichen Positionen vorher bekannt sind, in dem Koordinatensystem, das die räumliche Position eines Objektes des Blickens (161) beschreiben kann, auf die durch eine Person zu blicken ist;
- Erfassen der räumlichen Positionen ( , , in Fig. 34) aller oder einiger der Merkmalspunkte zu dieser Zeit in dem Koordinatensystem;
- Erfassen einer Linie (D-L in Fig. 38), die die räumliche Position (Li) des Zielpunktes und die räumliche Position (D in Fig. 38) des Zentrums (56) der Pupille verbindet, die den Zielpunkt (Li) betrachtet, in dem Koordinatensystem;
- Definieren einer Verlängerung der Linie oder einer Verlängerung einer Linie, die eine vorbestimmte Neigung dagegen hat, als die Blickrichtung; und
- aufeinanderfolgendes Berechnen der Blickrichtungen, wenn die Zielpunkte betrachtet werden, und Setzen als eine Position des Rotationszentrums (171 in Fig. 34) des Augapfels eine Position, an der die Blickrichtungen sich am dichtesten in dem Kopfmodell oder in dem Augapfelmodell schneiden.
5. Verfahren nach einem der Ansprüche 1 bis 3, mit den Schritten:
- Berechnen von Blickrichtungen (A1, A2) beider Augen der Person und
- Berechnen als den Punkt des Blickens eines Punktes, an den die zwei Blickrichtungen (A1, A2) am nächsten zueinander kommen.
6. Verfahren nach Anspruch 1 oder 2, bei dem die mindestens drei Merkmalspunkte (77, MARKS) auf dem Gesicht, an denen sich die Gesichtshaut nicht sehr viel bewegt, mindestens drei Markierungen (172) entsprechen, die einem Rand eines Rahmens einer Brille zugeordnet sind, und
- der Kopf als ein starrer Körper unter Benutzung der von der Person getragenen Brille modelliert wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem jeder Merkmalspunkt von Bildaufnahmegeräten aufgenommen wird, die Kameraparameter der Bildaufnahmegeräte zuvor in dem Koordinatensystem kalibriert werden, das die räumliche Position eines Objektes des Blickens beschreiben kann, und die räumliche Position eines jeden Merkmalspunktes in den Koordinaten durch ein Stereobildmeßverfahren berechnet wird.
8. Verfahren nach einem der Ansprüche 2 bis 7, mit den Schritten:
- Emittieren von Referenzlicht auf das Bild des Gesichtes;
- Extrahieren eines von der Kornea reflektierten Bildes und der Pupille aus dem Bild des Gesichtes, die durch das Bildaufnahmegerät aufgenommen werden.
DE68928825T 1988-07-14 1989-07-14 Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts Expired - Fee Related DE68928825T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP17589988 1988-07-14
JP19389988 1988-08-03
JP19389888 1988-08-03
JP28976188 1988-11-16

Publications (2)

Publication Number Publication Date
DE68928825D1 DE68928825D1 (de) 1998-11-05
DE68928825T2 true DE68928825T2 (de) 1999-04-01

Family

ID=27474670

Family Applications (3)

Application Number Title Priority Date Filing Date
DE68926192T Expired - Fee Related DE68926192T2 (de) 1988-07-14 1989-07-14 Bildaufnahmegerät
DE68927275T Expired - Fee Related DE68927275T2 (de) 1988-07-14 1989-07-14 Bildaufnahmegerät
DE68928825T Expired - Fee Related DE68928825T2 (de) 1988-07-14 1989-07-14 Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE68926192T Expired - Fee Related DE68926192T2 (de) 1988-07-14 1989-07-14 Bildaufnahmegerät
DE68927275T Expired - Fee Related DE68927275T2 (de) 1988-07-14 1989-07-14 Bildaufnahmegerät

Country Status (3)

Country Link
US (2) US5016282A (de)
EP (3) EP0350957B1 (de)
DE (3) DE68926192T2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
DE102009004381B4 (de) * 2008-01-10 2011-09-01 Rodenstock Gmbh Vorrichtung, Verfahren und Computerprogrammprodukt
DE102016106121A1 (de) * 2016-04-04 2017-10-05 Carl Zeiss Ag Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung

Families Citing this family (263)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231674A (en) * 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
DE4028191A1 (de) * 1990-09-05 1992-03-12 Philips Patentverwaltung Schaltungsanordnung zum erkennen eines menschlichen gesichtes
DE4102895C1 (de) * 1991-01-31 1992-01-30 Siemens Ag, 8000 Muenchen, De
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
US5594500A (en) * 1991-10-17 1997-01-14 Canon Kabushiki Kaisha Image pickup apparatus
FR2690031A1 (fr) * 1992-04-14 1993-10-15 Philips Electronique Lab Dispositif de segmentation d'images.
US5305012A (en) * 1992-04-15 1994-04-19 Reveo, Inc. Intelligent electro-optical system and method for automatic glare reduction
US7788008B2 (en) * 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
EP0571702A3 (de) * 1992-05-26 1994-10-12 Takenaka Corp Handzeige-Eingabegerät und Wandcomputereinheit.
JP2500726B2 (ja) * 1992-06-12 1996-05-29 日本電気株式会社 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置
AU709835B2 (en) * 1992-10-10 1999-09-09 Iriscan, Inc. Biometric personal identification system based on iris analysis
US6035054A (en) * 1992-10-29 2000-03-07 Canon Kabushiki Kaisha Visual axis detection apparatus and optical apparatus provided therewith
JPH06148513A (ja) * 1992-10-30 1994-05-27 Canon Inc 視線検出装置
JP3313803B2 (ja) * 1993-03-09 2002-08-12 キヤノン株式会社 視線検出装置
JP2988178B2 (ja) * 1993-03-11 1999-12-06 日産自動車株式会社 視線方向計測装置
JPH06304142A (ja) * 1993-04-22 1994-11-01 Canon Inc 視線検出装置
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
US5406074A (en) * 1994-02-07 1995-04-11 Grisell; Ronald D. Noninvasive, remote eye position and orientation measurement system using light beams normal to the surface of the eye
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP3293308B2 (ja) * 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
AU4197496A (en) * 1994-10-28 1996-05-23 Eyesys Technologies, Inc. Multi-camera corneal analysis system
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US5717512A (en) * 1996-05-15 1998-02-10 Chmielewski, Jr.; Thomas A. Compact image steering and focusing device
US6320610B1 (en) 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
JP3436293B2 (ja) * 1996-07-25 2003-08-11 沖電気工業株式会社 動物の個体識別装置及び個体識別システム
US5944530A (en) 1996-08-13 1999-08-31 Ho; Chi Fai Learning method and system that consider a student's concentration level
US7076118B1 (en) * 1997-12-05 2006-07-11 Sharp Laboratories Of America, Inc. Document classification system
US6121953A (en) * 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
GB2324428A (en) * 1997-04-17 1998-10-21 Sharp Kk Image tracking; observer tracking stereoscopic display
US6381345B1 (en) * 1997-06-03 2002-04-30 At&T Corp. Method and apparatus for detecting eye location in an image
DE19731303B4 (de) * 1997-07-13 2009-02-26 Smi Senso Motoric Instruments Gmbh Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei Kopf- und Augenbewegungen
DE19731301C2 (de) * 1997-07-13 2001-05-10 Smi Senso Motoric Instr Gmbh Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse
JPH1166320A (ja) * 1997-08-12 1999-03-09 Mitsubishi Electric Corp 目画像追跡装置
US6426740B1 (en) 1997-08-27 2002-07-30 Canon Kabushiki Kaisha Visual-axis entry transmission apparatus and method therefor
US6299307B1 (en) * 1997-10-10 2001-10-09 Visx, Incorporated Eye tracking device for laser eye surgery using corneal margin detection
US6064752A (en) * 1997-11-04 2000-05-16 Sensar, Inc. Method and apparatus for positioning subjects before a single camera
US6069967A (en) * 1997-11-04 2000-05-30 Sensar, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
US6088470A (en) * 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
US6850631B1 (en) * 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
JP3271750B2 (ja) * 1998-03-05 2002-04-08 沖電気工業株式会社 アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
GB9823977D0 (en) * 1998-11-02 1998-12-30 Scient Generics Ltd Eye tracking method and apparatus
AUPP697398A0 (en) * 1998-11-06 1998-12-03 Lions Eye Institute Of Western Australia Incorporated, The Eye tracker for refractive surgery
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US6393136B1 (en) 1999-01-04 2002-05-21 International Business Machines Corporation Method and apparatus for determining eye contact
US6944318B1 (en) 1999-01-15 2005-09-13 Citicorp Development Center, Inc. Fast matching systems and methods for personal identification
US6539100B1 (en) * 1999-01-27 2003-03-25 International Business Machines Corporation Method and apparatus for associating pupils with subjects
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US6200139B1 (en) 1999-02-26 2001-03-13 Intel Corporation Operator training system
JP4432262B2 (ja) * 1999-03-12 2010-03-17 ソニー株式会社 画像処理装置、画像処理方法及び記録媒体
ES2200877T3 (es) * 1999-05-12 2004-03-16 Microsoft Corporation Separacion y mezcla de tramas de datos en continuo.
US7007096B1 (en) 1999-05-12 2006-02-28 Microsoft Corporation Efficient splitting and mixing of streaming-data frames for processing through multiple processing modules
JP2001034754A (ja) * 1999-07-19 2001-02-09 Sony Corp 虹彩認証装置
DE19954047B4 (de) * 1999-10-29 2004-08-05 Chronos Vision Gmbh Verfahren und Anordnung zum Erfassen von mehrdimensionalen Augenbewegungen sowie Markierungs-Tinktur hierfür
US6758563B2 (en) 1999-12-30 2004-07-06 Nokia Corporation Eye-gaze tracking
JP4040302B2 (ja) * 2000-02-01 2008-01-30 スイスコム モービル アーゲー 画像オブジェクトを配信するシステムおよび方法
US6220706B1 (en) * 2000-02-10 2001-04-24 Carl Zeiss, Inc. Method and apparatus for determining position of an eye
US6540392B1 (en) 2000-03-31 2003-04-01 Sensar, Inc. Micro-illuminator for use with image recognition system
DE60133026T2 (de) * 2000-08-28 2009-02-19 Cognitens Ltd. Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
GB0027143D0 (en) * 2000-10-31 2000-12-20 Malvern Scient Solutions Ltd Optical tracking method and apparatus
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
US6792134B2 (en) * 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US7111939B2 (en) * 2001-01-22 2006-09-26 Eastman Kodak Company Image display system with body position compensation
US6953249B1 (en) 2001-01-29 2005-10-11 Maguire Jr Francis J Method and devices for displaying images for viewing with varying accommodation
WO2002065443A1 (en) * 2001-02-15 2002-08-22 Tveye Inc. Method and apparatus for low bandwidth transmission of data utilizing of the human eye anatomy
US6397137B1 (en) 2001-03-02 2002-05-28 International Business Machines Corporation System and method for selection of vehicular sideview mirrors via eye gaze
US6578962B1 (en) 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6752498B2 (en) 2001-05-14 2004-06-22 Eastman Kodak Company Adaptive autostereoscopic display system
US6886137B2 (en) * 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
US6959102B2 (en) * 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
JP2003016435A (ja) * 2001-06-27 2003-01-17 Matsushita Electric Ind Co Ltd 個体認証装置及び方法
DE10132378A1 (de) * 2001-07-06 2003-04-24 Zeiss Carl Meditec Ag Verfahren und Vorrichtung zur Verfolgung von Augenbewegungen
DE10133386A1 (de) * 2001-07-10 2003-01-23 Bosch Gmbh Robert Verfahren und Vorrichtung zum Erkennen einer Ist-Position einer Person innerhalb eines vorgebbaren Bereiches und Verwendung des Verfahrens und/oder der Vorrichtung
GB0119859D0 (en) * 2001-08-15 2001-10-10 Qinetiq Ltd Eye tracking system
US7416302B2 (en) * 2001-09-14 2008-08-26 Stmicroelectronics S.A. Ring location
EP1431915B1 (de) * 2001-09-25 2008-05-21 Matsushita Electric Industrial Co., Ltd. Parameterschätzvorrichtung und datenkollationsvorrichtung
EP1480550B1 (de) * 2002-02-11 2011-08-24 AMO Manufacturing USA, LLC Bestimmung von relativen positions- und drehversätzen
US7084918B2 (en) * 2002-02-28 2006-08-01 Hewlett-Packard Development Company, L.P. White eye portraiture system and method
US7815507B2 (en) * 2004-06-18 2010-10-19 Igt Game machine user interface using a non-contact eye motion recognition device
WO2004017088A2 (en) * 2002-08-15 2004-02-26 Lc Technologies, Inc. Motion clutter suppression for image-subtracting cameras
US20040057606A1 (en) * 2002-09-25 2004-03-25 The Hong Kong Polytechnic University Apparatus for capturing a palmprint image
DE10304185B4 (de) * 2003-01-28 2010-12-30 Carl Zeiss Vision Gmbh Vorrichtung und Verfahren zum Anpassen einer Position eines Brillenglases relativ zur Position einer Pupille
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US8292433B2 (en) * 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
WO2004088588A1 (ja) * 2003-03-28 2004-10-14 Fujitsu Limited 撮影装置、光源制御方法、およびコンピュータプログラム
EP1642527B1 (de) * 2003-07-04 2016-03-30 Panasonic Intellectual Property Corporation of America Verfahren und vorrichtung zur augenbeurteilung eines organismus
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7720264B2 (en) 2004-05-10 2010-05-18 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for pupil detection for security applications
US7942744B2 (en) 2004-08-19 2011-05-17 Igt Virtual input system
DE102004045430A1 (de) * 2004-09-18 2006-05-18 Deutsche Telekom Ag Vorrichtung zur Bildstabilisierung
US7248720B2 (en) * 2004-10-21 2007-07-24 Retica Systems, Inc. Method and system for generating a combined retina/iris pattern biometric
US7134707B2 (en) * 2005-02-10 2006-11-14 Motorola, Inc. Selective light attenuation system
US20060279745A1 (en) * 2005-06-13 2006-12-14 Wenstrand John S Color imaging system for locating retroreflectors
JP4595750B2 (ja) * 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
WO2007029443A1 (ja) * 2005-09-09 2007-03-15 Matsushita Electric Industrial Co., Ltd. 画像処理方法、画像記録方法、画像処理装置および画像ファイルフォーマット
US8861863B2 (en) * 2005-09-20 2014-10-14 Brightex Bio-Photonics Llc Method and system for analyzing lip conditions using digital images
FR2891725A1 (fr) * 2005-10-06 2007-04-13 Synapsys Sa Procede et dispositif d'analyse de la reponse des canaux semi-circulaires de l'oreille interne a des mouvements rapides de la tete.
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US7768528B1 (en) * 2005-11-09 2010-08-03 Image Metrics Limited Replacement of faces in existing video
JP4921486B2 (ja) * 2005-11-30 2012-04-25 シーイング・マシーンズ・プロプライエタリー・リミテッド 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡
US7650034B2 (en) * 2005-12-14 2010-01-19 Delphi Technologies, Inc. Method of locating a human eye in a video image
US7423540B2 (en) * 2005-12-23 2008-09-09 Delphi Technologies, Inc. Method of detecting vehicle-operator state
US8406457B2 (en) * 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
JP5317415B2 (ja) * 2006-03-27 2013-10-16 富士フイルム株式会社 画像出力装置、画像出力方法、および画像出力プログラム
US7620216B2 (en) * 2006-06-14 2009-11-17 Delphi Technologies, Inc. Method of tracking a human eye in a video image
US8965063B2 (en) * 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
WO2008037090A1 (en) * 2006-09-29 2008-04-03 Ottawa Health Research Institute Apparatus and method for separate optical measurements of specularly and diffusely reflected light
JP2008136789A (ja) * 2006-12-05 2008-06-19 Nec Corp 眼球パラメータ推定装置及び方法
US8718336B2 (en) * 2007-03-30 2014-05-06 Fujifilm Corporation Image correction apparatus, image correction method, skin diagnosis method, and computer program product
FR2914173B1 (fr) * 2007-03-30 2010-02-26 Essilor Int Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet
DE602008002276D1 (de) * 2007-04-26 2010-10-07 St Microelectronics Rousset Lokalisierungsverfahren und -vorrichtung einer menschlichen Iris in einem Bild
IL183386A0 (en) * 2007-05-24 2007-09-20 Wavebreak Technologies Ltd Systems and methods for counting an audience
US20090196460A1 (en) * 2008-01-17 2009-08-06 Thomas Jakobs Eye tracking system and method
WO2009135084A1 (en) * 2008-04-30 2009-11-05 Amo Development, Llc System and method for controlling measurement in an eye during ophthalmic procedure
US8219438B1 (en) 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
WO2010003410A1 (en) * 2008-07-08 2010-01-14 It-University Of Copenhagen Eye gaze tracking
US7742623B1 (en) 2008-08-04 2010-06-22 Videomining Corporation Method and system for estimating gaze target, gaze sequence, and gaze map from video
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
GB2463724B (en) 2008-09-26 2011-05-04 Cybula Ltd Forming 3D images
US8401248B1 (en) 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content
US7819525B2 (en) * 2009-02-15 2010-10-26 International Business Machines Corporation Automatic direct gaze detection based on pupil symmetry
DE102009010467A1 (de) * 2009-02-26 2010-09-09 Carl Zeiss Vision Gmbh Verfahren und Vorrichtung zur Bestimmung der Augendrehpunktlage
US8823934B2 (en) * 2009-03-27 2014-09-02 Brightex Bio-Photonics Llc Methods and systems for imaging and modeling skin using polarized lighting
US8373859B2 (en) * 2009-03-27 2013-02-12 Brightex Bio-Photonics Llc Methods and systems for imaging skin using polarized lighting
EP2238889B1 (de) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive Kamera und Illuminator-Eyetracker
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US20110170060A1 (en) * 2010-01-08 2011-07-14 Gordon Gary B Gaze Tracking Using Polarized Light
US20110170061A1 (en) * 2010-01-08 2011-07-14 Gordon Gary B Gaze Point Tracking Using Polarized Light
GB201004346D0 (en) * 2010-03-16 2010-04-28 Qinetiq Ltd Eye tracking apparatus
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US10628985B2 (en) 2017-12-01 2020-04-21 Affectiva, Inc. Avatar image animation using translation vectors
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US9723992B2 (en) 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
US9204836B2 (en) 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US10108852B2 (en) 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US9760123B2 (en) 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
KR20120016386A (ko) * 2010-08-16 2012-02-24 주식회사 팬택 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
EP2678820A4 (de) 2011-02-27 2014-12-03 Affectiva Inc Videoempfehlung auf grundlage von affekten
FR2972339B1 (fr) 2011-03-11 2013-04-19 Essilor Int Procede de determination de l'oeil directeur
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
JP6144681B2 (ja) 2011-08-30 2017-06-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ
US8804122B2 (en) 2011-09-22 2014-08-12 Brightex Bio-Photonics Llc Systems and methods for determining a surface profile using a plurality of light sources
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US8971570B1 (en) 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
US9138140B2 (en) * 2012-03-20 2015-09-22 Lrs Identity, Inc. Compact iris imaging system
US9111134B1 (en) 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
JP5689850B2 (ja) * 2012-05-25 2015-03-25 株式会社ソニー・コンピュータエンタテインメント 映像解析装置、映像解析方法、および注視点表示システム
JP6056323B2 (ja) 2012-09-24 2017-01-11 富士通株式会社 視線検出装置、視線検出用コンピュータプログラム
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9058519B2 (en) 2012-12-17 2015-06-16 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
WO2015048030A1 (en) 2013-09-24 2015-04-02 Sony Computer Entertainment Inc. Gaze tracking variations using visible lights or dots
WO2015048028A1 (en) 2013-09-24 2015-04-02 Sony Computer Entertainment Inc. Gaze tracking variations using selective illumination
WO2015048026A1 (en) 2013-09-24 2015-04-02 Sony Computer Entertainment Inc. Gaze tracking variations using dynamic lighting position
FR3011952B1 (fr) 2013-10-14 2017-01-27 Suricog Procede d'interaction par le regard et dispositif associe
US9330302B2 (en) * 2014-02-26 2016-05-03 Microsoft Technology Licensing, Llc Polarized gaze tracking
EP3001867B1 (de) * 2014-08-08 2017-06-21 FotoNation Limited Smartphone zur biometrischen erkennung von einem irismuster und entsprechenden gesichtzügen einer person
JP2016049259A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 視線検出装置
WO2016117277A1 (ja) 2015-01-21 2016-07-28 Hoya株式会社 内視鏡システム
EP3056938B1 (de) 2015-02-10 2017-12-20 Juan Dominguez-Montes Stereoskopisches reproduktionssystem mit transparenz
US9633626B2 (en) * 2015-03-12 2017-04-25 Visteon Global Technologies, Inc. Adjusting an electronic display based on gaze tracking
US10043281B2 (en) 2015-06-14 2018-08-07 Sony Interactive Entertainment Inc. Apparatus and method for estimating eye gaze location
US10459305B2 (en) 2015-08-03 2019-10-29 Facebook Technologies, Llc Time-domain adjustment of phase retardation in a liquid crystal grating for a color display
US10552676B2 (en) 2015-08-03 2020-02-04 Facebook Technologies, Llc Methods and devices for eye tracking based on depth sensing
US10042165B2 (en) 2015-08-03 2018-08-07 Oculus Vr, Llc Optical system for retinal projection from near-ocular display
US10338451B2 (en) 2015-08-03 2019-07-02 Facebook Technologies, Llc Devices and methods for removing zeroth order leakage in beam steering devices
US10297180B2 (en) 2015-08-03 2019-05-21 Facebook Technologies, Llc Compensation of chromatic dispersion in a tunable beam steering device for improved display
US10016130B2 (en) 2015-09-04 2018-07-10 University Of Massachusetts Eye tracker system and methods for detecting eye parameters
US10157312B2 (en) * 2015-10-08 2018-12-18 Microsoft Technology Licensing, Llc Iris recognition
US10416454B2 (en) 2015-10-25 2019-09-17 Facebook Technologies, Llc Combination prism array for focusing light
US10247858B2 (en) 2015-10-25 2019-04-02 Facebook Technologies, Llc Liquid crystal half-wave plate lens
US10203566B2 (en) 2015-12-21 2019-02-12 Facebook Technologies, Llc Enhanced spatial resolution using a segmented electrode array
US9807383B2 (en) * 2016-03-30 2017-10-31 Daqri, Llc Wearable video headset and method for calibration
US9972134B2 (en) 2016-06-30 2018-05-15 Microsoft Technology Licensing, Llc Adaptive smoothing based on user focus on a target object
CN106339087B (zh) * 2016-08-29 2019-01-29 上海青研科技有限公司 一种基于多维坐标的眼球追踪方法及其装置
US10372591B2 (en) 2016-09-07 2019-08-06 International Business Machines Corporation Applying eye trackers monitoring for effective exploratory user interface testing
WO2018061883A1 (ja) * 2016-09-29 2018-04-05 オリンパス株式会社 観察装置
EP3300653B1 (de) * 2016-09-30 2019-07-03 Smart Eye AB Kopf-/augenverfolgung mit lichtquellenvorerwärmung
WO2018082692A1 (en) * 2016-11-07 2018-05-11 Changchun Ruixinboguan Technology Development Co., Ltd. Systems and methods for interaction with application
KR102564479B1 (ko) 2016-11-22 2023-08-07 삼성전자주식회사 사용자의 눈을 위한 3d 렌더링 방법 및 장치
KR20180071589A (ko) * 2016-12-20 2018-06-28 삼성전자주식회사 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치
US10346697B2 (en) * 2016-12-21 2019-07-09 Hyundai America Technical Center, Inc Driver state monitoring using corneal reflection detection
US10485420B2 (en) * 2017-02-17 2019-11-26 Analog Devices Global Unlimited Company Eye gaze tracking
US20180255250A1 (en) * 2017-03-03 2018-09-06 Microsoft Technology Licensing, Llc Pulsed, gated infrared illuminated camera systems and processes for eye tracking in high ambient light environments
US10108319B2 (en) 2017-03-22 2018-10-23 International Business Machines Corporation Cognitive dashboard adjustment
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
JP7046506B2 (ja) * 2017-06-12 2022-04-04 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10108261B1 (en) * 2017-07-05 2018-10-23 Oculus Vr, Llc Eye tracking based on light polarization
US10311584B1 (en) 2017-11-09 2019-06-04 Facebook Technologies, Llc Estimation of absolute depth from polarization measurements
US10884492B2 (en) 2018-07-20 2021-01-05 Avegant Corp. Relative position based eye-tracking system
US10630925B1 (en) 2018-12-03 2020-04-21 Facebook Technologies, Llc Depth determination using polarization of light and camera assembly with augmented pixels
US10791282B2 (en) 2018-12-13 2020-09-29 Fenwick & West LLP High dynamic range camera assembly with augmented pixels
US10791286B2 (en) 2018-12-13 2020-09-29 Facebook Technologies, Llc Differentiated imaging using camera assembly with augmented pixels
US10855896B1 (en) 2018-12-13 2020-12-01 Facebook Technologies, Llc Depth determination using time-of-flight and camera assembly with augmented pixels
US10949649B2 (en) 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
US11657134B2 (en) 2019-10-30 2023-05-23 Imatrix Holdings Corp. Eye contact detection device
US10902623B1 (en) 2019-11-19 2021-01-26 Facebook Technologies, Llc Three-dimensional imaging with spatial and temporal coding for depth camera assembly
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
US11194160B1 (en) 2020-01-21 2021-12-07 Facebook Technologies, Llc High frame rate reconstruction with N-tap camera sensor
US11300784B2 (en) 2020-02-21 2022-04-12 Fotonation Limited Multi-perspective eye acquisition
CN111369560B (zh) * 2020-04-26 2023-04-28 成都大熊猫繁育研究基地 一种圈养大熊猫体温快速测量方法
CN115933172B (zh) * 2022-11-29 2023-09-12 大连海事大学 一种基于偏振多光谱成像的人眼视线追踪装置及方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3689135A (en) * 1971-01-26 1972-09-05 Laurence R Young Method for monitoring movement of a subject{40 s eyes
US4102564A (en) * 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4075657A (en) * 1977-03-03 1978-02-21 Weinblatt Lee S Eye movement monitoring apparatus
US4145122A (en) * 1977-05-31 1979-03-20 Colorado Seminary Method and apparatus for monitoring the position of the eye
US4303394A (en) * 1980-07-10 1981-12-01 The United States Of America As Represented By The Secretary Of The Navy Computer generated image simulator
US4702575A (en) * 1981-05-11 1987-10-27 The United States Of America As Represented By The Secretary Of The Navy Helmet mounted eye tracker using a position sensing detector
JPS58213382A (ja) * 1982-06-04 1983-12-12 Fujitsu Ltd 認識装置
JPS59231402A (ja) * 1983-06-15 1984-12-26 Hitachi Ltd 生セラミックス基材上の配線パターン検出方法
JPS60152904A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
US4651145A (en) * 1984-05-31 1987-03-17 Medical Research Institute Communication system for the disabled in which a display target is selected by encephalogram response
JPS6141906A (ja) * 1984-08-03 1986-02-28 Hitachi Denshi Ltd はんだ面の状態認識方法
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
US4755045A (en) * 1986-04-04 1988-07-05 Applied Science Group, Inc. Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers
JPS63175704A (ja) * 1987-01-14 1988-07-20 Murata Mfg Co Ltd 電子部品の外観検査方法
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
DE102009004381B4 (de) * 2008-01-10 2011-09-01 Rodenstock Gmbh Vorrichtung, Verfahren und Computerprogrammprodukt
DE102016106121A1 (de) * 2016-04-04 2017-10-05 Carl Zeiss Ag Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung
WO2017174525A1 (de) 2016-04-04 2017-10-12 Carl Zeiss Vision International Gmbh Verfahren und vorrichtung zum bestimmen von parametern zur brillenanpassung
US11126016B2 (en) 2016-04-04 2021-09-21 Carl Zeiss Vision International Gmbh Method and device for determining parameters for spectacle fitting
US11867978B2 (en) 2016-04-04 2024-01-09 Carl Zeiss Vision International Gmbh Method and device for determining parameters for spectacle fitting

Also Published As

Publication number Publication date
EP0350957A3 (de) 1992-12-30
EP0350957A2 (de) 1990-01-17
US5818954A (en) 1998-10-06
DE68928825D1 (de) 1998-11-05
EP0596868A3 (en) 1994-07-13
DE68926192T2 (de) 1996-09-12
EP0603157A1 (de) 1994-06-22
EP0350957B1 (de) 1996-04-10
EP0596868B1 (de) 1998-09-30
EP0596868A2 (de) 1994-05-11
DE68926192D1 (de) 1996-05-15
EP0603157B1 (de) 1996-09-25
DE68927275T2 (de) 1997-03-06
DE68927275D1 (de) 1996-10-31
US5016282A (en) 1991-05-14

Similar Documents

Publication Publication Date Title
DE68928825T2 (de) Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts
DE102020105652B4 (de) Verfolgungssystem mit infrarot-kamera
DE60209050T2 (de) Gerät und Verfahren zur Anpassung der Fokusposition in einem Iriserkennungssystem
DE69934068T2 (de) Bestimmung der position von augen durch blitzreflexerkennung und korrektur von defekten in einem aufgenommenen bild
WO2017174525A1 (de) Verfahren und vorrichtung zum bestimmen von parametern zur brillenanpassung
EP3183616B1 (de) Ermittlung von benutzerdaten unter berücksichtigung von bilddaten einer ausgewählten brillenfassung
EP3355104B1 (de) Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands
DE69526977T2 (de) Multikameravorrichtung für untersuchungen der hornhaut
US8077914B1 (en) Optical tracking apparatus using six degrees of freedom
DE69400266T2 (de) Vorrichtung zum analysieren der augenbewegung
EP3256036B1 (de) Vorrichtung und verfahren zur abstandsbestimmung und/oder zentrierung unter verwendung von hornhautreflexionen
JPH0782539B2 (ja) 瞳孔画像撮影装置
DE102007006158A1 (de) Verfahren und Vorrichtung zum Erfassen eines Sichtlinienvektors
EP3047424A2 (de) Vorrichtung, system und verfahren zum identifizieren einer person
DE112005002395T5 (de) Sichtlinien-Detektionsverfahren
DE112017007303B4 (de) Gesichtserkennungsvorrichtung
DE10304185B4 (de) Vorrichtung und Verfahren zum Anpassen einer Position eines Brillenglases relativ zur Position einer Pupille
DE102017203649A1 (de) Gesichtsbildverarbeitungsvorrichtung
CN111524175A (zh) 非对称式多摄像头的深度重建及眼动追踪方法及***
DE212018000158U1 (de) Augenblickverfolgung
WO2010007094A2 (de) Verfahren und anordnung zur 3d-erfassung von objekten sowie ein entsprechendes computerprogramm und ein computerlesbares speichermedium
DE19731303B4 (de) Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei Kopf- und Augenbewegungen
EP3959497B1 (de) Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases
WO1999003013A1 (de) Verfahren zur verbesserung des optischen wahrnehmungsvermögens durch modifikation des netzhautbildes
DE102011009261B4 (de) Bestimmung der Rotationsparameter der Augen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee