DE68928825T2 - Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts - Google Patents
Augenfolgeverfahren unter Verwendung eines BildaufnahmegerätsInfo
- Publication number
- DE68928825T2 DE68928825T2 DE68928825T DE68928825T DE68928825T2 DE 68928825 T2 DE68928825 T2 DE 68928825T2 DE 68928825 T DE68928825 T DE 68928825T DE 68928825 T DE68928825 T DE 68928825T DE 68928825 T2 DE68928825 T2 DE 68928825T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- eyeball
- center
- pupil
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title 1
- 210000001508 eye Anatomy 0.000 claims description 125
- 210000001747 pupil Anatomy 0.000 claims description 102
- 210000005252 bulbus oculi Anatomy 0.000 claims description 100
- 210000004087 cornea Anatomy 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 69
- 210000003128 head Anatomy 0.000 claims description 58
- 239000011521 glass Substances 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 4
- 238000001454 recorded image Methods 0.000 claims 1
- 238000005286 illumination Methods 0.000 description 56
- 230000003287 optical effect Effects 0.000 description 36
- 238000001444 catalytic combustion detection Methods 0.000 description 34
- 239000013598 vector Substances 0.000 description 25
- 238000012545 processing Methods 0.000 description 22
- 238000005259 measurement Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 11
- 101100311330 Schizosaccharomyces pombe (strain 972 / ATCC 24843) uap56 gene Proteins 0.000 description 10
- 101150018444 sub2 gene Proteins 0.000 description 10
- 210000001525 retina Anatomy 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 210000000720 eyelash Anatomy 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 229910052736 halogen Inorganic materials 0.000 description 2
- 150000002367 halogens Chemical class 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000005304 optical glass Substances 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- PHTXVQQRWJXYPP-UHFFFAOYSA-N ethyltrifluoromethylaminoindane Chemical compound C1=C(C(F)(F)F)C=C2CC(NCC)CC2=C1 PHTXVQQRWJXYPP-UHFFFAOYSA-N 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Eye Examination Apparatus (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf ein Verfahren des Erfassens einer Blickrichtung. Genauer, die vorliegende Erfindung bezieht sich auf ein Verfahren des Erfassens einer Blickrichtung zum Erfassen einer Augenfixierung auf kontaktlose Weise unter Benutzung von Merkmalspunkten eines Gesichtes, von Pupillen und von Bildern, die von der Hornhaut reflektiert sind usw., die aus den von dem Bildaufnahmegerät aufgenommenen Bildern extrahiert sind.
- Kürzlich sind Computer entwickelt worden zum Realisieren komplizierter und verschiedener Funktionen, und ihr Anwendungsgebiet ist weiter und weiter geworden. Nicht nur Fachleute, sondern gewöhnliche Menschen haben die Benutzung von Computern aufgenommen. Zum Erleichtern der Benutzung von Systemen, die kompliziert gewesen sind und immer komplizierter werden, wird die Technologie der Schnittstelle zwischen Mensch und Maschine immer wichtiger. Menschen verständigen sich nicht nur durch die Sprache, sondern auch durch Minenspiele und Gesten, wobei Absichten des Partners angenommen und bestätigt werden, Insbesondere spielt die Augenbewegung eine wichtige Rolle zum Ermöglichen einer guten Kommunikation.
- Die Augenbewegung spiegelt sehr die Absichten einer Person wider. Wenn die Bewegung von Blickpunkten auf einem Schirm eines Benutzers, der irgendeinem Anzeigegerät zugewandt ist, kontinuierlich in einer Schnittstelle erfaßt werden könnte, könnte es eine gute Hilfe sein, die Absicht des Benutzers zu kennen. Es kann eine gute Hilfe sein, zu wissen, wo der Benutzer beobachtet, da es dahin führen kann, was der Benutzer beabsichtigt oder worüber er nachdenkt.
- Im Hinblick auf das Vorangehende haben die Erfindung der vorliegenden Anmeldung die Wichtigkeit eines effektiven Augenverfolgungsverfahrens zum Realisieren einer Schnittstellenfunktion auf gezeigt, die eine Absicht der Betätigung des Benutzers zum flexiblen Reagieren vermutet und zum Realisieren auf dem Gebiet der intelligenten Kommunikation einer sehr reaktiven und benutzerorientierten visuellen Kommunikation durch Herausziehen eines Objektes des Interesses gemäß der Bewegung der Augen eines Empfängers und durch Rückkupplung derselben zu einem Sender.
- Eine Augenkamera ist als das oben beschriebene Augenverfolgungsgerät gut bekannt. Die Augenkamera ist jedoch nicht sehr geeignet zur Benutzung der Bewegung der Augen in einer Schnittstelle zwischen Mensch und Maschine oder bei einer visuellen Kommunikation, da der Benutzer eine Brille tragen muß und der Kopf des Benutzers feststehen muß, damit die Augenfixierung in einem Koordinatensystem eine Anzeige verfolgt werden kann, der der Benutzer zugewandt ist. Ein Verfahren der Erfassung, das Bildverarbeitung benutzt, ist bequemer beim Erfassen der Augenbewegung auf berührungslose Weise ohne die Notwendigkeit des Tragens einer speziellen Vorrichtung.
- Fig. 1 zeigt ein Beispiel einer Anordnung eines berührungslosen Augenverfolgungsgerätes. Es wird Bezug genommen auf Fig. 1, Kameras 2, 3 und Beleuchtungsgeräte 4 und 5 sind entsprechend auf beiden Seiten einer Anzeigeeinheit 1 vorgesehen. Bei solch einem berührungslosen Augenverfolgungsgerät ist ein erstes Problem, das gelöst werden muß, das die Bilder eines Benutzers, der durch die Beleuchtungsgeräte 4 und 5 beleuchtet ist, von den Kameras 2 und 3 aufgenommen werden müssen und eine Mehrzahl von Merkmalspunkten herausgezogen werden müssen, die zum Verfolgen der Augenbewegung von den aufgenommenen Bildern notwendig sind, Das zweite Problem ist es, die räumlichen Positionen der Merkmalspunkte bei hoher Geschwindigkeit mit hoher Genauigkeit zu messen. Das dritte Problem ist es, die Richtung der Augenfixierung und der Blickpunkte auf der Anzeigeeinheit auf der Grundlage der Positionen der Merkmalspunkte zu finden.
- Da eine Person und insbesondere ihre Augen sich schnell bewegen, müssen klare Bilder aufgenommen werden und die Merkmalspunkte müssen durch eine einfache Bildverarbeitung herausgezogen werden, damit der Bewegung genau gefolgt wird und sie erfaßt wird. Bei der tatsächlichen Anwendung jedoch in einem Zimmer ändert sich die Beleuchtung des Benutzers, da die Reflexion von Licht von der Anzeigeeinheit durch externe Beleuchtungen wie eine Leuchtstoffröhre beeinflußt wird, so daß Bilder guter und gleichförmiger Qualität nicht immer vorgesehen werden können. Wenn die eingegebenen Bilder in der Qualität schlechter sind, dauert es lange, das Rauschen zu verringern, und folglich kann ein schneller Betrieb nicht erwartet werden.
- Eine Person, die das aufzunehmende Objekt ist, kann beleuchtet werden, damit das oben beschriebene Problem gelöst wird. Solch eine Beleuchtung hat jedoch die folgenden Nachteile. Zuerst ist es schwierig, eine natürliche Umgebung für die Schnittstelle vorzusehen. Genauer gesagt, Glühlampen, Xenonlampen und Halogenlampen sind gut bekannt als Beleuchtungsgeräte, die einen weiten Bereich von Wellenlänge aufweisen und deren Verteilung auf dem sichtbaren Wellenlängenbereich zentriert ist. Daher ist es nicht sehr gut, den Benutzer von vorn zum Vorsehen einer natürlichen Schnittstelle zu beleuchten.
- Zweitens wird das Gerät sehr groß und viel Wärme erzeugt. Damit nämlich die Bedingungen der Beleuchtung der herkömmlichen Beleuchtungsgeräte im Hinblick auf die Aufwendung auf die Schnittstelle verbessert wird, müssen optische Teile wie ein Bandpaßfilter und ein Polarisator vor der leuchtenden Lichtquelle angebracht werden. Wenn zum Beispiel eine Beleuchtung im nahen Infraroten, die von einem Mensch nicht erfaßt werden kann, benutzt wird zum Auffangen des reflektierten Lichtes, müssen sichtbare Lichter unterbrochen werden. Die oben erwähnten herkömmlichen Beleuchtungsgeräte weisen jedoch eine niedrige Effektivität beim Emittieren von Licht auf und viel Wärme wird von ihnen erzeugt. Folglich wird die Temperatur um das Gerät höher, Folglich kann das Gerät nicht kompakt gemacht wer den, indem zum Beispiel eine Lichtquelle und die optischen Elemente einstückig vorgesehen werden, so daß unausweichlich ein großes Beleuchtungsgerät benutzt werden muß.
- Drittens, obwohl die Beleuchtung bei dem Herausziehen von Merkmalspunkten effektiv ist und klarer Bilder vorgesehen werden können, wenn die Beleuchtung richtig benutzt wird, wird die Beleuchtung eine Rauschquelle und sieht einen gegenteilhaftigen Effekt vor, wenn die Beleuchtung nicht richtig benutzt wird. Eine detaillierte Beschreibung wird im folgenden unter Benutzung eines Falles des Herausziehens von Merkmalspunkten einer Person oder der Augen als ein Beispiel gegeben.
- Fig. 2 zeigt ein Beispiel eines Experimentes zum Herausziehen von blauen Markierungen entsprechend eines Gesichtes einer Person unter Benutzung eines herkömmlichen Beleuchtungsgerätes und des Bildaufnahmegerätes. Fig. 3A und 3B zeigen ein Beispiel des Herausziehens von Merkmalspunkten des Gesichtes, das durch das in Fig. 2 gezeigte Experiment vorgesehen wird.
- Blaue Markierungen 6 sind an vier Abschnitten des Gesichtes angebracht, wie in Fig. 3A gezeigt ist. Referenzlicht 9 wird von dem Beleuchtungsgerät 8 zu einem Objekt 10 emittiert, wie in Fig. 2 gezeigt ist, das von dem Objekt reflektierte Licht wird durch eine Kamera 13 aufgefangen, eine blaue Komponente wird von dem aufgenommenen Bild herausgezogen und einer Schwellenabschätzung unterworfen. Wie aus Fig. 3B ersichtlich ist, werden sowohl Rauschkomponenten 7 als auch blaue Markierungen 6 aufgenommen. Der Grund dafür ist wie folgt. Wenn nämlich das Objekt 10 durch das Referenzlicht 9 beleuchtet wird, kann das davon reflektierte Licht in weiterem Sinne in zwei Komponenten zerlegt werden. Eine ist das Licht 11, das von Oberfläche des Objektes 10 zerstreut und reflektiert wird, was die optische Natur des das Licht reflektierenden Materiales wiedergibt. Daher ist diese Komponente effektiv beim Herausziehen von Merkmalspunkten wie Teile des Gesichtes (Mund, Augenwimper, Nase usw.) und der Pupille mit der Ausnahme der Bilder, die von der Horn haut reflektiert werden, aus den Merkmalspunkten, die bei dem Augenverfolgen notwendig sind. Die andere ist die Komponente 12, die regelmäßig von der Oberfläche des Objektes 10 reflektiert wird, die die optische Natur der Lichtquelle wiedergibt. Die Komponente 12 gibt nicht die Natur des Objektes 10 wider, so daß sie dazu neigt, rauschbehaftet zu sein. Die letztere Komponente ist viel in glatten Abschnitten des Objektes 10 enthalten. Genauer gesagt, wenn das Objekt eine Person ist, bilden Schweiß auf dem Gesicht, Brillengestell, Brillen, Kunststoffe und Gläser um die Person usw. solche glatte Abschnitte. In dem in Fig. 34B gezeigten Beispiel entspricht das Rauschen 7 dem Schweiß.
- Bei dem in Fig. 3A und 3B gezeigten Beispiel werden blaue Markierungen, die auf dem Gesicht angebracht sind, herausgezogen. Das Vorangehende wird ähnlich angewendet, wenn Markierungen verschiedener Farben benutzt werden und die Farbkomponenten herauszuziehen sind. Die regulär reflektierte Komponente 12 wird in meisten Fällen rauschbehaftet, wenn solche Abschnitte wie Augen, Nase, Mund und Augenwimpern von dem natürlichen Bild ohne die Benutzung von Markierungen herausgezogen werden. Eine sogenannte aktive Stereovision wird als ein anderes Verfahren zum Erfassen der Form eines Gesichtes ohne die Benutzung von Markierungen benutzt, Moire-Typographie und Spaltstrahlenverfahren sind die Repräsentativen solch eines Verfahrens, bei dem das Objekt mit einem vorgeschriebenen gesteuerten Formmuster beleuchtet wird, Schwellenwertbilder (reflektierte Muster) von den reflektierten Bildern herausgezogen werden und die dreidimensionale Form des Objektes unter Benutzung des Merkmales des reflektierten Musters entsprechend dem herausgezogenen Muster gemessen wird. Wenn das Objekt dazu neigt. Regulärlicht zu reflektieren, werden auch bei diesem Verfahren Bilder, die durch reguläre Reflexion gebildet werden, rauschbehaftet, wodurch es schwierig wird, genau die reflektierten Muster herauszuziehen, die die Merkmale des Objektes sind.
- Probleme im Zusammenhang mit der Anordnung des herkömmlichen Beleuchtungsgerätes und der Effektivität des Herausziehens eines Pupillenmerkmalpunktes werden im folgenden beschrieben. Damit eine Augenfixierung eines Benutzers, der keine spezielle Vorrichtung trägt, erfaßt wird, muß eine Mehrzahl von Merkmalspunkten durch Bildverarbeitung herausgezogen, wie später beschrieben wird. Eine Pupille ist eine Öffnung in der Iris, die im allgemeinen dunkel aussieht. Daher muß, wenn die Iris dunkelbraun ist, die Pupille von der Iris unterschieden werden, damit sie herausgezogen werden kann. Die Pupille ist ein guter Merkmalspunkt, der weithin angewendet wird, da die Größe der Pupille angenehm ist, sie nicht sehr durch die Bewegung des Augenlides beeinflußt wird und sie bequem bei der Umwandlung auf die Augenfixierung ist. Das Herausziehen der Pupille wurde in einer Augenkamera usw. durchgeführt, und eine Zahl von Verfahren zum Herausziehen einer Pupille ist bekannt gewesen. Solche Verfahren sind zum Beispiel offenbart in dem US-Patent 4.102.564, US-Patent 4.145.122, US-Patent 3.689.135, US-Patent 4.074.657, US-Patent 4.755.045, US-Patent 4.303.394, US-Patent 4.651.145 und US-Patent 4702.575. Bei einem Typ von Augenkameras ist eine Lichtquelle in Brillen eingebaut zum Erleuchten der Augäpfel, und das reflektierte Licht wird zum Messen der Intensität des reflektierten Lichtes von der Pupille und von der Iris aufgenommen. Bei einem Gerät wie eine Augenkamera, die an dem Kopf von jemanden angebracht ist, ist der Abstand zwischen dem Beleuchtungsgerät und dem Bildaufnahmegerät klein, und das Gerät bewegt sich entsprechend der Bewegung des Kopfes. Daher müssen die Beleuchtungsgeräte nur die Augäpfel beleuchten und die Bildaufnahmegeräte müssen nur die Bilder der Aufäpfel aufnehmen. Daher ist der Einfluß von Rauschen klein, und die Pupille kann in Abhängigkeit von nur der Differenz in der Intensität des reflektierten Lichtes von der Pupille und der Iris herausgezogen werden.
- Die Augenverfolgung für die Anwendung auf die Schnittstelle muß jedoch in berührungsloser Weise durchgeführt werden, wie oben beschrieben wurde. Daher sollten nicht nur die Abschnitte der Augäpfel, sondern ein weiter Bereich genommen werden, der das Verfolgen einer Bewegung in einem Abstand ermöglicht. Zum Beispiel muß ein Verfahren zum Herausziehen der Pupillen aus dem Bild des Gesichtes von jemanden überlegt werden. In solch einem Fall ist es schwierig, die Pupillen von dem Hintergrundrauschen durch die oben beschriebenen Verfahren herauszuziehen.
- Fig. 4 zeigt ein anderes Verfahren zum Herausziehen der Pupille, bei dem das Licht in die Pupille eintritt und das von der Netzhaut reflektierte Licht aufgenommen wird. Es wird Bezug genommen auf Fig. 4, ein Halbspiegel 23 ist auf einer optischen Achse 22 eines Aufnahmeobjektives 21 einer Kamera 20 vorgesehen, und ein herkömmliches Beleuchtungsgerät 24 ist so angeordnet, daß seine optische Achse mit der optischen Achse 22 mittels des Halbspiegels 23 übereinstimmt. Damit die Verteilung der reflektierten Intensität von der Pupille unter Benutzung eines Beleuchtungsgeräte mit nur einer Lichtquelle gleichmäßig gemacht wird, das heißt damit ein Bild der Pupille mit geringer Unebenheit der Intensität erhalten wird, ist die Benutzung des Halbspiegels 23 wesentlich.
- Ein Filter 25 zum Abschneiden sichtbarer Wellenlänge ist vor dem Beleuchtungsgerät 24 vorgesehen. Die Komponente sichtbarer Wellenlänge des Lichtes von dem Beleuchtungsgerät 24 wird durch diesen Filter 25 abgeschnitten, und der verbleibende Teil des Lichtes trifft auf die optische Achse 22 des Objektives 21 zum Beleuchten des Benutzers 26. Das Licht tritt in die Pupille des Benutzers 26 ein, wird von der Netzhaut reflektiert, geht durch den Halbspiegel 23, so daß es von der Kamera 20 aufgenommen wird. Daher wird die Pupille heller genommen als die Iris.
- Das in Fig. 4 gezeigte Verfahren hat jedoch die folgenden Nachteile. Das Gerät wird nämlich groß, da es einen Halbspiegel 23 einsetzt. Wenn der Bereich der Bildaufnahme nicht nur die Abschnitte nahe den Augäpfeln sind, sondern breiter sind und zum Beispiel das Gesicht selbst enthalten, wird der Einfluß des Rauschens groß selbst bei diesem Verfahren, wodurch es schwie rig wird, die Pupillen richtig herauszuziehen. Damit der Einfluß des Rauschens verringert wird, kann die Intensität der Beleuchtung vergrößert werden. Dieses ist jedoch nicht sehr effektiv, da die Intensität des Lichtes durch den Filter 25 zum Abschneiden sichtbarer Wellenlängen verringert wird, weiter wird es auf - durch den Halbspiegel 23 verringert, und das reflektierte Licht wird weiter auf 1/2 durch den Halbspiegel 23 verringert, das heißt viel des Lichtes von dem Beleuchtungsgerät 24 ist verloren zu dem Zeitpunkt, in dem es von der Kamera 20 aufgefangen wird, wenn die Intensität der Beleuchtung vergrößert wird, wird viel Leistung verbraucht und viel Wärme erzeugt. Damit andere Einflüsse verringert werden, müssen unter Umständen entsprechende Teile getrennt voneinander angebracht werden, was weiter zu einer Vergrößerung in der Größe des Gerätes führt. Wenn die Beleuchtung zu intensiv ist, wird eine physiologische Last auf die Augen des Benutzers ausgeübt. Daher ist für dieses Verfahren auch nicht geeignet, an der Seite der Anzeigeeinheit für die Anwendung auf die Schnittstelle angebracht zu werden.
- Ein von einer Hornhaut reflektiertes Bild ist das virtuelle Bild, das von dem regulär von der konvexen Oberfläche der Netzhaut reflektierten Licht gebildet wird, und es bewegt sich in die gleiche Richtung wie die Augäpfel gemäß der Bewegung der Augenfixierung. Daher ist es einer der Merkmalspunkte, der notwendig zum Augenverfolgen ist. Ein Problem bei dem Herausziehen ist das Trennen von dem Hintergrundrauschen.
- Fig. 5 zeigt ein Beispiel eines Gerätes, das Bilder durch eine Kamera aufnimmt, die von der Hornhaut reflektiert sind. Es wird Bezug genommen auf Fig. 5, wenn Licht von einer Referenzlichtquelle 31 Augen eines Benutzers 30 beleuchtet, werden Bilder, die von der Hornhaut reflektiert sind, die notwendig für die Augenverfolgung sind, von der Kamera 32 aufgenommen. Es tritt jedoch nicht nur das Licht von der Referenzlichtquelle 31, sondern auch von der Anzeigeeinheitenoberfläche der Anzeigeneinheit 33 und von einer externen Beleuchtung 34 wie eine Leucht stoffröhre in die Augen des Benutzers 30, welches von der Hornhaut zum Vorsehen virtueller Bilder reflektiert wird. Daher gibt es verschiedene Bilder, die von der Hornhaut in dem Augapfel reflektiert sind, die das Rauschen darstellen, was es schwierig macht, die Bilder zu extrahieren, die von der Netzhaut reflektiert sind, die durch Licht von der Referenzlichtquelle 31 gemacht sind.
- Wenn ein bewegendes Objekt wie eine Person oder Augen zu fotografieren ist, sollte die Belichtungszeit so klein wie möglich sein, damit Bilder ohne Verwackelung vorgesehen werden. Eine Kamera mit einem elektrischen Verschluß ist kürzlich in Benutzung gekommen. Solche Kameras mit kurzer Belichtungszeit benötigen intensive Beleuchtung. Wenn jedoch ein herkömmliches Beleuchtungsgerät zum Beleuchten des Benutzers in der Schnittstelle benutzt wird, wird der Benutzer der Wärme eines intensiven Lichtes während einer langen Zeitdauer ausgesetzt, was die Augen oder den Körper des Benutzers beeinflussen kann.
- Inzwischen sind Stereosichtmessungen in dem Feld der Messungen räumlicher Positionen der Merkmalspunkte bekanntgeworden. Da jedoch das Herausziehen der Merkmalspunkte schwierig war, wie oben beschrieben wurde, ist bis jetzt keine Echtzeitmessung der räumlichen Positionen der Merkmalspunkte auf dem Gesicht oder der Augäpfel durchgeführt, falls die Benutzung für die Schnittstelle in Betracht gezogen wurde.
- Einige Verfahren sind für das Augenverfolgen durch Bildverarbeitung vorgeschlagen worden. Es müssen jedoch verschiedene Bedingungen zum Anwenden einer jeglichen dieser Verfahren zum Augenverfolgen befriedigt sein, und daher ist das Anwendungsgebiet beschrankt, da effektives Herausziehen der Merkmalspunkte schwierig ist und Hochgeschwindigkeitserfassung der räumlichen Positionen mit jeder dieser Verfahren schwierig ist. In den meisten dieser Verfahren wird eine Schwarz/Weiß-Kamera eingesetzt. Ein solches Beispiel wird im folgenden beschrieben.
- Fig. 6 stellt ein Verfahren zum Erfassen der Iris und der Pupille in dem Weißen des Auges auf einem aufgenommenen Bild zum Erfassen der Augenfixierung unter Benutzung dergleichen dargestellt. Es wird Bezug genommen auf Fig. 6, das Gesicht einer Person wird durch eine Kamera 41 aufgenommen, der Abschnitt 42 des Auges wird von dem aufgenommenen Bild des Gesichtes herausgezogen, und der dunkle Abschnitt 43 und das Weiße in dem Auge werden voneinander getrennt. Danach werden die Länge a des Weißen 44 und die Länge x von einer Kante des Weißen 44 zu der Mitte des dunklen Abschnittes 43 berechnet. Die Richtung der Augenfixierung ist ungefähr proportional zu x/a. Da der Vorgang zum Herausziehen des Weißen 44 und des dunklen Abschnittes 43 des Auges schwierig mit einer hohen Geschwindigkeit durchzuführen ist, ist Echtzeiterfassung bis jetzt nicht realisiert. Bei diesem Verfahren ist der Freiheitsgrad auf die Rotationsbewegung des Augapfels beschränkt, wenn nicht die Position und die Richtung des Gesichtes durch die eine oder andere Methode berechnet werden. Die Genauigkeit bei der Erfassung der Rotation des Augapfels ist nicht sehr hoch, da sich die Größe des Auges ändert, wenn der Benutzer seinen Ausdruck ändert. Die Aufwärts- und Abwärtsbewegung des Auges ist besonders eigenartig und kompliziert, da sich der dunkle Abschnitt 43 durch die Bewegung des Augenlides beeinflußt ändert.
- Fig. 7 stellt ein Verfahren zum Erfassen der Pupille und der Bilder, die von der Hornhaut reflektiert sind, als Merkmalspunkte durch eine Kamera dar. Es wird Bezug genommen auf Fig. 7, die Position einer Referenzlichtquelle 51 wird als bekannt in Zusammenhang mit dem Koordinatensystem der Kamera 50 angenommen. Die räumliche Position des Bildes 53, das von der Netzhaut reflektiert ist und durch das Referenzlicht von der Referenzlichtquelle 51 erzeugt ist, und die räumliche Position der Pupille 54 unabhängig auf der Grundlage der Position des Rotationszentrums des Augapfels 52 und der Rotationswinkel α und β in die Richtung des Augapfels nach oben, nach unten, nach links und nach rechts bestimmt. Wenn daher die Position des Bildes, das von der Hornhaut reflektiert ist, die Position der Pupille 54, der Radius a des Augapfels, der ein struktureller Parameter des Augapfels 52 ist, der Krümmungsradius c der Hornhaut und der Abstand b zwischen der Mitte des Augapfels zu dem Krümmungsmittelpunkt der Hornhaut bekannt sind, werden das Rotationszentrum des Augapfels 52 und der Rotationswinkel des Augapfels 52 bestimmt, und folglich kann die Augenfixerung bestimmt werden. Die Position des Bildes 53, das von der Hornhaut reflektiert ist, und der Pupille 54 können aus einem projizierenden Bild erhalten werden, indem eine Bedingung geschaffen wird, daß der Abstand von der Kamera zu dem Augapfel 52 ungefähr konstant ist. Auf diese Weise können die Augenfixierung in Zusammenhang mit dem Rotationswinkel α nach links und nach rechts und des Rotationswinkels β nach oben und nach unten des Augapfels 52 erfaßt werden. Die Genauigkeit der Erfassung wird jedoch niedriger, wenn sich das Gesicht in die Richtung der z- Achse aus der oben beschriebenen Bedingung bewegt.
- Bei den in Fig. 6 und 7 gezeigten Beispielen ist es schwierig, den Blickpunkt zu erfassen, da nur eine Kamera eingesetzt wird. Wenn eine der oben beschriebenen Verfahren auf die Schnittstelle anzuwenden ist, ist es notwendig, zu wissen, auf welchen Punkt der Anzeigeeinheit der Benutzer blickt. Daher muß der Blickpunkt in dem Anzeigeneinheitenkoordinatensystem vorgesehen werden. Damit der Blickpunkt des Benutzers in dem Anzeigeneinheitenkoordinatensystem bekannt ist, ist es notwendig, daß der Benutzer auf einen vorbestimmten Punkt blickt.
- Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Erfassen einer Blickrichtung vorzusehen, das die Bewegung einer Augenfixierung eines Benutzers auf kontaktfreie Weise ohne die Benutzung irgendeiner speziellen Einrichtung auf dem Benutzer auf der Grundlage von Bildern von dem Objekt erfassen kann, das von dem Bildaufnahmegerät aufgenommen wird.
- Es ist eine noch weitere Aufgabe der vorliegenden Erfindung, ein Verfahren des Erfassens einer Blickrichtung vorzusehen, das Augenfixierung mit hoher Geschwindigkeit und mit hoher Genauig keit erfassen kann, während eine freie Bewegung des Kopfes des Benutzers erlaubt ist.
- Es ist eine noch weitere Aufgabe der vorliegenden Erfindung, ein Verfahren des Erfassens einer Blickrichtung vorzusehen, bei dem ein Blickpunkt auf einem Anzeigenkoordinatensystem erfaßt werden kann, den der Benutzer tatsächlich betrachtet, und bei dem keine Kalibration auf eine einfache Weise zu der Zeit der Erfassung ausgeführt werden kann.
- Diese Aufgaben werden gelöst durch das Verfahren, wie es in Anspruch 1, 2 oder 3 angegeben ist.
- Bevorzugte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
- Bei dem Verfahren zum Augenverfolgen gemäß der vorliegenden Erfindung wird die Augenfixierung durch zwei von den drei folgenden Merkmalssätzen erfaßt: Die Position und die Richtung des Gesichtes, die Position der Pupille und das von der Hornhaut reflektierte Bild; so daß die Zahl von Parametern zur Kalibrierung zum Erfassen des Blickpunktes des Benutzers klein ist. Daher kann die Kalibrierung auf einfache Weise ausgeführt werden, die Genauigkeit der Erfassung ist hoch und die Belastung für den Benutzer ist klein.
- Gemäß der vorliegenden Erfindung kann durch Erfassen der Position und der Richtung des Kopfes die Position des Zentrums des Augapfels in Zusammenhang mit dem Meßkoordinatensystem erhalten werden. Nur ein konstanter Vektor in Näherung wird als Parameter, der notwendig für den Vorgang ist, benötigt, so daß die Kalibrierung in einer einfachen Weise ausgeführt werden kann, und die Richtung der Augenfixierung kann unabhängig von der Bewegung des Kopfes des Benutzers auf kontaktfreie Weise durch Ermitteln des Zentrums des Augapfels und der räumlichen Position der Pupille erfaßt werden. Da die Zahl von Parametern für die Kalibrierung gleich ist, kann die Genauigkeit erhöht wer den. Zusätzlich kann die Richtung der Augenfixierung von zwei Augen unabhängig vorgesehen werden, daher kann die Überlappung der Richtung der Augen erfaßt werden und folglich die Augenfixierung kann nicht nur auf einer ebenen sondern dreidimensional erfaßt werden. Zusätzlich kann bei dem Vorgang des Erfassens der Augenfixierung die Fläche der Pupille erfaßt werden, so daß die Richtung der Augenfixierung als auch die Ausdehnung der Pupille gleichzeitig erfaßt werden können.
- Gemäß der vorliegenden Erfindung kann unter Benutzung dreier Punkten an dem Kopf als ein Modell die Position und die Richtung des Kopfes auf der Grundlage von drei Punkten auf dem Gesicht erfaßt werden. Wenn diese drei Punkte zuvor bestimmt werden, kann die Extrahierung dieser drei Punkte durch Anbringung von Markierungen auf diesen Punkten erleichtert werden, wodurch die Erfassung der Augenfixierung mit hoher Geschwindigkeit möglich ist. Bei einer bevorzugten Ausführungsform werden Markierungen, deren Merkmale leicht extrahiert werden können, an mindestens drei Abschnitten auf einem Brillenrahmen angebracht, und der Kopf wird in ein Modell durch die Markierungen gewandelt, wenn der Benutzer die Brille trägt. Die Position und die Richtung des Kopfes kann gemäß den Positionen der Markierungen erfaßt werden. Daher kann der Kopf in ein Modell schon durch Vorsehen der Markierungen auf Brillen umgewandelt werden, wodurch die Position des Kopfes auf eine einfache Weise erfaßt werden kann. Die Position des Kopfes kann genau so lange erkannt werden, wie die Brille auf dem Gesicht sitzt, und daher kann die Augenfixierung auf eine einfache Weise mit hoher Genauigkeit erkannt werden.
- Referenzlicht kann in das Auge eintreten, die Position und Richtung des Kopfes werden aus dem aufgenommenen Bild erfaßt, die erfaßte Position des Kopfes wird bewegt und gedreht, die Position des Zentrums des Augapfels, die von der Drehbewegung des Augapfels unabhängig ist und in der Position stabil ist, wird erfaßt, die Position des von der Hornhaut reflektierten Bildes, das von dem Referenzlicht erzeugt wird, wird aus dem aufgenommenen Bild erfaßt, und die Augenfixierung wird gemäß den erfaßten Positionen des Zentrums des Augapfels und des von der Hornhaut reflektierten Bildes erfaßt.
- Daher kann gemäß der vorliegenden Erfindung durch Erfassen von räumlichen Positionen des Zentrums des Augapfels und des von der Hornhaut reflektierten Bildes die Richtung der Augenfixierung auf kontaktfreie Weise unabhängig von der Bewegung des Kopfes des Benutzers erfaßt werden.
- Die vorangehenden und weiteren Aufgaben, Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden ersichtlicher aus der folgenden detaillierten Beschreibung der vorliegenden Erfindung, wenn sie in Zusammenhang mit den begleitenden Zeichnungen genommen wird.
- Fig. 1 zeigt ein Beispiel eines herkömmlichen berührungslosen Augenverfolgungsgerätes;
- Fig. 2 zeigt ein Beispiel eines Experimentes zum Herausziehen blauer Markierungen als Merkmalspunkte auf einem Gesicht einer Person unter Benutzung eines herkömmlichen Beleuchtungsgerätes und Bildaufnahmegerätes;
- Fig. 3A und 3B zeigen Beispiele des Herausziehens von Merkmalspunkten des Gesichtes, die durch das in Fig. 2 gezeigte Experiment vorgesehen werden;
- Fig. 4 zeigt ein anderes Verfahren zum Herausziehen von Pupillen, bei dem Licht durch die Pupille eintritt und das an der Netzhaut reflektierte Licht genommen wird;
- Fig. 5 zeigt ein Beispiel eines Gerätes, bei dem ein von der Hornhaut reflektiertes Licht von einer Kamera aufgenommen wird;
- Fig. 6 stellt ein Verfahren zum Erfassen einer Position eines dunklen Abschnittes eines Auges auf einem aufgenommenen Bild zum Erfassen der Augenfixierung unter Benutzung desselben dar;
- Fig. 7 stellt ein Verfahren zum Herausziehen der Pupille und des von der Hornhaut reflektierten Bildes als Merkmalspunkte durch eine Kamera dar;
- Fig. 8 zeigt das Konzept dieser Merkmalsherausziehung;
- Fig. 9 zeigt verschiedene Typen und Arten von Merkmalspunkten, die zur Erkennung der Augenfixierung notwendig sind;
- Fig. 10 zeigt ein Bildaufnahmegerät;
- Fig. 11 ist eine Frontansicht der in Fig. 10 gezeigten Aufnahmelinse;
- Fig. 12 ist eine Seitenansicht der Aufnahmelinse;
- Fig. 13 zeigt optische Eigenschaften der optischen Teile, die eingesetzt werden;
- Fig. 14 ist eine perspektivische Ansicht, die ein Beispiel eines Beleuchtungsgerätes zeigt, das eine lichtemittierende Diode und einen Polarisator aufweist, die als eine Einheit vorgesehen sind;
- Fig. 15A zeigt ein diffus reflektiertes Bild, das von einem Bildaufnahmegerät aufgenommen ist, und Fig. 15B zeigt die Effekte des Herausziehens von Merkmalspunkten;
- Fig. 16A bis 16C zeigen Beispiele des Herausziehens des von der Hornhaut reflektierten Bildes;
- Fig. 17, 18A, 18B, 18C und 19 stellen eine Anordnung von Lichtquellen dar, durch die die Pupille heller aufgenommen wird;
- Fig. 20A bis 20C zeigen Beispiele der Bilder, die durch das in Fig. 10 gezeigte Gerät aufgenommen sind;
- Fig. 20 zeigt ein Beispiel einer Markierung, die an dem Gerät einer Ausführungsform der vorliegenden Erfindung angebracht ist;
- Fig. 21 zeigt ein Beispiel einer an dem Gerät angebrachten Markierung;
- Fig. 22 ist eine Querschnittsansicht, die ein anderes Beispiel der Markierung zeigt;
- Fig. 23 zeigt Bildaufnahmegerät mit einem elektrischen Verschluß;
- Fig. 24 und 25 zeigen Antriebszeitpunkte des Bildaufnahmegerätes und des Beleuchtungsgerätes, die in Fig. 23 gezeigt sind;
- Fig. 26A ist ein schematisches Blockschaltbild, das eine Gesamtstruktur eines Bildverarbeitungsgerätes zeigt, das in Echtzeit Merkmalspunkte erkennt durch Benutzen des Bildaufnahmege rätes, und Fig. 26D ist ein spezielles Blockschaltbild des in Fig. 26A gezeigten Bildverarbeitungsgerätes;
- Fig. 27, 28 und 29 zeigen Beispiele eines Bildaufnahmegerätes, das auf ein aktives Stereosehmeßverfahren angewendet ist Fig. 30 zeigt schematisch den Aufbau eines Auges;
- Fig. 31 stellt das Stereosehmessen dar;
- Fig. 32 und 33 stellen ein Verfahren zum Erfassen einer dreidimensionalen Position eines Bildes dar, das von zwei willkürlich gesetzten Kameras gemäß einem Weltkoordinatensystem aufgenommen wird;
- Fig. 34 zeigt eine Ausführungsform des Augenverfolgens;
- Fig. 35 stellt eine Koordinatentransformation einschließlich der Bewegung des Nullpunktes und der Drehung der Koordinatenachse dar;
- Fig. 36 entspricht Fig. 34, wobei der Nullpunkt des Weltkoordinatensystemes, der der Merkmalspunkt P&sub1; des Gesichtes ist, bewegt ist;
- Fig. 37 zeigt ein Zustand des gedrehten Weltkoordinatensysteme 5;
- Fig. 38 stellt den Vektor des Zentrums des Augapfels an dem Kopfkoordinatensystem dar;
- Fig. 39 zeigt einen Fall, in dem das Zentrum des Augapfels nicht auf einem Segment vorhanden ist, das die Pupille und die Fovea verbindet;
- Fig. 40 zeigt ein Beispiel eines Kopfmodelles unter Benutzung von einer Brille mit Markierungen;
- Fig. 41 zeigt einen in ein Modell gewandelten Kopf mit vier Punkten;
- Fig. 42A und 42B zeigen ein Beispiel zum Erfassen eines statischen virtuellen Merkmalspunktes aus zwei Merkmalspunkten und
- Fig. 43 stellt eine andere Ausführungsform einer Augenverfolgung dar.
- Fig. 8 zeigt das Konzept der Merkmalsherausziehung und Fig. 9 zeigt Typen und Eigenschaften der Merkmalspunkte, die für die Augenverfolgung notwendig sind.
- Zuerst wird Bezug genommen auf Fig. 8 und 9, das Konzept der Merkmalsherausziehung wird beschrieben. Ein Gesichtsbild wird durch eine Kamera 60 aufgenommen, und Merkmalspunkte, die den Kopf reflektieren, und Merkmalspunkte der Augen werden aus den Bildsignalen herausgezogen, die die Ausgangssignale von der Kamera 60 sind. Der laterale Winkel des Auges, der mediale Winkel des Auges, die Lippe usw. können durch die Farbdifferenz als die Merkmalspunkte, die den Kopf widerspiegeln, erkannt werden, wie in Fig. 2 gezeigt ist. Die Merkmalspunkte des Auges sind das Bild, das an der Hornhaut reflektiert ist, der dunkle Abschnitt des Auges und die Pupille. Das von der Hornhaut reflektierte Bild ist das virtuelle Bild, das von dem regulär an der konvexen Oberfläche der Hornhaut reflektierte Licht gebildet wird, das sich in die gleiche Richtung wie der Augapfel im Verhältnis zur der Bewegung der visuellen Achse bewegt. Der dunkle Abschnitt des Auges kann durch die Differenz in der Intensität der Reflexion zwischen der Iris und der Hornhaut überwacht werden. Die Bewegung des dunklen Abschnittes kann nur durch die Zimmerbeleuchtung mit einem Referenzlicht herausgezogen werden. Die Pupille kann durch die Differenz in der Intensität des Lichtes, das von der Hornhaut und an der Iris und an dieser Öffnung reflektiert wird, erkannt werden, und die Pupille wird nicht sehr durch die Bewegung des Augenlides beeinflußt.
- Die Position und die Richtung des Kopfes werden aus den herausgezogenen Merkmalspunkten bestimmt, die von dem Kopf reflektiert werden, und die Resultate werden in die Position der Mitte des Augapfels umgewandelt. Weiterhin werden die Mitte der Pupille und die Mitte des dunklen Abschnittes aus den herausgezogenen Merkmalspunkten des Auges erfaßt, und die Richtung der Augenfixierung wird als Reaktion auf das Resultat und die Position der Mitte des Augapfels erkannt, die durch Umwandlung zur Verfügung gestellt wird.
- Der Kopf wird in ein Modell gewandelt. Das Umwandeln in das Modell wird ausgeführt, indem mindestens drei Merkmalspunkte des Gesichtes benutzt werden, an denen sich die Haut nicht sehr be wegt. Die Position und die Richtung des Kopfes werden auf der Grundlage der Positionen der entsprechenden Merkmalspunkte auf dem Gesicht erkannt.
- Bei dem Umwandeln des Kopfes in ein Modell werden mindestens drei virtuelle Merkmalspunkte, die relativ statisch sind, von mindestens vier oder mehr Merkmalspunkten auf dem Gesicht herausgenommen, und die Position und die Richtung des Kopfes werden auf der Grundlage der Positionen der virtuellen Merkmalspunkte erfaßt.
- Markierungen, deren Merkmale leicht herausgezogen werden können, werden an mindestens drei Abschnitten eines Brillengestelles angebracht, der Kopf wird in das Modell unter Benutzung der Markierungen umgewandelt, wenn der Benutzer die Brille trägt, und die Position und Richtung des Kopfes werden auf der Grundlage der Positionen der Markierungen erkannt.
- Fig. 10 zeigt ein Bildaufnahmegerät, das bei der vorliegenden Erfindung verwendet werden kann, Fig. 11 ist eine Frontansicht des in Fig. 10 gezeigten Aufnahmeobjektives und Fig. 12 ist eine Seitenansicht des Aufnahmeobjektives.
- Es wird Bezug genommen auf Fig. 10, ein Beleuchtungsgerät 61 und ein Objektiv 65 sind in Front einer Kameraeinheit 60 angeordnet. Das Beleuchtungsgerät 61 weist lichtemittierende Dioden 66 auf, die um das Objektiv angeordnet sind, wie in Fig. 11 gezeigt ist. Ein linearer Polarisator 63 ist in Front der lichtemittierenden Dioden 66 angeordnet, und ein Abschneidefilter 68 für sichtbare Wellenlängen ist in Front des Objektives 45 angeordnet. Der lineare Polarisator 63 polarisiert das von den lichtemittierenden Dioden 66 emittierte Licht, und der Abschneidefilter für sichtbare Wellenlängen schneidet das sichtbare Licht ab, das von einer externen Beleuchtung wie einer Leuchtstoffröhre emittiert ist. Ein Beleuchtungsapparat 62 ist an einer Position entfernt von der optischen Achse des Objektives 65 angeordnet. Der Beleuchtungsapparat 62 weist lichtemit tierende Dioden 64 und einen linearen Polarisator 67 auf, der davor vorgesehen ist.
- Die Kameraeinheit 60 weist drei Prismen 607, 608 und 609 auf. Eine Wellenlängen trennende Ebene 610 ist zwischen den Prismen 607 und 608 gebildet, und ein Halbspiegel 611 ist zwischen den Prismen 608 und 609 angeordnet. Ein Polarisator 615 und ein CCD-Bildaufnahmeelement 412 sind der lichtemittierenden Oberfläche des Prismas 607 zugewandt angeordnet. Ein CCD- Bildaufnahmeelement 614 ist der lichtemittierenden Oberfläche des Prismas 608 zugewandt angeordnet, und ein Polarisator 616 und ein CCD-Bildaufnahmeelement 613 sind der lichtemittierenden Oberfläche des Prismas 609 zugewandt angeordnet. Die polarisierenden Oberflächen der Polarisatoren 615 und 616 stehen senkrecht zu den linearen Polarisatoren 63 und 67, die in Front der Beleuchtungsgeräte 61 und 62 vorgesehen sind. Die Ausgangssignale der CCD-Bildaufnahmeelemente 613 und 614 werden an ein Bildsubtraktionsbetriebsmittel 617 angelegt, indem das von der Hornhaut reflektierte Bild herausgezogen wird. Die Ausgangssignale der CCD-Bildaufnahmeelemente 612 und 613 werden an ein Subtraktionsbetriebsmittel 618 angelegt, indem die Pupille herausgezogen wird.
- Fig. 13 ist ein Diagramm, das die optischen Eigenschaften der optischen Teile zeigt, die in einem Bildaufnahmegerät eingesetzt werden. Nahes Infrarotlicht, das nicht von dem Auge von jemandem erfaßt werden kann, wird für die lichtemittierenden Dioden 64 und 66 benutzt, die in den Beleuchtungsgeräten 61 und 62 eingesetzt werden, die in Fig. 10 gezeigt sind. Bei dieser Ausführungsform beträgt die Wellenlänge λ1 der lichtemittierenden Diode 64 gerade 850 nm, während die Wellenlänge λ2 der lichtemittierenden Diode 66 gerade 950 nm beträgt. Die Wellenlängeneigenschaften der lichtemittierenden Dioden 64 und 66 sind durch (1) und (2) in Fig. 13 gezeigt. Die Eigenschaften des Abschneidefilters 68 für sichtbares Licht, das vor dem Objektiv 65 vorgesehen ist, wird durch (4) in Fig. 13 dargestellt, und die Empfindlichkeit der CCDs 612, 613 und 614 ist durch (3) in Fig. 13 gezeigt. Wie aus Fig. 13 ersichtlich ist, ist die Halbwertsbreite der Wellenlänge jeder der lichtemittierenden Dioden 64 und 66 schmal, so daß das von den entsprechenden lichtemittierenden Dioden 64 und 66 emittierte Licht nicht das jeweils andere stört, wenn die Mittenwellenlängen der zwei sich um ungefähr mehr 100 nm unterscheiden. Das Licht mit solcher Wellenlänge kann nicht durch die Augen eines Menschen erfaßt werden. Wenn das Licht durch die Augen eines Menschen erfaßt wird, kann die Wellenlänge des emittierten Lichtes geändert werden, so daß es länger ist. Die aus Silizium gebildeten CCD- Bildaufnahmeelemente 612, 613 und 614 weisen eine ausreichende Empfindlichkeit in diesem Wellenlängenbereich auf, wie in Fig. 13 gezeigt ist.
- Fig. 14 ist eine perspektivische Ansicht, die einen Überblick über ein Beleuchtungsgerät zeigt, das lichtemittierende Dioden und einen Polarisator als ein Beispiel aufweist, die als eine Einheit vorgesehen sind. Es wird Bezug genommen auf Fig. 14, lichtemittierende Dioden 72 sind auf einer Basisplatte 71 angebracht, und ein Rahmen 74 zum Anbringen optischer Elemente ist an der Basisplatte 71 in einem vorbestimmten Abstand mittels eines Abstandshalters 73 angebracht. Optische Elemente 75 wie ein Polarisator, ein Filter, der sichtbare Wellenlänge abschneidet und Infrarot durchläßt usw. sind auf dem Rahmen 74 angebracht. Löcher für ein Kameraobjektiv sind in der Basisplatte 71 und auf dem optischen Element 75 gebildet, und ein Zylinder 76 ist zum Verbinden dieser zwei Löcher vorgesehen.
- Wie oben beschrieben wurde, sind bei dem in Fig. 14 gezeigten Beispiel die optischen Elemente 75 durch einen Rahmen 74 so abgedeckt, daß die mechanische Festigkeit zum Verhindern von Schrägstellungen oder ähnlichem der optischen Elemente 75 vergrößert wird. Diese Struktur ist insbesondere wichtig, wenn der Brechungsindex des optischen Elementes 75 eine Anisotropie aufweist und die Eigenschaften der Elemente sich in Abhängigkeit von der Wellenlänge ändern. Genauer gesagt, wenn das Element eine Schiefe hat, wenn es verzerrt oder gebogen wird, kann vor geschriebenes Referenzlicht nicht vorgesehen werden. Der Zylinder 76 verändert den Eintritt des Referenzlichtes, das von den lichtemittierenden Dioden 72 emittiert ist, direkt in das Objektiv. Das Referenzlicht und das reflektierte Licht werden nämlich voneinander durch den Zylinder 76 getrennt.
- Ein Betrieb eines Bildaufnahmegeräte wird im folgenden unter Bezugnahme auf Fig. 10 beschrieben. Das von den lichtemittierenden Dioden 64 und 66 der Beleuchtungsgeräte 61 und 62 emittierte Licht wird durch die Polarisatoren 67 bzw. 63 zum Beleuchten einer Person polarisiert. Das davon reflektierte Licht tritt in das Prisma 607 durch das Abschneidefilter 68 für sichtbares Licht und das Objektiv 65 ein. Das Licht mit der Wellenlänge λ2 (950 nm) wird durch den Wellenlängen trennenden Film 610 getrennt, so daß es das CCD-Bildaufnahmeelement 612 durch den Polarisator 615 zum Bilden eines Abbildes eintritt, Es sei angenommen, daß die Polarisation der Beleuchtung durch das Beleuchtungsgerät 62 in der Querrichtung ist, dann wird ein Bild mit der regulär reflektierten Komponente abgeschnitten, das heißt ein Bild mit der diffus reflektierten Komponente wird auf der photoempfindlichen Oberfläche des CCD-Bildaufnahmeelementes gebildet, wenn die Polarisationsrichtung des Polarisators 615 um 90º verschoben wird, so daß sie in der vertikalen Richtung steht. Da die reguläre Reflexion auf glatten Oberflächen des Objektes auftritt, werden die optischen Eigenschaften der Lichtkurve gut in den regulär reflektierten Komponenten gehalten.
- Dagegen wird die diffus reflektierte Komponente durch die absorbierenden und reflektierenden Eigenschaften des Objektes modifiziert. Damit Merkmalspunkte des Gesichtes und der Pupille und des dunklen Abschnittes des Auges herausgezogen werden, sollte das diffus reflektierte Bild bevorzugt in Hinblick auf Rauschverringerung und Verbesserung des Signal/Rauschverhältnisses benutzt werden, Dagegen geht das reflektierte Licht mit der Wellenlänge λ1 durch das Abschneidefilter 68 für sichtbare Wellenlänge, das Objekt 65 und das Prisma 607, so daß es durch einen Halbspiegel 611 aufgeteilt wird, der an der Schnittstelle zwischen den Prismen 608 und 609 vorgesehen ist. Ein Teil des unterteilten Lichtes geht in das CCD-Bildaufnahmeelement 613 durch den Polarisator 616 zum Bilden eines Abbildes, und der andere Teil des unterteilten Lichtes geht direkt in das CCD-Bildaufnahmeelement 614 zum Bilden eines Abbildes. Daher ist ein Bild mit der regulär reflektierten Komponente und der diffus reflektierten Komponente in den Ausgangssignalen von dem CCD-Bildaufnahmelement 614 enthalten, während ein Bild mit der diffus reflektierten Komponente nur in den Ausgangssignalen von dem CCD-Bildaufnahmelement 613 enthalten ist. Da die Intensität des durch die Polarisatoren 615 und 616 gehenden Lichtes 1/2 wird, ist das Teilungsverhältnis des Halbspiegels 611 auf 1 : 2 gesetzt, so daß die Intensitäten der Bilder von den CCD-Bildaufnahmeelementen 613 und 614 ungefähr die gleichen sind.
- Fig. 15A zeigt ein diffus reflektiertes Bild, das von einem Bildaufnahmegerät aufgenommen ist, und Fig. 15B zeigt den Effekt des Herausziehens von Merkmalspunkten. Ein Experiment wird durchgeführt zum Herausziehen blauer Markierungen, die an einem Gesicht einer Person als Merkmalspunkt angebracht sind zum Bestätigen des Prinzips dieser Erfindung. Zum Vergleich mit dem herkömmlichen Bildaufnahmeverfahren werden keine lichtemittierenden Dioden, sondern eine weiße Lichtquelle (Halogenlicht) als die Lichtquelle benutzt, die zum Beleuchten des Objektes polarisiert wird. Eine herkömmliche 3-Farben-CCD-Kamera wird benutzt, und ein Polarisator, dessen Polarisationsrichtung senkrecht auf dem Polarisator steht, der zur Beleuchtung eingesetzt wird, wird in die bildherstellende optische Achse eingesetzt. Fig. 15A zeigt ein Beispiel des Herausziehens der diffus reflektierten Komponente aus dem reflektierten Licht, das von der Kamera gemäß dem oben beschriebenen Verfahren aufgefangen wurde. Fig. 15B zeigt Bilder, die durch Herausziehen von Gesichtsfarbkomponenten aus den Bildpunkten von Fig. 15A und durch Unterwerfen einer Schwellenwertoperation erhalten werden. Wenn wird Fig. 15B mit dem in Fig. 3B gezeigten herkömmlichen Beispiel vergleichen, ist das Rauschen verringert und die blauen Markierungen 77 sind effektiv als Merkmalspunkte herausgezogen.
- Das Herausziehen der von der Hornhaut reflektierten Bilder wird im folgenden beschrieben. Die von der Hornhaut reflektierten Bilder sind virtuelle Bilder, die dadurch gebildet werden, daß das Licht der Referenzlichtquelle regulär auf der Oberfläche der Hornhaut reflektiert wird. Daher sind in diesem Fall die regulär reflektierten Bilder die gewünschten Signale. Das Herausziehen der von der Hornhaut reflektierten Bilder wird realisiert durch Herausziehen der Differenz zwischen den Bildern auf den in Fig. 10 gezeigten CCD-Bildaufnahmeelementen 613 und 614 durch das Subtraktionsbetriebsmittel 617. Ein Problem bei dem Herausziehen der von der Hornhaut reflektierten Bilder bei dem Stand der Technik war es, daß das Licht von externen Oberflächen oder von der Anzeigeneinheit von der Hornhaut zum Bilden von Bildern reflektiert wird, die mit den von der Referenzlichtquelle erhaltenen Bildern überlappen. Bei einer Ausführungsform der vorliegenden Erfindung ist jedoch das Licht von der lichtemittierenden Diode 64 polarisiert, so daß die von der Hornhaut reflektierten Bilder, die durch Reflexion des Lichtes von der lichtemittierenden Diode 64 gebildet sind, durch den Polarisator 614 abgeschnitten werden, der orthogonal damit schneidet, wodurch die diffus reflektierten Bilder verbleiben. Daher kann das von der Hornhaut reflektierte Bild aus dem Hintergrund durch das Subtraktionsbetriebsmittel 617 herausgezogen werden, wie oben beschrieben wurde.
- Da jedoch die externe Beleuchtung im allgemeinen nicht polarisiert ist, werden ähnliche Bilder von den CCD-Bildaufnahmeelementen 613 und 614 auf genommen, und es gibt keinen Unterschied zwischen den von diesen zwei Elementen aufgenommen Bildern. Daher enthält das Differenzbild, das von dem Subtraktionsbetriebsmittel 617 vorgesehen wird, geringeres Rauschen, wodurch das Herausziehen des von der Hornhaut reflektierten Bildes mit hohem Signal/Rauschverhältnis realisiert werden kann.
- Fig. 16A bis 16C zeigen Beispiele des Herausziehens des von der Hornhaut reflektierten Bildes. Die in den Fig. 16A bis 16C gezeigten Beispiele sind die Resultate eines Experimentes zum Herausziehen des von der Hornhaut reflektierten Bildes unter Benutzung des gleichen Bildaufnahmesystemes, wie es in Fig. 10 gezeigt ist, damit das oben beschriebene Konzept bestätigt wird. Fig. 16A zeigt ein von dem CCD-Bildaufnahmeelement 614 vorgesehenes Bild einschließlich der regulär reflektierten Komponente und der diffus reflektierten Komponente. Fig. 16B zeigt von dem CCD-Bildaufnahmeelement 613 vorgesehene Bilder einschließlich der diffus reflektierten Komponente. Das von dem Subtraktionsbetriebsmittel 617 ausgegebene subtrahierte Bild entspricht Fig. 16C, indem das von der Hornhaut reflektierte Bild klar von dem Hintergrund herausgezogen ist.
- Das Herausziehen der Pupille wird im folgenden beschrieben. Wie in Fig. 10 gezeigt ist, weist das erste Beleuchtungsgerät 61 lichtemittierende Dioden 66 auf, die um die optische Achse des Objektives 65 angeordnet sind, wie in Fig. 11 gezeigt ist. Bei dem reflektierten Bild, das aus der Beleuchtung des Beleuchtungsgerätes 61 abgeleitet wird, das heißt das von dem CCD- Bildaufnahmeelement 612 ausgegebene Bild, wird die Pupille heller als der Hintergrund aufgenommen. Obwohl die Hervorhebung der Pupille gegen den Hintergrund nicht ausreichend ist, kann die Pupille herausgezogen werden, wenn der Bereich der Anwendung begrenzt ist. Dagegen ist das zweite Beleuchtungsgerät 62 getrennt von der optischen Achse des Objektives 65 angeordnet. Bei dem von der Beleuchtung des Beleuchtungsgerätes 62 abgeleiteten reflektierten Bild, das heißt das von dem CCD-Bildaufnahmeelement 613 oder 614 vorgesehenen Bild, ist die aufgenommene Pupille dunkel. Daher wird durch die Subtraktionstätigkeit zwischen dem von dem CCD-Bildaufnahmeelement 612 vorgesehenen Bild und dem von dem CCD-Bildaufnahmeelement 613 vorgesehenen Bild oder durch die Subtraktionstätigkeit zwischen dem von dem CCD-Bildaufnahmeelement 613 vorgesehenen Bild und dem von dem CCD-Bildaufnahmeelement 614 vorgesehenen Bild die Pupille weiter gegen den Hintergrund hervorgehoben, wodurch ihre Heraus ziehung erleichtert wird. Da die Bedingungen des Anbringens des zweiten Beleuchtungsgerätes 62 nicht sehr restriktiv sind, wie oben beschrieben wurde, kann es durch eine externe Beleuchtung wie eine Leuchtstoffröhre ersetzt werden. In diesem Fall muß jedoch das von der Beleuchtung reflektierte Licht das CCD- Bildaufnahmelement 613 oder 614 erreichen, daher muß die externe Beleuchtung eine Komponente im nahen Infrarot aufweisen, oder das Abschneidefilter 68 für sichtbare Wellenlänge muß entfernt werden.
- Fig. 17, 18 und 19 stellen Anordnungen der Lichtquellen zum hellen Aufnehmen der Pupille dar.
- Die Beziehung zwischen den Positionen der Lichtquellen und der Helligkeit der Pupille wird im einzelnen im folgenden unter Bezugnahme auf Fig. 17 beschrieben. Der Augapfel 80 kann als ein Modell einer zusammengesetzten Sphäre betrachtet werden, bei dem transparente Sphären mit unterschiedlichen Radien einander überlappen, wobei ihre Mittelpunkte in einem Abstand voneinander angeordnet sind. Es sei ein Fall angenommen, in dem der Augapfel 80, der auf der optischen Achse des Aufnahmeobjektives 86 liegt, beleuchtet wird und das davon reflektierte Licht aufgefangen werden soll. Ein offener Abschnitt der Iris 81 des Augapfels 80 ist die Pupille 85. Das von einer Lichtquelle 87 emittierte Licht tritt in den Augapfel durch die Pupille 85 ein, wird an der Hornhaut reflektiert, geht durch die Pupille 85 und erreicht eine diffus reflektierende Oberfläche 82, die der Netzhaut entspricht. Ein Teil des Lichtes wird von den Netzhautzellen absorbiert. Der Rest des Lichtes wird hier zerstreut und reflektiert. Ein Teil des reflektierten Lichtes, der wieder durch die Pupille 85 gehen kann, kehrt ungefähr in die Richtung der Lichtquelle zurück. Wenn daher das Aufnahmeobjektiv 86 in dieser Richtung zum Auffangen des reflektierten Lichtes angeordnet ist, ist der der Pupille 85 entsprechende Teil in dem aufgenommenen Bild hell.
- Wenn jedoch das Aufnahmeobjektiv 86 entfernt von der Lichtquelle 87 angeordnet ist, wird es schwierig, ausreichend das reflektierte Licht aufzufangen, und die Fläche, die in dem Abschnitt der Pupille 85 hell ist, hat eine einmalige Form. Wie in Fig. 17 gezeigt ist, wird, wenn die Lichtquelle 87 nahe der optischen Achse des Aufnahmeobjektives 86 angeordnet ist, die helle Fläche in der Pupille 85 größer, wie in Fig. 18B gezeigt ist. Wenn jedoch die Lichtquelle entfernt von dem Aufnahmeobjektiv 86 ist, wie es durch 88 dargestellt ist, die helle Fläche ist deutlich schräger, wie in Fig. 18A gezeigt ist. Die Mitte der Pupille 85 kann nicht richtig dargestellt werden, selbst wenn die Schwellenwerttätigkeit durchgeführt wird zum Auffinden der Mitte, da die Helligkeit des Pupillenbildes nicht gleichförmig ist. Daher kann möglicherweise ein Fehler beim Augenverfolgen auftreten. Im Hinblick auf die Genauigkeit beim Augenverfolgen wird es insbesondere gewünscht, daß die Pupille 85 mit gleichförmiger Helligkeit aufgenommen wird.
- Daher ist es bevorzugt, die Lichtquelle in 87 nahe und um die optische Achse des Aufnahmeobjektives 86 angeordnet sind. Fig. 18C zeigt schematisch das Pupillenbild, das unter Benutzung des in Fig. 11 gezeigten Beleuchtungsgerätes 61 aufgenommen worden ist. Die in Fig. 11 gezeigten lichtemittierenden Dioden 66 dienen zum Aufnehmen eines speziellen Teiles der Pupille 85 als hell, wie in Fig. 18A gezeigt ist. Das durch die Summe der Funktionen der lichtemittierenden Dioden 66, die um die optische Achse angeordnet sind, aufgenommene Pupillenbild ist 26 gleichförmig hell. Die Anordnung, die die Lichtquellen 87 nahe der optischen Achse des Objektives aufweist, wird nur realisiert, wenn kompakte und effektive Lichtquellen wie lichtemittierende Dioden 66 benutzt werden.
- Es wird Bezug genommen auf Fig. 19 die Bedingungen zum gleichförmigen hellen Aufnehmen der Pupille wird im folgenden beschrieben. Hauptsächliche Parameter, die die Bedingungen der Bildaufnahme beeinflussen, sind wie folgt.
- (1) Positionen d, g des Augapfels, wobei die Position der Mitte des Objektives eine Referenz ist, und Rotationswinkel ξ des Augapfels
- (2) Position der Lichtquelle
- Von den oben erwähnten Parametern ist der Parameter (1) durch die Umgebungsbedingung definiert, in der das Augenverfolgungsverfahren eingesetzt wird. Bei der Schnittstellenumgebung beträgt die Position D des Augapfels 50 cm bis 200 cm, die Position g des Augapfels beträgt ±30 cm und der Rotationswinkel beträgt ±20º. Unter solchen Bedingungen wird die Bedingung der Anordnung der Lichtquellen zum Aufnehmen von mindestens einem Teil der Pupille als hell, wie in Fig. 18A und 18B gezeigt ist, durch Experimente gefunden. Die Bedingung wird nämlich durch einen Winkel θ definiert, der durch eine Linie, die die entsprechenden Lichtquellen mit dem aufzunehmenden Objekt verbindet, und die Linie, die die Mitte des Objektives mit dem Augapfel verbindet, definiert, wobei der Winkel θ gleich θth1 (5º) oder weniger ist.
- Wenn der Winkel nicht weniger als θth2 (6º) ist, weist die Pupille keinen Teil mehr auf, der hell aufgenommen wird. Ob die Pupille hell oder dunkel aufgenommen wird, wird nämlich durch den Winkel θ bestimmt, wobei der Grenzwert 5º ist. Die Werte von θth1 und θth2 werden in Abhängigkeit von den Bedingungen der Umgebung gesetzt. Daher sollten bei dem Beleuchtungsgerät 61 zum Aufnehmen eines hellen Pupillenbildes die entsprechenden Lichtquellen um die optische Achse des Objektives mit einem Winkel von nicht mehr als θth1 gesetzt werden. Was die Zahl der Lichtquellen betrifft, je mehr desto besser. Bevorzugt können drei oder mehr Lichtquellen benutzt werden.
- Unter Benutzung des Referenzbildes, das durch Subtraktion zwischen dem Bild, bei dem die Pupille hell aufgenommen ist, und dem Bild, bei dem die Pupille dunkel aufgenommen ist, vorgese hen wird, kann der Teil der Pupille gegen den Hintergrund hervorgehoben werden.
- Fig. 20A bis 20C zeigen Beispiele von Bildern, die mit dem in Fig. 10 gezeigten Gerät aufgenommen sind. Fig. 20A ist ein Bild, das von dem CCD-Bildaufnahmeelement 612 aufgenommen ist, während Fig. 20B das Bild ist, das von dem CCD-Bildaufnahmeelement 614 aufgenommen ist. Durch Unterwerfen einer Schwellenwerttätigkeit des subtrahierten Bildes kann der Teil der Pupille mit hohem Signal/Rauschverhältnis herausgezogen werden, wie in Fig. 20C gezeigt ist.
- Bei einer Ausführungsform der vorliegenden Erfindung wird die Pupille hell aufgenommen, indem das an der Netzhaut des Augapfels aus der Pupille reflektierte Licht aufgenommen wird. Diese Technik kann zum Herausziehen von Merkmalspunkten benutzt werden. Genauer, bei einem Verfahren des Erfassens der Position und der Richtung des Gesichtes von jemandem durch Anbringen von Markierungen auf dem Gesicht und Herausziehen dieser Markierungen können transparente Kugeln als die Markierungen benutzt werden.
- Fig. 21 zeigt ein Beispiel der an einem Gerät angebrachten Markierung. Es wird Bezug genommen auf Fig. 21, eine diffus reflektierende Schicht 91 wird durch Anbringen einer Beschichtung wie eine weiße Farbe auf einer Glaskugel 90 gebildet. Eine Beschichtung wie eine schwarze Farbe wird weiter darauf aufgebracht zum Vorsehen einer lichtabsorbierenden Schicht 92. Das Licht tritt in die Glaskugel 90 durch einen Öffnungsabschnitt ein, wird an der Krümmung des Öffnungsabschnittes reflektiert und erreicht die zerstreuende Oberfläche. Obwohl kein Bild durch das einfallende Licht auf der zerstreuende Oberfläche gebildet wird, wird das einfallende Licht gesammelt, wie in Fig. 21 gezeigt ist, da die Krümmung des Öffnungsabschnittes als eine Linse dient. Das von der zerstreuenden Oberfläche reflektierte Licht wird ungefähr in die Richtung des einfallenden Lichtes reflektiert, da die Krümmung als die Linse dient, wenn das Licht durch den Öffnungsabschnitt hindurchgeht.
- Da die Richtung des reflektierten Lichtes in der Nähe des einfallenden Lichtes ist, wenn das reflektierte Licht durch das Bildaufnahmegerät von Fig. 10 aufgenommen wird, wird der Öffnungsabschnitt heller als die Umgebung in dem durch das CCD- Bildaufnahmeelement 612 aufgenommenen Bild aufgenommen. Da das reflektierte Licht, das von dem Licht des Beleuchtungsgerätes 62, das getrennt von dem Aufnahmeobjektiv 65 vorgesehen ist, abgeleitet ist, nicht durch die Kamera 60 aufgenommen wird, wie es in dem Fall des Augapfels ist, wird der Öffnungsabschnitt in dem von den CCD-Bildaufnahmeelementen 613 und 614 aufgenommenen Bildern dunkel. Daher kann durch die Subtraktionstätigkeit zwischen den zwei verschiedenen Bildern der Öffnungsabschnitt als der Merkmalspunkt herausgezogen werden. Auf diese Weise kann der Öffnungsabschnitt der Glaskugel 90 auf ähnliche Weise wie das Herausziehen der Pupille herausgezogen werden. Eine Glaskugel 90 mit einem Durchmesser von 3 bis 5 mm kann benutzt werden, wobei sie bevorzugt an einem Teil des Gesichtes angebracht wird, an dem sich die Haut nicht sehr viel bewegt, oder die Glaskugel kann in das Gestell einer Brille eingebettet werden.
- Fig. 22 ist eine Querschnittsansicht, die ein anderes Beispiel der Markierung zeigt. Es wird Bezug genommen auf Fig. 22, die Markierung 93 ist ein Kreis mit einem Durchmesser von ungefähr 2 bis 5 mm, der durch Bearbeiten von Glas gebildet wird. Ein Film 94, der Licht mit einer Wellenlänge länger als 900 nm durchläßt und Licht mit einer Wellenlänge nicht länger als 900 nm reflektiert, ist auf der Oberfläche gebildet, und die rückseitige Oberfläche ist eine diffus reflektierende Oberfläche 95. Daher wird Licht mit einer Wellenlänge länger als 900 nm zerstreut und reflektiert durch die hintere Oberfläche, so daß es von der Kamera aufgefangen werden kann, Das Licht mit einer Wellenlänge nicht langer als 900 nm wird auf der Oberfläche der Markierung 93 reflektiert. Wenn jedoch die Richtung der Reflexion unterschiedlich von der Richtung des Aufnahmeobjektives ist, wird das Licht nicht aufgenommen. Da zusätzlich dieses Licht regulär reflektiert ist, kann es unter Benutzung eines Polarisators abgeschnitten werden. Bei dem Bild, das von dem in Fig. 10 gezeigten CCD-Bildaufnahmeelement 612 aufgenommen wird, wird der markierte Abschnitt hell. Bei dem von dem CCD- Bildaufnahmeelement 613 aufgenommenen Bild, wird die Markierung dunkel. Dadurch kann durch Subtraktion dieser Bilder der markierte Abschnitt als auch die Pupille herausgezogen werden.
- Fig. 23 zeigt ein Bildaufnahmegerät mit einem elektrischen Verschluß. Es wird Bezug genommen auf Fig. 23, eine Kamera 101 vom Typ mit elektrischen Verschluß weist ein Objektiv 102, einen elektrischen Verschluß 103, ein optisches Gerät 104 zum Trennen von Bildern entsprechend der Wellenlänge, ein Bildaufnahmeelement 105 zum Aufnehmen von Bildern mit der Wellenlänge λ&sub1; und ein Bildaufnahmeelement 106 zum Aufnehmen von Bildern mit der Wellenlänge λ&sub2; auf. Die Ausgangssignale von dem Bildaufnahmeelement 105 werden an einen Speicher 107 angelegt, während die Bildaufnahmeausgangssignale von dem Bildaufnahmeelement 106 an einen Speicher 108 angelegt werden. Die Speicher 107 bzw. 108 speichern die Bildaufnahmeausgangssignale. Ein Bildverarbeitungsgerät 109 verarbeitet Bildausgangssignale, die in dem Speicher 107 bzw. 108 gespeichert sind, und gibt zum Beispiel die Differenz zwischen ihnen aus. Der elektrische Verschluß 103 und die Bildaufnahmeelemente 105 und 106 werden durch eine Steuereinheit 110 gesteuert, die durch einen Mikrocomputer zum Beispiel gebildet ist. Ein Beleuchtungsgerät 111 weist ein Beleuchtungsgerät 113, das Licht mit der Wellenlänge λ&sub1; emittiert, und ein Beleuchtungsgerät 115, das Licht mit der Wellenlänge λ&sub2; emittiert, auf, die durch Treiberschaltungen 112 bzw. 114 unter der Steuerung der Steuereinheit 110 betrieben werden.
- Fig. 24 und 25 zeigen Zeitpunkte des Treibens des Bildaufnahmegerätes und des Beleuchtungsgerätes, die in Fig. 23 gezeigt sind. Die Kamera 101 vom Typ des elektrischen Verschlus ses, die in Fig. 23 gezeigt ist, kann ein sich bewegendes Objekt mit keiner oder nur wenig Verwaschung aufnehmen. Das Konzept der Kamera ist wie folgt. Der elektrische Verschluß 103 wird während einer kurzen Zeitdauer zum Belichten der Bildaufnahmeelemente 105 und 106 geöffnet. Bildsignale werden zeitweilig in den Bildaufnahmeelementen 105 und 106 während einer kurzen Zeitdauer 116 gespeichert, zum Beispiel 1 msec, wie in Fig. 24(b) gezeigt ist. Danach werden zu dem Zeitpunkt 117, der in Fig. 24(a) gezeigt ist, die Bildsignale, die von den Bildaufnahmeelementen 105 und 106 ausgegeben sind, zu den Speichern 107 und 108 übertragen. Am Ende der Signalübertragung wird der elektrische Verschluß 103 wieder geöffnet, die Bildaufnahmeelemente 105 und 106 werden belichtet und der Betrieb wiederholt. Bei der in Fig. 23 gezeigten Kamera 101 vom Typ des elektrischen Verschlusses muß ein Bildaufnahmeelement mit einer hohen Empfindlichkeit als die Bildaufnahmeelemente 105 und 105 benutzt werden. Das Licht muß intensiver werden, wenn die Verschlußzeit kürzer wird. Der Einsatz des Beleuchtungsgerätes 111 in solch einem Gerät sieht die folgenden Vorteile vor.
- Die lichtemittierenden Dioden können nämlich mit hoher Geschwindigkeit ein- und ausgeschaltet werden, ein größerer Strom kann dadurch bei einem unterbrochenen Treiberbetrieb im Vergleich mit dem kontinuierlichen Treiben fließen, und daher kann das von der Diode vorgesehene Licht intensiver sein. Daher kann zu dem Zeitpunkt der Belichtung des Bildaufnahmeelementes 105 und 106 ausreichend Licht emittiert werden. Auf diese Weise erfüllt das Beleuchtungsgerät 111, das lichtemittierende Dioden verwendet, die Anforderung an eine intensive Beleuchtung während einer kurzen Zeitdauer, was für die Kamera 101 vom Typ des elektrischen Verschlusses wünschenswert ist.
- Die Belichtungszeit einer Bildebene der Bildaufnahmeelemente 105 und 106 ist in dem Bereich von 33 msec bis 0,5 msec. Wenn ein Fall angenommen wird, in dem 30 Bilder pro Sekunde mit einer minimalen Belichtungszeit von 1 msec oder 0,5 msec aufgenommen werden, ist die Belichtungszeit nicht mehr als 1/1000 im Vergleich mit der kontinuierlichen Beleuchtung. In diesem Fall leitet eine lichtemittierende Diode, die nur ungefähr 50 mA leitet, wenn sie kontinuierlich betrieben wird. Strom von etlichen A durch den unterbrochenen Betrieb. Daher kann die für die Belichtung notwendige Beleuchtung sichergestellt werden.
- Bei dem Bildaufnahmegerät sollte externe Beleuchtung bevorzugt abgeschnitten werden, da sie Rauschen verursacht. Ein Effekt der Reduzierung der Belichtungszeit ist der, daß die Intensität der externen Beleuchtung relativ niedrig im Vergleich mit der Intensität des Beleuchtungsgerätes wird. Daher ist die Reflexionskomponente, die von der externen Beleuchtung abgeleitet wird, relativ klein und folglich wird die Rauschkomponente kleiner und das Signal/Rauschverhältnis besser. Da zusätzlich die Beleuchtung der notwendigen Intensität nur vorgesehen wird, wenn sie notwendig ist, kann der Leistungsverbrauch verringert werden und weniger Wärme wird erzeugt.
- Als ein anderes Beispiel des unterbrochenen Antreibens wird ein Verfahren zum Entfernen reflektierter Komponenten, die von einer externen Beleuchtung stammen, im folgenden beschrieben.
- Fig. 25 zeigt Zeitpunkte zum Antreiben des Beleuchtungsgerätes. Bei diesem Beispiel wird die Bildaufnahme in einer Zeitunterteilung durchgeführt, wobei zwei Bilder als ein Satz angenommen werden. Die zum Aufnehmen einer Bildebene benötigte Zeit beträgt 33 msec zum Beispiel, die durch A1 und A2 dargestellt ist. Zu der Zeit der Bildaufnahme A1 ist das Beleuchtungsgerät eingeschaltet. Zu der Zeit der Bildaufnahme A2 ist das Beleuchtungsgerät ausgeschaltet. Die zu den Zeiten A1 und A2 aufgenommenen Bilder sind beide durch die externe Beleuchtung beleuchtet. Unter der Annahme, daß die Bedingung der externen Beleuchtung die gleiche ist zu den Zeiten A1 und A2 kann das Bild, bei dem das Beleuchtungsgerät eingeschaltet ist, herausgezogen werden, indem das Bild zu der Zeit A2 von dem zu der Zeit A1 aufgenommenen Bild abgezogen wird.
- Ein Bildverarbeitungsgerät, bei dem Merkmalspunkte eines Objektes, das aufzunehmen ist, in Echtzeit herausgezogen werden, das heißt mit 30 Bildern/sec wird im folgenden als eine Anwendung beschrieben. Wenn eine Bewegung einer Person in Echtzeit zu erfassen ist, muß das Verfahren zum Bildaufnehmen, das das Herausziehen der Merkmalspunkte erleichtert, ausgewählt werden, wie ein Aufbringen von Markierungen auf dem Gesicht oder des Körpers oder das Vorsehen von Referenzlicht. Diese Auswahl ist jedoch nicht ausreichend für Echtzeiterfassung. Der Hochgeschwindigkeitsbetrieb des Bildverarbeitungsgerätes ist wesentlich. Die oben beschriebenen Merkmalspunkte können leicht durch den Subtraktionsbetrieb zwischen zwei Bildern herausgezogen werden.
- Fig. 26A ist ein schematisches Blockschaltbild, das eine Gesamtanordnung eines Bildverarbeitungsgerätes zeigt, bei dem Merkmalspunkte in Echtzeit durch Verwendung des Bildaufnahmegerätes erfaßt werden. Fig. 26B ist ein spezielles Blockschaltbild des in Fig. 26A gezeigten Bildverarbeitungsgerätes.
- Es wird Bezug genommen auf Fig. 26A, R-, G- und B-Bildsignale, die durch Kameras 121 und 122 für das nahe Infrarot aufgenommen worden sind, werden entsprechend an die Bildverarbeitungsgeräte 123 und 124 angelegt, darin verarbeitet und an einen Host- Rechner 125 angelegt. Die Bildverarbeitungsgeräte 123 und 124 sind strukturiert, wie in Fig. 26B gezeigt ist. Das Bildverarbeitungsgerät 123 besteht grundsätzlich aus einem Modul 130, in dem ein Zeitsignal für eine Pipeline-Verarbeitung aus eingegebenen Signalen gebildet wird. Andere Eingangsmodule 131 und 132 und verschiedene Pipeline-Prozessormodule 153, 154, 155 und 156, die mit dem Modul 130 verbunden sind, sind parallel tätig. Die Kamera 121 für nahes Infrarot weist CCD-Bildaufnahmeelemente 612, 613 und 614 auf, wobei die Bildsignale von denen getrennt an die Module 130, 131 bzw. 132 angelegt werden. Die Module 130, 131 und 132 wandeln die Bildsignale in Bildpunktdaten durch A/D-Wandlung in Synchronisation mit den Ausgangssignalen von den CCD-Bildaufnahmeelementen 612, 613 bzw. 614 um, und die Bildpunktdaten werden aufeinanderfolgend an die Pipeline- Prozessormodule 133, 134, 135 und 136 über Videobusse angelegt. Jedes der Pipeline-Prozessormodule 133, 134, 135 und 136 weist eine Mehrzahl von Eingängen auf. Zum Beispiel führt bei einer Subtraktionstätigkeit zwischen zwei Bildern das Pipeline- Prozessormodul 133 die Subtraktion in B-R und eine Schwellenwerttätigkeit aus. Der Pipelineprozessor 134 führt eine Subtraktion B-G und die Schwellenwertverarbeitung aus. Der Pipelineprozessor 135 nimmt die in den Pipeline-Prozessoren 133 und 134 verarbeiteten Bildsignale auf, und der Pipelineprozessor 136 berechnet den Schwerpunkt der herausgezogenen Merkmalspunkte.
- Die berechneten Schwerpunktskoordinaten werden durch einen Zwischenverstärker 138 an den Host-Rechner 125 zum Erfassen der Augenfixierung übertragen. Auf diese Weise werden die A/Dgewandelten Bildpunktdaten durch eine Mehrzahl von Pipeline- Prozessormodule 133 bis 136 bearbeitet, während ein Bild aufgenommen wird. Die zum Bearbeiten eines Bildes benötigte Zeit ist die Zeit von 33 msec, in der der letzte Bildpunkt aufgenommen ist plus die Verzögerungszeit bei der Pipelineverarbeitung. Die Eingangsmodule 130, 131 und 132 können das Aufnehmen des nächsten Bildes beginnen, sobald sie den letzten Bildpunkt zu dem Prozessor übertragen haben. Daher kann bei einer Bildverarbeitung, die durch einfache vier Regeln realisiert wird (Subtraktionsprozeß zwischen Bildern), die Echtzeitverarbeitung in der Rate von 33/sec mit einer Verzögerungszeit von 33 msec + α realisiert werden.
- Die Anwendung an ein aktives Stereosehen, bei dem ein Formenmuster das aufzunehmende Objekt beleuchtet als das Referenzlicht und die dreidimensionale Form des Objektes gemäß der Änderung in dem reflektierten Muster entsprechend dem für die Beleuchtung benutzten Muster berechnet wird, als anderes Beispiel der Anwendung auf das Gebiet, das nicht augenverfolgend ist.
- Fig. 27, 28 und 29 zeigen eine Anwendung auf die aktive Stereosehmessung. Es wird Bezug genommen auf Fig. 27, Referenzlicht, das von einem Beleuchtungsgerät 141 emittiert ist, das lichtemittierende Dioden als Lichtquellen verwendet, beleuchtet ein Objekt 145 durch ein Linsensystem 142, ein Formenmuster 143 und einen Polarisator 144. Das Objekt ist zum Beispiel das Gesicht einer Person, das Formenmuster 143 sieht zum Beispiel wie Fig. 28 gezeigt aus, und das Referenzlicht von der Lichtquelle 141 projiziert das Muster 146 des Formenmuster 143 auf das Objekt 145 durch das Linsensystem 142. Das von dem Objekt 145 reflektierte Licht geht durch die Aufnahmelinse 151 und den Polarisator 152 so, daß ein Bild auf dem Bildaufnahmeelement 153 gebildet wird. Die polarisierende Oberfläche des Polarisators 152 ist um 90º gegen die polarisierende Oberfläche des Polarisators 144 gedreht.
- Fig. 29 zeigt ein Bild des auf das Objekt 145 projizierten Musters, das von dem Bildaufnahmeelement 153 aufgenommen ist. Allgemein weist das Objekt 145 glatte Teile auf. Das Referenzlicht wird auf diesen Abschnitten regulär reflektiert, so daß die regulär reflektierten Bilder, die das projizierte Muster stören, allgemein in dem projizierten Bild von Fig. 29 im Stand der Technik ohne Polarisation auftauchen. Bei diesem Verfahren jedoch, bei dem das Referenzlicht zur Beleuchtung polarisiert ist und die regulär reflektierte Komponente von dem reflektierten Licht abgeschnitten ist, können die Rauschkomponenten, die von den regulär reflektierten Bildern herrühren, verringert werden, wodurch das Formenmusterbild, das die Merkmalsinformation der Form des Objektes wiedergibt, effektiv herausgezogen werden kann, wie in Fig. 28 gezeigt ist.
- Das Augenverfolgungsgerät wird im folgenden beschrieben, und die Augenfixierung wird vor der detaillierten Beschreibung des Gerätes beschrieben.
- Fig. 30 zeigt schematisch den Aufbau eines Augapfels. Es wird Bezug genommen auf Fig. 30, eine transparente Schicht, die die vordere Oberfläche des Auges bedeckt, ist die Hornhaut 161. Das Sammeln des Lichtes auf der Netzhaut 162 wird hauptsächlich durch die Hornhaut 161 ausgeführt. Feineinstellung (Einstellen der Funktion) zum Fokussieren eines Objektes wird durch Ändern der Dicke einer Linse 163 durchgeführt. Ein Abschnitt, der Fovea 164 genannt wird, der die höchste Auflösung auf der Hornhaut 162 aufweist, existiert an einem Punkt einer Linie, die durch die Hornhaut 161 und die optische Achse der Linse 163 geht. Wenn eine Person ein Objekt betrachtet, bewegt sich das Auge derart, daß das Bild des Objektes auf der Fovea 164 gebildet wird. Daher können wir annehmen, daß die visuelle Achse ungefähr auf der ein Bild herstellenden optischen Achse liegt. Das Zentrum der Pupille 165 und das Rotationszentrum des Augapfels sind ebenfalls in der Nähe der optischen Achse. Daher ist Augenverfolgen grundsätzlich möglich durch Berechnen der Position des Zentrums der Pupille und des Zentrums des Augapfels. In dem folgenden wird der Algorithmus des Augenverfolgens beschrieben, wobei die visuelle Achse als die Linie angesehen wird, die das Zentrum des Augapfels und das Zentrum der Pupille verbindet. Die Korrektur für den Fall, in dem die Richtung der visuellen Achse von der Linie im engeren Sinne unterschiedlich ist, wird später beschrieben.
- Die Stereosehmessung, bei der ein Weltkoordinatensystem auf einem Anzeigeschirm vorgesehen ist, das der Benutzer betrachtet, und die Positionen der oben beschriebenen Merkmalspunkte, die für das Augenverfolgen notwendig sind, werden auf diesem Koordinatensystem gemessen, wie im folgenden beschrieben wird.
- Fig. 31 stellt die Stereosehmessung dar. Es wird Bezug genommen auf Fig. 31, , , stellt das Weltkoordinatensystem 161 dar, das mit dem Anzeigeschirm überlappt. Ein Spiegel ist parallel zu der - -Ebenen an einer vorgeschriebenen Position in der Richtung der -Achse des Weltkoordinatensystems 161 nur dann eingeführt, wenn das Stereomeßsystem zu kalibrieren ist.
- (X, Y, Z) stellt das Koordinatensystem dar, das eine Projektion des Weltkoordinatensystems 161 ist, wobei die - -Ebenen davon von dem Spiegel 164 projiziert wird. Es wird ein Objektkoordinatensystem 162 genannt. (x, y, z) stellt ein Koordinatensystem 163 der Kamera dar, wobei der Nullpunkt o der Hauptpunkt der Linse ist. Eine Bildaufnahmeoberfläche 165 ist in einem Abstand der Fokallänge f von dem Hauptpunkt o positioniert. Das durch die Kamera aufzunehmende Objekt ist das Objektkoordinatensystem 162, das das Spiegelbild des Weltkoordinatensystemes 161 ist. Das Objektkoordinatensystem 162 ist nämlich der Anzeige zugewandt, und der Benutzer kann nahe seiner Position sitzen in der Umgebung der Schnittstelle.
- Es ist die letzte Aufgabe der vorliegenden Erfindung, die Augenbewegung in dem Gebiet der Schnittstelle zu benutzen, und daher ist das Augenverfolgen in dem Anzeigenkoordinatensystem notwendig. Folglich müssen die Merkmalspunkte der Person genau in dem Anzeigenkoordinatensystem gefunden werden. Im allgemeinen ist, wenn die Positionen der Merkmalspunkt, die in dem Kamerakoordinatensystem 163 genommen werden, die in ein von dem Kamerakoordinatensystem 163 unterschiedliches Kamerakoordinatensystem umzuwandeln sind, eine Kalibrierung notwendig. Bei der Kalibrierung wird ein Punkt, dessen Position zuvor bekannt ist, in einem Koordinatensystem vorbereitet, in das die Position umzuwandeln ist, der Punkt wird von der Kamera aufgenommen und die Parameter für die Umwandlung werden berechnet. Da die Messung bevorzugt in dem Anzeigenkoordinatensystem gemäß der Aufgabe der vorliegenden Erfindung auszuführen sein sollte, wird die Kalibrierung realisiert, indem grundsätzlich ein Punkt angezeigt wird, dessen Position auf der Anzeige definitiv ist, und durch Aufnehmen des Punktes durch die Kamera. In dem Fall ist die Kamera natürlicherweise jedoch der Anzeige zugewandt und kann nicht den Benutzer aufnehmen, der der Anzeige zugewandt ist.
- Daher ist ein Spiegel 164 vor dem Weltkoordiantensystem 161 zu der Zeit der Kalibrierung vorgesehen, wie in Fig. 31 gezeigt ist, und das virtuelle Bild auf dem Spiegel wird als Daten für die Kalibrierung benutzt. Das virtuelle Bild wird von der Kamera aufgenommen, und die räumliche Position des virtuellen Bildes wird genau in dem Weltkoordinatensystem 161 gefunden. Der Punkt in dem Weltkoordinatensystem 161 wird durch den Spiegel 164 reflektiert und erscheint als der Punkt P in dem Objektkoordinatensystem 162, wie in Fig. 31 gezeigt ist. Das Licht wird von dem Spiegel 164 reflektiert, wie durch den Pfeil (1) in Fig. 31 dargestellt ist. Gesehen von dem Kamerakoordinatensystem 163 wird das Licht gemessen, als ob es von dem Koordinatensystem 162 kommt, wie durch den Pfeil (2) dargestellt ist.
- Der Spiegel 164 ist so angeordnet, daß die Position und die Richtung davon in Verknüpfung mit dem Weltkoordinatensystem 161 definit sind. Indem das getan wird, wird die Umwandlung von dem Weltkoordinatensystem 161 zu dem Objektkoordinatensystem 162 erleichtert. Wenn zum Beispiel der Spiegel 164 orthogonal die Z-Achse des Weltkoordinatensystemes 161 schneidend angeordnet wird, können die räumlichen Positionskoordinaten in dem Objektkoordinatensystem 162 in das Weltkoordinatensystem 161 umgewandelt werden, indem nur das Vorzeichen in der Richtung der Z- Achse umgedreht wird. Wenn die Umwandlung zwischen dem Weltkoordinatensystem 161 und dem Objektkoordinatensystem 162 leicht ist, wird die Umwandlung zwischen dem Kamerakoordinatensystem 163 und dem Weltkoordinatensystem 161, das heißt das Anzeigenkoordinatensystem ermöglicht, indem ein Verfahren der Umwandlung zwischen dem Kamerakoordinatensystem 163 und dem Objektkoordinatensystem 162 aufgestellt wird.
- Daher wird in der folgenden Beschreibung ein Verfahren zum Berechnen der räumlichen Position des Merkmalspunktes P in dem Objektkoordinatensystem 162 auf der Grundlage der Daten der zweidimensionalen Position des von der Kamera in Fig. 31 aufgenommenen Merkmalspunktes beschrieben.
- Zuerst wird die Beziehung zwischen der Koordinate (ξ, η) der Bildaufnahmeoberfläche der Kamera, der Kamerakoordinate (x, y, z) und der Objektkoordinate (X, Y, Z) beschrieben. Wie aus Fig. 31 ersichtlich ist
- wobei f ein Abstand von dem Hauptpunkt der Linse zu der Bildaufnahmeoberfläche ( = Fokallänge) ist. Wenn nämlich die Koordinate des Bildes auf der Bildaufnahmeoberfläche bekannt ist (in der Messung bekannt), ist nur die Richtung des Objektes definit, und der Richtungsvektor des Punktes P in dem Kamerakoordinatensystem 163 in Fig. 31 wird wie folgt dargestellt
- (t ist ein Parameter)...(2)
- unter der Annahme, daß die Koordinate des Punktes P in dem Objektkoordinatensystem 162 P(X, Y, Z) ist, dann
- wenn das Kamerakoordinatensystem 163 als p(x, y, z) dargestellt wird, dann
- wenn die Koordinate des Punktes P auf dem Film als p'(ξ, η) dargestellt wird, dann
- gemäß der Gleichung (2). Genauer
- t ist ein Parameter...(5)
- gemäß den Gleichungen (2) und (3) wird die inverse Transformation dargestellt als
- Es sei ein Fall angenommen, in dem ξ, η, X, Y und Z als Eingaben in die obige Gleichung 6 zum Finden der Positionsparameter R&supmin;¹, f X&sub0;, Y&sub0; und Z&sub0; als Ausgaben gegeben sind. Genauer, das Verfahren des Berechnens der Neigung der Position der Kamera und der Fokallänge in dem Objektkoordinatensystem 162 (X, Y, Z) wird im folgenden beschrieben.
- N Punkte Pi (Xi, Yi, Zi) (i = 1 bis N) der Objektkoordinaten, die bekannt sind, werden aufgenommen und die Positionskoordinaten (ξi, ηi) (i = 1 bis N) des Bildes werden gemessen. Indem das getan wird, werden die Position der Kamera (X&sub0;, Y&sub0;, Z&sub0;), der Rotationswinkel (α, β, γ), die die Richtung der optischen Achse der Kamera und die Neigung der Kamera bestimmen, und die Fokallänge F bestimmt.
- Beim Entwickeln der Gleichung (5) werden die folgenden Gleichungen (7) vorgesehen
- - ξi/f · ti = R&sub1;&sub1;(Xi - X&sub0;) + R&sub1;&sub2;(Yi - Y&sub0;) + R&sub1;&sub3;(Zi - Z&sub0;)
- - ηi/f · ti = R&sub2;&sub1;(Xi - X&sub0;) + R&sub2;&sub2;(Yi - Y&sub0;) + R&sub2;&sub3;(Zi - Z&sub0;)
- ti = R&sub3;&sub1;(Xi X&sub0;) + R&sub3;&sub2;(Yi - Y&sub0;) + R&sub3;&sub3;(Zi - Z&sub0;)
- (i = 1 bis n)... (7)
- Rij (i, j = 1 bis 3) sind Elemente einer Drehmatrix, in der
- R&sub1;&sub1; = cosß cosγ
- R&sub1;&sub2; = sinα sinß cosγ + cosα sinγ
- R&sub1;&sub3; = -cosα sinß cosγ + sinα sinγ
- R&sub2;&sub1; = -cosß sinγ
- R&sub2;&sub2; = -sinα sinß sinγ + cosα cosγ
- R&sub2;&sub3; = cosα sinγ sinγ + sinα cosγ
- R&sub3;&sub1; = sinβ
- R&sub3;&sub2; = -sinα cosß
- R&sub3;&sub3; = -cosα cosß
- Indem die dritte Gleichung für die erste und zweite Gleichung der oben beschriebenen Gleichungen (7) ersetzt wird, um den Ausdruck ti, zu eliminieren, werden die folgenden Gleichungen (9) vorgesehen.
- (R&sub1;&sub1; + ξi/f · R&sub3;&sub1;)(Xi - X&sub0;) + (R&sub1;&sub2; + ξi/f · R&sub3;&sub2;)(Yi - Y&sub0;)
- + (R&sub1;&sub3; + ξi/f · R&sub3;&sub3;)(Zi - Z&sub0;) = 0
- (R&sub2;&sub1; + ηi/f · R&sub3;&sub1;)(Xi - X&sub0;) + (R&sub2;&sub2; + ηi/f· R&sub3;&sub2;)(Yi - Y&sub0;)
- + (R&sub2;&sub3; + ηi/f · R&sub3;&sub3;)(Zi - Zi) = 0
- (i = 1 bis N)... (9)
- Die zu berechnenden Unbekannten sind (X&sub0;, Y&sub0;, Z&sub0;), (α, β, γ) und f. Daher muß N ≥ 4 sein. Tatsächlich wird der genaueste Wert durch das Verfahren der kleinsten Fehlerquadrate bestimmt, wie in der Lösung im folgenden gezeigt wird, und daher sollte der Wert N relativ groß sein. Die Lösung wird im folgenden beschrieben. Aufgrund des Fehlers in der Messung ist die linke Seite der Gleichung (9) nicht 0 sondern σi und εi. Daher kann die Lösung berechnet werden, indem die Summe der Fehlerquadrate (σi² + εi²) minimiert wird.
- Auf diese Weise können durch Aufnehmen einer Mehrzahl von Punkten der räumlichen Positionen, die bekannt sind, durch eine Kamera die Kamerakoordinate, die Richtung der Kamera und die Fokallänge in dem Objektkoordinatensystem 162 berechnet werden. Da das Objektkoordinatensystem 162 leicht in das Weltkoordinatensystem 163 umgewandelt werden kann, können die Parameter für die Messung für das Weltkoordinatensystem 161 berechnet werden. Die Messung der dreidimensionalen Position wird im folgenden beschrieben.
- Fig. 32 und 33 stellen ein Verfahren zum Berechnen einer dreidimensionalen Position eines von zwei Kameras aufgenommenen Bildes dar, die willkürlich in dem Weltkoordinatensystem angeordnet sind.
- Es wird Bezug genommen auf Fig. 32, die Koordinaten ( 0i, 0i, 0i) der Hauptpunkte des Kameraobjektives, der Dreh winkel (αi, βi, γi), die die Richtungen der optischen Achse und die Neigungen der Kameras 165 und 166 definieren, und die Fokallänge fi (i = 1 bis 2) der zwei Kameras 165 und 166 sind in dem Weltkoordinatensystem bekannt. Wenn ein Punkt P ( , , ) in dem Weltkoordinatensystem 161 von den zwei Kameras 165 und 166 aufgenommen wird, werden die Koordinaten der durch diese zwei Kameras aufgenommenen Bilder entsprechend als (ξ&sub1;, η&sub1;) und (ξ&sub2;, η&sub2;) dargestellt. Wenn wir die Richtungsvektoren von den Bildern (ξi, ηi) zu den Hauptpunkten des Objektives als A&sub1; und A&sub2; darstellen, dann
- P1 = A&sub1;t&sub1; + X&sub0;&sub1;
- P2 = A&sub2;t&sub2; + X&sub0;&sub2; (t&sub1;, t&sub2; sind Parameter)... (10)
- Gemäß der Gleichung (6) können A&sub1; und A&sub2; als
- dargestellt werden, wobei die Werte A&sub1;, A&sub2;, X&sub0;&sub1;, X&sub0;&sub2; bekannt sind, da sie in der obenbeschriebenen Kalibrierung berechnet werden. Daher können die Wert P&sub1; und P&sub2; definiert werden, wenn die Werte t&sub1; und t&sub2; berechnet werden. Wenn es keine Fehler gibt, ist der P&sub1; gleich P&sub2;, so daß die Gleichungen (10) durch Ersetzen von P&sub1; = P&sub2; gelöst werden kann. Die Werte t&sub1; und t&sub2; können durch die Gleichungen (10) berechnet werden. Da jedoch der Wert P&sub1; nicht gleich dem Wert P&sub2; ist wegen der Fehler in der Messung, wird der nächste Punkt berechnet. Auf diese Weise kann die räumliche Position eines willkürlichen Punkte in dem Weltkoordinatensystem unter Benutzung zweier Bilder gemessen werden.
- Ein Augenverfolgungsverfahren, das die Position und die Richtung des Gesichtes und die zentralen Positionen der Pupille und des dunklen Abschnittes des Auges benutzt, wird im folgenden beschrieben. Die Richtung der visuellen Achse kann als eine Linie berechnet werden, die die Koordinate des Zentrums des Augapfels und die Koordinate der Pupille verbindet. Da die Pupille direkt von der Kamera aufgenommen werden kann, das Weltkoordinatensystem davon gemäß dem Algorithmus des oben beschriebenen Stereosehmessens vorgesehen werden. Obwohl das Zentrum des Augapfels nicht direkt gemessen werden kann, wird angenommen, daß die Position des Zentrums des Augapfels in einem Kopfkoordinatensystem fest ist, das aus drei Merkmalspunkten auf dem Gesicht besteht. Daher wird die Koordinate des Zentrums des Augapfels, die in dem Kopfkoordinatensystem gegeben ist, in das Weltkoordinatensystem 161 umgewandelt.
- Fig. 34 zeigt eine Ausführungsform des Augenverfolgens. Bei der oben beschriebenen Stereosehmessung kann das Weltkoordinatensystem 161 als das Anzeigekoordinatensystem in Fig. 34 angesehen werden. Indem dieses Verfahren benutzt wird, können die räumlichen Positionen aller Merkmalspunkte, die direkt durch die Kamera aufgenommen werden können, in dem Weltkoordinatensystem 161 gefunden werden.
- Es wird Bezug genommen auf Fig. 34, in dem Kopfkoordinatensystem ist der Nullpunkt an dem Zentrum PG eines Dreieckes (P&sub1;, P&sub2;, P&sub3;), und die Richtung eines Segmentes, das P&sub1; und P&sub2; verbindet, wird als die x-Achse angesehen, und eine Richtung, die senkrecht die x-Achse schneidet, wird als die y-Achse angesehen, und die normale Richtung des Dreieckes wird als die z- Achse angesehen. Das Bezugszeichen e (xe, ye, ze) stellt einen Positionsvektor des Zentrums des Augapfels 171 in dem Kopfkoordinatensystem dar. Obwohl er gegenwärtig unbekannt ist, ist er ein konstanter Vektor. Die Position von dem Zentrum PG kann durch ein Verfahren oder ein anderes gemessen werden. Der Vektor kann durch Kalibrierung berechnet werden, wie später be schrieben wird. Daher wird im folgenden angenommen, daß der Vektor als Eingangswert gegeben ist.
- Daher sind die Eingangsdaten (1) drei Merkmalspunkte Pi (Xi, Yi, Zi) (i = 1 bis 3) und (2) die Koordinate e (xe, Ye, ze) des Zentrums des Augapfels in dem Kopfkoordinatensystem (x, y, z). Die Ausgangsdaten sind der Weltkoordinatenwert C (xc, yc, zc) des Zentrums des Augapfels. Wenn dieses Resultat bekannt ist, kann die Richtung der Augenfixierung als D (xD, yD, zD) - C(xc, yc, zc) in Fig. 34 berechnet werden.
- Das Problem in dem Vorangehenden ist die Umwandlung des Kopfkoordinatnsystemes (x, y, z) in das Weltkoordinatensystem ( , , ).
- Fig. 35 stellt die Umwandlung der Koordinate einschließlich der Bewegung des Ursprungs und der Drehung der Achse der Koordinate dar. Es wird Bezug genommen auf Fig. 35, die Umwandlung der Koordinate einschließlich der Bewegung des Nullpunktes und der Drehung der Achse der Koordinate wird gemäß der folgenden Gleichung (12) im allgemeinen realisiert.
- Die inverse Transformation wird durch die folgende Gleichung (13) dargestellt.
- Der Wert R&supmin;¹ wird durch die folgende Gleichung (14) dargestellt, wobei angenommen ist, daß das Weltkoordinatensystem um β um die Y-Achse gedreht wird, dann um α um die X-Achse gedreht wird und dann um γ in die Richtung der Z-Achse so, daß es dem Kopfkoordinatensystem entspricht.
- Da der Wert PG(XG, YG, ZG) gemessen wird, sind die Werte sincL, sinß, sinγ, cosα, cosß und cosy zu berechnen. Das Verfahren zum Berechnen dieser Werte wird im folgenden beschrieben.
- Fig. 36 zeigt die Bewegung des Nullpunktes des Weltkoordinatensystemes, der der Merkmalspunkt P&sub1; des in Fig. 34 gezeigten Gesichtes ist. Die z-Richtung des Kopfkoordinatensystemes wird gleich dem normalen Vektor des Dreieckes angenommen, daß durch die drei Punkte auf dem Gesicht gebildet wird. Der Richtungscosinus des normalen Vektors des Dreieckes in dem Weltkoordinatensystem kann durch die folgenden Gleichungen (15) dargestellt werden
- nx = cosθ
- ny = cosφ
- nz = cosφ... (15)
- Diese Werte können auf die folgende Weise auf der Grundlage der Positionskoordinaten der drei Punkte auf dem Gesicht berechnet werden, die in dem Weltkoordinatensystem gemessen sind. Es wird Bezug genommen auf Fig. 35, die Gleichung einer Ebenen wird durch die folgende Gleichung (16) dargestellt.
- A · X + B · Y + C · Z + D = 0... (16) Da der Wert X, Y, Z den drei Punkten Pi(Xi, Yi, Zi) (i = 1 bis 3) entspricht, wird die folgende Gleichung vorgesehen.
- Da die Lösung der Gleichung (17) eine andere ist als A = B = C = D = 0, ist die Matrix der Kooeffizienten gleich 0, so daß die Gleichung der Ebenen die folgende Gleichung (18) wird.
- Genauer
- Daher wird der Normalen Vektor N der Ebenen 170 gleich:
- Der Richtungscosinus (nx, ny, nz) des normalen Vektors des Dreieckes kann auf ähnliche Weise auf der Grundlage der Bedingung berechnet werden, daß das Weltkoordinatensystem um β um die Y- Achse gedreht wird, dann um α um die X-Achse so gedreht wird, daß die Z-Achse der Z-Achse des Kopfkoordinatensystemes entspricht.
- Es wird Bezug genommen auf Fig. 37, das Bezugszeichen (1) stellt die Rotation des Weltkoordinatensystems um die Y-Achse um β dar. Zu der Zeit wird (X, Y, Z) in (X', Y', Z') umgewandelt, was durch die gestrichelten Linien dargestellt ist. Das Bezugszeichen (2) bezeichnet die Rotation des Weltkoordinatensystems um X' um α. Durch diese Tätigkeit fällt die Z'-Achse mit der z-Achse zusammen. Daher wird aus Fig. 37 der Richtungscosinus (nx, ny, nz) wie folgt dargestellt.
- nx = cosα · sinβ
- ny = -sinα
- nz = cosα · sinβ ... (24)
- Auf diese Weise wird die Richtung der z-Achse bestimmt, und eine Bedingung zum Berechnen der Wert sinα, sinβ, sinγ, cosα, cosß, cosγ ist gemäß den Gleichungen (23) und (24) vorgesehen.
- Danach wird, es wird Bezug genommen auf Fig. 37, das Weltkoordinatensystem um γ um die z-Achse (das heißt N) der Kopfkoordinate gedreht, wie durch das Bezugszeichen (3) gezeigt ist, so daß die X'-Achse mit der x-Achse des Kopfkoordinatensystemes überlappt. Es sind nämlich die beiden X- und Y-Achsen parallel zu dem Kopfkoordinatensystem.
- Es sei angenommen, daß der durch P&sub1; P&sub2; und XZ-Ebene gebildete Winkel δ ist, kann die folgende Gleichung angewendet werden und wird aus Fig. 37 verständlich.
- Wenn wir m für die obige Gleichung ersetzen, werden die Rotationswinkel α, β und γ durch die folgende Gleichung (26) gemäß der oben beschriebenen Gleichungen (23), (24) und (25) dargestellt.
- sinα = -ny ,cosα = 1 - n²y
- sinβ = nz/ 1 - n²y , cosß = nz 1 - n²y
- sinγ = m/ 1 - n²y ,cos γ = 1 - n²y - m²/ 1 - n²y
- Der Wert R&supmin;¹ kann durch Ersetzen der Werte der obigen Gleichungen (26) in der Gleichung (20) berechnet werden. Daher kann gemäß der Gleichung (21) der Punkt in dem Kopfkoordinatensystem in das Weltkoordinatensystem umgewandelt werden. Daher kann die Position des Zentrums des Augapfels in dem Weltkoordinatensystem berechnet werden.
- Ein Verfahren zum Augenverfolgen wird im folgenden beschrieben. In der oben beschriebenen Fig. 34 entspricht, wenn der Wert des Zentrums des Augapfels in dem Weltkoordinatensystem berech net wird, das heißt C (XC, YC, ZC) das Segment, daß den Wert C mit der Koordinate D(XD, YD, ZD) der Pupille verbindet, der visuellen Achse. Ein Vektor eines willkürlichen Punktes auf der visuellen Achse kann dargestellt werden als
- A = C + t · (D-C)... (27)
- wobei das Zeichen t einen Parameter darstellt, der einen Abstand zu dem Index bezeichnet, der durch verschiedene Verfahren berechnet werden kann. Wenn die in dem Weltkoordinatensystem vorgesehene Anzeige eine Ebene ist (zum Beispiel die YZ-Ebene in der Anzeigenoberfläche in Fig. 34) werden der Nullpunkt und die Richtung des visuellen Achsenvektors (D-C) berechnet, und daher kann der Punkt, an dem der Vektor die Anzeige trifft, eindeutig in der Anzeigenkoordinate berechnet werden.
- Da die Richtungen der visuellen Achsen des linken und rechten Auges unabhängig bei der vorliegenden Erfindung erfaßt werden können, kann ein Blickpunkt nicht auf einer Ebene ebenfalls erfaßt werden. Es kann nämlich ein räumlicher Blickpunkt herausgezogen werden. Wenn wird die Vektoren zu willkürlichen Punkten auf der linken und rechten visuellen Achse als A1 und A2 darstellen, wird die folgende Gleichung (28) gemäß der Gleichung (27) vorgesehen.
- A&sub1; = C1 + t1 · (D1 - C1)
- A&sub2; = C2 + t2 · (D2 - C2)
- worin
- C1, C2: Vektoren zu den Zentren des linken und rechten Auges
- D1 - C1), (D2 - C2): 1 inker und rechter visueller Achsenvektor
- t1, t2: Parameter (t&sub1;, t&sub2; > 1)... (28) Der Punkt, an dem A1 und A2 am nächsten zueinander kommen, was unter Benutzung von t1 und t2 als Parameter erfaßt wird, dieser Punkt ist der Blickpunkt. Auf diese Weise können der Blickpunkt als auch der Winkel der Überlappung des linken und rechten Auges gleichzeitig in der vorliegenden Erfindung erfaßt werden.
- Das Schätzen der Koordinate des Zentrums des Augapfels wird im folgenden beschrieben. Die Position des Zentrums des Augapfels wird als fest in dem Kopfkoordinatensystem angenommen und wurde daher im vorangehenden als Eingangswert bezeichnet. Es ist jedoch schwierig, genau die Koordinate des Zentrums des Augapfels zu erfassen. Daher wird er gemäß der folgenden Art geschätzt.
- Nun wird eine Person dazu gebracht, aufeinanderfolgend auf M Punkte Li(Xi, Yi, Zi) zu schauen, deren Koordinaten in dem Weltkoordinatensystem bekannt sind. Die Weltkoordinate Di(XDi, YDi, ZDi) der Pupille zu der Zeit und die Weltkoordinaten P1i (X1i, Y1i, Z1i), P2i (X2i, Y2i, Z2i) und P3i (X3i, Y3i, Z3i) der drei Merkmalspunkte auf dem Gesicht, die die Kopfkoordinaten darstellen, werden gemessen. Unter Benutzung dieser gemessenen Werte wird der nächste Wert der Koordinate e (xe, ye, ze) des Zentrums des Augapfels in dem Kopfkoordinatensystem unter Benutzung des Verfahrens der kleinsten Fehlerquadrate geschätzt.
- Es wird Bezug genommen auf Fig. 38, der Vektor des Zentrums des Augapfels in dem Kopfkoordinatensystem wird als e dargestellt, und die Vektoren des Zentrums der Pupille, des Zentrums der drei Merkmalspunkte auf dem Gesicht und der Vektor des Punktes Li, wenn die Person auf den Punkt Li schaut, werden entsprechend als Di, PGi, Li in dem Weltkoordinatensystem ausgedrückt. Wenn der Vektor e in dem Weltkoordinatensystem ausgedrückt wird, wird die folgende Gleichung (29) angewendet, wie aus Fig. 38 ersichtlich ist, da sie Ri&supmin;¹ · e ist.
- Li + ti (Di - Li) = Ri&supmin;¹e + PGi
- (i = 1 bis M)...(29)
- ti ist ein Parameter (ti > 1)
- Es werden nämlich die folgenden simultanen Gleichungen (30) vorgesehen.
- (i = 1 bis M)...(30)
- Wobei r11i, r12i... r33i Elemente der Rotationsmatrix Ri&supmin;¹ sind, die durch Ersetzen der Gleichung (26) für die Gleichung (20) erhalten werden. Durch Eliminieren des Ausdruckes ti aus der Gleichung (29) und Anordnen der Ausdrücke für xe, ye und ze werden die folgenden Gleichungen (31) erhalten.
- U1ixe + U2iye + U3iZe + U&sub0;&sub1; = 0
- V1ixe + V2iye + V3iZe + V&sub0;&sub1; = 0
- (i = 1 bis N)...(31)
- Die Werte U1i, U2i, U3i, U&sub0;&sub1;, V1i, V2i, V3i und V&sub0;&sub1; werden als Meßdaten vorgesehen. Daher können die Lösungen der Unbekannten xe, ye und ze durch Setzen von δi und ε&sub1; entsprechend auf die rechte Seite der Gleichung (29) und durch Minimieren der Summe der Fehlerquadrate
- Σ(δi² + εi²) berechnet werden.
- Bei dem Vorangehenden ist der Parameter, der durch Kalibrierung berechnet werden muß, nur die Zentralposition des Augapfels in der Kopfkoordinate. Daher kann die Zahl von Indizes, die der Person zur Kalibrierung vorgesetzt werden, klein sein. Da die Kalibrierung auf eine einfache Weise ausgeführt werden kann, kann die Zahl der Fehler, die durch den Unterschied der Person verursacht wird, verringert werden und hohe Genauigkeit reali siert werden. Obwohl die visuelle Achse als eine Linie, die die Pupille und das Zentrum des Augapfels verbindet, in dem Vorangehenden angesehen wird, müssen sie nicht immer unbedingt miteinander zusammenfallen.
- Fig. 39 zeigt einen Fall, in dem das Zentrum des Augapfels nicht auf der Linie vorhanden ist, die die Pupille und die Fovea verbindet. Es wird Bezug genommen auf Fig. 39, wenn das Zentrum des Augapfels nicht auf der Linie liegt, die die Pupille und die Fovea verbindet, wird die Position des Zentrums des Augapfels angenommen und der Vektor von dem angenommenen Punkt zu der Fovea kann mit einem oder einem anderen Mittel berechnet werden, oder der Vektor kann als ein konstanter Vektor während der Kalibrierung berechnet werden. In jedem Fall ist es wirksam, den Punkt des Zentrums des Augapfels zu berechnen, der unabhängig von der Rotation des Augapfels ist und sich nicht bei der Erfassung der Augenfixierung bewegt. Das oben beschriebene Problem kann bei einer weiteren Verbesserung behandelt werden. Wenn die Person eine optische Brille trägt, muß die Kalibrierung in Hinblick auf den Einfluß der Brillengläser ausgeführt werden. In diesem Fall kann auch die Kalibrierung durch die Verbesserung dieser Erfindung ausgeführt werden.
- Das Verfahren, das die Pupille und die von der Hornhaut reflektierten Bilder benutzt, verwendet nur die Merkmalspunkte in dem Auge. Es sei angenommen, daß die Positionen der Lichtquellen bekannt sind und daß der Aufbau des Augapfels konstant ist, die von der Hornhaut reflektierten Bilder werden eindeutig in Abhängigkeit der Position des Zentrums des Augapfels und der Position der Pupille (entsprechend der Drehung des Augapfels) bestimmt. Daher kann die Position des Zentrums des Augapfels aus den von der Hornhaut reflektierten Bildern und der Position der Pupille unter Benutzung der Parameter des Augapfelaufbaues berechnet werden. Die visuelle Achse kann aus dem Zentrum des Augapfels und der Position der Pupille berechnet werden. Die Parameter des Augapfelaufbaues weisen den Radius des Augapfels, den Krümmungsradius der Hornhaut und den Abstand zwischen dem Zentrum des Augapfels und dem Krummungszentrum der Hornhaut auf. Diese Parameter können zuvor gemessen werden oder während der Benutzung kalibriert werden, indem der Benutzer an einen speziellen Abschnitt auf der Anzeige schaut.
- Im folgenden wird beschrieben, wie die Merkmalspunkte auf dem Gesicht auszuwählen sind. Allgemein ändert ein Benutzer, der der Anzeige zugewandt ist, seinen Ausdruck nicht sehr stark. Daher bewegt sich die Haut nicht sehr viel. Selbst wenn sie sich bewegt, kehrt sie sehr schnell dahin zurück, wo sie war. Daher gibt es Abschnitte, die sich kaum auf dem Gesicht bewegen, die nicht das Augenverfolgen verhindert. Genauer, diese Abschnitte enthalten den inneren Augenwinkel, die Nasenspitze, einen zentralen Punkt auf der Oberlippe usw. Diese Punkte bewegen sich nicht sehr, wenn sie nicht der Ausdruck sehr ändert. Zusätzlich unterscheiden sich die Farben dieser Abschnitte von den Rändern, so daß die Merkmale leicht durch Bildverarbeitung herausgezogen werden können. Die Positionen der Merkmalspunkte können nämlich durch Kantenherausziehen und Schwellenwertbearbeitung identifiziert werden. Zum Verbessern der Genauigkeit der Augenverfolgung ist es bevorzugt. Abschnitte um die Augen vergrößert aufzunehmen. Daher ist es bevorzugt, die Merkmalspunkte des Gesichtes nahe den Augen auszuwählen. Es gibt viele solche Punkte um die Augen. Wenn die Augenfixierung mit hoher Geschwindigkeit durch eine einfache Bildverarbeitung zu erfassen ist, können Markierungen auf diesen Punkten angebracht werden.
- Fig. 40 zeigt ein Beispiel eines Modelles des Kopfes, der eine Brille mit Markierungen verwendet. Wenn es schwierig ist. Markierungen auf dem Gesicht anzubringen, können Markierungen 172 auf drei Abschnitten auf dem Rahmen der optischen Brille angebracht werden, wie in Fig. 40 gezeigt ist. Indem diese Brille 171 getragen wird, kann der Kopf in ein Modell durch die Markierungen 172 umgewandelt werden. Wie diese Markierungen 172 herausgezogen werden, wird später zusammen mit der Herausziehung der Pupillen beschrieben. Obwohl drei Punkte auf dem Ge sicht zum Modellieren bei dem in Fig. 40 gezeigten Beispiel benutzt werden, können vier oder mehr Punkte benutzt werden.
- Fig. 41 zeigt einen Fall, in dem vier Punkte zum Modellieren benutzt werden. Bei diesem Beispiel wird das Zentrum des Augapfels durch ein zweites Dreieck 174 anstelle eines ersten Dreieckes 173 in dem Fall berechnet, in dem das erste Dreieck 173 nicht gefunden werden kann, da die Merkmalspunkte nicht gut herausgezogen werden konnten. Da sich der Kopf einer Person verschieden bewegt, werden die entsprechenden Merkmalspunkte nicht immer von der Kamera tatsächlich aufgefangen. Daher kann bei der tatsächlichen Anwendung eine Mehrzahl von Dreiecken vorbereitet werden, zu denen nach Notwendigkeit zum kontinuierlichen Verfolgen der Augen geschaltet wird.
- Es gibt nicht viele Punkte in dem Gesicht, die sich nicht sehr bewegen. Manchmal ist es schwierig, solche Punkte herauszuziehen. Daher werden vier oder mehr Merkmalspunkte auf dem Gesicht (tatsächlich je mehr desto besser) benutzt und drei oder mehr virtuelle Punkte werden wieder aus diesen Punkten so kalibriert, daß der Kopf in ein Modell gewandelt wird.
- Fig. 42A und 42B zeigen Beispiele der Berechnung eines statischen virtuellen Merkmalspunktes aus zwei Merkmalspunkten auf dem Gesicht. Die Positionen des inneren Augwinkels und des äußeren Augwinkels ändern sich, wenn die Person die Augen verengt. Wenn jedoch die Person ihre beiden Augen verengt (was man normalerweise tut) ändert sich die Position des Zentrums zwischen den zwei Merkmalspunkten auf dem äußeren Augwinkel des Auges kaum. Dasselbe kann für Ecken der Nase, der Augenwimpern usw. angewendet werden. Da sich die Haut mehr als die Muskeln auf dem Gesicht bewegen, wenn sich ein Abschnitt ausdehnt, schrumpft ein anderer Teil unvermeidlich. Daher können durch Vorbereiten der Ausdrucksweisen und entsprechende Bewegungen in der Haut als Datenbasis relativ statische Merkmalspunkte virtuell vorgesehen werden. Durch Benutzen solcher virtuellen Merkmalspunkte kann die Genauigkeit bei der Augenverfolgung weiter verbessert werden. Es ist wünschenswert, in der Zukunft die Bewegung des Auges als auch die Ausdrucksweise zu verfolgen.
- Fig. 43 stellt eine andere Ausführungsform der Augenverfolgung dar. Es wird Bezug genommen auf Fig. 43, ein Beleuchtungsgerät 181 ist vorgesehen, und ein Referenzlicht 182 wird von dem Beleuchtungsgerät 181 emittiert. Da die Hornhaut als konvexe Linse betrachtet werden kann, wird ein virtuelles Bild in der Hornhaut gebildet, wenn das Referenzlicht 182 ungefähr parallel ist, so daß scheinbar die Lichtquelle in diesem Punkt ist. Dieses wird das von der Hornhaut reflektierte Bild 183 genannt. Die Position E des von Hornhaut reflektierten Bildes 183 wird eindeutig in Abhängigkeit der Position des Zentrums 184 des Augapfels berechnet, ein Punkt (zum Beispiel das Zentrum 185 der Krümmung der Hornhaut) auf der optischen Achse der Hornhaut und der Krümmungsradius ge der Hornhaut.
- Die Position des Zentrums des Augapfels ist hier A + B, was wie oben beschrieben berechnet werden kann. Wenn daher die Position des Zentrums 185 der Krümmung der Hornhaut berechnet wird, kann die Augenfixierung erfaßt werden. Wenn der Abstand zwischen dem Zentrum des Augapfels und dem Zentrum der Krümmung der Hornhaut und der Krümmungsradius ge der Hornhaut bekannt sind, kann die Position des Zentrums 185 der Krümmung der Hornhaut geometrisch berechnet werden, indem die Position des Zentrums 184 des Augapfels und die Position e des von der Hornhaut reflektierten Bildes benutzt werden. Auf diese Weise kann die Augenfixierung unter Benutzung der Merkmalspunkte auf dem Gesicht und des auf der Hornhaut reflektierten Bildes 183 erfaßt werden. Wenn die Werte ge und de tatsächlich nicht gemessen werden können, können diese als Unbekannte durch die oben beschriebene Kalibrierung bestimmt werden.
Claims (8)
1. Verfahren zum Erfassen einer Blickrichtung durch
Herausziehen und Messen von Positionen von Merkmalspunkten auf
einem Gesicht, die durch ein Bildaufnahmegerät (2, 3) in Fig. 1,
50 in Fig. 7) aufgenommen werden, mit den Schritten:
- Herausziehen mindestens dreier vorbestimmter Merkmalspunkte
(77, in Fig. 15, "MARKS" in Fig. 40-42), an denen sich die
Gesichtshaut nicht sehr viel bewegt, und einer Pupille (54 in
Fig. 7) aus dem Bild des Gesichtes;
- Erfassen der räumlichen Positionen ( , , in Fig. 34) der
mindestens drei Merkmalspunkte auf dem Gesicht und der
räumlichen Position ( in Fig. 34) des Zentrums (172 in Fig.
34) der Pupille in einem Koordinatensystem, das eine
räumliche Position eines Objektes des Blickens beschreiben
kann;
- Modellieren des Kopfes als einen starren Körper unter
Benutzen der mindestens drei Merkmalspunkte (77, MARKS) auf
dem Gesicht;
- Setzen eines Rotationszentrums (171 in Fig. 34) eines
Augapfels in dem modellierten Kopf und Schätzen einer
Position (C in Fig. 34) des Rotationszentrums (171) des
Augapfels aus den räumlichen Positionen von mindestens drei
der Merkmalspunkte (77, MARKS);
- Berechnen einer Linie, die in dem Rotationszentrum (171) des
Augapfels entspringt und durch das Zentrum der Pupille (172)
geht, oder einer anderen Linie (Fig. 39), die eine
vorbestimmte Neigung gegenüber dieser Linie aufweist, als die
Blickrichtung.
2. Verfahren zum Erfassen einer Blickrichtung durch
Herausziehen und Messen von Positionen von Merkmalspunkten (P)
auf einem Gesicht, die durch ein Bildaufnahmegerät (2, 3 in Fig.
1, 40 in Fig. 7) aufgenommen werden, mit den Schritten:
- Erzeugen eines von der Kornea (53 in Fig. 7) eines Auges
reflektierten Bildes durch Beleuchten der Kornea (53) mit
Strahlen;
- Extrahieren von mindestens drei vorbestimmten Merkmalspunkten
(77 in Fig. 15, "MARKS" in Fig. 40-42) auf dem Gesicht, an
denen sich die Gesichtshaut nicht sehr viel bewegt, einer
Pupille (54 in Fig. 7) und des von der Kornea (54)
reflektierten Bildes aus dem Bild des Gesichtes;
- Erfassen der räumlichen Positionen ( , , in Fig. 34) der
mindestens drei Merkmalspunkte (77, MARKS) auf dem Gesicht in
einem Koordinatensystem, das eine räumliche Position eines
Objektes des Blickens beschreiben kann;
- Modellieren des mit dem Gesicht verknüpften Kopfes als einen
starren Körper unter Benutzung der mindestens drei
Merkmalspunkte (P) des Gesichtes;
- Setzen eines Rotationszentrums (171 in Fig. 34, 184 in Fig.
43) eines Augapfels in dem modellierten Kopf und Schätzen der
räumlichen Position (C in Fig. 34) des Rotationszentrums
(171) des Augapfels aus den räumlichen Positionen ( , , )
der mindestens drei Merkmalspunkte (77, MARKS)
- Modellieren des Augapfels (Fig. 30) als einen doppelten
sphärischen Körper (80 in Fig. 17, Fig. 7, Fig. 43), bei dem
zwei Sphären mit einem großen und einem kleinen Radius
überlappen, wobei ihre Zentren gegeneinander versetzt sind
und die große Sphäre einen ähnlichen Radius wie der Augapfel
aufweist und die kleine Sphäre eine ähnliche Krümmung und ein
Zentrum wie die Krümmung bzw. das Zentrum der Kornea
aufweist, und Setzen des Zentrums der großen Sphäre als das
Rotationszentrum (171, 184) des Augapfels;
- Berechnen der Änderung der Relativpositionen des von der
Kornea (53) reflektierten Bildes und des Pupillenzentrums (55
in Fig. 7, 172 in Fig. 34) auf dem aufgenommenen Bild nahe
eines Auges (Fig. 7), die durch die Augapfeldrehung auftritt;
- Berechnen des Augapfelrotationswinkels, der die Richtung
einer Linie ist, die in dem Zentrum der großen Sphäre (171
oder 184) entspringt und durch das Zentrum der Pupille (56
oder 172) geht in dem Augapfelmodell ist, in dem die Änderung
der Relativpositionen benutzt wird;
- Berechnen der Linie oder einer anderen Linie (Fig. 39), die
eine vorbestimmte Neigung aufweist, als eine Blickrichtung.
3. Verfahren zum Erfassen einer Blickrichtung durch
Herausziehen und Messen von Positionen von Merkmalspunkten auf
einem Gesicht, die durch ein Bildaufnahmegerät (2, 3 in Fig. 1,
Fig. 50 in Fig. 7) aufgenommen werden, mit den Schritten:
- Erzeugen eines von der Kornea (53 in Fig. 7) eines Auges
reflektierten Lichtes durch Beleuchten des Auges mit
Strahlen;
- Extrahieren einer Pupille (54 in Fig. 7) und des von der
Kornea (53) des Auges reflektierten Lichtes aus dem Bild des
Gesichtes;
- Erfassen der räumlichen Positionen der Pupille (54) und des
von der Kornea (53) des Auges reflektierten Bildes in einem
Koordinatensystem, das eine räumliche Position eines Objektes
des Blickens (Fig. 43) beschreiben kann;
- Modellieren des Augapfels (80 in Fig. 17) als einen doppelten
sphärischen Körper, bei dem zwei Sphären mit großem und
kleinem Radius überlappen, wobei ihre Zentren gegeneinander
versetzt sind, die große Sphäre einen ähnlichen Radius wie
der Augapfel (80) aufweist und die kleine Sphäre eine
ähnliche Krümmung und ein Zentrum wie die Krümmung bzw. das
Zentrum (85) der Kornea aufweist;
- Bestimmen der Parameter des Radius einer jeden Sphäre und des
Abstandes zwischen den Zentren und
- Setzen des Zentrums der großen Sphäre als den Nullpunkt einer
Linie, die eine Blickrichtung ausdrückt;
- Schätzen der Position des Rotationszentrums (171 in Fig. 34,
184 in Fig. 43) des Augapfels (80) aus den räumlichen
Position der Pupille (54) und des von der Kornea (53) des
Auges reflektierten Lichtes;
- Berechnen des Augapfelrotationswinkels aus den
Relativpositionen des von der Kornea (53) reflektierten
Bildes und des Pupillenzentrums (36) auf dem aufgenommenen
Gesichtsbild;
- Berechnen der Linie, die in dem Zentrum (184 in Fig. 43) der
großen Sphäre entspringt und als Neigung den Winkel der
Augapfelrotation aufweist, als die Blickrichtung.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem der
Schritt des Schätzens der Position des Rotationszentrums (171 in
Fig. 34) des Augapfels in dem Kopfmodell oder dem Augapfelmodell
aus den räumlichen Positionen aller oder einiger der
Merkmalspunkte (77, MARKS) die Schritte aufweist:
- aufeinanderfolgendes Zeigen einer Mehrzahl von Zielpunkten
(Li in Fig. 38), von denen die räumlichen Positionen vorher
bekannt sind, in dem Koordinatensystem, das die räumliche
Position eines Objektes des Blickens (161) beschreiben kann,
auf die durch eine Person zu blicken ist;
- Erfassen der räumlichen Positionen ( , , in Fig. 34)
aller oder einiger der Merkmalspunkte zu dieser Zeit in dem
Koordinatensystem;
- Erfassen einer Linie (D-L in Fig. 38), die die räumliche
Position (Li) des Zielpunktes und die räumliche Position (D
in Fig. 38) des Zentrums (56) der Pupille verbindet, die den
Zielpunkt (Li) betrachtet, in dem Koordinatensystem;
- Definieren einer Verlängerung der Linie oder einer
Verlängerung einer Linie, die eine vorbestimmte Neigung
dagegen hat, als die Blickrichtung; und
- aufeinanderfolgendes Berechnen der Blickrichtungen, wenn die
Zielpunkte betrachtet werden, und Setzen als eine Position
des Rotationszentrums (171 in Fig. 34) des Augapfels eine
Position, an der die Blickrichtungen sich am dichtesten in
dem Kopfmodell oder in dem Augapfelmodell schneiden.
5. Verfahren nach einem der Ansprüche 1 bis 3, mit den
Schritten:
- Berechnen von Blickrichtungen (A1, A2) beider Augen der
Person und
- Berechnen als den Punkt des Blickens eines Punktes, an den
die zwei Blickrichtungen (A1, A2) am nächsten zueinander
kommen.
6. Verfahren nach Anspruch 1 oder 2, bei dem die mindestens
drei Merkmalspunkte (77, MARKS) auf dem Gesicht, an denen sich
die Gesichtshaut nicht sehr viel bewegt, mindestens drei
Markierungen (172) entsprechen, die einem Rand eines Rahmens
einer Brille zugeordnet sind, und
- der Kopf als ein starrer Körper unter Benutzung der von der
Person getragenen Brille modelliert wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem jeder
Merkmalspunkt von Bildaufnahmegeräten aufgenommen wird, die
Kameraparameter der Bildaufnahmegeräte zuvor in dem
Koordinatensystem kalibriert werden, das die räumliche Position
eines Objektes des Blickens beschreiben kann, und die räumliche
Position eines jeden Merkmalspunktes in den Koordinaten durch
ein Stereobildmeßverfahren berechnet wird.
8. Verfahren nach einem der Ansprüche 2 bis 7, mit den
Schritten:
- Emittieren von Referenzlicht auf das Bild des Gesichtes;
- Extrahieren eines von der Kornea reflektierten Bildes und der
Pupille aus dem Bild des Gesichtes, die durch das
Bildaufnahmegerät aufgenommen werden.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17589988 | 1988-07-14 | ||
JP19389988 | 1988-08-03 | ||
JP19389888 | 1988-08-03 | ||
JP28976188 | 1988-11-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE68928825D1 DE68928825D1 (de) | 1998-11-05 |
DE68928825T2 true DE68928825T2 (de) | 1999-04-01 |
Family
ID=27474670
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE68926192T Expired - Fee Related DE68926192T2 (de) | 1988-07-14 | 1989-07-14 | Bildaufnahmegerät |
DE68927275T Expired - Fee Related DE68927275T2 (de) | 1988-07-14 | 1989-07-14 | Bildaufnahmegerät |
DE68928825T Expired - Fee Related DE68928825T2 (de) | 1988-07-14 | 1989-07-14 | Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE68926192T Expired - Fee Related DE68926192T2 (de) | 1988-07-14 | 1989-07-14 | Bildaufnahmegerät |
DE68927275T Expired - Fee Related DE68927275T2 (de) | 1988-07-14 | 1989-07-14 | Bildaufnahmegerät |
Country Status (3)
Country | Link |
---|---|
US (2) | US5016282A (de) |
EP (3) | EP0350957B1 (de) |
DE (3) | DE68926192T2 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007056528B3 (de) * | 2007-11-16 | 2009-04-02 | Seereal Technologies S.A. | Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren |
DE102009004381B4 (de) * | 2008-01-10 | 2011-09-01 | Rodenstock Gmbh | Vorrichtung, Verfahren und Computerprogrammprodukt |
DE102016106121A1 (de) * | 2016-04-04 | 2017-10-05 | Carl Zeiss Ag | Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung |
Families Citing this family (263)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5231674A (en) * | 1989-06-09 | 1993-07-27 | Lc Technologies, Inc. | Eye tracking method and apparatus |
DE4028191A1 (de) * | 1990-09-05 | 1992-03-12 | Philips Patentverwaltung | Schaltungsanordnung zum erkennen eines menschlichen gesichtes |
DE4102895C1 (de) * | 1991-01-31 | 1992-01-30 | Siemens Ag, 8000 Muenchen, De | |
US5291560A (en) * | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US6728404B1 (en) * | 1991-09-12 | 2004-04-27 | Fuji Photo Film Co., Ltd. | Method for recognizing object images and learning method for neural networks |
US5594500A (en) * | 1991-10-17 | 1997-01-14 | Canon Kabushiki Kaisha | Image pickup apparatus |
FR2690031A1 (fr) * | 1992-04-14 | 1993-10-15 | Philips Electronique Lab | Dispositif de segmentation d'images. |
US5305012A (en) * | 1992-04-15 | 1994-04-19 | Reveo, Inc. | Intelligent electro-optical system and method for automatic glare reduction |
US7788008B2 (en) * | 1995-06-07 | 2010-08-31 | Automotive Technologies International, Inc. | Eye monitoring system and method for vehicular occupants |
EP0571702A3 (de) * | 1992-05-26 | 1994-10-12 | Takenaka Corp | Handzeige-Eingabegerät und Wandcomputereinheit. |
JP2500726B2 (ja) * | 1992-06-12 | 1996-05-29 | 日本電気株式会社 | 上まぶた領域、目頭・目尻・上まぶた領域及び目の構造の検出方法及び装置 |
AU709835B2 (en) * | 1992-10-10 | 1999-09-09 | Iriscan, Inc. | Biometric personal identification system based on iris analysis |
US6035054A (en) * | 1992-10-29 | 2000-03-07 | Canon Kabushiki Kaisha | Visual axis detection apparatus and optical apparatus provided therewith |
JPH06148513A (ja) * | 1992-10-30 | 1994-05-27 | Canon Inc | 視線検出装置 |
JP3313803B2 (ja) * | 1993-03-09 | 2002-08-12 | キヤノン株式会社 | 視線検出装置 |
JP2988178B2 (ja) * | 1993-03-11 | 1999-12-06 | 日産自動車株式会社 | 視線方向計測装置 |
JPH06304142A (ja) * | 1993-04-22 | 1994-11-01 | Canon Inc | 視線検出装置 |
US5471542A (en) * | 1993-09-27 | 1995-11-28 | Ragland; Richard R. | Point-of-gaze tracker |
US5406074A (en) * | 1994-02-07 | 1995-04-11 | Grisell; Ronald D. | Noninvasive, remote eye position and orientation measurement system using light beams normal to the surface of the eye |
US5481622A (en) * | 1994-03-01 | 1996-01-02 | Rensselaer Polytechnic Institute | Eye tracking apparatus and method employing grayscale threshold values |
JP3293308B2 (ja) * | 1994-03-10 | 2002-06-17 | 三菱電機株式会社 | 人物状態検出装置 |
US5572596A (en) * | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
AU4197496A (en) * | 1994-10-28 | 1996-05-23 | Eyesys Technologies, Inc. | Multi-camera corneal analysis system |
JPH0981309A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 入力装置 |
US5717512A (en) * | 1996-05-15 | 1998-02-10 | Chmielewski, Jr.; Thomas A. | Compact image steering and focusing device |
US6320610B1 (en) | 1998-12-31 | 2001-11-20 | Sensar, Inc. | Compact imaging device incorporating rotatably mounted cameras |
JP3436293B2 (ja) * | 1996-07-25 | 2003-08-11 | 沖電気工業株式会社 | 動物の個体識別装置及び個体識別システム |
US5944530A (en) | 1996-08-13 | 1999-08-31 | Ho; Chi Fai | Learning method and system that consider a student's concentration level |
US7076118B1 (en) * | 1997-12-05 | 2006-07-11 | Sharp Laboratories Of America, Inc. | Document classification system |
US6121953A (en) * | 1997-02-06 | 2000-09-19 | Modern Cartoons, Ltd. | Virtual reality system for sensing facial movements |
GB2324428A (en) * | 1997-04-17 | 1998-10-21 | Sharp Kk | Image tracking; observer tracking stereoscopic display |
US6381345B1 (en) * | 1997-06-03 | 2002-04-30 | At&T Corp. | Method and apparatus for detecting eye location in an image |
DE19731303B4 (de) * | 1997-07-13 | 2009-02-26 | Smi Senso Motoric Instruments Gmbh | Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei Kopf- und Augenbewegungen |
DE19731301C2 (de) * | 1997-07-13 | 2001-05-10 | Smi Senso Motoric Instr Gmbh | Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse |
JPH1166320A (ja) * | 1997-08-12 | 1999-03-09 | Mitsubishi Electric Corp | 目画像追跡装置 |
US6426740B1 (en) | 1997-08-27 | 2002-07-30 | Canon Kabushiki Kaisha | Visual-axis entry transmission apparatus and method therefor |
US6299307B1 (en) * | 1997-10-10 | 2001-10-09 | Visx, Incorporated | Eye tracking device for laser eye surgery using corneal margin detection |
US6064752A (en) * | 1997-11-04 | 2000-05-16 | Sensar, Inc. | Method and apparatus for positioning subjects before a single camera |
US6069967A (en) * | 1997-11-04 | 2000-05-30 | Sensar, Inc. | Method and apparatus for illuminating and imaging eyes through eyeglasses |
JP3361980B2 (ja) * | 1997-12-12 | 2003-01-07 | 株式会社東芝 | 視線検出装置及びその方法 |
US6088470A (en) * | 1998-01-27 | 2000-07-11 | Sensar, Inc. | Method and apparatus for removal of bright or dark spots by the fusion of multiple images |
US6850631B1 (en) * | 1998-02-20 | 2005-02-01 | Oki Electric Industry Co., Ltd. | Photographing device, iris input device and iris image input method |
JP3271750B2 (ja) * | 1998-03-05 | 2002-04-08 | 沖電気工業株式会社 | アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置 |
US6134339A (en) * | 1998-09-17 | 2000-10-17 | Eastman Kodak Company | Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame |
GB9823977D0 (en) * | 1998-11-02 | 1998-12-30 | Scient Generics Ltd | Eye tracking method and apparatus |
AUPP697398A0 (en) * | 1998-11-06 | 1998-12-03 | Lions Eye Institute Of Western Australia Incorporated, The | Eye tracker for refractive surgery |
US6757422B1 (en) | 1998-11-12 | 2004-06-29 | Canon Kabushiki Kaisha | Viewpoint position detection apparatus and method, and stereoscopic image display system |
US6393136B1 (en) | 1999-01-04 | 2002-05-21 | International Business Machines Corporation | Method and apparatus for determining eye contact |
US6944318B1 (en) | 1999-01-15 | 2005-09-13 | Citicorp Development Center, Inc. | Fast matching systems and methods for personal identification |
US6539100B1 (en) * | 1999-01-27 | 2003-03-25 | International Business Machines Corporation | Method and apparatus for associating pupils with subjects |
US6577329B1 (en) | 1999-02-25 | 2003-06-10 | International Business Machines Corporation | Method and system for relevance feedback through gaze tracking and ticker interfaces |
US6200139B1 (en) | 1999-02-26 | 2001-03-13 | Intel Corporation | Operator training system |
JP4432262B2 (ja) * | 1999-03-12 | 2010-03-17 | ソニー株式会社 | 画像処理装置、画像処理方法及び記録媒体 |
ES2200877T3 (es) * | 1999-05-12 | 2004-03-16 | Microsoft Corporation | Separacion y mezcla de tramas de datos en continuo. |
US7007096B1 (en) | 1999-05-12 | 2006-02-28 | Microsoft Corporation | Efficient splitting and mixing of streaming-data frames for processing through multiple processing modules |
JP2001034754A (ja) * | 1999-07-19 | 2001-02-09 | Sony Corp | 虹彩認証装置 |
DE19954047B4 (de) * | 1999-10-29 | 2004-08-05 | Chronos Vision Gmbh | Verfahren und Anordnung zum Erfassen von mehrdimensionalen Augenbewegungen sowie Markierungs-Tinktur hierfür |
US6758563B2 (en) | 1999-12-30 | 2004-07-06 | Nokia Corporation | Eye-gaze tracking |
JP4040302B2 (ja) * | 2000-02-01 | 2008-01-30 | スイスコム モービル アーゲー | 画像オブジェクトを配信するシステムおよび方法 |
US6220706B1 (en) * | 2000-02-10 | 2001-04-24 | Carl Zeiss, Inc. | Method and apparatus for determining position of an eye |
US6540392B1 (en) | 2000-03-31 | 2003-04-01 | Sensar, Inc. | Micro-illuminator for use with image recognition system |
DE60133026T2 (de) * | 2000-08-28 | 2009-02-19 | Cognitens Ltd. | Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern |
GB0027143D0 (en) * | 2000-10-31 | 2000-12-20 | Malvern Scient Solutions Ltd | Optical tracking method and apparatus |
US7020305B2 (en) * | 2000-12-06 | 2006-03-28 | Microsoft Corporation | System and method providing improved head motion estimations for animation |
US6792134B2 (en) * | 2000-12-19 | 2004-09-14 | Eastman Kodak Company | Multi-mode digital image processing method for detecting eyes |
US7111939B2 (en) * | 2001-01-22 | 2006-09-26 | Eastman Kodak Company | Image display system with body position compensation |
US6953249B1 (en) | 2001-01-29 | 2005-10-11 | Maguire Jr Francis J | Method and devices for displaying images for viewing with varying accommodation |
WO2002065443A1 (en) * | 2001-02-15 | 2002-08-22 | Tveye Inc. | Method and apparatus for low bandwidth transmission of data utilizing of the human eye anatomy |
US6397137B1 (en) | 2001-03-02 | 2002-05-28 | International Business Machines Corporation | System and method for selection of vehicular sideview mirrors via eye gaze |
US6578962B1 (en) | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US6752498B2 (en) | 2001-05-14 | 2004-06-22 | Eastman Kodak Company | Adaptive autostereoscopic display system |
US6886137B2 (en) * | 2001-05-29 | 2005-04-26 | International Business Machines Corporation | Eye gaze control of dynamic information presentation |
US6959102B2 (en) * | 2001-05-29 | 2005-10-25 | International Business Machines Corporation | Method for increasing the signal-to-noise in IR-based eye gaze trackers |
JP2003016435A (ja) * | 2001-06-27 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 個体認証装置及び方法 |
DE10132378A1 (de) * | 2001-07-06 | 2003-04-24 | Zeiss Carl Meditec Ag | Verfahren und Vorrichtung zur Verfolgung von Augenbewegungen |
DE10133386A1 (de) * | 2001-07-10 | 2003-01-23 | Bosch Gmbh Robert | Verfahren und Vorrichtung zum Erkennen einer Ist-Position einer Person innerhalb eines vorgebbaren Bereiches und Verwendung des Verfahrens und/oder der Vorrichtung |
GB0119859D0 (en) * | 2001-08-15 | 2001-10-10 | Qinetiq Ltd | Eye tracking system |
US7416302B2 (en) * | 2001-09-14 | 2008-08-26 | Stmicroelectronics S.A. | Ring location |
EP1431915B1 (de) * | 2001-09-25 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd. | Parameterschätzvorrichtung und datenkollationsvorrichtung |
EP1480550B1 (de) * | 2002-02-11 | 2011-08-24 | AMO Manufacturing USA, LLC | Bestimmung von relativen positions- und drehversätzen |
US7084918B2 (en) * | 2002-02-28 | 2006-08-01 | Hewlett-Packard Development Company, L.P. | White eye portraiture system and method |
US7815507B2 (en) * | 2004-06-18 | 2010-10-19 | Igt | Game machine user interface using a non-contact eye motion recognition device |
WO2004017088A2 (en) * | 2002-08-15 | 2004-02-26 | Lc Technologies, Inc. | Motion clutter suppression for image-subtracting cameras |
US20040057606A1 (en) * | 2002-09-25 | 2004-03-25 | The Hong Kong Polytechnic University | Apparatus for capturing a palmprint image |
DE10304185B4 (de) * | 2003-01-28 | 2010-12-30 | Carl Zeiss Vision Gmbh | Vorrichtung und Verfahren zum Anpassen einer Position eines Brillenglases relativ zur Position einer Pupille |
US7280678B2 (en) * | 2003-02-28 | 2007-10-09 | Avago Technologies General Ip Pte Ltd | Apparatus and method for detecting pupils |
US7762665B2 (en) | 2003-03-21 | 2010-07-27 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
US8292433B2 (en) * | 2003-03-21 | 2012-10-23 | Queen's University At Kingston | Method and apparatus for communication between humans and devices |
WO2004088588A1 (ja) * | 2003-03-28 | 2004-10-14 | Fujitsu Limited | 撮影装置、光源制御方法、およびコンピュータプログラム |
EP1642527B1 (de) * | 2003-07-04 | 2016-03-30 | Panasonic Intellectual Property Corporation of America | Verfahren und vorrichtung zur augenbeurteilung eines organismus |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
WO2005046465A1 (en) * | 2003-11-14 | 2005-05-26 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
US7720264B2 (en) | 2004-05-10 | 2010-05-18 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Method and system for pupil detection for security applications |
US7942744B2 (en) | 2004-08-19 | 2011-05-17 | Igt | Virtual input system |
DE102004045430A1 (de) * | 2004-09-18 | 2006-05-18 | Deutsche Telekom Ag | Vorrichtung zur Bildstabilisierung |
US7248720B2 (en) * | 2004-10-21 | 2007-07-24 | Retica Systems, Inc. | Method and system for generating a combined retina/iris pattern biometric |
US7134707B2 (en) * | 2005-02-10 | 2006-11-14 | Motorola, Inc. | Selective light attenuation system |
US20060279745A1 (en) * | 2005-06-13 | 2006-12-14 | Wenstrand John S | Color imaging system for locating retroreflectors |
JP4595750B2 (ja) * | 2005-08-29 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
WO2007029443A1 (ja) * | 2005-09-09 | 2007-03-15 | Matsushita Electric Industrial Co., Ltd. | 画像処理方法、画像記録方法、画像処理装置および画像ファイルフォーマット |
US8861863B2 (en) * | 2005-09-20 | 2014-10-14 | Brightex Bio-Photonics Llc | Method and system for analyzing lip conditions using digital images |
FR2891725A1 (fr) * | 2005-10-06 | 2007-04-13 | Synapsys Sa | Procede et dispositif d'analyse de la reponse des canaux semi-circulaires de l'oreille interne a des mouvements rapides de la tete. |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US7768528B1 (en) * | 2005-11-09 | 2010-08-03 | Image Metrics Limited | Replacement of faces in existing video |
JP4921486B2 (ja) * | 2005-11-30 | 2012-04-25 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 |
US7650034B2 (en) * | 2005-12-14 | 2010-01-19 | Delphi Technologies, Inc. | Method of locating a human eye in a video image |
US7423540B2 (en) * | 2005-12-23 | 2008-09-09 | Delphi Technologies, Inc. | Method of detecting vehicle-operator state |
US8406457B2 (en) * | 2006-03-15 | 2013-03-26 | Omron Corporation | Monitoring device, monitoring method, control device, control method, and program |
JP5317415B2 (ja) * | 2006-03-27 | 2013-10-16 | 富士フイルム株式会社 | 画像出力装置、画像出力方法、および画像出力プログラム |
US7620216B2 (en) * | 2006-06-14 | 2009-11-17 | Delphi Technologies, Inc. | Method of tracking a human eye in a video image |
US8965063B2 (en) * | 2006-09-22 | 2015-02-24 | Eyelock, Inc. | Compact biometric acquisition system and method |
WO2008037090A1 (en) * | 2006-09-29 | 2008-04-03 | Ottawa Health Research Institute | Apparatus and method for separate optical measurements of specularly and diffusely reflected light |
JP2008136789A (ja) * | 2006-12-05 | 2008-06-19 | Nec Corp | 眼球パラメータ推定装置及び方法 |
US8718336B2 (en) * | 2007-03-30 | 2014-05-06 | Fujifilm Corporation | Image correction apparatus, image correction method, skin diagnosis method, and computer program product |
FR2914173B1 (fr) * | 2007-03-30 | 2010-02-26 | Essilor Int | Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet |
DE602008002276D1 (de) * | 2007-04-26 | 2010-10-07 | St Microelectronics Rousset | Lokalisierungsverfahren und -vorrichtung einer menschlichen Iris in einem Bild |
IL183386A0 (en) * | 2007-05-24 | 2007-09-20 | Wavebreak Technologies Ltd | Systems and methods for counting an audience |
US20090196460A1 (en) * | 2008-01-17 | 2009-08-06 | Thomas Jakobs | Eye tracking system and method |
WO2009135084A1 (en) * | 2008-04-30 | 2009-11-05 | Amo Development, Llc | System and method for controlling measurement in an eye during ophthalmic procedure |
US8219438B1 (en) | 2008-06-30 | 2012-07-10 | Videomining Corporation | Method and system for measuring shopper response to products based on behavior and facial expression |
WO2010003410A1 (en) * | 2008-07-08 | 2010-01-14 | It-University Of Copenhagen | Eye gaze tracking |
US7742623B1 (en) | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
US7736000B2 (en) * | 2008-08-27 | 2010-06-15 | Locarna Systems, Inc. | Method and apparatus for tracking eye movement |
GB2463724B (en) | 2008-09-26 | 2011-05-04 | Cybula Ltd | Forming 3D images |
US8401248B1 (en) | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
US7819525B2 (en) * | 2009-02-15 | 2010-10-26 | International Business Machines Corporation | Automatic direct gaze detection based on pupil symmetry |
DE102009010467A1 (de) * | 2009-02-26 | 2010-09-09 | Carl Zeiss Vision Gmbh | Verfahren und Vorrichtung zur Bestimmung der Augendrehpunktlage |
US8823934B2 (en) * | 2009-03-27 | 2014-09-02 | Brightex Bio-Photonics Llc | Methods and systems for imaging and modeling skin using polarized lighting |
US8373859B2 (en) * | 2009-03-27 | 2013-02-12 | Brightex Bio-Photonics Llc | Methods and systems for imaging skin using polarized lighting |
EP2238889B1 (de) | 2009-04-01 | 2011-10-12 | Tobii Technology AB | Adaptive Kamera und Illuminator-Eyetracker |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US20110170060A1 (en) * | 2010-01-08 | 2011-07-14 | Gordon Gary B | Gaze Tracking Using Polarized Light |
US20110170061A1 (en) * | 2010-01-08 | 2011-07-14 | Gordon Gary B | Gaze Point Tracking Using Polarized Light |
GB201004346D0 (en) * | 2010-03-16 | 2010-04-28 | Qinetiq Ltd | Eye tracking apparatus |
US10482333B1 (en) | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
US11587357B2 (en) | 2010-06-07 | 2023-02-21 | Affectiva, Inc. | Vehicular cognitive data collection with multiple devices |
US11151610B2 (en) | 2010-06-07 | 2021-10-19 | Affectiva, Inc. | Autonomous vehicle control using heart rate collection based on video imagery |
US9959549B2 (en) | 2010-06-07 | 2018-05-01 | Affectiva, Inc. | Mental state analysis for norm generation |
US10143414B2 (en) | 2010-06-07 | 2018-12-04 | Affectiva, Inc. | Sporadic collection with mobile affect data |
US10474875B2 (en) | 2010-06-07 | 2019-11-12 | Affectiva, Inc. | Image analysis using a semiconductor processor for facial evaluation |
US11017250B2 (en) | 2010-06-07 | 2021-05-25 | Affectiva, Inc. | Vehicle manipulation using convolutional image processing |
US11318949B2 (en) | 2010-06-07 | 2022-05-03 | Affectiva, Inc. | In-vehicle drowsiness analysis using blink rate |
US11067405B2 (en) | 2010-06-07 | 2021-07-20 | Affectiva, Inc. | Cognitive state vehicle navigation based on image processing |
US10799168B2 (en) | 2010-06-07 | 2020-10-13 | Affectiva, Inc. | Individual data sharing across a social network |
US10628985B2 (en) | 2017-12-01 | 2020-04-21 | Affectiva, Inc. | Avatar image animation using translation vectors |
US10614289B2 (en) | 2010-06-07 | 2020-04-07 | Affectiva, Inc. | Facial tracking with classifiers |
US10592757B2 (en) | 2010-06-07 | 2020-03-17 | Affectiva, Inc. | Vehicular cognitive data collection using multiple devices |
US10628741B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
US11430260B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Electronic display viewing verification |
US11056225B2 (en) | 2010-06-07 | 2021-07-06 | Affectiva, Inc. | Analytics for livestreaming based on image analysis within a shared digital environment |
US11935281B2 (en) | 2010-06-07 | 2024-03-19 | Affectiva, Inc. | Vehicular in-cabin facial tracking using machine learning |
US10401860B2 (en) | 2010-06-07 | 2019-09-03 | Affectiva, Inc. | Image analysis for two-sided data hub |
US10074024B2 (en) | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
US11393133B2 (en) | 2010-06-07 | 2022-07-19 | Affectiva, Inc. | Emoji manipulation using machine learning |
US9723992B2 (en) | 2010-06-07 | 2017-08-08 | Affectiva, Inc. | Mental state analysis using blink rate |
US11292477B2 (en) | 2010-06-07 | 2022-04-05 | Affectiva, Inc. | Vehicle manipulation using cognitive state engineering |
US9642536B2 (en) | 2010-06-07 | 2017-05-09 | Affectiva, Inc. | Mental state analysis using heart rate collection based on video imagery |
US10289898B2 (en) | 2010-06-07 | 2019-05-14 | Affectiva, Inc. | Video recommendation via affect |
US10911829B2 (en) | 2010-06-07 | 2021-02-02 | Affectiva, Inc. | Vehicle video recommendation via affect |
US10843078B2 (en) | 2010-06-07 | 2020-11-24 | Affectiva, Inc. | Affect usage within a gaming context |
US9934425B2 (en) | 2010-06-07 | 2018-04-03 | Affectiva, Inc. | Collection of affect data from multiple mobile devices |
US10869626B2 (en) | 2010-06-07 | 2020-12-22 | Affectiva, Inc. | Image analysis for emotional metric evaluation |
US11657288B2 (en) | 2010-06-07 | 2023-05-23 | Affectiva, Inc. | Convolutional computing using multilayered analysis engine |
US9503786B2 (en) | 2010-06-07 | 2016-11-22 | Affectiva, Inc. | Video recommendation using affect |
US11704574B2 (en) | 2010-06-07 | 2023-07-18 | Affectiva, Inc. | Multimodal machine learning for vehicle manipulation |
US9247903B2 (en) | 2010-06-07 | 2016-02-02 | Affectiva, Inc. | Using affect within a gaming context |
US9204836B2 (en) | 2010-06-07 | 2015-12-08 | Affectiva, Inc. | Sporadic collection of mobile affect data |
US10627817B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Vehicle manipulation using occupant image analysis |
US11823055B2 (en) | 2019-03-31 | 2023-11-21 | Affectiva, Inc. | Vehicular in-cabin sensing using machine learning |
US11887352B2 (en) | 2010-06-07 | 2024-01-30 | Affectiva, Inc. | Live streaming analytics within a shared digital environment |
US11700420B2 (en) | 2010-06-07 | 2023-07-11 | Affectiva, Inc. | Media manipulation using cognitive state metric analysis |
US10922567B2 (en) | 2010-06-07 | 2021-02-16 | Affectiva, Inc. | Cognitive state based vehicle manipulation using near-infrared image processing |
US10517521B2 (en) | 2010-06-07 | 2019-12-31 | Affectiva, Inc. | Mental state mood analysis using heart rate collection based on video imagery |
US10111611B2 (en) | 2010-06-07 | 2018-10-30 | Affectiva, Inc. | Personal emotional profile generation |
US11073899B2 (en) | 2010-06-07 | 2021-07-27 | Affectiva, Inc. | Multidevice multimodal emotion services monitoring |
US10204625B2 (en) | 2010-06-07 | 2019-02-12 | Affectiva, Inc. | Audio analysis learning using video data |
US11484685B2 (en) | 2010-06-07 | 2022-11-01 | Affectiva, Inc. | Robotic control using profiles |
US11511757B2 (en) | 2010-06-07 | 2022-11-29 | Affectiva, Inc. | Vehicle manipulation with crowdsourcing |
US9646046B2 (en) | 2010-06-07 | 2017-05-09 | Affectiva, Inc. | Mental state data tagging for data collected from multiple sources |
US10779761B2 (en) | 2010-06-07 | 2020-09-22 | Affectiva, Inc. | Sporadic collection of affect data within a vehicle |
US11465640B2 (en) | 2010-06-07 | 2022-10-11 | Affectiva, Inc. | Directed control transfer for autonomous vehicles |
US10897650B2 (en) | 2010-06-07 | 2021-01-19 | Affectiva, Inc. | Vehicle content recommendation using cognitive states |
US10108852B2 (en) | 2010-06-07 | 2018-10-23 | Affectiva, Inc. | Facial analysis to detect asymmetric expressions |
US11430561B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Remote computing analysis for cognitive state data metrics |
US11232290B2 (en) | 2010-06-07 | 2022-01-25 | Affectiva, Inc. | Image analysis using sub-sectional component evaluation to augment classifier usage |
US11410438B2 (en) | 2010-06-07 | 2022-08-09 | Affectiva, Inc. | Image analysis using a semiconductor processor for facial evaluation in vehicles |
US10796176B2 (en) | 2010-06-07 | 2020-10-06 | Affectiva, Inc. | Personal emotional profile generation for vehicle manipulation |
US9760123B2 (en) | 2010-08-06 | 2017-09-12 | Dynavox Systems Llc | Speech generation device with a projected display and optical inputs |
KR20120016386A (ko) * | 2010-08-16 | 2012-02-24 | 주식회사 팬택 | 3d 객체 표시가 가능한 휴대용 장치 및 그 방법 |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
EP2678820A4 (de) | 2011-02-27 | 2014-12-03 | Affectiva Inc | Videoempfehlung auf grundlage von affekten |
FR2972339B1 (fr) | 2011-03-11 | 2013-04-19 | Essilor Int | Procede de determination de l'oeil directeur |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9153195B2 (en) | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
CA2750287C (en) | 2011-08-29 | 2012-07-03 | Microsoft Corporation | Gaze detection in a see-through, near-eye, mixed reality display |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
JP6144681B2 (ja) | 2011-08-30 | 2017-06-07 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ |
US8804122B2 (en) | 2011-09-22 | 2014-08-12 | Brightex Bio-Photonics Llc | Systems and methods for determining a surface profile using a plurality of light sources |
US8998414B2 (en) | 2011-09-26 | 2015-04-07 | Microsoft Technology Licensing, Llc | Integrated eye tracking and display system |
US8971570B1 (en) | 2011-11-04 | 2015-03-03 | Google Inc. | Dual LED usage for glint detection |
US9138140B2 (en) * | 2012-03-20 | 2015-09-22 | Lrs Identity, Inc. | Compact iris imaging system |
US9111134B1 (en) | 2012-05-22 | 2015-08-18 | Image Metrics Limited | Building systems for tracking facial features across individuals and groups |
US9104908B1 (en) * | 2012-05-22 | 2015-08-11 | Image Metrics Limited | Building systems for adaptive tracking of facial features across individuals and groups |
JP5689850B2 (ja) * | 2012-05-25 | 2015-03-25 | 株式会社ソニー・コンピュータエンタテインメント | 映像解析装置、映像解析方法、および注視点表示システム |
JP6056323B2 (ja) | 2012-09-24 | 2017-01-11 | 富士通株式会社 | 視線検出装置、視線検出用コンピュータプログラム |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9058519B2 (en) | 2012-12-17 | 2015-06-16 | Qualcomm Incorporated | System and method for passive live person verification using real-time eye reflection |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
WO2015048030A1 (en) | 2013-09-24 | 2015-04-02 | Sony Computer Entertainment Inc. | Gaze tracking variations using visible lights or dots |
WO2015048028A1 (en) | 2013-09-24 | 2015-04-02 | Sony Computer Entertainment Inc. | Gaze tracking variations using selective illumination |
WO2015048026A1 (en) | 2013-09-24 | 2015-04-02 | Sony Computer Entertainment Inc. | Gaze tracking variations using dynamic lighting position |
FR3011952B1 (fr) | 2013-10-14 | 2017-01-27 | Suricog | Procede d'interaction par le regard et dispositif associe |
US9330302B2 (en) * | 2014-02-26 | 2016-05-03 | Microsoft Technology Licensing, Llc | Polarized gaze tracking |
EP3001867B1 (de) * | 2014-08-08 | 2017-06-21 | FotoNation Limited | Smartphone zur biometrischen erkennung von einem irismuster und entsprechenden gesichtzügen einer person |
JP2016049259A (ja) * | 2014-08-29 | 2016-04-11 | アルプス電気株式会社 | 視線検出装置 |
WO2016117277A1 (ja) | 2015-01-21 | 2016-07-28 | Hoya株式会社 | 内視鏡システム |
EP3056938B1 (de) | 2015-02-10 | 2017-12-20 | Juan Dominguez-Montes | Stereoskopisches reproduktionssystem mit transparenz |
US9633626B2 (en) * | 2015-03-12 | 2017-04-25 | Visteon Global Technologies, Inc. | Adjusting an electronic display based on gaze tracking |
US10043281B2 (en) | 2015-06-14 | 2018-08-07 | Sony Interactive Entertainment Inc. | Apparatus and method for estimating eye gaze location |
US10459305B2 (en) | 2015-08-03 | 2019-10-29 | Facebook Technologies, Llc | Time-domain adjustment of phase retardation in a liquid crystal grating for a color display |
US10552676B2 (en) | 2015-08-03 | 2020-02-04 | Facebook Technologies, Llc | Methods and devices for eye tracking based on depth sensing |
US10042165B2 (en) | 2015-08-03 | 2018-08-07 | Oculus Vr, Llc | Optical system for retinal projection from near-ocular display |
US10338451B2 (en) | 2015-08-03 | 2019-07-02 | Facebook Technologies, Llc | Devices and methods for removing zeroth order leakage in beam steering devices |
US10297180B2 (en) | 2015-08-03 | 2019-05-21 | Facebook Technologies, Llc | Compensation of chromatic dispersion in a tunable beam steering device for improved display |
US10016130B2 (en) | 2015-09-04 | 2018-07-10 | University Of Massachusetts | Eye tracker system and methods for detecting eye parameters |
US10157312B2 (en) * | 2015-10-08 | 2018-12-18 | Microsoft Technology Licensing, Llc | Iris recognition |
US10416454B2 (en) | 2015-10-25 | 2019-09-17 | Facebook Technologies, Llc | Combination prism array for focusing light |
US10247858B2 (en) | 2015-10-25 | 2019-04-02 | Facebook Technologies, Llc | Liquid crystal half-wave plate lens |
US10203566B2 (en) | 2015-12-21 | 2019-02-12 | Facebook Technologies, Llc | Enhanced spatial resolution using a segmented electrode array |
US9807383B2 (en) * | 2016-03-30 | 2017-10-31 | Daqri, Llc | Wearable video headset and method for calibration |
US9972134B2 (en) | 2016-06-30 | 2018-05-15 | Microsoft Technology Licensing, Llc | Adaptive smoothing based on user focus on a target object |
CN106339087B (zh) * | 2016-08-29 | 2019-01-29 | 上海青研科技有限公司 | 一种基于多维坐标的眼球追踪方法及其装置 |
US10372591B2 (en) | 2016-09-07 | 2019-08-06 | International Business Machines Corporation | Applying eye trackers monitoring for effective exploratory user interface testing |
WO2018061883A1 (ja) * | 2016-09-29 | 2018-04-05 | オリンパス株式会社 | 観察装置 |
EP3300653B1 (de) * | 2016-09-30 | 2019-07-03 | Smart Eye AB | Kopf-/augenverfolgung mit lichtquellenvorerwärmung |
WO2018082692A1 (en) * | 2016-11-07 | 2018-05-11 | Changchun Ruixinboguan Technology Development Co., Ltd. | Systems and methods for interaction with application |
KR102564479B1 (ko) | 2016-11-22 | 2023-08-07 | 삼성전자주식회사 | 사용자의 눈을 위한 3d 렌더링 방법 및 장치 |
KR20180071589A (ko) * | 2016-12-20 | 2018-06-28 | 삼성전자주식회사 | 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치 |
US10346697B2 (en) * | 2016-12-21 | 2019-07-09 | Hyundai America Technical Center, Inc | Driver state monitoring using corneal reflection detection |
US10485420B2 (en) * | 2017-02-17 | 2019-11-26 | Analog Devices Global Unlimited Company | Eye gaze tracking |
US20180255250A1 (en) * | 2017-03-03 | 2018-09-06 | Microsoft Technology Licensing, Llc | Pulsed, gated infrared illuminated camera systems and processes for eye tracking in high ambient light environments |
US10108319B2 (en) | 2017-03-22 | 2018-10-23 | International Business Machines Corporation | Cognitive dashboard adjustment |
US10922566B2 (en) | 2017-05-09 | 2021-02-16 | Affectiva, Inc. | Cognitive state evaluation for vehicle navigation |
JP7046506B2 (ja) * | 2017-06-12 | 2022-04-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10108261B1 (en) * | 2017-07-05 | 2018-10-23 | Oculus Vr, Llc | Eye tracking based on light polarization |
US10311584B1 (en) | 2017-11-09 | 2019-06-04 | Facebook Technologies, Llc | Estimation of absolute depth from polarization measurements |
US10884492B2 (en) | 2018-07-20 | 2021-01-05 | Avegant Corp. | Relative position based eye-tracking system |
US10630925B1 (en) | 2018-12-03 | 2020-04-21 | Facebook Technologies, Llc | Depth determination using polarization of light and camera assembly with augmented pixels |
US10791282B2 (en) | 2018-12-13 | 2020-09-29 | Fenwick & West LLP | High dynamic range camera assembly with augmented pixels |
US10791286B2 (en) | 2018-12-13 | 2020-09-29 | Facebook Technologies, Llc | Differentiated imaging using camera assembly with augmented pixels |
US10855896B1 (en) | 2018-12-13 | 2020-12-01 | Facebook Technologies, Llc | Depth determination using time-of-flight and camera assembly with augmented pixels |
US10949649B2 (en) | 2019-02-22 | 2021-03-16 | Image Metrics, Ltd. | Real-time tracking of facial features in unconstrained video |
US11887383B2 (en) | 2019-03-31 | 2024-01-30 | Affectiva, Inc. | Vehicle interior object management |
US11657134B2 (en) | 2019-10-30 | 2023-05-23 | Imatrix Holdings Corp. | Eye contact detection device |
US10902623B1 (en) | 2019-11-19 | 2021-01-26 | Facebook Technologies, Llc | Three-dimensional imaging with spatial and temporal coding for depth camera assembly |
US11769056B2 (en) | 2019-12-30 | 2023-09-26 | Affectiva, Inc. | Synthetic data for neural network training using vectors |
US11194160B1 (en) | 2020-01-21 | 2021-12-07 | Facebook Technologies, Llc | High frame rate reconstruction with N-tap camera sensor |
US11300784B2 (en) | 2020-02-21 | 2022-04-12 | Fotonation Limited | Multi-perspective eye acquisition |
CN111369560B (zh) * | 2020-04-26 | 2023-04-28 | 成都大熊猫繁育研究基地 | 一种圈养大熊猫体温快速测量方法 |
CN115933172B (zh) * | 2022-11-29 | 2023-09-12 | 大连海事大学 | 一种基于偏振多光谱成像的人眼视线追踪装置及方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3689135A (en) * | 1971-01-26 | 1972-09-05 | Laurence R Young | Method for monitoring movement of a subject{40 s eyes |
US4102564A (en) * | 1975-04-18 | 1978-07-25 | Michael Henry L | Portable device for the accurate measurement of eye movements both in light and obscurity |
US4075657A (en) * | 1977-03-03 | 1978-02-21 | Weinblatt Lee S | Eye movement monitoring apparatus |
US4145122A (en) * | 1977-05-31 | 1979-03-20 | Colorado Seminary | Method and apparatus for monitoring the position of the eye |
US4303394A (en) * | 1980-07-10 | 1981-12-01 | The United States Of America As Represented By The Secretary Of The Navy | Computer generated image simulator |
US4702575A (en) * | 1981-05-11 | 1987-10-27 | The United States Of America As Represented By The Secretary Of The Navy | Helmet mounted eye tracker using a position sensing detector |
JPS58213382A (ja) * | 1982-06-04 | 1983-12-12 | Fujitsu Ltd | 認識装置 |
JPS59231402A (ja) * | 1983-06-15 | 1984-12-26 | Hitachi Ltd | 生セラミックス基材上の配線パターン検出方法 |
JPS60152904A (ja) * | 1984-01-20 | 1985-08-12 | Nippon Denso Co Ltd | 車両運転者位置認識装置 |
US4651145A (en) * | 1984-05-31 | 1987-03-17 | Medical Research Institute | Communication system for the disabled in which a display target is selected by encephalogram response |
JPS6141906A (ja) * | 1984-08-03 | 1986-02-28 | Hitachi Denshi Ltd | はんだ面の状態認識方法 |
US4641349A (en) * | 1985-02-20 | 1987-02-03 | Leonard Flom | Iris recognition system |
US4755045A (en) * | 1986-04-04 | 1988-07-05 | Applied Science Group, Inc. | Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers |
JPS63175704A (ja) * | 1987-01-14 | 1988-07-20 | Murata Mfg Co Ltd | 電子部品の外観検査方法 |
JPH01158579A (ja) * | 1987-09-09 | 1989-06-21 | Aisin Seiki Co Ltd | 像認識装置 |
US4975969A (en) * | 1987-10-22 | 1990-12-04 | Peter Tal | Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same |
-
1989
- 1989-07-12 US US07/378,626 patent/US5016282A/en not_active Expired - Lifetime
- 1989-07-14 DE DE68926192T patent/DE68926192T2/de not_active Expired - Fee Related
- 1989-07-14 EP EP89112977A patent/EP0350957B1/de not_active Expired - Lifetime
- 1989-07-14 DE DE68927275T patent/DE68927275T2/de not_active Expired - Fee Related
- 1989-07-14 EP EP94101635A patent/EP0596868B1/de not_active Expired - Lifetime
- 1989-07-14 DE DE68928825T patent/DE68928825T2/de not_active Expired - Fee Related
- 1989-07-14 EP EP94101179A patent/EP0603157B1/de not_active Expired - Lifetime
-
1991
- 1991-02-27 US US07/661,367 patent/US5818954A/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007056528B3 (de) * | 2007-11-16 | 2009-04-02 | Seereal Technologies S.A. | Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren |
DE102009004381B4 (de) * | 2008-01-10 | 2011-09-01 | Rodenstock Gmbh | Vorrichtung, Verfahren und Computerprogrammprodukt |
DE102016106121A1 (de) * | 2016-04-04 | 2017-10-05 | Carl Zeiss Ag | Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung |
WO2017174525A1 (de) | 2016-04-04 | 2017-10-12 | Carl Zeiss Vision International Gmbh | Verfahren und vorrichtung zum bestimmen von parametern zur brillenanpassung |
US11126016B2 (en) | 2016-04-04 | 2021-09-21 | Carl Zeiss Vision International Gmbh | Method and device for determining parameters for spectacle fitting |
US11867978B2 (en) | 2016-04-04 | 2024-01-09 | Carl Zeiss Vision International Gmbh | Method and device for determining parameters for spectacle fitting |
Also Published As
Publication number | Publication date |
---|---|
EP0350957A3 (de) | 1992-12-30 |
EP0350957A2 (de) | 1990-01-17 |
US5818954A (en) | 1998-10-06 |
DE68928825D1 (de) | 1998-11-05 |
EP0596868A3 (en) | 1994-07-13 |
DE68926192T2 (de) | 1996-09-12 |
EP0603157A1 (de) | 1994-06-22 |
EP0350957B1 (de) | 1996-04-10 |
EP0596868B1 (de) | 1998-09-30 |
EP0596868A2 (de) | 1994-05-11 |
DE68926192D1 (de) | 1996-05-15 |
EP0603157B1 (de) | 1996-09-25 |
DE68927275T2 (de) | 1997-03-06 |
DE68927275D1 (de) | 1996-10-31 |
US5016282A (en) | 1991-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68928825T2 (de) | Augenfolgeverfahren unter Verwendung eines Bildaufnahmegeräts | |
DE102020105652B4 (de) | Verfolgungssystem mit infrarot-kamera | |
DE60209050T2 (de) | Gerät und Verfahren zur Anpassung der Fokusposition in einem Iriserkennungssystem | |
DE69934068T2 (de) | Bestimmung der position von augen durch blitzreflexerkennung und korrektur von defekten in einem aufgenommenen bild | |
WO2017174525A1 (de) | Verfahren und vorrichtung zum bestimmen von parametern zur brillenanpassung | |
EP3183616B1 (de) | Ermittlung von benutzerdaten unter berücksichtigung von bilddaten einer ausgewählten brillenfassung | |
EP3355104B1 (de) | Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands | |
DE69526977T2 (de) | Multikameravorrichtung für untersuchungen der hornhaut | |
US8077914B1 (en) | Optical tracking apparatus using six degrees of freedom | |
DE69400266T2 (de) | Vorrichtung zum analysieren der augenbewegung | |
EP3256036B1 (de) | Vorrichtung und verfahren zur abstandsbestimmung und/oder zentrierung unter verwendung von hornhautreflexionen | |
JPH0782539B2 (ja) | 瞳孔画像撮影装置 | |
DE102007006158A1 (de) | Verfahren und Vorrichtung zum Erfassen eines Sichtlinienvektors | |
EP3047424A2 (de) | Vorrichtung, system und verfahren zum identifizieren einer person | |
DE112005002395T5 (de) | Sichtlinien-Detektionsverfahren | |
DE112017007303B4 (de) | Gesichtserkennungsvorrichtung | |
DE10304185B4 (de) | Vorrichtung und Verfahren zum Anpassen einer Position eines Brillenglases relativ zur Position einer Pupille | |
DE102017203649A1 (de) | Gesichtsbildverarbeitungsvorrichtung | |
CN111524175A (zh) | 非对称式多摄像头的深度重建及眼动追踪方法及*** | |
DE212018000158U1 (de) | Augenblickverfolgung | |
WO2010007094A2 (de) | Verfahren und anordnung zur 3d-erfassung von objekten sowie ein entsprechendes computerprogramm und ein computerlesbares speichermedium | |
DE19731303B4 (de) | Verfahren und Vorrichtung zum kontaktlosen, helmfreien Messen der Blickrichtung von Augen bei Kopf- und Augenbewegungen | |
EP3959497B1 (de) | Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases | |
WO1999003013A1 (de) | Verfahren zur verbesserung des optischen wahrnehmungsvermögens durch modifikation des netzhautbildes | |
DE102011009261B4 (de) | Bestimmung der Rotationsparameter der Augen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |