DE102004063566A1 - Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen - Google Patents

Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen Download PDF

Info

Publication number
DE102004063566A1
DE102004063566A1 DE102004063566A DE102004063566A DE102004063566A1 DE 102004063566 A1 DE102004063566 A1 DE 102004063566A1 DE 102004063566 A DE102004063566 A DE 102004063566A DE 102004063566 A DE102004063566 A DE 102004063566A DE 102004063566 A1 DE102004063566 A1 DE 102004063566A1
Authority
DE
Germany
Prior art keywords
eye
control system
light source
light
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102004063566A
Other languages
English (en)
Inventor
John Stewart Menlo Park Wenstrand
Todd Stephen Palo Alto Sachs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies International Sales Pte Ltd
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of DE102004063566A1 publication Critical patent/DE102004063566A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Eye Examination Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Direct Current Feeding And Distribution (AREA)
  • Image Analysis (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Eine Augenerfassung wird als die Basis zum Bereitstellen einer Leistungsverwaltung oder anderer Variationen von Betriebsparametern einer gesteuerten Vorrichtung verwendet. Das System umfasst einen Bilderzeuger und eine Augenerfassungsverarbeitung, die zusammenwirken, um Licht zu erfassen, das von dem Auge einer Person empfangen wird. Die Augenerfassungsverarbeitung erzeugt ein Ausgangssignal, das für Bestimmungen im Hinblick auf das Vorhandensein von einer oder mehreren Personen oder das Vorhandensein einer spezifischen Person verwendet werden kann. Dieses Ausgangssignal wird als die Basis zum Schalten der gesteuerten Vorrichtung zwischen zumindest zwei Leistungsverbrauchszuständen verwendet. Die Augenerfassung kann ferner verwendet werden, um einer Person zu ermöglichen, aktiv Betriebszustände der gesteuerten Vorrichtung einzustellen, da unnatürliche Augenblinzelmuster bestimmten Befehlen zugeordnet sein können.

Description

  • Eine Vielzahl von unterschiedlichen Typen von elektronischen Vorrichtungen sind nur von Nutzen, wenn sie betrachtet werden. Beispiele dieser Typen von Vorrichtungen umfassen Fernseher, Computerbildschirme, Laptopanzeigen, Anzeigen für Zellulartelefone und persönliche digitale Assistenten und Tablettcomputeranzeigen.
  • Einige elektronische Vorrichtungen, die visuelle Bilder zum menschlichen Nutzen präsentieren, wie z. B. Plasmabildschirmfernseher, erfordern eine beträchtliche Leistung. Andere Vorrichtungen, die visuelle Bilder präsentieren, sind energieeffizienter, erfordern jedoch die Verwendung von zumindest einer Batterie. Die Batterien sind üblicherweise wiederaufladbar, aber das Wiederaufladen der Batterie ist häufig unbequem für den Benutzer. Einige Vorrichtungen arbeiten in Umgebungen, in denen Energie begrenzt und daher wertvoll ist. Folglich ist das Minimieren der Leistungsverschwendung eine wichtige Produktfunktion.
  • Zusätzlich zu Betrachtungen, die sich auf den Leistungsverbrauch beziehen, bestehen andere Vorteile, die aus dem Einschränken von Operationen von elektronischen Vorrichtungen zu jenen Zeiten resultieren, in denen die Operation Nutzen bringt. Ein solcher Vorteil ist, dass die Nutzlebensdauer der Vorrichtung verlängert werden kann. Somit, wenn eine elektronische Vorrichtung, wie z. B. ein Plasmabildschirmfernseher, eine finite Lebenserwartung im Hinblick auf Verwendungsstunden hat, kann der Wert der Vorrichtung über der Zeit erhöht werden, durch ordnungsgemäßes Regulieren der Verwendung der Vorrichtung. Dies gilt für kostengünstige Vorrichtungen, die keine visuellen Anzeigen umfassen, wie z. B. Lichtquellen. Somit kann die Nutzlebensdauer eines Lichts innerhalb eines Ofens oder eines Wandschranks ausgedehnt werden, wenn das Licht „ein"-geschaltet wird, nur wenn eine Person durch das Ofenfenster oder in den Wandschrank blickt.
  • Es gibt Lösungsansätze zum automatischen „Ein"- und/oder „Aus"-Schalten einer Vorrichtung zu geeigneten Zeiten. Eine bekannte Technik ist das Überwachen der Aktivität durch Eingabevorrichtungen eines Computersystems. Somit, wenn eine längere Periode vorliegt, in der keine Aktivität an einer Tastatur oder einer Computermaus vorliegt, kann ein Computersystem in einen reduzierten Leistungszustand geschaltet werden. Dann, wenn der Benutzer des Computersystems eine Bewegung der Maus verursacht oder einen Tastendruck initiiert, kehrt das System in seinen Vollbetriebszustand zurück. Viele Fernseher umfassen „Schlaf"-Zeitgeber, bei denen der Fernseher automatisch nach einer bestimmten Zeitperiode abschaltet. Die verschiedenen bekannten Techniken zum automatischen Ändern des Zustands einer Vorrichtung funktionieren gut für ihren vorgesehenen Zweck, umfassen jedoch Einschränkungen.
  • Andere Betriebsparameter einer elektronischen Vorrichtung können ohne Kontaktieren der Vorrichtung eingestellt werden. Zum Beispiel kann die Lautstärke oder der Kanal eines Fernsehers verändert werden, unter Verwendung einer Fernsteuerungseinheit. Die Einheit erhöht die Bequemlichkeit bedeutend, wiederholte Änderungen an den Betriebsparametern der Vorrichtung durchzuführen. Es kann jedoch Zeiten geben, in denen die Fernsteuerungseinheit nicht ohne weiteres verfügbar ist, wie z. B. wenn die Einheit verlegt wurde. Das U.S.-Patent Nr. 6,163,281 an Torch beschreibt ein System und ein Verfahren zum Kommunizieren mit einer Vorrichtung unter Verwendung von Augenbewegung. Brillen können besonders ausgerüstet sein, um einen Emitter zu umfassen, um Licht hin zu einem Auge zu richten und um einen Sensor zum Erfassen von Licht zu umfassen, das von einem Auge reflektiert wird. Ein Hochfrequenzsender sendet dann einen Datenstrom zu einem entfernten Ort, wie z. B. einer Empfangs- und Verarbeitungseinheit zum Steuern einer Vorrichtung. Der Datenstrom kann ein binäres Signal sein, wie z. B. ein Morsecode. Das Patent beschreibt primär den Sensor derart, dass er eine einzelne Photozelle ist, die mit dem Rahmen der Brille verbunden ist, gibt jedoch an, dass ein Array von Sensoren eingesetzt werden kann, wobei der Prozessor auf die Signale von jedem Sensor in dem Array zugreift, um einen Datenstrom zu erzeugen, der den Prozentsatz des Oberflächenbereichs des Auges anzeigt, der durch das Augenlid abgedeckt ist. Das Torch-System und -Verfahren schafft Vorteile in Bezug auf die Verwendung der herkömmlichen Fernsteuerungseinheit, erfordert jedoch, dass die optischen Komponenten in der Nähe des Auges der Person sind, um zuverlässige Informationen zu erwerben.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein Steuerungssystem für eine Vorrichtung, ein Steuerungssystem zum Betreiben einer Vorrichtung und ein Verfahren zum Steuern einer Vorrichtung mit verbesserten Charakteristika zu schaffen.
  • Diese Aufgabe wird durch ein Steuerungssystem für eine Vorrichtung gemäß Anspruch 1 und 29, ein Steuerungssystem zum Betreiben einer Vorrichtung gemäß Anspruch 21 und ein Verfahren zum Steuern einer Vorrichtung gemäß Anspruch 44 und 52 gelöst.
  • Ein Steuerungssystem verwendet einen Bilderzeuger und eine Augenerfassungsverarbeitung, um eine freihändige Steuerung von Betriebsparametern einer Vorrichtung zu ermöglichen. Das Verfahren zum Bereitstellen einer Steuerung kann entweder oder sowohl nur auf dem Erfassen der Anwesenheit oder Abwesenheit eines Auges und dem Erfassen einer spezifischen Augenaktivität basieren.
  • Bei einem Ausführungsbeispiel ist der Ausgang der Augenerfassungsverarbeitung mit einer Steuerung verbunden, die freigegeben ist, um die Vorrichtung zwischen zumindest zwei Leistungsverbrauchszuständen zu schalten. Die Steuerung ist konfiguriert, um ein Schalten von einem Leistungsverbrauchszustand zu einem anderen auszuführen, als eine bedingte Antwort, die sowohl eine Zeitgebungsberücksichtigung als auch die Augenerfassungsberücksichtigung umfasst. Als eine erste mögliche bedingte Antwort, die ausgeführt werden soll, schaltet das Steuerungssystem die Vorrichtung von einem Leistung-Ein-Zustand in einen niedrigeren Leistungsverbrauchszustand nach dem Ablaufen einer ersten Zeitperiode, ohne Erfassen eines Auges. Als eine zweite mögliche bedingte Antwort schaltet das Steuerungssystem die Vorrichtung in den Leistung-Ein-Zustand nach der Erfassung eines Auges, während die Vorrichtung in einem niedrigeren Leistungsverbrauchszustand ist. Nur die Anwesenheit oder Abwesenheit eines Auges ist von Bedeutung, nicht der Blickwinkel (d. h. die Sichtlinie) der Person. Die Vorrichtung kann mehr als drei Leistungsverbrauchszustände aufweisen, wie z. B. den Leistung-Ein-Zustand, einen Schlafzustand und einen Leistung-Aus-Zustand eines Fernsehers oder einer anderen elektronischen Vorrichtung, die eine Anzeige aufweist. Ist dies der Fall, kann die Steuerung programmiert sein, um eine oder mehrere zusätzliche automatisierte Antworten auszuführen, die auf der Kombination einer Zeitgebungsberücksichtigung und einer Augenerfassungsberücksichtigung basieren.
  • Bei einem anderen Ausführungsbeispiel können zuverlässige Informationen im Hinblick auf die Augenaktivität und/oder Augenvorhandensein erworben werden, durch Verwenden einer ersten und zweiten Lichtquelle, wobei die erste Lichtquelle positioniert ist, um Licht in einem ersten Beleuchtungswinkel zu emittieren, der wesentlich geringer ist als der Beleuchtungswinkel der zweiten Lichtquelle. Wie hierin verwendet, ist der „Beleuchtungswinkel" der Winkel der Achse des emittierten Lichts zu der Achse des Bilderzeu gers. Die Differenz bei den Beleuchtungswinkeln liefert eine erfassbare Differenz bei dem abgebildeten Licht aus den zwei Quellen nach einer Reflexion von einem menschlichen Auge. Zusätzlich zu dem Bilderzeuger, den zwei Lichtquellen und der Steuerung kann das Steuerungssystem eine Speicherung von „Augenbefehlen" umfassen, die Korrelationen zwischen vorbestimmten Augenblinzelmustern und Befehlen zum Variieren der Betriebsparameter der Vorrichtung sind, die gesteuert wird. Die Betriebsparameter, die durch Augenbefehle variiert werden können, können sich auf die Leistungsverbrauchszustände der Vorrichtung beziehen und/oder können sich auf andere Aspekte beziehen, wie z. B. die Lautstärke oder den Kanal eines Fernsehers oder eines anderen Videoanzeigesystems.
  • Bei einem dritten Ausführungsbeispiel verwendet das Steuerungssystem Rahmen-zu-Rahmen-Vergleiche, um zuverlässige Informationen im Hinblick auf die Anwesenheit oder Abwesenheit eines Auges innerhalb des Betrachtungsfeldes des Bilderzeugers zu erwerben. Ein erster und zweiter Rahmen aus Bilddaten wird erzeugt und dann verwendet, um einen Differenzbildrahmen zu erzeugen. Die Techniken zum Auswählen und Erzeugen der zwei Rahmen sind entworfen, um nützliche Augenerfassungsdaten zu liefern, wenn die zwei Rahmen differenziert sind. Bei Anwendungen können die Techniken zum Bilden der zwei Rahmen unterscheidbar sein, im Hinblick auf die Lichtquellen, die beim Erzeugen der zwei Rahmen aktiviert sind. Zum Beispiel kann eine erste Lichtquelle während der Erzeugung des ersten Rahmens aktiviert sein und eine zweite Lichtquelle kann während der Erzeugung des zweiten Rahmens aktiviert sein, wobei die zwei Lichtquellen im Hinblick auf einen oder mehrere der zwei Beleuchtungswinkel, Polarisierungen, Modulationscharakteristika und Wellenlängen unterscheidbar sind. Die zwei Rahmen können temporär unterscheidbar sein, wie z. B. wenn die erste und zweite Lichtquelle abwechselnd aktiviert werden, um zwischen dem Erwerben eines ersten Rahmens und dem Erwerben eines zweiten Rahmens zu schalten. Alternativ können die zwei Rahmen räumlich im Hinblick auf die Pixel eines zweidimensionalen Pixelarrays unterscheidbar sein, wenn die Pixel im Hinblick auf optische Eigenschaften unterscheidbar sind (entweder unter Verwendung von Linsen oder physischen Unterschieden bei den Pixeln selbst) oder im Hinblick auf elektronische Techniken zum Abtasten der Pixel.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
  • 1 ein Blockdiagramm von Komponenten eines Steuerungssystems gemäß der Erfindung;
  • 2 ein schematisches Diagramm des Steuerungssystems aus 1, das mit einem Computersystem verbunden ist;
  • 3 eine Vorderansicht eines Fernsehbildschirms, Anzeigebildschirms oder Zweizustandsfensters, das angepasst wurde, um das Steuerungssystem aus 1 zu umfassen;
  • 4 eine perspektivische Ansicht eines Ofens, der angepasst wurde, um das Steuerungssystem aus 1 zu umfassen;
  • 5 ein Prozessfluss aus Schritten einer Implementierung zum Verwenden des Systems aus 1;
  • 6 eine Entwurfsansicht des Ausführungsbeispiels eines Paars aus Lichtquellen zur Pupillenerfassung gemäß der Erfindung; und
  • 7, Bilder eines menschlichen Auges, das durch das 8 und 9 System aus 6 erfasst wird.
  • Bezug nehmend auf 1 umfasst ein Ausführungsbeispiel eines Steuerungssystems 10 gemäß der Erfindung eine Erfassungslichtquelle oder Lichtquellen 12, die gerichtet sind, um ein Auge 14 einer Einzelperson zu beleuchten. Bei vielen Anwendungen der Erfindung ist es wünschenswert, die Aufdringlichkeit des Systems gegenüber der Einzelperson zu minimieren. Wenn z. B. das System zum Regeln des Leistungsverbrauchs oder anderer Betriebsparameter eines Fernsehers verwendet wird (z. B. Lautstärke und Kanal), ist die Augenerfassung vorzugsweise transparent für die Personen, die den Fernseher betrachten. Somit kann jede Lichtquelle Licht emittieren, das außerhalb des sichtbaren Lichtspektrums ist. Infrarotlicht oder nahes Infrarotlicht ist gut geeignet zum Erfassen von Pupillen eines menschlichen Auges, wie nachfolgend ausführlicher erklärt wird. Bei einigen Anwendungen des Systems kann die Erfassungslichtquelle 12 weggelassen werden, wenn das Zielmerkmal für die Erfassung (das menschliche Auge) ausreichend Licht der Erfassungsfrequenz reflektiert oder erzeugt, ohne den Bedarf einer Lichtquelle, die für das System zweckgebunden ist. Andererseits erfordern einige Ausführungsbeispiele mehrere Lichtquellen, um das Verhalten zu maximieren, wie z. B. wenn die Lichtquellen vorgesehen sind, um Licht bei unterschiedlichen Beleuchtungswinkeln, Wellenlängen, Polarisierungen und/oder Modulationscharakteristika zu emittieren.
  • Das Steuerungssystem 10 umfasst ferner einen Bilderzeuger 16, der positioniert ist, um Licht von dem Auge 14 oder den Augen von Personen innerhalb Positionen von Interesse im Hinblick auf die Operation einer gesteuerten Vorrichtung 18 zu empfangen. Die gesteuerte Vorrichtung kann eine derartige sein, für die die Leistungsverwaltung das Problem ist. Alternativ oder zusätzlich können andere Operationen automatisch variiert werden. Für eine Leistungsverwaltung wird die Vorrichtung oder eine Komponente der Vorrichtung zwischen zumindest zwei Leistungsverbrauchszuständen geschaltet, abhängig von der Anwesenheit oder Abwesenheit einer Augenerfassung (unabhängig von dem Blickwinkel der Person) zu einer bestimmten Zeit oder über eine bestimmte Zeitperiode. Die gesteuerte Vorrichtung kann nur zwei Leistungsverbrauchszustände aufweisen. Als ein Beispiel kann das Licht, das innerhalb eines Ofens ist, aktiviert oder deaktiviert werden, abhängig davon, ob eine Person positioniert ist, um in das Innere des Ofens zu blicken. Als ein anderes Beispiel kann ein Fernseher oder ein anderes Videoanzeigesystem zwischen drei Leistungsverbrauchszuständen geschaltet werden, nämlich einem Leistung-Ein-Zustand, einem Schlafzustand und einem Aus-Zustand.
  • Ein Benutzer des Systems 10 kann „passive Eingaben" oder „aktive Eingaben" liefern. Für die passiven Eingaben überwacht das System nur die Anwesenheit oder Abwesenheit von Augen und variiert zumindest einen Betriebsparameter entsprechend. Als Beispiele kann ein Fernseher „aus"-geschaltet werden, wenn eine Person einen Raum verlässt oder die Augen für eine vorausgewählte Zeitperiode schließt (z. B. fünf Minuten), oder ein Monitor eines Computersystems kann in einen Schlafzustand geschaltet werden, wenn Augen für eine andere Zeitperiode nicht erfasst werden. Die gesteuerte Vorrichtung 18 kann dann in den Leistung-Ein-Zustand zurückgesetzt werden, wenn Augen erfasst werden. Für die aktiven Eingaben überwacht das System die Augenaktivität, um ein Augenblinzelmuster zu erfassen, das mit einem bestimmten Befehl korreliert ist, um einen Betriebsparameter zu variieren. Somit kann eine behinderte Person Blinzelmuster verwenden, um einen Rollstuhl oder eine andere Vorrichtung zu steuern.
  • Als eine Möglichkeit des Bilderzeugers 16 kann eine ladungsgekoppelte Vorrichtung (CCD; CCD = charge-coupled device) verwendet werden. Jedes Pixel innerhalb eines zweidimensionalen Arrays aus Elementen erzeugt ein Signal, das auf der Intensität des Lichts basiert, das an dem Pixel empfangen wird, wie in der Technik bekannt ist. Alternativ kann der Bilderzeuger ein komplementärer Metalloxidhalbleiter-Bilderzeuger (CMOS-Bilderzeuger; CMOS = complementary metal-oxide semiconductor) sein. Im Allgemeinen sind CMOS-Bilderzeuger weniger teuer als CCD-Detektoren und liefern manchmal eine bessere Empfindlichkeit bei Infrarot/Nahinfrarot-Wellenlängen, aber die Erfindung funktioniert gut mit jedem Typ von Bilderzeuger. Ferner können andere Typen von Bilderzeugern verwendet werden.
  • Die Erfassungslichtquelle oder -quellen 12 und der Bilderzeuger 16 sind mit der Augenerfassungsverarbeitung 20 verbunden, die für das System 10 zweckgebunden sein kann oder eine gemeinschaftlich verwendete Verarbeitung sein kann, wie z. B. eine systemzweckgebundene Software, die unter Verwendung der Schaltungsanordnung der gesteuerten Vorrichtung 18 ausgeführt wird. Die Hardware- und Softwarekomponenten können auf eine Weise zusammenwirken, die der Beschreibung entspricht in der U.S.-Patentanmeldung Nr. 10/377,687, eingereicht am 28. Februar 2003 von Haven u. a. mit dem Titel „Apparatus and Method for Detecting Pupils", und die an den Bevollmächtigten der vorliegenden Erfindung übertragen ist. Eine andere gemeinsam zugewiesene Patentanmeldung, die für die Implementierung relevant ist, ist die U.S.-Patentanmeldung Nr. 10/739,831 von Fouquet u. a., die am 18. Dezember 2003 eingereicht wurde mit dem Titel „Method and System for Wavelength-Dependent Imaging and Detection Using a Hybrid Filter". Ebenfalls von Interesse ist das U.S.-Patent Nr. 6,082,858 an Grace u. a., das folgendes beschreibt: „Apparatus and Method of Monitoring a Subject's Eyes Using Two Different Wavelengths of Light". Die Verfahren, die in den zwei Patentdokumenten offenbart sind, können beim Überwachen der Aufmerksamkeit eines Fahrers eines Kraftfahrzeugs verwendet werden.
  • In 1 können Rahmen aus Bildinformationen durch den Bilderzeuger 16 erzeugt werden und dann durch die Augenerfassungsverarbeitung 20 manipuliert werden, um das Auge 14 von anderen Merkmalen innerhalb des Betrachtungsfeldes des Bilderzeugers zu unterscheiden. Es wurde bestimmt, dass eine größere Zuverlässigkeit erreicht wird, durch Erzeugen eines Differenzbildes auf der Basis von zwei Rahmen aus Bildinformationen. Bei diesem Ausführungsbeispiel hoher Zuverlässigkeit wird eines der Bilder unter Verwendung einer Belichtung erzeugt, die nahe an oder direkt auf der Achse des Detektors ist („Aufachsenbilderzeugung"), während das andere Bild unter Verwendung einer Belichtung erworben wird, die in einem größeren Winkel zu dem Detektor ist („Außerachsenbilderzeugung"). Wenn die Augen einer Person offen sind, hebt die Differenz zwischen den zwei Bildern die Pupillen der Augen hervor, da die etwas diffuse Reflexion von den Retinae nur in dem Aufachsenbild erfasst wird. Das starke Pupillensignal bei der Aufachsenbilderzeugung wird als „rote Augen" bei der herkömmlichen Blitzphotographie bezeichnet. Andere Gesichts- und Umgebungsmerkmale werden weitgehend beseitigt, wodurch die Pupillen als das dominante Merkmal in dem Differenzbild übrig bleiben. Wenn die Pupillen nicht in dem Differenzbild erfasst werden, wird gefolgert, dass keine Person innerhalb des abgebildeten Bereichs ist oder keine Person an einer fortgesetzten Operation der gesteuerten Vorrichtung 18 interessiert ist (z. B. in demselben Raum wie ein gesteuerter Fernseher schläft). Andere Techniken zum Unterscheiden des Auges 14 können jedoch eingesetzt werden.
  • Die Augenerfassungsverarbeitung 20 ist ferner derart gezeigt, dass sie mit einem Zeitgeber 22 verbunden ist. Der Zeitgeber stellt eine bekannte Einrichtung zum Ermöglichen von zeitbasierten Bestimmungen durch die Augenerfassungsverarbeitung dar. Wenn z. B. die gesteuerte Vorrichtung 18 ein Plasmafernseher ist, kann der Fernseher von seinem eingeschalteten Zustand in einen Schlafzustand geschaltet werden, nach der Bestimmung, dass der Fernseher für eine erste vorausgewählte Zeitperiode nicht betrachtet wurde (z. B. fünf Minuten), und kann von dem Schlafzustand in einen Aus-Zustand geschaltet werden, ansprechend auf das Bestimmen, dass eine zweite Zeitperiode (z. B. zehn Minuten) abgelaufen ist, seit dem Schalten in den Schlafzustand. Eine Erfassung eines Auges 14 jedoch, während der Fernseher in dem Schlafzustand ist, setzt den Fernseher zurück in seinen voll betriebsfähigen eingeschalteten Zustand.
  • Die Zeitgebung und andere Aspekte des Systems 10 können benutzerkonfigurierbar sein. Eine Benutzereingabevorrichtung 24 ermöglicht, dass Einstellungen individuell eingerichtet werden. Bei der Steuerung eines Plasmafernsehers kann die Benutzereingabevorrichtung ein herkömmliches Fernsteuerungsbauglied sein, das es einem Benutzer ermöglicht, eine einer Vielzahl von Einstellungen zu ändern. Als ein anderes Beispiel kann die Benutzereingabevorrichtung eine Computermaus oder eine Tastatur sein, wenn die gesteuerte Vorrichtung 18 ein Computersystem oder eine Komponente eines Computersystems ist.
  • Als ein anderes mögliches Merkmal kann die Zeitgebung automatisch eingestellt werden, durch Implementieren eines Algorithmus, der Faktoren berücksichtigt, wie z. B. die historischen Daten des Auftretens von Schalten. Wenn z. B. eine Person wiederholt einen Raum verlässt und in denselben zurückkehrt für eine Zeit, die nur etwas länger ist als die erste vorausgewählte Zeitperiode (so dass der Leistungsverbrauchszustand der gesteuerten Vorrichtung 18 unnötig zwischen zwei Leistungsverbrauchszuständen in Zyklen wechselt), kann der adaptive Algorithmus automatisch die Länge der ersten Zeitperiode erhöhen.
  • Die Augenerfassungsverarbeitung 20 kann verwendet werden, um eine aktive Steuerung durch eine Person zu ermöglichen. Somit kann eine Anzahl von unnatürlichen Blinzelmustern eines Auges 14 Steuerungsbefehlen für die gesteuerte Vorrichtung 18 zugeordnet werden. Vier schnelle Blinzler können verwendet werden, um die gesteuerte Vorrichtung „ein"- und „aus"-zuschalten. Lautstärkesteuerung und Steuerung anderer Betriebsparameter können berücksichtigt werden. In 1 können die Befehle innerhalb eines Datenbankformats 26 gespeichert werden. Das heißt, die Datenbank oder ein anderes Speicherungsformat kann verwendet werden, um Zugriff auf vorausgewählte Korrelationen zwischen Blinzelmustern und den Befehlen bereitzustellen. Wenn die Augenerfassungsverarbeitung 20 ein bestimmtes unnatürliches Blinzelmuster erkennt, wird der zugeordnete Befehl durch eine Steuerung 21 erzeugt und bei der gesteuerten Vorrichtung implementiert.
  • In Wirklichkeit sind die Blinzelmuster für die aktive Steuerung durch eine Person Codes. Die Codes können einfach sein, können jedoch eine Komplexität umfassen, wenn das Steuerungssystem 10 in einer Sicherheitsumgebung verwendet werden soll. Ein herkömmlicher Morsecode ist eine Möglichkeit. Ein anderes mögliches Merkmal für eine Sicherheitsanwendung ist eine zweite Ebene einer Augenerkennung, bei der die Identität der Person durch die Identifikation von individualisierten Charakteristika des Auges oder der Augen der Person verifiziert wird, ähnlich zur Verwendung eines Fingerabdrucks. Dann kann die aktive Steuerung der gesteuerten Vorrichtung 18 auf eine ausgewählte Person oder eine geringe Anzahl von Personen eingeschränkt werden.
  • Eine automatische Leistungsverbrauchsregelung über die gesteuerte Vorrichtung 18 kann aus einem oder aus einer Anzahl von unterschiedlichen Gründen oder kann aus einer Kombination von Gründen wünschenswert sein. Ein Leistung-Aus-Merkmal, das automatisch auftritt, liefert Leistungseinsparungen. Für eine batteriebetriebene Vorrichtung verlängert dies die Lebensdauer der Batterieladung. Ferner können viele Fernseher und andere leistungsintensive elektronische Verbrauchervorrichtungen stärker auf die Operation während jener Zeiten eingeschränkt sein, in denen ein Verwendungsnutzen besteht. Dies liefert Kosten- und Umwelt-Vorteile sowie eine potentielle Erweiterung des Nutzlebens der Vorrichtung. Bequemlichkeit ist ein anderer möglicher Grund für das Bereitstellen der automatisierten Leistungsverwaltung. Dies ist besonders wahrscheinlich für gesteuerte Vorrichtungen, die eine „Aufgabenbeleuchtung" bereitstellen, wie z. B. das Innenlicht eines Ofens. Bei den Aufgabenbeleuchtungsanwendungen wird die Bestimmung im Hinblick auf die Betrachtung eines Bereichs durchgeführt und nicht die Betrachtung der gesteuerten Vorrichtung selbst. Für die Ausführungsbeispiele, die eine aktive Steuerung über Blinzelmuster bereitstellen, erfordert die Steuerung nicht die fortgesetzte Verfügbarkeit einer Fernsteuerungseinheit. Ferner erfordert ein automatisches Abschalten eines Fernsehers, wenn ein Benutzer einschläft, nicht, dass der Benutzer das Merkmal initiiert.
  • 2, 3 und 4 stellen Beispiele von Anwendungen des Steuerungssystems 10 dar. In 2 ist das System mit einem Computersystem 28 verbunden. Als eine Möglichkeit ist die „gesteuerte Vorrichtung" nur der Monitor des Computersystems und nicht das gesamte Computersystem. Alternativ oder zusätzlich können die Verarbeitungsfähigkeiten des Computers auf der Basis der Augenerfassung gesteuert werden. Üblicherweise ist das Steuerungssystem 10 in das Computersystem eingelagert und ist keine externe Komponente, wie in 2 gezeigt ist. Wenn es in einem Laptopcomputer verwendet wird, erhöht das Steuerungssystem häufig die Zeit zwischen Batterieaufladevorgängen.
  • In 3 umfasst die „gesteuerte Vorrichtung" einen Anzeigebildschirm 30. Der Anzeigebildschirm kann ein Teil eines Zellulartelefons oder eines persönlichen digitalen Assistenten sein oder kann eine größere Einheit sein, wie z. B. ein Plasmafernseher oder die Anzeige eines Laptopcomputers. Innerhalb des Rahmens 32 um den Bildschirm sind eine erste und zweite Lichtquelle 34 und 36 und ein zweidimensionaler Bilderzeuger 38. Wenn der Bildschirm eine Komponente eines Zellulartelefons ist, kann das Betrachtungsfeld des Bilderzeugers 38 relativ eingeschränkt sein, im Vergleich zu einem akzeptablen Betrachtungsfeld eines Bilderzeugers für die Fernsehanwendung. Auf ähnliche Weise können die Lichter aus den Lichtquellen 34 und 36 bei einigen Anwendungen im Vergleich zu anderen stärker fokussiert sein. Bei der Fernsehanwendung wird das Licht „rundgesendet", um den Bereich von Betrachtungswinkeln auf den Fernsehbildschirm abzudecken.
  • Alternativ kann 3 als ein Zweizustandsfenster betrachtet werden, das steuerbar ist. Zum Beispiel kann die Polarisierung eines Fensters eines Büros oder zu Hause automatisch zwischen Zuständen geschaltet werden, abhängig von der Anwesenheit oder Abwesenheit von Personen, die durch das Schalten beeinträchtigt werden. Es gibt potentielle Sicherheits- und Gesundheitsvorteile bei diesem automatischen Schalten.
  • 4 stellt einen Ofen 40 dar, der ein Innenlicht 42 aufweist und eine erste und zweite Lichtquelle 44 und 46 auf gegenüberliegenden Seiten eines Bilderzeugers 48 aufweist. Der Bilderzeuger und die Lichtquellen richten sich darauf, Fälle zu bestimmen, in denen eine Person positioniert ist, um das Innere des Ofens zu betrachten. In solchen Fällen wird das Innenlicht in seinen „Ein"-Zustand geschaltet. Andererseits, wenn die Bildinformationen, die durch den Bilderzeuger erworben werden, anzeigen, dass das Innere des Ofens nicht in der Sichtlinie einer Person ist, bleibt das Innenlicht „aus".
  • 5 ist ein Ausführungsbeispiel eines Prozessflusses aus Schritten zum Implementieren der Erfindung. Bei Schritt 50 wird ein Erfassungslicht emittiert. Wie vorangehend erwähnt wurde, kann dieser Schritt bei jenen Anwendungen weggelassen werden, bei denen eine zuverlässige Erfassung auftreten kann, ohne künstliches Erzeugen von Licht bei der Erfassungswellenlänge. Umgekehrt ist der Schritt bei einigen Ausführungsbeispielen wichtig.
  • Bei Schritt 52 werden Bildinformationen erworben. Rahmen aus Bildinformationen werden bei Abtastzeiten des Bilderzeugers des Steuerungssystems erzeugt. Die Abtastzeiten können durchgehend sein, aber einige Anwendungen profitieren von einer nichtdurchgehenden Überwachung der Augener fassung. Bei einer batteriebetriebenen Anwendung zum Beispiel kann eine Überwachung eine Sekunde lang alle zwei Minuten auftreten, wodurch der Leistungsverbrauch um einen Faktor von 120 reduziert wird. Als eine mögliche Einrichtung zum Erfassen eines menschlichen Auges kann ein Differenzbild aus einem Paar von Bildrahmen erzeugt werden, wie bei Schritt 54 angezeigt ist. Ein Lösungsansatz zum Erzeugen des Differenzbildes zum Zweck des Erfassens eines Auges wird nachfolgend detaillierter Bezug nehmend auf 6, 7, 8 und 9 beschrieben.
  • Bei dem Entscheidungsschritt 56 wird bestimmt, ob das Differenzbild, das bei Schritt 54 erzeugt wird, das Vorhandensein eines Auges innerhalb des Betrachtungsfelds des Bilderzeugers des Systems anzeigt. Wenn das Differenzbild keinen Nachweis eines Auges umfasst, fährt der Prozess mit Schritt 58 fort. Wenn die gesteuerte Vorrichtung „aus" ist und das Differenzbild kein Auge nachweist, geht der Prozess nur in der Schleife zurück zu Schritt 52. Andererseits, wenn die Vorrichtung „ein" ist und einer Leistungsverwaltungssteuerung unterliegt, erreicht der Prozess Schritt 60. Hier wird eine Bestimmung darüber durchgeführt, ob eine erste vorbestimmte Zeitperiode abgelaufen ist. Bei dem vorangehend beschriebenen Beispiel kann diese erste Zeitperiode eine Fünf-Minuten-Grenze sein, seit zuletzt eine Person (d. h. ein Auge) in Position war, um die gesteuerte Vorrichtung zu betrachten, wie z. B. einen Fernseher. Somit, mit jeder bestätigenden Bestimmung bei Schritt 56, wird der erste Zeitgeber zurückgesetzt (Schritt 67). Andererseits, bis zu der Zeitgrenze, seit das letzte Zurücksetzen überschritten wurde, führt jede negative Antwort bei Schritt 56 und bestätigende Antwort bei Schritt 58 zu einer negativen Antwort bei Schritt 60, so dass der Prozess zurück zu den Schritten 52 und 54 des Erwerbens von Bildinformationen und Erzeugens eines neuen Differenzbildes in der Schleife geht. Nach dem Ablauf der ersten Zeitperiode führt jedoch die nächste Bestimmung, dass ein Differenzbild kein Bild eines Auges umfasst, dazu, dass das Leistungsver waltungssystem den Leistungsverbrauchszustand der gesteuerten Vorrichtung schaltet. Dieses automatische Schalten kann von einem „Ein"-Zustand in einen „Aus"-Zustand sein. Alternativ kann die gesteuerte Vorrichtung mehr als zwei Leistungsverbrauchszustände aufweisen, so dass es relevant sein kann, ob eine zweite Zeitperiode abgelaufen ist. Bei dem Ausführungsbeispiel aus 5 umfasst dieser Prozess zwei Zeitperioden.
  • Jede bestätigende Antwort bei Schritt 60 des Bestimmens, ob die erste Zeitperiode abgelaufen ist, wird gefolgt durch einen ähnlichen Schritt 62 zum Bestimmen, ob die zweite Zeitperiode abgelaufen ist. Die Kombination der Schritte 60 und 62 liefert drei Zeitgebungsmöglichkeiten. Als eine erste Möglichkeit ist keine Zeitperiode abgelaufen, so dass eine negative Antwort bei Schritt 60 auftritt und der Prozess in der Schleife zurück zu den Schritten 52 und 54 kehrt. Als eine zweite Möglichkeit ist die erste Zeitperiode abgelaufen und die zweite nicht. Gemäß dieser Möglichkeit fährt der Prozess mit Schritt 64 fort, zum automatischen Schalten der gesteuerten Vorrichtung in ihren Schlafzustand. Natürlich, wenn die zweite Zeitperiode ausreichend lang ist, kehrt der Prozess kontinuierlich zu Schritt 64 zurück, aber das Schalten tritt nur beim ersten Besuch auf. Der Prozess kehrt in der Schleife zurück zu den Schritten 52 und 54 zum Erwerben von Bildinformationen und Erzeugen eines Differenzbildes, das dann für eine Augenerfassung verarbeitet wird.
  • Die dritte Zeitgebungsmöglichkeit im Hinblick auf die Entscheidungsschritte 60 und 62 ist die, bei der beide Zeitperioden abgelaufen sind. Folglich wird die gesteuerte Vorrichtung wieder geschaltet, dieses Mal von ihrem Schlafzustand in ihren Aus-Zustand. Dieses zweite Schalten wird bei Schritt 66 vorgelegt. Optional kann das Steuerungssystem programmiert sein, um die gesteuerte Vorrichtung in ihren Ein-Zustand zurückzubringen, wenn eine Augenerfassung auftritt, nachdem die Vorrichtung ausgeschaltet wurde. Dies würde bei Schritt 67 auftreten. Alternativ, um ein unerwünschtes Schalten von dem Aus-Zustand zu verhindern, kann die Erkennungsverarbeitung eines unnatürlichen Blinzelmusters (Schritte 69 und 71) für ein Schalten dieser Art erforderlich sein.
  • Zurück zu Schritt 56, wenn ein Nachweis eines Auges innerhalb des Differenzbildes vorliegt, das bei Schritt 54 erzeugt wird, werden Zeitgeber nach Bedarf zurückgesetzt, wie bei Schritt 67 angezeigt ist. Wenn z. B. die gesteuerte Vorrichtung eingeschaltet wird und die erste und zweite Zeitperiode umfasst, die Bezug nehmend auf Schritte 60 und 62 beschrieben wurden, wird der Zeitgeber oder werden die Zeitgeber auf Null zurückgesetzt. Ferner wird bei Schritt 67, wenn die Vorrichtung in dem Schlafmodus ist, dieselbe in ihren Leistung-Ein-Zustand geschaltet. Der Prozess schreitet dann mit dem Entscheidungsschritt 69 zum Erfassen eines Blinzelns fort, wenn die Anwendung der Erfindung eine aktive Steuerung umfasst. Die anfängliche Blinzelerfassung kann eine Anzahl von unterschiedlichen Bildern erfordern, die verglichen werden.
  • Nachdem ein Blinzeln bei Schritt 69 erfasst wird, wird die aktive Steuerungsverarbeitung bei Schritt 71 initiiert. Dies kann das Beenden der Rahmen-für-Rahmen-Analyse und das Initiieren einer Datenstromanalyse umfassen. Das Auge oder die Augen der Person können im Hinblick auf die Position innerhalb des Betrachtungsfeldes des Bilderzeugers spezifiziert werden und überwacht werden, um zu bestimmen, ob die Augenaktivität mit einem der vorausgewählten Blinzelmuster übereinstimmt. Korrelationen zwischen Blinzelmustern und Befehlen zum Variieren der Operationsparameter der gesteuerten Vorrichtung 18 aus 1 werden in der Datenbank 26 gespeichert. Nachdem ein Blinzelmuster durch die Augenerfassungsverarbeitung 20 erkannt wurde, wird eine Ausgabe erzeugt, die verursacht, dass die Steuerung 21 den geeigneten Befehl an die gesteuerte Vorrichtung ausgibt.
  • Zusätzlich zu den Korrelationen zwischen den Blinzelmustern und den Befehlen zum Variieren von Operationsparametern der gesteuerten Vorrichtung 18 kann die Datenbank 26 Korrelationen zwischen einem bestimmten Auge 14 und der bestimmten Person umfassen. Wie vorangehend erwähnt wurde, können die physischen Charakteristika eines Auges auf dieselbe Weise verwendet werden wie die physischen Charakteristika eines Fingerabdrucks beim Identifizieren einer Person. Optional kann die aktive Steuerung auf eine begrenzte Anzahl von Personen eingeschränkt werden.
  • Es wurde bestimmt, dass eine größere Zuverlässigkeit im Hinblick auf die Augenerfassung erreicht wird, durch Erzeugen eines Differenzbildes auf der Basis von zwei Rahmen aus Bildinformationen, wobei ein Rahmen unter Verwendung von Aufachsenbilderzeugung erworben wird und der andere unter Verwendung einer Außerachsenbilderzeugung erworben wird. Ein Ausführungsbeispiel eines solchen Lösungsansatzes ist in 6, 7, 8 und 9 dargestellt. In 6 wird das Auge einer Person 68 unter Verwendung einer ersten Lichtquelle 70 und einer zweiten Lichtquelle 72 beleuchtet. Für eine klare Darstellung werden die erste Lichtquelle 70 und die zweite Lichtquelle 72 auf gegenüberliegenden Seiten eines Detektors 74 gezeigt. Es wird jedoch darauf hingewiesen, dass die zwei Lichtquellen statt dessen auf derselben Seite des Detektors sein können.
  • Ein Schlüsselprinzip beim Erhalten eines Differenzreflexionsvermögens von der Retina eines Auges ist die Abhängigkeit der retinalen Reflexionsfähigkeit von dem Winkel zwischen der Quelle und dem Detektor. Dieser Winkel kann als der „Beleuchtungswinkel" bezeichnet werden. Die Auswahl einer Position einer Lichtquelle 70 und 72 relativ zu dem Detektor 74 unterliegt zusätzlichen Berücksichtigungen. Um eine erfolgreiche Differenzierung der Bilder zu erreichen, um Punkte zu erhalten, die der reflektierenden Retina entsprechen, ist es wünschenswert, dass der Rest des Betrachtungsfeldes ausreichend ähnliche Beleuchtungsprofile unter den zwei unterschiedlichen Beleuchtungswinkeln aufweist. Bei der Anwendung des Systems zum Steuern des Schaltens der Leistungsverbrauchszustände eines Fernsehers kann dieser „Rest des Betrachtungsfeldes" das Gesicht der Person, die Kleidung der Person und das Innere eines Wohnzimmers umfassen. Somit ist es für eine Beleuchtung von einer Einseiten-Aufachsen-Lichtquelle wünschenswert, Schatten zu erzeugen, die wesentlich unterschiedlich sind zu den Schatten, die durch eine zweite Außerachsen-Lichtquelle erzeugt werden.
  • In 6 ist die erste Lichtquelle 70 in einem ersten Beleuchtungswinkel 76 von der Achse 80 des Detektors 74 positioniert, während die zweite Lichtquelle 72 in einem zweiten Beleuchtungswinkel 78 positioniert ist. Im Allgemeinen verringert ein kleinerer erster Beleuchtungswinkel die retinale Antwort. Wie hierin verwendet, bezieht sich die „retinale Antwort" auf die Intensität (d. h. die echte Photonenanzahl oder Entsprechung), die von der Rückseite des Auges reflektiert wird und an dem Detektor empfangen wird. Als eine Möglichkeit ist der erste Beleuchtungswinkel 76 im Bereich von ungefähr null Grad bis drei Grad.
  • Im Allgemeinen wird die Größe des zweiten Beleuchtungswinkels 78 so ausgewählt, dass nur eine geringe retinale Antwort von der zweiten Lichtquelle 72 an dem Detektor 74 erfasst wird. Die Iris um die Pupille neigt dazu, dieses Signal zu blockieren, so dass die Pupillengröße unter unterschiedlichen Lichtbedingungen berücksichtigt werden sollte, wenn der zweite Beleuchtungswinkel 78 ausgewählt wird. Dieser zweite Winkel ist größer als der erste Beleuchtungswinkel 76. Der zweite Winkel sollte jedoch nur etwas größer sein als der erste Winkel, so dass mit der Ausnahme der Pupille ein Bild, das unter Verwendung der zweiten Lichtquelle erfasst wird, ähnlich zu einem Bild ist, das unter Verwendung der ersten Lichtquelle erfasst wird. Dementsprechend ist bei einem Ausführungsbeispiel der zweite Beleuchtungswinkel in dem Bereich von ungefähr drei Grad bis fünfzehn Grad.
  • Die erste und die zweite Lichtquelle 70 und 72 können Licht im Allgemeinen bei gleichen Intensitäten emittieren. Es können jedoch Anwendungen vorliegen, bei denen es wünschenswert ist, dass die Lichtquellen Licht bei unterschiedlichen Intensitäten emittieren. Wahrscheinlicher liegen Anwendungen vor, bei denen die Lichtquellen entworfen sind, um Licht bei unterschiedlichen Wellenlängen zu emittieren, so dass die Originalbilder zum Erzeugen des Differenzbildes auf der Basis der Differenz bei den Wellenlängen erzeugt werden können. Die Wellenlängen und/oder Beleuchtungsintensitäten des Lichts, das aus den Lichtquellen emittiert wird, werden so ausgewählt, dass das Licht die Person nicht ablenkt und so dass die Iris des Auges der Person sich nicht ansprechend auf das Licht zusammenzieht. Eine erwünschte Auswahl ist die Verwendung von Infrarot- oder Nahinfrarot-Lichtquellen.
  • Beim Erfassen von zwei Rahmen, die verwendet werden sollen, um den Differenzrahmen zu erzeugen, kann der erste Rahmen erzeugt werden durch Beleuchten und Abtasten des Detektors 74 zu einer Zeit vor dem Beleuchten und Abtasten des Detektors, um den zweiten Rahmen zu erzeugen. Als eine Alternative zu dieser zeitlichen Differenz bei der Rahmenerzeugung kann jedoch eine räumliche Differenz im Hinblick auf Pixel innerhalb eines zweidimensionalen Arrays aus Detektorpixeln vorliegen. Zum Beispiel können benachbarte Pixel innerhalb des Detektors physisch auf eine Weise unterscheidbar sein, die eine Rahmendifferenzierung ermöglicht, um verwendbare Informationen im Hinblick auf Anwesenheit oder Abwesenheit eines Auges zu ergeben. Wenn somit die Signale aus benachbarten Pixeln unterscheidbare Polarisierungsabhängigkeiten aufweisen, kann ein Pixel als Teil eines ersten Rahmens verwendet werden, während das benachbarte Pixel beim Abtasten verwendet wird, um einen zweiten Rahmen zu bilden. Jede Abtastung kann codiert sein, um ihre Polarisierungsabhän gigkeit zu identifizieren. Die richtigen optischen Elemente zwischen dem Auge der Person 68 und dem Detektor 74 können ebenfalls verwendet werden, um eine räumliche Differenzierung bei der Rahmenerzeugung aus einer einzelnen Beleuchtung zu ermöglichen.
  • 7 stellt ein Bild eines offenen Auges dar, wo das Bild unter Verwendung einer Aufachsen-Lichtquelle 70 erzeugt wird. Der Aufachsen-Beleuchtungswinkel führt zu dem Bild, das eine helle Pupille 84 aufweist, als Ergebnis der starken retinalen Rückstrahlung.
  • 8 stellt ein Bild des offenen Auges 82 dar, aber mit einem Außerachsen-Beleuchtungswinkel, so dass eine dunkle Pupille 86 vorliegt. Die Bilder von 7 und 8 können gleichzeitig erzeugt werden oder können in aufeinander folgenden Rahmen aus Bildinformationen von einem einzelnen Detektor gebildet werden.
  • 9 stellt ein Differenzbild dar, das aus der Differenz zwischen den zwei Rahmen aus Bilddaten resultiert, die unter Verwendung der Aufachsen- und Außerachsen-Lichtquellen 70 und 72 erzeugt werden. Durch Nehmen der Differenz zwischen den Bildern aus 7 und 8 bleibt ein relativ heller Fleck 88 gegen den relativ dunklen Hintergrund 90, wenn das Auge offen ist. Es können Spuren anderer Merkmale des Auges vorliegen, die im Hintergrund 90 verbleiben, aber allgemein sticht der helle Fleck im Vergleich zum Hintergrund hervor. Wenn das Auge geschlossen oder annähernd geschlossen ist, oder wenn die Person in dem Betrachtungsfeld des Detektors 74 während des Erwerbs der Bilddaten zum Erzeugen von 7 und 8 ist, liegt kein heller Fleck vor oder der helle Fleck ist teilweise in dem Differenzbild gelöscht. Somit kann das Leistungsverwaltungssystem verwendet werden, um einen Fernseher automatisch auszuschalten, wenn ein Person einschläft.
  • 7, 8 und 9 zielen auf ein Auge der Person. Es sollte darauf hingewiesen werden, dass beide Augen überwacht werden können. Es sollte ferner darauf hingewiesen werden, dass eine ähnliche Wirkung erreicht werden kann, wenn die Bilder andere Merkmale der Person und/oder Merkmale der Umgebung der Person umfassen. Diese anderen Merkmale werden weitgehend herausgelöscht, auf ähnliche Weise zu vielen der Merkmale des Auges, so dass nur der helle Fleck 88 innerhalb des Differenzbildes verbleibt.
  • Licht aus den zwei Lichtquellen 70 und 72 kann in Pulsen emittiert werden, die mit der Rahmenrate des Detektors 74 synchronisiert sind. Wenn z. B. der Detektor bei einer Rahmenrate von 30 Rahmen pro Sekunde arbeitet, wird das Licht bei einer Rate von 30 Pulsen pro Sekunde emittiert. Es ist jedoch nicht notwendig, dass das Pulsen kontinuierlich auftritt. Wenn z. B. die Rahmenrate 30 Rahmen pro Sekunde ist, können vier Pulse für vier Dreißigstel einer Sekunde emittiert werden, wobei keine Lichtpulse über die verbleibenden 26 Dreißigstel der Sekunde emittiert werden. Es ist möglich, dass ausreichend Informationen während des kleinen Teils der Sekunde gesammelt werden, mit einer reduzierten Wahrscheinlichkeit, die Person abzulenken.
  • Das Licht aus den Lichtquellen 70 und 72 aus 6 kann von derselben Wellenlänge sein oder nicht. Bei einem Ausführungsbeispiel, bei dem Licht im Wesentlichen bei derselben Wellenlänge emittiert wird, können die Lichtquellen zu unterschiedlichen Zeiten aktiviert sein. Das heißt, z. B. kann ein Puls aus der ersten Lichtquelle 70 emittiert werden, gefolgt von einem Puls aus der zweiten Lichtquelle 72 usw. für die Länge eines Strahls. Im Allgemeinen ist es wünschenswert, dass die Lichtquellen sich mit dem Emittieren von Lichtpulsen abwechseln, um aufeinander folgende Aufachsen- und Außerachsen-Rahmen aus Bildinformationen zu erzeugen. Zum Beispiel können gerade nummerierte Rahmen Pulsen der ersten Lichtquelle zugeordnet sein, während ungerade nummerierte Rahmen Pulsen der zweiten Lichtquelle zugeordnet sind. Da der Rahmenerwerb schnell ist, sind die Bilder sehr ähnlich, was Bewegungsartefakte reduziert und daher den Prozess des Findens der Differenz zwischen zwei aufeinander folgenden Rahmen erleichtert.
  • Als eine Alternative zum Erzeugen eines Differenzbildes auf der Basis von zwei aufeinander folgend erworbenen Informationsrahmen können die Bildrahmen gleichzeitig gesammelt werden. Dies ist möglich, wenn die Bilddatensammlung durch optische Eigenschaft unterschieden wird, wie z. B. Wellenlänge, Modulation oder Polarisation. Wenn z. B. das Licht, das aus der ersten Lichtquelle 70 aus 6 emittiert wird, eine unterschiedliche Wellenlänge zu dem Licht ist, das aus der zweiten Lichtquelle 72 emittiert wird, kann das Licht im Wesentlichen gleichzeitig emittiert werden. Bei einem solchen Ausführungsbeispiel wird die Wellenlänge, die die stärkste retinale Antwort ergibt, durch die Lichtquelle verwendet, die am nächsten zu dem Detektor 74 ist. Gemessen auf einem herkömmlichen siliziumbasierten Detektor ist das retinale Antwortsignal üblicherweise stärker bei Wellenlängen von 800 Nanometern (nm) im Gegensatz zu 950 nm. Im Allgemeinen ist es wünschenswerter, die kürzere Wellenlänge zu der Aufachsen-Lichtquelle zuzuordnen.
  • Eine Modulation kann ferner verwendet werden, um eine Unterscheidung des Lichts von den zwei Lichtquellen zu ermöglichen. Zum Beispiel kann ein synchroner (verriegelungs- oder phasenempfindlicher) Erfassungslösungsansatz angewendet werden. Im Allgemeinen wird bei einem synchronen Erfassungslösungsansatz eine Lichtquelle (z. B. ein Laser) durch einen Schneider „geleitet", der das Licht bei einer ausgewählten Frequenz moduliert. Eine direkte elektrische Modulation von bestimmten Lichtquellen, wie z. B. Halbleiter-Lichtemittierungsdioden, ist ebenfalls möglich. Das Synchronisierungsausgangssignal des Schneiders, moduliert bei der ausgewählten Frequenz, wird in einen Fangverstärker eingegeben. Das Signal, das durch den Detektor 74 empfangen wird, wird ferner in den Fangverstärker eingegeben. Der Fangverstärker mischt das Synchronisierungsausgangssignal des Schneiders mit dem optisch erfassten Signal. Ein Schmalbandfilter (um die ausgewählte Frequenz) wird angewendet, was ein Signal bei ungefähr der ausgewählten Frequenz ergibt. Als ein Ergebnis kann das Signal von Signalen unterschieden werden, die bei einer unterschiedlichen ausgewählten Frequenz moduliert wurden, und von Signalen, die unmoduliert sind.
  • Wenn das Licht aus beiden Lichtquellen 70 und 72 im Wesentlichen gleichzeitig emittiert wird, werden die Aufachsen- und Außerachsen-Rahmen im Wesentlichen gleichzeitig durch den Detektor 74 oder ein Paar von Wellenlängen-selektiven Detektoren erworben. Als ein Ergebnis können Bewegungsartefakte beseitigt werden und Zeitgebungseinschränkungen, die dem Detektor auferlegt sind, können gelockert werden. Ferner kann die Zeitgebung zwischen aufeinander folgenden Messzyklen weniger kritisch sein. Dies ermöglicht, dass die Zeit zwischen aufeinander folgenden Messzyklen erhöht wird, ohne die Zuverlässigkeit des Prozesses zu gefährden. Zum Beispiel können Bilder einmal pro Sekunde erworben werden und nicht viermal pro Sekunde. Die Vorteile, die durch Erhöhen des Messzyklus realisiert werden, umfassen eine erhöhte Empfindlichkeit für die erfassten Bilder, reduzierte Bildhandhabungsanforderungen, niedrigere Kosten und eine verringerte Belichtung der Person.
  • Unter Verwendung unterschiedlicher Wellenlängen für die zwei Lichtquellen 70 und 72 können die Aufachsen- und Außerachsen-Rahmen unter Verwendung verschiedener Verfahren erworben werden. Einige dieser Verfahren umfassen das Verwenden von Massenoptik, während andere Sensoren mit pixelbasierten Filtern verwenden.
  • Eine Polarisierung ist eine alternative Basis zum Trennen der zwei Signale. Bei einem Ausführungsbeispiel emittiert die erste Lichtquelle 70 Licht, das in einer Richtung polarisiert ist, während die zweite Lichtquelle 72 Licht emittiert, das in einer orthogonalen Richtung polarisiert ist. Üblicherweise werden zwei Detektoren verwendet, und nicht der einzelne Detektor 74, der in 6 gezeigt ist. Geeignete Polarisierer können vor den Detektoren positioniert sein oder ein Polarisierungsstrahlspalter kann verwendet werden.
  • Während 69 ein mögliches Ausführungsbeispiel der Positionierung von verschiedenen Systemkomponenten und ein mögliches Ausführungsbeispiel der Augenerfassungsverarbeitung darstellen, können Modifikationen durchgeführt werden, ohne von der Erfindung abzuweichen. Das Verfahren und das System können auf der Basis der Anwendung modifiziert werden, um die Vorteile zu maximieren, die durch die Erfindung bereitgestellt werden.

Claims (55)

  1. Steuerungssystem (10) für eine Vorrichtung (18), die folgende Merkmale aufweist: einen Bilderzeuger (16) und eine Augenerfassungsverarbeitung (20) zum Erfassen von Licht, das durch den Bilderzeuger (16) von einem menschlichen Auge (14) empfangen wird, wobei die Augenerfassungsverarbeitung (20) konfiguriert ist, um ein Ausgangssignal zu erzeugen, das die Bestimmungen zum Erfassen des menschlichen Auges (14) erzeugt; und eine Steuerung (21) , die freigegeben ist, um die Vorrichtung (18) zwischen einer Mehrzahl von Leistungsverbrauchszuständen ansprechend auf das Ausgangssignal der Augenerfassungsverarbeitung (20) zu schalten, wobei die Steuerung (21) konfiguriert ist, um zumindest entweder eine erste bedingte Antwort oder eine zweite bedingte Antwort auszuführen, wobei (a) die erste bedingte Antwort eine ist, bei der die Vorrichtung (18) von einem Leistung-Ein-Zustand in einen niedrigeren Leistungsverbrauchszustand geschaltet wird, nach dem Ablaufen einer ersten Zeitperiode, ohne ein menschliches Auge (14) zu erfassen; und (b) die zweite bedingte Antwort eine ist, bei der die Vorrichtung in einen Leistung-Ein-Zustand geschaltet wird, nach dem Erfassen eines menschlichen Auges (14).
  2. Steuerungssystem (10) gemäß Anspruch 1, bei dem die Steuerung (21) konfiguriert ist, um sowohl die erste als auch die zweite bedingte Antwort auszuführen.
  3. Steuerungssystem (10) gemäß Anspruch 1 oder 2, bei dem die Vorrichtung (18) zumindest drei der Leistungsverbrauchszustände aufweist, einschließlich einem Leistung-Aus-Zustand, einem Schlafzustand und dem Leistung-Ein-Zustand, wobei die Steuerung (21) eingestellt ist, um die Vorrichtung (18) von dem Leistung-Ein-Zustand in den Schlafzustand zu schalten, nach dem Ablaufen der ersten Zeitperiode ohne Erfassen eines menschlichen Auges (14).
  4. Steuerungssystem (10) gemäß Anspruch 3, bei dem die Steuerung (21) ferner eingestellt ist, um die Vorrichtung von dem Schlafzustand in den Leistung-Aus-Zustand zu schalten, nach dem Ablauf einer zweiten Zeitperiode ohne Erfassen eines menschlichen Auges (14).
  5. Steuerungssystem (10) gemäß Anspruch 4, bei dem die Steuerung (21) konfiguriert ist, um die Vorrichtung von dem Schlafzustand in den Leistung-Ein-Zustand zu schalten, nach Erfassung eines menschlichen Auges (14).
  6. Steuerungssystem (10) gemäß einem der Ansprüche 3 bis 5, bei dem die Steuerung ferner konfiguriert ist, um die Vorrichtung von dem Leistung-Aus-Zustand in den Leistung-Ein-Zustand zu schalten, nach Erfassung eines menschlichen Auges (14).
  7. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 6, bei dem die Steuerung (21) eine Einstellung der ersten Zeitperiode durch einen Benutzer ermöglicht.
  8. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 7, bei dem die Steuerung (21) einen Steuerungsalgorithmus umfasst, der adaptiv die erste Zeitperiode auf einer Basis von Faktoren einstellt, die historische Daten des Auftretens des Schaltens durch die Steuerung (21) umfassen.
  9. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 8, das ferner eine erste (44) und eine zweite (46) Lichtquelle aufweist, zum Beleuchten eines Bereichs, der überwacht wird zum Erfassen des menschlichen Auges (14), wobei die erste Lichtquelle (44) positioniert ist, um Licht in einem ersten Beleuchtungswinkel relativ zu einer Achse des Bilderzeugers zu emittieren, wobei die zweite Lichtquelle (46) positioniert ist, um Licht in einem zweiten Beleuchtungswinkel relativ zu der Achse zu emittieren, wobei der zweite Beleuchtungswinkel wesentlich größer ist als der erste Beleuchtungswinkel.
  10. Steuerungssystem (10) gemäß Anspruch 9, bei dem der Bilderzeuger (48) ein zweidimensionales Array aus Pixeln ist, das gesteuert wird, um Rahmen aus Bildinformationen zu erzeugen, wobei die Augenerfassungsverarbeitung (20) eine Programmierung umfasst, zum Erzeugen eines Differenzbildrahmens, der Differenzen in zwei der Rahmen der Bildinformationen darstellt, wobei der Differenzbildrahmen eine Basis zum Identifizieren des menschlichen Auges (14) in zumindest einem der Rahmen (32) ist.
  11. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 10, bei dem die Steuerung (21) mit einer elektronischen Vorrichtung verbunden ist, die einen Anzeigebildschirm (30) umfasst, wobei die elektronische Vorrichtung die Vorrichtung ist, die die Mehrzahl von Leistungsverbrauchszuständen aufweist, wobei der Bilderzeuger (48) in einer festen Position relativ zu der Vorrichtung (18) ist, die gesteuert wird.
  12. Steuerungssystem (10) gemäß Anspruch 11, bei dem die elektronische Vorrichtung (18) eine aus einem Computersystem und einem Videoanzeigesystem ist.
  13. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 12, bei dem die Steuerung (21) ferner konfiguriert ist, um die Vorrichtung (18) zwischen den Leistungsverbrauchszuständen zu schalten, ansprechend auf das Erfassen von vorbestimmten Augenblinzelmustern, wobei die Muster durch die Steuerung als Befehle interpretiert werden.
  14. Steuerungssystem (10) gemäß Anspruch 13, bei dem die Steuerung (21) angeschlossen ist, um ein Schalten zum Beleuchten eines spezifischen Bereichs zu liefern.
  15. Steuerungssystem (10) gemäß Anspruch 13 oder 14, bei dem die vorbestimmten Augenblinzelmuster Muster umfassen, die durch die Steuerung (21) interpretiert werden, um ein Schalten zwischen einem „Ein"-Zustand und einem „Aus"-Zustand auszulösen.
  16. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 15, das ferner eine Speicherung von Korrelationen zwischen spezifischen Befehlen und vorbestimmten Augenblinzelmustern aufweist, wobei die Befehle Vorrichtungseinstellbefehle umfassen, die sich nicht auf das Schalten zwischen den Leistungsverbrauchszuständen beziehen, wobei die Augenerfassungsverarbeitung (20) freigegeben ist, um die Muster zu erkennen, und die Steuerung (21) konfiguriert ist, um die Befehle nach dem Erkennen der Muster zu implementieren.
  17. Steuerungssystem (10) gemäß Anspruch 16, bei dem die Augenerfassungsverarbeitung (20) derart programmiert ist, dass ein Augenschließen unter Verwendung von zumindest einem Rahmen von Bildinformationen erfasst wird, und derart, dass die Erfassung des Augenschließens eine Änderung von einer Augenerkennung über eine Analyse von Rahmen zu einer Blinzelmustererfassung über eine Analyse von Bildstromdaten auslöst.
  18. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 17, das ferner zumindest eine gespeicherte Korrelation zwischen einer bestimmten Person und Bildinformationen aufweist, die spezifisch für ein Auge (14) der bestimmten Person sind, wobei Operationen der Augenerfassungsverarbeitung (20) abhängig von dem Erkennen einer Person sind.
  19. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 18, bei dem der Bilderzeuger auf einer nichtkontinuierlichen Basis abgetastet wird, mit einer Abtastfrequenz, die ausgewählt ist, um eine Batterieladung zu bewahren.
  20. Steuerungssystem (10) gemäß einem der Ansprüche 1 bis 19, das ferner eine erste (44) und eine zweite (46) Lichtquelle aufweist, die sich auf das Beleuchten eines Betrachtungsfeldes des Bilderzeugers richten, wobei die Augenerfassungsverarbeitung (20) konfiguriert ist, um eine Pupille des menschlichen Auges (14) auf einer Basis von Differenzen zwischen reflektiertem Licht der ersten Lichtquelle (44) und reflektiertem Licht der zweiten Lichtquelle (46) zu identifizieren.
  21. Steuerungssystem (10) zum Betreiben einer Vorrichtung (18), das folgende Merkmale aufweist: eine Steuerung (21), die freigegeben ist, um Betriebsparameter der Vorrichtung (18) ansprechend auf Erfassungen zu variieren, die spezifisch für Augen sind; und einen Augendetektor, der mit der Steuerung (21) verbunden ist, um Signale auszugeben, die Erfassungen anzeigen, die spezifisch für Augen sind, wobei der Augendetektor folgende Merkmale umfasst: (a) einen Bilderzeuger (48) zum Empfangen von reflektiertem Licht von den Augen (14); (b) eine erste Lichtquelle (44), die positioniert ist, um ein erstes Licht in einem ersten Beleuchtungswinkel relativ zu dem Bilderzeuger zu emittieren; und (c) eine zweite Lichtquelle (46), die positioniert ist, um ein zweites Licht in einem zweiten Beleuchtungswinkel relativ zu dem Bilderzeuger (48) zu emittieren, wobei der zweite Beleuchtungswinkel wesentlich größer ist als der erste Beleuchtungswinkel, wobei die Augen (14) unter Verwendung der Differenz zwischen dem reflektierten ersten Licht und dem reflektierten zweiten Licht erfassbar sind, das an dem Bilderzeuger (48) empfangen wird.
  22. Steuerungssystem (10) gemäß Anspruch 21, bei dem der Bilderzeuger (48) relativ zu der Vorrichtung (18) derart positioniert ist, dass das Betrachtungsfeld des Bilderzeugers Personen erfasst, die eine Sichtlinie zu der Vorrichtung haben, wobei der Bilderzeuger (48) in einer festen Position relativ zu der Vorrichtung (18) ist.
  23. Steuerungssystem (10) gemäß Anspruch 22, bei dem die Vorrichtung (18) ein Fernseher ist und die Betriebsparameter, die durch die Steuerung (21) variiert werden, zumindest eine aus einer Kanaleinstellung und einer Lautstärkeeinstellung umfassen.
  24. Steuerungssystem (10) gemäß einem der Ansprüche 21 bis 23, bei dem der erste Beleuchtungswinkel von null bis drei Grad reicht und der zweite Beleuchtungswinkel von drei bis fünfzehn Grad reicht.
  25. Steuerungssystem (10) gemäß einem der Ansprüche 21 bis 24, bei dem der Augendetektor einen Prozessor umfasst, der konfiguriert ist, um eine Pupille auf einer Basis der Differenz zwischen dem reflektierten ersten Licht und dem reflektierten zweiten Licht zu identifizieren.
  26. Steuerungssystem (10) gemäß einem der Ansprüche 21 bis 25, bei dem der Augendetektor ferner eine Speicherung von Korrelationen zwischen vorausgewählten Blinzelmustern und Betriebsbefehlen umfasst, wobei der Prozessor und die Steuerung (21) programmiert sind, um das Auftreten von jedem der Blinzelmuster zu erfassen und den korrelierten Betriebsbefehl nach jedem dieser Auftritte zu erzeugen, wobei die Betriebsbefehle spezifisch für das Variieren der Betriebsparameter der Vorrichtung sind.
  27. Steuerungssystem (10) gemäß einem der Ansprüche 21 bis 26, bei dem der Bilderzeuger (16) und die erste (44) und die zweite (46) Lichtquelle gesteuert werden, um eine Aufeinanderfolge von Bildrahmen zu erzeugen, in der die ersten Bildrahmen (32) erworben werden, während die erste Lichtquelle (44) aktiviert ist, und die zweiten Bildrahmen erworben werden, während die zweite Lichtquelle (46) aktiviert ist.
  28. Steuerungssystem (10) gemäß einem der Ansprüche 21 bis 27, bei dem der Augendetektor ferner eine Speicherung von zumindest einer Korrelation zwischen einer bestimmten Person und Bildinformationen umfasst, die spezifisch für ein Auge der bestimmten Person sind, wobei die Steuerung (21) auf Identifikationen von jeder bestimmten Person anspricht, beim Aktivieren von Abweichungen bei den Betriebsparametern der Vorrichtung.
  29. Steuerungssystem (10) für eine Vorrichtung (18), das folgende Merkmale aufweist: eine Steuerung (21), die aktiviert ist, um Betriebsparameter der Vorrichtung ansprechend auf Erfassungen zu variieren, die spezifisch für Augen sind; und einen Augendetektor, der mit der Steuerung verbunden ist, um Signale auszugeben, die die Erfassungen anzeigen, die spezifisch für Augen sind, wobei der Augendetektor folgende Merkmale umfasst: (a) einen Bilderzeuger (48) zum Empfangen von Licht von den Augen; und (b) eine Augenerfassungsverarbeitung (20), die konfiguriert ist, um einen ersten und zweiten Rahmen (32) aus Bildinformationen zu erzeugen, die von dem Bilderzeuger (48) erworben werden, um einen Differenzbildrahmen zu erzeugen, der Differenzen zwischen dem ersten und dem zweiten Rahmen darstellt, wobei der Differenzbildrahmen eine Anwesenheit oder Abwesenheit eines Auges (14) anzeigt.
  30. Steuerungssystem (10) gemäß Anspruch 29, bei dem die Augenerfassungsverarbeitung eine Datenabtastschaltungsanordnung umfasst, zum Erzeugen des ersten und zweiten Rahmens zu unterschiedlichen Abtastzeiten zum Zugreifen auf Daten aus dem Bilderzeuger (48).
  31. Steuerungssystem (10) gemäß Anspruch 29 oder 30, bei dem die Augenerfassungsverarbeitung (20) eine Datenabtast- und Verarbeitungsschaltungsanordnung umfasst, bei der der erste und zweite Rahmen erzeugt werden, durch Trennen von Pixelbilddaten, die bei einem einzelnen Abtasten des Bilderzeugers erworben werden, wobei der Bilderzeuger (48) ein zweidimensionales Array aus Pixeln ist.
  32. Steuerungssystem (10) gemäß Anspruch 31, bei dem die Pixelbilddaten, die beim Erzeugen des ersten Rahmens verwendet werden, Daten sind, die von den Pixeln des Bilderzeugers erworben werden, die den ersten Reflexionsvermögenscharakteristika im Hinblick auf die Bilderzeugung eines Auges zugeordnet sind, wobei der zweite Bildrahmen aus Pixelbilddaten erzeugt wird, die aus jenen Pixeln des Bilderzeugers erworben werden, die den zweiten Reflexionsvermögenscharakteristika zugeordnet sind, die sich von den ersten Reflexionsvermögenscharakteristika unterscheiden.
  33. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 32, bei dem der Augendetektor ferner eine erste (44) und zweite (46) Lichtquelle umfasst, die derart sequenziert sind, dass der erste Rahmen (32) während der Aktivierung der ersten Lichtquelle (44) erworben wird und der zweite Rahmen (32) während der Aktivierung der zweiten Lichtquelle (46) erworben wird.
  34. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 33, bei dem der Augendetektor ferner eine erste (44) und zweite (46) Lichtquelle umfasst, wobei die erste Lichtquelle einen ersten Beleuchtungswinkel relativ zu einer Achse des Bilderzeugers aufweist, und die zweite Lichtquelle (46) einen zweiten Beleuchtungswinkel relativ zu der Achse aufweist, wobei der zweite Beleuchtungswinkel wesentlich größer ist als der erste Beleuchtungswinkel.
  35. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 34, bei dem der Augendetektor ferner eine erste (44) und zweite (46) Lichtquelle umfasst, wobei die erste Lichtquelle Licht bei einer unterschiedlichen Wellenlänge zu dem Licht emittiert, das durch die zweite Lichtquelle (46) emittiert wird.
  36. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 35, bei dem der Augendetektor ferner eine erste und zweite Lichtquelle umfasst, wobei die erste Lichtquelle (44) Licht bei einer unterschiedlichen Polarisierung emittiert zu dem Licht, das durch die zweite Lichtquelle (46) emittiert wird.
  37. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 36, bei dem der Augendetektor ferner eine erste (44) und zweite (46) Lichtquelle umfasst, wobei Licht von zumindest einer der ersten und zweiten Lichtquelle moduliert wird, um zu ermöglichen, dass das Licht, das durch die erste Lichtquelle emittiert wird, von dem Licht zu unterscheiden, das durch die zweite Lichtquelle emittiert wird, nach der Reflexion zu dem Bilderzeuger (48).
  38. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 37, bei dem die Steuerung (21) und der Augendetektor in die Vorrichtung (18) integriert sind, die gesteuert wird.
  39. Steuerungssystem (10) gemäß Anspruch 38, bei dem die Vorrichtung (18), die gesteuert wird, einen Anzeigebildschirm umfasst.
  40. Steuerungssystem (10) gemäß Anspruch 39, bei dem die Vorrichtung (18), die gesteuert wird, ein Fernseher ist, wobei die Betriebsparameter zumindest entweder eine Lautstärkeeinstellung, eine Kanaleinstellung oder eine Auswahl eines Leistungsverbrauchszustands umfassen.
  41. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 40, das ferner eine Speicherung von Korrelationen zwischen Blinzelmustern und Befehlen zum Variieren der Betriebsparameter umfasst, wobei der Augendetektor ei nen der Befehle ansprechend auf das Erkennen von einem der Blinzelmuster erzeugt.
  42. Steuerungssystem (10) gemäß Anspruch 41, bei dem der Augendetektor programmiert ist, um eine Rahmenanalyse zu verwenden, um einen potentiellen Start von einem der Blinzelmuster durch eine Person zu erfassen und in die Datenstromanalyse zu schalten, ansprechend auf das Erfassen des potentiellen Starts.
  43. Steuerungssystem (10) gemäß einem der Ansprüche 29 bis 42, bei dem der Augendetektor ferner eine Speicherung von zumindest einer Korrelation zwischen einer bestimmen Person und Bildinformationen umfasst, die spezifisch für ein Auge der bestimmten Person sind, wobei die Steuerung (21) auf Identifikationen von jeder bestimmten Person anspricht, beim Ermöglichen von Abweichungen bei den Betriebsparametern der Vorrichtung (18).
  44. Verfahren zum Steuern einer Vorrichtung, das folgende Schritte aufweist: Erfassen von Fällen des Auftretens des Empfangens von Licht, das von einem Auge reflektiert wird; Schalten der Vorrichtung zwischen einer Mehrzahl von Leistungsverbrauchszuständen auf einer Basis von zumindest entweder einer ersten bedingten Antwort oder einer zweiten bedingten Antwort, wobei (a) die erste bedingte Antwort eine ist, bei der die Vorrichtung von einem Leistung-Ein-Zustand in einen niedrigeren Leistungsverbrauchszustand geschaltet wird, nach dem Ablaufen einer ersten Zeitperiode, ohne ein Auge zu erfassen; und (b) die zweite bedingte Antwort eine ist, bei der die Vorrichtung in den Leistung-Ein-Zustand geschaltet wird, nach dem Erfassen eines Auges.
  45. Verfahren gemäß Anspruch 44, bei dem sowohl die erste als auch die zweite bedingte Antwort implementiert werden.
  46. Verfahren gemäß Anspruch 44 oder 45, bei dem die Vorrichtung zumindest drei der Leistungsverbrauchszustände aufweist, einschließlich einem Leistung-Aus-Zustand, einem Schlafzustand und dem Leistung-Ein-Zustand, wobei der niedrigere Leistungsverbrauchszustand der ersten bedingte Antwort der Schlafzustand ist.
  47. Verfahren gemäß Anspruch 46, das ferner das Schalten der Vorrichtung (18) von dem Schlafzustand in den Leistung-Aus-Zustand aufweist, ansprechend auf das Erfassen eines Ablaufs einer zweiten Zeitperiode ohne Erfassen eines Auges.
  48. Verfahren gemäß Anspruch 47, bei dem die zweite bedingte Antwort eine ist, bei der die Vorrichtung von dem Schlafzustand in den Leistung-Ein-Zustand geschaltet wird, nach der Erfassung eines Auges.
  49. Verfahren gemäß einem der Ansprüche 44 bis 48, das ferner folgende Schritte aufweist: Erkennen von vorbestimmten Augenblinzelmustern durch eine Bilderzeugung von zumindest einem Auge; Korrelieren von jedem Muster mit einem Befehl zum Variieren eines Betriebsparameters der Vorrichtung; und Variieren des Betriebsparameters der Vorrichtung basierend auf der Erkennung.
  50. Verfahren gemäß Anspruch 49, bei dem die vorbestimmten Augenblinzelmuster mit Befehlen korreliert sind, um zumindest entweder einen aktuellen Leistungsverbrauchszustand, eine Lautstärkeeinstellung oder eine Kanaleinstellung zu variieren.
  51. Verfahren gemäß einem der Ansprüche 44 bis 50, das ferner folgende Schritte aufweist: Erkennen einer Korrelation zwischen einer bestimmten Person und einem erfassten Auge; Einschränken der Variationen auf die Vorrichtung auf einer Basis des Erkennens der Korrelation.
  52. Verfahren zum Steuern einer Vorrichtung, das folgende Schritte aufweist: Lokalisieren eines Detektors, um ein Betrachtungsfeld zu haben, das relevant für die Operation der Vorrichtung ist; Beleuchten des Betrachtungsfeldes durch Aktivieren einer ersten Lichtquelle (44) entweder auf einer kontinuierlichen oder einer zeitmäßig gesteuerten Basis, wobei die erste Lichtquelle (44) positioniert ist, um einen ersten Beleuchtungswinkel im Hinblick auf eine Achse des Detektors bereitzustellen; Beleuchten des Betrachtungsfeldes durch Aktivieren einer zweiten Lichtquelle (46) auf entweder einer kontinuierlichen oder einer zeitmäßig gesteuerten Basis, wobei die zweite Lichtquelle (46) positioniert ist, um einen zweiten Beleuchtungswinkel im Hinblick auf die Achse bereitzustellen, wobei der zweite Beleuchtungswinkel wesentlich größer ist als der erste Beleuchtungswinkel; Erfassen von Augen innerhalb des Betrachtungsfeldes; und Variieren der Betriebsparameter der Vorrichtung ansprechend auf das Erfassen.
  53. Verfahren gemäß Anspruch 52, bei dem die Vorrichtung ein Videoanzeigesystem ist und bei dem das Variieren der Betriebsparameter das Variieren von Einstellungen für zumindest entweder eine Kanaleinstellung, eine Lautstärkeeinstellung und einen aktuellen Leistungsverbrauchszustand umfasst.
  54. Verfahren gemäß Anspruch 52 oder 53, bei dem das Beleuchten den ersten Beleuchtungswinkel innerhalb des Bereichs von null bis drei Grad einrichtet und den zweiten Beleuchtungswinkel im Bereich von drei bis fünfzehn Grad einrichtet.
  55. Verfahren gemäß einem der Ansprüche 52 bis 54, das ferner folgende Schritte aufweist: Erkennen von vorbestimmten Augenblinzelmustern durch Bilderzeugen an zumindest einem Auge; Korrelieren jedes Musters mit einem Befehl zum Variieren eines Betriebsparameters der Vorrichtung; und Variieren des Betriebsparameters der Vorrichtung basierend auf dem Erkennen.
DE102004063566A 2004-03-15 2004-12-30 Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen Ceased DE102004063566A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/801,014 US7091471B2 (en) 2004-03-15 2004-03-15 Using eye detection for providing control and power management of electronic devices
US10/801,014 2004-03-15

Publications (1)

Publication Number Publication Date
DE102004063566A1 true DE102004063566A1 (de) 2005-10-13

Family

ID=34920813

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004063566A Ceased DE102004063566A1 (de) 2004-03-15 2004-12-30 Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen

Country Status (6)

Country Link
US (1) US7091471B2 (de)
JP (1) JP4808420B2 (de)
KR (1) KR101162770B1 (de)
CN (1) CN100524113C (de)
DE (1) DE102004063566A1 (de)
TW (1) TWI345700B (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010097315A1 (de) 2009-02-24 2010-09-02 Reiner Kunz Navigation endoskopischer vorrichtungen mittels eye-tracker
DE102013003047A1 (de) 2013-02-22 2014-08-28 Audi Ag Verfahren und System zum blickrichtungsabhängigen Steuern einer Funktionseinheit

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7167201B2 (en) * 2003-04-28 2007-01-23 Hewlett-Packard Development Company, L.P. Device incorporating eye-start capability
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
JP4280652B2 (ja) * 2004-02-04 2009-06-17 キヤノン株式会社 電子ファインダを有する撮像装置
JP4284538B2 (ja) * 2004-10-19 2009-06-24 ソニー株式会社 再生装置および再生方法
US7430365B2 (en) * 2005-03-31 2008-09-30 Avago Technologies Ecbu (Singapore) Pte Ltd. Safe eye detection
US20060279745A1 (en) * 2005-06-13 2006-12-14 Wenstrand John S Color imaging system for locating retroreflectors
US8645985B2 (en) * 2005-09-15 2014-02-04 Sony Computer Entertainment Inc. System and method for detecting user attention
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
JP4528976B2 (ja) * 2006-03-31 2010-08-25 国立大学法人静岡大学 瞳孔検出装置及び方法
JP2008023914A (ja) * 2006-07-24 2008-02-07 Sharp Corp 画像形成装置の電源制御方法、画像形成装置の電源制御システム、電源制御装置、画像形成装置及びコンピュータプログラム
EP2076871A4 (de) * 2006-09-22 2015-09-16 Eyelock Inc Kompaktes biometrisches erfassungssystem und entsprechendes verfahren
JP2008125619A (ja) * 2006-11-17 2008-06-05 National Univ Corp Shizuoka Univ 瞳孔検出装置及び瞳孔検出方法
JP2008132160A (ja) * 2006-11-28 2008-06-12 National Univ Corp Shizuoka Univ 瞳孔検出装置及び瞳孔検出方法
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
JP4895847B2 (ja) * 2007-02-08 2012-03-14 アイシン精機株式会社 瞼検出装置及びプログラム
KR101159830B1 (ko) 2007-03-05 2012-06-26 디지털옵틱스 코포레이션 유럽 리미티드 얼굴 위치 및 방위를 이용한 적목 거짓 양성 필터링 방법
JP5045212B2 (ja) * 2007-04-25 2012-10-10 株式会社デンソー 顔画像撮像装置
TW200938176A (en) * 2008-03-05 2009-09-16 Coretronic Corp Eyeball locating method and system
JP2009239476A (ja) * 2008-03-26 2009-10-15 Nec Electronics Corp 出力制御システム及びその制御方法
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
CN102231255B (zh) * 2008-09-16 2015-09-23 联想(北京)有限公司 节能显示器以及电子设备
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
JP5288606B2 (ja) * 2008-10-22 2013-09-11 パナソニック株式会社 照明システム
US20100107184A1 (en) * 2008-10-23 2010-04-29 Peter Rae Shintani TV with eye detection
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
TWI408545B (zh) * 2009-03-16 2013-09-11 Compal Communications Inc 可攜式電子設備及其省電方法
EP2237237B1 (de) * 2009-03-30 2013-03-20 Tobii Technology AB Augenschließungserkennung mit strukturierter Beleuchtung
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
EP2263530A1 (de) * 2009-06-16 2010-12-22 Koninklijke Philips Electronics N.V. Intelligente Energiesparvorrichtung
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US20110157322A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator
US9247286B2 (en) * 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
US8823782B2 (en) * 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
TWI540422B (zh) * 2010-02-03 2016-07-01 勝德國際研發股份有限公司 節能裝置、節能系統及節能方法
CN101866215B (zh) * 2010-04-20 2013-10-16 复旦大学 在视频监控中采用视线跟踪的人机交互装置和方法
CN103081449B (zh) 2010-09-13 2015-09-09 Lg电子株式会社 移动终端及其操作控制方法
GB2487983A (en) * 2011-02-14 2012-08-15 Infrared Security Solutions Ltd Thermal imaging device with head position sensing
US9081416B2 (en) 2011-03-24 2015-07-14 Seiko Epson Corporation Device, head mounted display, control method of device and control method of head mounted display
JP5953714B2 (ja) * 2011-11-24 2016-07-20 セイコーエプソン株式会社 装置、頭部装着型表示装置、装置の制御方法および頭部装着型表示装置の制御方法
CN102183902B (zh) * 2011-04-08 2013-08-07 北京大学深圳研究生院 一种自适应门控电源控制器
CN102761645B (zh) * 2011-04-26 2016-05-18 富泰华工业(深圳)有限公司 电子设备及其控制方法
KR20140041570A (ko) 2011-06-24 2014-04-04 톰슨 라이센싱 사용자의 눈 이동으로 동작가능한 컴퓨터 장치 및 컴퓨터 장치를 동작하는 방법
KR101824413B1 (ko) 2011-08-30 2018-02-02 삼성전자주식회사 휴대단말기의 동작 모드 제어 방법 및 장치
US8976110B2 (en) 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system
EP3200046A1 (de) 2011-10-27 2017-08-02 Tobii Technology AB Leistungsverwaltung in einem augenverfolgungssystem
US9654768B2 (en) 2011-12-23 2017-05-16 Thomson Licensing Computer device with power-consumption management and method for managing power consumption of computer device
US9075453B2 (en) * 2011-12-29 2015-07-07 Khalifa University of Science, Technology & Research (KUSTAR) Human eye controlled computer mouse interface
JP5936379B2 (ja) * 2012-02-07 2016-06-22 シャープ株式会社 画像表示装置
TW201335802A (zh) * 2012-02-20 2013-09-01 Pixart Imaging Inc 光學導航裝置
CN108595009B (zh) * 2012-02-29 2020-12-18 联想(北京)有限公司 一种人机交互控制方法及电子终端
US8988519B2 (en) * 2012-03-20 2015-03-24 Cisco Technology, Inc. Automatic magnification of data on display screen based on eye characteristics of user
KR101349406B1 (ko) * 2012-05-15 2014-01-09 엘지이노텍 주식회사 디스플레이장치 및 이의 절전 방법
US20130342672A1 (en) * 2012-06-25 2013-12-26 Amazon Technologies, Inc. Using gaze determination with device input
US9007308B2 (en) * 2012-08-03 2015-04-14 Google Inc. Adaptive keyboard lighting
KR101424553B1 (ko) * 2012-08-22 2014-07-31 삼성전자 주식회사 자기 공명 영상 장치 및 그 제어 방법
KR20140042280A (ko) 2012-09-28 2014-04-07 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
US9699433B2 (en) * 2013-01-24 2017-07-04 Yuchen Zhou Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US10216266B2 (en) 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
US9671864B2 (en) 2013-03-21 2017-06-06 Chian Chiu Li System and methods for providing information
CN103220583A (zh) * 2013-03-28 2013-07-24 四川长虹电器股份有限公司 基于智能电视的检测用户疲劳度的***及方法
EP2790126B1 (de) * 2013-04-08 2016-06-01 Cogisen SRL Verfahren zur Blickverfolgung
CN103281064B (zh) * 2013-04-19 2016-08-24 四川长虹电器股份有限公司 一种实现家电节能的方法及装置
KR102108839B1 (ko) 2013-06-12 2020-05-29 삼성전자주식회사 불휘발성 메모리 장치를 포함하는 사용자 장치 및 그것의 데이터 쓰기 방법
KR102305578B1 (ko) * 2013-08-23 2021-09-27 삼성전자 주식회사 단말의 모드 변경 방법 및 장치
US9652024B2 (en) 2013-08-23 2017-05-16 Samsung Electronics Co., Ltd. Mode switching method and apparatus of terminal
US9374872B2 (en) 2013-08-30 2016-06-21 Universal Display Corporation Intelligent dimming lighting
WO2015060869A1 (en) * 2013-10-25 2015-04-30 Intel Corporation Dynamic optimization of light source power
CN106132284B (zh) * 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
KR101855196B1 (ko) * 2013-11-27 2018-06-08 선전 구딕스 테크놀로지 컴퍼니, 리미티드 아이 트래킹 및 사용자 반응 검출
US9390649B2 (en) 2013-11-27 2016-07-12 Universal Display Corporation Ruggedized wearable display
CN104678578A (zh) * 2013-12-03 2015-06-03 富泰华工业(深圳)有限公司 可控制电子装置的眼镜及电子装置控制方法
CN105814584B (zh) * 2013-12-09 2019-03-08 Smi创新传感技术有限公司 用于操作眼睛跟踪设备的方法和用于提供主动功率管理的眼睛跟踪设备
TWI578184B (zh) * 2013-12-27 2017-04-11 由田新技股份有限公司 基於眼部開闔狀態的密碼輸入方法及應用其之保全裝置
CN103760945B (zh) * 2013-12-31 2016-09-28 青岛歌尔声学科技有限公司 一种可穿戴设备的功率控制方法和装置
US10667007B2 (en) * 2014-01-22 2020-05-26 Lenovo (Singapore) Pte. Ltd. Automated video content display control using eye detection
KR101866362B1 (ko) * 2014-04-28 2018-06-12 삼성전자주식회사 자기 공명 영상 장치 및 그 제어 방법
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
KR102232249B1 (ko) * 2014-10-31 2021-03-29 삼성디스플레이 주식회사 표시 장치
JP6504788B2 (ja) * 2014-11-12 2019-04-24 国立大学法人静岡大学 瞳孔検出用光源装置の制御方法
US10477019B2 (en) * 2014-12-17 2019-11-12 Avaya Inc. Contact center administration via text stream interaction
EP3693835A1 (de) * 2015-01-07 2020-08-12 Facebook Technologies, LLC Dynamische kamera- oder lichtoperation
CN105025175A (zh) * 2015-07-30 2015-11-04 宋遂群 显示装置及显示控制方法
CN105068646B (zh) * 2015-08-05 2017-11-10 广东欧珀移动通信有限公司 终端的控制方法和***
KR101752798B1 (ko) * 2015-09-10 2017-07-11 엘지전자 주식회사 차량 및 그 제어방법
CN105373720B (zh) * 2015-10-28 2018-04-20 广东欧珀移动通信有限公司 一种应用于移动终端的模块控制方法及装置
CN105353872A (zh) * 2015-10-28 2016-02-24 广东欧珀移动通信有限公司 控制信号发送方法及控制信号发送装置
US20170177088A1 (en) * 2015-12-21 2017-06-22 Sap Se Two-step gesture recognition for fine-grain control of wearable applications
JP6651911B2 (ja) * 2016-03-07 2020-02-19 オムロン株式会社 顔画像処理装置
CN106265006B (zh) * 2016-07-29 2019-05-17 维沃移动通信有限公司 一种主视眼的矫正装置的控制方法及移动终端
US10545092B2 (en) 2016-11-07 2020-01-28 Alarm.Com Incorporated Automated optical device monitoring
US11323665B2 (en) 2017-03-31 2022-05-03 Ecolink Intelligent Technology, Inc. Method and apparatus for interaction with an intelligent personal assistant
CN108134959A (zh) * 2017-08-23 2018-06-08 张柯 基于睡眠状态检测的智能家居播放控制***
US10768697B2 (en) 2017-11-02 2020-09-08 Chian Chiu Li System and method for providing information
US11283980B2 (en) * 2017-11-09 2022-03-22 Satellite Lab, LLC System and method for recording, as a single cinematic sequence of frames, images of a scene illuminated with two different lighting schemes by timing alternate actuation of the lighting schemes within pairs of adjacent frames to minimize visual motion artifacts between images captured therein
JP7219041B2 (ja) * 2018-10-05 2023-02-07 現代自動車株式会社 注視検出装置及びその輻輳制御方法
US11593725B2 (en) 2019-04-16 2023-02-28 At&T Intellectual Property I, L.P. Gaze-based workflow adaptation
CN112584280B (zh) * 2019-09-27 2022-11-29 百度在线网络技术(北京)有限公司 智能设备的控制方法、装置、设备和介质
DE102020201287A1 (de) * 2020-02-03 2021-08-05 BSH Hausgeräte GmbH Verfahren zum Betreiben eines Haushaltsgeräts, Computerprogrammprodukt und Anordnung umfassend ein Haushaltsgerät und eine externe Bedieneinrichtung
CN112419666B (zh) * 2020-10-19 2022-06-14 钱继华 一种基于升降控制的智能居住服务方法及其***
US11080516B1 (en) * 2020-12-30 2021-08-03 EyeVerify, Inc. Spoof detection based on red-eye effects
US11762458B2 (en) 2021-02-15 2023-09-19 Sony Group Corporation Media display device control based on eye gaze
US11573620B2 (en) 2021-04-20 2023-02-07 Chian Chiu Li Systems and methods for providing information and performing task
US20230050526A1 (en) * 2021-08-10 2023-02-16 International Business Machines Corporation Internet of things configuration using eye-based controls

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62247410A (ja) * 1985-12-04 1987-10-28 Aisin Seiki Co Ltd 電気装置の付勢制御装置
US5517021A (en) 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JPH08138024A (ja) * 1994-11-04 1996-05-31 Konica Corp 画像の向き判定方法
JP3697286B2 (ja) * 1995-03-24 2005-09-21 株式会社東芝 状態監視装置
US5835083A (en) * 1996-05-30 1998-11-10 Sun Microsystems, Inc. Eyetrack-driven illumination and information display
US6163281A (en) 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
JP2917953B2 (ja) * 1997-02-05 1999-07-12 日本電気株式会社 視点位置検出装置
JPH11242733A (ja) * 1998-02-24 1999-09-07 Sanyo Electric Co Ltd 省電力制御装置
CA2372376C (en) 1998-04-29 2007-11-20 Carnegie Mellon University Apparatus and method of monitoring a subject's eyes using two different wavelengths of light
US6636763B1 (en) 1998-12-10 2003-10-21 Andrew Junker Brain-body actuated system
US6259084B1 (en) * 1999-09-02 2001-07-10 Hewlett Packard Company System and method for improved scanning accuracy through noise reduction and pulse timing
JP3858534B2 (ja) * 1999-09-28 2006-12-13 日産自動車株式会社 眼の状態検出装置
US20030108334A1 (en) * 2001-12-06 2003-06-12 Koninklijke Philips Elecronics N.V. Adaptive environment system and method of providing an adaptive environment
US7298871B2 (en) * 2002-06-07 2007-11-20 Koninklijke Philips Electronics N.V. System and method for adapting the ambience of a local environment according to the location and personal preferences of people in the local environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010097315A1 (de) 2009-02-24 2010-09-02 Reiner Kunz Navigation endoskopischer vorrichtungen mittels eye-tracker
DE102009010263A1 (de) 2009-02-24 2010-09-02 Reiner Kunz Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking
DE102013003047A1 (de) 2013-02-22 2014-08-28 Audi Ag Verfahren und System zum blickrichtungsabhängigen Steuern einer Funktionseinheit

Also Published As

Publication number Publication date
US20050199783A1 (en) 2005-09-15
KR20060043617A (ko) 2006-05-15
JP4808420B2 (ja) 2011-11-02
JP2005269891A (ja) 2005-09-29
TW200530798A (en) 2005-09-16
US7091471B2 (en) 2006-08-15
TWI345700B (en) 2011-07-21
CN100524113C (zh) 2009-08-05
CN1696849A (zh) 2005-11-16
KR101162770B1 (ko) 2012-07-04

Similar Documents

Publication Publication Date Title
DE102004063566A1 (de) Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen
DE102012201071B4 (de) Gesichtsabbildungssystem und verfahren zum steuern des gesichtsabbildungssystems sowie computerlesbares medium
DE60119418T2 (de) Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
DE69830611T2 (de) Verfahren zur beleuchtung und bilddarstellung von augen mit brille bei anwendung von mehrfachbeleuchtungsquellen
EP1349487B1 (de) Bildaufnahmevorrichtung mit reflexreduktion
DE19603287C2 (de) Gesichtsbildaufnahmevorrichtung
EP0939387B1 (de) Einrichtung zur Raumüberwachung
CN102598072B (zh) 包括产生图像数据以检测操纵尝试的至少一个摄像机的自动出纳机
EP2709350B1 (de) Konfiguration der Bildaufnahmeeinstellungen
DE112018005191T5 (de) System und Verfahren zur Verbesserung des Signal-Rausch-Verhältnisses bei der Objektverfolgung unter schlechten Lichtbedingungen
US10742904B2 (en) Multispectral image processing system for face detection
DE202010017895U1 (de) System zur Verarbeitung von Bildern von mindestens einem Lebewesen
WO2009062945A1 (de) Verfahren und vorrichtung zum auffinden und verfolgen von augenpaaren
DE102012206078A1 (de) Bestimmung einer Anzahl von Objekten in einem IR-Bild
JP2002514098A (ja) 虹彩取得用イメージのための装置
DE102012106286A1 (de) Gesichtsbilderfassungsvorrichtung
CN109076176A (zh) 眼睛位置检测装置和方法、带滚动快门驱动***的图像传感器的成像装置及其照明控制方法
DE112019007947T5 (de) Verbesserte Erkennung der Face-Liveness mit Hilfe der Analyse von Hintergrund-/Vordergrundbewegungen
CN111132599B (zh) 具有减少的反射的图像获取
EP3136963A1 (de) Mittel zur steuerung der akkommodationsbedarfserfassung in einem künstlichen akkommodationssystem
DE10160843B4 (de) Biometrisches Erkennungssystem
DE19724141A1 (de) Nachtsichtbrille
CN108984140A (zh) 一种显示控制方法及***
AT503008B1 (de) Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system
DE202007008363U1 (de) Vorrichtung zur Beleuchtungssteuerung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: AGILENT TECHNOLOGIES, INC. (N.D.GES.D. STAATES, US

8128 New person/name/address of the agent

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELLSCHA

8127 New person/name/address of the applicant

Owner name: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE., SG

8131 Rejection