DE112014007127T5 - Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems - Google Patents

Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems Download PDF

Info

Publication number
DE112014007127T5
DE112014007127T5 DE112014007127.7T DE112014007127T DE112014007127T5 DE 112014007127 T5 DE112014007127 T5 DE 112014007127T5 DE 112014007127 T DE112014007127 T DE 112014007127T DE 112014007127 T5 DE112014007127 T5 DE 112014007127T5
Authority
DE
Germany
Prior art keywords
viewpoint
offset
viewing zone
determining
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112014007127.7T
Other languages
English (en)
Inventor
Felix Schwarz
Philipp Süssenguth
Julian Eichhorn
Marc Breisinger
Michael Ehrmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Publication of DE112014007127T5 publication Critical patent/DE112014007127T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Verfahren (200) zum Auswählen eines ersten Bereichs (111) aus einer Betrachtungszone (110), welche mehrere auswählbare Bereiche (111) umfasst, beschrieben. Das Verfahren (200) umfasst das Messen (201) eines Blickpunkts eines Benutzers in der Betrachtungszone (110), wodurch ein gemessener Blickpunkt bereitgestellt wird. Ferner umfasst das Verfahren (200) das Bestimmen (202) eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts und das Anzeigen (203) von Informationen (121) in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone (110). Das Verfahren (200) umfasst auch das Erfassen (204) von Verschiebungsinformationen, welche auf das Ändern des Orts der angezeigten Informationen (121) in der Betrachtungszone (110) gerichtet sind. Ein tatsächlicher Blickpunkt wird auf der Grundlage des gemessenen Blickpunkts und auf der Grundlage der erfassten Verschiebungsinformationen bestimmt (205). Ferner wird ein erster Bereich (111), der dem tatsächlichen Blickpunkt entspricht, aus den mehreren auswählbaren Bereichen (111) ausgewählt (206).

Description

  • Technisches Gebiet
  • Das vorliegende Dokument betrifft Systeme, die unter Verwendung von Eye-Tracking-Mechanismen gesteuert werden. Insbesondere betrifft das vorliegende Dokument das Kalibrieren eines Eye-Tracking-basierten Benutzerschnittstellensystems.
  • Hintergrund
  • Eye-Tracking kann verwendet werden, um eine schnelle und intuitive Benutzerschnittstelle bereitzustellen, beispielsweise innerhalb von Fahrzeugen in der Art von Automobilen. Der Blickpunkt eines Benutzers kann unter Verwendung einer Kamera gemessen werden. Der Blickpunkt kann einem bestimmten Bereich von mehreren auswählbaren Bereichen entsprechen. Falls erkannt wird, dass der Benutzer auf den bestimmten Bereich blickt, kann eine Aktion oder Funktion, die dem bestimmten Bereich zugeordnet ist, ausgeführt werden. Dadurch können verschiedene Aktionen oder Funktionen, die den verschiedenen auswählbaren Bereichen zugeordnet sind, von einem Benutzer einfach durch Betrachten der verschiedenen auswählbaren Bereiche initialisiert werden.
  • Zum Bereitstellen einer zuverlässigen Benutzerschnittstelle müssen Eye-Tracking-basierte Benutzerschnittstellensysteme typischerweise kalibriert werden. Andernfalls kann der gemessene Blickpunkt vom tatsächlichen Blickpunkt des Benutzers abweichen. Mit anderen Worten kann eine mangelnde Kalibrierung zu einem Versatz zwischen dem gemessenen Blickpunkt und dem tatsächlichen Blickpunkt führen. Dieser Versatz kann von der Blickrichtung und insbesondere vom Sichtwinkel des Benutzers auf einen auswählbaren Bereich abhängen.
  • Der Versatz zwischen einem gemessenen Blickpunkt und einem tatsächlichen Blickpunkt kann zu einer Situation führen, in der der erkannte Bereich vom Bereich abweicht, den ein Benutzer auswählen möchte. Dadurch können die Zuverlässigkeit und die Benutzerakzeptanz eines Eye-Tracking-basierten Benutzerschnittstellensystems verhältnismäßig niedrig sein.
  • Ferner kann die Funktionsweise des Eye-Trackings vom Benutzer, der die Eye-Tracking-basierte Benutzerschnittstelle verwendet, von aktuellen Lichtbedingungen usw. abhängen. Daher kann eine Kalibrierung häufig wiederholt werden müssen, was für einen Benutzer typischerweise nicht akzeptierbar ist.
  • Das vorliegende Dokument beschreibt Verfahren und Systeme, die eine zuverlässige und flexible Eye-Tracking-basierte Benutzerschnittstelle bereitstellen.
  • Kurzfassung
  • Gemäß einem Aspekt wird ein Verfahren zum Auswählen eines ersten Bereichs aus einer Betrachtungszone, die mehrere auswählbare Bereiche umfasst, beschrieben. Das Verfahren umfasst das Messen eines Blickpunkts eines Benutzers in der Betrachtungszone, wodurch ein gemessener Blickpunkt bereitgestellt wird. Ferner umfasst das Verfahren das Bestimmen eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts und das Anzeigen von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone. Zusätzlich umfasst das Verfahren das Erfassen von Verschiebungsinformationen, die auf die Änderung des Orts der angezeigten Informationen in der Betrachtungszone gerichtet sind. Ferner umfasst das Verfahren das Bestimmen eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und der erfassten Verschiebungsinformationen. Zusätzlich umfasst das Ver- fahren das Auswählen eines ersten Bereichs aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht.
  • Gemäß einem weiteren Aspekt wird eine Steuereinheit für ein Eye-Tracking-basiertes Benutzerschnittstellensystem beschrieben. Die Steuereinheit ist dafür ausgelegt, einen gemessenen Blickpunkt eines Benutzers in einer Betrachtungszone des Eye-Tracking-basierten Benutzerschnittstellensystems zu bestimmen, wobei die Betrachtungszone mehrere auswählbare Bereiche umfasst. Ferner ist die Steuereinheit dafür ausgelegt, einen geschätzten Blickpunkt auf der Grundlage des gemessenen Blickpunkts zu bestimmen und die Ausgabe von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone zu veranlassen. Zusätzlich ist die Steuereinheit dafür ausgelegt, Verschiebungsinformationen, welche auf die Ortsänderung der angezeigten Informationen in der Betrachtungszone gerichtet sind, und einen tatsächlichen Blickpunkt auf der Grundlage des gemessenen Blickpunkts und der erfassten Verschiebungsinformationen zu bestimmen. Ferner ist die Steuereinheit dafür ausgelegt, einen ersten Bereich aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht, auszuwählen.
  • Gemäß einem weiteren Aspekt wird ein Eye-Tracking-basiertes Benutzerschnittstellensystem beschrieben, das einen Bildsensor umfasst, der dafür ausgelegt ist, Bilddaten in Bezug auf einen Blickpunkt eines Benutzers des Eye-Tracking-basierten Benutzerschnittstellensystems zu erfassen. Ferner umfasst das Eye-Tracking-basierte Benutzerschnittstellensystem eine Betrachtungszone, die dafür ausgelegt ist, mehrere auswählbare Bereiche mit auswählbaren Bereichen, die sichtbar verschieden sind, bereitzustellen. Die Betrachtungszone ist dafür ausgelegt, sichtbare Informationen in Bezug auf einen geschätzten Blickpunt des Benutzers in der Betrachtungszone bereitzustellen. Zusätzlich umfasst das Eye-Tracking-basierte Benutzerschnittstellensystem eine Tasteingabevorrichtung, die dafür ausgelegt ist, Verschiebungsinformationen zu erfassen, die vom Benutzer eingegeben werden, um den Ort der Informationen in Bezug auf den geschätzten Blickpunt zu ändern. Ferner umfasst das Eye-Tracking-basierte Benutzerschnittstellensystem eine Steuereinheit, wie im vorliegenden Dokument beschrieben.
  • Gemäß einem weiteren Aspekt wird ein Fahrzeug (beispielsweise ein Automobil, ein Motorrad oder ein Lastwagen) beschrieben, das eine Steuereinheit und/oder eine Eye-Tracking-basierte Benutzerschnittstelle, wie im vorliegenden Dokument beschrieben, umfasst.
  • Gemäß einem weiteren Aspekt wird ein Softwareprogramm beschrieben. Das Softwareprogramm kann für die Ausführung auf einem Prozessor und für die Ausführung der im vorliegenden Dokument dargelegten Verfahrensschritte, wenn sie auf dem Prozessor ausgeführt werden, eingerichtet sein.
  • Gemäß einem anderen Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein Softwareprogramm umfassen, das für die Ausführung auf einem Prozessor und für die Ausführung der im vorliegenden Dokument dargelegten Verfahrensschritte, wenn sie auf dem Prozessor ausgeführt werden, eingerichtet ist.
  • Gemäß einem weiteren Aspekt wird ein Computerprogrammprodukt beschrieben. Das Computerprogramm kann ausführbare Befehle zum Ausführen der im vorliegenden Dokument dargelegten Verfahrensschritte, wenn sie auf einem Computer ausgeführt werden, umfassen.
  • Es sei bemerkt, dass die Verfahren und Systeme, einschließlich ihrer bevorzugten Ausführungsformen, wie im vorliegenden Dokument dargelegt, für sich oder in Kombination mit den anderen in diesem Dokument offenbarten Verfahren und Systemen verwendet werden können. Zusätzlich sind die in Zusammenhang mit einem System dargelegten Merkmale auch auf ein entsprechendes Verfahren anwendbar (und umgekehrt). Ferner können alle Aspekte der im vorliegenden Dokument dargelegten Verfahren und Systeme beliebig kombiniert werden. Insbesondere können die Merkmale der Ansprüche beliebig miteinander kombiniert werden.
  • Kurzbeschreibung der Figuren
  • Die Erfindung wird nachstehend beispielhaft mit Bezug auf die anliegende Zeichnung erklärt. Es zeigen:
  • 1 ein Blockdiagramm eines als Beispiel dienenden Eye-Tracking-basierten Benutzerschnittstellensystems und
  • 2 ein Flussdiagramm eines als Beispiel dienenden Verfahrens zum Bestimmen einer Eingabe auf einem Eye-Tracking-basierten Benutzerschnittstellensystem.
  • Detaillierte Beschreibung
  • 1 zeigt ein als Beispiel dienendes System zum Bereitstellen einer Eye-Tracking-basierten Benutzerschnittstelle. Das Eye-Tracking-basierte Benutzerschnittstellensystem 100 umfasst eine Betrachtungszone 110 mit mehreren auswählbaren Bereichen 111. Die auswählbaren Bereiche 111 sind typischerweise für einen Benutzer des Systems 100 sichtbar verschieden. Der Benutzer kann auf beliebige der mehreren auswählbaren Bereiche 111 blicken, um verschiedene Aktionen oder Funktionen einzuleiten, die mit den verschiedenen auswählbaren Bereichen der Betrachtungszone 110 verbunden sind.
  • Eine Kamera 120 wird verwendet, um Bilddaten eines Auges oder beider Augen des Benutzers zu erfassen. Die Bilddaten können zu einer Steuereinheit 101 weitergeleitet werden, die dafür ausgelegt ist, die Bilddaten zu analysieren und einen Blickpunkt des Benutzers auf der Grundlage der Bilddaten zu messen. Der gemessene Blickpunkt kann innerhalb der Betrachtungszone 110 liegen (wie in 1 dargestellt ist). Informationen 121 in Bezug auf den gemessenen Blickpunkt können auf der Betrachtungszone 110 angezeigt werden. Beispielsweise kann ein Bildzeichen 121, das den gemessenen Blickpunkt repräsentiert, auf der Betrachtungszone 110 angezeigt werden. Alternativ oder zusätzlich kann der auswählbare Bereich 111, der dem gemessenen Blickpunkt (beispielsweise dem auswählbaren Bereich 111, der den gemessenen Blickpunkt umfasst) entspricht, hervorgehoben werden.
  • Ein geschätzter Blickpunkt kann auf der Grundlage des gemessenen Blickpunkts bestimmt werden. Wie nachstehend dargelegt wird, können Versatzinformationen in Bezug auf einen gemessenen Blickpunkt von der Steuereinheit 101 bestimmt werden. Der geschätzte Blickpunkt kann auf der Grundlage des gemessenen Blickpunkts und auf der Grundlage der Versatzinformationen bestimmt werden. Alternativ oder zusätzlich zur Anzeige der Informationen 121 in Bezug auf den gemessenen Blickpunkt können Informationen 121 in Bezug auf den geschätzten Blickpunkt innerhalb der Betrachtungszone 110 angezeigt werden. Nachfolgend können die angezeigten Informationen 121 mit Informationen, die den gemessenen Blickpunkt betreffen, und/oder Informationen, die den geschätzten Blickpunkt betreffen, in Verbindung gebracht werden.
  • Die Steuereinheit 101 kann dafür ausgelegt sein, den gemessenen und/oder den geschätzten Blickpunkt auf der Grundlage des Blickpunkts eines Benutzers zu einem bestimmten Zeitpunkt, der als visueller Eingabezeitpunkt bezeichnet werden kann, zu bestimmen. Die angezeigten Informationen 121 können unter Verwendung des gemessenen und/oder des geschätzten Blickpunkts zum visuellen Eingabezeitpunkt bestimmt werden. Augenbewegungen eines Auges des Benutzers, die hinter dem visuellen Eingabezeitpunkt liegen, können ignoriert werden (zumindest für einen gewissen Zeitraum). Der visuelle Eingabezeitpunkt kann durch eine bestimmte Benutzereingabe (beispielsweise ein Zwinkern eines Auges des Benutzers) ausgelöst werden. Dabei kann der visuelle Eingabezeitpunkt als ein "Gefrierpunkt" zur Bestimmung eines gemessenen und/oder des geschätzten Blickpunkts angesehen werden.
  • Das Eye-Tracking-basierte Benutzerschnittstellensystem 100 kann eine Tasteingabevorrichtung 130 (beispielsweise ein Berührungsfeld) umfassen, die dafür ausgelegt ist, Verschiebungsinformationen zu erfassen, die vom Benutzer auf der Tasteingabevorrichtung 130 eingegeben werden. Die Verschiebungsinformationen können sich auf das Verschieben oder Versetzen der angezeigten Informationen 121 beziehen. Insbesondere kann es die Tasteingabevorrichtung 130 dem Benutzer ermöglichen, ein angezeigtes Bildzeichen des gemessenen Blickpunkts zu einer anderen Position auf der Betrachtungszone 110 zu verschieben, so dass die Position des Bildzeichens dem tatsächlichen Blickpunkt des Benutzers entspricht.
  • Beim dargestellten Beispiel ist die Tasteingabevorrichtung 130 am Lenkrad 131 eines Fahrzeugs angeordnet. Dabei kann der Fahrer eines Fahrzeugs einen gemessenen und/oder geschätzten Blickpunkt (d.h. die angezeigten Informationen 121, welche den gemessenen und/oder geschätzten Blickpunkt repräsentieren) bequem verschieben, während er die Hand auf dem Lenkrad 131 des Fahrzeugs hält.
  • Die Verschiebungsinformationen können zu einem Verschiebungseingabezeitpunkt erfasst werden, der dem visuellen Eingabezeitpunkt folgt. Der Verschiebungseingabezeitpunkt kann durch eine bestimmte Benutzereingabe (beispielsweise durch einen Druck des Benutzers auf die Tasteingabevorrichtung 130) ausgelöst werden. Beispielsweise kann ein Benutzer den Ort der angezeigten Informationen 121 bis zum visuellen Eingabezeitpunkt ändern (beispielsweise wenn der Benutzer die Tasteingabevorrichtung 130 mit einem Finger drückt), und die Verschiebungsinformationen können zum visuellen Eingabezeitpunkt erfasst werden.
  • Die durch die Tasteingabevorrichtung 130 erfassten Verschiebungsinformationen können verwendet werden, um einen Versatz zwischen dem gemessenen Blickpunkt und dem tatsächlichen Blickpunkt eines Benutzers zu bestimmen. Der bestimmte Versatz kann innerhalb einer Speichereinheit 102 gespeichert werden und zur Kalibrierung des Eye-Tracking-basierten Benutzerschnittstellensystems 100 verwendet werden.
  • Beispielsweise können Versatzinformationen für jeden auswählbaren Bereich 111 der Betrachtungszone 110 bestimmt und gespeichert werden. Tabelle 1 zeigt ein als Beispiel dienendes Versatzfeld (auch als Versatzdatei bezeichnet) für die Betrachtungszone 110. Das Feld umfasst Versatzdaten für jeden auswählbaren Bereich 111 der Betrachtungszone 110. Nach dem Starten des Eye-Tracking-basierten Benutzerschnittstellensystems 100 können die Versatzdaten auf einen Null-Versatz initialisiert werden, wie in Tabelle 1 dargestellt ist.
    X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0
    X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0
    X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0
    X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0 X = 0; Y = 0
    Tabelle 1
  • Während der Verwendung des Eye-Tracking-basierten Benutzerschnittstellensystems 100 können Versatzdaten unter Verwendung der von der Tasteingabevorrichtung 130 erfassten Verschiebungsinformationen bestimmt werden. Diese Versatzdaten können verwendet werden, um die Versatzdaten zu aktualisieren, die innerhalb des Versatzfelds gespeichert sind. Beispielsweise können die bestimmten Versatzdaten für einen bestimmten auswählbaren Bereich 111 verwendet werden, um die für den bestimmten auswählbaren Bereich 111 gespeicherten Versatzdaten zu überscheiben. Alternativ kann ein gewichteter Durchschnitt zwischen den bestimmten Versatzdaten und den gespeicherten Versatzdaten berechnet und als aktualisierte Versatzdaten gespeichert werden.
  • Ferner können die bestimmten Versatzdaten für einen bestimmten auswählbaren Bereich 111 verwendet werden, um die Versatzdaten von Bereichen 111 in der Umgebung des bestimmten auswählbaren Bereichs 111 zu aktualisieren. Beispielsweise können die bestimmten Versatzdaten für den bestimmten auswählbaren Bereich 111 auch als Versatzdaten für die benachbarten Bereiche 111 verwendet werden. Alternativ oder zusätzlich können die Versatzdaten verschiedener Bereiche 111 interpoliert werden.
  • Dabei kann das Versatzdatenfeld oder eine Versatzdatei kontinuierlich aktualisiert werden, wodurch es ermöglicht wird, dass das Eye-Tracking-basierte Benutzerschnittstellensystem 100 automatisch an verschiedene Beleuchtungsbedingungen und/oder mögliche verschiedene Benutzer angepasst wird. Alternativ oder zusätzlich können verschiedene Versatzdatenfelder als Profile für verschiedene Benutzer gespeichert werden, um das Eye-Tracking-basierte Benutzerschnittstellensystem 100 wirksam an verschiedene Benutzer anzupassen.
  • Die Steuereinheit 101 kann dafür ausgelegt werden, eine Schätzung des tatsächlichen Blickpunkts unter Berücksichtigung des Versatzfelds zu bestimmen. Insbesondere kann die Steuereinheit 101 dafür ausgelegt werden, den gemessenen Blickpunkt auf der Grundlage der von der Kamera 120 bereitgestellten Bilddaten zu bestimmen. Ferner kann die Steuereinheit 101 dafür ausgelegt werden, den gemessenen Blickpunkt unter Verwendung der innerhalb des Versatzfelds enthaltenen Versatzdaten zu versetzen. Insbesondere kann die Steuereinheit 101 den Bereich 111 bestimmen, der dem gemessenen Blickpunkt entspricht. Ferner können die Versatzdaten, die dem Bereich 111 entsprechen, vom Versatzfeld genommen werden. Die Schätzung des tatsächlichen Blickpunkts (auch als geschätzter Blickpunkt bezeichnet) kann dem gemessenen Blickpunkt entsprechen, der unter Verwendung der aus dem Versatzfeld entnommenen Versatzdaten versetzt ist.
  • Die Steuereinheit 101 kann dann den Bereich 111 bestimmen, welcher dem geschätzten Blickpunkt entspricht. Ferner können Informationen 121 in Bezug auf den geschätzten Blickpunkt innerhalb der Betrachtungszone 110 angezeigt werden (beispielsweise durch Anzeigen eines Bildzeichens oder durch Hervorheben des Bereichs 111, der dem geschätzten Blickpunkt entspricht).
  • Ferner können die angezeigten Informationen 121 für eine weitere Kalibrierung der Eye-Tracking-basierten Benutzerschnittstelle (wie vorstehend dargelegt) verwendet werden. Für diesen Zweck können Verschiebungsinformationen in Bezug auf die Ortsänderung der angezeigten Informationen 121 erfasst werden. Beispielsweise kann die Steuereinheit 101 dafür ausgelegt sein, zu bestimmen, ob Verschiebungsinformationen innerhalb eines vorgegebenen Zeitintervalls anschließend an den visuellen Eingabezeitpunkt über die Eingabevorrichtung 130 eingegeben werden. Falls solche Verschiebungsinformationen eingegeben werden, werden diese Verschiebungsinformationen erfasst und verwendet, um eine verbesserte Schätzung des tatsächlichen Blickpunkts (wie vorstehend dargelegt) zu bestimmen. Andernfalls wird angenommen, dass die angezeigten Informationen 121 eine korrekte Schätzung des tatsächlichen Blickpunkts repräsentieren. Daher kann entweder anschließend an den Verschiebungseingabezeitpunkt oder anschließend an das vorgegebene Zeitintervall ein "tatsächlicher Blickpunkt" bestimmt werden. Die Steuereinheit 101 kann einen der mehreren auswählbaren Bereiche 111 auf der Grundlage dieses "tatsächlichen Blickpunkts" bestimmen.
  • Die Steuereinheit 101 kann ferner dafür ausgelegt werden, eine Aktion oder Funktion zu initialisieren, welche dem bestimmten Bereich 111 entspricht. Für diesen Zweck kann die Steuereinheit 101 dafür ausgelegt werden, auf die Speichereinheit 102 zuzugreifen, um eine vorgegebene Abbildung zwischen dem auswählbaren Bereich 111 und einer Aktion oder Funktion, die dem auswählbaren Bereich 111 zugeordnet ist, zu konsultieren.
  • Dabei stellt die Tasteingabevorrichtung 130 einem Benutzer des Eye-Tracking-basierten Benutzerschnittstellensystems 100 wirksame und intuitive Mittel zum Modifizieren des Brennpunkts der Eye-Tracking-basierten Benutzerschnittstelle, d.h. zum impliziten Kalibrieren und Anpassen der Eye-Tracking-basierten Benutzerschnittstelle, bereit. Die Tasteingabevorrichtung 130 ermöglicht es dem Benutzer, die gleichen Aktionen wie die Eye-Tracking-basierte Benutzerschnittstelle einzuleiten, beispielsweise falls die Eye-Tracking-basierte Benutzerschnittstelle nicht korrekt funktioniert. Insbesondere wird der Benutzer in Fällen einer fehlerhaften Kalibrierung der Eye-Tracking-basierten Benutzerschnittstelle wahrscheinlich den von der Eye-Tracking-basierten Benutzerschnittstelle bestimmten geschätzten Blickpunkt korrigieren, indem er über die Tasteingabevorrichtung 130 Verschiebungsinformationen bereitstellt. Insbesondere können in Fällen, in denen die Verschiebung, die durch die Tasteingabevorrichtung 130 ausgelöst wird, gering ist (beispielsweise zur Bewegung eines geschätzten Blickpunkts zu einem benachbarten Bereich 111), die erfassten Verschiebungsinformationen durch die Steuereinheit 101 als eine Korrektur des geschätzten Blickpunkts interpretiert werden, d.h. als ein Versatz des geschätzten Blickpunkts, der anzuwenden ist, um den gemessenen Blickpunkt mit dem tatsächlichen Blickpunkt auszurichten.
  • In Fällen, in denen mehrere Korrekturen über die Tasteingabevorrichtung 130 erfasst werden, d.h. in Fällen, in denen mehrere Versätze bestimmt werden, können die mehreren Versätze interpoliert werden, um zuverlässige Versatzdaten für die gesamte Betrachtungszone 110 bereitzustellen.
  • 2 zeigt ein Flussdiagramm eines als Beispiel dienenden Verfahrens 200 zum Auswählen eines ersten Bereichs 111 aus einer Betrachtungszone 110, die mehrere auswählbare Bereiche 111 umfasst. Die auswählbaren Bereiche 111 aus den mehreren auswählbaren Bereichen 111 sind für einen Benutzer typischerweise sichtbar verschieden. Ferner grenzen die Bereiche 111 aus den mehreren auswählbaren Bereichen 111 typischerweise aneinander an. Beispielsweise kann ein auswählbarer Bereich 111 einer physikalischen oder virtuellen Taste innerhalb der Betrachtungszone 110 entsprechen. Die Betrachtungszone 110 kann an einem Armaturenbrett eines Fahrzeugs angeordnet sein.
  • Das Verfahren 200 umfasst das Messen 201 eines Blickpunkts eines Benutzers auf der Betrachtungszone 110, wodurch ein gemessener Blickpunkt bereitgestellt wird. Der Blickpunkt eines Benutzers kann unter Verwendung von Bilddaten bestimmt werden, die von einem Bildsensor 120 (beispielsweise einer Kamera) erfasst werden. Die Kamera kann auf den Benutzer gerichtet werden. Dabei können die Bilddaten Informationen in Bezug auf die Pupille wenigstens eines Auges des Benutzers umfassen. Der gemessene Blickpunkt kann unter Verwendung von Bildverarbeitungsalgorithmen bestimmt werden, die auf die vom Bildsensor 120 erfassten Bilddaten angewendet werden.
  • Ferner umfasst das Verfahren 200 das Bestimmen 202 eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts. Bei einem Beispiel entspricht der geschätzte Blickpunkt dem gemessenen Blickpunkt oder gleicht diesem. Alternativ oder zusätzlich kann der geschätzte Blickpunkt unter Verwendung von Versatzdaten bestimmt werden, die in einer Versatzdatei (beispielsweise innerhalb eines Versatzfelds) gespeichert sein können. Insbesondere kann ein erster Versatz für den gemessenen Blickpunkt anhand einer Versatzdatei bestimmt werden. Beispielsweise kann der auswählbare Bereich 111, der dem gemessenen Blickpunkt entspricht, bestimmt werden. Der erste Versatz kann dem Versatz entsprechen, der für diesen auswählbaren Bereich 111 innerhalb der Versatzdatei gespeichert ist. Der geschätzte Blickpunkt kann durch Versetzen des gemessenen Blickpunkts unter Verwendung des ersten Versatzes bestimmt werden.
  • Das Verfahren 200 umfasst ferner das Anzeigen 203 von Informationen 121 in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone 110. Beispielsweise kann ein sichtbares Bildzeichen oder ein sichtbarer Punkt an der Position des geschätzten Blickpunkts in der Betrachtungszone 110 angezeigt werden. Alternativ oder zusätzlich kann ein auswählbarer Bereich 111 aus den mehreren auswählbaren Bereichen 111, dem der geschätzte Blickpunkt entspricht, hervorgehoben werden. Die Betrachtungszone 110 kann beispielsweise eine Anzeige umfassen, und die mehreren Bereiche 111 können auf der Anzeige (beispielsweise als Kacheln) angezeigt werden. Ein auswählbarer Bereich 111 kann durch Ändern einer Farbe oder einer Helligkeit des angezeigten Bereichs 111 hervorgehoben werden.
  • Ferner umfasst das Verfahren 200 das Erfassen 204 von Verschiebungsinformationen, welche darauf gerichtet sind, den Ort der angezeigten Informationen 121 in der Betrachtungszone 110 zu ändern. Die Verschiebungsinformationen können unter Verwendung einer Tasteingabevorrichtung 130 (beispielsweise eines Berührungsfelds) erfasst werden. Die Tasteingabevorrichtung 130 kann sich an einer Lenkvorrichtung 131 (beispielsweise dem Lenkrad) eines Fahrzeugs befinden.
  • Zusätzlich umfasst das Verfahren 200 das Bestimmen 205 eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und auf der Grundlage der erfassten Verschiebungsinformationen. Der erste Versatz aus der Versatzdatei kann berücksichtigt werden, um den tatsächlichen Blickpunkt zu bestimmen. Insbesondere kann der gemessene Blickpunkt unter Verwendung der erfassten Verschiebungsinformationen und möglicherweise des ersten Versatzes versetzt werden, um den tatsächlichen Blickpunkt zu bestimmen.
  • Ferner umfasst das Verfahren 200 das Auswählen 206 eines ersten Bereichs 111 aus den mehreren auswählbaren Bereichen 111, welcher dem tatsächlichen Blickpunkt entspricht. Typischerweise fällt der tatsächliche Blickpunkt in den ersten Bereich 111. Mit anderen Worten kann der erste Bereich 111 als Bereich 111 aus den mehreren Bereichen 111 ausgewählt werden, worin der bestimmte tatsächliche Blickpunkt fällt. Die mehreren auswählbaren Bereiche 111 können jeweils in Zusammenhang mit mehreren Funktionen stehen, und das Verfahren 200 kann ferner das Einleiten einer ersten Funktion aus den mehreren Funktionen, die dem ersten Bereich 111 entspricht, umfassen.
  • Dabei stellt das Verfahren 200 zuverlässige und adaptive Mittel zur Ausführung einer Eingabe unter Verwendung des Eye-Trackings und/oder zur impliziten Kalibrierung eines Eye-Tracking-basierten Benutzerschnittstellensystems 100 bereit. Insbesondere ermöglicht das Erfassen von Verschiebungsinformationen in Bezug auf angezeigte Informationen 121, welche den geschätzten Blickpunkt repräsentieren, es einem Benutzer, ein Eye-Tracking-basiertes Benutzerschnittstellensystem 100 intuitiv zu kalibrieren.
  • Das Verfahren 200 kann ferner Schritte für das Bestimmen und Speichern von Kalibrierinformationen auf der Grundlage der erfassten Verschiebungsinformationen umfassen. Insbesondere kann das Verfahren das Bestimmen eines zweiten Bereichs 111 aus den mehreren auswählbaren Bereichen 111, welcher dem gemessenen Blickpunkt entspricht, umfassen. Ein (möglicherweise) aktualisierter Versatz zum Versetzen des gemessenen Blickpunkts kann auf der Grundlage der erfassten Verschiebungsinformationen bestimmt werden. Ferner kann der aktualisierte Versatz auf der Grundlage eines oder mehrerer bereits in der Versatzdatei gespeicherter Versätze bestimmt werden (beispielsweise auf der Grundlage eines Versatzes, der bereits in der Versatzdatei in Zusammenhang mit dem zweiten Bereich 111 gespeichert ist). Insbesondere kann das Bestimmen des aktualisierten Versatzes das Bestimmen eines gespeicherten Versatzes, der bereits in der Versatzdatei in Zusammenhang mit dem zweiten Bereich 111 gespeichert ist, und das Bestimmen des aktualisierten Versatzes auf der Grundlage des gespeicherten Versatzes und auf der Grundlage der erfassten Verschiebungsinformationen umfassen. Beispielsweise kann ein (möglicherweise gewichteter) Mittelwert auf der Grundlage des einen oder der mehreren gespeicherten Versätze und auf der Grundlage der erfassten Verschiebungsinformationen bestimmt werden. Der aktualisierte Versatz kann dann in Zusammenhang mit dem zweiten Bereich 111 innerhalb der Versatzdatei gespeichert werden. Hierdurch kann die Kalibrierung des Eye-Tracking-basierten Benutzerschnittstellensystems 100 automatisch verbessert und angepasst werden.
  • Das Verfahren kann ferner das Bestimmen wenigstens zweier Versätze, die in der Versatzdatei in Zusammenhang mit wenigstens zwei entsprechenden auswählbaren Bereichen 111 gespeichert sind, umfassen. Ein dritter Versatz für einen dritten auswählbaren Bereich 111 kann durch Interpolieren der wenigstens zwei Versätze bestimmt werden. Der dritte Versatz kann dann in Zusammenhang mit dem dritten Bereich 111 innerhalb der Versatzdatei gespeichert werden. Hierdurch kann die gesamte Betrachtungszone 110, d.h. alle der mehreren Bereiche 111, unter Verwendung nur einer begrenzten Anzahl zuvor bestimmter Versätze kalibriert werden. Daher kann die Kalibrierung vereinfacht werden.
  • Im vorliegende Dokument wurde ein Eye-Tracking-basiertes Benutzerschnittstellensystem 100 beschrieben, das eine präzise und zuverlässige Benutzereingabe unter Verwendung des Eye-Trackings ermöglicht. Die Benutzerschnittstelle kann ohne die Verwendung einer expliziten Kalibrierroutine bereitgestellt werden. Durch Erfassen der Verschiebungsinformationen unter Verwendung von Eingabemitteln, die von den Eye-Tracking-basierten Eingabemitteln verschieden sind, kann die Kalibrierung der Eye-Tracking-basierten Benutzerschnittstelle in einer impliziten Weise bereitgestellt werden, möglicherweise ohne dass ein Benutzer des Systems das Auftreten dieser Kalibrierung bemerkt.
  • Es sei bemerkt, dass die Beschreibung und die Zeichnung lediglich die Grundgedanken der vorgeschlagenen Verfahren und Systeme erläutern. Fachleute werden in der Lage sein, verschiedene Anordnungen zu implementieren, die, wenngleich sie hier nicht explizit beschrieben oder dargestellt sind, die Grundgedanken der Erfindung verwirklichen und in ihren Gedanken und Schutzumfang aufgenommen sind. Ferner sind alle Beispiele und die Ausführungsform, die im vorliegenden Dokument dargelegt sind, ausdrücklich in erster Linie nur für erklärende Zwecke vorgesehen, um dem Leser zu helfen, die Grundgedanken der vorgeschlagenen Verfahren und Systeme zu verstehen. Ferner sollen alle hier gegebenen Aussagen, die Grundgedanken, Aspekte und Ausführungsformen der Erfindung bereitstellen, sowie spezifische Beispiele davon als gleichwertige Ausgestaltungen von diesen umfassend verstanden werden.

Claims (15)

  1. Verfahren zum Auswählen eines ersten Bereichs aus einer Betrachtungszone, welche mehrere auswählbare Bereiche umfasst, wobei das Verfahren folgende Schritte umfasst: Messen eines Blickpunkts eines Benutzers in der Betrachtungszone, wodurch ein gemessener Blickpunkt bereitgesellt wird, Bestimmen eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts, Anzeigen von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone, Erfassen von Verschiebungsinformationen, die sich auf das Ändern des Orts der angezeigten Informationen in der Betrachtungszone beziehen, Bestimmen eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und auf der Grundlage der erfassten Verschiebungsinformationen und Auswählen eines ersten Bereichs aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht.
  2. Verfahren nach Anspruch 1, wobei die Verschiebungsinformationen unter Verwendung einer Tasteingabevorrichtung erfasst werden.
  3. Verfahren nach Anspruch 1, wobei das Bestimmen des geschätzten Blickpunkts Folgendes umfasst: Bestimmen eines ersten Versatzes für den gemessenen Blickpunkt anhand einer Versatzdatei und Bestimmen des geschätzten Blickpunkts durch Versetzen des gemessenen Blickpunkts unter Verwendung des ersten Versatzes.
  4. Verfahren nach Anspruch 3, welches ferner Folgendes umfasst: Bestimmen eines zweiten Bereichs aus den mehreren auswählbaren Bereichen, welcher dem gemessenen Blickpunkt entspricht, Bestimmen eines aktualisierten Versatzes zum Versetzen des gemessenen Blickpunkts auf der Grundlage der erfassten Verschiebungsinformationen und Speichern des aktualisierten Versatzes in Zusammenhang mit dem zweiten Bereich innerhalb der Versatzdatei.
  5. Verfahren nach Anspruch 4, wobei der aktualisierte Versatz auch auf der Grundlage eines oder mehrerer bereits in der Versatzdatei gespeicherter Versätze bestimmt wird.
  6. Verfahren nach Anspruch 5, wobei das Bestimmen des aktualisierten Versatzes Folgendes umfasst: Bestimmen eines gespeicherten Versatzes, der bereits innerhalb der Versatzdatei in Zusammenhang mit dem zweiten Bereich gespeichert ist, und Bestimmen des aktualisierten Versatzes auf der Grundlage des gespeicherten Versatzes und auf der Grundlage der erfassten Verschiebungsinformationen.
  7. Verfahren nach Anspruch 3, welches ferner Folgendes umfasst: Bestimmen von wenigstens zwei Versätzen, die innerhalb der Versatzdatei in Zusammenhang mit wenigstens zwei entsprechenden auswählbaren Bereichen gespeichert sind, Bestimmen eines dritten Versatzes für einen dritten auswählbaren Bereich durch Interpolieren der wenigstens zwei Versätze und Speichern des dritten Versatzes in Zusammenhang mit dem dritten Bereich innerhalb der Versatzdatei.
  8. Verfahren nach Anspruch 1, wobei der gemessene Blickpunkt unter Verwendung von einem Bildsensor erfasster Bilddaten bestimmt wird.
  9. Verfahren nach Anspruch 1, wobei die Bereiche von den mehreren auswählbaren Bereichen aneinander angrenzen.
  10. Verfahren nach Anspruch 1, wobei die Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone Folgendes umfassen: ein sichtbares Bildzeichen, das in der Betrachtungszone angezeigt wird, und/oder eine Hervorhebung eines auswählbaren Bereichs von den mehreren auswählbaren Bereichen, welcher dem geschätzten Blickpunkt entspricht.
  11. Verfahren nach Anspruch 1, wobei: die mehreren auswählbaren Bereiche jeweils in Zusammenhang mit mehreren Funktionen stehen und das Verfahren ferner das Einleiten einer ersten Funktion von den mehreren Funktionen, welche dem ersten Bereich entspricht, umfasst.
  12. Verfahren nach Anspruch 1, wobei der tatsächliche Blickpunkt in den ersten Bereich fällt.
  13. Verfahren nach Anspruch 2, wobei: sich die Betrachtungszone auf dem Armaturenbrett eines Fahrzeugs befindet und sich die Tasteingabevorrichtung an einer Lenkvorrichtung des Fahrzeugs befindet.
  14. Steuereinheit für ein Eye-Tracking-basiertes Benutzerschnittstellensystem, wobei die Steuereinheit dafür ausgelegt ist, Folgendes auszuführen: Bestimmen eines gemessenen Blickpunkts eines Benutzers in einer Betrachtungszone des Eye-Tracking-basierten Benutzerschnittstellensystems, wobei die Betrachtungszone mehrere auswählbare Bereiche umfasst, Bestimmen eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts, Veranlassen der Ausgabe von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone, Bestimmen von Verschiebungsinformationen, welche auf die Ortsänderung der angezeigten Informationen in der Betrachtungszone gerichtet sind, Bestimmen eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und der erfassten Verschiebungsinformationen und Auswählen eines ersten Bereichs aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht.
  15. Eye-Tracking-basiertes Benutzerschnittstellensystem, welches Folgendes umfasst: einen Bildsensor, der dafür ausgelegt ist, Bilddaten in Bezug auf einen Blickpunkt eines Benutzers des Eye-Tracking-basierten Benutzerschnittstellensystems zu erfassen, eine Betrachtungszone, die dafür ausgelegt ist, mehrere auswählbare Bereiche mit auswählbaren Bereichen, die sichtbar verschieden sind, bereitzustellen und sichtbare Informationen in Bezug auf einen geschätzten Blickpunt des Benutzers in der Betrachtungszone bereitzustellen, eine Tasteingabevorrichtung, die dafür ausgelegt ist, Verschiebungsinformationen zu erfassen, die vom Benutzer eingegeben werden, um den Ort der Informationen in Bezug auf den geschätzten Blickpunkt zu ändern, und eine Steuereinheit, die dafür ausgelegt ist, Folgendes auszuführen: Bestimmen eines gemessenen Blickpunkts eines Benutzers in einer Betrachtungszone des Eye-Tracking-basierten Benutzerschnittstellensystems, wobei die Betrachtungszone mehrere auswählbare Bereiche umfasst, Bestimmen eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts, Bewirken der Ausgabe von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone, Bestimmen von Verschiebungsinformationen, die auf die Ortsänderung der angezeigten Informationen in der Betrachtungszone gerichtet sind, Bestimmen eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und der erfassten Verschiebungsinformationen und Auswählen eines ersten Bereichs aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht.
DE112014007127.7T 2014-11-03 2014-11-03 Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems Pending DE112014007127T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/063671 WO2016072965A1 (en) 2014-11-03 2014-11-03 Method and system for calibrating an eye tracking system

Publications (1)

Publication Number Publication Date
DE112014007127T5 true DE112014007127T5 (de) 2017-09-21

Family

ID=55909527

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014007127.7T Pending DE112014007127T5 (de) 2014-11-03 2014-11-03 Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems

Country Status (4)

Country Link
US (1) US20170235363A1 (de)
CN (1) CN107111355B (de)
DE (1) DE112014007127T5 (de)
WO (1) WO2016072965A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107995979B (zh) * 2015-04-16 2021-12-07 托比股份公司 用于对用户进行认证的***、方法和机器可读介质
US10678897B2 (en) 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
CN107103293B (zh) * 2017-04-13 2019-01-29 西安交通大学 一种基于相关熵的注视点估计方法
CN108833880B (zh) * 2018-04-26 2020-05-22 北京大学 利用跨用户行为模式进行视点预测并实现虚拟现实视频最优化传输的方法和装置
CN108968907B (zh) * 2018-07-05 2019-06-18 四川大学 眼动数据的校正方法及装置
TWI704501B (zh) * 2018-08-09 2020-09-11 宏碁股份有限公司 可由頭部操控的電子裝置與其操作方法
SE543273C2 (en) * 2019-03-29 2020-11-10 Tobii Ab Training an eye tracking model
DE112020001907T5 (de) * 2019-04-13 2021-12-23 Karma Automotive Llc Bedingt transparente berührungsempfindliche bedienoberfläche
CN112148112B (zh) * 2019-06-27 2024-02-06 北京七鑫易维科技有限公司 校准方法及装置、非易失性存储介质和处理器

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005046465A1 (en) * 2003-11-14 2005-05-26 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
GB0618978D0 (en) * 2006-09-27 2006-11-08 Malvern Scient Solutions Ltd Method of employing gaze direction tracking for cursor control in a computer
CN101840265B (zh) * 2009-03-21 2013-11-06 深圳富泰宏精密工业有限公司 视觉感知装置及其控制方法
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
JPWO2011114564A1 (ja) * 2010-03-18 2013-06-27 富士フイルム株式会社 立体画像表示装置およびその制御方法
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US20110307216A1 (en) * 2010-06-10 2011-12-15 Optimetrics, Inc. Method for automated measurement of eye-tracking system random error
WO2012021967A1 (en) * 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US9025252B2 (en) * 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
CA2853709C (en) * 2011-10-27 2020-09-01 Tandemlaunch Technologies Inc. System and method for calibrating eye gaze data
US10025381B2 (en) * 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
US10394320B2 (en) * 2012-01-04 2019-08-27 Tobii Ab System for gaze interaction
US10540008B2 (en) * 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
US10488919B2 (en) * 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US20170235360A1 (en) * 2012-01-04 2017-08-17 Tobii Ab System for gaze interaction
US8970495B1 (en) * 2012-03-09 2015-03-03 Google Inc. Image stabilization for color-sequential displays
US9164580B2 (en) * 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
US9626072B2 (en) * 2012-11-07 2017-04-18 Honda Motor Co., Ltd. Eye gaze control system
US9147248B2 (en) * 2012-12-21 2015-09-29 Tobii Technology Ab Hardware calibration of eye tracker
EP2956844B1 (de) * 2013-02-14 2017-05-24 Facebook, Inc. Systeme und verfahren zur augenverfolgungskalibrierung
US20140247232A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Two step gaze interaction
GB201305726D0 (en) * 2013-03-28 2013-05-15 Eye Tracking Analysts Ltd A method for calibration free eye tracking
EP2790126B1 (de) * 2013-04-08 2016-06-01 Cogisen SRL Verfahren zur Blickverfolgung
GB201322873D0 (en) * 2013-12-23 2014-02-12 Tobii Technology Ab Eye gaze determination
CN103770733B (zh) * 2014-01-15 2017-01-11 中国人民解放军国防科学技术大学 一种驾驶员安全驾驶状态检测方法及装置
DE112014006382B4 (de) * 2014-02-19 2019-01-17 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesteuerverfahren der Anzeigesteuervorrichtung, Augen-Blickrichtungs-Detektionssystem und Kalibrations-Steuerverfahren von Augen-Blickrichtungs-Detektionssystem
US9727136B2 (en) * 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
US10067561B2 (en) * 2014-09-22 2018-09-04 Facebook, Inc. Display visibility based on eye convergence
US10414338B2 (en) * 2014-10-21 2019-09-17 Spirited Eagle Enterprises, LLC System and method for enhancing driver situation awareness and environment perception around a transportation vehicle
WO2016075532A1 (en) * 2014-11-14 2016-05-19 The Eye Tribe Aps Dynamic eye tracking calibration
US10496160B2 (en) * 2014-12-16 2019-12-03 Koninklijke Philips N.V. Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing

Also Published As

Publication number Publication date
CN107111355B (zh) 2021-03-12
US20170235363A1 (en) 2017-08-17
CN107111355A (zh) 2017-08-29
WO2016072965A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
DE112014007127T5 (de) Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems
DE102011011143B4 (de) Verfahren zum Ändern des Zustandes einer elektronischen Vorrichtung
EP2822812B1 (de) Kraftfahrzeug mit einem elektronischen rückspiegel
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
DE102014009303B4 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102012219280A1 (de) Fahrerassistenzsystem und Verfahren
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102015002118A1 (de) Anzeigesteuer- bzw. Regelvorrichtung für ein Fahrzeug, Verfahren zum Steuern bzw. Regeln einer Anzeige für ein Fahrzeug sowie Computerprogrammerzeugnis
DE102014000214A1 (de) Steuern eines Steuerparameters durch Gestenerkennung
DE102018102047A1 (de) Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit virtuellen, länglichen Abstandsmarkierungen in einem Bild, Computerprogrammprodukt, sowie Anzeigesystem
WO2014067774A1 (de) Verfahren und vorrichtung zum betreiben einer eingabevorrichtung
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
DE102013217347B4 (de) Verfahren und vorrichtung zur parametereinstellung für kantenmessungsvideowerkzeuge
DE102017218718A1 (de) Verfahren, Vorrichtung und Fortbewegungsmittel zur Unterstützung einer Gestensteuerung für ein virtuelles Display
DE102015215044A1 (de) Verfahren und System zur Verarbeitung multimodaler Eingabesignale
EP3421674A1 (de) Vorrichtung und verfahren zum abbilden von bereichen
WO2016087033A1 (de) Verfahren zum betreiben einer virtual-reality-brille und anzeigevorrichtung
DE102015209935A1 (de) Verfahren zur Detektion einer manuellen Bedienungshandlung an einer Eingabevorrichtung
WO2014040807A1 (de) Berührungseingaben entlang einer schwelle auf einer berührungsempfindlichen oberfläche
DE102013223518A1 (de) Anzeigevorrichtung und Verfahren zur Steuerung einer Anzeigevorrichtung
WO2020011943A1 (de) Verfahren und benutzerschnittstelle zur erfassung einer eingabe mittels zeigegestik
EP2107456B1 (de) Auswahl von Anzeigenmodi "SKINS" für ein Infotainmentsystem
DE112018007394B4 (de) Eingabesteuerungsvorrichtung, Eingabesteuerungsverfahren und Anzeigevorrichtung
DE102017210599A1 (de) Verfahren zum Positionieren eines digitalen Anzeigeinhalts auf einer Anzeigeeinrichtung eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug mit Steuervorrichtung
DE102014217969A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R012 Request for examination validly filed