-
Technisches Gebiet
-
Das vorliegende Dokument betrifft Systeme, die unter Verwendung von Eye-Tracking-Mechanismen gesteuert werden. Insbesondere betrifft das vorliegende Dokument das Kalibrieren eines Eye-Tracking-basierten Benutzerschnittstellensystems.
-
Hintergrund
-
Eye-Tracking kann verwendet werden, um eine schnelle und intuitive Benutzerschnittstelle bereitzustellen, beispielsweise innerhalb von Fahrzeugen in der Art von Automobilen. Der Blickpunkt eines Benutzers kann unter Verwendung einer Kamera gemessen werden. Der Blickpunkt kann einem bestimmten Bereich von mehreren auswählbaren Bereichen entsprechen. Falls erkannt wird, dass der Benutzer auf den bestimmten Bereich blickt, kann eine Aktion oder Funktion, die dem bestimmten Bereich zugeordnet ist, ausgeführt werden. Dadurch können verschiedene Aktionen oder Funktionen, die den verschiedenen auswählbaren Bereichen zugeordnet sind, von einem Benutzer einfach durch Betrachten der verschiedenen auswählbaren Bereiche initialisiert werden.
-
Zum Bereitstellen einer zuverlässigen Benutzerschnittstelle müssen Eye-Tracking-basierte Benutzerschnittstellensysteme typischerweise kalibriert werden. Andernfalls kann der gemessene Blickpunkt vom tatsächlichen Blickpunkt des Benutzers abweichen. Mit anderen Worten kann eine mangelnde Kalibrierung zu einem Versatz zwischen dem gemessenen Blickpunkt und dem tatsächlichen Blickpunkt führen. Dieser Versatz kann von der Blickrichtung und insbesondere vom Sichtwinkel des Benutzers auf einen auswählbaren Bereich abhängen.
-
Der Versatz zwischen einem gemessenen Blickpunkt und einem tatsächlichen Blickpunkt kann zu einer Situation führen, in der der erkannte Bereich vom Bereich abweicht, den ein Benutzer auswählen möchte. Dadurch können die Zuverlässigkeit und die Benutzerakzeptanz eines Eye-Tracking-basierten Benutzerschnittstellensystems verhältnismäßig niedrig sein.
-
Ferner kann die Funktionsweise des Eye-Trackings vom Benutzer, der die Eye-Tracking-basierte Benutzerschnittstelle verwendet, von aktuellen Lichtbedingungen usw. abhängen. Daher kann eine Kalibrierung häufig wiederholt werden müssen, was für einen Benutzer typischerweise nicht akzeptierbar ist.
-
Das vorliegende Dokument beschreibt Verfahren und Systeme, die eine zuverlässige und flexible Eye-Tracking-basierte Benutzerschnittstelle bereitstellen.
-
Kurzfassung
-
Gemäß einem Aspekt wird ein Verfahren zum Auswählen eines ersten Bereichs aus einer Betrachtungszone, die mehrere auswählbare Bereiche umfasst, beschrieben. Das Verfahren umfasst das Messen eines Blickpunkts eines Benutzers in der Betrachtungszone, wodurch ein gemessener Blickpunkt bereitgestellt wird. Ferner umfasst das Verfahren das Bestimmen eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts und das Anzeigen von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone. Zusätzlich umfasst das Verfahren das Erfassen von Verschiebungsinformationen, die auf die Änderung des Orts der angezeigten Informationen in der Betrachtungszone gerichtet sind. Ferner umfasst das Verfahren das Bestimmen eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und der erfassten Verschiebungsinformationen. Zusätzlich umfasst das Ver- fahren das Auswählen eines ersten Bereichs aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht.
-
Gemäß einem weiteren Aspekt wird eine Steuereinheit für ein Eye-Tracking-basiertes Benutzerschnittstellensystem beschrieben. Die Steuereinheit ist dafür ausgelegt, einen gemessenen Blickpunkt eines Benutzers in einer Betrachtungszone des Eye-Tracking-basierten Benutzerschnittstellensystems zu bestimmen, wobei die Betrachtungszone mehrere auswählbare Bereiche umfasst. Ferner ist die Steuereinheit dafür ausgelegt, einen geschätzten Blickpunkt auf der Grundlage des gemessenen Blickpunkts zu bestimmen und die Ausgabe von Informationen in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone zu veranlassen. Zusätzlich ist die Steuereinheit dafür ausgelegt, Verschiebungsinformationen, welche auf die Ortsänderung der angezeigten Informationen in der Betrachtungszone gerichtet sind, und einen tatsächlichen Blickpunkt auf der Grundlage des gemessenen Blickpunkts und der erfassten Verschiebungsinformationen zu bestimmen. Ferner ist die Steuereinheit dafür ausgelegt, einen ersten Bereich aus den mehreren auswählbaren Bereichen, welcher dem tatsächlichen Blickpunkt entspricht, auszuwählen.
-
Gemäß einem weiteren Aspekt wird ein Eye-Tracking-basiertes Benutzerschnittstellensystem beschrieben, das einen Bildsensor umfasst, der dafür ausgelegt ist, Bilddaten in Bezug auf einen Blickpunkt eines Benutzers des Eye-Tracking-basierten Benutzerschnittstellensystems zu erfassen. Ferner umfasst das Eye-Tracking-basierte Benutzerschnittstellensystem eine Betrachtungszone, die dafür ausgelegt ist, mehrere auswählbare Bereiche mit auswählbaren Bereichen, die sichtbar verschieden sind, bereitzustellen. Die Betrachtungszone ist dafür ausgelegt, sichtbare Informationen in Bezug auf einen geschätzten Blickpunt des Benutzers in der Betrachtungszone bereitzustellen. Zusätzlich umfasst das Eye-Tracking-basierte Benutzerschnittstellensystem eine Tasteingabevorrichtung, die dafür ausgelegt ist, Verschiebungsinformationen zu erfassen, die vom Benutzer eingegeben werden, um den Ort der Informationen in Bezug auf den geschätzten Blickpunt zu ändern. Ferner umfasst das Eye-Tracking-basierte Benutzerschnittstellensystem eine Steuereinheit, wie im vorliegenden Dokument beschrieben.
-
Gemäß einem weiteren Aspekt wird ein Fahrzeug (beispielsweise ein Automobil, ein Motorrad oder ein Lastwagen) beschrieben, das eine Steuereinheit und/oder eine Eye-Tracking-basierte Benutzerschnittstelle, wie im vorliegenden Dokument beschrieben, umfasst.
-
Gemäß einem weiteren Aspekt wird ein Softwareprogramm beschrieben. Das Softwareprogramm kann für die Ausführung auf einem Prozessor und für die Ausführung der im vorliegenden Dokument dargelegten Verfahrensschritte, wenn sie auf dem Prozessor ausgeführt werden, eingerichtet sein.
-
Gemäß einem anderen Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein Softwareprogramm umfassen, das für die Ausführung auf einem Prozessor und für die Ausführung der im vorliegenden Dokument dargelegten Verfahrensschritte, wenn sie auf dem Prozessor ausgeführt werden, eingerichtet ist.
-
Gemäß einem weiteren Aspekt wird ein Computerprogrammprodukt beschrieben. Das Computerprogramm kann ausführbare Befehle zum Ausführen der im vorliegenden Dokument dargelegten Verfahrensschritte, wenn sie auf einem Computer ausgeführt werden, umfassen.
-
Es sei bemerkt, dass die Verfahren und Systeme, einschließlich ihrer bevorzugten Ausführungsformen, wie im vorliegenden Dokument dargelegt, für sich oder in Kombination mit den anderen in diesem Dokument offenbarten Verfahren und Systemen verwendet werden können. Zusätzlich sind die in Zusammenhang mit einem System dargelegten Merkmale auch auf ein entsprechendes Verfahren anwendbar (und umgekehrt). Ferner können alle Aspekte der im vorliegenden Dokument dargelegten Verfahren und Systeme beliebig kombiniert werden. Insbesondere können die Merkmale der Ansprüche beliebig miteinander kombiniert werden.
-
Kurzbeschreibung der Figuren
-
Die Erfindung wird nachstehend beispielhaft mit Bezug auf die anliegende Zeichnung erklärt. Es zeigen:
-
1 ein Blockdiagramm eines als Beispiel dienenden Eye-Tracking-basierten Benutzerschnittstellensystems und
-
2 ein Flussdiagramm eines als Beispiel dienenden Verfahrens zum Bestimmen einer Eingabe auf einem Eye-Tracking-basierten Benutzerschnittstellensystem.
-
Detaillierte Beschreibung
-
1 zeigt ein als Beispiel dienendes System zum Bereitstellen einer Eye-Tracking-basierten Benutzerschnittstelle. Das Eye-Tracking-basierte Benutzerschnittstellensystem 100 umfasst eine Betrachtungszone 110 mit mehreren auswählbaren Bereichen 111. Die auswählbaren Bereiche 111 sind typischerweise für einen Benutzer des Systems 100 sichtbar verschieden. Der Benutzer kann auf beliebige der mehreren auswählbaren Bereiche 111 blicken, um verschiedene Aktionen oder Funktionen einzuleiten, die mit den verschiedenen auswählbaren Bereichen der Betrachtungszone 110 verbunden sind.
-
Eine Kamera 120 wird verwendet, um Bilddaten eines Auges oder beider Augen des Benutzers zu erfassen. Die Bilddaten können zu einer Steuereinheit 101 weitergeleitet werden, die dafür ausgelegt ist, die Bilddaten zu analysieren und einen Blickpunkt des Benutzers auf der Grundlage der Bilddaten zu messen. Der gemessene Blickpunkt kann innerhalb der Betrachtungszone 110 liegen (wie in 1 dargestellt ist). Informationen 121 in Bezug auf den gemessenen Blickpunkt können auf der Betrachtungszone 110 angezeigt werden. Beispielsweise kann ein Bildzeichen 121, das den gemessenen Blickpunkt repräsentiert, auf der Betrachtungszone 110 angezeigt werden. Alternativ oder zusätzlich kann der auswählbare Bereich 111, der dem gemessenen Blickpunkt (beispielsweise dem auswählbaren Bereich 111, der den gemessenen Blickpunkt umfasst) entspricht, hervorgehoben werden.
-
Ein geschätzter Blickpunkt kann auf der Grundlage des gemessenen Blickpunkts bestimmt werden. Wie nachstehend dargelegt wird, können Versatzinformationen in Bezug auf einen gemessenen Blickpunkt von der Steuereinheit 101 bestimmt werden. Der geschätzte Blickpunkt kann auf der Grundlage des gemessenen Blickpunkts und auf der Grundlage der Versatzinformationen bestimmt werden. Alternativ oder zusätzlich zur Anzeige der Informationen 121 in Bezug auf den gemessenen Blickpunkt können Informationen 121 in Bezug auf den geschätzten Blickpunkt innerhalb der Betrachtungszone 110 angezeigt werden. Nachfolgend können die angezeigten Informationen 121 mit Informationen, die den gemessenen Blickpunkt betreffen, und/oder Informationen, die den geschätzten Blickpunkt betreffen, in Verbindung gebracht werden.
-
Die Steuereinheit 101 kann dafür ausgelegt sein, den gemessenen und/oder den geschätzten Blickpunkt auf der Grundlage des Blickpunkts eines Benutzers zu einem bestimmten Zeitpunkt, der als visueller Eingabezeitpunkt bezeichnet werden kann, zu bestimmen. Die angezeigten Informationen 121 können unter Verwendung des gemessenen und/oder des geschätzten Blickpunkts zum visuellen Eingabezeitpunkt bestimmt werden. Augenbewegungen eines Auges des Benutzers, die hinter dem visuellen Eingabezeitpunkt liegen, können ignoriert werden (zumindest für einen gewissen Zeitraum). Der visuelle Eingabezeitpunkt kann durch eine bestimmte Benutzereingabe (beispielsweise ein Zwinkern eines Auges des Benutzers) ausgelöst werden. Dabei kann der visuelle Eingabezeitpunkt als ein "Gefrierpunkt" zur Bestimmung eines gemessenen und/oder des geschätzten Blickpunkts angesehen werden.
-
Das Eye-Tracking-basierte Benutzerschnittstellensystem 100 kann eine Tasteingabevorrichtung 130 (beispielsweise ein Berührungsfeld) umfassen, die dafür ausgelegt ist, Verschiebungsinformationen zu erfassen, die vom Benutzer auf der Tasteingabevorrichtung 130 eingegeben werden. Die Verschiebungsinformationen können sich auf das Verschieben oder Versetzen der angezeigten Informationen 121 beziehen. Insbesondere kann es die Tasteingabevorrichtung 130 dem Benutzer ermöglichen, ein angezeigtes Bildzeichen des gemessenen Blickpunkts zu einer anderen Position auf der Betrachtungszone 110 zu verschieben, so dass die Position des Bildzeichens dem tatsächlichen Blickpunkt des Benutzers entspricht.
-
Beim dargestellten Beispiel ist die Tasteingabevorrichtung 130 am Lenkrad 131 eines Fahrzeugs angeordnet. Dabei kann der Fahrer eines Fahrzeugs einen gemessenen und/oder geschätzten Blickpunkt (d.h. die angezeigten Informationen 121, welche den gemessenen und/oder geschätzten Blickpunkt repräsentieren) bequem verschieben, während er die Hand auf dem Lenkrad 131 des Fahrzeugs hält.
-
Die Verschiebungsinformationen können zu einem Verschiebungseingabezeitpunkt erfasst werden, der dem visuellen Eingabezeitpunkt folgt. Der Verschiebungseingabezeitpunkt kann durch eine bestimmte Benutzereingabe (beispielsweise durch einen Druck des Benutzers auf die Tasteingabevorrichtung 130) ausgelöst werden. Beispielsweise kann ein Benutzer den Ort der angezeigten Informationen 121 bis zum visuellen Eingabezeitpunkt ändern (beispielsweise wenn der Benutzer die Tasteingabevorrichtung 130 mit einem Finger drückt), und die Verschiebungsinformationen können zum visuellen Eingabezeitpunkt erfasst werden.
-
Die durch die Tasteingabevorrichtung 130 erfassten Verschiebungsinformationen können verwendet werden, um einen Versatz zwischen dem gemessenen Blickpunkt und dem tatsächlichen Blickpunkt eines Benutzers zu bestimmen. Der bestimmte Versatz kann innerhalb einer Speichereinheit 102 gespeichert werden und zur Kalibrierung des Eye-Tracking-basierten Benutzerschnittstellensystems 100 verwendet werden.
-
Beispielsweise können Versatzinformationen für jeden auswählbaren Bereich
111 der Betrachtungszone
110 bestimmt und gespeichert werden. Tabelle 1 zeigt ein als Beispiel dienendes Versatzfeld (auch als Versatzdatei bezeichnet) für die Betrachtungszone
110. Das Feld umfasst Versatzdaten für jeden auswählbaren Bereich
111 der Betrachtungszone
110. Nach dem Starten des Eye-Tracking-basierten Benutzerschnittstellensystems
100 können die Versatzdaten auf einen Null-Versatz initialisiert werden, wie in Tabelle 1 dargestellt ist.
X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 |
X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 |
X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 |
X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 | X = 0; Y = 0 |
Tabelle 1
-
Während der Verwendung des Eye-Tracking-basierten Benutzerschnittstellensystems 100 können Versatzdaten unter Verwendung der von der Tasteingabevorrichtung 130 erfassten Verschiebungsinformationen bestimmt werden. Diese Versatzdaten können verwendet werden, um die Versatzdaten zu aktualisieren, die innerhalb des Versatzfelds gespeichert sind. Beispielsweise können die bestimmten Versatzdaten für einen bestimmten auswählbaren Bereich 111 verwendet werden, um die für den bestimmten auswählbaren Bereich 111 gespeicherten Versatzdaten zu überscheiben. Alternativ kann ein gewichteter Durchschnitt zwischen den bestimmten Versatzdaten und den gespeicherten Versatzdaten berechnet und als aktualisierte Versatzdaten gespeichert werden.
-
Ferner können die bestimmten Versatzdaten für einen bestimmten auswählbaren Bereich 111 verwendet werden, um die Versatzdaten von Bereichen 111 in der Umgebung des bestimmten auswählbaren Bereichs 111 zu aktualisieren. Beispielsweise können die bestimmten Versatzdaten für den bestimmten auswählbaren Bereich 111 auch als Versatzdaten für die benachbarten Bereiche 111 verwendet werden. Alternativ oder zusätzlich können die Versatzdaten verschiedener Bereiche 111 interpoliert werden.
-
Dabei kann das Versatzdatenfeld oder eine Versatzdatei kontinuierlich aktualisiert werden, wodurch es ermöglicht wird, dass das Eye-Tracking-basierte Benutzerschnittstellensystem 100 automatisch an verschiedene Beleuchtungsbedingungen und/oder mögliche verschiedene Benutzer angepasst wird. Alternativ oder zusätzlich können verschiedene Versatzdatenfelder als Profile für verschiedene Benutzer gespeichert werden, um das Eye-Tracking-basierte Benutzerschnittstellensystem 100 wirksam an verschiedene Benutzer anzupassen.
-
Die Steuereinheit 101 kann dafür ausgelegt werden, eine Schätzung des tatsächlichen Blickpunkts unter Berücksichtigung des Versatzfelds zu bestimmen. Insbesondere kann die Steuereinheit 101 dafür ausgelegt werden, den gemessenen Blickpunkt auf der Grundlage der von der Kamera 120 bereitgestellten Bilddaten zu bestimmen. Ferner kann die Steuereinheit 101 dafür ausgelegt werden, den gemessenen Blickpunkt unter Verwendung der innerhalb des Versatzfelds enthaltenen Versatzdaten zu versetzen. Insbesondere kann die Steuereinheit 101 den Bereich 111 bestimmen, der dem gemessenen Blickpunkt entspricht. Ferner können die Versatzdaten, die dem Bereich 111 entsprechen, vom Versatzfeld genommen werden. Die Schätzung des tatsächlichen Blickpunkts (auch als geschätzter Blickpunkt bezeichnet) kann dem gemessenen Blickpunkt entsprechen, der unter Verwendung der aus dem Versatzfeld entnommenen Versatzdaten versetzt ist.
-
Die Steuereinheit 101 kann dann den Bereich 111 bestimmen, welcher dem geschätzten Blickpunkt entspricht. Ferner können Informationen 121 in Bezug auf den geschätzten Blickpunkt innerhalb der Betrachtungszone 110 angezeigt werden (beispielsweise durch Anzeigen eines Bildzeichens oder durch Hervorheben des Bereichs 111, der dem geschätzten Blickpunkt entspricht).
-
Ferner können die angezeigten Informationen 121 für eine weitere Kalibrierung der Eye-Tracking-basierten Benutzerschnittstelle (wie vorstehend dargelegt) verwendet werden. Für diesen Zweck können Verschiebungsinformationen in Bezug auf die Ortsänderung der angezeigten Informationen 121 erfasst werden. Beispielsweise kann die Steuereinheit 101 dafür ausgelegt sein, zu bestimmen, ob Verschiebungsinformationen innerhalb eines vorgegebenen Zeitintervalls anschließend an den visuellen Eingabezeitpunkt über die Eingabevorrichtung 130 eingegeben werden. Falls solche Verschiebungsinformationen eingegeben werden, werden diese Verschiebungsinformationen erfasst und verwendet, um eine verbesserte Schätzung des tatsächlichen Blickpunkts (wie vorstehend dargelegt) zu bestimmen. Andernfalls wird angenommen, dass die angezeigten Informationen 121 eine korrekte Schätzung des tatsächlichen Blickpunkts repräsentieren. Daher kann entweder anschließend an den Verschiebungseingabezeitpunkt oder anschließend an das vorgegebene Zeitintervall ein "tatsächlicher Blickpunkt" bestimmt werden. Die Steuereinheit 101 kann einen der mehreren auswählbaren Bereiche 111 auf der Grundlage dieses "tatsächlichen Blickpunkts" bestimmen.
-
Die Steuereinheit 101 kann ferner dafür ausgelegt werden, eine Aktion oder Funktion zu initialisieren, welche dem bestimmten Bereich 111 entspricht. Für diesen Zweck kann die Steuereinheit 101 dafür ausgelegt werden, auf die Speichereinheit 102 zuzugreifen, um eine vorgegebene Abbildung zwischen dem auswählbaren Bereich 111 und einer Aktion oder Funktion, die dem auswählbaren Bereich 111 zugeordnet ist, zu konsultieren.
-
Dabei stellt die Tasteingabevorrichtung 130 einem Benutzer des Eye-Tracking-basierten Benutzerschnittstellensystems 100 wirksame und intuitive Mittel zum Modifizieren des Brennpunkts der Eye-Tracking-basierten Benutzerschnittstelle, d.h. zum impliziten Kalibrieren und Anpassen der Eye-Tracking-basierten Benutzerschnittstelle, bereit. Die Tasteingabevorrichtung 130 ermöglicht es dem Benutzer, die gleichen Aktionen wie die Eye-Tracking-basierte Benutzerschnittstelle einzuleiten, beispielsweise falls die Eye-Tracking-basierte Benutzerschnittstelle nicht korrekt funktioniert. Insbesondere wird der Benutzer in Fällen einer fehlerhaften Kalibrierung der Eye-Tracking-basierten Benutzerschnittstelle wahrscheinlich den von der Eye-Tracking-basierten Benutzerschnittstelle bestimmten geschätzten Blickpunkt korrigieren, indem er über die Tasteingabevorrichtung 130 Verschiebungsinformationen bereitstellt. Insbesondere können in Fällen, in denen die Verschiebung, die durch die Tasteingabevorrichtung 130 ausgelöst wird, gering ist (beispielsweise zur Bewegung eines geschätzten Blickpunkts zu einem benachbarten Bereich 111), die erfassten Verschiebungsinformationen durch die Steuereinheit 101 als eine Korrektur des geschätzten Blickpunkts interpretiert werden, d.h. als ein Versatz des geschätzten Blickpunkts, der anzuwenden ist, um den gemessenen Blickpunkt mit dem tatsächlichen Blickpunkt auszurichten.
-
In Fällen, in denen mehrere Korrekturen über die Tasteingabevorrichtung 130 erfasst werden, d.h. in Fällen, in denen mehrere Versätze bestimmt werden, können die mehreren Versätze interpoliert werden, um zuverlässige Versatzdaten für die gesamte Betrachtungszone 110 bereitzustellen.
-
2 zeigt ein Flussdiagramm eines als Beispiel dienenden Verfahrens 200 zum Auswählen eines ersten Bereichs 111 aus einer Betrachtungszone 110, die mehrere auswählbare Bereiche 111 umfasst. Die auswählbaren Bereiche 111 aus den mehreren auswählbaren Bereichen 111 sind für einen Benutzer typischerweise sichtbar verschieden. Ferner grenzen die Bereiche 111 aus den mehreren auswählbaren Bereichen 111 typischerweise aneinander an. Beispielsweise kann ein auswählbarer Bereich 111 einer physikalischen oder virtuellen Taste innerhalb der Betrachtungszone 110 entsprechen. Die Betrachtungszone 110 kann an einem Armaturenbrett eines Fahrzeugs angeordnet sein.
-
Das Verfahren 200 umfasst das Messen 201 eines Blickpunkts eines Benutzers auf der Betrachtungszone 110, wodurch ein gemessener Blickpunkt bereitgestellt wird. Der Blickpunkt eines Benutzers kann unter Verwendung von Bilddaten bestimmt werden, die von einem Bildsensor 120 (beispielsweise einer Kamera) erfasst werden. Die Kamera kann auf den Benutzer gerichtet werden. Dabei können die Bilddaten Informationen in Bezug auf die Pupille wenigstens eines Auges des Benutzers umfassen. Der gemessene Blickpunkt kann unter Verwendung von Bildverarbeitungsalgorithmen bestimmt werden, die auf die vom Bildsensor 120 erfassten Bilddaten angewendet werden.
-
Ferner umfasst das Verfahren 200 das Bestimmen 202 eines geschätzten Blickpunkts auf der Grundlage des gemessenen Blickpunkts. Bei einem Beispiel entspricht der geschätzte Blickpunkt dem gemessenen Blickpunkt oder gleicht diesem. Alternativ oder zusätzlich kann der geschätzte Blickpunkt unter Verwendung von Versatzdaten bestimmt werden, die in einer Versatzdatei (beispielsweise innerhalb eines Versatzfelds) gespeichert sein können. Insbesondere kann ein erster Versatz für den gemessenen Blickpunkt anhand einer Versatzdatei bestimmt werden. Beispielsweise kann der auswählbare Bereich 111, der dem gemessenen Blickpunkt entspricht, bestimmt werden. Der erste Versatz kann dem Versatz entsprechen, der für diesen auswählbaren Bereich 111 innerhalb der Versatzdatei gespeichert ist. Der geschätzte Blickpunkt kann durch Versetzen des gemessenen Blickpunkts unter Verwendung des ersten Versatzes bestimmt werden.
-
Das Verfahren 200 umfasst ferner das Anzeigen 203 von Informationen 121 in Bezug auf den geschätzten Blickpunkt in der Betrachtungszone 110. Beispielsweise kann ein sichtbares Bildzeichen oder ein sichtbarer Punkt an der Position des geschätzten Blickpunkts in der Betrachtungszone 110 angezeigt werden. Alternativ oder zusätzlich kann ein auswählbarer Bereich 111 aus den mehreren auswählbaren Bereichen 111, dem der geschätzte Blickpunkt entspricht, hervorgehoben werden. Die Betrachtungszone 110 kann beispielsweise eine Anzeige umfassen, und die mehreren Bereiche 111 können auf der Anzeige (beispielsweise als Kacheln) angezeigt werden. Ein auswählbarer Bereich 111 kann durch Ändern einer Farbe oder einer Helligkeit des angezeigten Bereichs 111 hervorgehoben werden.
-
Ferner umfasst das Verfahren 200 das Erfassen 204 von Verschiebungsinformationen, welche darauf gerichtet sind, den Ort der angezeigten Informationen 121 in der Betrachtungszone 110 zu ändern. Die Verschiebungsinformationen können unter Verwendung einer Tasteingabevorrichtung 130 (beispielsweise eines Berührungsfelds) erfasst werden. Die Tasteingabevorrichtung 130 kann sich an einer Lenkvorrichtung 131 (beispielsweise dem Lenkrad) eines Fahrzeugs befinden.
-
Zusätzlich umfasst das Verfahren 200 das Bestimmen 205 eines tatsächlichen Blickpunkts auf der Grundlage des gemessenen Blickpunkts und auf der Grundlage der erfassten Verschiebungsinformationen. Der erste Versatz aus der Versatzdatei kann berücksichtigt werden, um den tatsächlichen Blickpunkt zu bestimmen. Insbesondere kann der gemessene Blickpunkt unter Verwendung der erfassten Verschiebungsinformationen und möglicherweise des ersten Versatzes versetzt werden, um den tatsächlichen Blickpunkt zu bestimmen.
-
Ferner umfasst das Verfahren 200 das Auswählen 206 eines ersten Bereichs 111 aus den mehreren auswählbaren Bereichen 111, welcher dem tatsächlichen Blickpunkt entspricht. Typischerweise fällt der tatsächliche Blickpunkt in den ersten Bereich 111. Mit anderen Worten kann der erste Bereich 111 als Bereich 111 aus den mehreren Bereichen 111 ausgewählt werden, worin der bestimmte tatsächliche Blickpunkt fällt. Die mehreren auswählbaren Bereiche 111 können jeweils in Zusammenhang mit mehreren Funktionen stehen, und das Verfahren 200 kann ferner das Einleiten einer ersten Funktion aus den mehreren Funktionen, die dem ersten Bereich 111 entspricht, umfassen.
-
Dabei stellt das Verfahren 200 zuverlässige und adaptive Mittel zur Ausführung einer Eingabe unter Verwendung des Eye-Trackings und/oder zur impliziten Kalibrierung eines Eye-Tracking-basierten Benutzerschnittstellensystems 100 bereit. Insbesondere ermöglicht das Erfassen von Verschiebungsinformationen in Bezug auf angezeigte Informationen 121, welche den geschätzten Blickpunkt repräsentieren, es einem Benutzer, ein Eye-Tracking-basiertes Benutzerschnittstellensystem 100 intuitiv zu kalibrieren.
-
Das Verfahren 200 kann ferner Schritte für das Bestimmen und Speichern von Kalibrierinformationen auf der Grundlage der erfassten Verschiebungsinformationen umfassen. Insbesondere kann das Verfahren das Bestimmen eines zweiten Bereichs 111 aus den mehreren auswählbaren Bereichen 111, welcher dem gemessenen Blickpunkt entspricht, umfassen. Ein (möglicherweise) aktualisierter Versatz zum Versetzen des gemessenen Blickpunkts kann auf der Grundlage der erfassten Verschiebungsinformationen bestimmt werden. Ferner kann der aktualisierte Versatz auf der Grundlage eines oder mehrerer bereits in der Versatzdatei gespeicherter Versätze bestimmt werden (beispielsweise auf der Grundlage eines Versatzes, der bereits in der Versatzdatei in Zusammenhang mit dem zweiten Bereich 111 gespeichert ist). Insbesondere kann das Bestimmen des aktualisierten Versatzes das Bestimmen eines gespeicherten Versatzes, der bereits in der Versatzdatei in Zusammenhang mit dem zweiten Bereich 111 gespeichert ist, und das Bestimmen des aktualisierten Versatzes auf der Grundlage des gespeicherten Versatzes und auf der Grundlage der erfassten Verschiebungsinformationen umfassen. Beispielsweise kann ein (möglicherweise gewichteter) Mittelwert auf der Grundlage des einen oder der mehreren gespeicherten Versätze und auf der Grundlage der erfassten Verschiebungsinformationen bestimmt werden. Der aktualisierte Versatz kann dann in Zusammenhang mit dem zweiten Bereich 111 innerhalb der Versatzdatei gespeichert werden. Hierdurch kann die Kalibrierung des Eye-Tracking-basierten Benutzerschnittstellensystems 100 automatisch verbessert und angepasst werden.
-
Das Verfahren kann ferner das Bestimmen wenigstens zweier Versätze, die in der Versatzdatei in Zusammenhang mit wenigstens zwei entsprechenden auswählbaren Bereichen 111 gespeichert sind, umfassen. Ein dritter Versatz für einen dritten auswählbaren Bereich 111 kann durch Interpolieren der wenigstens zwei Versätze bestimmt werden. Der dritte Versatz kann dann in Zusammenhang mit dem dritten Bereich 111 innerhalb der Versatzdatei gespeichert werden. Hierdurch kann die gesamte Betrachtungszone 110, d.h. alle der mehreren Bereiche 111, unter Verwendung nur einer begrenzten Anzahl zuvor bestimmter Versätze kalibriert werden. Daher kann die Kalibrierung vereinfacht werden.
-
Im vorliegende Dokument wurde ein Eye-Tracking-basiertes Benutzerschnittstellensystem 100 beschrieben, das eine präzise und zuverlässige Benutzereingabe unter Verwendung des Eye-Trackings ermöglicht. Die Benutzerschnittstelle kann ohne die Verwendung einer expliziten Kalibrierroutine bereitgestellt werden. Durch Erfassen der Verschiebungsinformationen unter Verwendung von Eingabemitteln, die von den Eye-Tracking-basierten Eingabemitteln verschieden sind, kann die Kalibrierung der Eye-Tracking-basierten Benutzerschnittstelle in einer impliziten Weise bereitgestellt werden, möglicherweise ohne dass ein Benutzer des Systems das Auftreten dieser Kalibrierung bemerkt.
-
Es sei bemerkt, dass die Beschreibung und die Zeichnung lediglich die Grundgedanken der vorgeschlagenen Verfahren und Systeme erläutern. Fachleute werden in der Lage sein, verschiedene Anordnungen zu implementieren, die, wenngleich sie hier nicht explizit beschrieben oder dargestellt sind, die Grundgedanken der Erfindung verwirklichen und in ihren Gedanken und Schutzumfang aufgenommen sind. Ferner sind alle Beispiele und die Ausführungsform, die im vorliegenden Dokument dargelegt sind, ausdrücklich in erster Linie nur für erklärende Zwecke vorgesehen, um dem Leser zu helfen, die Grundgedanken der vorgeschlagenen Verfahren und Systeme zu verstehen. Ferner sollen alle hier gegebenen Aussagen, die Grundgedanken, Aspekte und Ausführungsformen der Erfindung bereitstellen, sowie spezifische Beispiele davon als gleichwertige Ausgestaltungen von diesen umfassend verstanden werden.