DE102012212217B4 - Steuersystem für ein Fahrzeug - Google Patents

Steuersystem für ein Fahrzeug Download PDF

Info

Publication number
DE102012212217B4
DE102012212217B4 DE102012212217.6A DE102012212217A DE102012212217B4 DE 102012212217 B4 DE102012212217 B4 DE 102012212217B4 DE 102012212217 A DE102012212217 A DE 102012212217A DE 102012212217 B4 DE102012212217 B4 DE 102012212217B4
Authority
DE
Germany
Prior art keywords
module
data
occupant
focus
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012212217.6A
Other languages
English (en)
Other versions
DE102012212217A1 (de
Inventor
Amanda J. Kalhous
Fuad Al-Amin
Jarvis Chau
Norman J. Weigert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102012212217A1 publication Critical patent/DE102012212217A1/de
Application granted granted Critical
Publication of DE102012212217B4 publication Critical patent/DE102012212217B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Steuersystem (10) für ein Fahrzeug (12), umfassend:ein erstes Modul (34), das auf der Grundlage von Bilddaten (40) einen Fokus (46) eines Insassen (13) eines Fahrzeugs (12) bestimmt, wobei die Bilddaten (40) unter Verwendung eines Bildprozessors (26) von dem Insassen (13) erfasst werden;ein zweites Modul (38), das auf der Grundlage des Fokus (46) des Insassen (13) einen Anwenderbefehl (56) zum Steuern eines Fahrzeugsystems (16a-16n) erzeugt;ein drittes Modul (32), das die Bilddaten (40) analysiert, um aus den Bilddaten (40) Augendaten (42) und/oder Gesichtsdaten (44) zu bestimmen; undein viertes Modul (36), das Anzeigedaten (50) zum Anzeigen einer dem Fahrzeugsystem (16a-16n) zugeordneten Anwenderschnittstelle erzeugt,wobei das erste Modul (34) auf der Grundlage der Augendaten (42) und/oder der Gesichtsdaten (44) den Fokus (46) des Insassen (13) bestimmt,wobei das vierte Modul (36) dem dritten Modul (38) die Anzeigedaten (50) zur Verfügung stellt,wobei das zweite Modul (38) eine Auswahl (54) des Insassen (13) auf der Grundlage des Fokus (46) in Bezug auf die Anwenderschnittstelle bestimmt, indem das zweite Modul (38) Koordinaten des Fokus (46) auf Koordinaten der Anzeigedaten (50) abbildet und eine den Koordinaten zugeordnete Funktion bestimmt,wobei das zweite Modul (38) den Anwenderbefehl (56) auf der Grundlage der Auswahl (54) des Insassen erzeugt, undwobei das vierte Modul (36) die Auswahl (54) des Insassen von dem zweiten Modul (38) empfängt und die Anzeigedaten (50) auf der Grundlage der Auswahl (54) des Insassen derart ändert, dass die Anwenderschnittstelle einen neuen Bildschirm anzeigt.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Steuersystem für ein Fahrzeug.
  • HINTERGRUND
  • Die Hauptsteuereinrichtungen für Fahrzeug-Entertainment-Systeme sind üblicherweise in der Mitte des Fahrzeugarmaturenbretts angeordnet. Um das Entertainment-System zum Ausführen einer Funktion zu bedienen, ändert ein Fahrer vorübergehend den Fokus seiner Aufmerksamkeit von der Straße auf das Entertainment-System.
  • Dementsprechend ist es erwünscht, Systeme und Verfahren zu schaffen, um Fahrzeugfunktionen zu bedienen, ohne den Fokus des Fahrers zu ändern.
  • Herkömmliche Steuersysteme für Fahrzeuge sind in den Druckschriften WO 2009 / 049 975 A1 , US 2009 / 0 097 705 A1 , EP 1 562 102 A2 , DE 101 21 392 A1 , US 5 689 619 A und DE 10 2009 034 069 A1 beschrieben.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein erfindungsgemäßes Steuersystem für ein Fahrzeug umfasst ein erstes, ein zweites, ein drittes und ein viertes Modul. Das erste Modul bestimmt auf der Grundlage von Bilddaten einen Fokus eines Insassen eines Fahrzeugs, wobei die Bilddaten unter Verwendung eines Bildprozessors von dem Insassen erfasst werden. Das zweite Modul erzeugt auf der Grundlage des Fokus des Insassen einen Anwenderbefehl zum Steuern eines Fahrzeugsystems. Das dritte Modul analysiert die Bilddaten, um aus den Bilddaten Augendaten und/oder Gesichtsdaten zu bestimmen. Das vierte Modul erzeugt Anzeigedaten zum Anzeigen einer dem Fahrzeugsystem zugeordneten Anwenderschnittstelle. Ferner bestimmt das erste Modul auf der Grundlage der Augendaten und/oder der Gesichtsdaten den Fokus des Insassen. Das vierte Modul stellt dem dritten Modul die Anzeigedaten zur Verfügung. Das zweite Modul bestimmt eine Auswahl des Insassen auf der Grundlage des Fokus in Bezug auf die Anwenderschnittstelle, indem das zweite Modul Koordinaten des Fokus auf Koordinaten der Anzeigedaten abbildet und eine den Koordinaten zugeordnete Funktion bestimmt. Das zweite Modul erzeugt den Anwenderbefehl auf der Grundlage der Auswahl des Insassen. Das vierte Modul empfängt die Auswahl des Insassen von dem zweiten Modul und ändert die Anzeigedaten auf der Grundlage der Auswahl des Insassen derart, dass die Anwenderschnittstelle einen neuen Bildschirm anzeigt.
  • Die obigen Merkmale und Vorteile und andere Merkmale und Vorteile der Erfindung gehen leicht aus der folgenden ausführlichen Beschreibung der Erfindung in Verbindung mit den beigefügten Zeichnungen hervor.
  • Figurenliste
  • Weitere Merkmale, Vorteile und Einzelheiten erscheinen nur beispielhaft in der folgenden ausführlichen Beschreibung von Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
    • 1 ein Funktionsblockschaltplan ist, der ein Fahrzeug darstellt, das ein Fahrerblickrichtungs-Steuersystem gemäß beispielhaften Ausführungsformen enthält;
    • 2 ein Datenflussdiagramm ist, das ein Fahrerblickrichtungs-Steuermodul gemäß beispielhaften Ausführungsformen darstellt; und
    • 3 ein Ablaufplan ist, der ein Fahrerblickrichtungs-Steuerverfahren gemäß beispielhaften Ausführungsformen darstellt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Beschreibung ist dem Wesen nach lediglich beispielhaft. Selbstverständlich bezeichnen entsprechende Bezugszeichen in allen Zeichnungen gleiche oder entsprechende Teile und Merkmale. Wie er hier verwendet ist, bezieht sich der Begriff Modul auf eine anwendungsspezifische integrierte Schaltung (ASIC), auf eine elektronische Schaltung, auf einen Prozessor (gemeinsam genutzt, dediziert oder Gruppe) und auf Speicher, die eines oder mehrere Software- oder Firmwareprogramme ausführen, auf eine Kombinationslogikschaltung und/oder auf andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen.
  • Gemäß beispielhaften Ausführungsformen ist ein allgemein bei 10 gezeigtes blickrichtungsgestütztes Steuersystem in der Weise gezeigt, dass es innerhalb eines Fahrzeugs 12 enthalten ist. Das blickrichtungsgestützte Steuersystem 10 verarbeitet Netzhautinformationen eines Fahrers 13 oder eines anderen Insassen des Fahrzeugs 12 und erzeugt darauf beruhend Steuersignale zum Steuern von Funktionen von Fahrzeugsystemen 16a-16n. Solche Fahrzeugsysteme 16a-16n können z. B. ein Entertainmentsystem, ein Navigationssystem, ein Telematiksystem und/oder irgendein anderes System innerhalb des Fahrzeugs enthalten, sind darauf aber nicht beschränkt. Es wird gewürdigt werden, dass die Steuersignale an Steuermodule 18a-18n, die den Fahrzeugsystemen 16a-16n zugeordnet sind, über ein Fahrzeugnetz 20 (wie allgemein bei 22 gezeigt) übertragen werden können und/oder (wie allgemein bei 24 gezeigt) direkt an das Fahrzeugsystem 16n' übertragen werden können.
  • In verschiedenen Ausführungsformen enthält das blickrichtungsgestützte Steuersystem 10 einen Bildprozessor 26, der Bilddaten des Fahrers 13 erfasst, und ein Mensch-Maschine-Schnittstellenmodul (HMI-Modul) 28, das die erfassten Bilddaten verarbeitet. Das HMI-Modul 28 erzeugt auf der Grundlage der verarbeiteten Bilddaten die Steuersignale zum Steuern eines oder mehrerer der Fahrzeugsysteme 16a-16n.
  • In verschiedenen Ausführungsformen kommuniziert das HMI-Modul mit einem Anzeigesystem 30. Das Anzeigesystem 30 zeigt eine Anwenderschnittstelle an, die dem zu steuernden Fahrzeugsystem 16a-16n entspricht. In verschiedenen Ausführungsformen wird die Anwenderschnittstelle in der oder in der Nähe der Sichtlinie des Fahrers 13 angezeigt. Die Anwenderschnittstelle kann z. B. auf einer Windschutzscheibe (nicht gezeigt) des Fahrzeugs 12 durch ein Headup-Display-System (HUD-System) angezeigt werden. Das HMI-Modul 28 verarbeitet die Bilddaten in Bezug auf die angezeigte Anwenderschnittstelle.
  • Nun anhand von 2 veranschaulichen Datenflussdiagramme das HMI-Modul 28 gemäß verschiedenen Ausführungsformen. Es wird gewürdigt werden, dass verschiedene Ausführungsformen der HMI-Module 28 gemäß der vorliegenden Offenbarung irgendeine Anzahl von Teilmodulen enthalten können. Die in 2 gezeigten Teilmodule können kombiniert und/oder weiter unterteilt werden, um ähnlich die Blickrichtung eines Fahrers zu erkennen und auf der Grundlage davon Funktionen eines oder mehrerer Fahrzeugsysteme 16a-16n' (1) zu steuern. Eingaben in das HMI-Modul 28 können von einer oder von mehreren Sensoreingabeeinrichtungen des Fahrzeugs 12 (1) empfangen werden, von anderen Modulen (nicht gezeigt) innerhalb des Fahrzeugs 12 (1) empfangen werden, durch andere Module (nicht gezeigt) innerhalb des HMI-Moduls 28 bestimmt/modelliert werden und/oder über ein Netz (z. B. das Internet) von einer externen Quelle empfangen werden. In dem Beispiel aus 2 enthält das HMI-Modul 28 ein Bildverarbeitungsmodul 32, ein Blickrichtungsanalysemodul 34, ein Anzeigemodul 36 und ein Befehlsmodul 38.
  • Das Bildverarbeitungsmodul 32 empfängt als Eingabe Bilddaten 40. Das Bildverarbeitungsmodul 32 verarbeitet die Bilddaten 40, um ein Gesicht und Augen des Fahrers 13 zu unterscheiden (1), und erzeugt auf der Grundlage davon Augendaten 42 und Gesichtsdaten 44. Es wird gewürdigt werden, dass durch das Bildverarbeitungsmodul 32 verschiedene Analyseverfahren ausgeführt werden können, um die Augen und das Gesicht von den Bilddaten 40 zu unterscheiden. Diese Analyseverfahren können die Verwendung der Infrarotbeleuchtung auf das Auge zum Erzeugen einer Wirkung einer hellen Pupille, die einen hohen Kontrast zwischen den Pupillen und dem Rest des Gesichts erzeugt, um eine Robustheit und Genauigkeit der Augennachführung sicherzustellen, enthalten, sind darauf aber nicht beschränkt. Die Gesichtsdetektierung wird unter Verwendung des Viola-Jones-Objektdetektierungssystems ausgeführt.
  • Das Blickrichtungsanalysemodul 34 empfängt als Eingabe die Augendaten 42 und die Gesichtsdaten 44. Das Blickrichtungsanalysemodul 34 bestimmt auf der Grundlage der Augendaten 42 und/oder der Gesichtsdaten 44 einen Fokus des Fahrers 13 (1) und erzeugt auf der Grundlage davon Fokusdaten 46. Es sollte gewürdigt werden, dass durch das Blickrichtungsanalysemodul 34 verschiedene Analyseverfahren ausgeführt werden können, um den Fokus des Fahrers 13 zu bestimmen (1). Solche Analyseverfahren können die Verwendung der selbstkalibrierten Ruhezustandsdaten des Fahrers von dem Blickrichtungsanalysemodul und das Bestimmen der relativen Augenposition (Pupillenposition) und Gesichtsposition enthalten, sind darauf aber nicht beschränkt, wobei der Fahrerfokussierungsalgorithmus den Fokus des Fahrers bestimmen kann.
  • In verschiedenen Ausführungsformen kann das Blickrichtungsanalysemodul 34 die Gesichtsdaten 44 unter Verwendung eines Analyseverfahrens analysieren, um eine Position des Gesichts zu bestimmen. Daraufhin kann das Blickrichtungsanalysemodul 34 die Augendaten 42 unter Verwendung eines Analyseverfahrens und auf der Grundlage der Gesichtsposition analysieren, um einen Fokus des Auges (der Augen) zu bestimmen. In verschiedenen Ausführungsformen kann der Fokus des Auges (der Augen) z. B. durch einen allgemeinen Ort oder durch eine x-y-Koordinate innerhalb einer zweidimensionalen Ebene dargestellt werden.
  • Das Anzeigemodul 36 empfängt als Eingabe Systemdaten 48. Die Systemdaten 48 können durch das zu steuernde Fahrzeugsystem 16a-16n (1) erzeugt werden und können einen gegenwärtigen Zustand des Fahrzeugsystems 16a-16n (1) angeben. Das Anzeigemodul 36 managt auf der Grundlage der Systemdaten 48 die über die Anzeigedaten 50 anzuzeigende Anwenderschnittstelle. Das Anzeigemodul 36 kann z. B. Anzeigedaten 50 erzeugen, die von dem Anzeigesystem 30 zum Anzeigen eines bestimmten Bildschirms oder einer Benachrichtigung der dem zu steuernden Fahrzeugsystem 16a-16n (1) zugeordneten Anwenderschnittstelle verwendet werden können.
  • Daraufhin stellt das Anzeigemodul 36 diese Anzeigedaten oder andere Anzeige/Funktions-Daten 52 für das Befehlsmodul 38 zur Verfügung. Die Anzeige/Funktions-Daten 52 geben irgendwelche dem besonderen Bildschirm zugeordneten Funktionen oder eine Benachrichtigung, die angezeigt wird, und eine Abbildung der Funktionen auf die zweidimensionale Ebene, auf der die Anwenderschnittstelle angezeigt wird, an. Zum Beispiel werden durch den Bildschirm, der angezeigt wird, die Funktionen x, y und z bereitgestellt. Die Funktion x wird auf die Koordinaten ((a, b), (c, d), (e, f) usw.) der Anwenderschnittstelle abgebildet; die Funktion y wird auf die Koordinaten ((g, h), (i, j), (k, l) usw.) der Anwenderschnittstelle abgebildet; und die Funktion z wird auf die Koordinaten ((m, n), (o, p), (q, r) usw.) der Anwenderschnittstelle abgebildet.
  • In verschiedenen Ausführungsformen empfängt das Anzeigemodul 36 ferner als Eingabe eine Auswahl 54. Wie hinsichtlich des Befehlsmoduls 38 genauer diskutiert wird, kann die Auswahl 54 erzeugt werden, wenn die ausgewählte Funktion einem neuen Bildschirm oder einer Benachrichtigung der Anwenderschnittstelle zugeordnet ist. Das Anzeigemodul 36 kann auf der Grundlage der Auswahl 54 die Anzeigedaten 50 (z. B. zum Anzeigen eines neuen Bildschirms oder einer neuen Benachrichtigung) und die Anzeige/Funktions-Daten 52 ändern.
  • Das Befehlsmodul 38 empfängt als Eingabe die Anzeige/Funktions-Daten 52 und die Fokusdaten 46. Das Befehlsmodul 38 bestimmt auf der Grundlage der Eingaben 46, 52 die Auswahl 54 des Fahrers und erzeugt in einigen Fällen auf der Grundlage davon einen Anwenderbefehl 56. Zum Beispiel bildet das Befehlsmodul 38 die Koordinaten der Fokusdaten 46 auf Koordinaten der Anzeige/Funktions-Daten 52 ab und bestimmt die den Koordinaten zugeordnete Funktion. Daraufhin bestimmt das Befehlsmodul 38 den richtigen Befehl für diese Funktion und erzeugt auf der Grundlage davon einen Anwenderbefehl 56.
  • Der Anwenderbefehl 56 kann von dem Fahrzeugsystem 16a-16n' empfangen werden, um ein Systemmerkmal zu steuern. Der Anwenderbefehl kann zurück für das Anzeigemodul bereitgestellt werden, um die Änderung der Anwenderschnittstelle zu initiieren.
  • Nun wird weiterhin auf 2 und außerdem auf 3 Bezug genommen, worin ein Ablaufplan blickrichtungsgestützte Steuerverfahren veranschaulicht, die durch die blickrichtungsgestützten Steuersysteme gemäß der vorliegenden Offenbarung ausgeführt werden können. Wie im Licht der Offenbarung gewürdigt werden kann, ist die Reihenfolge des Betriebs innerhalb des Verfahrens nicht auf die wie in 3 dargestellte sequentielle Ausführung beschränkt, sondern kann in irgendeiner oder mehreren unterschiedlichen Reihenfolgen wie zutreffend und gemäß der vorliegenden Offenbarung ausgeführt werden. Wie weiter gewürdigt werden wird, können einer oder mehrere Schritte hinzugefügt oder entfernt werden, ohne den Erfindungsgedanken des Verfahrens zu ändern.
  • In verschiedenen Ausführungsformen kann das Verfahren so geplant werden, dass es auf der Grundlage vorgegebener Ereignisse ausgeführt wird, und/oder kann es während des Betriebs des Fahrzeugs 12 (1) (wie gezeigt) ausgeführt werden.
  • In einem Beispiel kann das Verfahren bei 100 beginnen. Bei 110 wird bestimmt, ob die blickrichtungsgestützte Steuerung aktiv ist (wobei z. B. durch den Fahrer ein Schalter zum Aktivieren des blickrichtungsgestützten Steuersystems ausgewählt wird). Falls die blickrichtungsgestützte Steuerung bei 110 aktiv ist, wird bei 130 auf der Grundlage der Steuersystemdaten und irgendeiner Auswahl die Anwenderschnittstelle bestimmt. Auf der Grundlage der Systemdaten und irgendwelcher Befehlsdaten zum Anzeigen der Anwenderschnittstelle, z. B. über die HUD, werden bei 140 die Anzeigedaten erzeugt. Bei 150 werden die Bilddaten von dem Bildprozessor analysiert, um die Augendaten und/oder die Gesichtsdaten zu bestimmen. Bei 160 werden die Augendaten und/oder die Gesichtsdaten analysiert, um den Fokus zu bestimmen. Bei 170 wird auf der Grundlage des Fokus die Auswahl bestimmt und werden die der gegenwärtigen Anwenderschnittstelle zugeordneten Funktionen (wie durch die Anzeige/Funktions-Daten angegeben) angezeigt. Optional kann die Auswahl bei 180 über eine Eingabeaufforderung von der Anwenderschnittstelle bestätigt werden. Falls die Auswahl bei 180 bestätigt wird, wird bei 190 auf der Grundlage der Auswahl und der der Auswahl zugeordneten Funktion der Anwenderbefehl erzeugt. Anschließend wird das Verfahren bei 110 mit der Überwachung, ob das blickrichtungsgestützte Steuersystem aktiv ist, fortgesetzt. Falls das blickrichtungsgestützte Steuersystem dagegen nicht aktiv ist oder das blickrichtungsgestützte Steuersystem nicht aktiv wird (z. B. daraufhin ausgeschaltet wird), kann das Verfahren bei 120 enden.

Claims (1)

  1. Steuersystem (10) für ein Fahrzeug (12), umfassend: ein erstes Modul (34), das auf der Grundlage von Bilddaten (40) einen Fokus (46) eines Insassen (13) eines Fahrzeugs (12) bestimmt, wobei die Bilddaten (40) unter Verwendung eines Bildprozessors (26) von dem Insassen (13) erfasst werden; ein zweites Modul (38), das auf der Grundlage des Fokus (46) des Insassen (13) einen Anwenderbefehl (56) zum Steuern eines Fahrzeugsystems (16a-16n) erzeugt; ein drittes Modul (32), das die Bilddaten (40) analysiert, um aus den Bilddaten (40) Augendaten (42) und/oder Gesichtsdaten (44) zu bestimmen; und ein viertes Modul (36), das Anzeigedaten (50) zum Anzeigen einer dem Fahrzeugsystem (16a-16n) zugeordneten Anwenderschnittstelle erzeugt, wobei das erste Modul (34) auf der Grundlage der Augendaten (42) und/oder der Gesichtsdaten (44) den Fokus (46) des Insassen (13) bestimmt, wobei das vierte Modul (36) dem dritten Modul (38) die Anzeigedaten (50) zur Verfügung stellt, wobei das zweite Modul (38) eine Auswahl (54) des Insassen (13) auf der Grundlage des Fokus (46) in Bezug auf die Anwenderschnittstelle bestimmt, indem das zweite Modul (38) Koordinaten des Fokus (46) auf Koordinaten der Anzeigedaten (50) abbildet und eine den Koordinaten zugeordnete Funktion bestimmt, wobei das zweite Modul (38) den Anwenderbefehl (56) auf der Grundlage der Auswahl (54) des Insassen erzeugt, und wobei das vierte Modul (36) die Auswahl (54) des Insassen von dem zweiten Modul (38) empfängt und die Anzeigedaten (50) auf der Grundlage der Auswahl (54) des Insassen derart ändert, dass die Anwenderschnittstelle einen neuen Bildschirm anzeigt.
DE102012212217.6A 2011-07-19 2012-07-12 Steuersystem für ein Fahrzeug Active DE102012212217B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/185,545 2011-07-19
US13/185,545 US9043042B2 (en) 2011-07-19 2011-07-19 Method to map gaze position to information display in vehicle

Publications (2)

Publication Number Publication Date
DE102012212217A1 DE102012212217A1 (de) 2013-01-24
DE102012212217B4 true DE102012212217B4 (de) 2020-10-29

Family

ID=47502346

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012212217.6A Active DE102012212217B4 (de) 2011-07-19 2012-07-12 Steuersystem für ein Fahrzeug

Country Status (3)

Country Link
US (1) US9043042B2 (de)
CN (1) CN102887121B (de)
DE (1) DE102012212217B4 (de)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120007772A1 (en) * 2009-03-16 2012-01-12 Paerssinen Aarno Tapio Controller for a Directional Antenna and Associated Apparatus and Methods
KR102080183B1 (ko) * 2013-04-18 2020-04-14 삼성전자주식회사 전자 장치 및 전자 장치에서 잠금 해제 방법
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US10372204B2 (en) 2013-10-30 2019-08-06 Technology Against Als Communication and control system and method
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
US9817474B2 (en) * 2014-01-24 2017-11-14 Tobii Ab Gaze driven interaction for a vehicle
DE102014211882A1 (de) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Verfahren zur Ermittlung der Herzfrequenz des Fahrers eines Fahrzeugs
GB2532457B (en) * 2014-11-19 2018-04-18 Jaguar Land Rover Ltd Dynamic control apparatus and related method
CN104503583B (zh) * 2014-12-30 2018-03-06 百度在线网络技术(北京)有限公司 信息显示方法及装置
DE102015212006A1 (de) * 2015-06-29 2016-12-29 Bayerische Motoren Werke Aktiengesellschaft Bedienung mittels Kopfausrichtung
US10713501B2 (en) * 2015-08-13 2020-07-14 Ford Global Technologies, Llc Focus system to enhance vehicle vision performance
US9841813B2 (en) * 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
US10095937B2 (en) * 2016-06-21 2018-10-09 GM Global Technology Operations LLC Apparatus and method for predicting targets of visual attention
CN106131503A (zh) * 2016-08-16 2016-11-16 深圳市金豪泰科技有限公司 一种行车监控***及监控方法
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
GB2567164A (en) 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
US11643092B2 (en) * 2017-12-27 2023-05-09 Bayerische Motoren Werke Aktiengesellschaft Vehicle lane change prediction
US10928900B2 (en) 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
CN109542217B (zh) * 2018-10-12 2022-05-17 深圳市元征科技股份有限公司 一种眼球追踪显示方法以及装置
KR20190078553A (ko) * 2019-06-14 2019-07-04 엘지전자 주식회사 차량 제어 방법 및 차량을 제어하는 지능형 컴퓨팅 디바이스
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
US11487968B2 (en) * 2019-12-16 2022-11-01 Nvidia Corporation Neural network based facial analysis using facial landmarks and associated confidence values
US11535253B2 (en) * 2020-09-18 2022-12-27 GM Global Technology Operations LLC Lane change maneuver intention detection systems and methods

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
DE10121392A1 (de) * 2001-05-02 2002-11-21 Bosch Gmbh Robert Vorrichtung zur Steuerung von Geräten mittels Blickrichtung
EP1562102A2 (de) * 2004-02-06 2005-08-10 Audi Ag Kraftfahrzeug mit Funktionsauslösung durch Blickauswahl
US20090097705A1 (en) * 2007-10-12 2009-04-16 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
WO2009049975A1 (de) * 2007-10-17 2009-04-23 Robert Bosch Gmbh Visuelles auslösen von vorgängen in einem kraftfahrzeug
DE102009034069A1 (de) * 2008-11-10 2010-05-12 Volkswagen Ag Bedienvorrichtung für ein Kraftfahrzeug

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152904A (ja) * 1984-01-20 1985-08-12 Nippon Denso Co Ltd 車両運転者位置認識装置
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
US7887089B2 (en) * 1992-05-05 2011-02-15 Automotive Technologies International, Inc. Vehicular occupant protection system control arrangement and method using multiple sensor systems
US7511833B2 (en) * 1992-05-05 2009-03-31 Automotive Technologies International, Inc. System for obtaining information about vehicular components
JP3203951B2 (ja) * 1993-08-04 2001-09-04 日産自動車株式会社 車両用インタフェース
JP3214195B2 (ja) * 1993-11-11 2001-10-02 三菱電機株式会社 運転者撮影装置
JP3727078B2 (ja) * 1994-12-02 2005-12-14 富士通株式会社 表示装置
US7386372B2 (en) * 1995-06-07 2008-06-10 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
US6005958A (en) * 1997-04-23 1999-12-21 Automotive Systems Laboratory, Inc. Occupant type and position detection system
US6272431B1 (en) * 1997-04-29 2001-08-07 Thomas Zamojdo Method for displaying a map in a vehicle en-route guidance system
US7231060B2 (en) * 1997-08-26 2007-06-12 Color Kinetics Incorporated Systems and methods of generating control signals
DE19918008A1 (de) * 1999-04-21 2000-10-26 Claussen Claus Frenz Verfahren und Vorrichtung zur Ermittlung des Halsbewegungsmusters
US6348877B1 (en) * 1999-06-17 2002-02-19 International Business Machines Corporation Method and system for alerting a pilot to the location of other aircraft
US7180476B1 (en) * 1999-06-30 2007-02-20 The Boeing Company Exterior aircraft vision system using a helmet-mounted display
EP1083076A3 (de) * 1999-09-07 2005-01-12 Mazda Motor Corporation Anzeigegerät für Fahrzeug
US6580973B2 (en) * 2000-10-14 2003-06-17 Robert H. Leivian Method of response synthesis in a driver assistance system
JP3675330B2 (ja) * 2000-11-07 2005-07-27 日産自動車株式会社 車両用表示装置及び表示装置を有する自動車
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US6578869B2 (en) * 2001-03-26 2003-06-17 Trw Inc. Vehicle occupant position sensor utilizing image focus attributes
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
CN100398065C (zh) * 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
SE0303122D0 (sv) * 2003-11-20 2003-11-20 Volvo Technology Corp Method and system for communication and/or interaction between a vehicle driver and a plurality of applications
JP4388359B2 (ja) * 2003-12-17 2009-12-24 株式会社ケンウッド 車載用マンマシン・インタフェース装置、方法、及びプログラム
JP4277081B2 (ja) * 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
JP4252938B2 (ja) * 2004-07-07 2009-04-08 株式会社デンソー 車両の車室照明装置
US20060011399A1 (en) * 2004-07-15 2006-01-19 International Business Machines Corporation System and method for controlling vehicle operation based on a user's facial expressions and physical state
US9795760B2 (en) * 2004-07-16 2017-10-24 Samuel Kim Motion sickness reduction
US20060149426A1 (en) * 2005-01-04 2006-07-06 Unkrich Mark A Detecting an eye of a user and determining location and blinking state of the user
JP2006252138A (ja) * 2005-03-10 2006-09-21 Omron Corp 運転者撮影装置および運転者監視装置
EP1865404A4 (de) * 2005-03-28 2012-09-05 Panasonic Corp Benutzeroberflächensystem
JP4462231B2 (ja) * 2006-05-09 2010-05-12 株式会社デンソー 車両用オートライト装置
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US8400313B2 (en) * 2007-01-19 2013-03-19 Asahi Kasei Kabushiki Kaisha Vehicle driver sleep state classification generating device based on Hidden Markov Model, sleep state classification device and warning device
TW200838750A (en) * 2007-03-22 2008-10-01 Univ Chang Gung Intelligent driving safety monitoring system integrating multiple direction information and method thereof
JP4259587B2 (ja) * 2007-03-30 2009-04-30 株式会社デンソー データベース装置、注意喚起装置及び運転支援装置
US7970175B2 (en) * 2007-04-30 2011-06-28 Delphi Technologies, Inc. Method and apparatus for assessing head pose of a vehicle driver
AT505338B1 (de) * 2007-06-12 2009-03-15 Ernst Dipl Ing Dr Pfleger Verfahren zur wahrnehmungsmessung
JP4458131B2 (ja) * 2007-08-23 2010-04-28 ソニー株式会社 画像撮像装置、撮像方法
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
JP4604073B2 (ja) * 2007-10-03 2010-12-22 本田技研工業株式会社 車両用飲酒運転防止装置
JP4640404B2 (ja) * 2007-11-22 2011-03-02 トヨタ自動車株式会社 車両運転者状態検出装置
JP5160564B2 (ja) * 2007-12-05 2013-03-13 ボッシュ株式会社 車両情報表示装置
US8106783B2 (en) * 2008-03-12 2012-01-31 Denso Corporation Input apparatus, remote controller and operating device for vehicle
EP2700528A3 (de) * 2008-03-19 2014-12-24 Denso Corporation Eingabevorrichtung zur Fahrzeugmanipulation
JP5354514B2 (ja) * 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
US20100079413A1 (en) * 2008-09-29 2010-04-01 Denso Corporation Control device
US8391554B2 (en) * 2008-10-01 2013-03-05 GM Global Technology Operations LLC Eye detection system using a single camera
JP4666062B2 (ja) * 2008-11-17 2011-04-06 株式会社デンソー 画像撮影装置および方法
US8376595B2 (en) * 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
US8698639B2 (en) * 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
US8825392B2 (en) * 2011-06-30 2014-09-02 Navteq B.V. Map view

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
DE10121392A1 (de) * 2001-05-02 2002-11-21 Bosch Gmbh Robert Vorrichtung zur Steuerung von Geräten mittels Blickrichtung
EP1562102A2 (de) * 2004-02-06 2005-08-10 Audi Ag Kraftfahrzeug mit Funktionsauslösung durch Blickauswahl
US20090097705A1 (en) * 2007-10-12 2009-04-16 Sony Ericsson Mobile Communications Ab Obtaining information by tracking a user
WO2009049975A1 (de) * 2007-10-17 2009-04-23 Robert Bosch Gmbh Visuelles auslösen von vorgängen in einem kraftfahrzeug
DE102009034069A1 (de) * 2008-11-10 2010-05-12 Volkswagen Ag Bedienvorrichtung für ein Kraftfahrzeug

Also Published As

Publication number Publication date
US9043042B2 (en) 2015-05-26
CN102887121A (zh) 2013-01-23
US20130024047A1 (en) 2013-01-24
CN102887121B (zh) 2015-10-28
DE102012212217A1 (de) 2013-01-24

Similar Documents

Publication Publication Date Title
DE102012212217B4 (de) Steuersystem für ein Fahrzeug
CN111931579B (zh) 利用眼动追踪和手势识别技术的自动驾驶辅助***及方法
DE102012000274A1 (de) Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE102012219280A1 (de) Fahrerassistenzsystem und Verfahren
EP2608185B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug
CN103732480A (zh) 用于在行车道上车辆的线路引导中辅助驾驶员的方法和设备
DE102019118595A1 (de) Beifahrer-frontanzeigen für fahrzeuge
DE102015204281A1 (de) Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
DE112015007066T5 (de) Fahrunterstützungsvorrichtung
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE102013000068A1 (de) Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs
EP3571105B1 (de) Verfahren und anordnung zur interaktion mit einem vorschlagssystem mit automatisierten bedienhandlungen
DE102014204320A1 (de) Informationsabfrage durch Zeigen
EP3243688B1 (de) Verfahren und vorrichtung zum zuordnen von steuerbefehlen in einem fahrzeug sowie fahrzeug
DE102015119556A1 (de) Anpassen einer anzeige auf einer transparenten elektronischen anzeige
DE102019208788A1 (de) Kraftfahrzeug
DE102018131805A1 (de) Vorrichtung zum erfassen einer gesichtsposition
WO2019042778A1 (de) Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug
DE102013100328A1 (de) Adaptives Schnittstellensystem
DE112016006769B4 (de) Verfahren für Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs und Fahrzeug
DE112019007195T5 (de) Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
DE102015216108A1 (de) Verfahren zum Auslösen mindestens eines Bearbeitungsschrittes durch Zuweisung eines Informationselements zu einem Gerät
JP5998348B2 (ja) 車両用表示装置、車両用表示装置の表示制御方法
DE102013016196B4 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
DE102017219332A1 (de) Mensch-fahrzeug-interaktion

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0016000000

Ipc: B60R0016020000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final