DE102012212217B4 - Steuersystem für ein Fahrzeug - Google Patents
Steuersystem für ein Fahrzeug Download PDFInfo
- Publication number
- DE102012212217B4 DE102012212217B4 DE102012212217.6A DE102012212217A DE102012212217B4 DE 102012212217 B4 DE102012212217 B4 DE 102012212217B4 DE 102012212217 A DE102012212217 A DE 102012212217A DE 102012212217 B4 DE102012212217 B4 DE 102012212217B4
- Authority
- DE
- Germany
- Prior art keywords
- module
- data
- occupant
- focus
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Steuersystem (10) für ein Fahrzeug (12), umfassend:ein erstes Modul (34), das auf der Grundlage von Bilddaten (40) einen Fokus (46) eines Insassen (13) eines Fahrzeugs (12) bestimmt, wobei die Bilddaten (40) unter Verwendung eines Bildprozessors (26) von dem Insassen (13) erfasst werden;ein zweites Modul (38), das auf der Grundlage des Fokus (46) des Insassen (13) einen Anwenderbefehl (56) zum Steuern eines Fahrzeugsystems (16a-16n) erzeugt;ein drittes Modul (32), das die Bilddaten (40) analysiert, um aus den Bilddaten (40) Augendaten (42) und/oder Gesichtsdaten (44) zu bestimmen; undein viertes Modul (36), das Anzeigedaten (50) zum Anzeigen einer dem Fahrzeugsystem (16a-16n) zugeordneten Anwenderschnittstelle erzeugt,wobei das erste Modul (34) auf der Grundlage der Augendaten (42) und/oder der Gesichtsdaten (44) den Fokus (46) des Insassen (13) bestimmt,wobei das vierte Modul (36) dem dritten Modul (38) die Anzeigedaten (50) zur Verfügung stellt,wobei das zweite Modul (38) eine Auswahl (54) des Insassen (13) auf der Grundlage des Fokus (46) in Bezug auf die Anwenderschnittstelle bestimmt, indem das zweite Modul (38) Koordinaten des Fokus (46) auf Koordinaten der Anzeigedaten (50) abbildet und eine den Koordinaten zugeordnete Funktion bestimmt,wobei das zweite Modul (38) den Anwenderbefehl (56) auf der Grundlage der Auswahl (54) des Insassen erzeugt, undwobei das vierte Modul (36) die Auswahl (54) des Insassen von dem zweiten Modul (38) empfängt und die Anzeigedaten (50) auf der Grundlage der Auswahl (54) des Insassen derart ändert, dass die Anwenderschnittstelle einen neuen Bildschirm anzeigt.
Description
- GEBIET DER ERFINDUNG
- Die vorliegende Erfindung bezieht sich auf ein Steuersystem für ein Fahrzeug.
- HINTERGRUND
- Die Hauptsteuereinrichtungen für Fahrzeug-Entertainment-Systeme sind üblicherweise in der Mitte des Fahrzeugarmaturenbretts angeordnet. Um das Entertainment-System zum Ausführen einer Funktion zu bedienen, ändert ein Fahrer vorübergehend den Fokus seiner Aufmerksamkeit von der Straße auf das Entertainment-System.
- Dementsprechend ist es erwünscht, Systeme und Verfahren zu schaffen, um Fahrzeugfunktionen zu bedienen, ohne den Fokus des Fahrers zu ändern.
- Herkömmliche Steuersysteme für Fahrzeuge sind in den Druckschriften
WO 2009 / 049 975 A1 US 2009 / 0 097 705 A1 EP 1 562 102 A2 ,DE 101 21 392 A1 ,US 5 689 619 A undDE 10 2009 034 069 A1 beschrieben. - ZUSAMMENFASSUNG DER ERFINDUNG
- Ein erfindungsgemäßes Steuersystem für ein Fahrzeug umfasst ein erstes, ein zweites, ein drittes und ein viertes Modul. Das erste Modul bestimmt auf der Grundlage von Bilddaten einen Fokus eines Insassen eines Fahrzeugs, wobei die Bilddaten unter Verwendung eines Bildprozessors von dem Insassen erfasst werden. Das zweite Modul erzeugt auf der Grundlage des Fokus des Insassen einen Anwenderbefehl zum Steuern eines Fahrzeugsystems. Das dritte Modul analysiert die Bilddaten, um aus den Bilddaten Augendaten und/oder Gesichtsdaten zu bestimmen. Das vierte Modul erzeugt Anzeigedaten zum Anzeigen einer dem Fahrzeugsystem zugeordneten Anwenderschnittstelle. Ferner bestimmt das erste Modul auf der Grundlage der Augendaten und/oder der Gesichtsdaten den Fokus des Insassen. Das vierte Modul stellt dem dritten Modul die Anzeigedaten zur Verfügung. Das zweite Modul bestimmt eine Auswahl des Insassen auf der Grundlage des Fokus in Bezug auf die Anwenderschnittstelle, indem das zweite Modul Koordinaten des Fokus auf Koordinaten der Anzeigedaten abbildet und eine den Koordinaten zugeordnete Funktion bestimmt. Das zweite Modul erzeugt den Anwenderbefehl auf der Grundlage der Auswahl des Insassen. Das vierte Modul empfängt die Auswahl des Insassen von dem zweiten Modul und ändert die Anzeigedaten auf der Grundlage der Auswahl des Insassen derart, dass die Anwenderschnittstelle einen neuen Bildschirm anzeigt.
- Die obigen Merkmale und Vorteile und andere Merkmale und Vorteile der Erfindung gehen leicht aus der folgenden ausführlichen Beschreibung der Erfindung in Verbindung mit den beigefügten Zeichnungen hervor.
- Figurenliste
- Weitere Merkmale, Vorteile und Einzelheiten erscheinen nur beispielhaft in der folgenden ausführlichen Beschreibung von Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, in denen:
-
1 ein Funktionsblockschaltplan ist, der ein Fahrzeug darstellt, das ein Fahrerblickrichtungs-Steuersystem gemäß beispielhaften Ausführungsformen enthält; -
2 ein Datenflussdiagramm ist, das ein Fahrerblickrichtungs-Steuermodul gemäß beispielhaften Ausführungsformen darstellt; und -
3 ein Ablaufplan ist, der ein Fahrerblickrichtungs-Steuerverfahren gemäß beispielhaften Ausführungsformen darstellt. - BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
- Die folgende Beschreibung ist dem Wesen nach lediglich beispielhaft. Selbstverständlich bezeichnen entsprechende Bezugszeichen in allen Zeichnungen gleiche oder entsprechende Teile und Merkmale. Wie er hier verwendet ist, bezieht sich der Begriff Modul auf eine anwendungsspezifische integrierte Schaltung (ASIC), auf eine elektronische Schaltung, auf einen Prozessor (gemeinsam genutzt, dediziert oder Gruppe) und auf Speicher, die eines oder mehrere Software- oder Firmwareprogramme ausführen, auf eine Kombinationslogikschaltung und/oder auf andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen.
- Gemäß beispielhaften Ausführungsformen ist ein allgemein bei 10 gezeigtes blickrichtungsgestütztes Steuersystem in der Weise gezeigt, dass es innerhalb eines Fahrzeugs
12 enthalten ist. Das blickrichtungsgestützte Steuersystem10 verarbeitet Netzhautinformationen eines Fahrers13 oder eines anderen Insassen des Fahrzeugs12 und erzeugt darauf beruhend Steuersignale zum Steuern von Funktionen von Fahrzeugsystemen16a-16n . Solche Fahrzeugsysteme16a-16n können z. B. ein Entertainmentsystem, ein Navigationssystem, ein Telematiksystem und/oder irgendein anderes System innerhalb des Fahrzeugs enthalten, sind darauf aber nicht beschränkt. Es wird gewürdigt werden, dass die Steuersignale an Steuermodule18a-18n , die den Fahrzeugsystemen16a-16n zugeordnet sind, über ein Fahrzeugnetz20 (wie allgemein bei22 gezeigt) übertragen werden können und/oder (wie allgemein bei24 gezeigt) direkt an das Fahrzeugsystem16n' übertragen werden können. - In verschiedenen Ausführungsformen enthält das blickrichtungsgestützte Steuersystem
10 einen Bildprozessor26 , der Bilddaten des Fahrers13 erfasst, und ein Mensch-Maschine-Schnittstellenmodul (HMI-Modul)28 , das die erfassten Bilddaten verarbeitet. Das HMI-Modul28 erzeugt auf der Grundlage der verarbeiteten Bilddaten die Steuersignale zum Steuern eines oder mehrerer der Fahrzeugsysteme16a-16n . - In verschiedenen Ausführungsformen kommuniziert das HMI-Modul mit einem Anzeigesystem
30 . Das Anzeigesystem30 zeigt eine Anwenderschnittstelle an, die dem zu steuernden Fahrzeugsystem16a-16n entspricht. In verschiedenen Ausführungsformen wird die Anwenderschnittstelle in der oder in der Nähe der Sichtlinie des Fahrers13 angezeigt. Die Anwenderschnittstelle kann z. B. auf einer Windschutzscheibe (nicht gezeigt) des Fahrzeugs12 durch ein Headup-Display-System (HUD-System) angezeigt werden. Das HMI-Modul28 verarbeitet die Bilddaten in Bezug auf die angezeigte Anwenderschnittstelle. - Nun anhand von
2 veranschaulichen Datenflussdiagramme das HMI-Modul28 gemäß verschiedenen Ausführungsformen. Es wird gewürdigt werden, dass verschiedene Ausführungsformen der HMI-Module28 gemäß der vorliegenden Offenbarung irgendeine Anzahl von Teilmodulen enthalten können. Die in2 gezeigten Teilmodule können kombiniert und/oder weiter unterteilt werden, um ähnlich die Blickrichtung eines Fahrers zu erkennen und auf der Grundlage davon Funktionen eines oder mehrerer Fahrzeugsysteme16a-16n' (1 ) zu steuern. Eingaben in das HMI-Modul28 können von einer oder von mehreren Sensoreingabeeinrichtungen des Fahrzeugs12 (1 ) empfangen werden, von anderen Modulen (nicht gezeigt) innerhalb des Fahrzeugs12 (1 ) empfangen werden, durch andere Module (nicht gezeigt) innerhalb des HMI-Moduls28 bestimmt/modelliert werden und/oder über ein Netz (z. B. das Internet) von einer externen Quelle empfangen werden. In dem Beispiel aus2 enthält das HMI-Modul28 ein Bildverarbeitungsmodul32 , ein Blickrichtungsanalysemodul34 , ein Anzeigemodul36 und ein Befehlsmodul38 . - Das Bildverarbeitungsmodul
32 empfängt als Eingabe Bilddaten40 . Das Bildverarbeitungsmodul32 verarbeitet die Bilddaten40 , um ein Gesicht und Augen des Fahrers13 zu unterscheiden (1 ), und erzeugt auf der Grundlage davon Augendaten42 und Gesichtsdaten44 . Es wird gewürdigt werden, dass durch das Bildverarbeitungsmodul32 verschiedene Analyseverfahren ausgeführt werden können, um die Augen und das Gesicht von den Bilddaten40 zu unterscheiden. Diese Analyseverfahren können die Verwendung der Infrarotbeleuchtung auf das Auge zum Erzeugen einer Wirkung einer hellen Pupille, die einen hohen Kontrast zwischen den Pupillen und dem Rest des Gesichts erzeugt, um eine Robustheit und Genauigkeit der Augennachführung sicherzustellen, enthalten, sind darauf aber nicht beschränkt. Die Gesichtsdetektierung wird unter Verwendung des Viola-Jones-Objektdetektierungssystems ausgeführt. - Das Blickrichtungsanalysemodul
34 empfängt als Eingabe die Augendaten42 und die Gesichtsdaten44 . Das Blickrichtungsanalysemodul34 bestimmt auf der Grundlage der Augendaten42 und/oder der Gesichtsdaten44 einen Fokus des Fahrers13 (1 ) und erzeugt auf der Grundlage davon Fokusdaten46 . Es sollte gewürdigt werden, dass durch das Blickrichtungsanalysemodul34 verschiedene Analyseverfahren ausgeführt werden können, um den Fokus des Fahrers13 zu bestimmen (1 ). Solche Analyseverfahren können die Verwendung der selbstkalibrierten Ruhezustandsdaten des Fahrers von dem Blickrichtungsanalysemodul und das Bestimmen der relativen Augenposition (Pupillenposition) und Gesichtsposition enthalten, sind darauf aber nicht beschränkt, wobei der Fahrerfokussierungsalgorithmus den Fokus des Fahrers bestimmen kann. - In verschiedenen Ausführungsformen kann das Blickrichtungsanalysemodul
34 die Gesichtsdaten44 unter Verwendung eines Analyseverfahrens analysieren, um eine Position des Gesichts zu bestimmen. Daraufhin kann das Blickrichtungsanalysemodul34 die Augendaten42 unter Verwendung eines Analyseverfahrens und auf der Grundlage der Gesichtsposition analysieren, um einen Fokus des Auges (der Augen) zu bestimmen. In verschiedenen Ausführungsformen kann der Fokus des Auges (der Augen) z. B. durch einen allgemeinen Ort oder durch eine x-y-Koordinate innerhalb einer zweidimensionalen Ebene dargestellt werden. - Das Anzeigemodul
36 empfängt als Eingabe Systemdaten48 . Die Systemdaten48 können durch das zu steuernde Fahrzeugsystem16a-16n (1 ) erzeugt werden und können einen gegenwärtigen Zustand des Fahrzeugsystems16a-16n (1 ) angeben. Das Anzeigemodul36 managt auf der Grundlage der Systemdaten48 die über die Anzeigedaten50 anzuzeigende Anwenderschnittstelle. Das Anzeigemodul36 kann z. B. Anzeigedaten50 erzeugen, die von dem Anzeigesystem30 zum Anzeigen eines bestimmten Bildschirms oder einer Benachrichtigung der dem zu steuernden Fahrzeugsystem16a-16n (1 ) zugeordneten Anwenderschnittstelle verwendet werden können. - Daraufhin stellt das Anzeigemodul
36 diese Anzeigedaten oder andere Anzeige/Funktions-Daten52 für das Befehlsmodul38 zur Verfügung. Die Anzeige/Funktions-Daten52 geben irgendwelche dem besonderen Bildschirm zugeordneten Funktionen oder eine Benachrichtigung, die angezeigt wird, und eine Abbildung der Funktionen auf die zweidimensionale Ebene, auf der die Anwenderschnittstelle angezeigt wird, an. Zum Beispiel werden durch den Bildschirm, der angezeigt wird, die Funktionen x, y und z bereitgestellt. Die Funktion x wird auf die Koordinaten ((a, b), (c, d), (e, f) usw.) der Anwenderschnittstelle abgebildet; die Funktion y wird auf die Koordinaten ((g, h), (i, j), (k, l) usw.) der Anwenderschnittstelle abgebildet; und die Funktion z wird auf die Koordinaten ((m, n), (o, p), (q, r) usw.) der Anwenderschnittstelle abgebildet. - In verschiedenen Ausführungsformen empfängt das Anzeigemodul
36 ferner als Eingabe eine Auswahl54 . Wie hinsichtlich des Befehlsmoduls38 genauer diskutiert wird, kann die Auswahl54 erzeugt werden, wenn die ausgewählte Funktion einem neuen Bildschirm oder einer Benachrichtigung der Anwenderschnittstelle zugeordnet ist. Das Anzeigemodul36 kann auf der Grundlage der Auswahl54 die Anzeigedaten50 (z. B. zum Anzeigen eines neuen Bildschirms oder einer neuen Benachrichtigung) und die Anzeige/Funktions-Daten52 ändern. - Das Befehlsmodul
38 empfängt als Eingabe die Anzeige/Funktions-Daten52 und die Fokusdaten46 . Das Befehlsmodul38 bestimmt auf der Grundlage der Eingaben46 ,52 die Auswahl54 des Fahrers und erzeugt in einigen Fällen auf der Grundlage davon einen Anwenderbefehl56 . Zum Beispiel bildet das Befehlsmodul38 die Koordinaten der Fokusdaten46 auf Koordinaten der Anzeige/Funktions-Daten52 ab und bestimmt die den Koordinaten zugeordnete Funktion. Daraufhin bestimmt das Befehlsmodul38 den richtigen Befehl für diese Funktion und erzeugt auf der Grundlage davon einen Anwenderbefehl56 . - Der Anwenderbefehl
56 kann von dem Fahrzeugsystem16a-16n' empfangen werden, um ein Systemmerkmal zu steuern. Der Anwenderbefehl kann zurück für das Anzeigemodul bereitgestellt werden, um die Änderung der Anwenderschnittstelle zu initiieren. - Nun wird weiterhin auf
2 und außerdem auf3 Bezug genommen, worin ein Ablaufplan blickrichtungsgestützte Steuerverfahren veranschaulicht, die durch die blickrichtungsgestützten Steuersysteme gemäß der vorliegenden Offenbarung ausgeführt werden können. Wie im Licht der Offenbarung gewürdigt werden kann, ist die Reihenfolge des Betriebs innerhalb des Verfahrens nicht auf die wie in3 dargestellte sequentielle Ausführung beschränkt, sondern kann in irgendeiner oder mehreren unterschiedlichen Reihenfolgen wie zutreffend und gemäß der vorliegenden Offenbarung ausgeführt werden. Wie weiter gewürdigt werden wird, können einer oder mehrere Schritte hinzugefügt oder entfernt werden, ohne den Erfindungsgedanken des Verfahrens zu ändern. - In verschiedenen Ausführungsformen kann das Verfahren so geplant werden, dass es auf der Grundlage vorgegebener Ereignisse ausgeführt wird, und/oder kann es während des Betriebs des Fahrzeugs
12 (1 ) (wie gezeigt) ausgeführt werden. - In einem Beispiel kann das Verfahren bei
100 beginnen. Bei110 wird bestimmt, ob die blickrichtungsgestützte Steuerung aktiv ist (wobei z. B. durch den Fahrer ein Schalter zum Aktivieren des blickrichtungsgestützten Steuersystems ausgewählt wird). Falls die blickrichtungsgestützte Steuerung bei110 aktiv ist, wird bei130 auf der Grundlage der Steuersystemdaten und irgendeiner Auswahl die Anwenderschnittstelle bestimmt. Auf der Grundlage der Systemdaten und irgendwelcher Befehlsdaten zum Anzeigen der Anwenderschnittstelle, z. B. über die HUD, werden bei140 die Anzeigedaten erzeugt. Bei150 werden die Bilddaten von dem Bildprozessor analysiert, um die Augendaten und/oder die Gesichtsdaten zu bestimmen. Bei160 werden die Augendaten und/oder die Gesichtsdaten analysiert, um den Fokus zu bestimmen. Bei170 wird auf der Grundlage des Fokus die Auswahl bestimmt und werden die der gegenwärtigen Anwenderschnittstelle zugeordneten Funktionen (wie durch die Anzeige/Funktions-Daten angegeben) angezeigt. Optional kann die Auswahl bei180 über eine Eingabeaufforderung von der Anwenderschnittstelle bestätigt werden. Falls die Auswahl bei180 bestätigt wird, wird bei190 auf der Grundlage der Auswahl und der der Auswahl zugeordneten Funktion der Anwenderbefehl erzeugt. Anschließend wird das Verfahren bei110 mit der Überwachung, ob das blickrichtungsgestützte Steuersystem aktiv ist, fortgesetzt. Falls das blickrichtungsgestützte Steuersystem dagegen nicht aktiv ist oder das blickrichtungsgestützte Steuersystem nicht aktiv wird (z. B. daraufhin ausgeschaltet wird), kann das Verfahren bei120 enden.
Claims (1)
- Steuersystem (10) für ein Fahrzeug (12), umfassend: ein erstes Modul (34), das auf der Grundlage von Bilddaten (40) einen Fokus (46) eines Insassen (13) eines Fahrzeugs (12) bestimmt, wobei die Bilddaten (40) unter Verwendung eines Bildprozessors (26) von dem Insassen (13) erfasst werden; ein zweites Modul (38), das auf der Grundlage des Fokus (46) des Insassen (13) einen Anwenderbefehl (56) zum Steuern eines Fahrzeugsystems (16a-16n) erzeugt; ein drittes Modul (32), das die Bilddaten (40) analysiert, um aus den Bilddaten (40) Augendaten (42) und/oder Gesichtsdaten (44) zu bestimmen; und ein viertes Modul (36), das Anzeigedaten (50) zum Anzeigen einer dem Fahrzeugsystem (16a-16n) zugeordneten Anwenderschnittstelle erzeugt, wobei das erste Modul (34) auf der Grundlage der Augendaten (42) und/oder der Gesichtsdaten (44) den Fokus (46) des Insassen (13) bestimmt, wobei das vierte Modul (36) dem dritten Modul (38) die Anzeigedaten (50) zur Verfügung stellt, wobei das zweite Modul (38) eine Auswahl (54) des Insassen (13) auf der Grundlage des Fokus (46) in Bezug auf die Anwenderschnittstelle bestimmt, indem das zweite Modul (38) Koordinaten des Fokus (46) auf Koordinaten der Anzeigedaten (50) abbildet und eine den Koordinaten zugeordnete Funktion bestimmt, wobei das zweite Modul (38) den Anwenderbefehl (56) auf der Grundlage der Auswahl (54) des Insassen erzeugt, und wobei das vierte Modul (36) die Auswahl (54) des Insassen von dem zweiten Modul (38) empfängt und die Anzeigedaten (50) auf der Grundlage der Auswahl (54) des Insassen derart ändert, dass die Anwenderschnittstelle einen neuen Bildschirm anzeigt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/185,545 | 2011-07-19 | ||
US13/185,545 US9043042B2 (en) | 2011-07-19 | 2011-07-19 | Method to map gaze position to information display in vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102012212217A1 DE102012212217A1 (de) | 2013-01-24 |
DE102012212217B4 true DE102012212217B4 (de) | 2020-10-29 |
Family
ID=47502346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102012212217.6A Active DE102012212217B4 (de) | 2011-07-19 | 2012-07-12 | Steuersystem für ein Fahrzeug |
Country Status (3)
Country | Link |
---|---|
US (1) | US9043042B2 (de) |
CN (1) | CN102887121B (de) |
DE (1) | DE102012212217B4 (de) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120007772A1 (en) * | 2009-03-16 | 2012-01-12 | Paerssinen Aarno Tapio | Controller for a Directional Antenna and Associated Apparatus and Methods |
KR102080183B1 (ko) * | 2013-04-18 | 2020-04-14 | 삼성전자주식회사 | 전자 장치 및 전자 장치에서 잠금 해제 방법 |
US9329682B2 (en) * | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
US10372204B2 (en) | 2013-10-30 | 2019-08-06 | Technology Against Als | Communication and control system and method |
US9354073B2 (en) * | 2013-12-09 | 2016-05-31 | Harman International Industries, Inc. | Eye gaze enabled navigation system |
US9817474B2 (en) * | 2014-01-24 | 2017-11-14 | Tobii Ab | Gaze driven interaction for a vehicle |
DE102014211882A1 (de) * | 2014-06-20 | 2015-12-24 | Robert Bosch Gmbh | Verfahren zur Ermittlung der Herzfrequenz des Fahrers eines Fahrzeugs |
GB2532457B (en) * | 2014-11-19 | 2018-04-18 | Jaguar Land Rover Ltd | Dynamic control apparatus and related method |
CN104503583B (zh) * | 2014-12-30 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | 信息显示方法及装置 |
DE102015212006A1 (de) * | 2015-06-29 | 2016-12-29 | Bayerische Motoren Werke Aktiengesellschaft | Bedienung mittels Kopfausrichtung |
US10713501B2 (en) * | 2015-08-13 | 2020-07-14 | Ford Global Technologies, Llc | Focus system to enhance vehicle vision performance |
US9841813B2 (en) * | 2015-12-22 | 2017-12-12 | Delphi Technologies, Inc. | Automated vehicle human-machine interface system based on glance-direction |
US10095937B2 (en) * | 2016-06-21 | 2018-10-09 | GM Global Technology Operations LLC | Apparatus and method for predicting targets of visual attention |
CN106131503A (zh) * | 2016-08-16 | 2016-11-16 | 深圳市金豪泰科技有限公司 | 一种行车监控***及监控方法 |
US20190012552A1 (en) * | 2017-07-06 | 2019-01-10 | Yves Lambert | Hidden driver monitoring |
GB2567164A (en) | 2017-10-04 | 2019-04-10 | Continental Automotive Gmbh | Display system in a vehicle |
US11643092B2 (en) * | 2017-12-27 | 2023-05-09 | Bayerische Motoren Werke Aktiengesellschaft | Vehicle lane change prediction |
US10928900B2 (en) | 2018-04-27 | 2021-02-23 | Technology Against Als | Communication systems and methods |
CN109542217B (zh) * | 2018-10-12 | 2022-05-17 | 深圳市元征科技股份有限公司 | 一种眼球追踪显示方法以及装置 |
KR20190078553A (ko) * | 2019-06-14 | 2019-07-04 | 엘지전자 주식회사 | 차량 제어 방법 및 차량을 제어하는 지능형 컴퓨팅 디바이스 |
KR20210034843A (ko) * | 2019-09-23 | 2021-03-31 | 삼성전자주식회사 | 차량의 제어 장치 및 방법 |
US11487968B2 (en) * | 2019-12-16 | 2022-11-01 | Nvidia Corporation | Neural network based facial analysis using facial landmarks and associated confidence values |
US11535253B2 (en) * | 2020-09-18 | 2022-12-27 | GM Global Technology Operations LLC | Lane change maneuver intention detection systems and methods |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5689619A (en) * | 1996-08-09 | 1997-11-18 | The United States Of America As Represented By The Secretary Of The Army | Eyetracker control of heads-up displays |
DE10121392A1 (de) * | 2001-05-02 | 2002-11-21 | Bosch Gmbh Robert | Vorrichtung zur Steuerung von Geräten mittels Blickrichtung |
EP1562102A2 (de) * | 2004-02-06 | 2005-08-10 | Audi Ag | Kraftfahrzeug mit Funktionsauslösung durch Blickauswahl |
US20090097705A1 (en) * | 2007-10-12 | 2009-04-16 | Sony Ericsson Mobile Communications Ab | Obtaining information by tracking a user |
WO2009049975A1 (de) * | 2007-10-17 | 2009-04-23 | Robert Bosch Gmbh | Visuelles auslösen von vorgängen in einem kraftfahrzeug |
DE102009034069A1 (de) * | 2008-11-10 | 2010-05-12 | Volkswagen Ag | Bedienvorrichtung für ein Kraftfahrzeug |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60152904A (ja) * | 1984-01-20 | 1985-08-12 | Nippon Denso Co Ltd | 車両運転者位置認識装置 |
JPH01158579A (ja) * | 1987-09-09 | 1989-06-21 | Aisin Seiki Co Ltd | 像認識装置 |
US7887089B2 (en) * | 1992-05-05 | 2011-02-15 | Automotive Technologies International, Inc. | Vehicular occupant protection system control arrangement and method using multiple sensor systems |
US7511833B2 (en) * | 1992-05-05 | 2009-03-31 | Automotive Technologies International, Inc. | System for obtaining information about vehicular components |
JP3203951B2 (ja) * | 1993-08-04 | 2001-09-04 | 日産自動車株式会社 | 車両用インタフェース |
JP3214195B2 (ja) * | 1993-11-11 | 2001-10-02 | 三菱電機株式会社 | 運転者撮影装置 |
JP3727078B2 (ja) * | 1994-12-02 | 2005-12-14 | 富士通株式会社 | 表示装置 |
US7386372B2 (en) * | 1995-06-07 | 2008-06-10 | Automotive Technologies International, Inc. | Apparatus and method for determining presence of objects in a vehicle |
US6005958A (en) * | 1997-04-23 | 1999-12-21 | Automotive Systems Laboratory, Inc. | Occupant type and position detection system |
US6272431B1 (en) * | 1997-04-29 | 2001-08-07 | Thomas Zamojdo | Method for displaying a map in a vehicle en-route guidance system |
US7231060B2 (en) * | 1997-08-26 | 2007-06-12 | Color Kinetics Incorporated | Systems and methods of generating control signals |
DE19918008A1 (de) * | 1999-04-21 | 2000-10-26 | Claussen Claus Frenz | Verfahren und Vorrichtung zur Ermittlung des Halsbewegungsmusters |
US6348877B1 (en) * | 1999-06-17 | 2002-02-19 | International Business Machines Corporation | Method and system for alerting a pilot to the location of other aircraft |
US7180476B1 (en) * | 1999-06-30 | 2007-02-20 | The Boeing Company | Exterior aircraft vision system using a helmet-mounted display |
EP1083076A3 (de) * | 1999-09-07 | 2005-01-12 | Mazda Motor Corporation | Anzeigegerät für Fahrzeug |
US6580973B2 (en) * | 2000-10-14 | 2003-06-17 | Robert H. Leivian | Method of response synthesis in a driver assistance system |
JP3675330B2 (ja) * | 2000-11-07 | 2005-07-27 | 日産自動車株式会社 | 車両用表示装置及び表示装置を有する自動車 |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
US6578869B2 (en) * | 2001-03-26 | 2003-06-17 | Trw Inc. | Vehicle occupant position sensor utilizing image focus attributes |
US7526120B2 (en) * | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
CN100398065C (zh) * | 2002-10-15 | 2008-07-02 | 沃尔沃技术公司 | 解释对象的头部和眼睛活动的方法和装置 |
US6859144B2 (en) * | 2003-02-05 | 2005-02-22 | Delphi Technologies, Inc. | Vehicle situation alert system with eye gaze controlled alert signal generation |
SE0303122D0 (sv) * | 2003-11-20 | 2003-11-20 | Volvo Technology Corp | Method and system for communication and/or interaction between a vehicle driver and a plurality of applications |
JP4388359B2 (ja) * | 2003-12-17 | 2009-12-24 | 株式会社ケンウッド | 車載用マンマシン・インタフェース装置、方法、及びプログラム |
JP4277081B2 (ja) * | 2004-03-17 | 2009-06-10 | 株式会社デンソー | 運転支援装置 |
JP4252938B2 (ja) * | 2004-07-07 | 2009-04-08 | 株式会社デンソー | 車両の車室照明装置 |
US20060011399A1 (en) * | 2004-07-15 | 2006-01-19 | International Business Machines Corporation | System and method for controlling vehicle operation based on a user's facial expressions and physical state |
US9795760B2 (en) * | 2004-07-16 | 2017-10-24 | Samuel Kim | Motion sickness reduction |
US20060149426A1 (en) * | 2005-01-04 | 2006-07-06 | Unkrich Mark A | Detecting an eye of a user and determining location and blinking state of the user |
JP2006252138A (ja) * | 2005-03-10 | 2006-09-21 | Omron Corp | 運転者撮影装置および運転者監視装置 |
EP1865404A4 (de) * | 2005-03-28 | 2012-09-05 | Panasonic Corp | Benutzeroberflächensystem |
JP4462231B2 (ja) * | 2006-05-09 | 2010-05-12 | 株式会社デンソー | 車両用オートライト装置 |
US7792328B2 (en) * | 2007-01-12 | 2010-09-07 | International Business Machines Corporation | Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream |
US8400313B2 (en) * | 2007-01-19 | 2013-03-19 | Asahi Kasei Kabushiki Kaisha | Vehicle driver sleep state classification generating device based on Hidden Markov Model, sleep state classification device and warning device |
TW200838750A (en) * | 2007-03-22 | 2008-10-01 | Univ Chang Gung | Intelligent driving safety monitoring system integrating multiple direction information and method thereof |
JP4259587B2 (ja) * | 2007-03-30 | 2009-04-30 | 株式会社デンソー | データベース装置、注意喚起装置及び運転支援装置 |
US7970175B2 (en) * | 2007-04-30 | 2011-06-28 | Delphi Technologies, Inc. | Method and apparatus for assessing head pose of a vehicle driver |
AT505338B1 (de) * | 2007-06-12 | 2009-03-15 | Ernst Dipl Ing Dr Pfleger | Verfahren zur wahrnehmungsmessung |
JP4458131B2 (ja) * | 2007-08-23 | 2010-04-28 | ソニー株式会社 | 画像撮像装置、撮像方法 |
US7556377B2 (en) * | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
JP4604073B2 (ja) * | 2007-10-03 | 2010-12-22 | 本田技研工業株式会社 | 車両用飲酒運転防止装置 |
JP4640404B2 (ja) * | 2007-11-22 | 2011-03-02 | トヨタ自動車株式会社 | 車両運転者状態検出装置 |
JP5160564B2 (ja) * | 2007-12-05 | 2013-03-13 | ボッシュ株式会社 | 車両情報表示装置 |
US8106783B2 (en) * | 2008-03-12 | 2012-01-31 | Denso Corporation | Input apparatus, remote controller and operating device for vehicle |
EP2700528A3 (de) * | 2008-03-19 | 2014-12-24 | Denso Corporation | Eingabevorrichtung zur Fahrzeugmanipulation |
JP5354514B2 (ja) * | 2008-03-31 | 2013-11-27 | 現代自動車株式会社 | 脇見運転検出警報システム |
US20100079413A1 (en) * | 2008-09-29 | 2010-04-01 | Denso Corporation | Control device |
US8391554B2 (en) * | 2008-10-01 | 2013-03-05 | GM Global Technology Operations LLC | Eye detection system using a single camera |
JP4666062B2 (ja) * | 2008-11-17 | 2011-04-06 | 株式会社デンソー | 画像撮影装置および方法 |
US8376595B2 (en) * | 2009-05-15 | 2013-02-19 | Magna Electronics, Inc. | Automatic headlamp control |
US8698639B2 (en) * | 2011-02-18 | 2014-04-15 | Honda Motor Co., Ltd. | System and method for responding to driver behavior |
US8825392B2 (en) * | 2011-06-30 | 2014-09-02 | Navteq B.V. | Map view |
-
2011
- 2011-07-19 US US13/185,545 patent/US9043042B2/en active Active
-
2012
- 2012-07-12 DE DE102012212217.6A patent/DE102012212217B4/de active Active
- 2012-07-19 CN CN201210250329.4A patent/CN102887121B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5689619A (en) * | 1996-08-09 | 1997-11-18 | The United States Of America As Represented By The Secretary Of The Army | Eyetracker control of heads-up displays |
DE10121392A1 (de) * | 2001-05-02 | 2002-11-21 | Bosch Gmbh Robert | Vorrichtung zur Steuerung von Geräten mittels Blickrichtung |
EP1562102A2 (de) * | 2004-02-06 | 2005-08-10 | Audi Ag | Kraftfahrzeug mit Funktionsauslösung durch Blickauswahl |
US20090097705A1 (en) * | 2007-10-12 | 2009-04-16 | Sony Ericsson Mobile Communications Ab | Obtaining information by tracking a user |
WO2009049975A1 (de) * | 2007-10-17 | 2009-04-23 | Robert Bosch Gmbh | Visuelles auslösen von vorgängen in einem kraftfahrzeug |
DE102009034069A1 (de) * | 2008-11-10 | 2010-05-12 | Volkswagen Ag | Bedienvorrichtung für ein Kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
US9043042B2 (en) | 2015-05-26 |
CN102887121A (zh) | 2013-01-23 |
US20130024047A1 (en) | 2013-01-24 |
CN102887121B (zh) | 2015-10-28 |
DE102012212217A1 (de) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012212217B4 (de) | Steuersystem für ein Fahrzeug | |
CN111931579B (zh) | 利用眼动追踪和手势识别技术的自动驾驶辅助***及方法 | |
DE102012000274A1 (de) | Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt | |
DE102012219280A1 (de) | Fahrerassistenzsystem und Verfahren | |
EP2608185B1 (de) | Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug | |
CN103732480A (zh) | 用于在行车道上车辆的线路引导中辅助驾驶员的方法和设备 | |
DE102019118595A1 (de) | Beifahrer-frontanzeigen für fahrzeuge | |
DE102015204281A1 (de) | Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt | |
DE112015007066T5 (de) | Fahrunterstützungsvorrichtung | |
DE102016210288A1 (de) | Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung | |
DE102013000068A1 (de) | Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs | |
EP3571105B1 (de) | Verfahren und anordnung zur interaktion mit einem vorschlagssystem mit automatisierten bedienhandlungen | |
DE102014204320A1 (de) | Informationsabfrage durch Zeigen | |
EP3243688B1 (de) | Verfahren und vorrichtung zum zuordnen von steuerbefehlen in einem fahrzeug sowie fahrzeug | |
DE102015119556A1 (de) | Anpassen einer anzeige auf einer transparenten elektronischen anzeige | |
DE102019208788A1 (de) | Kraftfahrzeug | |
DE102018131805A1 (de) | Vorrichtung zum erfassen einer gesichtsposition | |
WO2019042778A1 (de) | Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug | |
DE102013100328A1 (de) | Adaptives Schnittstellensystem | |
DE112016006769B4 (de) | Verfahren für Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs und Fahrzeug | |
DE112019007195T5 (de) | Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm | |
DE102015216108A1 (de) | Verfahren zum Auslösen mindestens eines Bearbeitungsschrittes durch Zuweisung eines Informationselements zu einem Gerät | |
JP5998348B2 (ja) | 車両用表示装置、車両用表示装置の表示制御方法 | |
DE102013016196B4 (de) | Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten | |
DE102017219332A1 (de) | Mensch-fahrzeug-interaktion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: B60R0016000000 Ipc: B60R0016020000 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |