DE102018208833A1 - System und Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges - Google Patents

System und Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges Download PDF

Info

Publication number
DE102018208833A1
DE102018208833A1 DE102018208833.0A DE102018208833A DE102018208833A1 DE 102018208833 A1 DE102018208833 A1 DE 102018208833A1 DE 102018208833 A DE102018208833 A DE 102018208833A DE 102018208833 A1 DE102018208833 A1 DE 102018208833A1
Authority
DE
Germany
Prior art keywords
monitor
driver
central processor
vehicle
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018208833.0A
Other languages
English (en)
Inventor
Yuanjian Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bosch Automotive Products Suzhou Co Ltd
Original Assignee
Bosch Automotive Products Suzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bosch Automotive Products Suzhou Co Ltd filed Critical Bosch Automotive Products Suzhou Co Ltd
Publication of DE102018208833A1 publication Critical patent/DE102018208833A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Anmeldung veröffentlicht einen Zentralprozessor für Ansteuerung der Kartennavigation eines Fahrzeuges, umfassend eine erste Datenschnittstelle, die die Daten aus einem Detektionsmodul für die Detektion der Augenbewegung des Fahrers empfangen kann, und eine zweite Datenschnittstelle, wobei das Detektionsmodul einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale umfasst, wobei die zweite Datenschnittstelle einen Monitor so befiehlt, dass Kartenschichten auf dem Monitor veranschaulicht angezeigt werden, und wobei basierend auf der beim Beobachten des Fahrers auf den Monitor von dem Detektionsmodul erfassten und durch die erste Datenschnittstelle empfangenen Augenbewegung der Zentralprozessor über die zweite Datenschnittstelle den Monitor so befiehlt, dass die auf dem Monitor angezeigte Kartenschicht entsprechend geändert wird. Die Anmeldung veröffentlicht weiterhin ein System sowie ein Verfahren mit dem Zentralprozessor.

Description

  • Technisches Gebiet
  • Die Anmeldung betrifft im Allgemeinen ein System und ein Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges, basierend auf einer Eye-Tracking-Technologie.
  • Stand der Technik
  • Zurzeit werden die Kartennavigationstechnologien in dem Bereich der Fahrzeuge zunehmend verbreitet angewandt. In der Regel kann in dem Armaturenbrett oder in der Konsole eines Fahrzeuges ein Touchscreen vorgesehen werden, auf dem eine Navigationskarte angezeigt wird. Damit kann der Fahrer durch das Gleiten eines Fingers auf dem Bildschirm und/oder durch sprachlichen Hinweis aufgrund der Navigationskarte ein Fahrziel suchen, eine Routine planen, und die Karte skalieren.
  • Allerdings ist es nötig, dass der Fahrer bei der Bedienung des Bildschirms mit den Fingern eine Hand von dem Lenkrad wegnimmt, was beim Fahren des Fahrzeuges zu potentieller Gefahr führen würde. Obwohl bei einer sprachlichen Bedienung nicht nötig ist, dass der Fahrer seine Hand von dem Lenkrad wegnimmt, stellt diese eine hohe Anforderung an das Geräuschniveau im Fahrerkabine. Falls z. B. beim Fahren zu viel Wind-, Reifen- und Motorgeräusche in den Führerraum eintreten, wird die Genauigkeit der sprachlichen Bedienung beeinflusst. Unter bestimmten Bedingungen ist die Genauigkeit solcher sprachlichen Bedienung niedrig. Außerdem wird sprachliche Bedienung noch erschwert, wenn der Fahrer einen Dialekt spricht.
  • Offenbarung der Erfindung
  • Im Hinblick auf die obigen Probleme wird in der vorliegenden Anmeldung ein verbessertes Verfahren und System für Ansteuerung der Kartennavigation eines Fahrzeuges angegeben, so dass eine sichere Bedienung der Kartennavigation von dem Fahrer ohne die Störung von Geräusche ermöglicht ist und eine verbesserte Anpassungsfähigkeit der Annehmlichkeit an unterschiedliche Fahrer erreicht werden kann.
  • In einem Aspekt der Anmeldung wird ein Zentralprozessor für Ansteuerung der Kartennavigation eines Fahrzeuges bereitgestellt, der eine erste Datenschnittstelle, die die Daten aus einem Detektionsmodul für die Detektion der Augenbewegung des Fahrers empfangen kann, und eine zweite Datenschnittstelle umfasst, wobei das Detektionsmodul einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale umfasst, wobei die zweite Datenschnittstelle einen Monitor so befiehlt, dass Kartenschichten auf dem Monitor veranschaulicht angezeigt werden, und wobei basierend auf der beim Beobachten des Fahrers auf den Monitor von dem Detektionsmodul erfassten und durch die erste Datenschnittstelle empfangenen Augenbewegung der Zentralprozessor über die zweite Datenschnittstelle den Monitor so befiehlt, dass die auf dem Monitor angezeigte Kartenschicht entsprechend geändert wird.
  • In einem anderen Aspekt der Anmeldung wird ein System für Ansteuerung der Kartennavigation eines Fahrzeuges bereitgestellt, das umfasst:
    • ein in dem Innenraum des Fahrzeuges vorgesehenes Detektionsmodul, das einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale aufweist;
    • einen in dem Innenraum des Fahrzeuges vorgesehenen Monitor, der gegenüber dem Detektionsmodul festgelegt ist und auf dem Kartenschichten veranschaulicht angezeigt werden können; und
    • einen Zentralprozessor, der datenübertragend mit dem Detektionsmodul und dem Monitor verbunden ist, wobei, wenn der Fahrer in dem Fahrersitz sitzt und den Monitor beobachtet, der Zentralprozessor basierend auf der von dem Detektionsmodul erfassten Verfolgungsdaten der Augenbewegung des Fahrers den Monitor so befiehlt, dass die auf dem Monitor angezeigten Kartenschichten entsprechend geändert werden.
  • Optional ist das Detektionsmodul in einer Position, wo das Gesicht des Fahrers klar angesehen werden kann, in dem Innenraum des Fahrzeuges vorgesehen, und der Monitor ist in einer Position, wo es von dem Fahrer klar angesehen werden kann, in dem Innenraum des Fahrzeuges vorgesehen.
  • Optional umfasst der Zentralprozessor ein Speichermodul, in dem die Beziehung der Korrespondenz zwischen den Augenbewegungen des Fahrers und den Änderungen der Kartenschicht vorher gespeichert wird, und nach der gespeicherten Beziehung der Korrespondenz befiehlt der Zentralprozessor die entsprechende Änderung der auf dem Monitor angezeigten Kartenschicht.
  • Optional kann mittels eines auf dem Monitor angezeigten Hinweises und/oder eines sprachlichen Hinweises der Zentralprozessor eine neue Beziehung der Korrespondenz zwischen den Augenbewegungen des Fahrers und den Änderungen der Kartenschicht definieren und in dem Speichermodul zum nachträglichen Wiederherstellen speichern.
  • Optional umfasst die Änderung der Kartenschicht die Bewegung, die Skalierung und das Behalten der Kartenschicht, und die Augenbewegung des Fahrers umfasst Augenöffnung, Anstarren und Zwinkern.
  • Optional werden ein Blickbereich, der sich innerhalb des Anzeigerands der Kartenschicht befindet, und ein virtueller Rand, der sich zwischen dem Anzeigerand der Kartenschicht und dem Blickbereich befindet, auf dem Monitor definiert, und die Kartenschicht darf nicht geändert werden, wenn es detektiert ist, dass sich der Fokus der Augen innerhalb des Blickbereichs befindet.
  • Optional werden ein Blickbereich, der sich innerhalb des Anzeigerands der Kartenschicht befindet, und ein virtueller Rand, der sich zwischen dem Anzeigerand der Kartenschicht und dem Blickbereich befindet, auf dem Monitor definiert, und bei einer detektierten Bewegung des Fokus der Augen zu dem virtuellen Rand wird die Kartenschicht entsprechend bewegt angezeigt, wenn es detektiert ist, dass sich der Fokus der Augen außerhalb des Blickbereichs befindet.
  • Optional ist die Geschwindigkeit der entsprechend bewegt angezeigten Kartenschicht proportionale zu dem Abstand, bei dem sich der Fokus der Augen bewegt.
  • Optional ist die Richtung der entsprechend bewegt angezeigten Kartenschicht im Wesentlichen gleich wie die Richtung, bei dem sich der Fokus der Augen bewegt.
  • Optional befindet sich das Detektionsmodul hinter dem Lenkrad, und der Monitor befindet sich auf der Konsole des Fahrzeuges.
  • In einem anderen Aspekt der Anmeldung wird ein Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges bereitgestellt, das umfasst:
    • Bereitstellen eines Detektionsmoduls, das einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale aufweist, und eines Monitors, auf dem Kartenschichten veranschaulicht angezeigt werden können, in dem Innenraum des Fahrzeuges, wobei das Detektionsmodul und der Monitor zueinander festgelegt sind;
    • und, wenn der Fahrer in dem Fahrersitz sitzt und den Monitor beobachtet, erfolgt entsprechende Änderung der auf dem Monitor angezeigten Kartenschicht zumindest teilweise basierend auf den von dem Detektionsmodul erfassten Verfolgungsdaten der Augenbewegung des Fahrers.
  • Mit dem Verfahren und dem System der Anmeldung wird die Sicherheit beim Fahren mit dem Fahrzeug erhöht, da der Fahrer die Navigation erledigen kann, ohne seine Hand von dem Lenkrad wegnehmen zu müssen. Außerdem wird die Anforderung an die Geräusche beim Fahren des Fahrzeuges erleichtert, und damit können die Herstellungskosten des Fahrzeuges niedrig bleiben.
  • Figurenliste
  • Die obigen und weiteren Aspekte der Anmeldung können durch die nachfolgende detaillierte Beschreibung in Bezug auf die Zeichnungen besser verstanden werden. Es ist zu beachten, dass die Maßstäbe der Zeichnungen zum illustrativen Zweck unterschiedlich sein können, was jedoch das Verständnis der Anmeldung nicht beeinflussen soll. Es zeigen:
    • 1 eine schematische Montageansicht eines Detektionsmoduls, das für Erfassung der Augenbewegung des Fahrers eingesetzt ist, in einem Fahrzeug, nach einem Ausführungsbeispiel der Anmeldung;
    • 2 ein schematisches Blockdiagramm eines Verfahrens für Ansteuerung der Kartennavigation eines Fahrzeuges nach einem Ausführungsbeispiel der Anmeldung; und
    • 3 eine schematische Bildschirmaufnahme eines Monitors am Bord für Kartennavigation nach dem Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges in der Anmeldung.
  • Detaillierte Beschreibung bevorzugter Ausführungsformen
  • In den Zeichnungen werden baugleiche oder funktionsgleiche Merkmale mit gleichen Bezugszeichen bezeichnet.
  • Die Anmeldung schlägt im Allgemeinen ein System und ein Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges, basierend auf einer Eye-Tracking-Technologie, vor. Das System und das Verfahren werden durch das Vorsehen eines Detektionsmoduls für die Erfassung der Augenbewegung des Fahrers in dem Innenraum des Fahrzeuges ermöglicht. Das Detektionsmodul kann einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers (z. B. einen LED-Infrarotstrahler) und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und/oder der von den Augen reflektierten Infrarot-Signale aufweisen. Durch die Analyse des von der Kamera erfassten reflektierten Infrarotsignals kann die Information über die verschiedene Bewegung der Augen erhalten werden. Dem Fachmann sollte es klar sein, dass das System und Verfahren der Anmeldung mit jedem kommerziell erhältlichen Detektionsmodul für Erfassung der Augenbewegung des Fahrers realisiert werden können.
  • 1 zeigt eine schematische Montageansicht eines Detektionsmoduls, das für Erfassung der Augenbewegung des Fahrers eingesetzt ist, in einem Fahrzeug, zur Ermöglichung des Systems und Verfahrens für Ansteuerung der Kartennavigation nach der Anmeldung. Es ist aus 1 ersichtlich, dass das Detektionsmodul 100 z. B. hinter dem Lenkrad montiert werden kann, um die Erfassung der Merkmale an dem Gesicht des Fahrers und/oder der von den Augen reflektierten Infrarot-Signalen durch die Kamera des Detektionsmoduls 100 zu fördern. Optional kann die Kamera mit ergänzender Beleuchtung ausgerüstet werden, um unter dunkler Umgebung Bilder aufnehmen zu können. Das Detektionsmodul 100 kann gedrahtet oder kabellos datenübertragend mit dem Computer im Fahrzeug verbunden sein. Außerdem ist ein Monitor für Kartennavigation (ausgeblendet in 1) auf der Konsole 200 des Fahrzeuges auch datenübertragend mit dem Computer im Fahrzeug verbunden. Als solches kann der Computer im Fahrzeug nach der Behandlung der Daten aus dem Detektionsmodul 100 eine Bedienung der Anzeigeschnittstelle auf dem Monitor für Kartennavigation entsprechend auslösen.
  • Die angeordnete Position des Detektionsmoduls 100 soll nicht auf die Form in 1 beschränkt sein. Das Detektionsmodul 100 kann z. B. auch unter dem Reflektor im Fahrzeug, unmittelbar vor dem Beifahrersitz auf der Konsole, an der dem Fahrer zugewandten Seite der A-Säule, oder in jeder Position im Fahrzeug, die für die Erfassung der Merkmale des Gesichts des Fahrers günstig ist, angeordnet werden. Unabhängig davon, an welcher Position im Fahrzeug das Detektionsmodul 100 angeordnet ist, ist es wichtig, dass das Detektionsmodul 100 und der Monitor für Kartennavigation zueinander festgelegt sein sollen. Anstatt die Anordnung an der Konsole kann der Monitor für Kartennavigation ebenfalls im Armaturenbrett angeordnet oder in diesem integriert werden, oder sogar als virtuelles Bild mittels einer Frontscheibenanzeige über die Frontscheibe vor dem Fahrer projektiert sein. Als solches kann durch die beim Beobachten des Fahrers auf den Monitor für Kartennavigation von dem Detektionsmodul 100 erfasste Information der Augenbewegung des Fahrers die Position des Fokus beim Beobachten des Fahrers auf den Monitor für Kartennavigation abgeleitet werden.
  • 2 zeigt ein schematisches Blockdiagramm eines auf Eye-Tracking-Technologie basierenden Verfahrens für Ansteuerung der Kartennavigation eines Fahrzeuges nach einem Ausführungsbeispiel der Anmeldung. Dem Fachmann sollte es klar sein, dass das Verfahren der Anmeldung durch das Computer im Fahrzeug oder in einem anderen selbstständigen Zentralprozessor in der Form Computerbefehle durchgeführt werden kann, wobei der Zentralprozessor eine erste Datenschnittstelle, die die Daten aus dem Detektionsmodul 100 empfangen kann, und eine zweite Datenschnittstelle, die den Monitor so befiehlt, dass Kartenschichten auf dem Monitor veranschaulicht angezeigt werden, umfassen kann.
  • Zunächst fängt das Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges basiert auf Eye-Tracking-Technologie im Schritt S10 an. Der Schritt kann z. B. nach dem Anfahren des Motors von dem in den Innenraum eingehenden Fahrer anfangen. Danach erfasst die Kamera des Detektionsmoduls 100 die Merkmale des Gesichts des Fahrers im Schritt S20. Die Kamera erfasst z. B. die gesamte Abbildung oder einen Teil des Gesichts des Fahrers. Im Schritt S30 wird basierend auf den im Schritt S20 erfassten Merkmalen des Gesichts bestimmt, ob der Fahrer erstmals mit diesem Fahrzeug fährt. Wenn das Ergebnis „Ja“ ist, wird im Schritt S40 der Infrarotstrahler und die Kamera des Detektionsmoduls 100 verwendet, um die Augenbewegung des Fahrers zu verfolgen und aufzunehmen. Danach verhält sich der Fahrer im Schritt S50 nach der graphischen Darstellung auf der Konsole und dem sprachlichen Hinweis, so dass der Computer im Fahrzeug die nachfolgenden Operationen der Kartennavigation des Fahrzeuges nach der Gewohnheit der Augenbewegungen des Fahrers kalibriert. Lediglich als ein Beispiel können zwei Punkte auf dem Monitor der Konsole angezeigt werden, und dann fordert eine Stimme den Fahrer auf, dass er seinen Fokus der Augen von einem der Punkte zu dem anderen bewegt, um das Eye-Tracking-Ergebnis zu kalibrieren und damit die Genauigkeit der nachfolgenden Ansteuerung für die Kartennavigation des Fahrzeuges zu erhöhen.
  • Im Schritt S60 wird dann bestimmt, ob die obige Kalibrierung bereits fertiggestellt ist. Wenn das Ergebnis „Ja“ ist, fährt das Verfahren zum Schritt S70 fort. Wenn das Ergebnis „Nein“ ist, fährt das Verfahren wieder zum Schritt S40 zurück. Wenn das Ergebnis im obigen Schritt S30 „Nein“ ist, fährt das Verfahren auch zum Schritt S70 fort.
  • Im Schritt S70 kann der Fahrer durch vorher definierte oder kundenspezifische Augenbewegungen den Monitor für Kartennavigation auf der Konsole 200 bedienen. Als ein schematisches und nicht einschränkendes Beispiel können z. B. die vorher definierten Augenbewegungen wie in Tabelle 1 aufgelistet sein. Tabelle 1
    Operationen auf der Karte Augenbewegungen
    Bewegung der Karte der Fokus der Augen in einem
    „speziellen Bereich“ auf dem Monitor für Kartennavigation
    Vergrößern der Karte Augen größer öffnen
    Verkleinern der Karte Anstarren
    Bestätigung Zwinkern
  • Dem Fachmann sollte es klar sein, dass die obige Diskussion nicht einschränkende Beispiele der Korrespondenz zwischen den Operationen auf der Karte und den Augenbewegungen angibt. Die Operationen auf der Karte in Tabelle 1 können auch mit anderen Augenbewegungen erzielt werden, oder die Operationen auf der Karte und die Augenbewegungen in Tabelle 1 können miteinander ausgetauscht werden. Zum Beispiel kann die Operation für das Vergrößern der Karte durch Anstarren und die Operation für das Verkleinern der Karte durch größer geöffnete Augen erzielt werden.
  • 3 zeigt eine Anzeigeschnittstelle eines Monitors für Kartennavigation eines Fahrzeuges. Die Anzeigeschnittstelle umfasst eine Kartenschicht 210 in der untersten Lage. Für die Kartenschicht können die vorhandenen Daten von Internet und/oder Offline-Karte, wie z. B. aus Baidu-Karte und Google-Karte, verwendet werden. Die Operationen auf die Karte werden nachfolgend kurz beschrieben, mit der Bewegung der Karte als Beispiel. Auf dem Monitor wird zunächst ein Blickbereich 220 im Wesentlichen zentral definiert. Außerdem wird auf dem Monitor auch ein virtueller Anzeigerand 230 am äußeren Umfang des Blickbereichs 220 definiert. Der virtuelle Anzeigerand 230 ist näher zu dem Rand der Kartenschicht 210. Die Definitionsdaten für den Blickbereich 220 und den virtuellen Anzeigerand 230 sind nur in dem Computer im Fahrzeug gespeichert, ohne sie in der Anzeigeschnittstelle des Monitors aufzutauchen. Wenn der Computer im Fahrzeug aufgrund der von dem Detektionsmodul 100 erfassten Daten bestimmt, dass der Fokus der Augen des Fahrers bereits in den Blickbereichs 220 eingeht, kann das System derart eingerichtet werden, dass die Bewegung des Fokus der Augen innerhalb des Blickbereichs 220 zu keiner Operation auf der Kartenschicht 210 führt. Wenn der Computer im Fahrzeug aufgrund der von dem Detektionsmodul 100 erfassten Daten bestimmt, dass sich der Fokus der Augen des Fahrers bereits außerhalb des Blickbereichs 220 befindet, bewegt sich die in der Kartenschicht 210 angezeigte Karte mit der Bewegung des Fokus der Augen allmählich zu dem virtuellen Rand 230 in der gleichen Richtung. Außerdem kann das System derart eingerichtet werden, dass die Geschwindigkeit der Kartenschicht proportional zu dem Abstand ist, bei dem sich der Fokus der Augen von dem Blickbereich 220 zu dem virtuellen Rand 230 bewegt, und/oder dass die Richtung der Kartenschicht im Wesentlichen gleich wie die Richtung ist, bei dem sich der Fokus der Augen bewegt. Es ist wie z. B. aus 3 ersichtlich, dass die Karte entsprechend nach links bewegt wird, wenn sich der Fokus der Augen außerhalb des Blickbereichs 220 zu dem Punkt P1 (mit einem Abstand von L1) bewegt, so dass der Punkt P1 zum Zentrum O des Blickbereichs 220 bewegt wird. Darüber hinaus wird die Karte entsprechend nach links bewegt, wenn sich der Fokus der Augen außerhalb des Blickbereichs 220 zu dem Punkt P2 (mit einem Abstand von L2) bewegt, so dass der Punkt P2 zum Zentrum O des Blickbereichs 220 bewegt wird. Dabei ist L1 kleiner als L2, so dass die Geschwindigkeit bei der ersten Bewegung der Karte kleiner als bei der zweiten Bewegung der Karte ist. In einem alternativen Ausführungsbeispiel kann das System derart eingerichtet werden, dass die Geschwindigkeit der Bewegung der Karte proportional zu dem Abstand von dem Zentrum O nach der Bewegung des Fokus der Augen ist.
  • Als ein weiteres Beispiel wird nach der Tabelle 1 bei der Detektion der größer geöffneten Augen des Fahrers die Kartenschicht entsprechend vergrößert, wenn es detektiert wird, dass der Fahrer über eine Zeitdauer, wie z. B. mehr als 1 Sekunde, einen Punkt auf der Kartenschicht 210 anstarrt, der als Zentrum für die Vergrößerung dient. Die Geschwindigkeit der Vergrößerung kann proportional zu dem Maß der Vergrößerung der Augenöffnung sein. Als ein weiteres Beispiel wird nach der Tabelle 1 bei der Detektion des Anstarrens des Fahrers über eine Zeitdauer, wie z. B. 1 Sekunde, 2 Sekunden oder eine andere geeignete Zeitdauer, die Kartenschicht entsprechend verkleinert, wenn es detektiert wird, dass der Fahrer über eine Zeitdauer, wie z. B. mehr als 1 Sekunde, einen Punkt auf der Kartenschicht 210 anstarrt, der als Zentrum für die Verkleinerung dient. Die Geschwindigkeit der Verkleinerung ist vorzugsweise so eingestellt, dass sie die Augen nicht ermüdet. Wenn z. B. der Fahrer an den Monitor starrt, insbesondere den Blickbereich 220, und einmal zwinkert, kann die Kartenschicht 210 ihre Bewegung oder Skalierung pausieren. Selbstverständlich kann je nach dem Bedarf das System auch so eingerichtet werden, dass bei zwei oder mehr Zwinkern die Kartenschicht 210 ihre Bewegung oder Skalierung pausiert.
  • Außerdem können optional auf dem Monitor für Kartennavigation des Fahrzeuges virtuell mehrere Symbolbereiche 240 angezeigt werden, wobei jeder der Symbolbereiche 240 eine Kartenoperation oder ein Fahrzeugmedium oder eine Klimasteuerung darstellen. Ein Symbolbereich 240 kann z. B. Anzeige der Verkehrsverhältnisse darstellen. Wenn es detektiert ist, dass der Fokus der Augen des Fahrers in den Bereich eingeht, zeigt der Computer im Fahrzeug mittels der von kabellosen Netzwerk erhaltenen Daten die aktuellen Verkehrsverhältnisse auf der Kartenschicht 210 an. Als ein anderes Beispiel kann ein Symbolbereich 240 die gemäß dem Fahrer kundenspezifische Definition einer Operation auf der Karte, die mit der Augenbewegung verbunden ist, darstellen. Beispielsweise kann der Computer im Fahrzeug durch sprachliche Hinweise den Fahrer auffordern, dass er eine bestimmte, auf dem Monitor angezeigte Operation auf die Karte ansieht, wenn der Fokus der Augen des Fahrers in den Bereich eingeht. Dann wird der Fahrer wieder durch sprachliche Hinweise aufgefordert, eine kundenspezifische Aktion seiner Augen zu erledigen. Nach der Bestätigung des Fahrers werden diese Operation auf der Karte und die kundenspezifische Aktion der Augen des Fahrers miteinander verbunden und in der Datenbank im Computer im Fahrzeug eingetragen. Wenn der Fahrer später dieselbe Aktion der Augen erledigt, wird die entspreche Operation auf der Karte aufgerufen.
  • In Zusammenfassung wird nach einem Ausführungsbeispiel der Anmeldung ein Zentralprozessor für Ansteuerung der Kartennavigation eines Fahrzeuges bereitgestellt, der eine erste Datenschnittstelle, die die Daten aus einem Detektionsmodul für die Detektion der Augenbewegung des Fahrers empfangen kann, und eine zweite Datenschnittstelle umfasst, wobei das Detektionsmodul einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale umfasst, wobei die zweite Datenschnittstelle einen Monitor so befiehlt, dass Kartenschichten auf dem Monitor veranschaulicht angezeigt werden, und wobei basierend auf der beim Beobachten des Fahrers auf den Monitor von dem Detektionsmodul erfassten und durch die erste Datenschnittstelle empfangenen Augenbewegung der Zentralprozessor über die zweite Datenschnittstelle den Monitor so befiehlt, dass die auf dem Monitor angezeigte Kartenschicht entsprechend geändert wird.
  • Zudem wird nach einem Ausführungsbeispiel der Anmeldung ein System für Ansteuerung der Kartennavigation eines Fahrzeuges bereitgestellt, das umfasst:
    • ein in dem Innenraum des Fahrzeuges vorgesehenes Detektionsmodul, das einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale aufweist;
    • einen in dem Innenraum des Fahrzeuges vorgesehenen Monitor, der gegenüber dem Detektionsmodul festgelegt ist und auf dem Kartenschichten veranschaulicht angezeigt werden können; und
    • einen Zentralprozessor, der datenübertragend mit dem Detektionsmodul und dem Monitor verbunden ist, wobei, wenn der Fahrer in dem Fahrersitz sitzt und den Monitor beobachtet, der Zentralprozessor basierend auf den von dem Detektionsmodul erfassten Verfolgungsdaten der Augenbewegung des Fahrers den Monitor so befiehlt, dass die auf dem Monitor angezeigten Kartenschichten entsprechend geändert werden.
  • Zudem nach einem Ausführungsbeispiel der Anmeldung wird ein Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges bereitgestellt, das umfasst:
    • Bereitstellen eines Detektionsmoduls, das einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und einer Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale aufweist, und eines Monitors, auf dem Kartenschichten veranschaulicht angezeigt werden können, in dem Innenraum des Fahrzeuges, wobei das Detektionsmodul und der Monitor zueinander festgelegt sind;
    • und, wenn der Fahrer in dem Fahrersitz sitzt und den Monitor beobachtet, erfolgt entsprechende Änderung der auf dem Monitor angezeigten Kartenschicht basiert auf die von dem Detektionsmodul erfassten Verfolgungsdaten der Augenbewegung des Fahrers.
  • Mit dem Verfahren und dem System der Anmeldung wird die Sicherheit beim Fahren mit dem Fahrzeug erhöht, da der Fahrer die Navigation erledigen kann, ohne seine Hand von dem Lenkrad wegnehmen zu müssen. Außerdem wird die Anforderung an die Geräusche beim Fahren des Fahrzeuges erleichtert, und damit können die Herstellungskosten des Fahrzeuges niedrig bleiben. Das Verfahren und das System der Anmeldung können sowohl allein in einem Fahrzeug eingesetzt werden, als auch zur Ergänzung der vorhandenen berührenden und/oder sprachlichen Verfahren und Systeme für Kartennavigation im Fahrzeug verwendet werden, was die Bequemlichkeit für die Bedienung der Karte von dem Fahrer weiter erhöht.
  • Obwohl hierbei die bestimmten Ausführungsformen der Anmeldung näher beschrieben werden, sind sie ausschließlich zum illustrativen Zweck angegeben, ohne den Umfang der Anmeldung zu beschränken. Verschiedene Wechsel, Modifikation und Änderungen sind denkbar, ohne von dem Sinn und Umfang der Anmeldung abzuweichen.

Claims (12)

  1. Zentralprozessor für Ansteuerung der Kartennavigation eines Fahrzeuges, umfassend eine erste Datenschnittstelle, die die Daten aus einem Detektionsmodul für die Detektion der Augenbewegung des Fahrers empfangen kann, und eine zweite Datenschnittstelle, wobei das Detektionsmodul einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale umfasst, wobei die zweite Datenschnittstelle einen Monitor so befiehlt, dass Kartenschichten auf dem Monitor veranschaulicht angezeigt werden, und wobei basierend auf der beim Beobachten des Fahrers auf den Monitor von dem Detektionsmodul erfassten und durch die erste Datenschnittstelle empfangenen Augenbewegung der Zentralprozessor über die zweite Datenschnittstelle den Monitor so befiehlt, dass die auf dem Monitor angezeigte Kartenschicht entsprechend geändert wird.
  2. Zentralprozessor nach Anspruch 1, dadurch gekennzeichnet, dass der Zentralprozessor ein Speichermodul umfasst, in dem die Beziehung der Korrespondenz zwischen den Augenbewegungen des Fahrers und den Änderungen der Kartenschicht vorher gespeichert wird, und dass nach der gespeicherten Beziehung der Korrespondenz der Zentralprozessor die entsprechende Änderung der auf dem Monitor angezeigten Kartenschicht befiehlt.
  3. Zentralprozessor nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Änderung der Kartenschicht die Bewegung, die Skalierung und das Behalten der Kartenschicht umfasst und die Augenbewegung des Fahrers Augenöffnung, Anstarren und Zwinkern umfasst.
  4. Zentralprozessor nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Detektionsmodul in einer Position, wo das Gesicht des Fahrers klar angesehen werden kann, in dem Innenraum des Fahrzeuges vorgesehen ist, und dass der Monitor in einer Position, wo es von dem Fahrer klar angesehen werden kann, in dem Innenraum des Fahrzeuges vorgesehen ist.
  5. Zentralprozessor nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass mittels eines auf dem Monitor angezeigten Hinweises und/oder eines sprachlichen Hinweises der Zentralprozessor eine neue Beziehung der Korrespondenz zwischen den Augenbewegungen des Fahrers und den Änderungen der Kartenschicht definieren und in dem Speichermodul zum nachträglichen Wiederherstellen speichern kann.
  6. Zentralprozessor nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass ein Blickbereich, der sich innerhalb des Anzeigerands der Kartenschicht befindet, und ein virtueller Rand, der sich zwischen dem Anzeigerand der Kartenschicht und dem Blickbereich befindet, auf dem Monitor definiert werden, und dass die Kartenschicht nicht geändert werden darf, wenn es detektiert ist, dass sich der Fokus der Augen innerhalb des Blickbereichs befindet.
  7. Zentralprozessor nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass ein Blickbereich, der sich innerhalb des Anzeigerands der Kartenschicht befindet, und ein virtueller Rand, der sich zwischen dem Anzeigerand der Kartenschicht und dem Blickbereich befindet, auf dem Monitor definiert werden, und dass bei einer detektierten Bewegung des Fokus der Augen zu dem virtuellen Rand die Kartenschicht entsprechend bewegt angezeigt wird, wenn es detektiert ist, dass sich der Fokus der Augen außerhalb des Blickbereichs befindet.
  8. Zentralprozessor nach Anspruch 7, dadurch gekennzeichnet, dass die Geschwindigkeit der entsprechend bewegt angezeigten Kartenschicht proportional zu dem Abstand, bei dem sich der Fokus der Augen bewegt, ist.
  9. Zentralprozessor nach Anspruch 8, dadurch gekennzeichnet, dass die Richtung der entsprechend bewegt angezeigten Kartenschicht im Wesentlichen gleich wie die Richtung, bei dem sich der Fokus der Augen bewegt, ist.
  10. Zentralprozessor nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass sich das Detektionsmodul hinter dem Lenkrad befindet, und dass sich der Monitor auf der Konsole des Fahrzeuges befindet.
  11. System für Ansteuerung der Kartennavigation eines Fahrzeuges, das umfasst: ein in dem Innenraum des Fahrzeuges vorgesehenes Detektionsmodul, das einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signalen aufweist; einen in dem Innenraum des Fahrzeuges vorgesehenen Monitor, der gegenüber dem Detektionsmodul festgelegt ist und auf dem Kartenschichten veranschaulicht angezeigt werden können; und einen Zentralprozessor nach einem der Ansprüche 1 bis 10.
  12. Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges, das umfasst: Bereitstellen eines Detektionsmoduls, das einen Infrarotstrahler für Strahlung eines Infrarot-Lichts an die Augen des Fahrers und eine Kamera für Erfassung einer Abbildung des Gesichts des Fahrers und der von den Augen reflektierten Infrarot-Signale aufweist, und eines Monitors, auf dem Kartenschichten veranschaulicht angezeigt werden können, in dem Innenraum des Fahrzeuges, wobei das Detektionsmodul und der Monitor zueinander festgelegt sind; Vorsehen eines Zentralprozessors nach einem der Ansprüche 1 bis 10 in dem Fahrzeug, und Verbinden des Zentralprozessors datenübertragend mit dem Detektionsmodul und dem Monitor.
DE102018208833.0A 2017-06-13 2018-06-05 System und Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges Pending DE102018208833A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710441580.1A CN109141461A (zh) 2017-06-13 2017-06-13 汽车地图导航控制***和方法
CN201710441580.1 2017-06-13

Publications (1)

Publication Number Publication Date
DE102018208833A1 true DE102018208833A1 (de) 2018-12-13

Family

ID=64332937

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018208833.0A Pending DE102018208833A1 (de) 2017-06-13 2018-06-05 System und Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges

Country Status (2)

Country Link
CN (1) CN109141461A (de)
DE (1) DE102018208833A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108613683A (zh) * 2018-06-26 2018-10-02 威马智慧出行科技(上海)有限公司 车载导航装置、方法和汽车

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950200B (zh) * 2010-09-21 2011-12-21 浙江大学 基于摄像头的眼球控制游戏地图和角色移动的方法和装置
CN103347437B (zh) * 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
DE102011084664A1 (de) * 2011-10-18 2013-04-18 Robert Bosch Gmbh Verfahren zum Betrieb eines Navigationssystems, insbesondere Verfahren zur Steuerung von auf einem Anzeigemittel des Navigationssystems anzeigbaren Informationen
CN102902468A (zh) * 2012-10-23 2013-01-30 陈婉莹 移动终端地图浏览方法和装置
US9389728B2 (en) * 2013-03-15 2016-07-12 Elwha Llc Systems and methods for parallax compensation
CN103500061B (zh) * 2013-09-26 2017-11-07 三星电子(中国)研发中心 控制显示器的方法及设备
CN104598138B (zh) * 2014-12-24 2017-10-17 三星电子(中国)研发中心 电子地图控制方法及装置
CN105128862A (zh) * 2015-08-18 2015-12-09 上海擎感智能科技有限公司 一种车载终端眼球识别控制方法及***
CN105843383B (zh) * 2016-03-21 2019-03-12 努比亚技术有限公司 应用启动装置及方法

Also Published As

Publication number Publication date
CN109141461A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
DE112009003557B4 (de) Fahrzeug-Anzeigevorrichtung undAnzeigeverfahren
DE102014226185B4 (de) Verfahren und Blickrichtungserkennungssystem zum Bestimmen einer Blickrichtung einer Person, sowie Verwendung des Blickrichtungserkennungssystems in einem Kraftfahrzeug
DE102018129741A1 (de) Vorrichtung und Verfahren zum Steuern einer Anzeige eines Fahrzeugs
DE102013208971A1 (de) Vorrichtung und Verfahren zum Projizieren einer Bildinformation in ein Blickfeld eines Fahrzeuginsassen eines Fahrzeugs
DE102012015002B4 (de) Verfahren und Vorrichtung zum unterstützten Einparken
DE102012219280A1 (de) Fahrerassistenzsystem und Verfahren
DE102014002493B4 (de) System mit und Verfahren zum automatischen Ein-/Umschalten einer Einstellvorrichtung für eine Head-up-Display-Einrichtung
DE102014214516A1 (de) Vorrichtung und Verfahren zur Wiedergabe von Daten in einer erweiterten Realität für einen Insassen eines Fahrzeugs
DE112017005111T5 (de) Bordanzeigesteuervorrichtung
EP3620842B1 (de) Konzept zum einstellen eines head-up-displays in einem kraftfahrzeug
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
DE102013206739A1 (de) Verfahren zur Bestimmung, ob ein Insasse eines Fahrzeugs relevante Objekte im Umfeld des Fahrzeugs bemerkt
DE102004057947A1 (de) Verfahren zur Funktionsprüfung eines kraftfahrzeugseitig integrierten Fahrerassistenzsystems
DE102015204281A1 (de) Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
DE102015214116A1 (de) Verfahren und Einrichtung zum Schätzen einer Blickrichtung eines Fahrzeuginsassen, Verfahren und Einrichtung zum Bestimmen eines für einen Fahrzeuginsassen spezifischen Kopfbewegungsverstärkungsparameters und Verfahren und Vorrichtung zum Blickrichtungsschätzen eines Fahrzeuginsassen
DE102016225639A1 (de) Head-up-Display-Vorrichtung für ein Kraftfahrzeug, Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Head-up-Display-Vorrichtung
DE102014012723A1 (de) Anzeigesystem
DE102009054544A1 (de) Handsteuerbild zur Replikation
DE102020105196A1 (de) Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille
DE102016214047A1 (de) Fahrzeug mit einstellbarem Head-up-Display
DE102019004692B3 (de) Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
DE102018208833A1 (de) System und Verfahren für Ansteuerung der Kartennavigation eines Fahrzeuges
DE102016011016A1 (de) Verfahren zum Betrieb eines Assistenzsystems
DE102017202483B4 (de) Verfahren zur Darstellung von Informationen für einen Nutzer eines Fahrzeugs und Projektionssystem zum Darstellen von Informationen in einem Fahrzeug
DE102018126835A1 (de) Elektronisch steuerbare, mehrachsige, rotatorisch und/oder translatorisch bewegbare Zubehörhalterung für Fahrzeuge

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BEE, JOACHIM, DIPL.-ING., DE