DE102014207637A1 - Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges - Google Patents

Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges Download PDF

Info

Publication number
DE102014207637A1
DE102014207637A1 DE102014207637.4A DE102014207637A DE102014207637A1 DE 102014207637 A1 DE102014207637 A1 DE 102014207637A1 DE 102014207637 A DE102014207637 A DE 102014207637A DE 102014207637 A1 DE102014207637 A1 DE 102014207637A1
Authority
DE
Germany
Prior art keywords
gesture
display content
control device
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014207637.4A
Other languages
English (en)
Inventor
Andreas Menath
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102014207637.4A priority Critical patent/DE102014207637A1/de
Priority to PCT/EP2015/058327 priority patent/WO2015162058A1/de
Publication of DE102014207637A1 publication Critical patent/DE102014207637A1/de
Priority to US15/299,705 priority patent/US10585487B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine Steuereinrichtung zum Verschieben und/oder Zoomen eines Anzeigeinhalts, wobei die Steuereinrichtung aufweist: eine Anzeigeeinheit mit einem Anzeigeinhalt, wenigstens eine Kamera, die zur Aufnahme eines Erfassungsbereichs vor der Anzeigeeinheit eingerichtet ist, eine Gestenerkennungseinheit, die mit der wenigstens einen Kamera gekoppelt ist und zur Erkennung einer mit einer Hand ausgeführten vorbestimmten Geste und einer aktuellen Position der Geste im Erfassungsbereich eingerichtet ist, und eine Anzeigeinhaltanpassungseinheit, die eingerichtet ist, den Anzeigeinhalt entsprechend einer Veränderung der aktuellen Position der Geste anzupassen, insbesondere bei einer Veränderung der Position in einer Ebene parallel zur Anzeigeeinheit den Anzeigeinhalt entsprechend zu verschieben und/oder bei einer Veränderung der Position zu oder weg von der Anzeigeeinheit den Anzeigeinhalt zu vergrößern oder zu verkleinern.

Description

  • Die Erfindung betrifft im Allgemeinen die automatische Erkennung von durch Menschen ausgeführten Gesten mittels eines Computers (Gestenerkennung). Im Besonderen betrifft die Erfindung eine Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeugs.
  • Hintergrund der Erfindung
  • Im Kontext einer Mensch-Computer-Interaktion definieren Kurtenbach et al. („Gestures in Human-Computer Communication" in „The Art of Human-Computer Interface Design", pp. 309–317, 1990) eine Geste als eine Bewegung eines Körpers, die Informationen enthält. Beispielsweise ist ein Winken zum Abschied eine Geste. Das Drücken einer Taste auf einer Tastatur ist hingegen keine Geste, da die Bewegung des Fingers auf dem Weg bis zur Kollision mit der Taste weder beobachtet wird noch signifikant ist, da lediglich relevant ist, welche Taste gedrückt wurde.
  • In Fahrzeugen ist es bereits bekannt, eine Bedienung von Fahrzeugkomponenten durch eine Interpretation von Gesten vorzunehmen. DE 42 01 934 A1 zeigt ein Datenverarbeitungssystem, welches Gesten erkennt und diese in Befehle zur Steuerung des Datenverarbeitungssystems übersetzt. EP 1 408 443 A1 zeigt ebenfalls ein System, bei dem eine Funktionssteuerung über eine Gestenerkennung erfolgt, die beispielsweise verschiedene Gesten in Form von Hand- bzw. Fingerstellungen umfasst, die mittels einer 2D- oder 3D-Kamera erfasst werden. Den jeweiligen Hand- und Fingerstellungen werden entsprechende Aktionen zugeordnet. Die Interpretation nutzt sowohl statische Gesten als auch bestimmte Bewegungsabläufe.
  • Ein weiterer Ansatz ist die Gestenerkennung mittels Stereoskopie. EP 1 477 924 A2 zeigt beispielsweise eine Gestenerkennungsvorrichtung zum Erkennen von Haltungen oder Gesten einer Person basierend auf Bildern der Person, die von zwei Kameras aufgenommen wurden.
  • Moderne Fahrzeuge stellen dem Fahrzeugführer, beispielsweise über einen zentralen Anzeigebildschirm, umfangreiche Informationen und Steuerungsmöglichkeiten zur Verfügung. Insbesondere die Bedienung moderner Navigationssysteme ist ständiger Gegenstand der Forschung, um eine Bedienung durch den Fahrzeugführer besonders während der Fahrt so zu verbessern, dass der Fahrzeugführer von der eigentlichen Führung des Fahrzeugs möglichst wenig abgelenkt wird und seine Aufmerksamkeit für die Umgebung und den Straßenverkehr möglichst wenig beeinträchtigt wird. Die vorstehend beschriebenen Steuerungsmöglichkeiten mittels Gestenerkennung sind jedoch häufig wenig intuitiv. Daher kann oft die angestrebte Vereinfachung der Bedienung einer Fahrzeugkomponente nicht erreicht werden, da Gesten des Fahrers nicht immer in die vom Fahrer beabsichtigten Bedieneingaben umgesetzt oder gar nicht erkannt werden. Die Folge davon ist, dass der eigentliche Bedienvorgang länger dauert als theoretisch erwartet und die Aufmerksamkeit des Fahrers stärker abgelenkt wird.
  • Offenbarung der Erfindung
  • Es ist eine mögliche Aufgabe der vorliegenden Erfindung, eine verbesserte Steuerungsmöglichkeit vorzuschlagen, insbesondere für eine Steuerung von einem Kartenausschnitt eines Navigationssystems oder von Bildschirminhalten eines Fahrerinformationssystems, beispielsweise eines implementierten Internetbrowsers, welche die Nachteile im Stand der Technik überwindet.
  • Wenigstens eine der Aufgaben wird mit den Merkmalen der unabhängigen Ansprüche gelöst. Weitere Merkmale und Details der Erfindung ergeben sich aus den Unteransprüchen, der Beschreibung und den Zeichnungen.
  • Ein Kerngedanke der Erfindung besteht darin, einen angezeigten Kartenausschnitt einer Navigationskarte von einem Navigationssystem oder einen vergleichbaren verschiebbaren Inhalt auf einer zentralen Anzeigeeinheit eines Fahrerinformationssystems über eine Geste, bevorzugt eine Freiraumgestik, zu steuern, beispielsweise zu verschieben oder zu zoomen. D.h., mit einer speziellen Geste, z.B. einem Pinzettengriff mit zwei Fingern, kann der Anzeigeinhalt auf der zentralen Anzeige entsprechend der Position einer virtuell im freien Raum greifbaren und bewegbaren Kamera in drei Dimensionen (3D) justiert werden.
  • Mit der erfindungsgemäßen Steuervorrichtung wird erreicht, dass dem Fahrer oder einem Bediener ein intuitives Bediengefühl durch einen speziellen Zusammenhang zwischen der Handbewegung und der Veränderung des Anzeigeinhalts vermittelt wird. Damit wird die Steuerung des Navigationssystems oder des Fahrerinformationssystems vereinfacht und sicherer, so dass besonders der Fahrer weniger durch einen Bedienvorgang bei der Führung des Fahrzeugs beeinträchtigt wird.
  • Somit betrifft die Erfindung eine Steuereinrichtung zum Verschieben und/oder Zoomen eines Anzeigeinhalts einer Anzeigeeinheit. Die Steuereinrichtung weist auf: (i) eine Anzeigeeinheit mit einem Anzeigeinhalt, wenigstens eine Kamera, die zur Aufnahme eines Erfassungsbereichs vor der Anzeigeeinheit eingerichtet ist, (ii) eine Gestenerkennungseinheit, die mit der wenigstens einen Kamera gekoppelt ist und zur Erkennung einer mit einer Hand ausgeführten vorbestimmten Geste und einer aktuellen Position der Geste im Erfassungsbereich eingerichtet ist, und (iii) eine Anzeigeinhaltanpassungseinheit, die eingerichtet ist, den Anzeigeinhalt entsprechend einer Veränderung der aktuellen Position der Geste anzupassen, insbesondere bei einer Veränderung der Position in einer Ebene parallel zur Anzeigeeinheit den Anzeigeinhalt entsprechend zu verschieben und/oder bei einer Veränderung der Position zu oder weg von der Anzeigeeinheit den Anzeigeinhalt zu vergrößern oder zu verkleinern.
  • Die Steuereinrichtung kann zwei Kameras zur Aufnahme des Erfassungsbereichs vor der Anzeigeeinheit aufweisen. Damit kann die Gestenerkennungseinheit die aktuelle Position der Geste im Erfassungsbereich mittels Stereoskopie ermitteln.
  • Die wenigstens eine Kamera kann eine Infrarot-Kamera und/oder eine Time-of-Flight-Kamera und/oder eine Structured-Light-Kamera sein.
  • Die eigentliche Gestenerkennung kann anhand einer kontinuierlichen Folge von Bildern einer Hand-/Fingerstellung eines Benutzers mittels technischer Bildanalyse erfolgen. Dabei sind grundsätzlich zwei Ansätze möglich: Die Gestenerkennungseinheit kann eine Datenbank mit Beispielen relevanter Gesten enthalten, die aufgrund eines Meridians von einer Vielzahl, beispielsweise über 1.000 Videoanalysen verschiedener Ausführungen der Geste erstellt worden sind. Eine optisch erfasste Geste kann dann mittels Bilderkennungsalgorithmen mit der Datenbank verglichen werden und es kann basierend auf dem Vergleich die relevante Geste erkannt werden, um die zugeordnete Bedienfunktion auszulösen. Alternativ kann auch mit einer sogenannten Skeletterkennung gearbeitet werden, wobei in den Bilddaten die Hand und/oder Finger erkannt werden und mittels eines vereinfachten Skelettmodells auf vordefinierte Gesten geschlossen wird.
  • Bei der eigentlichen Erkennung der Gesten werden die Bildinformationen durch an sich bekannte Bildverarbeitungsalgorithmen verarbeitet, welche die Rohdaten analysieren und schließlich die Gesten erkennen. Dabei können Algorithmen zur Mustererkennung zum Einsatz kommen. Zur Entfernung von Rauschen in den Eingabedaten und zur Datenreduktion kann in einem ersten Schritt eine Vorverarbeitung der Bilddaten erfolgen. Anschließend werden aus den Bilddaten Merkmale extrahiert, um die Geste mittels einer Klassifikation zu erkennen. Hierfür können beispielsweise Hidden Markov Modelle, künstliche neuronale Netze und andere an sich bekannte Techniken aus der Forschung zur künstlichen Intelligenz eingesetzt werden.
  • Die Gestenerkennungseinheit und/oder die Anzeigeinhaltanpassungseinheit ist bzw. sind bevorzugt eingerichtet, den Anzeigeinhalt zu verschieben und/oder zu zoomen, solange die vorbestimmte Geste erkannt wird. Der Erfassungsbereich ist bevorzugt ein vorbestimmter Raum vor der Anzeigeeinheit.
  • Die Anzeigeinhaltanpassungseinheit kann eingerichtet sein, bei einer Veränderung der Position der Geste zu oder weg von der Anzeigeeinheit, den Anzeigeinhalt mit einem Faktor zu vergrößern oder zu verkleinern. Der Faktor entspricht dabei bevorzugt einer Potenz der Basis 2 mit der Änderung des Abstandes zwischen der Position der Geste und der Anzeigeeinheit als Exponent. Durch die 2er-Potenz mit der Abstandsänderung als Exponent wird erreicht, dass durch eine definierte Bewegung der Geste bzw. Hand des Benutzers in x-Richtung eine Verdoppelung oder Halbierung des dargestellten Anzeigeinhalts erreicht wird. So kann mit einer einzigen Handbewegung zwischen sehr vielen Zoomfaktoren gewechselt werden. Der Exponent kann auch zusätzlich mit einem Sensitivitätsfaktor skaliert werden.
  • Die Anzeigeinhaltanpassungseinheit kann eingerichtet sein, den Anzeigeinhalt bei einer Veränderung der Position der Geste in einer Ebene parallel zur Anzeigeeinheit entsprechend so zu verschieben, dass eine Länge einer Bewegung des Anzeigeinhalts einer Strecke der Bewegung der Geste in der Ebene parallel zur Anzeigeeinheit entspricht. D.h., mit einer Handbewegung über eine Strecke von 10 cm in einer Ebene parallel zur Anzeigeeinheit nach rechts hat eine Bewegung des Anzeigeinhalts um ebenfalls 10 cm nach rechts zur Folge. Damit ergibt sich ein perfektes mentales Bedienmodell für einen Benutzer, wodurch die Steuerung für einen Nutzer intuitiv ist.
  • Die Anzeigeinhaltanpassungseinheit kann weiter eingerichtet sein, sobald Koordinaten einer letzten Position der Geste erfasst worden sind, den Anzeigeinhalt entsprechend einer zuletzt erfassten bzw. der letzten erfassten Geschwindigkeit, mit der sich die Position der Geste geändert hat, weiterlaufen zu lassen und bevorzugt kontinuierlich bis zum Stillstand zu verlangsamen. Dieses Steuerungsverhalten vermittelt einem Benutzer das Gefühl, den Anzeigeinhalt mittels der vorbestimmten Geste quasi anstoßen oder anstupsen zu können.
  • Der Anzeigeinhalt ist bevorzugt ein Kartenausschnitt einer Karte, z.B. einer Navigationskarte eines Navigationssystems. Die Kartendaten und damit die Karte können beispielsweise in einer Datenbank des Navigationssystems gespeichert sein. Die Anzeigeinhaltanpassungseinheit dient dann dazu, den Kartenausschnitt entsprechend der Veränderung der aktuellen Position der Geste anzupassen.
  • Die Erfindung betrifft weiter ein Fahrzeug, insbesondere ein Kraftfahrzeug, mit einem Fahrerinformationssystem, welches wenigstens eine Anzeigeeinheit zur Anzeige von graphischen Daten, beispielsweise eines Navigationssystems oder eines Internetbrowsers, und eine erfindungsgemäße Steuereinrichtung, wie vorstehend beschrieben, zum Verschieben und/oder Zoomen des Anzeigeinhalts aufweist.
  • Die Erfindung eignet sich besonders gut für die Steuerung von Anzeigeinhalten eines Fahrerinformationssystems in einem Fahrzeug. Die Erfindung kann aber grundsätzlich auch auf Smartphones, Tabletcomputern oder Vorrichtungen mit einer Anzeige implementiert werden, deren Inhalt entsprechend der hier vorgeschlagenen Steuerung durch einen Nutzer angepasst werden kann.
  • Bevorzugte Ausführungsbeispiele
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der unter Bezugnahme auf die Zeichnungen Ausführungsbeispiele der Erfindung im Einzelnen beschrieben sind. Dabei können die in den Ansprüchen und in der Beschreibung erwähnten Merkmale jeweils einzeln für sich oder in beliebiger Kombination erfindungswesentlich sein. Ebenso können die vorstehend genannten und die hier weiter ausgeführten Merkmale je für sich oder zu mehreren in beliebigen Kombinationen Verwendung finden. Funktionsähnliche oder identische Bauteile oder Komponenten sind teilweise mit gleichen Bezugszeichen versehen. Die in der Beschreibung der Ausführungsbeispiele verwendeten Begriffe „links“, „rechts“, „oben“ und „unten“ beziehen sich auf die Zeichnungen in einer Ausrichtung mit normal lesbarer Figurenbezeichnung bzw. normal lesbaren Bezugszeichen. Die gezeigten und beschriebenen Ausführungsformen sind nicht als abschließend zu verstehen, sondern haben beispielhaften Charakter zur Erläuterung der Erfindung. Die detaillierte Beschreibung dient der Information des Fachmanns, daher werden bei der Beschreibung bekannte Schaltungen, Strukturen und Verfahren nicht im Detail gezeigt oder erläutert, um das Verständnis der vorliegenden Beschreibung nicht zu erschweren.
  • 1 veranschaulicht das Grundprinzip einer Kartenausschnittsteuerung.
  • 2 zeigt schematisch die Komponenten eines Navigationssystems mit einer stereoskopischen Gestenerkennung und Gestenpositionserkennung zur Anpassung eines Kartenausschnitts gemäß dem Prinzip der 1.
  • Die folgende Beschreibung erläutert die vorgeschlagene Steuerung des Anzeigeinhalts einer Anzeigeeinheit am Beispiel der Steuerung eines angezeigten Kartenausschnitts eines Navigationssystems. Selbstverständlich kann die hier beschriebene Steuerung grundsätzlich entsprechend auf andere Anzeigenhalte einer Anzeigeeinheit eines Fahrerinformationssystems übertragen werden. Als weiteres Beispiel sei hier ein in das Fahrerinformationssystem integrierter Internetbrowser genannt, bei dem dann – wie beim Kartenausschnitt – kleine Inhalte mit einer kurzen und schnellen Geste fokussiert werden können.
  • 1 veranschaulicht zunächst das Grundprinzip der hier vorgeschlagenen Kartenausschnittsteuerung. Von einer (Navigations-)Karte 1 mit grafisch aufbereiteten geografischen Daten und Straßenverlaufsdaten soll ein bestimmter Kartenausschnitt 7 auf einer Anzeige 5 angezeigt werden. Der Kartenausschnitt 7 wird mit einer Kamera 3, die auf die Karte 1 ausgerichtet ist, aufgenommen. Die von der Kamera 3 von einer Position P aus erfassten Bilddaten definieren den Kartenausschnitt 7. Dabei wird eine äußere Begrenzung des Kartenausschnitts 7 im Wesentlichen vom Abstand der Kamera 3 zur Karte 1, einem Öffnungswinkel 3.1 der Kamera 3 und dem Format des Bildsensors (nicht gezeigt) der Kamera 3 bestimmt. Die Bilddaten werden von der Kamera 3 an die Anzeigeeinheit 5 übertragen und dort angezeigt.
  • Durch eine Veränderung der Position P der Kamera 3 in y- und/oder z-Richtung kann der Kartenausschnitt 7 entsprechend verschoben werden. Durch eine Veränderung der Position P der Kamera 3 in x-Richtung kann der Kartenausschnitt 7 gezoomt werden. D.h., wenn die Position P in x-Richtung auf die Karte 1 zubewegt wird, wird der Kartenausschnitt 7 entsprechend verkleinert. Da die Anzeigefläche der Anzeigeeinheit gleich bleibt bedeutet dies, dass ein kleinerer Teil der Karte 1 auf der Anzeigefläche angezeigt wird, womit im Ergebnis in die Karte 1 hineingezoomt wurde. Wenn die Position P in x-Richtung von der Karte 1 wegbewegt wird, wird der Kartenausschnitt 7 entsprechend vergrößert. Da die Anzeigefläche der Anzeigeeinheit gleich bleibt bedeutet dies, dass jetzt ein größerer Teil der Karte 1 auf der Anzeigefläche angezeigt wird, womit im Ergebnis aus der Karte 1 herausgezoomt wurde.
  • Das vorstehende Grundprinzip wird gemäß dem ersten Aspekt mittels einer Gestensteuerung im freien Raum zur Steuerung eines aktuell angezeigten Kartenausschnitts 7 auf der Anzeigeeinheit 5 eines Navigationssystems übertragen. Dabei wird die Position einer vorbestimmten Geste G in Form einer bestimmten Hand-/Fingerstellung erkannt und in eine Position P der virtuellen Kamera 3 der 1 umgerechnet. D.h., eine Anpassung des Kartenausschnitts 7 wird in Abhängigkeit der Bewegung der Position P einer erkannten Geste G entsprechend dem anhand der 1 erläuterten Prinzip durchgeführt.
  • 2 zeigt dazu schematisch die Komponenten eines Navigationssystems mit einer Gestenerkennung und einer stereoskopischen Gestenpositionserkennung zur Anpassung des Kartenausschnitts 7 gemäß dem Prinzip der 1. Die grundsätzlichen Bestandteile eines Navigationssystems und deren Funktion werden als bekannt vorausgesetzt und hier nicht näher erläutert. Die im Folgenden erläuterten weiteren Bestandteile zur Gestenerkennung und stereoskopischen Gestenpositionserkennung sowie die mit Softwaremitteln realisierbare Bildverarbeitung sowie Kartenausschnittanpassung kann bei einem bekannten Navigationssystem ergänzt werden.
  • 2 zeigt die Anzeigeeinheit 5 des Navigationssystems auf dem ein Kartenausschnitt 7 angezeigt wird. An den beiden oberen Ecken der Anzeigeeinheit 5 sind zwei Kameras 12.1, 12.2 zur Gestenerfassung angeordnet. Die zwei Kameras 12.1, 12.2 ermöglichen eine stereoskopische Erfassung der Position P einer erkannten Geste G, die mit einer Hand H ausgeführt wird. Für die hier beschriebene Kartenausschnittanpassung wurde eine Geste G voreingestellt, bei der sich als vorbestimmte Fingerstellung der Daumen und der Zeigefinger einer Hand pinzettenartig berühren, d.h. einen sogenannten Pinzettengriff ausführen.
  • Die Gestenerkennung hat den Vorteil, dass so die Absicht des Benutzers klar erkennbar ist und die Geste von anderen Handbewegungen unterschieden werden kann. Dadurch führen andere Handbewegungen im Erkennungsbereich der Kameras 12.1, 12.2 zu keiner (unbeabsichtigten) Anpassung des Kartenausschnitts 7. D.h., erst bei einer Erkennung der vorbestimmten Geste G wird die Kartenausschnittanpassungseinheit 16 aktiviert.
  • Eine Gestenerkennungseinheit 14 mit den Kameras 12.1, 12.2 kann als separate Hardware Bestandteil einer Steuereinrichtung 10 des Navigationssystems sein oder damit verbunden sein bzw. durch ohnehin vorhandene Softwareroutinen des Navigationssystems implementiert sein. Die Gestenerkennungseinheit 14 ist sowohl zur Gestenerkennung als auch zur Bestimmung der aktuellen Position P der Geste G im freien Raum vor der Anzeigeeinheit 5 eingerichtet. Die Gestenerkennung ist in bekannter Weise mit entsprechenden Verfahren der Bildverarbeitung und Mustererkennung implementiert. Die Bestimmung der aktuellen Position P der Geste G erfolgt im Wesentlichen basierend auf der Kenntnis der Positionen der Kameras 12.1, 12.2 sowie der aktuellen Raumwinkel der Sichtlinien 12.1r, 12.2r von der jeweiligen Kamera 12.1, 12.2 ausgehend von der Position P der Geste G. Damit kann die Gestenerkennungseinheit 14 mittels bekannter Berechnungen der Stereoskopie die Koordinaten der Position P hinreichend genau bestimmen.
  • Die 3D-Koordinaten der Position P der Geste G werden bevorzugt in kurzen Zeitabschnitten, z.B. alle 20 ms, erfasst und der Kartenausschnittanpassungseinheit 16 zur Verfügung gestellt, um eine flüssige Anpassung des Kartenausschnitts 7 (Verschiebung und/oder Zoom) zu gewährleisten.
  • Sobald die Gestenerkennungseinheit 14 die vorbestimmte Geste G erkannt hat, werden, solange die vorbestimmte Hand-/Fingerstellung für die Geste G vom Nutzer beibehalten wird, die Koordinaten der (Gesten-)Position P von der Gestenerkennungseinheit 14 erfasst. Die Koordinaten (Gnx, Gny, Gnz) bilden die Grundlage für die darauf basierende Anpassung des Kartenausschnitts 7 durch die Kartenausschnittanpassungseinheit 16. Die gesamte Karte 1 (vgl. 1) ist in einer Datenbank 18 des Navigationssystems gespeichert, wobei die Kartenausschnittanpassungseinheit 16 mit der Datenbank gekoppelt ist, d.h. auf die Kartendaten Zugriff hat. Bekannte Navigationssysteme weisen auch Möglichkeiten zur Einstellung des aktuellen Kartenausschnitts auf. D.h., die hier vorgeschlagene verbesserte Kartenausschnittanpassungseinheit 16 kann an dieser Stelle bei einem bekannten Navigationssystems ergänzt werden.
  • Dabei erfasste Koordinaten der Position können mit einem Laufindex n gekennzeichnet und gespeichert werden, wobei der Index n von 1 bis k läuft. Die letzten Koordinaten (Gkx, Gky, Gkz) entsprechen der letzten Position Pk, bei der die Hand H die vorbestimmte Geste G ausführte oder den technisch bedingten Erfassungsbereich vor der Anzeigeeinheit 5 verlassen hat. D.h., die Gestenerkennungseinheit 14 erfasst während einer Interaktion k Positionskoordinaten: x-Koordinate: G1x, G2x, G3x, G4x, G5x, ..., Gkx y-Koordinate: G1y, G2y, G3y, G4y, G5y, ..., Gky z-Koordinate: G1z, G2z, G3z, G4z, G5z, ..., Gkz
  • Als Erkennungsbereich kann ein bestimmter Raum über bzw. vor der Anzeigeeinheit 5 definiert sein. Koordinaten Gnxyz der Position P werden von der Gestenerkennungseinheit 14 als Steuereingabe an die Kartenausschnittanpassungseinheit 16 nur berechnet, wenn die definierte Geste G erkannt wird und die aktuelle Position P der Geste G im Erkennungsbereich liegt. Wird eine Position P außerhalb des Erkennungsbereichs ermittelt oder während einer aktiven Interaktion erreicht, oder wird die definierte Handstellung verlassen, wird die Interaktion abgebrochen. D.h., es findet dann keine weitere Anpassung des Kartenausschnitts 7 statt.
  • Um die Darstellung eines bestimmten Kartenausschnitts 7 auf der Anzeigeeinheit 5 zu erreichen, wird die aktuelle Position P der Geste G in eine Position einer virtuellen Kamera (entsprechend der Kamera 3 in 1), die beliebig in drei Dimensionen verschoben werden kann, umgerechnet. Die berechnete Position PVC der virtuellen Kamera und ein der virtuellen Kamera zugeordneter Öffnungswinkel definieren dann den aktuell auf der Anzeigeeinheit 5 anzuzeigenden Kartenausschnitt 7.
  • Aus der aktuell erfassten Position P der Geste G mit den Koordinaten (Gnx, Gny, Gnz) berechnet die Gestenerkennungseinheit 14 die entsprechende Position (PVCnx, PVCny, PVCnz) der virtuellen Kamera bevorzugt entsprechend folgender formelmäßiger Zusammenhänge: PVCnx = PVC1x·2^((Gnx – G1x)/fx) (1.1) PVCny = PVC(n-1)y + PVCnx·(Gny – G(n-1)y)·fy (1.2) PVCnz = PVC(n-1)z + PVCnx·(Gnz – G(n-1)z)·fz (1.3) wobei fx, fy, fz Sensitivitätsparameter sind und n der Index für die während einer Interaktion erfassten Positionen P ist, wobei – wie oben erläutert – 1 < n ≤ k gilt.
  • Die jeweilige x-Koordinate entspricht dem aktuellen Abstand der Geste G zur Anzeigeeinheit 5 bzw. der Höhe der virtuellen Kamera über der Karte 1, von welcher der Kartenausschnitt 7 auf der Anzeigeeinheit 5 angezeigt wird. Der Zusammenhang zwischen der x-Koordinate der Kamera PVCnx und der x-Koordinate der Gestenposition Gnx wird für ein Verkleinern oder Vergrößern (Zoomen) des Kartenausschnitts verwendet. Mit der 2er-Potenz wird erreicht, dass durch eine definierte Bewegung der Geste G bzw. Hand H in x-Richtung so eine Verdoppelung der dargestellten Kartengröße erreicht wird. Dadurch kann mit einer Handbewegung zwischen sehr vielen Zoomfaktoren gewechselt werden.
  • Weiter sind die y- und z-Koordinaten PVCny, PVCnz der virtuellen Kamera so von der x-Koordinate PVCnx abhängig, dass durch entsprechende Einstellung der Sensitivitätsparameter fy und fz die Länge einer Kartenbewegung auf der Anzeigeeinheit 5 der Strecke der Bewegung der Geste G bzw. Hand H in y- und/oder z-Richtung entspricht. D.h., dass z.B. eine Handbewegung um 10 cm nach rechts eine Kartenbewegung um 10 cm nach rechts zur Folge hat. Somit ergibt sich ein perfektes mentales Modell, wodurch die Steuerung für einen Nutzer intuitiv ist.
  • Gemäß einem weiteren vorteilhaften Aspekt der vorgeschlagenen Anzeigeinhaltsteuerung kann die Anpassung des Anzeigeinhaltes die Bewegungsdynamik der Geste G bzw. Hand H bei der Eingabe berücksichtigen. Dazu ist die Kartenausschnittanpassungseinheit 16 eingerichtet, nachdem die letzten Koordinaten Gk der Position P der Geste G gesendet wurden, den Kartenausschnitt 7 in der letzten erfassten Geschwindigkeit der Hand H bzw. Geste G über die Karte 1 weiterlaufen zu lassen, wobei sich die Bewegung kontinuierlich bis zum Stillstand verlangsamt. Dieses Verhalten vermittelt dem Nutzer das Gefühl, dass man die Karte „anstoßen“ kann. Dieses Verhalten kann mit folgenden formelmäßigen Zusammenhängen und Einstellungen abgebildet werden: last_velxyz = (Gkxyz – G(k-1)xyz)/steplength (2.1) snxyz = 0.5·b·(steplength·(n – k))^2 + last_velxyz·steplength·(n – k); (last_velxyz > 0) (2.2) snxyz = –0.5·b·(steplength·(n – k))^2 + last_velxyz·steplength·(n – k); (last_velxyz < 0) (2.3) PVCnx = PVC1x·2^((Gkx + snx)/fx) (2.4) PVCny = PVC(n-1)y + PVCnx·(sny – s(n-1)y)·fy (2.5) PVCnz = PVC(n-1)z + PVCnx·(snz – s(n-1)z)·fz (2.6) wobei n > k bedeutet, dass das Weiterlaufen des Kartenausschnitts 7 nach der letzten erkannten Gestenposition erfolgt, b ein voreingestellter Bremsfaktor, z.B. – 0.3 m/s ist, „steplength“ eine Schrittweite entsprechend der aktuellen Bildrate der Kameras 12.1, 12.2, z.B. 20 ms bei 50 Bilder/s ist, und „last_velxyz“ die letzte Geschwindigkeit der Bewegung der Geste G bzw. Hand H ist, z.B. (Gkxyz – G(k-1)xyz)/steplength.
  • Der beschriebene Weiterlauf des Kartenausschnitts endet, sobald snxyz ein definiertes Minimum erreicht oder eine neue Serie von Koordinaten einer Position P einer erkannten Geste G gesendet wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 4201934 A1 [0003]
    • EP 1408443 A1 [0003]
    • EP 1477924 A2 [0004]
  • Zitierte Nicht-Patentliteratur
    • Kurtenbach et al. („Gestures in Human-Computer Communication“ in „The Art of Human-Computer Interface Design“, pp. 309–317, 1990) [0002]

Claims (10)

  1. Steuereinrichtung zum Verschieben und/oder Zoomen eines Anzeigeinhalts, wobei die Steuereinrichtung aufweist: eine Anzeigeeinheit (5) mit einem Anzeigeinhalt (7), wenigstens eine Kamera (12.1, 12.2), die zur Aufnahme eines Erfassungsbereichs vor der Anzeigeeinheit (5) eingerichtet ist, eine Gestenerkennungseinheit (14), die mit der wenigstens einen Kamera (12.1, 12.2) gekoppelt ist und zur Erkennung einer mit einer Hand (H) ausgeführten vorbestimmten Geste (G) und einer aktuellen Position (P) der Geste (G) im Erfassungsbereich eingerichtet ist, und eine Anzeigeinhaltanpassungseinheit (16), die eingerichtet ist, den Anzeigeinhalt (7) entsprechend einer Veränderung der aktuellen Position (P) der Geste (G) anzupassen, insbesondere bei einer Veränderung der Position (P) in einer Ebene parallel zur Anzeigeeinheit (5) den Anzeigeinhalt entsprechend zu verschieben und/oder bei einer Veränderung der Position (P) zu oder weg von der Anzeigeeinheit (5) den Anzeigeinhalt zu vergrößern oder zu verkleinern.
  2. Steuereinrichtung gemäß Anspruch 1, wobei die Steuereinrichtung zwei Kameras (12.1, 12.2) zur Aufnahme des Erfassungsbereichs vor der Anzeigeeinheit (5) aufweist und die Gestenerkennungseinheit (14) die aktuellen Position (P) der Geste (G) im Erfassungsbereich mittels Stereoskopie ermittelt.
  3. Steuereinrichtung gemäß Anspruch 1 oder 2, wobei die wenigstens eine Kamera (12.1, 12.2) eine Infrarot-Kamera und/oder eine Time-of-Flight-Kamera und/oder eine Structured-Light-Kamera ist.
  4. Steuereinrichtung gemäß einem der vorhergehenden Ansprüche, wobei die Gestenerkennungseinheit (14) und/oder die Anzeigeinhaltanpassungseinheit (16) eingerichtet ist bzw. sind, den Anzeigeinhalt zu verschieben und/oder zu zoomen, solange die vorbestimmte Geste (G) erkannt wird.
  5. Steuereinrichtung gemäß einem der vorhergehenden Ansprüche, wobei der Erfassungsbereich ein vorbestimmter Raum vor der Anzeigeeinheit (5) ist.
  6. Steuereinrichtung gemäß einem der vorhergehenden Ansprüche, wobei die Anzeigeinhaltanpassungseinheit (16) eingerichtet ist, den Anzeigeinhalt (7) bei einer Veränderung der Position (P) zu oder weg von der Anzeigeeinheit (5) mit einem Faktor zu vergrößern oder zu verkleinern, wobei der Faktor einer Potenz der Basis 2 mit einer Änderung des Abstandes zwischen der Position (P) der Geste (G) und der Anzeigeeinheit (5) als Exponent entspricht.
  7. Steuereinrichtung gemäß einem der vorhergehenden Ansprüche, wobei die Anzeigeinhaltanpassungseinheit (16) eingerichtet ist, den Anzeigeinhalt (7) bei einer Veränderung der Position (P) in einer Ebene parallel zur Anzeigeeinheit (5) entsprechend so zu verschieben, dass eine Länge einer Bewegung des Anzeigeinhalts einer Strecke der Bewegung der Position (P) der Geste (G) in der Ebene parallel zur Anzeigeeinheit (5) entspricht.
  8. Steuereinrichtung gemäß einem der vorhergehenden Ansprüche, wobei die Anzeigeinhaltanpassungseinheit (16) weiter eingerichtet ist, sobald eine letzte Position (P) der Geste (G) erfasst worden ist, den Anzeigeinhalt (7) entsprechend einer letzten erfassten Geschwindigkeit, mit der sich die Position (P) der Geste (G) geändert hat, weiterlaufen zu lassen und kontinuierlich bis zum Stillstand zu verlangsamen.
  9. Steuereinrichtung gemäß einem der vorhergehenden Ansprüche, wobei der Anzeigeinhalt ein Kartenausschnitt (7) einer Karte (1) ist, die beispielsweise in einer Datenbank (18) eines Navigationssystems gespeichert ist, und die Anzeigeinhaltanpassungseinheit (16) den Kartenausschnitt (7) entsprechend der Veränderung der aktuellen Position (P) der Geste (G) anpasst.
  10. Fahrzeug, insbesondere Kraftfahrzeug, mit einem Fahrerinformationssystem, welches wenigstens eine Anzeigeeinheit (5) zur Anzeige von graphischen Daten, beispielsweise eines Navigationssystems oder eines Internetbrowser, und eine Steuereinrichtung gemäß einem der vorhergehenden Ansprüche zum Verschieben und/oder Zoomen des Anzeigeinhalts aufweist.
DE102014207637.4A 2014-04-23 2014-04-23 Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges Pending DE102014207637A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014207637.4A DE102014207637A1 (de) 2014-04-23 2014-04-23 Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
PCT/EP2015/058327 WO2015162058A1 (de) 2014-04-23 2015-04-16 Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges
US15/299,705 US10585487B2 (en) 2014-04-23 2016-10-21 Gesture interaction with a driver information system of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014207637.4A DE102014207637A1 (de) 2014-04-23 2014-04-23 Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges

Publications (1)

Publication Number Publication Date
DE102014207637A1 true DE102014207637A1 (de) 2015-10-29

Family

ID=53039866

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014207637.4A Pending DE102014207637A1 (de) 2014-04-23 2014-04-23 Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges

Country Status (3)

Country Link
US (1) US10585487B2 (de)
DE (1) DE102014207637A1 (de)
WO (1) WO2015162058A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022111443A1 (de) 2022-05-09 2023-11-09 Diehl Ako Stiftung & Co. Kg Berührungslose Steuereinrichtung für einen Präsentationsbereich sowie Bedieneinheit

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016216577A1 (de) 2016-09-01 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
US10579869B1 (en) * 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
KR20210000466A (ko) * 2019-06-25 2021-01-05 현대모비스 주식회사 차량 내 제스처 입력을 이용한 제어 시스템
US11983327B2 (en) * 2021-10-06 2024-05-14 Fotonation Limited Method for identifying a gesture

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4201934A1 (de) 1992-01-24 1993-07-29 Siemens Ag Gestik computer
EP1408443A1 (de) 2002-10-07 2004-04-14 Sony France S.A. Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
EP1477924A2 (de) 2003-03-31 2004-11-17 HONDA MOTOR CO., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
DE102006037154A1 (de) * 2006-03-27 2007-10-18 Volkswagen Ag Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
US20090158203A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
DE102013201746A1 (de) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interaktion mit fahrzeugbedienungselementen durch gestenerkennung
DE102013000066A1 (de) * 2013-01-08 2014-07-10 Audi Ag Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8890813B2 (en) * 2009-04-02 2014-11-18 Oblong Industries, Inc. Cross-user hand tracking and shape recognition user interface
US9785330B1 (en) * 2008-02-13 2017-10-10 Apple Inc. Systems for and methods of providing inertial scrolling and navigation using a fingerprint sensor calculating swiping speed and length
US9684380B2 (en) * 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8878779B2 (en) * 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
KR101708696B1 (ko) * 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9122311B2 (en) * 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US8811938B2 (en) * 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9246961B2 (en) * 2013-11-27 2016-01-26 Facebook, Inc. Communication user interface systems and methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4201934A1 (de) 1992-01-24 1993-07-29 Siemens Ag Gestik computer
EP1408443A1 (de) 2002-10-07 2004-04-14 Sony France S.A. Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
EP1477924A2 (de) 2003-03-31 2004-11-17 HONDA MOTOR CO., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
DE102006037154A1 (de) * 2006-03-27 2007-10-18 Volkswagen Ag Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
US20090158203A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Scrolling displayed objects using a 3D remote controller in a media system
DE102013201746A1 (de) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interaktion mit fahrzeugbedienungselementen durch gestenerkennung
DE102013000066A1 (de) * 2013-01-08 2014-07-10 Audi Ag Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kurtenbach et al. ("Gestures in Human-Computer Communication" in "The Art of Human-Computer Interface Design", pp. 309-317, 1990)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022111443A1 (de) 2022-05-09 2023-11-09 Diehl Ako Stiftung & Co. Kg Berührungslose Steuereinrichtung für einen Präsentationsbereich sowie Bedieneinheit

Also Published As

Publication number Publication date
WO2015162058A1 (de) 2015-10-29
US20170038851A1 (en) 2017-02-09
US10585487B2 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
DE112014003563B4 (de) Vorrichtung und Verfahren zur Gestenbestimmung, Gestenbedienungsvorrichtung, Programm und Aufzeichnungsmedium
EP2720929B1 (de) Verfahren und vorrichtung zur unterstützung eines fahrers bei einer spurführung eines fahrzeugs auf einer fahrbahn
DE102012216193B4 (de) Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
EP1840522B1 (de) Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
EP3097468B1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
DE102014207637A1 (de) Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
EP2653335B1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102009035422B4 (de) Verfahren zur geometrischen Bildtransformation
WO2017054894A1 (de) Interaktives bediensystem und verfahren zum durchführen einer bedienhandlung bei einem interaktiven bediensystem
WO2016120251A1 (de) Verfahren zum betreiben einer eingabevorrichtung, eingabevorrichtung
DE102014226553A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
DE102015201728A1 (de) Verfahren zum Auswählen eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
DE202015100273U1 (de) Eingabevorrichtung
WO2016096940A1 (de) Verfahren zum betreiben einer eingabevorrichtung, eingabevorrichtung, kraftfahrzeug
DE102014204289A1 (de) Erfassung von Freiraumgesten und Feedback
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102015215044A1 (de) Verfahren und System zur Verarbeitung multimodaler Eingabesignale
DE102017007120A1 (de) Verfahren zur Fernsteuerung
WO2020052894A1 (de) Verfahren zum unterstützen eines benutzers beim durchführen eines scroll-vorgangs, vorrichtung und kraftfahrzeug
DE102014224632A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2015010829A1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102018211908A1 (de) Verfahren für das Erfassen eines digitalen Bildes einer Umgebung eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer Bilderfassungseinrichtung
EP3966061B1 (de) Mensch-maschine-interaktion in einem kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed