DE102012021252A1 - Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug - Google Patents

Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug Download PDF

Info

Publication number
DE102012021252A1
DE102012021252A1 DE201210021252 DE102012021252A DE102012021252A1 DE 102012021252 A1 DE102012021252 A1 DE 102012021252A1 DE 201210021252 DE201210021252 DE 201210021252 DE 102012021252 A DE102012021252 A DE 102012021252A DE 102012021252 A1 DE102012021252 A1 DE 102012021252A1
Authority
DE
Germany
Prior art keywords
operating
touch
sensor
operating device
operating means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201210021252
Other languages
English (en)
Inventor
Johann Schneider
Ulrich Müller
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE201210021252 priority Critical patent/DE102012021252A1/de
Publication of DE102012021252A1 publication Critical patent/DE102012021252A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft eine Bedienvorrichtung (10) und ein Verfahren zum Ansteuern von Funktionseinheiten, insbesondere von Funktionseinheiten eines Kraftfahrzeugs. Der wenigstens eine Sensor (22, 12) dient dem Erfassen einer Position eines Bedienmittels (14) relativ zu einer berührungsempfindlichen Oberfläche (26) der Bedienvorrichtung (10). Auf einer Anzeige (20) ist in Abhängigkeit von der Position des Bedienmittels (14) ein Symbol (18) darstellbar. Hierbei ist ein erster Sensor (22) zum Erfassen zumindest einer Koordinate des Bedienmittels (14) in zumindest einer erster Raumrichtung (X, Y) und ein zweiter Sensor (12) zum Erfassen zumindest einer Koordinate des Bedienmittels (14) in zumindest einer zweiten Raumrichtung (Z) vorgesehen. Eine Auswerteeinrichtung (32) dient dem Ermitteln der Position des Bedienmittels (14) anhand der Koordinaten. Des Weiteren betrifft die Erfindung ein Kraftfahrzeug mit einer solchen Bedienvorrichtung (10).

Description

  • Die Erfindung betrifft eine Bedienvorrichtung zum Ansteuern von Funktionseinheiten. Sie umfasst wenigstens einen Sensor zum Erfassen einer Position eines Bedienmittels relativ zu einer berührungsempfindlichen Oberfläche der Bedienvorrichtung. Auf einer Anzeige der Bedienvorrichtung ist in Abhängigkeit von der Position des Bedienmittels relativ zu der Oberfläche ein Symbol darstellbar. Des Weiteren betrifft die Erfindung ein Kraftfahrzeug mit einer solchen Bedienvorrichtung sowie ein Verfahren zum Ansteuern von Funktionseinheiten.
  • Eine Bedienvorrichtung der eingangs genanten Art ist aus dem Kraftwagenbau bekannt. Hierbei werden mit einem Bedienmittel wie etwa einem Finger einer Bedienperson Eingaben auf einem Touchpad vorgenommen. Je nach der Position des Fingers auf dem Touchpad wird auf einem Bildschirm ein Symbol dargestellt, welches etwa nach Art eines Cursors oder Mauspfeils ausgebildet sein kann.
  • Die US 2002/0041260 A1 beschreibt eine Bedienvorrichtung für ein Kraftfahrzeug, wobei im Kraftfahrzeug eine nicht berührungsempfindliche Bedienfläche angeordnet ist. Auf dieser Bedienfläche können mittels eines Fingers Bedieneingaben vorgenommen werden, indem ein Sensor wie beispielsweise eine Kamera eine Position der Fingerspitze im Raum erfasst. Hierbei werden mittels der Kamera Koordinaten der Fingerspitze in drei Raumrichtungen erfasst. In Abhängigkeit von der Position der Fingerspitze wird auf einer Anzeige, beispielsweise einem Headup-Display, ein Anzeigesymbol dargestellt, etwa ein Pfeil, welcher in das Sichtfeld des Fahrers eingeblendet wird.
  • Die DE 10 2006 028 046 A1 beschreibt das Umschalten einer Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug zwischen einem reinen Bildschirm zur Anzeige von Inhalten und einem Touchscreen. Hierbei kann mittels eines kapazitiven Sensors und einer Kamera die Position einer Fingerspitze im Raum vor dem Bildschirm erfasst werden. Wenn die Fingerspitze dem Bildschirm vergleichsweise nahe kommt, so wird die Anzeige- und Bedienvorrichtung als Touchscreen betrieben, welcher nicht nur dem Anzeigen von Inhalten dient, sondern auch Bedieneingaben zulässt.
  • Die DE 10 2006 019 065 A1 beschreibt eine Eingabeschnittstelle für ein Fahrzeugcockpit, bei welcher mittels eines Elektrodennetzwerks die Position einer Hand in einem Erfassungsbereich im Fahrzeug erfasst wird. Durch eine Handbewegung in dem Erfassungsbereich hin zu einem Schaltknauf kann ein auf einem Display dargestellter Menüpunkt ausgewählt werden. Eine berührungsempfindliche Oberfläche eines Touchpads ist auf dem Schaltknauf vorhanden. Bedieneingaben innerhalb des ausgewählten Menüpunkts erfolgen dann mittels eines auf die berührungsempfindliche Oberfläche des Touchpads aufgelegten Fingers der Hand. Mittels des Touchpads oder einer Kamera wird hierbei die Position der Fingerspitze in drei Raumrichtungen erfasst. Wird dann über das Touchpad eine Bedieneingabe vorgenommen, beispielsweise das Verstellen eines Fahrzeugsitzes, so wird diese Stelloperation auf dem Display visualisiert.
  • Die DE 102 28 110 A1 beschreibt eine Bedieneinheit für Kraftfahrzeugkomponenten. Hierbei ist in einer Wand eines Armaturenbretts oder einer Mittelkonsole des Kraftfahrzeugs eine Eingabefläche angeordnet. Die Bewegung eines Fingers auf der Eingabefläche wird in die Bewegung eines Cursors auf einem Bildschirm umgesetzt. Hierbei wird die Bewegung des Fingers mittels einer Kamera erfasst, welche unterhalb der Eingabefläche angeordnet ist.
  • Die DE 10 2005 014 774 A1 beschreibt eine Benutzerschnittstelle mit Eingabevorschau, bei welcher mittels eines Berührungssensors oder einer Kamera die Annäherung eines Fingers an ein Bedienelement oder das Berühren des Bedienelements erfasst wird. Das Bedienelement, welches beispielsweise dem Ansteuern von Funktionseinheiten eines Kraftfahrzeugs dient, wird dann auf einem Bildschirm dargestellt und von anderen Bedienelementen unterscheidbar auf dem Bildschirm hervorgehoben. So kann eine quasi blinde Bedienung der Bedienelemente vorgenommen werden. Bei der Annäherung oder Berührung wird auch eine erläuternde Information zu dem entsprechenden Bedienelement auf dem Bildschirm dargestellt.
  • Als nachteilig ist hierbei der Umstand anzusehen, dass die Erfassung der Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche bei diesen aus dem Stand der Technik bekannten Bedienvorrichtungen vergleichsweise aufwändig ist.
  • Aufgabe der vorliegenden Erfindung ist es daher, eine Bedienvorrichtung sowie ein Verfahren der eingangs genannten Art und ein Kraftfahrzeug mit einer solchen Bedienvorrichtung zu schaffen, mittels welcher bzw. mittels welchem auf besonders einfache Art und Weise die relative Position des Bedienmittels bestimmbar ist.
  • Diese Aufgabe wird durch eine Bedienvorrichtung mit den Merkmalen des Patentanspruchs 1, ein Kraftfahrzeug mit den Merkmalen des Patentanspruchs 9 und durch ein Verfahren mit den Merkmalen des Patentanspruchs 10 gelöst. Vorteilhafte Ausgestaltungen mit zweckmäßigen Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.
  • Bei der erfindungsgemäßen Bedienvorrichtung ist ein erster Sensor vorgesehen, mittels welchem zumindest eine Koordinate des Bedienmittels in zumindest einer ersten Raumrichtung erfassbar ist, und ein zweiter Sensor, mittels welchem zumindest eine Koordinate des Bedienmittels in zumindest einer zweiten Raumrichtung erfassbar ist. Eine Auswerteeinrichtung der Bedienvorrichtung dient dem Ermitteln. der Position des Bedienmittels anhand der Koordinaten. Es können also jeweils zum Erfassen der Koordinaten des Bedienmittels in die unterschiedlichen Raumrichtungen besonders gut geeignete Sensoren zum Einsatz kommen, so dass auf besonders einfache Art und Weise die Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche bestimmt werden kann.
  • Dem liegt die Erkenntnis zugrunde, dass vergleichsweise hohe Anforderungen an den Sensor zu stellen sind, wenn die unterschiedlichen Koordinaten des Bedienmittels mit ein und demselben Sensor erfasst werden sollen. Beispielsweise ist es mit einem besonders großen technischen und somit auch finanziellen Aufwand verbunden, wenn mittels einer Kamera sowohl eine Lageinformation oder Koordinate einer Fingerspitze in der Ebene als auch eine Lageinformation oder Koordinate der Fingerspitze im Raum über der Ebene bestimmt werden sollen. Dieser Aufwand ist vorliegend vermeidbar, da für die Erfassung der Lageinformation in den unterschiedlichen Raumrichtungen zumindest zwei unterschiedliche Sensoren zum Einsatz kommen, welche jeweils für das Erfassen der Koordinate des Bedienmittels in der jeweiligen Raumrichtung besonders geeignet sind.
  • Als Bedienmittel kann insbesondere ein Finger einer Bedienperson zum Einsatz kommen, welcher sich oberhalb der berührungsempfindlichen Oberfläche und auch auf der berührungsempfindlichen Oberfläche bewegen lässt.
  • Durch Bewegen des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche kann hierbei von der Bedienperson das Sich-Bewegen des Symbols auf der Anzeige veranlasst werden. Die Position des Bedienmittels, beispielsweise der Fingerspitze, relativ zu der berührungsempfindlichen Oberfläche wird dann auf der Anzeige durch Darstellung des Symbols, etwa eines Cursors, eines Auswahlpunkts oder eines Mauspfeils wiedergegeben.
  • Durch das einfache und dennoch sehr genaue Erfassen der Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche kann besonders leicht eine intuitive und präzise Ansteuerung der Funktionseinheiten vorgenommen werden. Bei diesen Funktionseinheiten kann es sich insbesondere um Funktionseinheiten eines Kraftfahrzeugs handeln, nämlich dann, wenn die Bedienvorrichtung in einem Kraftfahrzeug angeordnet ist.
  • In einer vorteilhaften Ausgestaltung der Erfindung sind der erste Sensor zum Erfassen von Koordinaten des Bedienmittels in einer Längsrichtung und in einer Querrichtung der berührungsempfindlichen Oberfläche und der zweite Sensor zum Erfassen der Koordinate des Bedienmittels in einer Hochrichtung ausgebildet. Dann brauchen lediglich zwei Sensoren vorgesehen zu werden, und dennoch ist eine hochgenaue Ermittlung der Position des Bedienmittels im Raum möglich.
  • Bevorzugt sind der erste Sensor als Kamera und der zweite Sensor als Abstandssensor ausgebildet. Selbst mit einer vergleichsweise einfachen Kamera lassen sich nämlich leicht und sehr präzise die Koordinaten des Bedienmittels in der Ebene erfassen. Wird diese Information um den Abstand des Bedienmittels von der berührungsempfindlichen Oberfläche ergänzt, so lässt sich auf besonders einfache Art und Weise die Position des Bedienmittels, etwa der Fingerspitze, im Raum angeben. Als Abstandssensor kann hierbei insbesondere ein Infrarotsensor und/oder ein kapazitiver Sensor zum Einsatz kommen. Es kann insbesondere ein Infrarotsensor zusätzlich zu einem kapazitiven Sensor zum Einsatz kommen, um eine besonders große Genauigkeit bei der Erfassung des Abstands des Bedienmittels von der der berührungsempfindlichen Oberfläche sicherzustellen.
  • Besonders vorteilhaft ist es jedoch, wenn der zweite Sensor zum Erfassen eines Berührens der berührungsempfindlichen Oberfläche der Bedienvorrichtung ausgebildet ist. Dann kann nämlich die ohnehin zum Erfassen von Bewegungen auf der berührungsempfindlichen Oberfläche vorzusehene Technologie zugleich dazu verwendet werden, den Abstand des Bedienmittels von der berührungsempfindlichen Oberfläche zu bestimmen, also die Entfernung des noch nicht oder nicht mehr auf der berührungsempfindlichen Oberfläche aufgesetzten Bedienmittels von der Oberfläche.
  • Die Kamera ist hierbei bevorzugt derart angeordnet, dass das Bedienmittel in einem zwischen der Kamera und der berührungsempfindlichen Oberfläche vorhandenen Raum positionierbar ist. Mit anderen Worten ist die Kamera oberhalb der berührungsempfindlichen Oberfläche angeordnet, sodass sich besonders einfach Bewegungen in die durch die berührungsempfindliche Oberfläche angebbaren Raumrichtungen mit der Kamera erfassen lassen. Dies hat des Weiteren den Vorteil, dass eine in Fahrzeugen teilweise ohnehin schon vorhandene Kamera zum Einsatz kommen kann, wenn die Bedienvorrichtung dem Ansteuern von Funktionseinheiten des Fahrzeugs dienen soll.
  • Als weiter vorteilhaft hat es sich gezeigt, wenn die Bedienvorrichtung eine Steuerungseinrichtung umfasst, welche dem Verändern der Darstellung des Symbols auf der Anzeige in Abhängigkeit von der Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche dient. Dann kann nämlich der das Bedienmittel, etwa den Finger, nutzenden Bedienperson besonders leicht kommuniziert werden, in welchem Bereich im Raum oberhalb der Oberfläche und zugleich in welchem Abstand von der berührungsempfindlichen Oberfläche sich die Fingerspitze befindet. Dies ist beispielsweise dann vorteilhaft, wenn die Bedienperson die berührungsempfindliche Oberfläche nutzen möchte, um auf der Anzeige darzustellende Buchstaben oder Schriftzeichen einzugeben, indem sie die Fingerspitze auf der berührungsempfindlichen Oberfläche bewegt.
  • Hier kommt es nämlich auf das genaue Positionieren der Fingerspitze auf der berührungsempfindlichen Oberfläche an. Wenn nun die Bedienperson schon beim Annähern der Fingerspitze an die berührungsempfindliche Oberfläche leicht feststellen kann, wo die Fingerspitze in Bälde aufsetzen wird, so kann die Bedienperson eine gegebenenfalls nicht gewünschte Positionierung der Fingerspitze noch korrigieren. Es kann also die Fingerspitze jeweils besonders genau platziert werden, etwa beim Schreiben von Buchstaben oder Schriftzeichen auf der berührungsempfindlichen Oberfläche. Dies ist. einer leichteren Erkennung des Buchstabens oder Schriftzeichens durch die Bedienvorrichtung in besonderem Maße zuträglich.
  • Eine besonders einfache und deutliche Veränderung der Darstellung des Symbols ist erreichbar, wenn sich gemäß einer weiteren vorteilhaften Ausgestaltung der Erfindung die Größe und/oder die Form und/oder der Schärfeneindruck eines Randbereichs des Symbols in Abhängigkeit von der Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche ändern. So kann beispielsweise das Symbol bei einem vergleichsweise großen Abstand von der berührungsempfindlichen Oberfläche groß und mit einem nicht scharf gezeichneten, sondern diffus ausgebildeten Randbereich dargestellt werden. Demgegenüber kann das Symbol bei geringem Abstand von der berührungsempfindlichen Oberfläche kleiner und mit einem scharf gegenüber der Umgebung abgegrenzten Randbereich dargestellt werden. So wird der Bedienperson das Sich-Annähern der Fingerspitze an die berührungsempfindliche Oberfläche besonders gut visualisiert.
  • Zusätzlich oder alternativ können jedoch auch eine Farbe und/oder ein Kontrast des Symbols in Abhängigkeit von der Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche verändert werden. Auch dies vermittelt der Bedienperson einen besonders leicht eingängigen Eindruck des Sich-Annäherns der Fingerspitze an die berührungsempfindliche Oberfläche.
  • Von Vorteil ist es weiterhin, wenn mittels des Bedienelements wenigstens eine erste Bedienhandlung vornehmbar ist, wenn das Bedienmittel von der berührungsempfindlichen Oberfläche der Bedienvorrichtung beabstandet ist, wobei wenigstens eine zweite, von der ersten Bedienhandlung verschiedene Bedienhandlung vornehmbar ist, wenn das Bedienmittel die berührungsempfindliche Oberfläche berührt. Wenn beispielsweise auf der Anzeige eine dreidimensionale oder zweidimensionale Karte dargestellt wird, so kann diese Karte bei von der Oberfläche der Bedienvorrichtung beabstandetem Bedienmittel gedreht, verschoben und/oder vergrößert oder verkleinert werden. Demgegenüber kann dann beim Aufsetzen des Bedienmittels auf die Oberfläche auf der Karte ein Markierungspunkt erscheinen, etwa ein Fadenkreuz oder dergleichen, welcher dann auf der Karte verschiebbar ist. So lassen sich die auf der Anzeige darstellbaren Inhalte besonders einfach und intuitiv bedienen.
  • Hierbei hat es sich als vorteilhaft gezeigt, wenn mittels der ersten Bedienhandlung ein auf der Anzeige darstellbares übergeordnetes Menü und mittels der zweiten Bedienhandlung ein auf der Anzeige darstellbares untergeordnetes Menü aufrufbar ist. Beispielsweise kann sich auf der Anzeige das Symbol zwischen Hauptmenüeinträgen hin und her bewegen, wenn sich entsprechend das Bedienmittel, welches die berührungsempfindliche Oberfläche noch nicht berührt, oberhalb dieser Oberfläche bewegt. Beim Aufsetzen des Bedienmittels auf die berührungsempfindliche Oberfläche und damit einhergehend beim Auswählen eines Hauptmenüeintrags mit dem Symbol auf der Anzeige öffnet sich dann ein untergeordnetes Kontextmenü zu diesem Hauptmenüeintrag. Eine Fehlbedienung ist hierbei besonders weitgehend ausgeschlossen, da die Bewegung des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche besonders gut nachvollziehbar ist.
  • Das erfindungsgemäße Kraftfahrzeug umfasst eine erfindungsgemäße Bedienvorrichtung. Die Bedienvorrichtung ist hierbei zum Bedienen eines Infotainment-Systems des Kraftfahrzeugs ausgebildet. Mittels eines solchen Infotainment-Systems können beispielsweise ein Radio, ein CD-Spieler, ein DVD-Spieler, ein Fernsehgerät, ein Navigationssystem, ein Telefon, ein Adressbuch oder dergleichen angesteuert werden. Des Weiteren lassen sich durch Bedienen des Infotainment-Systems bevorzugt Einstellungen am Kraftfahrzeug vornehmen, etwa Einstellungen einer Klimaanlage, eines Fahrwerks, eines Fahrmodus, Sitz- und Spiegeleinstellungen und dergleichen. Ein solches Infotainment-System lässt sich mittels der erfindungsgemäßen Bedienvorrichtung besonders einfach und intuitiv bedienen.
  • Bei dem erfindungsgemäßen Verfahren zum Ansteuern von Funktionseinheiten, bei welchen es sich insbesondere um Funktionseinheiten eines Kraftfahrzeugs handeln kann, kommt eine Bedienvorrichtung zum Einsatz. Mittels wenigstens eines Sensors der Bedienvorrichtung wird eine Position eines Bedienmittels relativ zu einer berührungsempfindlichen Oberfläche der Bedienvorrichtung erfasst. In Abhängigkeit von der Position des Bedienmittels relativ zu der berührungsempfindlichen Oberfläche wird auf einer Anzeige der Bedienvorrichtung ein Symbol dargestellt. Mittels eines ersten Sensors wird zumindest eine Koordinate des Bedienmittels in zumindest einer ersten Raumrichtung und mittels eines zweiten Sensors zumindest eine Koordinate des Bedienmittels in zumindest einer zweiten Raumrichtung erfasst. Mittels einer Auswerteeinrichtung der Bedienvorrichtung wird dann die relative Position des Bedienmittels anhand der Koordinaten ermittelt. Durch die Verwendung der dem Erfassen von Lageinformationen in den jeweiligen Raumrichtungen dienenden, unterschiedlichen Sensoren lässt sich auf besonders einfache Art und Weise die Relativposition des Bedienmittels bestimmen.
  • Die für die erfindungsgemäße Bedienvorrichtung beschriebenen Vorteile und bevorzugten Ausführungsformen gelten auch für das erfindungsgemäße Kraftfahrzeug und das erfindungsgemäße Verfahren und umgekehrt.
  • Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus den Ansprüchen, der nachfolgenden Beschreibung bevorzugter Ausführungsformen sowie anhand der Zeichnungen. Dabei zeigen:
  • 1 schematisch eine Bedienvorrichtung zum Ansteuern von Funktionseinheiten eines Kraftfahrzeugs, bei welcher eine Kamera die Koordinaten einer Fingerspitze einer Bedienperson in Längsrichtung und in Querrichtung eines Touchpads erfasst, wobei mittels des Touchpads der Abstand der Fingerspitze von einer Oberfläche des Touchpads erfasst wird;
  • 2 die Darstellung eines Auswahlpunkts auf einem Bildschirm der Bedienvorrichtung bei einem vergleichsweise großen Abstand der Fingerspitze von dem Touchpad; und
  • 3 die Darstellung des Auswahlpunkts bei sehr geringem Abstand der Fingerspitze von dem Touchpad.
  • Eine Bedienvorrichtung 10 zum Ansteuern von Funktionseinheiten eines Kraftfahrzeugs umfasst vorliegend ein Touchpad 12 mit einer berührungsempfindlichen Oberfläche 26. Das Touchpad 12 ist vorliegend in ein Innenraumteil 28 des Kraftwagens integriert, beispielsweise in eine Instrumententafel oder eine Mittelkonsole.
  • Auf der Oberfläche 26 des Touchpads 12 können mit einem Bedienmittel, etwa mit der Fingerspitze 14 eines Fingers einer Hand 16 Bedienhandlungen vorgenommen werden. Eine Position der Fingerspitze 14 relativ zu der Oberfläche 26 des Touchpads 12 spiegelt sich in der Position eines Auswahlpunkts 18 oder nach Art eines Mauspfeils ausgebildeten Cursors oder dergleichen wieder, welcher auf einer Anzeige der Bedienvorrichtung 10, etwa auf einem Bildschirm 20 dargestellt wird. Die Anzeige kann jedoch auch als Headup-Display ausgebildet sein.
  • Wird also die Fingerspitze 14 entweder oberhalb des Touchpads 12 oder auf der Oberfläche 26 des Touchpads 12 aufliegend relativ zu dieser bewegt, so bewegt sich auch entsprechend der Auswahlpunkt 18 auf dem Bildschirm 20. So können beispielsweise (in 1 nicht gezeigte) Menüeinträge, welche auf dem Bildschirm 20 dargestellt sind, mittels des Auswahlpunkts 18 ausgewählt und entsprechend aktiviert werden. Durch Entlangfahren mit der Fingerspitze 14 auf der Oberfläche 26 des Touchpads 12 können jedoch auch Buchstaben oder Schriftzeichen auf dem Bildschirm 20 dargestellt werden, wobei der Auswahlpunkt 18 hierbei die jeweilige Position der Fingerspitze 14 auf dem Touchpad 12 wiedergibt.
  • Vorliegend ist oberhalb des Touchpads 12 eine Kamera 22 der Bedienvorrichtung 10 angeordnet, mittels welcher die Position der sich über dem Touchpad 12 befindlichen Hand 16 der Bedienperson ermittelt wird. Wird nun ein Finger, typischerweise der Zeigefinger ausgestreckt, so wird auch dies von der Kamera 22 erkannt, indem eine mit der Kamera 22 verbundene Bildauswertungseinheit, welche beispielsweise in ein Steuergerät 24 oder in die Kamera 22 selber integriert sein kann, die von der Kamera 22 erfassten Bilder auswertet.
  • Das Steuergerät 24 setzt entsprechend die Position der Fingerspitze 14 relativ zu dem Touchpad 12 in eine Position des Auswahlpunkts 18 auf dem Bildschirm 20 um. Hierbei erfasst die Kamera 22 Koordinaten der Fingerspitze 14 in zwei voneinander verschiedene Raumrichtungen, nämlich in eine Längsrichtung X und in eine Querrichtung Y der Oberfläche 26 des Touchpads 12. Für eine solche Erfassung der Koordinaten der Fingerspitze 14 in der Ebene ist nämlich die Kamera 22 besonders gut geeignet.
  • Demgegenüber wäre es vergleichsweise aufwändig, mittels der Kamera 22 auch den Abstand der Fingerspitze 14 von der Oberfläche 26 des Touchpads 12 zu erfassen. Der Abstand von der Oberfläche 26 beziehungsweise eine Koordinate der Fingerspitze 14 in eine Hochrichtung Z wird daher vorliegend über die beispielsweise kapazitive Sensorik des Touchpads 12 ermittelt. Dadurch, dass diese unterschiedlichen Sensoren, nämlich die Kamera 22 einerseits und das Touchpad 12 andererseits, die Koordinaten der Fingerspitze 14 in unterschiedlichen Raumrichtungen erfassen, lässt sich die Lage der Fingerspitze 14 im Raum zwischen der Kamera 22 und dem Touchpad 12 besonders präzise und einfach erfassen.
  • Dem Steuergerät 24 werden also Signale der Kamera 22 und des Touchpads 12 zugeführt, um anhand der von diesen Sensoren ermittelten Koordinaten die räumliche Position der Fingerspitze 14 zu ermitteln. Hierfür weist das Steuergerät 24 eine Auswerteeinrichtung 32 auf. Das Steuergerät 24 steuert dann entsprechend den Bildschirm 20 an und sorgt dafür, dass der Auswahlpunkt 18 an einer der Position der Fingerspitze 14 relativ zu der Oberfläche 26 entsprechenden Stelle auf dem Bildschirm 20 dargestellt wird.
  • Vorliegend wird jedoch der Abstand der Fingerspitze 14 von der Oberfläche 26 des Touchpads 12, welche der Kamera 22 zugewandt ist, auch im Hinblick auf die Darstellung des Auswahlpunkts 18 auf dem Bildschirm 20 berücksichtigt. Dies ist anhand der 2 und der 3 veranschaulicht.
  • Befindet sich nämlich die Fingerspitze 14 in einem vergleichsweise großen Abstand von der Oberfläche 26 des Touchpads 12, so wird der Auswahlpunkt 18 auf dem Bildschirm 20 mit einem vergleichsweise großen Durchmesser und einem vergleichsweise unscharfen, diffusen Randbereich 30 dargestellt (vergleiche 2). Dadurch wird der Bedienperson, welche ihre Hand 16 und somit die Fingerspitze 14 hin zu der Oberfläche 26 des Touchpads 12 bewegt, besonders deutlich visualisiert, dass die Fingerspitze 14 noch vergleichsweise weit von der Oberfläche 26 entfernt ist.
  • Bei sehr geringem Abstand der Fingerspitze 14 von der Oberfläche 26 (vergleiche 3) wird der Auswahlpunkt 18 hingegen mit einem vergleichsweise kleinen Durchmesser und zugleich sehr scharfem Randbereich 30 dargestellt.
  • Durch diese infolge der Annäherung an die Oberfläche 26 nicht mehr diffuse, sondern konkrete Kontur des Auswahlpunkts 18 wird der Bedienperson also besonders gut visualisiert, dass sich die Fingerspitze 14 unmittelbar oberhalb der Oberfläche 26 des Touchpads 12 befindet. Durch das Verändern der Größe und des Schärfeneindrucks des Auswahlpunkts 18 kann es sich also die Bedienperson sehr gut klarmachen, wenn sich die Fingerspitze 14 der Oberfläche 26 des Touchpads 12 annähert.
  • Dies ist beispielsweise dann vorteilhaft, wenn auf dem Touchpad 12 Schriftzeichen oder Buchstaben geschrieben werden sollen. Dann weiß die Bedienperson nämlich besonders gut, wo die Fingerspitze 14 gleich mit der Oberfläche 26 des Touchpads 12 in Kontakt gelangen wird. Es kann dadurch von der Bedienperson die Fingerspitze 14 besonders präzise auf der Oberfläche 26 des Touchpads 12 platziert werden.
  • Zusätzlich oder alternativ kann vorgesehen sein, dass über Veränderungen der Form und/oder Farbe und/oder eines Kontrasts des Auswahlpunkts 18 das Sich-Annähern beziehungsweise Sich-Entfernen der Fingerspitze 14 von der Oberfläche 26 des Touchpads 12 auf dem Bildschirm 20 visualisiert wird.
  • Des Weiteren kann vorgesehen sein, dass bei von der Oberfläche 26 beabstandeter Fingerspitze 14 andere Bedienhandlungen vornehmbar sind als bei die Oberfläche 26 berührender Fingerspitze 14. So können beispielsweise auf dem Bildschirm 20 dargestellte Hauptmenüeinträge ausgewählt werden, indem die von der Oberfläche 26 beabstandete Fingerspitze 14 sich in die Längsrichtung X und die Querrichtung Y bewegt. Durch Aufsetzen der Fingerspitze 14 auf die Oberfläche 26 wird dann ein kontextabhängiges, untergeordnetes Menü aufgerufen. In diesem untergeordneten Menü können dann durch Entlangfahren auf dem Touchpad 12 entsprechende Menüpunkte ausgewählt und aktiviert werden.
  • Auch kann bei von der Oberfläche 26 des Touchpads 12 beabstandeter Fingerspitze 14 beispielsweise eine auf dem Bildschirm 20 dargestellte Karte gedreht, vergrößert oder verkleinert werden, indem der Auswahlpunkt 18 bewegt wird. Beim Aufsetzen der Fingerspitze 14 auf die Oberfläche 26 des Touchpads 12 erscheint dann auf der Karte ein anders gestalteter Auswahlpunkt 18, etwa ein Fadenkreuz, welches sich dann auf der Karte verschieben lässt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2002/0041260 A1 [0003]
    • DE 102006028046 A1 [0004]
    • DE 102006019065 A1 [0005]
    • DE 10228110 A1 [0006]
    • DE 102005014774 A1 [0007]

Claims (10)

  1. Bedienvorrichtung zum Ansteuern von Funktionseinheiten, insbesondere eines Kraftfahrzeugs, mit wenigstens einem Sensor (22, 12) zum Erfassen einer Position eines Bedienmittels (14) relativ zu einer berührungsempfindlichen Oberfläche (26) der Bedienvorrichtung (10), und mit einer Anzeige (20) zum Darstellen eines Symbols (18) in Abhängigkeit von der Position des Bedienmittels (14), gekennzeichnet durch einen ersten Sensor (22) zum Erfassen zumindest einer Koordinate des Bedienmittels (14) in zumindest einer ersten Raumrichtung (X, Y), einen zweiten Sensor (12) zum Erfassen zumindest einer Koordinate des Bedienmittels (14) in zumindest einer zweiten Raumrichtung (Z) und eine Auswerteeinrichtung (32) zum Ermitteln der Position des Bedienmittels (14) anhand der Koordinaten.
  2. Bedienvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der erste Sensor (22) zum Erfassen von Koordinaten des Bedienmittels in einer Längsrichtung (X) und in einer Querrichtung (Y) der berührungsempfindlichen Oberfläche (26) und der zweite Sensor (12) zum Erfassen der Koordinate des Bedienmittels (14) in einer Hochrichtung (Z) ausgebildet sind.
  3. Bedienvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der erste Sensor als Kamera (22) und der zweite Sensor als Abstandssensor (12) ausgebildet sind.
  4. Bedienvorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass der zweite Sensor (12) zum Erfassen eines Berührens der berührungsempfindlichen Oberfläche (26) der Bedienvorrichtung (10) ausgebildet und die Kamera (22) derart angeordnet ist, dass das Bedienmittel (14) in einem zwischen der Kamera (22) und der berührungsempfindlichen Oberfläche (26) vorhandenen Raum positionierbar ist.
  5. Bedienvorrichtung nach einem der Ansprüche 1 bis 4, gekennzeichnet durch eine Steuerungseinrichtung (24) zum Verändern der Darstellung des Symbols (18) auf der Anzeige (20) in Abhängigkeit von der Position des Bedienmittels (14).
  6. Bedienvorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass mittels der Steuerungseinrichtung (24) – eine Größe und/oder – eine Form und/oder – ein Schärfeneindruck eines Randbereichs und/oder – eine Farbe und/oder – ein Kontrast des Symbols (18) in Abhängigkeit von der Position des Bedienmittels (14) veränderbar ist.
  7. Bedienvorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass mittels des Bedienmittels (14) wenigstens eine erste Bedienhandlung vornehmbar ist, wenn das Bedienmittel (14) von der berührungsempfindlichen Oberfläche (26) der Bedienvorrichtung (10) beabstandet ist, und wenigstens eine zweite, von der ersten Bedienhandlung verschiedene Bedienhandlungen vornehmbar ist, wenn das Bedienmittel (14) die berührungsempfindliche Oberfläche (26) berührt.
  8. Bedienvorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass mittels der ersten Bedienhandlung ein auf der Anzeige (20) darstellbares übergeordnetes Menü und mittels der zweiten Bedienhandlung ein auf der Anzeige (20) darstellbares untergeordnetes Menü aufrufbar ist.
  9. Kraftfahrzeug mit einer Bedienvorrichtung (10) nach einem der Ansprüche 1 bis 8, wobei die Bedienvorrichtung (10) zum Bedienen eines Infotainment-Systems des Kraftfahrzeugs ausgebildet ist.
  10. Verfahren zum Ansteuern von Funktionseinheiten, insbesondere von Funktionseinheiten eines Kraftfahrzeugs, mittels einer Bedienvorrichtung (10), bei welchem mittels wenigstens eines Sensors (22, 12) eine Position eines Bedienmittels (14) relativ zu einer berührungsempfindlichen Oberfläche (26) der Bedienvorrichtung (10) erfasst wird, und bei welchem auf einer Anzeige (20) der Bedienvorrichtung (10) in Abhängigkeit von der Position des Bedienmittels (14) ein Symbol (18) dargestellt wird, dadurch gekennzeichnet, dass mittels eines ersten Sensors (22) zumindest eine Koordinate des Bedienmittels (14) in zumindest einer ersten Raumrichtung (X, Y) und mittels eines zweiten Sensor (12) zumindest eine Koordinate des Bedienmittels (14) in zumindest einer zweiten Raumrichtung (Z) erfasst und mittels einer Auswerteeinrichtung (32) der Bedienvorrichtung (10) die Position des Bedienmittels (14) anhand der Koordinaten ermittelt wird.
DE201210021252 2012-10-30 2012-10-30 Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug Ceased DE102012021252A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210021252 DE102012021252A1 (de) 2012-10-30 2012-10-30 Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210021252 DE102012021252A1 (de) 2012-10-30 2012-10-30 Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102012021252A1 true DE102012021252A1 (de) 2014-04-30

Family

ID=50479407

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210021252 Ceased DE102012021252A1 (de) 2012-10-30 2012-10-30 Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102012021252A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211065A1 (de) 2017-05-19 2018-11-22 Daimler Ag Handschrifterkennung in einem fahrzeug

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020041260A1 (en) 2000-08-11 2002-04-11 Norbert Grassmann System and method of operator control
DE10228110A1 (de) 2002-06-24 2004-01-15 Siemens Ag Bedieneinheit für Kraftfahrzeugkomponenten
DE102005014774A1 (de) 2005-03-31 2006-10-05 Siemens Ag Verfahren zur Eingabevorschau und Benutzerschnittstelle mit Eingabevorschau
DE102006019065A1 (de) 2006-04-22 2007-10-25 Ident Technology Ag Eingabeschnittstelle für ein Fahrzeugcockpit
DE102006028046A1 (de) 2006-06-19 2007-12-20 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
US20090219255A1 (en) * 2007-11-19 2009-09-03 Woolley Richard D Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US20120105613A1 (en) * 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020041260A1 (en) 2000-08-11 2002-04-11 Norbert Grassmann System and method of operator control
DE10228110A1 (de) 2002-06-24 2004-01-15 Siemens Ag Bedieneinheit für Kraftfahrzeugkomponenten
DE102005014774A1 (de) 2005-03-31 2006-10-05 Siemens Ag Verfahren zur Eingabevorschau und Benutzerschnittstelle mit Eingabevorschau
DE102006019065A1 (de) 2006-04-22 2007-10-25 Ident Technology Ag Eingabeschnittstelle für ein Fahrzeugcockpit
DE102006028046A1 (de) 2006-06-19 2007-12-20 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
US20090219255A1 (en) * 2007-11-19 2009-09-03 Woolley Richard D Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US20120105613A1 (en) * 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211065A1 (de) 2017-05-19 2018-11-22 Daimler Ag Handschrifterkennung in einem fahrzeug
DE102017004860A1 (de) 2017-05-19 2018-11-22 Daimler Ag Handschrifterkennung in einem Fahrzeug

Similar Documents

Publication Publication Date Title
EP1840522B1 (de) Navigationsgerät und Verfahren zum Betreiben eines Navigationsgeräts
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP3113969B1 (de) Anwenderschnittstelle und verfahren zur signalisierung einer 3d-position eines eingabemittels bei der gestenerfassung
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
DE102009048043A1 (de) Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung
DE102014200993A1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
WO2009010114A1 (de) Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung
EP2425321B1 (de) Verfahren und vorrichtung zum anzeigen von in listen geordneter information
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102008061987A1 (de) Bedienverfahren und Bedieneinrichtung
DE102013114794A1 (de) Gekrümmter Bildschirm
DE102012025032B4 (de) Anzeigevorrichtung für ein Kraftfahrzeug und Verfahren zum Betreiben einer solchen Anzeigevorrichtung
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102009039114B4 (de) Bedienvorrichtung für ein Fahrzeug
DE102012021252A1 (de) Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug
EP3347804B1 (de) Bedienvorrichtung mit zeicheneingabe und löschfunktion
EP2818353B1 (de) Bedienvorrichtung in einem Fahrzeug und Verfahren zum Bedienen von Funktionseinrichtungen eines Fahrzeugs
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
EP2885153B1 (de) Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung für ein fahrzeug
DE102016221588A1 (de) Bedienungssystem für ein Fahrzeug
DE102012021251A1 (de) Bedienvorrichtung und Verfahren zum Ansteuern von Funktionseinheiten und Kraftfahrzeug
EP3025214A1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013223518A1 (de) Anzeigevorrichtung und Verfahren zur Steuerung einer Anzeigevorrichtung
DE102014222751A1 (de) Vorrichtung für Fahrzeuge zur Bedienung von GUIs mit mehreren Ebenen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20150123