DE102013013697B4 - Apparatus and method for entering characters in free space - Google Patents

Apparatus and method for entering characters in free space Download PDF

Info

Publication number
DE102013013697B4
DE102013013697B4 DE102013013697.0A DE102013013697A DE102013013697B4 DE 102013013697 B4 DE102013013697 B4 DE 102013013697B4 DE 102013013697 A DE102013013697 A DE 102013013697A DE 102013013697 B4 DE102013013697 B4 DE 102013013697B4
Authority
DE
Germany
Prior art keywords
virtual
writing
plane
display
trace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013013697.0A
Other languages
German (de)
Other versions
DE102013013697A1 (en
Inventor
Manuel Kühner
Johann Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102013013697.0A priority Critical patent/DE102013013697B4/en
Publication of DE102013013697A1 publication Critical patent/DE102013013697A1/en
Application granted granted Critical
Publication of DE102013013697B4 publication Critical patent/DE102013013697B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3611Destination input or retrieval using character input or menus, e.g. menus of POIs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Vorrichtung (10) zum berührungslosen Eingeben von Schriftzeichen (11, 12, 13), aufweisend ein Display (14) und
eine Erkennungseinheit (15) zum Erkennen einer Schriftspur und
eine virtuelle Schreibebene (20) in einem Raum vor dem Display (14), wobei durch die Lage der Schriftspur im Raum die virtuelle Schreibebene (20) festlegt wird,
wobei mit der Erkennungseinheit (15) die Schriftspur in der virtuellen Schreibebene (20) erkennbar ist,
wobei mit der Erkennungseinheit (15) bei Verlassen der Schriftspur aus der virtuellen Schreibebene (20) heraus ein Eingeben der Schriftspur als beendet erkennbar ist und
mit der Erkennungseinheit (15) die Schriftspur als Schriftzeichen (11, 12, 13) erkennbar ist, wobei
die Erkennungseinheit dazu ausgebildet ist, in einer virtuellen Display-Blattebene (32) eine Bedienung eines virtuellen Bedienelements (30, 31) zu erkennen, und
die Display-Blattebene (32) zwischen dem Display (14) und der Schreibebene (20) angeordnet ist, wobei
die Erkennungseinheit (15) dazu ausgebildet ist, dass die Display-Blattebene (32) in Abhängigkeit von der Lage der virtuellen Schreibebene (20) adaptiv für jeden Bedienvorgang erneut festgelegt wird.

Figure DE102013013697B4_0000
Device (10) for the contactless input of characters (11, 12, 13), having a display (14) and
a recognition unit (15) for recognizing a writing trace and
a virtual writing plane (20) in a room in front of the display (14), the virtual writing plane (20) being determined by the position of the writing track in the room,
the writing trace in the virtual writing plane (20) being recognizable with the recognition unit (15),
with the recognition unit (15) being able to recognize input of the writing trace as finished when leaving the writing trace from the virtual writing plane (20) and
with the recognition unit (15), the text trace can be recognized as characters (11, 12, 13), wherein
the recognition unit is designed to recognize operation of a virtual operating element (30, 31) in a virtual display sheet level (32), and
the display sheet plane (32) is arranged between the display (14) and the writing plane (20), wherein
the recognition unit (15) is designed so that the display sheet level (32) is adaptively re-established for each operating process as a function of the position of the virtual writing level (20).
Figure DE102013013697B4_0000

Description

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Eingeben von Schriftzeichen. Ferner betrifft die Erfindung ein Fahrzeug, in dem die erfindungsgemäße Vorrichtung installiert ist.The invention relates to a device and a method for entering characters. The invention also relates to a vehicle in which the device according to the invention is installed.

Ein Eingeben von Schriftzeichen, insbesondere von Buchstaben, Zahlen oder Wörtern, wird bei vielen Anwendungen in der Automobiltechnik benötigt. Beispielsweise werden bei Navigationsgeräten Schrifteingaben von einem Nutzer durchgeführt, um einen Ort auszuwählen. Als Eingabegeräte kommen beispielsweise Monitore mit Touch-sensitiver Oberfläche oder Touchscreens, Touchpads oder konventionelle Bedienelemente, wie Dreh-Drück-Steller zur Anwendung. Hierbei erfolgt bisher eine Schrifteingabe durch Berühren einer physisch vorhandenen Oberfläche. Die Oberfläche besteht typischerweise aus Kunststoff oder Glas. Hierbei werden beispielsweise Buchstaben auf einem Display vorgegeben, die durch Berühren des Displays ausgewählt werden können, um ein Wort, wie einen Straßennamen, zu schreiben.Entering characters, in particular letters, numbers or words, is required in many applications in automotive engineering. For example, in navigation devices, written entries are made by a user in order to select a location. For example, monitors with touch-sensitive surfaces or touchscreens, touchpads or conventional control elements such as rotary pushbuttons are used as input devices. Up to now, text has been entered by touching a physically existing surface. The surface is typically made of plastic or glass. Here, for example, letters are specified on a display that can be selected by touching the display in order to write a word such as a street name.

Neuere Entwicklungen sehen eine berührungslose Bedienung solcher Geräte vor, indem beispielsweise Gesten erkannt werden und daraufhin eine Aktion eingeleitet wird. DE 10 2011 089 195 A1 beschreibt eine Vorrichtung zur berührungslosen Erfassung von Gegenständen und Gesten zur Bedienung einer Anzeigeeinheit in einem Fahrzeuginnenraum. Eine Gestenbedienung hat den Nachteil, dass die Gesten in vielen Fällen zuvor von dem Nutzer, beispielsweise dem Fahrer des Fahrzeugs oder dem Beifahrer, erlernt werden müssen, um eine Reaktion des bedienten Systems zu bewirken.More recent developments provide for the contactless operation of such devices, for example by recognizing gestures and then initiating an action. DE 10 2011 089 195 A1 describes a device for the contactless detection of objects and gestures for operating a display unit in a vehicle interior. Gesture operation has the disadvantage that in many cases the gestures have to be learned beforehand by the user, for example the driver of the vehicle or the front passenger, in order to bring about a reaction from the operated system.

Ferner sind Vorrichtungen bekannt, bei denen Schrifteingaben virtuell vorgenommen werden und nicht mehr über eine Tastatur oder durch Berühren eines Displays eingegeben werden. US 2012/0105613 A1 beschreibt eine solche Möglichkeit für eine Schrifteingabe für eine Automobilanwendung, die durch Fingerbewegung bewirkt wird. Man geht demnach bei verschiedenen Anwendungen zu einer Bedienung über, die eine Schrifteingabe im Raum vorsieht. Hierbei werden definierte Eingabebereiche vorsehen, um die Schrifteingabe durchzuführen. Dies hat den Nachteil, dass sie für die Anwendung in einem Fahrzeug eher unbrauchbar sind, da oft der Fahrer eine Schrifteingäbe machen möchte, während er sich hinter dem Lenkrad befindet. Oft wird die Schrifteingabe nicht erkannt, weil der Fahrer im falschen Winkel in Bezug auf den Eingabebereich sitzt.Furthermore, devices are known in which text entries are made virtually and are no longer entered via a keyboard or by touching a display. US 2012/0105613 A1 describes one such possibility for text input for an automotive application that is effected by moving a finger. Accordingly, in various applications one goes over to an operation that provides for written input in the room. Defined input areas are provided in order to carry out the writing input. This has the disadvantage that they are rather unusable for use in a vehicle, since the driver often wants to type in writing while he is behind the steering wheel. Often the text input is not recognized because the driver is sitting at the wrong angle in relation to the input area.

Ferner ist aus DE 10 2011 121 585 A1 eine Anzeigevorrichtung mit einer Erfassungseinrichtung in einem Kraftfahrzeug bekannt, mit der mittels eines in einen über einer definierten freiliegenden Fläche definierten dreidimensionalen Raum eingedrungenen Gegenstands durchgeführte Bewegungen erfasst werden. Hierbei können diskrete Zeichen in Form von Buchstaben und/oder Zahlen ausgewertet werden.It is also off DE 10 2011 121 585 A1 a display device with a detection device in a motor vehicle is known, with which movements carried out are detected by means of an object that has penetrated a three-dimensional space defined over a defined exposed surface. Discrete characters in the form of letters and / or numbers can be evaluated here.

Aus der Druckschrift DE 10 2010 027 915 A1 ist eine Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems bekannt. Handbewegungen werden zwischen einem ersten und einem zweiten Abstand von einer Fern-Tastfeld-Einheit erkannt.From the pamphlet DE 10 2010 027 915 A1 a user interface device for controlling a vehicle multimedia system is known. Hand movements are detected between a first and a second distance by a remote touch panel unit.

Die Druckschrift WO 2009/024112 A2 beschreibt eine Anzeigeeinrichtung mit Bildfläche. Die Lage eines Bedienelements oder Körperteils wird durch Näherungssensorik detektiert und dadurch wird eine bestimmte Teilbildfläche selektiert. Unterschreitet der Abstand des Bedienelements einen Grenzabstand, so wird ein Bedienbefehl ausgelöst.The pamphlet WO 2009/024112 A2 describes a display device with a picture surface. The position of a control element or part of the body is detected by proximity sensors and a certain partial image area is selected as a result. If the distance between the operating element falls below a limit distance, an operating command is triggered.

Außerdem offenbart die Druckschrift US 2011/0254765 A1 ein Gerät zur handschriftlichen Texteingabe. Eine Ebene wird in die Trajektorie einer Handbewegung eingepasst. Der Nutzer kann damit die Schreibebene frei wählen.The document also discloses US 2011/0254765 A1 a device for handwritten text entry. A plane is fitted into the trajectory of a hand movement. The user can thus freely choose the writing level.

Ebenso zeigt die Druckschrift DE 10 2007 045 967 A1 ein Verfahren und eine Vorrichtung zur berührungslosen Eingabe von Schriftzeichen. Eine Eingabe in der Nähe einer Anzeige eines Navigationssystems kann erkannt und eine entsprechende Funktion zugewiesen werden.The publication also shows DE 10 2007 045 967 A1 a method and a device for the contactless input of characters. An input in the vicinity of a display of a navigation system can be recognized and a corresponding function can be assigned.

Der Erfindung liegt die Aufgabe zugrunde, eine Vorrichtung und ein Verfahren für eine berührungslose Schrifteingabe vorzuschlagen, welche eine verbesserte Eingabemöglichkeit von Schriftzeichen in einem Fahrzeug bereitstellen:

  • Diese Aufgabe wird mit einer Vorrichtung zum berührungslosen Eingeben von Schriftzeichen nach Anspruch 1 gelöst.
The invention is based on the object of proposing a device and a method for contactless writing input, which provide an improved input option for characters in a vehicle:
  • This object is achieved with a device for the contactless input of characters according to claim 1.

Ferner wird die Aufgabe der Erfindung mit einem Verfahren zum berührungslosen Eingeben von Schriftzeichen nach Anspruch 7 gelöst.Furthermore, the object of the invention is achieved with a method for the contactless input of characters according to claim 7.

Der Grundgedanke der Erfindung geht somit davon aus, dass die Schrifteingabe im freien Raum ermöglicht wird, ohne dass ein Display berührt wird. Es handelt sich somit um eine berührungslose Schrifteingabe. Hierbei können ein oder mehrere Schriftzeichen innerhalb einer Eingabe erfolgen und von der Erkennungseinheit erkannt werden, wie beispielsweise Teile von Telefonnummern oder Wortbestandteile. Es kann ferner vorgesehen werden, dass die Erkennungseinheit anhand der erkannten Folge von Schriftzeichen einen hinterlegten Eintrag vorschlägt. Zur Eingabe können Schriftzeichen in Großbuchstaben, Kleinbuchstaben oder eine Kombination hieraus verwendet werden. Ferner kann die erfindungsgemäße Vorrichtung Einzelbuchstaben oder zusammenhängende Buchstaben, beispielsweise bei Verwendung einer Schreibschrift erkennen.The basic idea of the invention is therefore based on the fact that writing is enabled in free space without touching a display. It is therefore a contactless written input. One or more characters can be made within an input and recognized by the recognition unit, such as parts of telephone numbers or parts of words. It can also be provided that the recognition unit suggests a stored entry on the basis of the recognized sequence of characters. To input can Uppercase, lowercase, or a combination thereof may be used. Furthermore, the device according to the invention can recognize single letters or connected letters, for example when using cursive script.

Die Schrifteingabe erfordert nicht, dass zuvor eine Ebene zur Schrifteingabe festgelegt worden ist. Vielmehr legt eine Schriftspur eine virtuelle Schreibebene fest. Man schreibt somit „in der Luft“. Es wird eine Schrifteingabe im Raum mit einer virtuellen Schreibebene ermöglicht, ohne dass der Nutzer frontal vor der Vorrichtung eine Eingabe durchführen muss. Vielmehr kann er bequem von seiner Position im Fahrzeug die Eingabe von Schriftzeichen durchführen, da die Vorrichtung die virtuelle Schreibebene aufgrund der Vorgabe einer Schriftspur im Raum durch den Nutzer erkennt und festlegt. So kann der Fahrer wie auch der Beifahrer die Vorrichtung bedienen, ohne dass von der bisherigen Sitzposition des Nutzers abgewichen werden muss.Font input does not require that a level for font input has been specified beforehand. Rather, a text trace defines a virtual writing plane. So you write “in the air”. It is possible to enter text in space with a virtual writing plane without the user having to make an entry in front of the device. Rather, he can comfortably enter characters from his position in the vehicle, since the device recognizes and defines the virtual writing plane on the basis of the user's specification of a script in space. The driver as well as the front passenger can operate the device without having to deviate from the previous seating position of the user.

Von Vorteil ist, dass nach der Erfindung Schriftzeichen anhand einer Schriftspur erkannt werden. Schriftzeichen werden im allgemeinen erlernt, um eine Sprache, wie Deutsch oder Chinesisch zu verstehen, wobei das Erlernen unabhängig von einer Bedienung der Vorrichtung erfolgt. Im Gegensatz hierzu muss eine Geste, die die Vorrichtung versteht, erst von dem Nutzer erlernt oder antrainiert werden. Somit ist die Bedienung durch Schriftzeichen eine einfachere Bedienungsweise, ohne dass man vorher die Eigenschaften der Vorrichtung und deren Bedienung erlernt haben muss. Die Schriftspur wird nach einem Verlassen der virtuellen Schreibebene als Schriftzeichen erkannt. Hierbei kann ein Schriftzeichen ein einzelner Buchstabe oder eine Zahl sein, die in einer Sprache verwendet werden. Ferner kann das Schriftzeichen auch ein komplexes Zeichen sein, beispielsweise mit Symbolcharakter, wie dies in asiatischen Sprachen vorkommt.It is advantageous that, according to the invention, characters are recognized on the basis of a script trace. Characters are generally learned in order to understand a language such as German or Chinese, the learning taking place independently of an operation of the device. In contrast to this, a gesture that the device understands must first be learned or trained by the user. Operation by means of characters is therefore a simpler operation without having to first learn the properties of the device and how to operate it. The writing trace is recognized as a character after leaving the virtual writing plane. A character can be a single letter or a number that is used in a language. Furthermore, the character can also be a complex character, for example with a symbolic character, as occurs in Asian languages.

Mit der Erkennungseinheit wird bei Verlassen der Schriftspur aus der virtuellen Ebene heraus ein Eingeben der Schriftspur als beendet erkannt. Das Verlassen kann hierbei in beide Richtungen der virtuellen Ebene erfolgen, d.h. zum Nutzer hin oder zum Nutzer weg gerichtet. Hierbei kann die Erkennungseinheit eine Normal-Bewegung, d.h. eine Bewegung senkrecht zur virtuellen Ebene erkennen und deutet dies als Verlassen der virtuellen Ebene. Als Erkennungseinheit eignet sich jede technische Vorrichtung, die im dreidimensionalen Raum eine Schriftspur erkennen kann. Dies kann beispielsweise mit einem Sensorsystem erfolgen. Hierbei kann ein Sensor des Sensorsystems Infrarotstrahlung aussenden und einen reflektierten Strahl verwenden, um eine Laufzeit direkt oder indirekt festzustellen. Eine indirekte Laufzeitmessung kann beispielsweise über eine Phasenverschiebung bestimmt werden. Auch sind weitere Technologien denkbar, die beispielsweise auf Ultraschall oder Lasertechnik basieren. Ferner können visuelle Bilderfassungssysteme verwendet werden, beispielsweise ein Einpixel-Sensor, ein Infrarot-Sensor oder eine Kamera. Ferner können auch Technologien als Erkennungseinheit eingesetzt werden, die auf Ultraschall basieren. Die Erkennungseinheit kann auch eine Berechnungseinheit aufweisen, die Berechnungsverfahren zur Schriftzeichenerkennung bereitstellt. Hierbei können einzelne Buchstaben und/oder Wortbestandteile und/oder vollständige Wörter erkannt und vorgeschlagen werden.With the recognition unit, when leaving the writing trail from the virtual plane, entering the writing trail is recognized as finished. You can leave the virtual plane in both directions, i.e. towards the user or away from the user. Here, the recognition unit can recognize a normal movement, i.e. a movement perpendicular to the virtual plane and interprets this as leaving the virtual plane. Any technical device that can recognize a text trace in three-dimensional space is suitable as a recognition unit. This can be done with a sensor system, for example. Here, a sensor of the sensor system can emit infrared radiation and use a reflected beam in order to determine a transit time directly or indirectly. An indirect transit time measurement can be determined, for example, via a phase shift. Other technologies based, for example, on ultrasound or laser technology are also conceivable. Furthermore, visual imaging systems can be used, for example a single-pixel sensor, an infrared sensor or a camera. Furthermore, technologies based on ultrasound can also be used as a detection unit. The recognition unit can also have a calculation unit which provides calculation methods for character recognition. Individual letters and / or word components and / or complete words can be recognized and suggested.

Zum Erzeugen der Schriftspur eignet sich jeder Gegenstand, der in der Luft bewegt werden kann und mit dem eine Schriftspur in dem Raum vorgegeben werden kann. Zur Eingeben der Schriftspur kann beispielsweise ein Finger des Nutzers verwendet werden. Auch kann beispielsweise ein Stift oder ein Gegenstand ähnlicher Geometrie verwendet werden, um eine Schriftspur in der Luft zu schreiben.Any object that can be moved in the air and that can be used to specify a text trace in the room is suitable for generating the traces of writing. For example, a finger of the user can be used to enter the text trace. For example, a pen or an object of similar geometry can also be used to write a trace in the air.

In einem bevorzugten Ausführungsbeispiel kann vorgesehen werden, dass die virtuelle Schreibebene gekrümmt ist. Die virtuelle Schreibebene ist ein fiktiver Bereich im Raum, der somit mathematisch gesehen keine Ebene sondern eine drei-dimensionale Raumfläche sein kann. Eine gekrümmte virtuelle Schreibebene hat den Vorteil, dass das Schreiben der Schriftspur auf einer virtuellen Ebene erfolgt, die in einer ergonomisch bequem erreichbaren Position für den Nutzer liegt. Die virtuelle Schreibebene kann beispielsweise aus dem Ellenbogen oder Handgelenk des Nutzers heraus beschrieben werden kann. Eine Blickabwendung durch den Fahrer als Nutzer der erfindungsgemäßen Vorrichtung während der Fahrt kann durch die ergonomische Position minimiert werden.In a preferred embodiment it can be provided that the virtual writing plane is curved. The virtual writing plane is a fictitious area in space, which mathematically speaking can therefore not be a plane but a three-dimensional space. A curved virtual writing plane has the advantage that the writing of the writing track takes place on a virtual plane which is in an ergonomically convenient position for the user. The virtual writing plane can, for example, be written from the user's elbow or wrist. The driver, as the user of the device according to the invention, averted his eyes while driving can be minimized by the ergonomic position.

Mit Vorteil kann vorgesehen werden, dass die virtuelle Schreibebene für jedes Schriftzeichen erneut festgelegt wird. Dies bedeutet, dass die virtuelle Schreibebene einen adaptiven Charakter aufweist, so dass auch bei einer Bewegung des Nutzers während der Eingabe von Schriftzeichen keinen negativen Einfluss auf die Erkennung des Schriftzeichens hat. Eine solche adaptive Schreibebene kann frei im Raum liegen und gekrümmt sein.It can advantageously be provided that the virtual writing plane is defined again for each character. This means that the virtual writing plane has an adaptive character, so that even if the user moves while entering characters, it has no negative influence on the recognition of the characters. Such an adaptive writing plane can lie freely in space and be curved.

Hierbei ist ferner von Vorteil, dass jedes Schriftzeichen einzeln erkannt wird. Dies erleichtert eine Eingabe durch den Nutzer, der zwischen den einzelnen Schriftzeichen eine Pause machen kann, weil beispielsweise die Verkehrssituation es gerade nicht erlaubt, ein weiteres Schriftzeichen einzugeben.Another advantage here is that each character is recognized individually. This facilitates an input by the user, who can take a break between the individual characters because, for example, the traffic situation does not allow entering another character.

In einem weiteren erfindungsgemäßen Ausführungsbeispiel kann vorgesehen sein, dass die eingegebene Schriftspur auf dem Display anzeigbar ist. Dies hat den Vorteil, dass die Eingabe der Schriftspur auf dem Display vom Nutzer mitverfolgt werden kann. Ferner kann auf dem Display auch durch eine Wortvervollständigungs-Funktion der Erkennungseinheit ein oder mehrere Wörter vorgeschlagen werden, so dass der Nutzer seine geplante Eingabe schneller vervollständigen kann. Der Nutzer kann eine Eingabe direkt vor dem Bildschirm durchführen. Auch ist es möglich, dass der Nutzer eine Eingabe in einen Bereich fernab von dem Bildschirm durchführt. Auch in diesem Fall können die entsprechenden Eingaben auf dem Display angezeigt werden.In a further exemplary embodiment according to the invention, it can be provided that the entered text trace can be shown on the display. This has the advantage that the entry of the text trace on the display can be followed by the user. Furthermore, one or more words can be suggested on the display by a word completion function of the recognition unit, so that the user can complete his planned input more quickly. The user can make an entry directly in front of the screen. It is also possible for the user to make an entry in an area remote from the screen. In this case too, the relevant entries can be shown on the display.

Gemäß einem erfindungsgemäßen Ausführungsbeispiel weist die virtuelle Schreibebene ein Toleranzband auf, wobei außerhalb des Toleranzbandes die virtuelle Schreibebene endet und an einer dem Display zugewandten Seite des Toleranzbandes eine virtuelle Menüebene angeordnet ist. Dies bedeutete, dass innerhalb des Toleranzbandes eine Schriftspur erkannt wird und mit der Erkennungseinheit bei Verlassen der Schriftspur aus der virtuellen Schreibebene heraus einschließlich des Toleranzbandes ein Eingeben der Schriftspur als beendet erkennbar ist. Unter der virtuellen Schreibebene kann auch eine virtuelle Blattebene verstanden werden, auf der der Nutzer schreibt. Es kann vorgesehen werden, dass zusätzlich zu der schriftlichen Eingabe auch ein Menü in der Menüebene bedient werden kann. Die Menüebene ist ebenfalls eine virtuelle Ebene im Raum, die als zweidimensionaler oder dreidimensionaler Bereich ausgebildet ist, der in unmittelbarer Nähe zum Toleranzband angeordnet ist. Somit ist die Menüebene eine virtuelle Menüebene. In dieser Menüebene kann beispielsweise ein virtueller Knopf der Vorrichtung bedient werden, beispielsweise ein Bestätigungsknopf. Der virtuelle Knopf kommt besonders in Erscheinung, wenn die Vorrichtung ein dreidimensionales Display (3D-Display) aufweist, so dass der virtuelle Knopf aus dem Display oder Bildschirm der Vorrichtung virtuell heraustritt. Das 3D-Display kann beispielsweise ein 3D-Touch-Display sein.According to an exemplary embodiment according to the invention, the virtual writing plane has a tolerance band, the virtual writing plane ending outside the tolerance band and a virtual menu level being arranged on a side of the tolerance band facing the display. This meant that within the tolerance band a trace of writing is recognized and, with the recognition unit, when leaving the trace of writing out of the virtual writing plane, including the tolerance band, input of the trace is recognizable as being ended. The virtual writing plane can also be understood as a virtual sheet plane on which the user writes. It can be provided that, in addition to the written input, a menu can also be operated on the menu level. The menu level is also a virtual level in space, which is designed as a two-dimensional or three-dimensional area that is arranged in the immediate vicinity of the tolerance band. The menu level is thus a virtual menu level. In this menu level, for example, a virtual button of the device can be operated, for example a confirmation button. The virtual button is particularly apparent when the device has a three-dimensional display (3D display), so that the virtual button virtually emerges from the display or screen of the device. The 3D display can be a 3D touch display, for example.

Es kann ferner vorgesehen werden, dass die Vorrichtung Teil eines Navigationsgerätes ist. Hierbei kann das Navigationsgerät aus der Ferne bedient werden, ohne dass eine Berührung des Navigationsgerätes notwendig ist. Ferner kann die erfindungsgemäße Vorrichtung zur Bedienung eines elektronischen Gerätes zum Suchen von beliebigen Einträgen verwendet werden. Beispielsweise kann die erfindungsgemäße Vorrichtung zur Bedienung eines Telefonbuchs verwendet werden, um einen Telefonbucheintrag, beispielsweise, eine Kontaktperson oder eine Telefonnummer auszuwählen. Auch kann die erfindungsgemäße Vorrichtung zur Bedienung eines elektronischen Gerätes mit einer Musiksammlung verwendet werden, um beispielsweise einen Musiktitel auszuwählen.It can also be provided that the device is part of a navigation device. Here, the navigation device can be operated remotely without having to touch the navigation device. Furthermore, the device according to the invention can be used to operate an electronic device to search for any entries. For example, the device according to the invention can be used for operating a telephone book in order to select a telephone book entry, for example a contact person or a telephone number. The device according to the invention can also be used to operate an electronic device with a music collection, for example in order to select a music title.

Auch wird die Aufgabe der Erfindung mit einem Fahrzeug gelöst, in dem die erfindungsgemäße Vorrichtung installiert ist. Das Fahrzeug kann beispielsweise ein Kraftfahrzeug oder ein Nutzfahrzeug sein. Die Vorrichtung wird bevorzugterweise im Innenraum des Fahrzeugs installiert und kann beispielsweise an der Mittelkonsole angeordnet sein. Auf diese Weise kann , die erfindungsgemäße Vorrichtung sowohl vom Fahrer als auch vom Beifahrer bedienbar sein.The object of the invention is also achieved with a vehicle in which the device according to the invention is installed. The vehicle can be, for example, a motor vehicle or a utility vehicle. The device is preferably installed in the interior of the vehicle and can for example be arranged on the center console. In this way, the device according to the invention can be operated by both the driver and the front passenger.

Bei dem erfindungsgemäßen Verfahren wird eine Unterscheidbarkeit der einzelnen Eingaben gewährleistet. Hierbei kann vorgesehen werden, dass ein erster Buchstabe „in die Luft“ - geschrieben wird. Durch eine erkannte Fingerspur wird eine gemittelte Ebene im Raum bestimmt, die sogenannte virtuelle Schreibebene. Die Ebene kann auch gewölbt ausgeführt werden, um beispielsweise der Bewegungsmöglichkeiten des jeweiligen Gelenks, z.B. Hand-, Ellbogen oder Schultergelenk Rechnung zu tragen. Ferner kann die virtuelle Schreibebene bei jedem neuen Buchstaben bzw. Eingabe adaptiv erneut festgelegt werden.The method according to the invention ensures that the individual inputs can be distinguished. It can be provided that a first letter is written “in the air”. A recognized fingerprint determines an averaged level in space, the so-called virtual writing level. The plane can also be arched, for example to allow for the range of motion of the respective joint, e.g. hand, elbow or shoulder joint. Furthermore, the virtual writing plane can be adaptively redefined for each new letter or input.

Desweiteren kann das erfindungsgemäße Verfahren ein Erkennen einer Initialisierungsgeste vorsehen, die ein Beginn eines berührungslosen Eingebens einer Schriftspur signalisiert. Die Aktivierung der Schrifteingabe kann somit durch eine Aktivierungs- bzw. Initialisierungs-Geste erfolgen. Hierbei kann die Initialisierungsgeste eine Wischgeste oder ein akustisches Signal sein. Bevorzugt ist beispielsweise eine Wischgeste angelehnt an das Wischen einer Schultafel, die eine nahezu horizontale Bewegung links-rechts-links oder rechts-links-rechts aufweist. Dies kann als ein eindeutiges Startsignal zum Erkennen von Schriftzeichen verwendet werden, ohne dass die Initialisierungs-Geste selbst mit einer Schriftspur verwechselt werden kann. Die Eingabe kann alternativ auch ohne eine Initialisierungsgeste eingeleitet werden. Dies kann beispielsweise erfolgen, wenn die Menüführung eine Schrifteingabe erwartet und hierzu eine Bereitschaft anzeigt.Furthermore, the method according to the invention can provide for recognition of an initialization gesture which signals the start of a contactless entry of a text trace. The activation of the written input can thus take place through an activation or initialization gesture. The initialization gesture can be a swiping gesture or an acoustic signal. For example, a swiping gesture based on the swiping of a school blackboard that has an almost horizontal movement left-right-left or right-left-right is preferred. This can be used as an unambiguous start signal for recognizing characters without the initialization gesture itself being confused with a text trace. Alternatively, the input can also be initiated without an initialization gesture. This can be done, for example, when the menu guidance is expecting written input and indicates readiness for this.

Im folgenden werden weitere Ausführungsbeispiele der Erfindung anhand von Merkmalen in Bezug auf die erfindungsgemäße Vorrichtung näher beschrieben. Es versteht sich, dass diese Merkmale auch das erfindungsgemäße Verfahren betreffen. Die folgenden Figuren sind schematisch, wobei gleiche oder ähnliche Elemente mit gleichen Bezugszeichen versehen sind.

  • 1 zeigt eine Vorrichtung zum berührungslosen Eingeben von Schriftzeichen in einer Draufsicht; und
  • 2 zeigt die Vorrichtung der 1 in einer Seitenansicht.
In the following, further exemplary embodiments of the invention are described in more detail with reference to features relating to the device according to the invention. It goes without saying that these features also relate to the method according to the invention. The following figures are schematic, the same or similar elements being provided with the same reference symbols.
  • 1 shows a device for contactless input of characters in a plan view; and
  • 2 shows the device of 1 in a side view.

1 zeigt eine Vorrichtung 10 zum berührungslosen Eingeben von Schriftzeichen 11, 12, 13, wobei die Vorrichtung 10 in diesem Ausführungsbeispiel Teil eines Navigationsgerätes ist. Ferner sind weitere elektronische Geräte mit einer virtuellen Eingabe denkbar, die zur Anwendung kommen können, wie Geräte mit Musiksammlungen oder Geräte mit Telefonbucheinträgen. Die Vorrichtung 10 weist einen Bildschirm 14, auch Display 14 genannt, und eine Erkennungseinheit 15 auf. Die Erkennungseinheit 15 weist hierbei zwei Sensor-Systeme 16, 17 auf, die in einem Randbereich des Displays 14 angeordnet sind. Das Display 14 ist zusätzlich zu einer Draufsicht von oben in Frontalansicht im oberen Bereich der 1 dargestellt und zeigt drei Schriftzeichen 11, 12, 13, die bereits von der Erkennungseinheit 15 erkannt wurden. 1 shows a device 10 for contactless entry of characters 11 , 12th , 13 , the device 10 in this embodiment is part of a navigation device. Further electronic devices with a virtual input that can be used, such as devices with music collections or devices with phone book entries, are also conceivable. The device 10 has a screen 14th , also display 14th called, and a recognition unit 15th on. The recognition unit 15th has two sensor systems 16 , 17th on the edge of the display 14th are arranged. the display 14th is in addition to a top view from above in frontal view in the upper area of 1 shown and shows three characters 11 , 12th , 13 that are already used by the recognition unit 15th recognized.

In einem Abstand 18 zum Display 14 in 1 möchte ein Nutzer durch eine Fingerbewegung 19, angedeutet durch Pfeile, ein weiteres Schriftzeichen eingeben. Vor Beginn der Eingabe der bisherigen Schriftzeichen 11, 12, 13 hat der Nutzer eine Initialisierungsbewegung in Form einer Wischbewegung als Geste ausgeführt. Diese wurde von der Erkennungseinheit 15 erkannt, so dass die Erkennungseinheit 15 für eine Schriftzeicheneingabe aktiviert wurde. Zur Fortsetzung der Eingabe bewegt der Nutzer nun seinen Finger, hier der Zeigefinger, im freien Raum vor dem Display 14, so dass er das gewünschte weitere Schriftzeichen in die Luft schreibt. Hierbei erkennt die Erkennungseinheit 15 die Lage einer Schriftspur im Raum und legt eine adaptive virtuelle Schreibebene 20 fest. In dieser virtuellen adaptiven Schreibebene 20 verfolgt die Erkennungseinheit 15 die Schriftspur und legt auch einen Toleranzbereich 21 oder ein Toleranzband 21 fest, innerhalb dessen die Schriftspur als solche erkannt wird. Die Schriftspur ist demnach ein Schriftzeichen, das noch nicht. vollendet ist und sich noch in einem Eingabevorgang befindet, bei dem die Erkennungseinheit 15 die Schriftspur erkennt und analysiert und schließlich als Schriftzeichen erkennt. Die Erkennungseinheit 15 erkennt die vier eingegebenen Schriftzeichen, hier vier Buchstaben, und schlägt beispielsweise zur Vervollständigung des erkannten : Wortbestandteils mit den vier Buchstaben ein Wort vor, das mit den erkannten vier Buchstaben beginnt. Der Nutzer kann die Eingabe beenden, indem er das vorgeschlagene Wort auswählt, indem er beispielsweise ein virtuelles Bedienelement der erfindungsgemäßen Vorrichtung 10 betätigt. Sofern der Nutzer eine Schriftzeichenfolge eingeben möchte, die nicht dem Vorschlag der Erkennungseinheit entspricht, kann der Nutzer die Eingabe durch ein weiteres Schriftzeichen fortsetzen. Dies bedeutet, dass der Nutzer, nicht nur ein Schriftzeichen während einer Eingabe eingeben kann, sondern „auf einmal“ mehrere Schriftzeichen eingeben kann, die von der Erkennungseinheit als Wortbestandteil erkannt werden.At a distance 18th to the display 14th in 1 a user wants to do it with a finger movement 19th , indicated by arrows, enter another character. Before starting to enter the previous characters 11 , 12th , 13 the user has performed an initialization movement in the form of a swiping movement as a gesture. This was from the recognition unit 15th recognized so that the recognition unit 15th has been activated for character input. To continue the input, the user now moves his finger, here the index finger, in the free space in front of the display 14th so that he writes the desired additional character in the air. The recognition unit recognizes this 15th the position of a trace in space and defines an adaptive virtual writing plane 20th firmly. In this virtual adaptive writing plane 20th tracks the recognition unit 15th the text trace and also sets a tolerance range 21st or a tolerance band 21st within which the trace is recognized as such. The trace is therefore a character that is not yet. is completed and is still in an input process in which the recognition unit 15th recognizes and analyzes the traces of writing and finally recognizes them as characters. The recognition unit 15th recognizes the four characters entered, here four letters, and suggests, for example, a word that begins with the recognized four letters to complete the recognized word component with the four letters. The user can end the input by selecting the suggested word, for example by using a virtual operating element of the device according to the invention 10 actuated. If the user would like to enter a character string which does not correspond to the suggestion of the recognition unit, the user can continue the input with another character. This means that the user can not only enter one character during an input, but can enter several characters “at once” which are recognized by the recognition unit as a word component.

In 1 hat der Toleranzbereich 21 der virtuellen Schreibebene 20 im vorliegenden Fall eine Ausdehnung in vertikaler Richtung bezogen auf die Displayoberfläche von etwa 6 cm. Hierbei ist die virtuelle Schreibebene 20 mittig innerhalb des Toleranzbereiches 21 angeordnet, so dass etwa 3 cm vor der virtüellen Schreibebene 20 und 3 cm hinter der virtuellen Schreibebene 20 vom Nutzer aus betrachtet vorhanden sind. Die Angaben der Abstände können je nach Ausführung der Vorrichtung 10 einen anderen Wert annehmen, daher sind die hier aufgeführten Angaben exemplarische Beispiele für eine mögliche Ausführungsform.In 1 has the tolerance range 21st the virtual writing plane 20th in the present case an extension in the vertical direction based on the display surface of about 6 cm. Here is the virtual writing level 20th centrally within the tolerance range 21st arranged so that about 3 cm in front of the virtual writing plane 20th and 3 cm behind the virtual writing plane 20th are available from the perspective of the user. The details of the distances can vary depending on the design of the device 10 assume a different value, therefore the information given here are exemplary examples of a possible embodiment.

Der Nutzer schreibt nun eine Schriftspur in den Raum, d.h. „in die Luft“ vor dem Display. 14 und kann gleichzeitig auf dem Display 14 seine Eingabe verfolgen. In dem vorliegenden Ausführungsbeispiel möchte der Nutzer in dem Navigationsgerät einen Zielort auswählen und gibt daher ein Schriftzeichen in Form eines Buchstabens ein. Die Erkennungseinheit 15 mit den beiden Sensorsystemen 16, 17 erkennt die Schriftspur anhand der Fingerbewegung des Nutzers, indem es eine Bewegung der Fingerspitze im dreidimensionalen Raum aufnimmt. Dies geschieht beispielsweise durch kontinuierliches Messen von mindestens drei Winkeln im Raum, wobei zwei Winkel 22, 23 in 1 dargestellt sind, die durch reflektierte Infrarotstrahlen 24, 25 in Bezug auf das Display 14 gebildet werden, wobei die Infrarotstrahlen 24, 25 von der Erkennungseinheit 15 zunächst ausgestrahlt werden, von der Fingerspitze reflektiert werden und die reflektierten Infrarotstrahlen schließlich von der Erkennungseinheit 15 empfangen und ausgewertet werden. Hierbei misst jeweils ein Sensorsystem 16, 17 zwei Winkel, die insgesamt in 1 und 2 dargestellt sind. In 1 ist dies der Winkel 22 für das erste Sensorsystem 16 und der Winkel 23 für das zweite Sensorsystem 17. Ferner ist in 2 ein Winkel 28 dargestellt, der sowohl von dem ersten Sensorsystem 16 wie auch von dem zweiten Sensorsystem 17 gemessen werden kann.The user now writes a trace in the room, ie "in the air" in front of the display. 14 and can be on the display at the same time 14th trace his input. In the present exemplary embodiment, the user wants to select a destination in the navigation device and therefore enters a character in the form of a letter. The recognition unit 15th with the two sensor systems 16 , 17th recognizes the text trace based on the user's finger movement by recording a movement of the fingertip in three-dimensional space. This is done, for example, by continuously measuring at least three angles in space, with two angles 22nd , 23 in 1 are represented by reflected infrared rays 24 , 25th in terms of the display 14th are formed, the infrared rays 24 , 25th from the recognition unit 15th are first emitted, are reflected from the fingertip and the reflected infrared rays are finally from the detection unit 15th can be received and evaluated. A sensor system measures each time 16 , 17th two angles totaling in 1 and 2 are shown. In 1 is this the angle 22nd for the first sensor system 16 and the angle 23 for the second sensor system 17th . Furthermore, in 2 an angle 28 shown by both the first sensor system 16 as well as from the second sensor system 17th can be measured.

Solange sich die Fingerspitze hinter der virtuellen Schreibebene 20 innerhalb des Toleranzbereiches 21 befindet, wird davon ausgegangen, dass sich ein virtueller Stift, der beispielsweise durch einen Finger des Nutzers repräsentiert wird, auf der virtuellen Schreibebene 20 befindet, wobei der Zustand auch als Pen-down-Zustand verstanden werden kann. Bei einem Pen-down-Zustand beschreibt ein virtueller Stift, beispielsweise ein Finger des Nutzers, ein virtuelles Papier, hier die virtuelle Schreibebene. Sobald der Nutzer einen Buchstaben geschrieben hat und somit die Schriftspur beendet werden soll, verlässt er deutlich den Toleranzbereich 21 der virtuellen Schreibebene 20.As long as your fingertip is behind the virtual writing surface 20th within the tolerance range 21st is located, it is assumed that a virtual pen, which is represented for example by a finger of the user, is on the virtual writing plane 20th is located, whereby the state can also be understood as a pen-down state. In a pen-down state, a virtual pen, for example a finger of the user, describes a virtual paper, here the virtual writing plane. As soon as the user has written a letter and the text trace is to be ended, he clearly leaves the tolerance range 21st the virtual writing plane 20th .

Hierbei gibt es. zwei Möglichkeiten, wie der Nutzer das Toleranzband 21 verlassen kann. Zum einen kann er eine erste Bewegung 26 des Fingers ausführen, die zu dem Nutzer hingerichtet ist. Zum anderen kann der Nutzer eine zweite Bewegung 27 des Fingers ausführen, die von dem Nutzer weggerichtet ist. Diese beiden Bewegungsrichtungen 26, 27 definieren das Ende der Eingabe eines Schriftzeichens bzw. eines Schriftzuges..Here there is. two ways as the user sets the tolerance band 21st can leave. To the one he can make a first move 26th execute the finger that is executed to the user. Second, the user can make a second movement 27 the finger that is facing away from the user. These two directions of movement 26th , 27 define the end of the input of a character or a lettering ..

Zum einen wird das Ende einer Eingabe durch Verlassen des Toleranzbandes der virtuellen Schreibebene 20 durch eine Bewegung der Fingerspitze signalisiert, die in Richtung 26 zum Nutzer gerichtet ist. Die Erkennungseinheit 15 erkennt beim Verlassen der zum Nutzer hin orientierten Toleranzbändgrenze eine Pen-up-Bewegung, d.h. eine Bewegung von der virtuellen Schreibebene 20 weg in Richtung 26 des Nutzers. Zum anderen wird das Ende einer Eingabe durch Verlassen des Toleranzbandes der virtuellen Schreibebene 20 durch eine Bewegung der Fingerspitze signalisiert, die in Richtung 27 weg vom Nutzer gerichtet ist. Die Erkennungseinheit 15 erkennt diese Bewegung als ein „Durchstechen“ der Begrenzung des virtuellen Toleranzbandes 21 in Richtung Display 14. Diese Bewegung kann als Ende einer Eingabe erkannt werden. Das Durchstechen der virtuellen Schreibebene 20 in Richtung 27 beendet die Eingabe und kann ferner genutzt werden, um ein Bedienelement zu betätigen. Hierbei kann vorgesehen, werden, ein virtuelles 3D-Bedienelement zu betätigen. Dies ist besonders vorteilhaft, wenn der Nutzer direkt vor einem Bildschirm oder Display 14 schreibt. Im allgemeinen kann die virtuelle adaptive Schreibebene 20 unabhängig von der Position des Nutzers zum Display 14 eingesetzt werden. Es ist daher möglich, dass der Nutzer direkt vor dem Bildschirm in den Raum schreibt oder dass das Display 14 an einer anderen Position in Bezug auf den Nutzer angeordnet ist.On the one hand, the end of an entry is made by leaving the tolerance band of the virtual writing plane 20th signaled by a movement of the fingertip in the direction 26th is directed towards the user. The recognition unit 15th detects a pen-up movement when leaving the tolerance band limit oriented towards the user, ie a movement from the virtual writing plane 20th away towards 26th of the user. On the other hand, the end of an entry is made by leaving the tolerance band of the virtual writing plane 20th signaled by a movement of the fingertip in the direction 27 is directed away from the user. The recognition unit 15th recognizes this movement as a “piercing” of the limit of the virtual tolerance band 21st towards the display 14th . This movement can be recognized as the end of an input. Piercing the virtual writing plane 20th in the direction 27 ends the input and can also be used to operate a control element. It can be provided here to operate a virtual 3D operating element. This is particularly advantageous when the user is directly in front of a screen or display 14th writes. In general, the virtual adaptive write plane 20th regardless of the position of the user in relation to the display 14th can be used. It is therefore possible for the user to write in the room directly in front of the screen or for the display 14th is arranged in a different position with respect to the user.

Das Ende einer Eingabe eines Zeichens bzw. eines Schriftzuges erfolgt durch Verlassen der virtuellen Ebene in beide Richtungen, d.h. durch Bewegung eines Eingabegerätes oder eines Fingers zur Normalen der virtuellen Ebene. Das Durchstechen des Toleranzbandes 21 in Richtung 27 auf das Display hin wie auch das Verlassen des Toleranzbandes in Richtung 26 zum Nutzer hin definiert jeweils sozusagen eine Trennung eines ersten Schriftzeichens 11 von einem zweiten Schriftzeichen 12. Auf diese Weise wird der Erkennungseinheit 15 das Erkennen eines einzelnen Schriftzeichens 11, 12 erleichtert, indem ein definiertes Ende eines Schriftzeichens durch den Nutzer signalisiert wird. Das Verlassen der virtuellen Schreibebene 20 kann beispielsweise durch eine statistische Betrachtung erfolgen, indem die Erkennungseinheit 15 die Lage der Fingerspitze innerhalb des Toleranzbandes 21 erkennt und lediglich ein Verlassen des Toleranzbandes 21 registriert, ohne dass bekannt sein muss, an welchem Ort das Toleranzband 21 verlassen wurde.The end of an input of a character or a lettering takes place by leaving the virtual plane in both directions, ie by moving an input device or a finger to the normal of the virtual plane. Piercing the tolerance band 21st in the direction 27 towards the display as well as leaving the tolerance band towards 26th towards the user defines, so to speak, a separation of a first character 11 of a second character 12th . In this way it becomes the recognition unit 15th the recognition of a single character 11 , 12th facilitated by the user signaling a defined end of a character. Leaving the virtual writing level 20th can be done for example by a statistical consideration by the recognition unit 15th the position of the fingertip within the tolerance band 21st detects and only a departure from the tolerance band 21st registered without having to know where the tolerance band is 21st was left.

2 zeigt die Vorrichtung der 1 in einer Seitenansicht, bei der die Fingerspitze des Nutzers in dem Winkel- 28 zum Display 14 positioniert ist. 2 zeigt eine Situation, bei der ein „Durchstechen“ der virtuellen Schreibebene 20 und ein Verlassen des Toleranzbandes 21 in der von dem Nutzer abgewandten Richtung 27 erfolgt. Die virtuelle Schreibebene 20 kann auch als virtuelle Blattebene 20 aufgefasst werden, da auf ihr geschrieben wird. Die Bewegung 27 des Nutzers ist, wie auch in 1, mit einem Pfeil angedeutet. Auch diese Bewegung des Nutzers kann als ein Ende der Eingabe einer Schriftspur verstanden werden. Im Anschluss an eine beendete Eingabe einer Schriftspur kann zusätzlich in dieser Richtung 27 eine Bedienung in einer virtuellen Menüebene 29 erfolgen, die sich geometrisch an den Bereich des Toleranzbandes 21 in Richtung Display 14 anschließt. Somit kann das Ende der Eingabe durch ein deutliches Verlassen der Ebene in die vom Nutzer abgewandte Richtung 27 erfolgen, wobei die Ebene wie zuvor beschrieben auch gekrümmt im Raum sein kann. Das Verlassen der Ebene kann z.B. als Auswahl bzw. Eingabe interpretiert werden. 2 shows the device of 1 in a side view, in which the fingertip of the user in the angular 28 to the display 14th is positioned. 2 shows a situation in which a “piercing” of the virtual writing plane 20th and leaving the tolerance band 21st in the direction away from the user 27 he follows. The virtual writing plane 20th can also be used as a virtual leaf level 20th be understood because it is written on. The movement 27 of the user, as in 1 , indicated with an arrow. This movement of the user can also be understood as the end of the input of a text trace. After you have finished entering a text trace, you can also go in this direction 27 operation in a virtual menu level 29 which are geometrically related to the area of the tolerance band 21st towards the display 14th connects. Thus the end of the input can be reached by clearly leaving the level in the direction away from the user 27 take place, wherein the plane can also be curved in space as described above. Leaving the level can be interpreted as a selection or entry, for example.

Möglich ist beispielsweise, dass die einzelnen erkannten Buchstaben bereits ein Anfang eines bekannten Wortes der Erkennungseinheit 15 sind, beispielsweise ein Beginn eines Ländernamens, eines Ortsnamens oder eines Straßennamens..Die Eingabe kann für eine Interaktion mit einem auf dem Display 14 angezeigten Menü genutzt werden. Dies ermöglicht, dass der Nutzer eine von der Erfassungseinheit 15 vorgeschlagenen Auswahl übernimmt, die sich auch auf einzelne Buchstaben beziehen kann, beispielsweise B oder ß. Ferner kann auch ein visueller Knopf (oder mehrere) 30, 31 bedient werden, der in einer virtuellen Menüebene 29 erscheint, welche bei Erreichen der Fingerspitze oder eines anderen Bedienelementes auf einer virtuelle Display-Blattebene 32 bedient werden kann. Die virtuelle Menüebene 29 und die virtuelle Blattebene 32 können einige Zentimeter voneinander entfernt liegen, beispielsweise 1 cm bis 5 cm, so dass nicht durch eine ungewollte Bewegung, beispielsweise verursacht während der Fahrt des Fahrzeugs, eine Bedienung eines virtuellen Knopfes 30, 31 erfolgt. Die virtuelle Display-Blattebene 32 ist die Ebene, in der der virtuelle Knopf 30, 31 bedient werden kann. Sie ergibt sich durch die Charakteristiken eines dreidimensionalen Displays 14, wie es in 1 und 2 ausgeführt sein kann. So erscheinen Bedienelemente 30, 31 virtuell innerhalb der virtuellen Menüebene 29 und werden in der Display-Blattebene 32 bedient, z.B. durch Durchstechen der Display-Blattebene 32 gedrückt. Bei einem „Durchstechen“ der Display-Blattebene 32 kann ein solches Bedienelement 30, 31 gedrückt werden, beispielsweise ein Auswahlknopf für einen Länder-, Orts-, oder Straßennamen, so dass ein aufgrund der bereits eingegebenen Schriftzeichen erkannter Name (oder mehrere) von der Erkennungseinheit 15 vorgeschlagen wird und vom Nutzer ausgewählt wird.It is possible, for example, that the individual recognized letters are already the beginning of a known word of the recognition unit 15th are, for example the beginning of a country name, a place name or a street name. The input can be used for an interaction with an on the display 14th displayed menu can be used. This enables the user to receive one from the registration unit 15th takes over the proposed selection, which can also refer to individual letters, for example B or ß. Furthermore, a visual button (or several) 30th , 31 can be operated in a virtual menu level 29 appears, which on reaching the fingertip or another control element on a virtual display sheet level 32 can be operated. The virtual menu level 29 and the virtual leaf level 32 can be a few centimeters apart, for example 1 cm to 5 cm, so that an operation of a virtual button is not caused by an undesired movement, for example caused while the vehicle is in motion 30th , 31 he follows. The virtual display sheet level 32 is the level in which the virtual button 30th , 31 can be operated. It results from the characteristics of a three-dimensional display 14th as it is in 1 and 2 can be executed. This is how controls appear 30th , 31 virtually within the virtual menu level 29 and are in the display sheet level 32 operated, e.g. by piercing the display sheet level 32 pressed. In the event of a “piercing” of the display sheet level 32 can be such a control element 30th , 31 be pressed, for example, a selection button for a country, place or street name, so that a name (or several) recognized by the recognition unit on the basis of the characters already entered 15th suggested and selected by the user.

Auch diese Auswahl erfolgt berührungslos, da sie in der Display-Blattebene 32 von der Erkennungseinheit 15 erkannt wird, ohne dass der Nutzer bis zum eigentlichen Display 14 gelangen muss. Die Display-Blattebene 32 liegt beispielsweise 2 cm vor der physikalischen Display-Oberfläche. Auch die Display-Blattebene 32 kann frei im Raum liegen und gekrümmt sein. Sie wird erfindungsgemäß (ebenso wie die virtuelle Schreibebene 20) adaptiv für jeden Bedienvorgang erneut festgelegt in Abhängigkeit der Lage der virtuellen Schreibebene 20, in der zuvor eine Eingabe stattgefunden hat.This selection is also made contactless as it is in the display sheet level 32 from the recognition unit 15th is recognized without the user reaching the actual display 14th must arrive. The display sheet level 32 lies, for example, 2 cm in front of the physical display surface. Also the display sheet level 32 can lie freely in space and be curved. It is according to the invention (just like the virtual writing plane 20th ) adaptively re-determined for each operating process depending on the position of the virtual writing plane 20th in which an entry was made previously.

In 2 wird zur Verdeutlichung der von der Erkennungseinheit 15 erkannten virtuellen Schreibebene 20 eine Pen-up-Bewegung 33 und eine Pen-down-Bewegung 34 dargestellt. Insgesamt ergibt sich durch die berührungslose Bedienung des Displays 14 der 1 und 2 der Vorteil, dass ein Nutzer während der Bedienung eine für ihn am besten geeignete Schreibposition und Bedienposition einnehmen kann, da die virtuelle Schreibebene 20 und die virtuelle Display-Blattebene 32 adaptiv im Raum bei jeder Bedienung neu definiert wird. Durch eine geeignete Positionserkennung einer Fingerspitze oder eines anderen Bedienelements im Raum können durch geeignete Schrifterkennungsverfahren der Erkennungseinheit 15 einzelne Buchstaben erkannt werden: Des weiteren ist es auch möglich Wortbestandteile zu erkennen. Dies erleichtert insgesamt die Bedienung eines Displays und das berührungslose Eingeben von Schriftzeichen im freien und zuvor nicht festgelegten Raum.In 2 is used to make the recognition unit clearer 15th recognized virtual writing plane 20th a pen-up movement 33 and a pen-down movement 34 is shown. Overall, this results from the contactless operation of the display 14th the 1 and 2 the advantage that a user can adopt a writing position and operating position that is most suitable for him during operation, since the virtual writing plane 20th and the virtual display sheet level 32 is adaptively redefined in the room with each operation. A suitable position recognition of a fingertip or another operating element in the room enables the recognition unit to use suitable handwriting recognition methods 15th individual letters are recognized: It is also possible to recognize parts of words. Overall, this facilitates the operation of a display and the contactless input of characters in free and previously undefined space.

Claims (9)

Vorrichtung (10) zum berührungslosen Eingeben von Schriftzeichen (11, 12, 13), aufweisend ein Display (14) und eine Erkennungseinheit (15) zum Erkennen einer Schriftspur und eine virtuelle Schreibebene (20) in einem Raum vor dem Display (14), wobei durch die Lage der Schriftspur im Raum die virtuelle Schreibebene (20) festlegt wird, wobei mit der Erkennungseinheit (15) die Schriftspur in der virtuellen Schreibebene (20) erkennbar ist, wobei mit der Erkennungseinheit (15) bei Verlassen der Schriftspur aus der virtuellen Schreibebene (20) heraus ein Eingeben der Schriftspur als beendet erkennbar ist und mit der Erkennungseinheit (15) die Schriftspur als Schriftzeichen (11, 12, 13) erkennbar ist, wobei die Erkennungseinheit dazu ausgebildet ist, in einer virtuellen Display-Blattebene (32) eine Bedienung eines virtuellen Bedienelements (30, 31) zu erkennen, und die Display-Blattebene (32) zwischen dem Display (14) und der Schreibebene (20) angeordnet ist, wobei die Erkennungseinheit (15) dazu ausgebildet ist, dass die Display-Blattebene (32) in Abhängigkeit von der Lage der virtuellen Schreibebene (20) adaptiv für jeden Bedienvorgang erneut festgelegt wird.Device (10) for the contactless input of characters (11, 12, 13), having a display (14) and a recognition unit (15) for recognizing a writing trace and a virtual writing plane (20) in a room in front of the display (14), the virtual writing plane (20) being determined by the position of the writing track in the room, the writing trace in the virtual writing plane (20) being recognizable with the recognition unit (15), with the recognition unit (15) being able to recognize input of the writing trace as finished when leaving the writing trace from the virtual writing plane (20) and with the recognition unit (15), the text trace can be recognized as characters (11, 12, 13), wherein the recognition unit is designed to recognize operation of a virtual operating element (30, 31) in a virtual display sheet level (32), and the display sheet plane (32) is arranged between the display (14) and the writing plane (20), wherein the recognition unit (15) is designed so that the display sheet level (32) is adaptively re-established for each operating process as a function of the position of the virtual writing level (20). Vorrichtung nach Anspruch 1, wobei die virtuelle Schreibebene (20) gekrümmt ist.Device according to Claim 1 wherein the virtual writing plane (20) is curved. Vorrichtung nach Anspruch 1 oder Anspruch 2, wobei die virtuelle Schreibebene (20) für jedes Schriftzeichen (11, 12, 13) erneut festgelegt wird.Device according to Claim 1 or Claim 2 , the virtual writing plane (20) being redefined for each character (11, 12, 13). Vorrichtung nach einem der vorhergehenden Ansprüche, wobei jedes Schriftzeichen (11, 12, 13) einzeln erkannt wird.Device according to one of the preceding claims, wherein each character (11, 12, 13) is recognized individually. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die virtuelle Schreibebene (20) ein Toleranzband (21) aufweist, wobei außerhalb des Toleranzbandes (21) die virtuelle Schreibebene (20) endet und an einer dem Display (14) zugewandten Seite des Toleranzbandes (21) eine virtuelle Menüebene (29) angeordnet ist.Device according to one of the preceding claims, wherein the virtual writing plane (20) has a tolerance band (21), the virtual writing plane (20) ending outside the tolerance band (21) and on a side of the tolerance band (21) facing the display (14). a virtual menu level (29) is arranged. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung Teil eines Navigationsgerätes ist.Device according to one of the preceding claims, wherein the device is part of a navigation device. Verfahren zum berührungslosen Eingeben von Schriftzeichen, aufweisend Erkennen einer Schriftspur in einem Raum vor einem Display (14), Festlegen einer virtuellen Schreibebene (20), die durch die Lage der Schriftspur vorgegeben wird, Erkennen der Schriftspur in der virtuellen Schreibebene (20), Erkennen einer Beendigung eines Eingeben der Schriftspur bei einem Verlassen der Schriftspur aus der virtuellen Schreibebene (20) heraus, Erkennen der Schriftspur als Schriftzeichen (11, 12, 13) und Erkennen einer Bedienung eines virtuellen Bedienelements (30, 31) in einer virtuellen Display-Blattebene (32), wobei die Display-Blattebene (32) zwischen dem Display (14) und der Schreibebene (20) angeordnet ist, wobei die Display-Blattebene (32) in Abhängigkeit von der Lage der virtuellen Schreibebene (20) adaptiv für jeden Bedienvorgang erneut festgelegt wird.Method for the contactless input of characters, having Detection of a writing trace in a space in front of a display (14), definition of a virtual writing plane (20) which is predetermined by the position of the writing trace, Recognizing the writing trace in the virtual writing plane (20), recognizing the termination of an entry of the writing trace when leaving the writing trace from the virtual writing plane (20), recognizing the writing trace as characters (11, 12, 13) and Recognizing an operation of a virtual operating element (30, 31) in a virtual display sheet level (32), wherein the display sheet plane (32) is arranged between the display (14) and the writing plane (20), wherein the display sheet level (32) is set again adaptively for each operating process as a function of the position of the virtual writing level (20). Verfahren nach Anspruch 7, ferner aufweisend Erkennen einer Initialisierungsgeste, die einen Beginn eines berührungslosen Eingebens einer Schriftspur signalisiert.Procedure according to Claim 7 , further comprising recognizing an initialization gesture which signals the beginning of a contactless entry of a text trace. Fahrzeug, in dem eine Vorrichtung (10) nach einem der Ansprüche 1 bis 6 installiert ist.Vehicle in which a device (10) according to one of the Claims 1 to 6 installed.
DE102013013697.0A 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space Active DE102013013697B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013013697.0A DE102013013697B4 (en) 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013013697.0A DE102013013697B4 (en) 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space

Publications (2)

Publication Number Publication Date
DE102013013697A1 DE102013013697A1 (en) 2015-02-19
DE102013013697B4 true DE102013013697B4 (en) 2021-01-28

Family

ID=52430045

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013013697.0A Active DE102013013697B4 (en) 2013-08-16 2013-08-16 Apparatus and method for entering characters in free space

Country Status (1)

Country Link
DE (1) DE102013013697B4 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009024112A2 (en) * 2007-08-22 2009-02-26 Navigon Ag Display device with image surface
DE102007045967A1 (en) * 2007-09-25 2009-04-02 Continental Automotive Gmbh Method and device for contactless input of characters
DE102010027915A1 (en) * 2009-12-02 2011-06-09 Hyundai Motor Co. User interface device for controlling a vehicle multimedia system
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
DE102011121585A1 (en) * 2011-12-16 2013-06-20 Audi Ag Motor car has control unit that is connected with data memory and display device so as to display detected characters into display device during search mode according to data stored in data memory

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8817087B2 (en) 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
DE102011089195A1 (en) 2011-06-30 2013-01-03 Johnson Controls Gmbh Apparatus and method for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009024112A2 (en) * 2007-08-22 2009-02-26 Navigon Ag Display device with image surface
DE102007045967A1 (en) * 2007-09-25 2009-04-02 Continental Automotive Gmbh Method and device for contactless input of characters
DE102010027915A1 (en) * 2009-12-02 2011-06-09 Hyundai Motor Co. User interface device for controlling a vehicle multimedia system
US20110254765A1 (en) * 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
DE102011121585A1 (en) * 2011-12-16 2013-06-20 Audi Ag Motor car has control unit that is connected with data memory and display device so as to display detected characters into display device during search mode according to data stored in data memory

Also Published As

Publication number Publication date
DE102013013697A1 (en) 2015-02-19

Similar Documents

Publication Publication Date Title
EP2338106B1 (en) Multi-function display and operating system and method for controlling such a system having optimized graphical operating display
EP2909584B1 (en) Motor vehicle having an input device for handwriting recognition
WO2007107368A1 (en) Interactive operating device and method for operating the interactive operating device
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
EP3234743B1 (en) Method for operating an operating device of a motor vehicle in different operating modes, operating device, and motor vehicle
DE102012005800A1 (en) input device
WO2014108150A2 (en) User interface for handwritten character input in a device
DE102013009906B4 (en) Method for handwriting recognition by means of a touch-sensitive motor vehicle operating system and touch-sensitive motor vehicle operating system
EP3347804B1 (en) Operating device with character input and delete function
DE102013013697B4 (en) Apparatus and method for entering characters in free space
WO2014067798A1 (en) Provision of an operating input using a head-mounted display
DE102013019570A1 (en) Operating device with non-contact font input function for a motor vehicle, motor vehicle and method for operating an operating device
DE102011121585B4 (en) motor vehicle
EP3025214B1 (en) Method for operating an input device, and input device
DE102013016490B4 (en) Motor vehicle with contactless handwriting recognition
WO2015121173A1 (en) User interface and method for switching from a first operating mode of a user interface to a 3d gesture mode
EP3274789B1 (en) Motor vehicle simulation system for simulating a virtual environment with a virtual motor vehicle and method for simulating a virtual environment
DE102020106380A1 (en) Method for operating a driver assistance system of a vehicle by adapting displayed objects, driver assistance system and vehicle
DE102014001183B4 (en) Method and system for triggering at least one function of a motor vehicle
DE102017211089A1 (en) Device for a motor vehicle for communication with another motor vehicle and / or for autonomous tracking of another motor vehicle
DE102013004251B4 (en) Method for operating an operating system and motor vehicle with such an operating system
DE102014018407B4 (en) Control device for controlling a device of a motor vehicle and motor vehicle and method
WO2021028274A1 (en) Operating system and method for operating the operating system
DE102015212920A1 (en) Operation of three-dimensional user interfaces
EP3049910B1 (en) User interface and method for assisting a user when operating an operating unit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R019 Grant decision by federal patent court
R020 Patent grant now final