WO2015176707A1 - Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug - Google Patents

Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug Download PDF

Info

Publication number
WO2015176707A1
WO2015176707A1 PCT/DE2015/100152 DE2015100152W WO2015176707A1 WO 2015176707 A1 WO2015176707 A1 WO 2015176707A1 DE 2015100152 W DE2015100152 W DE 2015100152W WO 2015176707 A1 WO2015176707 A1 WO 2015176707A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
input device
computer
operator
hand
Prior art date
Application number
PCT/DE2015/100152
Other languages
English (en)
French (fr)
Inventor
Jeronimo DZAACK
Ronald Meyer
Original Assignee
Atlas Elektronik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlas Elektronik Gmbh filed Critical Atlas Elektronik Gmbh
Publication of WO2015176707A1 publication Critical patent/WO2015176707A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Definitions

  • Input device computer or operating system
  • the invention relates to an input device for a computer or an operating system, wherein the input device has a gesture recognition device and a display device, which provides an operator with a virtual environment and a computer or an operating system which the input device has a gesture recognition device and a display device, which provides an operator with a virtual environment and a computer or an operating system which the input device has a gesture recognition device and a display device, which provides an operator with a virtual environment and a computer or an operating system which the
  • the object of the invention is to improve the state of the art.
  • the object is achieved by an input device for a computer or an operating system, wherein the input device has a gesture recognition device and a display device which provides an operator with a virtual environment, wherein the input device is a virtual operating element by means of the operating system or the computer Operator inputs are aufoniagbar are.
  • an input device can be provided that allows an operator to virtually customize controls to his needs.
  • no other external device such as joystick or mouse is necessary, which may no longer be optimally usable under adverse conditions.
  • the input device provides an interface between a machine to be operated and an operator, which provides an extensive operating potential based on the movement and gestures of the operator.
  • information displayed by the display device can be edited or edited directly by means of the controls.
  • the present "input device” is a new input means such as a computer mouse or a computer keyboard, and the input device can be seen as a supplement or substitute for a control panel, in particular mechanical components such as those found in a joystick or a mouse, for example. no longer necessary
  • the input device can be connected either directly to a machine for controlling the machine or to a computer to which corresponding operating signals are impressed.
  • Operating concept can be provided to an operator.
  • a "computer” is also called a “computer.” This computer may be a controller or a computer of another machine, in particular sensors and / or actuators may be connected to the computer.
  • control system can be a complex system such as a power plant or a special instrument such as an active or passive sonar.
  • the "gesture recognition device” recognizes by means of its sensors certain deliberate movements of the operator, in particular these movements may be the hand movements
  • Gesture recognition device for optical inputs, which be taken in particular by two cameras and processed by appropriate software. It is also possible for example to arrange transmitters or receivers on the hand, which emit and / or receive corresponding signals. Thus, a corresponding movement in space can be detected by these signals.
  • these transmitters can be ultrasound transmitters or infrared transmitters and the corresponding receivers.
  • the "display device” is in particular a screen or a virtual spectacle, by means of which a three-dimensional image can be imprinted on the eyes of the beholder.
  • a display device gives a spatial impression, so that, in particular, individual operating elements are displayed spatially distributed the operator by a hand movement in real space and the corresponding detection by the
  • Gesture recognition device the user's eyes on the display device, the impression that the hand is in the mediated by the display device room.
  • the display device provides an operator with a virtual environment in which he arranges the corresponding control element or the corresponding controls and their operation is made possible by movement of the real hand.
  • a "virtual control element” is a control element that is displayed in the virtual environment but is controlled by movements of the real hand.
  • the virtual control element is directly coupled to the operating system or the computer, so that control signals that can be detected by the real hand
  • the virtual control is a mouse
  • the real hand in the virtual environment may comprise the mouse, which in the real world is, for example, a hand containing a cavity on a tabletop
  • an up and down of individual fingers as operating the individual mouse buttons or the buckling of individual fingers can be interpreted as moving the rolling wheel of a mouse.
  • the computer or the operating system has a sensor and a sensor signal obtained by the sensor is imprinted visually or haptically on the operator by means of the input device.
  • values measured by a sensor can be displayed by means of the display device as a digital or pointer value.
  • the real hand has a glove which, on the one hand, detects movements directly and, on the other hand, also makes it possible to impart a certain force by having actuators of the hand, the haptic feedback of a sensor value can take place.
  • a virtual representation of the hand can be displayed by means of the display device, which accesses the operating element and / or other operating elements and / or data virtually.
  • Gesture recognition device on a coupling unit which is attachable to a body part, in particular hand, the operator, so that a movement of the body part by means of the coupling unit can be detected.
  • the coupling unit can be, for example, a data glove or can also be individually attachable sensors such as microphones and / or receivers, so that a movement of the hand in space can be detected and a corresponding representation in the virtual environment can take place.
  • the gesture recognition device can have a movement detection sensor which detects the movements of a body part, in particular of the hand.
  • a motion detection sensor may be, for example, a stereo camera with two camera lenses.
  • the measurement of inductive or electrostatic fields and the influence of the hand on these fields can also be used to determine the movements of the hand.
  • the input device has further virtual operating elements by means of which the operating system can be controlled or Calculator operating inputs are imoniagbar.
  • the virtual controls can be configured switchable so that they can be activated and / or deactivated by the operator.
  • one of the controls may be a virtual mouse, a virtual joystick, a virtual touchpad, a virtual slider, a virtual switch, a virtual knob, and / or a virtual stylus.
  • control elements can be provided virtually, which can then be controlled and operated by the operator accordingly. Also, a linking of the respective control element with a sensor, actuator, input, output or the same can be done.
  • the object is achieved by a computer or an operating system, in particular a sonar, which or which has a previously described input device.
  • a completely new operating element can be used by an operator Be made available, which allows him to handle the most complex tasks.
  • the object is achieved by a vehicle, in particular aircraft, ship or submarine, which has a previously described computer or a previously described control system.
  • an operator can be provided a variety of controls with which he can operate an instrument to be operated such as a sonar effectively.
  • Figure 1 is a schematic representation of a
  • Input device with an SD screen and a stereo camera.
  • An input device 101 is connected to an active sonar 181.
  • the input device 101 comprises an SD screen 103 and a stereo camera 105.
  • the stereo camera 105 has two mutually offset camera lenses 107.
  • the 3D screen 103 is divided into a display area 109 and a toolbar 111.
  • sonar data 113 and digital displays 133 are shown on the 3D screen 103.
  • In the display area 109 three controls are shown.
  • the controls include a virtual joystick 117, a virtual slider 129 and a virtual toggle switch 131 which is switchable between two states (I / O).
  • a virtual mouse 119 In the toolbar 111, a virtual mouse 119, a virtual scissors 121, a virtual knob 123, a virtual knife 125, and a virtual brush 127 are shown. Using these tools 119, 121, 123, 125, 127, the sonar data can be manipulated or the active sonar 181 can be operated.
  • the toggle switch 131 switches the sonar 181 so that in one state (I) an active sonar and in the other state (0) a passive sonar is present.
  • the transmission frequency of the sonar 181 is set.
  • the emission direction of the active sonar can be adjusted.
  • the representation 115 of the hand also called the virtual hand, traces all movements of the real hand 155.
  • the representative 115 can hand the hand when it is moved to the right and "taps" the toggle switch 133.
  • the virtual hand is represented by dots, which represent, for example, each a finger joint and possibly a palm.
  • dots represent, for example, each a finger joint and possibly a palm.
  • individual points are connected with lines or bars, so that a phalanx is simulated.
  • the data 113 which are determined online by means of the sonar 181 can be processed.
  • the virtual hand 115 can "grab" a virtual knife 125 and virtually cut through the data 113, which represent, for example, a data cloud, in order to look at certain planes or sections and, if necessary, to better recognize objects.
  • the virtual hand 115 may move a knob 123 into the display area 109 and associate it with functionality of the sonar 181.
  • the frequency of the sonar 181 can also be adjusted by actuating the rotary knob 123, so that, for example, the slider 129 is then replaced by the rotary knob 123.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeeinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, wobei ein virtuelles Bedienelement mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.

Description

Eingabevorrichtung, Rechner oder Bedienanlage
Fahrzeug
[Ol] Die Erfindung betrifft eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeeinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt und einen Rechner oder eine Bedienanlage, welche die
Eingabevorrichtung aufweist sowie ein Fahrzeug mit einem Rechner oder einer Bedienanlage.
[02] Das Bedienen von Anlagen und Maschinen erfolgt im Allgemeinen über entsprechende Schieberregler, Drehknöpfe, Schalter oder sonstige Eingabemittel. Auch sind Computermäuse oder Tastaturen für die Eingabe vorgesehen. Der Nachteil dabei ist, dass bei dem physikalischen Verwenden von derartigen Eingabemitteln der entsprechende Platz zur Verfügung gestellt werden muss. Auch wenn eine Vielzahl von Bedienelementen verwendet werden muss, kann die Komplexität den Bediener der Anlage überfordern.
[03] Insbesondere wenn komplexe Maschinenanlagen wie beispielsweise Sonare auf Schiffen oder U-Booten bedient werden müssen, kann ein entsprechender Seegang die Eingabe verfälschen oder dazu führen, dass die Eingabe nicht rechtzeitig und zielgenau erfolgt.
[04] Aufgabe der Erfindung ist es den Stand der Technik zu verbessern . [05] Gelöst wird die Aufgabe durch eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeneinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, wobei die Eingabevorrichtung ein virtuelles Bedienelement mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind aufweist.
[06] Somit kann eine Eingabevorrichtung bereitgestellt werden, die es einem Bediener ermöglicht Bedienelemente virtuell seinen Bedürfnissen anzupassen. Zudem ist kein weiteres externes Gerät wie Joystick oder Maus notwendig, welches gegebenenfalls unter widrigen Bedingungen nicht mehr optimal einsetzbar ist.
[07] Somit stellt die Eingabevorrichtung eine Schnittstelle zwischen einer zu bedienenden Maschine und einem Bediener her, welche anhand der Bewegung und Gesten des Bedieners ein umfangreiches Bedienpotential zur Verfügung stellt. Zudem kann durch die Anzeigeeinrichtung dargestellte Information direkt mittels der Bedienelemente bearbeitet oder aufbereitet werden.
[08] Insbesondere bei Sonaren, welche dreidimensionale Daten bereitstellen, kann durch eine Interaktion mittels der virtuellen Bedienelemente sich der Bediener einen schnellen Überblick über die Lage verschaffen.
[09] Folgendes Begriffliche sei erläutert: [10] Vorliegende „Eingabevorrichtung" ist ein neues Eingabemittel wie beispielsweise eine Computermaus oder eine Computertastatur. Auch kann die Eingabevorrichtung als Ergänzung oder Ersatz für einen Bedienpult gesehen werden. Insbesondere sind mechanische Bauteile, wie sie beispielsweise bei einem Joystick oder einer Maus vorhanden sind, nicht mehr notwendig. Die Eingabevorrichtung kann sowohl direkt an eine Maschine zum Steuern der Maschine oder auch an einen Rechner angeschlossen werden, welchem entsprechende Bediensignale aufgeprägt werden.
[11] Mit dieser Eingabevorrichtung werden vorteilhafter Weise physische Bedienelemente in eine virtuelle Umgebung transferiert, sodass ein vollständig neuartiges
Bedienkonzept einem Bediener zur Verfügung gestellt werden kann .
[12] Ein „Rechner" wird auch Computer genannt. Dieser Rechner kann ein Steuergerät oder ein Rechner einer sonstigen Maschine sein. Insbesondere können an dem Rechner Sensoren und/oder Aktuatoren angeschlossen sein.
[13] Bei der „Bedienanlage" kann es sich um eine komplexe Anlage wie beispielsweise ein Kraftwerk oder auch ein spezielles Instrument wie beispielsweise ein aktives oder passives Sonar handeln.
[14] Die „Gestenerkennungseinrichtung" erkennt mittels ihrer Sensoren bestimmte gewollte Bewegungen des Bedieners. Insbesondere können diese Bewegungen die Handbewegungen sein. Vorteilhafterweise basiert die
Gestenerkennungseinrichtung auf optische Eingaben, welche insbesondere durch zwei Kameras aufgenommen und mittels entsprechender Software aufbereitet werden. Auch können beispielsweise an der Hand Sender oder Empfänger angeordnet sein, welche entsprechende Signale aussenden und/oder empfangen. So kann durch diese Signale eine entsprechende Bewegung im Raum festgestellt werden. Insbesondere sei hier erwähnt, dass es sich bei diesen Sendern um Ultraschallsender oder Infrarotsender und die entsprechenden Empfänger handeln kann.
[15] Die „Anzeigeeinrichtung" ist insbesondere ein Bildschirm oder eine virtuelle Brille, mittels derer den Augen des Betrachters ein dreidimensionales Bild aufgeprägt werden kann. Insbesondere vermittelt eine derartige Anzeigeeinrichtung einen räumlichen Eindruck, sodass insbesondere einzelne Bedienelemente räumlich verteilt dargestellt werden. Somit kann beispielsweise der Bediener durch eine Handbewegung im realen Raum und der entsprechenden Erkennung durch die
Gestenerkennungseinrichtung den Augen des Benutzers über die Anzeigeeinrichtung der Eindruck vermittelt werden, dass sich die Hand in den durch die Anzeigeeinrichtung vermittelten Raum befindet.
[16] Somit stellt die Anzeigeeinrichtung einen Bediener eine virtuelle Umgebung zur Verfügung, in der dieser das entsprechende Bedienelement oder die entsprechenden Bedienelemente anordnet und deren Bedienen durch Bewegung der realen Hand ermöglicht ist. [17] Ein „virtuelles Bedienelement" ist ein Bedienelement, welches in der virtuellen Umgebung angezeigt wird, jedoch durch Bewegungen der realen Hand angesteuert wird. Das virtuelle Bedienelement ist direkt mit der Bedienanlage oder dem Rechner gekoppelt, sodass durch die reale Hand aufprägbare Stellsignale zum Ansteuern der Bedienanlage oder des Rechners verwendet werden. Für den Fall, dass das virtuelle Bedienelement eine Maus ist, kann beispielsweise die reale Hand in der virtuellen Umgebung die Maus umfassen, was in der realen Welt beispielsweise eine Hand ist, welche auf einer Tischplatte einen Hohlraum aufweist und welche über die Tischplatte bewegt wird. Dabei kann ein Auf und Ab einzelner Finger als Bedienen der einzelnen Maustasten oder das Knicken einzelner Finger als das Bewegen des Rollrades einer Maus interpretiert werden.
[18] In einer weiteren Ausgestaltung weist der Rechner oder die Bedienanlage einen Sensor auf und ein durch den Sensor gewonnenes Sensorsignal wird mittels der Eingabevorrichtung optisch oder haptisch dem Bediener aufgeprägt.
[19] So können beispielsweise durch einen Sensor gemessene Werte mittels der Anzeigeeinrichtung als Digital- oder Zeigerwert angezeigt werden. Für den Fall, dass beispielsweise die reale Hand einen Handschuh aufweist, welcher zum einen Bewegungen direkt detektiert und zum anderen auch ermöglicht, durch aufweisende Aktuatoren der Hand eine bestimmte Kraft aufzuprägen, kann das haptische Rückkoppeln eines Sensorwertes erfolgen. [20] Auch kann eine virtuelle Repräsentanz der Hand mittels der Anzeigeeinrichtung angezeigt werden, welche das Bedienelement und/oder andere Bedienelemente und/oder Daten virtuell greift.
[21] In einer Ausführungsform weist die
Gestenerkennungseinrichtung eine Kopplungseinheit auf, welche an einem Körperteil, insbesondere Hand, des Bedieners anbringbar ist, sodass eine Bewegung des Körperteils mittels der Kopplungseinheit detektiertbar ist.
[22] Die Kopplungseinheit kann beispielsweise ein Datenhandschuh oder können auch einzeln anbringbare Sensoren wie Mikrofone und/oder Empfänger sein, sodass eine Bewegung der Hand im Raum detektierbar ist und eine entsprechende Repräsentanz in der virtuellen Umgebung erfolgen kann.
[23] Um insbesondere berührungslos oder ohne Hilfsmittel die Bewegung eines Körperteils zu bestimmen, kann die Gestenerkennungseinrichtung einen Bewegungsdetektionssensor aufweisen, welche die Bewegungen eines Körperteils, insbesondere der Hand, detektiert. Ein derartiger Bewegungsdetektionssensor kann beispielsweise eine Stereokamera mit zwei Kameraobjektiven sein. Auch die Messung induktiver oder elektrostatischer Felder und der Einfluss der Hand auf diese Felder kann dazu dienen, die Bewegungen der Hand zu bestimmen.
[24] In einer weiteren Ausführungsform weist die Eingabevorrichtung weitere virtuelle Bedienelemente auf, mittels derer die Bedienanlage steuerbar ist oder dem Rechner Bedieneingaben aufprägbar sind. Somit kann sich beispielsweise ein Bediener ein eigenes Bedienpult mit unterschiedlichsten virtuellen Bedienelementen aufbauen. Zum Bedienen reicht es insbesondere aus, eine Hand im Raum zu bewegen und virtuell einzelne Bedienelemente zu „greifen" und entsprechend zu betätigen. Auch können dabei virtuelle Bedienelemente entsprechend den Anforderungen des Bedieners angepasst werden oder neue Bedienelemente hinzugefügt oder alte entfernt werden. Um dies zu realisieren, können die virtuellen Bedienelemente schaltbar ausgestaltet sein, sodass diese durch die Bediener aktivierbar und/oder deaktivierbar sind.
[25] Insbesondere kann eines der Bedienelemente eine virtuelle Maus, ein virtueller Joystick, ein virtuelles Touchpad, ein virtueller Schieberegler, ein virtueller Schalter, ein virtueller Drehknopf und/oder ein virtueller Stift sein.
[26] Es können eine Vielzahl von unterschiedlichsten Bedienelementen virtuell zur Verfügung gestellt werden, welche dann von dem Bediener entsprechend angesteuert und bedient werden können. Auch kann ein Verknüpfen des jeweiligen Bedienelements mit einem Sensor, Aktuator, Eingabe, Ausgabe oder der Gleichen erfolgen.
[27] In einer weiteren Ausgestaltung der Erfindung wird die Aufgabe gelöst durch einen Rechner oder eine Bedienanlage, insbesondere ein Sonar, welche oder welcher eine zuvor beschriebene Eingabevorrichtung aufweist. Somit kann ein völlig neuartiges Bedienelement einem Bediener zur Verfügung gestellt werden, welches ihm ermöglicht komplexeste Aufgabenstellungen zu bewältigen.
[28] In einer weiteren Ausgestaltung der Erfindung wird die Aufgabe gelöst durch ein Fahrzeug, insbesondere Flugzeug, Schiff oder Unterseeboot, welches einen zuvor beschriebenen Rechner oder eine zuvor beschriebene Bedienanlage aufweist.
[29] Somit können insbesondere in beengten Verhältnissen oder unter schwierigen Bedingungen wie beispielsweise bei einem Schiff bei hohem Seegang einem Bediener eine Vielzahl von Bedienelementen zur Verfügung gestellt werden, mit denen er ein zu bedienendes Instrument wie beispielsweise ein Sonar effektiv bedienen kann.
[30] Im Weiteren wird die Erfindung anhand eines Ausführungsbeispiels erläutert. Es zeigt
Figur 1 eine schematische Darstellung einer
Eingabevorrichtung mit einem SD- Bildschirm und einer Stereokamera.
[31] An ein aktives Sonar 181 ist ein Eingabegerät 101 angeschlossen. Das Eingabegerät 101 umfasst einen SD- Bildschirm 103 und eine Stereokamera 105. Die Stereokamera 105 weist zwei zueinander versetzte Kameraobjektive 107 auf. Der 3D-Bildschirm 103 ist in einen Anzeigebereich 109 und in eine Werkzeugleiste 111 aufgeteilt. Zudem sind auf dem 3D-Bildschirm 103 Sonardaten 113 sowie Digitalanzeigen 133 dargestellt. [32] Im Anzeigebereich 109 sind drei Bedienelemente dargestellt. Zu den Bedienelementen gehört ein virtueller Joystick 117, ein virtueller Schieberegler 129 und ein virtueller Kippschalter 131, welcher zwischen zwei Zuständen (I/O) schaltbar ist.
[33] In der Werkzeugleiste 111 sind eine virtuelle Maus 119, eine virtuelle Schere 121, ein virtueller Drehknopf 123, ein virtuelles Messer 125 und ein virtueller Pinsel 127 dargestellt. Mithilfe dieser Werkzeuge 119, 121, 123, 125, 127 können die Sonardaten manipuliert oder das aktive Sonar 181 bedient werden.
[34] Der Kippschalter 131 schaltet das Sonar 181, sodass im einen Zustand (I) ein aktives Sonar und im anderen Zustand (0) ein passives Sonar vorliegt. Mittels des Schiebereglers 129 wird die Sendefrequenz des Sonars 181 eingestellt. Mit Hilfe des virtuellen Joysticks 117 kann die Abstrahlrichtung des aktiven Sonars eingestellt werden.
[35] Setzt sich ein Bediener vor das Eingabegerät 101 wird seine Hand 155 durch die Stereokamera 105 mit den versetzten Kameraobjektiven 107 detektiert. Mittels implementierter Software wird die Hand 155 erkannt und es werden Änderungen der Hand 155 detektiert. Zusätzlich wird eine virtuelle Repräsentanz 115 der Hand in dem SD- Bildschirm 103 dargestellt.
[36] Die Repräsentanz 115 der Hand, wird auch virtuelle Hand genannt, führt sämtliche Bewegungen der realen Hand 155 nach. So kann die Repräsentanz 115 der Hand wenn sie nach rechts geführt wird und den Kippschalter 133 „greift" durch eine Bewegung nach oben das aktive Sonar in ein passives Sonar umschalten. Führt die Repräsentanz 115 der Hand eine Bewegung nach links aus und umgreift diese gedanklich den virtuellen Joystick 117, so kann die Strahlrichtung des Sonars geändert werden. Auch kann die virtuelle Hand 115 noch weiter nach links greifen, um mittels des Schiebereglers 129 die Sendefrequenz des aktiven Sonars zu verändern.
[37] Alternativ wird die virtuelle Hand mittels Punkten dargestellt, welche beispielsweise jeweils ein Fingergelenk und ggf. eine Handfläche darstellen. Dazu alternativ sind einzelne Punkte mit Strichen oder Balken verbunden, sodass ein Fingerglied nachgebildet ist.
[38] Auch können mittels der Repräsentanz 115 der Hand die Daten 113, welche online mittels des Sonars 181 ermittelt werden, bearbeitet werden. Beispielsweise kann die virtuelle Hand 115 ein virtuelles Messer 125 „ergreifen" und die Daten 113, welche beispielsweise eine Datenwolke darstellen, virtuell durchschneiden, um bestimmte Ebenen oder Schnitte anzuschauen und um gegebenenfalls Objekte besser erkennen zu können.
[39] Auch kann die virtuelle Hand 115 einen Drehknopf 123 in den Anzeigebereich 109 versetzen und diesen mit einer Funktionalität des Sonars 181 verknüpfen. Durch Betätigen des Drehknopfs 123 kann beispielsweise ebenfalls die Frequenz des Sonars 181 eingestellt werden, sodass beispielsweise dann der Schieberegler 129 durch den Drehknopf 123 ersetzt ist. Bezugs zeichenliste
101 Eingabegerät
103 Bildschirm
105 Stereokamera
107 versetzte Kameraobjekt
109 Anzeigebereich
111 Werkzeugleiste
113 Daten
115 virtuelle Hand
117 Joystick
119 Maus
121 Schere
123 Drehknopf
125 Messer
127 Pinsel
129 Regler
131 Kippschalter
133 Digitalanzeige
155 Hand
181 Sonar

Claims

Patentansprüche :
1. Eingabevorrichtung (101) für einen Rechner oder eine Bedienanlage (181), wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung (107) und eine Anzeigeeinrichtung (103) aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, gekennzeichnet durch ein virtuelles Bedienelement (117) mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
2. Eingabevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Rechner oder die Bedienanlage einen Sensor aufweist und ein durch den Sensor gewonnenes Sensorsignal mittels der Eingabevorrichtung optisch und/oder haptisch dem Bediener aufgeprägt wird.
3. Eingabevorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die
Gestenerkennungseinrichtung eine Kopplungseinheit aufweist, welche an einem Körperteil, insbesondere Hand, des Bedieners anbringbar ist, sodass eine Bewegung des Körperteils mittels der Kopplungseinheit detektierbar ist .
4. Eingabevorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die
Gestenerkennungseinrichtung einen Bewegungsdetektionssensor (107) aufweist, welcher die Bewegung eines Körperteils, insbesondere der Hand, defektiert .
5. Eingabevorrichtung nach einem der vorherigen Ansprüche, gekennzeichnet durch weitere virtuelle Bedienelemente (129, 131) mittels derer der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
6. Eingabevorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die virtuellen Bedienelemente schaltbar ausgesatltet sind, sodass diese durch den Bediener aktivierbar und/oder deaktivierbar sind.
7. Eingabevorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass eines der Bedienelemente eine virtuelle Maus (119), ein virtueller Joystick (117), ein virtuelles Touch-Pad, ein virtueller Schieberegler (129), ein virtueller Schalter (131), ein virtueller Drehknopf (123) oder ein virtueller Stift ist.
8. Rechner oder Bedienanlage, insbesondere Sonar, welcher oder welche eine Eingabevorrichtung nach einem der vorherigen Ansprüche aufweist.
9. Fahrzeug, insbesondere Flugzeug, Schiff oder Unterseeboot, welches einen Rechner oder eine Bedienanlage nach Anspruch 8 aufweist.
PCT/DE2015/100152 2014-05-22 2015-04-10 Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug WO2015176707A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014107220.0A DE102014107220A1 (de) 2014-05-22 2014-05-22 Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug
DE102014107220.0 2014-05-22

Publications (1)

Publication Number Publication Date
WO2015176707A1 true WO2015176707A1 (de) 2015-11-26

Family

ID=53365684

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2015/100152 WO2015176707A1 (de) 2014-05-22 2015-04-10 Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug

Country Status (2)

Country Link
DE (1) DE102014107220A1 (de)
WO (1) WO2015176707A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020058598A1 (fr) 2018-09-21 2020-03-26 Psa Automobiles Sa Procédé de commande d'un système embarqué

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110298704A1 (en) * 2005-10-21 2011-12-08 Apple Inc. Three-dimensional imaging and display system
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US8287373B2 (en) * 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
KR20050102803A (ko) * 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
US20110276891A1 (en) * 2010-05-06 2011-11-10 Marc Ecko Virtual art environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110298704A1 (en) * 2005-10-21 2011-12-08 Apple Inc. Three-dimensional imaging and display system
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NGUYEN THONG DANG: "A STEREOSCOPIC 3D VISUALIZATION ENVIRONMENT FOR AIR TRAFFIC CONTROL AN ANALYSIS OF INTERACTION AND A PROPOSAL OF NEW INTERACTION TECHNIQUES", PH.D. THESIS, 31 December 2005 (2005-12-31), XP055046789, Retrieved from the Internet <URL:http://www.eurocontrol.int/eec/gallery/content/public/documents/PhD_theses/2005/Ph.D_Thesis_2005_Dang_T.pdf> [retrieved on 20121205] *
ROBERT J. BARTON III ET AL: "Large Scale Interactive Data Visualization for Undersea Warfare Applications", 13 September 2002 (2002-09-13), XP055201668, Retrieved from the Internet <URL:http://www.dzdvi.net/uploads/3/8/5/3/38536945/largescaledataviz_sept02.pdf> [retrieved on 20150710] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020058598A1 (fr) 2018-09-21 2020-03-26 Psa Automobiles Sa Procédé de commande d'un système embarqué
FR3086420A1 (fr) 2018-09-21 2020-03-27 Psa Automobiles Sa Procede de commande d’un systeme embarque

Also Published As

Publication number Publication date
DE102014107220A1 (de) 2015-11-26

Similar Documents

Publication Publication Date Title
DE102019002898B4 (de) Robotersimulationsvorrichtung
EP3359348B1 (de) Robotersystem und verfahren zur steuerung eines robotersystems
EP3458939B1 (de) Interaktionssystem und -verfahren
EP3709133B1 (de) System zur haptischen interaktion mit virtuellen objekten für anwendungen in der virtuellen realität
DE112017004677T5 (de) Berührungsempfindliche Tastatur
EP2520993A2 (de) Vorrichtung zum Bedienen einer automatisierten Maschine zur Handhabung, Montage oder Bearbeitung von Werkstücken
EP3366434B1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
EP3259667B1 (de) Verfahren und anordnung zum überprüfen einer fläche
DE102017202439A1 (de) Eingabeeinrichtung, Verfahren zur Bereitstellung von Bewegungsbefehlen an einen Aktor und Aktorsystem
EP2876526B1 (de) Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
EP2953793B1 (de) System zur druckmaschinenbedienung
WO2015176708A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
EP3904984B1 (de) Verfahren für eine immersive mensch-maschine-interaktion
WO2015176707A1 (de) Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug
DE102019004478B3 (de) System zum Vornehmen einer Eingabe an einem Robotermanipulator
WO2003042802A2 (de) Eingabegerät, webcam und bildschirm mit spracheingabefunktion
EP2494928B1 (de) Bedieneinrichtung für eine technische Vorrichtung, insbesondere eine medizinische Vorrichtung
EP2624114A1 (de) Handsteuergerät zur Steuerung einer Vorrichtung und Verfahren
DE102019117219B4 (de) System zum Bedienen einer grafischen Benutzeroberfläche
EP3268852A1 (de) Verfahren zur gezielten auswahl von angezeigten elementen auf einer berührungssensitiven anzeige
CH702146A1 (de) Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen.
DE102016001545A1 (de) Bedienelement mit sensorik zur erkennung der bedienabsicht
WO2011060848A1 (de) Vorrichtung zum steuren eines geräts über seinen sensorbildschirm mittles schaltelementen
AT514926A4 (de) Sitzmöbel mit berührungsloser Abtastung der Fingerbewegungen des darin sitzenden Operators zur Steuerung von elektrischen und elektronischen Geräten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15727540

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 15727540

Country of ref document: EP

Kind code of ref document: A1