WO2022175077A1 - Verfahren zum erhöhen der sicherheit während des bedienens einer einrichtung - Google Patents

Verfahren zum erhöhen der sicherheit während des bedienens einer einrichtung Download PDF

Info

Publication number
WO2022175077A1
WO2022175077A1 PCT/EP2022/052364 EP2022052364W WO2022175077A1 WO 2022175077 A1 WO2022175077 A1 WO 2022175077A1 EP 2022052364 W EP2022052364 W EP 2022052364W WO 2022175077 A1 WO2022175077 A1 WO 2022175077A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
widgets
widget
user interface
current situation
Prior art date
Application number
PCT/EP2022/052364
Other languages
English (en)
French (fr)
Inventor
Björn BERTRAND
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN202280010340.5A priority Critical patent/CN116783087A/zh
Publication of WO2022175077A1 publication Critical patent/WO2022175077A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/111Instrument graphical user interfaces or menu aspects for controlling multiple devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/113Scrolling through menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/117Cursors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/119Icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/122Instrument input devices with reconfigurable control functions, e.g. reconfigurable menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/126Rotatable input devices for instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1434Touch panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/161Explanation of functions, e.g. instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/162Visual feedback on control action
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/197Blocking or enabling of input functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/199Information management for avoiding maloperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Definitions

  • the invention relates to a method for increasing safety during operation of a device, with which safety during operation can be increased in particular when a current situation requires increased attention.
  • Motor vehicles usually have a large number of technical devices which a user should be able to use as he chooses.
  • Examples of such devices are a radio, a navigation system, a motor vehicle telephone or a hands-free device integrated into the motor vehicle, or an air conditioning system.
  • These devices can be operated via input units, which receive input gestures assigned to individual operating functions, i.e. operating or adjustable functions of a device, and are coupled to the device in such a way that the operating function is selected based on a received input gesture and these are then set accordingly or can be controlled, take place.
  • input units which receive input gestures assigned to individual operating functions, i.e. operating or adjustable functions of a device, and are coupled to the device in such a way that the operating function is selected based on a received input gesture and these are then set accordingly or can be controlled, take place.
  • a separate input device can be provided for each device, or an input device can be provided which can be alternately coupled to one of a plurality of devices.
  • an input device for example, alternately The volume of a radio can be adjusted, a call can be taken, or a desired room temperature can be specified for an air conditioner.
  • an electronic system for planning and carrying out a mission to be carried out with a vehicle having a first display device, which is equipped with a touch-sensitive screen, and two separate operating modes, with a planning mode the screen of the first display device is set up for input and output, in an execution mode the screen of the first display device is set up exclusively for indirect input via gesture control in the manner of a multi-touchpad, and comprises a second display device, the first and the second display device interact in such a way that the inputs that can be made via the screen of the first display device in the execution mode are used to control a display on the second display device.
  • the object of embodiments of the invention is to specify a method for increasing safety during operation of a device, with which safety during operation can be increased in particular when a current situation requires increased attention.
  • this object is achieved by a method for increasing security while operating a device, wherein a plurality of widgets are displayed on a graphical user interface, each widget being assigned an operating function of the device, and each operating function by selecting of the corresponding widget can be selected by a user-executable input gesture.
  • data about a current situation is first recorded and, based on the data about the current situation, it is determined whether increased attention is required in the current situation. If it is determined that the current situation requires increased attention, widgets displayed on the graphical user interface are arranged in such a way that each widget is assigned a simple input gesture, which differs greatly from other input gestures associated with other displayed widgets, in order to ensure safety increase while operating the facility.
  • a graphical user interface is understood to mean a user interface or user interface that is designed to be a device, for example a radio, a navigation system, a car telephone or an in a hands-free device integrated into a motor vehicle, or to make an air conditioning system operable by means of graphic symbols, so-called widgets.
  • the device can then be operated or the corresponding selection can be made, for example, by means of a control device, for example a trackball or a touchpad, in which case the control device can be designed in particular to display a cursor in response to received or recorded input gestures to select a widget to shift accordingly.
  • a widget can be selected by moving the cursor towards or onto the corresponding widget in response to an input gesture.
  • assignments between widgets and input gestures assigned to the individual widgets can also be stored in a memory, for example in the form of a look-up table.
  • the graphical user interface can also be displayed, for example, on an instrument cluster or a head-up display of a motor vehicle.
  • Operating functions are also control elements that can be selected, implemented or controlled using the widgets and the corresponding input gestures, and other elements or information that are required to complete a task or to operate the device accordingly.
  • a method for increasing safety during operation of a device is thus specified, with which safety during operation can be increased in particular when a current situation requires increased attention.
  • the driver can be, for example, driving a motor vehicle.
  • the driver's view of the outside should be continuous, ie, as uninterrupted as possible, while the driver is driving.
  • the input gestures can be recorded, for example, by means of a trackball attached to the steering wheel of the motor vehicle, whereas the graphical user interface can be displayed on an instrument cluster or a head-up display of the motor vehicle.
  • Simple input gestures are also understood here to mean, for example, gestures that have a small or reduced number of degrees of freedom.
  • simple input movements are understood to mean, in particular, rotational movements or linear movements.
  • an example of such a simple input gesture is a Movement with a finger and/or hand forwards or backwards.
  • individual input gestures differ greatly means that they differ significantly and individual input gestures that are possible for selecting displayed widgets can be easily distinguished from one another without great effort.
  • confidence intervals in the assignment of recorded input gestures to individual widgets can be set in such a way that, if it is determined that the current situation requires increased attention, each recorded input gesture can be assigned to a widget.
  • Such a confidence interval or confidence interval or confidence range specifies the range within which recorded input gestures are still assigned to a widget, even though they do not correspond exactly to the input gesture assigned to the widget.
  • the method further comprises reducing a number of widgets presented on the graphical user interface when it is determined that the current situation requires special attention compared to a state in which special attention is not required.
  • At least information about the input gestures assigned to the displayed widgets can be presented.
  • the at least one piece of information can in particular be a graphical representation or a description of an input gesture displayed on a display device or on the graphical user interface.
  • the at least one piece of information can also be presented on a display unit configured on the corresponding input unit.
  • Graphic representations of this type are generally very easy to understand and enable a user to obtain an overview and to recognize in a very short time which input gesture has to be carried out to select a specific operating function. This enables the user to quickly understand possible input gestures without having to direct his attention and/or concentration to a corresponding input device or the graphical user interface for an unnecessarily long time.
  • the at least one piece of information ie a corresponding operating help, is only displayed temporarily, for example for 1.5 seconds.
  • a detected input gesture can also be displayed in real time on a display device.
  • a user can thus be signaled directly as to whether the input gesture executed also corresponds to the input gesture which he wanted to execute.
  • the user can thus grasp the situation quickly without having to constantly focus his attention and concentration on a corresponding input device.
  • this enables a better understanding of the corresponding in- interaction input and a kinetic sensation on a trackball, for example, can be better compared with a corresponding visual result.
  • a confirmation action may also be required in order to select the operating function assigned to the corresponding widget.
  • This can ensure, for example, that an input gesture performed by a user is actually assigned to the desired operating function, without the user having to repeat an input gesture until it is actually assigned to the desired operating function, since this is not clearly assigned could be arranged.
  • possible misinterpretations are avoided as a result of a user paying attention and concentrating on other circumstances and improperly performing an input gesture.
  • a feedback signal can also be output after an operating function assigned to a widget has been selected.
  • the feedback signal can, for example, be output haptically, visually, or in the form of audio.
  • Another embodiment of the invention also specifies an input device for increasing security when operating a device, the input device having a graphical user interface on which a number of widgets are displayed, each widget being assigned an operating function of the device, and wherein each operating function can be selected by selecting the corresponding widget by a user-executable input gesture.
  • the input device also has an input unit, which is designed to receive input gestures performed by a user, a detection unit, which is designed to record data about a current situation, a determination unit, which is designed based on the data determine the current situation, whether increased attention is required in the current situation, and a user interface control module, which is designed to arrange the widgets displayed on the graphical user interface in such a way that each widget has a simple input gesture that is differs greatly from input gestures associated with other displayed widgets, in order to increase safety during operation of the device if it is determined by the determination unit that increased attention is required in the current situation.
  • an input unit which is designed to receive input gestures performed by a user
  • a detection unit which is designed to record data about a current situation
  • a determination unit which is designed based on the data determine the current situation, whether increased attention is required in the current situation
  • a user interface control module which is designed to arrange the widgets displayed on the graphical user interface in such a way that each widget has a simple input gesture that is differs
  • an input device for increasing security during operation of a device is specified, with which the safety during operation can then be increased in particular when a current situation requires increased attention.
  • each widget is assigned a simple input gesture, which differs greatly from input gestures associated with other displayed widgets, rapid and precise interaction with the individual widgets is made possible and a cognitive load when selecting the widgets can be significantly reduced.
  • This has the advantage that the corresponding input device attracts the concentration of a user as little as possible, and the user can instead direct his full attention to the situation requiring his attention.
  • the driver's view of the outside should be continuous, that is to say, as uninterrupted as possible, while the driver is driving.
  • the input gestures can be recorded, for example, by means of a trackball attached to the steering wheel of the motor vehicle, whereas the graphical user interface can be displayed on an instrument cluster or a head-up display of the motor vehicle.
  • a situation in which increased attention is required also arises, for example, when a user who executes the input gestures is wearing gloves and the input gestures can only be received or detected with difficulty and no longer precisely.
  • simple input gestures are understood to mean, for example, gestures which have a low or reduced number of degrees of freedom.
  • Especially simple input movements are understood to mean, in particular, rotational movements or linear movements.
  • An example of such a simple input gesture is, for example, a forward or backward movement with a finger and/or hand.
  • individual input gestures differ greatly means that they differ significantly and individual input gestures that are possible for selecting displayed widgets can be easily distinguished from one another without great effort.
  • the user interface control module can be further configured to set confidence intervals when assigning recorded input gestures to individual widgets in such a way that each input gesture recorded by the input unit can be assigned to a widget if it is determined by the determination unit that in the current situation increased attention is required.
  • This has the advantage that the input device does not unnecessarily draw the concentration or attention of a user in situations in which increased attention is generally required, in particular by not unnecessarily prompting the user to perform an input gesture again if a previously captured input gesture does not exactly match an input gesture associated with a widget.
  • widgets and corresponding operating functions can also be selected by quick input gestures that do not have a proper motor function.
  • the user interface control module is further configured to reduce the number of widgets displayed on the graphical user interface compared to a state in which no increased attention is required if it is determined by the determination unit that in the current situation requires increased attention.
  • the user interface control module can also be designed to display at least one piece of information about the input gestures assigned to the displayed widgets on a display Present pointing device if it is determined by the determination unit that increased attention is required in the current situation.
  • the at least one piece of information can in turn be, in particular, a graphical representation or a description of an input gesture on a display device or on the graphical user interface.
  • the display device can also be the display device on which the graphical user interface is also presented.
  • the display device can thus be, for example, an instrument cluster or a head-up display of a motor vehicle.
  • the display device can also be a separate display device, with the display device preferably being arranged close to a viewing area of an area that requires increased attention, for example as close as possible to a windshield of a motor vehicle, but without affecting the view restricted to the area that requires increased attention.
  • the display device can also be a display device formed on the input unit.
  • Graphic representations of this type are generally very easy to understand and enable a user to obtain an overview and to recognize in a very short time which input gesture has to be carried out to select a specific operating function. This enables the user to quickly understand possible input gestures, without having to focus your attention and/or concentration on the input device or the graphical user interface for an unnecessarily long time.
  • the user interface control module can in turn be designed in such a way that the at least one piece of information, ie a corresponding operating aid, is only displayed temporarily, for example for 1.5 seconds.
  • the input device can also further have a display module, which is designed to display an input gesture detected by the input unit in real time on a display device.
  • a user can thus be signaled directly as to whether the input gesture carried out also corresponds to the input gesture which he wanted to carry out. The user can thus grasp the situation quickly without having to constantly pay attention and concentrate on the input device. Furthermore, this enables a better understanding of the corresponding interaction input and, for example, a kinetic sensation on a trackball can be better compared with a corresponding visual result.
  • the display device can in turn be the display device on which the graphical user interface is also presented.
  • the display device can be a combination instrument or a head-up display of a motor vehicle, for example.
  • the display device can also be a separate display device.
  • the input device can also have a confirmation element which is designed to record a confirmation action by a user, the user interface control module being further designed to only select an operating function assigned to a widget if a corresponding input gesture is made by the input unit and a confirmation action is detected by the confirmation element. This can ensure, for example, that an input gesture performed by a user is actually assigned to the desired operating function, without the user having to repeat an input gesture until it is actually assigned to the desired operating function because it could not be assigned clearly.
  • the input device can also have a feedback transmitter, which is designed to output a feedback signal after an operating function assigned to a widget has been selected.
  • a feedback transmitter which is designed to output a feedback signal after an operating function assigned to a widget has been selected.
  • the feedback transmitter can be designed, for example, to output the feedback signal haptically, visually or in the form of audio.
  • a further embodiment of the invention also specifies a motor vehicle which has an input device as described above.
  • a motor vehicle which has an input device with which safety can be increased during operation, in particular when a current situation requires increased attention.
  • the present invention specifies a method for increasing safety during operation of a device, with which safety during operation can be increased in particular when a current situation requires increased attention.
  • the method can also be designed in such a way that the user can quickly orientate himself on the graphical user interface and can quickly understand the input gestures required to select operating functions.
  • FIG. 1 shows a flow chart of a method for increasing security during the operation of a device according to embodiments of the invention
  • FIG. 2 shows a block diagram of an input device for increasing security during operation of a device according to embodiments of the invention
  • Figures 3A and 3B illustrate a method for increasing security while operating a device according to an embodiment
  • FIGS. 4A and 4B illustrate a method for increasing security during the operation of a device according to a second embodiment.
  • FIG. 1 shows a flow chart of a method 1 for increasing security during the operation of a device according to embodiments of the invention.
  • Figure 1 shows a method 1 for increasing security during the operation of a device, with several widgets being displayed on a graphical user interface, with each widget being assigned an operating function of the device, and with each operating function being activated by selecting the corresponding widget an input gesture executable by a user can be selected.
  • Motor vehicles usually have a large number of technical devices which a user should be able to use as he chooses.
  • Examples of such devices are a radio, a navigation system, a motor vehicle telephone or a hands-free device integrated into the motor vehicle, or an air conditioning system.
  • These devices can be operated via input units, which receive input gestures assigned to individual operating functions, i.e. operating or adjustable functions of a device, and are coupled to the device in such a way that the operating function is selected based on an input gesture received and this is then done can be adjusted or controlled accordingly.
  • the input units can be, for example, a touchpad or a trackball arranged on a steering wheel of the motor vehicle.
  • the method 1 has a step 2 of acquiring data about a current situation and a subsequent step 3 of determining, based on the acquired data about the current situation, whether increased attention is required in the current situation is. If it is determined that the current situation requires increased attention, in step 4 widgets displayed on the graphical user interface are then arranged in such a way that each widget has a simple input gesture that differs greatly from input gestures associated with other displayed widgets differs, is assigned to increase security during operation of the device.
  • step 3 If, on the other hand, it is determined in step 3 that no increased attention is required in the current situation, an input device is operated in its normal state according to the embodiments in FIG Step 5
  • the graphical user interface as originally saved and pre-configured and presented without any changes or corresponding adjustments.
  • the driver can be, for example, driving a motor vehicle.
  • the driver's view of the outside should be continuous, ie, as uninterrupted as possible, while the driver is driving.
  • the input gestures can be recorded, for example, by means of a trackball attached to the steering wheel of the motor vehicle, whereas the graphical user interface can be displayed on an instrument cluster or a head-up display of the motor vehicle.
  • Simple input gestures are also understood here to mean, for example, gestures that have a small or reduced number of degrees of freedom.
  • simple input movements are understood to mean, in particular, rotational movements or linear movements.
  • An example of such a simple input gesture is, for example, a forward or backward movement with a finger and/or hand.
  • individual input gestures differ greatly means that they differ significantly and individual input gestures that are possible for selecting displayed widgets can be easily distinguished from one another without great effort.
  • Figure 1 shows a further step 6 of detecting an input gesture performed by a user, wherein, according to the embodiment of Figure 1, confidence intervals are set in the assignment of detected input gestures to individual widgets such that, if it is determined that in the current situation increased attention is required, any input gesture captured can be associated with a widget.
  • the method 1 also has a further step 7 of reducing a number of widgets displayed on the graphical user interface compared to a state in which no increased attention is required, i.e. compared to the preconfigured normal state, if determined that increased attention is required in the current situation.
  • the selection of the widgets, which are also to be displayed in situations in which increased attention is required, can be made here by artificial intelligence based on widgets and corresponding operating functions, which a user has selected in comparable situations in the past, take place.
  • a corresponding artificial neural network can be trained, for example, based on previous selections of widgets or corresponding operating functions by a user in comparable situations as input variables. If there are different users of the corresponding input device, it can also be for each user own artificial neural network can be trained.
  • wel che operating functions that are absolutely necessary for the regular operation of the device and / or the motor vehicle are assigned.
  • the method 1 also has a step 8 of presenting at least one piece of information about the input gestures assigned to the displayed widgets if it is determined that the current situation requires increased attention.
  • the at least one piece of information can in particular be a graphical representation or a description of an input gesture on a display device or on the graphical user interface. Furthermore, information about selectable operating functions can also be presented to a user with the at least one piece of information.
  • the method also has a step 9 of displaying a detected input gesture in real time on a display device.
  • a confirmation action performed by the user is also received, with such a confirmation action being necessary in order to select the operating function assigned to the corresponding widget.
  • Method 1 also has a step 11 of outputting a feedback signal after an operating function assigned to a widget has been selected.
  • the feedback signal can, for example, be haptic, visual, or output in the form of audio. For example, a brightness of a display on which the graphical user interface is shown can be increased, or the display can blink.
  • FIG. 2 shows a block diagram of an input device 20 for increasing security during the operation of a device according to embodiments of the invention.
  • FIG. 2 shows an input device 20 which has an input unit 21 and a display unit 22 coupled to the input unit 21 .
  • the input device 20 also has a graphical user interface 23 shown on the display unit 22, with a device being able to be operated via the graphical user interface 23 or a user being able to interact with the device via the graphical user interface by using the graphical user interface 23 to select the operating parameters of the Device displayed and via the input unit 21 control inputs of a user for the appropriate control of loading operating functions of the device are accepted.
  • the input device 20 has a microcontroller 24, which has an integrated memory 25, and a user interface control module 26, the individual components of the input device 20 being communicatively coupled to one another, for example by Means of interprocess communication, wireless communication, through shared memory areas, a bus, or the like.
  • the memory 25 contains control information in the form of a script with window description source text, the elements or widgets of the graphical user interface 23 defined and their features or properties, such as appearance and behavior specified.
  • the memory 25 contains a repository which contains the text, graphics and sound resources required for the graphic user interface 23 and which are to be displayed in the graphic user interface 23 .
  • the user interface control module 26 also has an interpreter 27, a GUI manager 28 and an interface 29 to at least one device to be controlled or operated by the input device 20 .
  • the interface 29 is designed to create a logical interface between corresponding applications running on the device, the individual operating functions and the GUI script, ie the control information.
  • the interface 29 is based on the three functional elements event, action and data.
  • the microcontroller 24 has a graphics interface 30 via which it is connected to the display unit 22 .
  • the 21 is further designed to detect input gestures performed by a user, with the input device 20 having an association unit 31 in order to assign a detected input gesture to a control command, for example a command to move or shift an item on the display unit
  • assignment unit 31 can be based, for example, on one or more look-up tables stored in the memory 25 or in a separate memory. According to the embodiment of FIG. 2, assignment unit 31 is embodied within microcontroller 24. Furthermore, the assignment unit can also be configured within the input unit, for example.
  • the input unit 21 is a trackball which is arranged on a steering wheel of a motor vehicle and communicates wirelessly with the display unit 22 .
  • Input gestures of a user recorded via the trackball are recorded and, for example, corresponding displacements of a cursor displayed on the display unit 22 are assigned.
  • the display unit 22 is also a display unit of an instrument cluster of the motor vehicle.
  • the input device 20 shown also has a detection unit 32, which is designed to detect data about a current situation, and a determination unit 33, which is designed to determine, based on the data detected by detection unit 32, whether in the current situation requires increased attention.
  • the detection unit 32 has optical sensors in order to detect environmental data.
  • the detection unit 32 according to the embodiments in FIG. 2 is coupled to an engine controller of the motor vehicle in order to detect whether the motor vehicle is currently in operation.
  • the determination unit 33 can in particular be a unit or act as a module, which has a processor and a memory, wherein in the memory code which is executable by the processor to determine based on data captured by the detection unit 32 whether increased attention is required in the current situation.
  • the user interface control module 26 shown has an arrangement module 34, which is designed to arrange the widgets shown on the graphical user interface 23 in such a way that each widget has a simple input gesture, which differs greatly from the input gestures associated with the other widgets shown. is assigned to increase safety during operation of the facility if it is determined by the determination unit 33 that increased attention is required in the current situation.
  • arrangement module 34 is designed to arrange the widgets shown on the graphical user interface 23 in such a way that each widget has a simple input gesture, which differs greatly from the input gestures associated with the other widgets shown. is assigned to increase safety during operation of the facility if it is determined by the determination unit 33 that increased attention is required in the current situation.
  • different lookup tables tailored to the relevant application can be stored, in which associations between widgets displayed in the relevant situation and their arrangement within the graphical user interface 23 are stored.
  • the illustrated user interface control module 26 also has a confidence module 35, which is designed to set confidence intervals in the assignment of recorded input gestures to individual widgets in such a way that each input gesture recorded by the input unit 21 can be assigned to a widget, if by the determination unit 33 determines that increased attention is required in the current situation.
  • the user interface control module 26 also has a reduction module 36, which is designed to reduce the number of widgets displayed on the graphical user interface compared to a state in which no increased attention is required, if it is determined by the determination unit 32 that in the current situation an increased attention is required attention is required.
  • the selection of the widgets, which are also to be displayed in situations in which increased attention is required, can be made here by artificial intelligence based on widgets and corresponding operating functions, which a user has selected in comparable situations in the past, take place, with information about situations recorded in the past and information about which widgets or operating functions a user has selected in the past when a corresponding situation exists is provided as input variables to an artificial intelligence module, the artificial intelligence module being designed, to train an artificial neural network based on these input variables.
  • an artificial intelligence module the artificial intelligence module being designed, to train an artificial neural network based on these input variables.
  • only widgets can be displayed, which operating functions that are mandatory for the regular operation of the device and/or the motor vehicle are assigned, with corresponding assignments being made, for example, in can be stored in a memory.
  • the user interface control module 26 has a presentation module 37 which is designed to present at least one item of information about the input gestures assigned to the displayed widgets on the display unit 22 if the determination unit 33 determines that in the current situation requires increased attention.
  • the information about the input gestures assigned to the individual widgets can in turn be stored in a memory.
  • the information about input gestures assigned to individual widgets is also preferably presented on the display unit 22 adjacent to or in the immediate vicinity of the corresponding widgets.
  • the user interface control module 26 shown also has a display module 38 which is designed to display an input gesture detected by the input unit 21 in real time on the display unit 22 .
  • the input device 20 also has a confirmation element 39 which is designed to record a confirmation action by a user.
  • the confirmation action is formed by a ball of the trackball, the confirmation action comprising pressing the trackball.
  • the user interface control module 26 is further developed to only select an operating function assigned to a widget, i.e. to transmit corresponding control information to a device via the interface 29 only if a corresponding input gesture is made by the input unit 21 and a confirmation action by the Confirmation element 39 is detected.
  • the input device 20 also has a feedback transmitter 40 which is designed to output a feedback signal after an operating function assigned to a widget has been selected.
  • the feedback transmitter 40 is in particular an acoustic signal transmitter.
  • FIGS. 3A and 3B illustrate a method 50 for increasing security during the operation of a device according to a first embodiment.
  • two widgets 51, 52 are displayed on a graphical user interface.
  • the widgets 51, 52 are assigned functions of a motor vehicle telephone or of a hands-free device integrated in a motor vehicle.
  • a cursor 53 is also shown, which can be moved accordingly by input gestures detected via an input unit, for example a trackball arranged on the steering wheel of the motor vehicle, in order to select one of the two widgets 51, 52 and the corresponding operating function.
  • the cursor 53 can display the current finger position of a user's finger.
  • the widgets 51, 52 are further arranged on the graphical user interface in such a way that each widget 51, 52 is assigned a simple input gesture in order to increase security while operating the device.
  • the simple input gestures are input gestures that have only one degree of freedom and therefore a reduced number of degrees of freedom, and in particular movements with a finger and/or hand forwards or backwards, or a corresponding flick of a trackball front or back.
  • information 54 is also presented about the input gestures associated with the displayed widgets 51, 52, with the information 54 being a graphical representation of the input gestures required to select the individual widgets 51, 52 acts.
  • the information is displayed between the two widgets 51, 52.
  • the information can also be displayed next to the displayed widgets, for example next to the two widgets.
  • FIG. 3A shows the graphical user interface during an incoming call, with the cursor 53 being shown between the two widgets 51, 52, the incoming call being initiated by moving a finger or hand forward or by flicking a trackball forward can be answered and the incoming call can be rejected by a backward movement of a finger or hand or a backward flick of a trackball.
  • FIG. 3B in turn shows the graphical user interface, the cursor 53 having been moved in the direction of the first widget 51 by a corresponding input gesture in order to accept the incoming call.
  • a visual feedback is generated after the call has been accepted, the visual feedback according to the first embodiment having an enlargement of the representation of the first widget 51 .
  • the feedback signal can, for example, also indicate a shifting of the first widget after the cursor has been shifted to the first widget.
  • the method is designed in such a way that an input gesture detected by a trackball arranged on a steering wheel of a motor vehicle can also be reliably processed during a steering movement.
  • FIGS. 4A and 4B illustrate a method 60 for increasing security during the operation of a device according to a first embodiment.
  • the second embodiment six widgets 61, 62, 63, 64, 65, 66 are displayed on a graphical user interface.
  • the first five widgets 61, 62, 63, 64, 65 are widgets that are assigned to operational functions that a user has selected in the past during corresponding situations that require increased attention. These widgets 61, 62, 63, 64, 65 are thus displayed in order to enable quick access to these functions.
  • the additional widget 66 the selection of the displayed widgets can be changed and, for example, you can navigate between different levels, with the widgets displayed on the individual levels being stored and thus predetermined.
  • the widgets are displayed on a graphical user interface.
  • the first five widgets 61, 62, 63, 64, 65 are widgets that are assigned to operational functions that a user has selected in the past during corresponding situations that require increased attention. These widgets 61, 62, 63, 64, 65 are thus displayed in order to enable quick access to these functions.
  • the additional widget 66 the selection of the displayed widgets can
  • 61,62,63,64,65,66 in turn arranged on the graphical user interface in such a way that to select one of the widgets 61,62,63,64,65 a simple input gesture, in particular a rotational movement, is required, which is strong from an input gesture required to select the additional widget 66, which is in particular a linear movement, is assigned in order to increase security during the operation of the device.
  • the first five widgets 61, 62, 63, 64, 65 can be selected, in particular, via a rotational movement with a finger or a hand or by moving a trackball in a circular fashion.
  • the additional widget 66 can in turn be selected in particular by moving a finger or a hand forward or by flicking a trackball forward.
  • FIG. 4A shows a situation during which a user selects one of the first five widgets 61, 62, 63, 64, 65 via a corresponding rotational movement, whereby he selects one of the first five widgets 61, 62, 63, 64, 65 can be confirmed by a confirmation action, for example by pressing a trackball.
  • individual positions on the graphical user interface are occupied twice, that is to say that two widgets are nearby the corresponding position on the graphical user interface are arranged, for example by horizontally flicking a trackball or pressing a trackball ei nes trackball between these two widgets and the corre sponding respectively assigned operating functions who can change.
  • inactive widgets can be arranged elsewhere, for example on an edge of the graphical user interface, with a corresponding input device also being able to be designed in such a way that a currently displayed widget is currently active, i.e. a corresponding interaction surface is active, while the widgets that are currently not displayed or displayed elsewhere, for example at an edge of the graphical user interface, are switched to inactive.
  • the information 67 relating to the rotational movement is clearly presented, while the information 68 relating to the input gesture required to select the additional widget 66 is only shown schematically and fades into the background during the rotational movement.
  • the information 67 relating to the rotational movement can also be designed to be displayed only schematically after a certain time, for example after 1.5 s, or after a certain angular distance has been covered, for example 180°.
  • FIG. 4B shows a situation in which a user would like to navigate to another level by selecting the additional widget 66 and select it.
  • FIG. 4B shows, in this case the information 68 relating to the input gesture required to select the additional widget is clearly presented, while the rotational movement required to select the first five widgets 61,62,63,64,65 relevant information 67 are only shown schematically and recede into the background. Furthermore, the first five widgets 61,62,63,64,65 can also be switched to inactive by a corresponding user interface control module during a selection of the additional widget 66, so that it is impossible that one of the first five widgets 61,62 accidentally ,63,64,65 is selected in response to the input gesture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung, wobei auf einer grafischen Benutzerschnittstelle mehrere Widgets dargestellt werden, wobei jedem Widget jeweils eine Bedienfunktion der Einrichtung zugeordnet ist, und wobei jede Bedienfunktion durch Auswählen des entsprechenden Widgets durch eine durch einen Nutzer ausführbare Eingabegeste ausgewählt werden kann, wobei das Verfahren (1) folgende Schritte aufweist: - Erfassen von Daten über eine aktuelle Situation (2); - Bestimmen basierend auf den Daten über die aktuelle Situation, ob in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist (2); - Falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, Anordnen der auf der grafischen Benutzerschnittstelle dargestellten Widgets derart, dass jedem Widget eine einfache Eingabegeste, welche sich stark von anderen dargestellten Widgets zugeordneten Eingabegesten unterscheidet, zugeordnet ist, um die Sicherheit während des Bedienens der Einrichtung zu erhöhen (4).

Description

Beschreibung
Verfahren zum Erhöhen der Sicherheit während des Bedienens ei ner Einrichtung
Die Erfindung betrifft ein Verfahren zum Erhöhen der Sicher heit während des Bedienens einer Einrichtung, mit welchem die Sicherheit während eines Bedienens insbesondere dann erhöht werden kann, wenn eine aktuelle Situation eine erhöhte Auf merksamkeit erfordert.
Beispielsweise Kraftfahrzeuge weisen für gewöhnlich eine Viel zahl von technischen Einrichtungen auf, welche ein Benutzer nach seiner Wahl beliebig bedienen können soll. Beispiele für derartige Einrichtungen sind ein Radio, ein Navigationssystem, ein KFZ-Telefon beziehungsweise eine in das Kraftfahrzeug in tegrierte Freisprecheinrichtung, oder eine Klimaanlage.
Die Bedienung dieser Einrichtungen kann dabei über Eingabeein heiten, welche einzelnen Bedienfunktionen, das heißt bedien beziehungsweise einstellbaren Funktionen einer Einrichtung zu geordnete Eingabegesten empfangen und mit der Einrichtung der art gekoppelt sind, dass die Bedienfunktion basierend auf ei ner empfangenen Eingabegeste ausgewählt und diese anschließend entsprechend eingestellt beziehungsweise angesteuert werden kann, erfolgen.
Weiter kann für jede Einrichtung eine separate Eingabevorrich tung vorgesehen sein oder kann eine Eingabevorrichtung bereit gestellt werden, welche abwechselnd mit einer von mehreren Einrichtungen gekoppelt werden kann. So kann mittels einer derartigen Eingabevorrichtung beispielsweise abwechselnd eine Lautstärke eines Radios eingestellt werden, ein Anruf entge gengenommen werden, oder eine gewünschte Raumtemperatur bei einer Klimaanlage vorgegeben werden.
Derartige Eingabevorrichtungen erfordern für gewöhnlich je doch, dass sich ein Nutzer stark auf diese fokussiert. In ein zelnen Situationen, beispielsweise bei der Steuerung eines Kraftfahrzeuges ist es dabei jedoch wichtig, dass ein Nutzer seine Aufmerksamkeit und Konzentration im Wesentlichen kom plett auf die Steuerung des Kraftfahrzeuges legt. Entsprechend sollten derartige Eingabevorrichtungen dabei die Konzentration des Nutzers so wenig auf sich lenken wie möglich, um diesen nicht unnötig abzulenken. Gleichzeitig muss jedoch auch eine sichere Bedienung von zumindest den wichtigsten Einrichtungen gewährleistet sein.
Aus der Druckschrift DE 102015 005 853 Al ist ein elektroni sches System zur Planung und Durchführung einer mit einem Fahrzeug durchzuführenden Mission bekannt, wobei das System ein erstes Anzeigegerät, das mit einem berührungsempfindlichen Bildschirm ausgestattet ist, und zwei separate Bedienungsmodi aufweist, wobei in einem Planungsmodus der Bildschirm des ers ten Anzeigegeräts zur Eingabe und Ausgabe eingerichtet ist, in einem Durchführungsmodus der Bildschirm des ersten Anzeigege rätes ausschließlich zur indirekten Eingabe per Gestensteue rung in der Art eines Multi-Touchpad eingerichtet ist, und ein zweites Anzeigegerät umfasst, wobei das erste und das zweite Anzeigegerät derart Zusammenwirken, dass die über den Bild schirm des ersten Anzeigegeräts im Durchführungsmodus vornehm baren Eingaben zur Steuerung einer Anzeige auf dem zweiten An zeigegerät dienen. Aufgabe von Ausführungsformen der Erfindung ist es, ein Ver fahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung anzugeben, mit welchem die Sicherheit während ei nes Bedienens insbesondere dann erhöht werden kann, wenn eine aktuelle Situation eine erhöhte Aufmerksamkeit erfordert.
Gelöst wird diese Aufgabe durch den Gegenstand der nebengeord neten Ansprüche. Weitere vorteilhafte Weiterbildungen sind Ge genstand der abhängigen Ansprüche.
Gemäß einer Ausführungsform der Erfindung wird diese Aufgabe gelöst durch ein Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung, wobei auf einer grafischen Benutzerschnittstelle mehrere Widgets dargestellt sind, wobei jedem Widget jeweils eine Bedienfunktion der Einrichtung zuge ordnet ist, und wobei jede Bedienfunktion durch Auswählen des entsprechenden Widgets durch eine durch einen Nutzer ausführ bare Eingabegeste ausgewählt werden kann. Dabei werden zu nächst Daten über eine aktuelle Situation erfasst und basie rend auf den Daten über die aktuelle Situation bestimmt, ob in der aktuellen Situation eine erhöhte Aufmerksamkeit erforder lich ist. Falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, werden auf der grafischen Benutzerschnittstelle dargestellte Widgets derart angeordnet, dass jedem Widget eine einfache Eingabegeste, wel che sich stark von anderen dargestellten Widgets zugeordneten Eingabegesten unterscheidet, zugeordnet ist, um die Sicherheit während des Bedienens der Einrichtung zu erhöhen.
Unter grafischer Benutzerschnittstelle wird hierbei eine Be dienoberfläche oder Benutzerschnittstelle verstanden, welche ausgebildet ist, eine Einrichtung, beispielsweise ein Radio, ein Navigationssystem, ein KFZ-Telefon beziehungsweise eine in ein Kraftfahrzeug integrierte Freisprecheinrichtung, oder eine Klimaanlage mittels grafischer Symbole, sogenannter Widgets, bedienbar zu machen. Die Bedienung der Einrichtung beziehungs weise die entsprechende Auswahl kann dann beispielsweise mit tels eines Steuergeräts, beispielsweise einen Trackball oder ein Touchpad erfolgen, wobei das Steuergerät insbesondere aus gebildet sein kann, zur Auswahl eines Widgets einen darge stellten Cursor in Reaktion auf empfangene beziehungsweise er fasste Eingabegesten entsprechend zu verschieben. Dabei kann ein Widget ausgewählt werden, indem der Cursor in Reaktion auf eine Eingabegeste in Richtung des beziehungsweise auf das ent sprechende Widget verschoben wird. Ferner können aber auch Zu ordnung zwischen Widgets und den einzelnen Widgets zugeordne ten Eingabegesten in einem Speicher hinterlegt sein, bei spielsweise in Form einer Look-up Tabelle.
Die grafische Benutzerschnittstelle kann weiter beispielsweise auf einem Kombiinstrument oder eines Head up Display eines Kraftfahrzeuges dargestellt werden.
Bei Bedienfunktionen handelt es sich ferner um mittels der Widgets und der entsprechenden Eingabegesten auswählbare, rea lisierbare beziehungsweise ansteuerbare Steuerelemente und an derer Elemente oder Informationen, die bei der Erledigung ei ner Aufgabe beziehungsweise der entsprechenden Bedienung der Einrichtung erforderlich sind.
Insgesamt wird somit ein Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung angegeben, mit welchem die Sicherheit während eines Bedienens insbesondere dann er höht werden kann, wenn eine aktuelle Situation eine erhöhte Aufmerksamkeit erfordert. So wird dadurch, dass auf der grafi- sehen Benutzerschnittstelle dargestellte Widgets derart ange ordnet werden, dass jedem Widget eine einfache Eingabegeste, welche sich stark von anderen dargestellten Widgets zugeordne ten Eingabegesten unterscheidet, zugeordnet ist, eine schnelle und präzise Interaktion mit den einzelnen Widgets ermöglicht und kann eine kognitive Last beim Auswahlen der Widgets erheb lich reduziert werden. Dies hat den Vorteil, dass die Entspre chende Eingabevorrichtung die Aufmerksamkeit und die Konzent ration eines Nutzers so wenig wie möglich auf sich lenkt, und der Nutzer seine volle Aufmerksamkeit vielmehr auf die seine Aufmerksamkeit erfordernde Situation lenken kann.
Bei Situationen, in denen eine erhöhte Aufmerksamkeit erfor derlich ist, kann es sich beispielsweise um Fahrten mit einem Kraftfahrzeug handeln. So sollte während des Fahrers die Sicht eines Fahrers nach außen durchgehend, das heißt möglichst un unterbrochen gegeben sein. Dabei können die Eingabegesten bei spielsweise mittels eines am Lenkrad des Kraftfahrzeuges be festigten Trackball erfasst werden, wohingegen die grafische Benutzerschnittstelle auf einem Kombiinstrument oder einem Head up Display des Kraftfahrzeuges dargestellt sein kann.
Eine Situation, in welcher eine erhöhte Aufmerksamkeit erfor derlich ist, ist jedoch beispielsweise auch gegeben, wenn ein Nutzer, welcher die Eingabegesten ausführt, Handschuhe trägt und die Eingabegesten nur noch schwer und nicht mehr präzise empfangen beziehungsweise erfasst werden können.
Unter einfachen Eingabegesten werden hier ferner beispiels weise Gesten, welche eine geringe beziehungsweise reduzierte Anzahl von Freiheitsgraden aufweisen, verstanden. Insbesondere werden unter einfachen Eingabebewegungen insbesondere Rotati onsbewegungen oder Linearbewegungen verstanden. Ein Beispiel für eine derartige einfache Eingabegeste ist zum Beispiel eine Bewegung mit einem Finger und/oder Hand nach vorne beziehungs weise nach hinten. Dass sich einzelne Eingabegesten dabei stark unterscheiden bedeutet dabei, dass sich diese signifi kant unterscheiden und sich einzelne zur Auswahl von darge stellten Widgets mögliche Eingabegesten ohne großen Aufwand gut voneinander unterscheiden lassen.
Weiter können Konfidenzintervallen bei der Zuordnung von er fassten Eingabegesten zu einzelnen Widgets derart eingestellt werden, dass, falls bestimmt wird, dass in der aktuellen Situ ation eine erhöhte Aufmerksamkeit erforderlich ist, jede er fasste Eingabegeste einem Widget zugeordnet werden kann.
Ein derartiges Konfidenzintervall beziehungsweise Vertrauens intervall oder Vertrauensbereich gibt dabei den Bereich an, innerhalb welchem erfasste Eingabegesten noch einem Widget zu geordnet werden, obwohl diese nicht exakt der dem Widget zuge ordneten Eingabegeste entsprechen.
Dies hat den Vorteil, dass eine entsprechende Eingabevorrich tung die Konzentration beziehungsweise Aufmerksamkeit eines Nutzers in Situationen, in denen generell eine erhöhte Auf merksamkeit erforderlich ist, nicht unnötig auf sich zieht, insbesondere indem der Nutzer nicht unnötig aufgefordert wird, eine Eingabegeste erneut auszuführen, falls eine zuvor er fasste Eingabegeste nicht exakt einer einem Widget zugeordne ten Eingabegeste entspricht. Vielmehr können Widgets und ent sprechende Bedienfunktionen auch bereits durch schnelle, moto risch unsaubere Eingabegesten ausgewählt werden. Insbesondere vereinfacht dies die Bedienung einer Einrichtung in Fällen, in denen sich eine Eingabeeinheit zur Erfassung von durch einen Nutzer ausgeführten Eingabegesten und eine Anzeigeeinheit, auf welcher die grafische Benutzerschnittstelle dargestellt ist, relativ zueinander bewegen, das heißt beispielsweise, wenn es sich bei der Eingabeeinheit um einen an einem Lenkrad eines Kraftfahrzeuges angeordneten Trackball handelt.
In einer Ausführungsform weist das Verfahren weiter ein Redu zieren einer Anzahl von auf der grafischen Benutzerschnitt stelle dargestellten Widgets verglichen mit einem Zustand, in welchem keine erhöhte Aufmerksamkeit erforderlich ist, falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, auf. Dies hat den Vorteil, dass sich ein Nutzer in Situationen, in denen eine erhöhte Aufmerksamkeit erforderlich, beispielsweise während des Be triebs eines Kraftfahrzeuges, schnell orientieren kann und sich zur Bedienung der Einrichtung nicht erst langwierig einen Überblich über die dargestellten Widgets verschaffen muss. Die Auswahl der Widgets, welche auch in Situationen, in denen eine erhöhte Aufmerksamkeit erforderlich ist, noch dargestellt wer den sollen, kann hierbei durch künstliche Intelligenz basie rend auf Widgets und entsprechenden Bedienfunktionen, welche ein Nutzer in der Vergangenheit in vergleichbare Situationen ausgewählt hat, erfolgen. Ferner können in Situationen, in welchen eine erhöhte Aufmerksamkeit erforderlich ist, aber auch nur noch Widgets dargestellt werden, welche Bedienfunkti onen, die zwingend zum regulären Betrieb der Einrichtung und/oder des Kraftfahrzeuges erforderlich sind, zugeordnet sind. Ferner kann eine dargestellte Anrufliste beispielsweise auch nur die letzten fünf Verbindungen anzeigen.
Zudem kann, falls bestimmt wird, dass in der aktuellen Situa tion eine erhöhte Aufmerksamkeit erforderlich ist, wenigstens eine Information über die den dargestellten Widgets zugeordne ten Eingabegesten präsentiert werden. Bei der wenigstens einen Information kann es sich dabei insbe sondere um eine grafische Wiedergabe oder eine, auf einer An zeigevorrichtung oder auf der grafischen Benutzerschnittstelle dargestellte Beschreibung einer Eingabegeste handeln. Ferner kann die wenigstens eine Information aber auch auf einer auf der entsprechenden Eingabeeinheit ausgebildeten Anzeigeeinheit präsentiert werden.
Derartige grafische Darstellungen sind in der Regel sehr leicht verständlich und ermöglichen es einem Nutzer sich in sehr kurzer Zeit einen Überblick zu verschaffen und zu erken nen, welche Eingabegeste zum Auswählen einer bestimmten Bedi enfunktion ausgeführt werden muss. Hierdurch wird ermöglicht, dass der Nutzer mögliche Eingabegesten schnell verstehen kann, ohne hierzu seine Aufmerksamkeit und/oder Konzentration unnö tig lange auf eine entsprechende Eingabevorrichtung bezie hungsweise die grafische Benutzerschnittstelle richten zu müs sen.
Dabei ist es auch möglich, dass die wenigstens eine Informa tion, das heißt eine entsprechende Bedienhilfe, nur temporär angezeigt wird, beispielsweise für 1,5 Sekunden.
Auch kann eine erfassten Eingabegeste in Echtzeit auf einer Anzeigevorrichtung dargestellt werden. Einem Nutzer kann somit unmittelbar signalisiert werden, ob die ausgeführte Eingabege ste auch der Eingabegeste, welche er ausführen wollte, ent spricht. Somit kann der Nutzer die Situation schnell erfassen, ohne dauerhaft seine Aufmerksamkeit und Konzentration auf eine entsprechende Eingabevorrichtung legen zu müssen. Ferner er möglicht dies ein besseres Verständnis der entsprechenden In- teraktionseingabe und kann beispielsweise ein kinetisches Emp finden an einem Trackball besser mit einem entsprechenden vi suellen Ergebnis abgeglichen werden.
Ferner kann zusätzlich zum Ausführen einer einem Widget zuge ordneten Eingabegeste noch eine Bestätigungshandlung erforder lich sein, um die dem entsprechenden Widget zugeordnete Bedi enfunktion auszuwählen. Hierdurch kann beispielsweise gewähr leistet werden, dass eine von einem Nutzer ausgeführte Einga begeste tatsächlich auch der gewünschten Bedienfunktion zuge ordnet wird, ohne dass der Nutzer eine Eingabegeste wiederholt ausführen muss, bis diese tatsächlich auch der gewünschten Be dienfunktion zugeordnet wird, da diese nicht eindeutig zuge ordnet werden konnte. Gleichzeitig werden mögliche Fehlinter pretation infolgedessen, da ein Nutzer seine Aufmerksamkeit und Konzentration auf andere Gegebenheiten gelegt und eine Eingabegeste motorisch unsauber ausgeführt hat, vermieden. Ferner ist es aber auch möglich, dass eine Zuordnung von er fassten Eingabegesten zu Widgets und entsprechenden Bedien funktionen erst erfolgt, nachdem ein Nutzer eine entsprechende Bestätigungshandlung ausgeführt hat. Hierdurch kann beispiels weise sichergestellt werden, dass eine während eines Betriebs eines Kraftfahrzeuges erfasste Eingabegeste nicht versehent lich einer entsprechenden Bedienfunktion zugeordnet wird, ob wohl der Nutzer die Einrichtung gar nicht bedienen möchte.
Weiter kann ein Feedbacksignal ausgegeben werden, nachdem eine einem Widget zugeordnete Bedienfunktion ausgewählt wurde. Hierdurch kann einem Nutzer signalisiert werden, dass in Reak tion auf eine von ihm ausgeführte Eingabegeste auch tatsäch lich eine Bedienfunktion ausgewählt wurde, sodass dieser seine Aufmerksamkeit wieder voll und ganz auf die Aufmerksamkeit er- fordernde Situation legen kann, beispielsweise den Straßenver kehr beim Führen eines Kraftfahrzeuges. Das Feedbacksignal kann dabei beispielsweise haptisch, visuell, oder in Form von Audio ausgegeben werden.
Mit einer weiteren Ausführungsform der Erfindung wird auch eine Eingabevorrichtung zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung angegeben, wobei die Eingabevor richtung eine grafische Benutzerschnittstelle aufweist, auf welcher mehrere Widgets dargestellt werden, wobei jedem Widget jeweils eine Bedienfunktion der Einrichtung zugeordnet ist, und wobei jede Bedienfunktion durch Auswählen des entsprechen den Widgets durch eine durch einen Nutzer ausführbare Eingabe geste ausgewählt werden kann. Dabei weist die Eingabevorrich tung weiter eine Eingabeeinheit, welche ausgebildet ist, durch einen Nutzer ausgeführte Eingabegesten zu empfangen, eine Er fassungseinheit, welche ausgebildet ist, Daten über eine aktu elle Situation zu erfassen, eine Bestimmungseinheit, welche ausgebildet ist, basierend auf den Daten über die aktuelle Si tuation zu bestimmen, ob in der aktuellen Situation eine er höhte Aufmerksamkeit erforderlich ist, und ein Benutzer schnittstellen- Steuerungsmodul, welches ausgebildet ist, die auf der grafischen Benutzerschnittstelle dargestellten Widgets derart anzuordnen, dass jedem Widget eine einfache Eingabege ste, welche sich stark von anderen dargestellten Widgets zuge ordneten Eingabegesten unterscheidet, zugeordnet ist, um die Sicherheit während des Bedienens der Einrichtung zu erhöhen, falls durch die Bestimmungseinheit bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, auf.
Somit wird eine Eingabevorrichtung zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung angegeben, mit welcher die Sicherheit während eines Bedienens insbesondere dann er höht werden kann, wenn eine aktuelle Situation eine erhöhte Aufmerksamkeit erfordert. So wird dadurch, dass auf der grafi schen Benutzerschnittstelle dargestellte Widgets derart ange ordnet werden, dass jedem Widget eine einfache Eingabegeste, welche sich stark von anderen dargestellten Widgets zugeordne ten Eingabegesten unterscheidet, zugeordnet ist, eine schnelle und präzise Interaktion mit den einzelnen Widgets ermöglicht und kann eine kognitive Last beim Auswählen der Widgets erheb lich reduziert werden. Dies hat den Vorteil, dass die Entspre chende Eingabevorrichtung die Konzentration eines Nutzers so wenig wie möglich auf sich lenkt, und der Nutzer seine volle Aufmerksamkeit vielmehr auf die seine Aufmerksamkeit erfor dernde Situation lenken kann.
Bei Situationen, in denen eine erhöhte Aufmerksamkeit erfor derlich ist, kann es sich beispielsweise wiederum um Fahrten mit einem Kraftfahrzeug handeln. So sollte während des Fahrers die Sicht eines Fahrers nach außen durchgehend, das heißt mög lichst ununterbrochen gegeben sein. Dabei können die Eingabe gesten beispielsweise mittels eines am Lenkrad des Kraftfahr zeuges befestigten Trackball erfasst werden, wohingegen die grafische Benutzerschnittstelle auf einem Kombiinstrument oder einem Head up Display des Kraftfahrzeuges dargestellt sein kann. Eine Situation, in welcher eine erhöhte Aufmerksamkeit erforderlich ist, ist jedoch beispielsweise auch gegeben, wenn ein Nutzer, welcher die Eingabegesten ausführt, Handschuhe trägt und die Eingabegesten nur noch schwer und nicht mehr präzise empfangen beziehungsweise erfasst werden können.
Unter einfachen Eingabegesten werden hier wiederum beispiels weise Gesten, welche eine geringe beziehungsweise reduzierte Anzahl von Freiheitsgraden aufweisen, verstanden. Insbesondere werden unter einfachen Eingabebewegungen insbesondere Rotati onsbewegungen oder Linearbewegungen verstanden. Ein Beispiel für eine derartige einfache Eingabegeste ist zum Beispiel eine Bewegung mit einem Finger und/oder Hand nach vorne beziehungs weise nach hinten. Dass sich einzelne Eingabegesten dabei stark unterscheiden bedeutet dabei, dass sich diese signifi kant unterscheiden und sich einzelne zur Auswahl von darge stellten Widgets mögliche Eingabegesten ohne großen Aufwand gut voneinander unterscheiden lassen.
Dabei kann das Benutzerschnittstellen-Steuerungsmodul weiter ausgebildet sein, Konfidenzintervalle bei der Zuordnung von erfassten Eingabegesten zu einzelnen Widgets derart einzustel len, dass jede durch die Eingabeeinheit erfasste Eingabegeste einem Widget zugeordnet werden kann, falls durch die Bestim mungseinheit bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist. Dies hat den Vorteil, dass die Eingabevorrichtung die Konzentration bezie hungsweise Aufmerksamkeit eines Nutzers in Situationen, in de nen generell eine erhöhte Aufmerksamkeit erforderlich ist, nicht unnötig auf sich zieht, insbesondere indem der Nutzer nicht unnötig aufgefordert wird, eine Eingabegeste erneut aus zuführen, falls eine zuvor erfasste Eingabegeste nicht exakt einer einem Widget zugeordneten Eingabegeste entspricht. Viel mehr können Widgets und entsprechende Bedienfunktionen auch bereits durch schnelle, motorisch unsaubere Eingabegesten aus gewählt werden. Insbesondere vereinfacht dies die Bedienung einer Einrichtung in Fällen, in denen sich eine Eingabeeinheit zur Erfassung von durch einen Nutzer ausgeführten Eingabeges ten und eine Anzeigeeinheit, auf welcher die grafische Benut zerschnittstelle dargestellt ist, relativ zueinander bewegen, das heißt beispielsweise, wenn es sich bei der Eingabeeinheit um einen an einem Lenkrad eines Kraftfahrzeuges angeordneten Trackball handelt.
In einer Ausführungsform ist das Benutzerschnittstellen-Steue- rungsmodul weiter ausgebildet, die Anzahl der auf der grafi schen Benutzerschnittstelle dargestellten Widgets verglichen mit einem Zustand, in welchem keine erhöhte Aufmerksamkeit er forderlich ist, zu reduzieren, falls durch die Bestimmungsein heit bestimmt wird, dass in der aktuellen Situation eine er höhte Aufmerksamkeit erforderlich ist. Dies hat den Vorteil, dass sich ein Nutzer in Situationen, in denen eine erhöhte Aufmerksamkeit erforderlich, beispielsweise während des Be triebs eines Kraftfahrzeuges, schnell orientieren kann und sich zur Bedienung der Einrichtung nicht erst langwierig einen Überblich über die dargestellten Widgets verschaffen muss. Die Auswahl der Widgets, welche auch in Situationen, in denen eine erhöhte Aufmerksamkeit erforderlich ist, noch dargestellt wer den sollen, kann hierbei durch künstliche Intelligenz basie rend auf Widgets und entsprechenden Bedienfunktionen, welche ein Nutzer in der Vergangenheit in vergleichbare Situationen ausgewählt hat, erfolgen. Ferner können in Situationen, in welchen eine erhöhte Aufmerksamkeit erforderlich ist, aber auch nur noch Widgets dargestellt werden, welche Bedienfunkti onen, die zwingend zum regulären Betrieb der Einrichtung und/oder des Kraftfahrzeuges erforderlich sind, zugeordnet sind. Ferner kann eine dargestellte Anrufliste beispielsweise auch nur die letzten fünf Verbindungen anzeigen.
Zudem kann das Benutzerschnittstellen-Steuerungsmodul auch ausgebildet sein, wenigstens eine Information über die den dargestellten Widgets zugeordneten Eingabegesten auf einer An- Zeigevorrichtung zu präsentieren, falls durch die Bestimmungs einheit bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist.
Bei der wenigstens einen Information kann es sich dabei wiede rum insbesondere um eine grafische Wiedergabe oder eine, auf einer Anzeigevorrichtung oder auf der grafischen Benutzer schnittstelle Beschreibung einer Eingabegeste handeln.
Bei der Anzeigevorrichtung kann es sich ferner um die Anzeige vorrichtung, auf welcher auch die grafische Benutzerschnitt stelle präsentiert wird, handeln. Somit kann es sich bei der Anzeigevorrichtung beispielsweise um ein Kombiinstrument oder ein Head up Display eines Kraftfahrzeuges handeln. Ferner kann es sich bei der Anzeigevorrichtung aber auch um eine separate Anzeigevorrichtung handeln, wobei die Anzeigevorrichtung be vorzugt nah an einem Sichtbereich auf einen Bereich, welcher eine erhöhte Aufmerksamkeit erfordert, beispielsweise mög lichst nah an einer Windschutzscheibe eines Kraftfahrzeuges angeordnet, ohne dabei jedoch die Sicht auf den Bereich, wel cher eine erhöhte Aufmerksamkeit erfordert, einzuschränken. Zudem kann es sich bei der Anzeigevorrichtung aber auch um eine auf der Eingabeeinheit ausgebildete Anzeigevorrichtung handeln .
Derartige grafische Darstellungen sind in der Regel sehr leicht verständlich und ermöglichen es einem Nutzer sich in sehr kurzer Zeit einen Überblick zu verschaffen und zu erken nen, welche Eingabegeste zum Auswählen einer bestimmten Bedi enfunktion ausgeführt werden muss. Hierdurch wird ermöglicht, dass der Nutzer mögliche Eingabegesten schnell verstehen kann, ohne hierzu seine Aufmerksamkeit und/oder Konzentration unnö tig lange auf die Eingabevorrichtung beziehungsweise die gra fische Benutzerschnittstelle richten zu müssen.
Dabei kann das Benutzerschnittstellen-Steuerungsmodul wiederum derart ausgebildet sein, dass die wenigstens eine Information, das heißt eine entsprechende Bedienhilfe, nur temporär ange zeigt wird, beispielsweise für 1,5 Sekunden.
Auch kann die Eingabevorrichtung weiter ein Darstellungsmodul, welches ausgebildet ist, eine durch die Eingabeeinheit er fasste Eingabegeste in Echtzeit auf einer Anzeigevorrichtung darzustellen, aufweisen. Einem Nutzer kann somit unmittelbar signalisiert werden, ob die ausgeführte Eingabegeste auch der Eingabegeste, welche er ausführen wollte, entspricht. Somit kann der Nutzer die Situation schnell erfassen, ohne dauerhaft seine Aufmerksamkeit und Konzentration auf die Eingabevorrich tung legen zu müssen. Ferner ermöglicht dies ein besseres Ver ständnis der entsprechenden Interaktionseingabe und kann bei spielsweise ein kinetisches Empfinden an einem Trackball bes ser mit einem entsprechenden visuellen Ergebnis abgeglichen werden.
Bei der Anzeigevorrichtung kann es sich dabei wiederum um die Anzeigevorrichtung, auf welcher auch die grafische Benutzer schnittstelle präsentiert wird, handeln. Somit kann es sich bei der Anzeigevorrichtung beispielsweise um ein Kombiinstru ment oder ein Head up Display eines Kraftfahrzeuges handeln. Ferner kann es sich bei der Anzeigevorrichtung aber auch wie derum um eine separate Anzeigevorrichtung handeln. Ferner kann die Eingabevorrichtung weiter ein Bestätigungsele ment, welches ausgebildet ist, eine Bestätigungshandlung eines Nutzers zu erfassen, aufweisen, wobei das Benutzerschnittstel- len-Steuerungsmodul weiter ausgebildet ist, eine einem Widget zugeordnete Bedienfunktion nur auszuwählen, wenn eine entspre chende Eingabegeste durch die Eingabeeinheit und eine Bestäti gungshandlung durch das Bestätigungselement erfasst wird. Hierdurch kann beispielsweise gewährleistet werden, dass eine von einem Nutzer ausgeführte Eingabegeste tatsächlich auch der gewünschten Bedienfunktion zugeordnet wird, ohne dass der Nut zer eine Eingabegeste wiederholt ausführen muss, bis diese tatsächlich auch der gewünschten Bedienfunktion zugeordnet wird, da diese nicht eindeutig zugeordnet werden konnte. Gleichzeitig werden mögliche Fehlinterpretation infolgedessen, da ein Nutzer seine Aufmerksamkeit und Konzentration auf an dere Gegebenheiten gelegt und eine Eingabegeste motorisch un sauber ausgeführt hat, vermieden. Ferner ist es aber auch mög lich, dass eine Zuordnung von erfassten Eingabegesten zu Wid- gets und entsprechenden Bedienfunktionen erst erfolgt, nachdem ein Nutzer eine entsprechende Bestätigungshandlung ausgeführt hat. Hierdurch kann beispielsweise sichergestellt werden, dass eine während eines Betriebs eines Kraftfahrzeuges erfasste Eingabegeste nicht versehentlich einer entsprechenden Bedien funktion zugeordnet wird, obwohl der Nutzer die Einrichtung gar nicht bedienen möchte.
Zudem kann die Eingabevorrichtung weiter einen Feedbackgeber, welcher ausgebildet ist, ein Feedbacksignal auszugeben, nach dem eine einem Widget zugeordnete Bedienfunktion ausgewählt wurde, aufweisen. Hierdurch kann einem Nutzer signalisiert werden, dass in Reaktion auf eine von ihm ausgeführte Eingabe geste tatsächlich auch eine Bedienfunktion ausgewählt wurde, sodass dieser seine Aufmerksamkeit wieder voll und ganz auf die Aufmerksamkeit erfordernde Situation legen kann, bei spielsweise den Straßenverkehr beim Führen eines Kraftfahrzeu ges. Der Feedbackgeber kann dabei beispielsweise ausgebildet sein, dass Feedbacksignal haptisch, visuell, oder in Form von Audio auszugeben.
Mit einer weiteren Ausführungsform der Erfindung wird zudem auch ein Kraftfahrzeug angegeben, welches eine oben beschrie bene Eingabevorrichtung aufweist.
Somit wird ein Kraftfahrzeug angegeben, welches eine Eingabe vorrichtung aufweist, mit welcher die Sicherheit während eines Bedienens insbesondere dann erhöht werden kann, wenn eine ak tuelle Situation eine erhöhte Aufmerksamkeit erfordert. So wird dadurch, dass auf der grafischen Benutzerschnittstelle dargestellte Widgets derart angeordnet werden, dass jedem Widget eine einfache Eingabegeste, welche sich stark von ande ren dargestellten Widgets zugeordneten Eingabegesten unter scheidet, zugeordnet ist, eine schnelle und präzise Interak tion mit den einzelnen Widgets ermöglicht und kann eine kogni tive Last beim Auswählen der Widgets erheblich reduziert wer den. Dies hat den Vorteil, dass die entsprechende Eingabevor richtung die Konzentration eines Nutzers so wenig wie möglich auf sich lenkt, und der Nutzer seine volle Aufmerksamkeit vielmehr auf die seine Aufmerksamkeit erfordernde Situation lenken kann.
Zusammenfassend ist festzustellen, dass mit der vorliegenden Erfindung ein Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung angegeben wird, mit welchem die Sicherheit während eines Bedienens insbesondere dann erhöht werden kann, wenn eine aktuelle Situation eine erhöhte Auf merksamkeit erfordert. So wird dadurch, dass auf der grafischen Benutzerschnittstelle dargestellte Widgets derart angeordnet werden, dass jedem Widget eine einfache Eingabegeste, welche sich stark von ande ren dargestellten Widgets zugeordneten Eingabegesten unter scheidet, zugeordnet ist, eine schnelle und präzise Interak tion mit den einzelnen Widgets ermöglicht und kann eine kogni tive Last beim Auswahlen der Widgets erheblich reduziert wer den.
Zudem kann das Verfahren weiter auch derart ausgebildet sein, dass eine schnelle Orientierung des Nutzers auf der grafischen Benutzerschnittstelle ermöglicht wird und dieser die zum Aus wahlen von Bedienfunktionen erforderlichen Eingabegesten schnell verstehen kann.
Insgesamt wird somit eine Eingabevorrichtung angegeben, mit welcher eine robuste Eingabe bei gleichzeitig deutlicher Visu- lisierung von entsprechenden Interaktionsmöglichkeiten gewähr leistet wird
Die Erfindung wird nun anhand der beigefügten Figuren näher erläutert.
Figur 1 zeigt ein Flussdiagramm eines Verfahrens zum Erhöhen der Sicherheit während des Bedienens einer Einrich tung gemäß Ausführungsformen der Erfindung;
Figur 2 zeigt ein Blockschaltbild einer Eingabevorrichtung zum Erhöhen der Sicherheit während des Bedienens ei ner Einrichtung gemäß Ausführungsformen der Erfin dung; Figuren 3A und 3B illustrieren ein Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung gemäß einer Ausführungsform;
Figuren 4A und 4B illustrieren ein Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung gemäß einer zweiten Ausführungsform.
Figur 1 zeigt ein Flussdiagramm eines Verfahrens 1 zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung gemäß Ausführungsformen der Erfindung.
Insbesondere zeigt Figur 1 ein Verfahren 1 zum Erhöhen der Si cherheit während des Bedienens einer Einrichtung, wobei auf einer grafischen Benutzerschnittstelle mehrere Widgets darge stellt werden, wobei jedem Widget jeweils eine Bedienfunktion der Einrichtung zugeordnet ist, und wobei jede Bedienfunktion durch Auswählen des entsprechenden Widgets durch eine durch einen Nutzer ausführbare Eingabegeste ausgewählt werden kann.
Beispielsweise Kraftfahrzeuge weisen für gewöhnlich eine Viel zahl von technischen Einrichtungen auf, welche ein Benutzer nach seiner Wahl beliebig bedienen können soll. Beispiele für derartige Einrichtungen sind ein Radio, ein Navigationssystem, ein KFZ-Telefon beziehungsweise eine in das Kraftfahrzeug in tegrierte Freisprecheinrichtung, oder eine Klimaanlage.
Die Bedienung dieser Einrichtungen kann dabei über Eingabeein heiten, welche einzelnen Bedienfunktionen, das heißt bedien beziehungsweise einstellbaren Funktionen einer Einrichtung zu geordnete Eingabegesten empfangen und mit der Einrichtung der art gekoppelt sind, dass die Bedienfunktion basierend auf ei ner empfangenen Eingabegeste ausgewählt und diese anschließend entsprechend eingestellt beziehungsweise angesteuert werden kann, erfolgen. Bei den Eingabeeinheiten kann es sich dabei beispielsweise um ein Touchpad oder einen an einem Lenkrad des Kraftfahrzeuges angeordneten Trackball handeln.
In einzelnen Situationen, beispielsweise bei der Steuerung ei nes Kraftfahrzeuges ist es dabei jedoch wichtig, dass ein Nut zer seine Aufmerksamkeit und Konzentration im Wesentlichen komplett auf die Steuerung des Kraftfahrzeuges legt. Entspre chende Eingabevorrichtungen sollen dabei die Konzentration des Nutzers so wenig auf sich lenken wie möglich, um diesen nicht unnötig abzulenken. Gleichzeitig muss aber eine sichere Bedie nung von zumindest den wichtigsten Einrichtungen gewährleistet sein.
Gemäß den Ausführungsformen der Figur 1 weist das Verfahren 1 dabei einen Schritt 2 eines Erfassens von Daten über eine ak tuelle Situation und einen anschließenden Schritt 3 eines Bestimmens basierend auf den erfassten Daten über die aktuelle Situation, ob in der aktuellen Situation eine erhöhte Aufmerk samkeit erforderlich ist. Falls bestimmt wird, dass in der ak tuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, werden in einem Schritt 4 auf der grafischen Benutzer schnittstelle dargestellten Widgets anschließend derart ange ordnet, dass jedem Widget eine einfache Eingabegeste, welche sich stark von anderen dargestellten Widgets zugeordneten Ein gabegesten unterscheidet, zugeordnet ist, um die Sicherheit während des Bedienens der Einrichtung zu erhöhen.
Falls in dem Schritt 3 hingegen bestimmt wird, dass in der ak tuellen Situation keine erhöhte Aufmerksamkeit erforderlich ist, wird gemäß den Ausführungsformen der Figur 1 eine Einga bevorrichtung in ihrem Normalzustand betrieben und in einem Schritt 5 die grafische Benutzerschnittstelle, wie ursprüng lich gespeichert und vorkonfiguriert und ohne Änderungen be ziehungsweise entsprechenden Anpassung dargestellt.
Bei Situationen, in denen eine erhöhte Aufmerksamkeit erfor derlich ist, kann es sich beispielsweise um Fahrten mit einem Kraftfahrzeug handeln. So sollte während des Fahrers die Sicht eines Fahrers nach außen durchgehend, das heißt möglichst un unterbrochen gegeben sein. Dabei können die Eingabegesten bei spielsweise mittels eines am Lenkrad des Kraftfahrzeuges be festigten Trackball erfasst werden, wohingegen die grafische Benutzerschnittstelle auf einem Kombiinstrument oder einem Head up Display des Kraftfahrzeuges dargestellt sein kann.
Eine Situation, in welcher eine erhöhte Aufmerksamkeit erfor derlich ist, ist jedoch beispielsweise auch gegeben, wenn ein Nutzer, welcher die Eingabegesten ausführt, Handschuhe trägt und die Eingabegesten nur noch schwer und nicht mehr präzise empfangen beziehungsweise erfasst werden können.
Unter einfachen Eingabegesten werden hier ferner beispiels weise Gesten, welche eine geringe beziehungsweise reduzierte Anzahl von Freiheitsgraden aufweisen, verstanden. Insbesondere werden unter einfachen Eingabebewegungen insbesondere Rotati onsbewegungen oder Linearbewegungen verstanden. Ein Beispiel für eine derartige einfache Eingabegeste ist zum Beispiel eine Bewegung mit einem Finger und/oder Hand nach vorne beziehungs weise nach hinten. Dass sich einzelne Eingabegesten dabei stark unterscheiden bedeutet dabei, dass sich diese signifi kant unterscheiden und sich einzelne zur Auswahl von darge stellten Widgets mögliche Eingabegesten ohne großen Aufwand gut voneinander unterscheiden lassen. Figur 1 zeigt dabei einen weiteren Schritt 6 des Erfassens ei ner durch einen Nutzer ausgeführten Eingabegeste, wobei gemäß den Ausführungsform der Figur 1 Konfidenzintervalle bei der Zuordnung von erfassten Eingabegesten zu einzelnen Widgets derart eingestellt werden, dass, falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforder lich ist, jede beliebige erfasste Eingabegeste einem Widget zugeordnet werden kann.
Gemäß den Ausführungsformen der Figur 1 weist das Verfahren 1 ferner einen weiteren Schritt 7 eines Reduzierens einer Anzahl von auf der grafischen Benutzerschnittstelle dargestellten Widgets verglichen mit einem Zustand, in welchem keine erhöhte Aufmerksamkeit erforderlich ist, das heißt verglichen mit dem vorkonfigurierten Normalzustand, falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforder lich ist, auf.
Die Auswahl der Widgets, welche auch in Situationen, in denen eine erhöhte Aufmerksamkeit erforderlich ist, noch dargestellt werden sollen, kann hierbei durch künstliche Intelligenz ba sierend auf Widgets und entsprechenden Bedienfunktionen, wel che ein Nutzer in der Vergangenheit in vergleichbare Situatio nen ausgewählt hat, erfolgen. Das Trainieren eines entspre chenden künstlichen neuronalen Netzes kann dabei beispiels weise basierend auf zurückliegenden Auswahlen von Widgets be ziehungsweise entsprechenden Bedienfunktionen durch einen Nut zers in vergleichbaren Situationen als Eingangsgrößen erfol gen. Gibt es dabei verschiedene Nutzer der entsprechenden Ein gabevorrichtung, kann ferner auch für jeden Nutzer ein eigenes künstliches neuronales Netz trainiert werden. Ferner können in Situationen, in welchen eine erhöhte Aufmerksamkeit erforder- lieh ist, aber auch nur noch Widgets dargestellt werden, wel che Bedienfunktionen, die zwingend zum regulären Betrieb der Einrichtung und/oder des Kraftfahrzeuges erforderlich sind, zugeordnet sind.
Wie Figur 1 zeigt, weist das Verfahren 1 zudem einen Schritt 8 eines Präsentierens wenigstens einer Information über die den dargestellten Widgets zugeordneten Eingabegesten, falls be stimmt wird, dass in der aktuellen Situation eine erhöhte Auf merksamkeit erforderlich ist, auf.
Bei der wenigstens einen Information kann es sich dabei insbe sondere um eine grafische Wiedergabe oder eine, auf einer An zeigevorrichtung oder auf der grafischen Benutzerschnittstelle Beschreibung einer Eingabegeste handeln. Ferner können einem Nutzer mit der wenigstens einen Information aber auch Informa tionen über auswählbare Bedienfunktionen präsentiert werden.
Weiter weist das Verfahren einen Schritt 9 eines Darstellens einer erfassten Eingabegeste in Echtzeit auf einer Anzeigevor richtung auf.
Auch wird gemäß den Ausführungsformen der Figur 1 in einem Schritt 10 neben einer durch einen Nutzer ausgeführten Einga begeste noch eine durch den Nutzer ausgeführte Bestätigungs handlung empfangen, wobei eine derartige Bestätigungshandlung erforderlich ist, um die dem entsprechenden Widget zugeordnete Bedienfunktion auszuwählen.
Ferner weist das Verfahren 1 noch einen Schritt 11 eines Aus gebens eines Feedbacksignals, nachdem eine einem Widget zuge ordnete Bedienfunktion ausgewählt wurde, auf. Dass Feed backsignal kann dabei beispielsweise haptisch, visuell, oder in Form von Audio ausgegeben. Beispielsweise kann eine Hellig keit einer Anzeige, auf welcher die grafische Benutzerschnitt stelle dargestellt wird, erhöht werden, oder die Anzeige blin ken.
Figur 2 zeigt ein Blockschaltbild einer Eingabevorrichtung 20 zum Erhöhen der Sicherheit während des Bedienens einer Ein richtung gemäß Ausführungsformen der Erfindung.
Insbesondere zeigt Figur 2 eine Eingabevorrichtung 20, welche eine Eingabeeinheit 21 und eine mit der Eingabeeinheit 21 ge koppelte Anzeigeeinheit 22 aufweist. Weiter weist die Eingabe vorrichtung 20 eine auf der Anzeigeeinheit 22 dargestellte grafische Benutzerschnittstelle 23 auf, wobei eine Einrichtung über die grafische Benutzerschnittstelle 23 bedient werden kann beziehungsweise ein Nutzer über die grafische Benutzer schnittstelle mit der Einrichtung interagieren kann, indem auf der grafischen Benutzerschnittstelle 23 Betriebsparameter der Einrichtung angezeigt und über die Eingabeeinheit 21 Steuer eingaben eines Nutzers zum entsprechenden Steuern von Be triebsfunktionen der Einrichtung entgegengenommen werden.
Wie Figur 2 weiter zeigt, weist die Eingabevorrichtung 20 da bei einen Mikrocontroller 24, welcher einen integrierten Spei cher 25 aufweist, und ein Benutzerschnittstellen-Steuerungsmo- dul 26 auf, wobei die einzelnen Komponenten der Eingabevor richtung 20 kommunikativ miteinander gekoppelt sind, bei spielsweise durch Mittel der Interprozesskommunikation, der drahtlosen Kommunikation, durch gemeinsame Speicherbereiche, einen Bus, oder dergleichen.
In dem Speicher 25 sind dabei Steuerinformationen in Form ei nes Skriptes mit Fensterbeschreibungsquelltext, der Elemente beziehungsweise Widgets der grafischen Benutzerschnittstelle 23 definiert und deren Merkmale beziehungsweise Eigenschaften, wie Aussehen und Verhalten, spezifiziert. Zudem ist in dem Speicher 25 ein Repository enthalten, welches für die grafi sche Benutzerschnittstelle 23 benötigte Text-, Grafik- und Soundresourcen enthält, welche in der grafischen Benutzer schnittstelle 23 dargestellt werden sollen.
Das Benutzerschnittstellen-Steuerungsmodul 26 weist, wie zu erkennen ist, weiter einen Interpeter 27, einen GUI-Manager 28 und eine Schnittstelle 29 zu wenigstens einer durch die Einga bevorrichtung 20 zu steuernden beziehungsweise bedienenden Einrichtung auf. Dabei ist die Schnittstelle 29 ausgebildet, eine logische Schnittstelle zwischen entsprechenden, auf der Einrichtung laufenden Applikationen, den einzelnen Bedienfunk tionen und dem GUI-Skript, das heißt den Steuerinformationen zu schaffen. Die Schnittstelle 29 basiert dabei auf den drei Funktionselementen Ereignis, Aktion und Daten.
Wie Figur 2 weiter zeigt, weist der Mikrocontroller 24 eine Grafikschnittstelle 30 auf, über welche dieser mit der Anzei geeinheit 22 verbunden ist.
Gemäß den Ausführungsformen der Figur 2 ist die Eingabeeinheit
21 dabei weiter ausgebildet, durch einen Nutzer ausgeführte Eingabegesten zu erfassen, wobei die Eingabevorrichtung 20 eine Zuordnungseinheit 31 aufweist, um eine erfasste Eingabe geste einem Steuerbefehl, beispielsweise einem Befehl zum Be wegen beziehungsweise Verschieben eines auf der Anzeigeeinheit
22 dargestellten Cursors, oder einem Befehl zum Auswählen ei nes dargestellten Widgets beziehungsweise einer einem auf der grafischen Benutzerschnittstelle 23 dargestellten Widget zuge ordnete Applikation, beispielsweise einer Bedienfunktion einer Einrichtung zuzuordnen. Die Zuordnung innerhalb der Zuord nungseinheit 31 kann dabei beispielsweise auf Basis einer oder mehrerer in dem Speicher 25 oder einem separaten Speicher hin terlegten Look-up Tabellen erfolgen. Gemäß den Ausführungsfor men der Figur 2 ist die Zuordnungseinheit 31 dabei innerhalb des Mikrocontrollers 24 ausgebildet. Ferner kann die Zuord nungseinheit aber auch beispielsweise innerhalb der Eingabe einheit ausgebildet sein.
Gemäß den Ausführungsformen der Figur 2 handelt es sich dabei bei der Eingabeeinheit 21 um einen an einem Lenkrad eines Kraftfahrzeuges angeordneten Trackball, welcher mit der Anzei geeinheit 22 drahtlos kommuniziert. Dabei werden über den Trackball erfasste Eingabegesten eines Nutzers erfasst und beispielsweise entsprechenden Verschiebungen eines auf der An zeigeeinheit 22 dargestellten Cursors zugeordnet. Bei der An zeigeeinheit 22 handelt es sich weiter um eine Anzeigeeinheit eines Kombiinstruments des Kraftfahrzeuges.
Wie Figur 2 zeigt, weist die dargestellte Eingabevorrichtung 20 weiter eine Erfassungseinheit 32, welche ausgebildet ist, Daten über eine aktuelle Situation zu erfassen und eine Be stimmungseinheit 33, welche ausgebildet ist, basierend auf den durch die Erfassungseinheit 32 erfassten Daten zu bestimmen, ob in der aktuellen Situation eine erhöhte Aufmerksamkeit er forderlich ist, auf. Gemäß den Ausführungsformen der Figur 2, weist die Erfassungseinheit 32 hierbei optischen Sensoren auf, um Umgebungsdaten zu erfassen. Weiter ist die Erfassungsein heit 32 gemäß den Ausführungsformen der Figur 2 mit einer Mo torsteuerung des Kraftfahrzeuges gekoppelt, um zu erfassen, ob das Kraftfahrzeug aktuell in Betrieb ist. Bei der Bestimmungs einheit 33 kann es sich dabei insbesondere Einheit beziehungs- weise Modul handeln, welches einen Prozessor und einen Spei cher aufweist, wobei in dem Speicher Code, welcher durch den Prozessor ausführbar ist, um basierend auf von der Erfassungs einheit 32 erfassten Daten zu bestimmen, ob in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist.
Zudem weist das dargestellte Benutzerschnittstellen- Steue rungsmodul 26 ein Anordnungsmodul 34 auf, welches ausgebildet ist, die auf der grafischen Benutzerschnittstelle 23 darge stellten Widgets derart anzuordnen, dass jedem Widget eine einfache Eingabegeste, welche sich stark von den anderen dar gestellten Widgets zugeordneten Eingabegesten unterscheidet, zugeordnet ist, um die Sicherheit während des Bedienens der Einrichtung zu erhöhen, falls durch die Bestimmungseinheit 33 bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist. Beispielsweise können dabei verschiedene, auf den entsprechenden Anwendungsfall abge stimmte Lookup-Tabellen, in denen Zuordnungen zwischen in der entsprechenden Situation dargestellten Widgets und deren An ordnung innerhalb der grafischen Benutzerschnittstelle 23 hin terlegt sind, gespeichert sein.
Auch weist das dargestellte Benutzerschnittstellen-Steuerungs- modul 26 weiter ein Konfidenzmodul 35 auf, welches ausgebildet ist, Konfidenzintervalle bei der Zuordnung von erfassten Ein gabegesten zu einzelnen Widgets derart einzustellen, dass jede durch die Eingabeeinheit 21 erfasste Eingabegeste einem Widget zugeordnet werden kann, falls durch die Bestimmungseinheit 33 bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist.
Gemäß den Ausführungsform der Figur 2 weist das Benutzer- schnittstellen-Steuerungsmodul 26 zudem ein Reduzierungsmodul 36 auf, welches ausgebildet ist, die Anzahl der auf der grafi schen Benutzerschnittstelle dargestellten Widgets verglichen mit einem Zustand, in welchem keine erhöhte Aufmerksamkeit er forderlich ist, zu reduzieren, falls durch die Bestimmungsein heit 32 bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist.
Die Auswahl der Widgets, welche auch in Situationen, in denen eine erhöhte Aufmerksamkeit erforderlich ist, noch dargestellt werden sollen, kann hierbei durch künstliche Intelligenz ba sierend auf Widgets und entsprechenden Bedienfunktionen, wel che ein Nutzer in der Vergangenheit in vergleichbare Situatio nen ausgewählt hat, erfolgen, wobei Informationen über in der Vergangenheit erfasste Situationen und Informationen darüber, welche Widgets beziehungsweise Bedienfunktionen ein Nutzer in der Vergangenheit bei Vorliegen einer entsprechenden Situatio nen ausgewählt hat, als Eingangsgrößen an ein künstliche In telligenzmodul bereitgestellt werden, wobei das künstliche In telligenzmodul ausgebildet ist, basierend auf diesen Eingangs größen ein künstliches neuronales Netz zu trainieren. Ferner können in Situationen, in welchen eine erhöhte Aufmerksamkeit erforderlich ist, aber auch nur noch Widgets dargestellt wer den, welche Bedienfunktionen, die zwingend zum regulären Be trieb der Einrichtung und/oder des Kraftfahrzeuges erforder lich sind, zugeordnet sind, wobei entsprechende Zuordnungen beispielsweise in einem Speicher hinterlegt sein können.
Zudem weist das Benutzerschnittstellen-Steuerungsmodul 26 ein Präsentiermodul 37 auf, welches ausgebildet ist, wenigstens eine Information über die den dargestellten Widgets zugeordne ten Eingabegesten auf der Anzeigeeinheit 22 zu präsentieren, falls durch die Bestimmungseinheit 33 bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforder lich ist. Die Informationen über die einzelnen Widgets zuge ordneten Eingabegesten können dabei wiederum in einem Speicher hinterlegt sein. Zudem werden die Informationen über einzelnen Widgets zugeordnete Eingabegesten zudem bevorzugt benachbart beziehungsweise in unmittelbarer Nähe zu den entsprechenden Widgets auf der Anzeigeeinheit 22 präsentiert.
Wie zudem zu erkennen ist, weist das dargestellte Benutzer- schnittstellen-Steuerungsmodul 26 weiter auch ein Darstel lungsmodul 38, welches ausgebildet ist, eine durch die Einga beeinheit 21 erfasste Eingabegeste in Echtzeit auf der Anzei geeinheit 22 darzustellen, auf.
Auch weist die Eingabevorrichtung 20 weiter ein Bestätigungs element 39, welches ausgebildet ist, eine Bestätigungshandlung eines Nutzers zu erfassen, auf. Gemäß den Ausführungsformen der Figur 2 wird das Bestätigungshandlung durch eine Kugel des Trackballs gebildet, wobei die Bestätigungshandlung ein Drü cken des Trackballs umfasst. Dabei ist das Benutzerschnitt steilen-Steuerungsmodul 26 weiter ausgebildet, eine einem Widget zugeordnete Bedienfunktion nur auszuwählen, das heißt entsprechende Steuerinformationen nur dann über die Schnitt stelle 29 an eine Einrichtung zu übermitteln, wenn eine ent sprechende Eingabegeste durch die Eingabeeinheit 21 und eine Bestätigungshandlung durch das Bestätigungselement 39 erfasst wird.
Wie Figur 2 zeigt, weist die Eingabevorrichtung 20 weiter ei nen Feedbackgeber 40 auf, welcher ausgebildet ist, ein Feed backsignal auszugeben, nachdem eine einem Widget zugeordnete Bedienfunktion ausgewählt wurde. Gemäß den Ausführungsformen der Figur 2 handelt es sich bei dem Feedbackgeber 40 dabei insbesondere um einen akustischen Signalgeber.
Figuren 3A und 3B illustrieren ein Verfahren 50 zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung gemäß einer ersten Ausführungsform.
Gemäß der ersten Ausführungsform werden dabei zwei Widgets 51,52 auf einer grafischen Benutzerschnittstelle dargestellt. Insbesondere sind den Widgets 51, 52 Funktionen eines KFZ-Te- lefons beziehungsweise einer in ein Kraftfahrzeug integrierten Freisprecheinrichtung zugeordnet.
Dabei liegt aktuell eine Situation vor, während welcher eine erhöhte Aufmerksamkeit erfordert. Während dieser Situation werden dabei nur zwei Widgets 51,52 auf der grafischen Benut zerschnittstelle dargestellt, wobei ein Nutzer über ein erstes Widget 51 einen eingehenden Anruf annehmen und über ein zwei tes Widget 52 den eingehenden Anruf abweisen kann.
Dargestellt wird weiter ein Cursor 53, welcher durch über eine Eingabeeinheit, beispielsweise einen am Lenkrad des Kraftfahr zeuges angeordneten Trackball erfasste Eingabegesten entspre chend verschoben werden kann, um eines der beiden Widgets 51,52 und die entsprechende Bedienfunktion auszuwählen. Dabei kann der Cursor 53 die aktuelle Fingerposition eines Fingers eines Nutzers anzeigen.
Gemäß der ersten Ausführungsform sind die Widgets 51,52 dabei weiter derart auf der grafischen Benutzerschnittstelle ange ordnet, dass jedem Widget 51,52 eine einfache Eingabegeste zu geordnet ist, um die Sicherheit während des Bedienens der Ein richtung zu erhöhen. Gemäß der ersten Ausführungsform handelt es sich bei den einfachen Eingabegesten dabei um Eingabeges ten, welche nur einen Freiheitsgrad und somit eine reduzierte Anzahl von Freiheitsgraden aufweisen, und um insbesondere um Bewegungen mit einem Finger und/oder Hand nach vorne bezie hungsweise nach hinten, beziehungsweise ein entsprechendes Schnipsen eines Trackballs nach vorne beziehungsweise hinten.
Wie Figuren 3A und 3B zeigen, werden dabei zudem eine Informa tion 54 über die den dargestellten Widgets 51,52 zugeordneten Eingabegesten präsentiert, wobei es sich bei der Information 54 dabei um eine grafische Darstellung der zu Auswahl der ein zelnen Widgets 51,52 nötige Eingabegesten handelt. Die Infor mation wird dabei gemäß der ersten Ausführungsform zwischen den beiden Widgets 51,52 dargestellt. Ferner kann die Informa tion aber auch benachbart zu den dargestellten Widgets, bei spielsweise neben den beiden Widgets dargestellt werden.
Figur 3A zeigt dabei die grafische Benutzerschnittstelle wäh rend eines eingehenden Anrufes, wobei der Cursor 53 zwischen den beiden Widgets 51,52 dargestellt ist, wobei der eingehende Anruf durch eine Bewegung mit einem Finger beziehungsweise ei ner Hand nach vorne oder einem Schnippen eines Trackballs nach vorne angenommen werden kann, und wobei der eingehende Anruf durch eine Bewegung mit einem Finger beziehungsweise einer Hand nach hinten oder einem Schnippen eines Trackballs nach hinten abgewiesen kann.
Figur 3B wiederum zeigt die grafische Benutzerschnittstelle, wobei der Cursor 53 durch eine entsprechende Eingabegeste in Richtung des ersten Widgets 51 verschoben wurde, um den einge henden Anruf anzunehmen. Wie Figur 3B zeigt, wird dabei nach Annahme des Anrufs ein vi suelles Feedback erzeugt, wobei das visuelle Feedback gemäß der ersten Ausführungsform ein Vergrößern der Darstellung des ersten Widgets 51 aufweist. Ferner kann das Feedbacksignal aber beispielsweise auch ein Verschieben des ersten Widgets, nachdem der Cursor auf das erste Widget verschoben wurde, auf weisen.
Insbesondere ist gemäß der ersten Ausführungsform das Verfah ren dabei derart ausgebildet, dass auch bei einer Lenkbewegung eine über ein durch ein an einem Lenkrad eines Kraftfahrzeuges angeordneten Trackball erfasste Eingabegeste zuverlässig ver arbeitet werden kann.
Figuren 4A und 4B illustrieren ein Verfahren 60 zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung gemäß einer ersten Ausführungsform.
Gemäß der zweiten Ausführungsform werden dabei sechs Widgets 61,62,63,64,65,66 auf einer grafischen Benutzerschnittstelle dargestellt. Bei den ersten fünf Widgets 61,62,63,64,65 han delt es sich dabei um Widgets, welche Betriebsfunktionen zuge ordnet sind, welche ein Nutzer in der Vergangenheit während entsprechenden Situationen, welche eine erhöhte Aufmerksamkeit erfordern, ausgewählt hat. Diese Widgets 61,62,63,64,65 werden somit dargestellt, um einen Schnellzugriff auf diese Funktio nen zu ermöglichen. Durch Auswählen des zusätzlichen Widgets 66 kann die Auswahl der dargestellten Widgets verändert werden und beispielsweise zwischen verschiedenen Ebenen navigiert werden, wobei die in einzelnen Ebenen dargestellten Widgets hinterlegt und somit vorbestimmt sind. Gemäß der zweiten Ausführungsform sind die Widgets
61,62,63,64,65,66 dabei wiederum derart auf der grafischen Be nutzerschnittstelle angeordnet, dass zum Auswahlen eines der Widgets 61,62,63,64,65 eine einfache Eingabegeste, insbeson dere eine Rotationsbewegung erforderlich ist, welche sich stark von einer zur Auswahl des zusätzlichen Widget 66 erfor derlichen Eingabegeste, bei der es sich insbesondere um eine Linearbewegung handelt, unterscheidet, zugeordnet ist, um die Sicherheit während des Bedienens der Einrichtung zu erhöhen.
So können die ersten fünf Widgets 61,62,63,64,65 insbesondere über eine Rotationsbewegung mit einem Finger oder einer Hand beziehungsweise einem zirkularen Führen eines Trackballs aus gewählt werden. Das zusätzliche Widget 66 kann wiederum insbe sondere durch eine Bewegung mit einem Finger oder einer Hand nach vorne beziehungsweise durch Schnippen eines Trackballs nach vorne ausgewählt werden.
Wie Figuren 4A und 4B zeigen, werden dabei zudem wiederum In formation 67,68 über die den dargestellten Widgets
61,62,63,64,65,66 zugeordneten Eingabegesten präsentiert, wo bei es sich bei der Informationen 67,68 dabei um eine grafi sche Darstellung der zu Auswahl der einzelnen Widgets
61,62,63,64,65,66 jeweils nötigen Eingabegesten handelt.
Figur 4A zeigt dabei eine Situation, während welcher ein Nut zer über eine entsprechende Rotationsbewegung eines der ersten fünf Widgets 61,62,63,64,65 auswählt, wobei er die Auswahl ei nes der ersten fünf Widgets 61,62,63,64,65 durch eine Bestäti gungshandlung, beispielsweise durch ein Drücken eines Track balls bestätigen kann. Ferner ist es aber auch denkbar, dass einzelne Positionen auf der grafischen Benutzerschnittstelle doppelt belegt sind, das heißt dass zwei Widgets in der Nähe der entsprechenden Position auf der grafischen Benutzer schnittstelle angeordnet sind, wobei beispielsweise durch ein horizontales Schnippen eines Trackballes oder ein Drücken ei nes Trackballs zwischen diesen beiden Widgets und den entspre chenden jeweils zugeordneten Bedienfunktionen gewechselt wer den kann. Dabei können aktuell nicht aktive Widgets an anderer Stelle, beispielsweise an einem Rand der grafischen Benutzer schnittstelle angeordnet sein, wobei eine entsprechende Einga bevorrichtung weiter auch derart ausgebildet sein kann, dass ein aktuell dargestelltes Widget aktuell aktiv ist, das heißt eine entsprechende Interaktionsfläche aktiv ist, während die aktuell nicht dargestellten beziehungsweise an anderer Stelle, beispielsweise an einem Rand der grafischen Benutzerschnitt stelle dargestellten Widgets inaktiv geschaltet werden.
Wie Figur 4A zeigt, werden hierbei die, die Rotationsbewegung betreffenden Informationen 67 deutlich präsentiert, während die, die zur Auswahl des zusätzlichen Widgets 66 nötige Einga begeste betreffenden Informationen 68 nur schematisch darge stellt werden und in während der Rotationsbewegung in den Hin tergrund treten. Zudem kann auch die, die Rotationsbewegung betreffende Information 67 ausgebildet sein, nach einer gewis sen Zeit, beispielsweise nach 1,5s, oder einer gewissen zu rückgelegten Winkelstrecke, beispielsweise 180°, nur noch schematisch dargestellt zu werden.
Anzumerken ist dabei, dass gemäß der zweiten Ausführungsform nach einem Aus- und Widereinschalten der entsprechenden Einga bevorrichtung das zuletzt ausgewählte Widget aktiv bleibt, das heißt das ein auf der grafischen Benutzerschnittstelle darge stellter Cursor beim Aus- und Wiedereinschalten der entspre chenden Eingabevorrichtung nicht auf seine Ausgangsposition wieder zurückspringt. Figur 4B wiederum zeigt eine Situation, in welcher ein Nutzer durch Auswahl des zusätzlichen Widgets 66 zu einer anderen Ebene navigieren und diese auswählen möchte.
Wie Figur 4B zeigt, wird in diesem Fall die, die zur Auswahl des zusätzlichen Widgets nötige Eingabegeste betreffende In formation 68 deutlich präsentiert, während die, die zur Aus wahl der ersten fünf Widgets 61,62,63,64,65 nötige Rotations- bewegung betreffenden Information 67 nur noch schematisch dar gestellt werden und in den Hintergrund treten. Ferner können die ersten fünf Widgets 61,62,63,64,65 während einer Auswahl des zusätzlichen Widgets 66 durch ein entsprechendes Benutzer- schnittstellen-Steuerungsmodul aber auch inaktiv geschaltet werden, sodass ausgeschlossen ist, dass versehentlich eines der ersten fünf Widgets 61,62,63,64,65 in Reaktion auf die Eingabegeste ausgewählt wird.

Claims

Patentansprüche
1.Verfahren zum Erhöhen der Sicherheit während des Bedie- nens einer Einrichtung, wobei auf einer grafischen Benut zerschnittstelle mehrere Widgets dargestellt werden, wo bei jedem Widget jeweils eine Bedienfunktion der Einrich tung zugeordnet ist, und wobei jede Bedienfunktion durch Auswahlen des entsprechenden Widgets durch eine durch ei nen Nutzer ausführbare Eingabegeste ausgewählt werden kann, wobei das Verfahren (1) folgende Schritte aufweist:
- Erfassen von Daten über eine aktuelle Situation (2);
- Bestimmen basierend auf den Daten über die aktuelle Si tuation, ob in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist (2);
- Falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, Anordnen der auf der grafischen Benutzerschnittstelle darge stellten Widgets derart, dass jedem Widget eine einfa che Eingabegeste, welche sich stark von anderen darge stellten Widgets zugeordneten Eingabegesten unterschei det, zugeordnet ist, um die Sicherheit während des Be- dienens der Einrichtung zu erhöhen (4).
2.Verfahren nach Anspruch 1, wobei das Verfahren (1) weiter folgenden Schritt aufweist:
- Einstellen von Konfidenzintervallen bei der Zuordnung von erfassten Eingabegesten zu einzelnen Widgets der art, dass, falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, jede erfasste Eingabegeste einem dargestellten Widget zugeordnet werden kann (6).
3.Verfahren nach Anspruch 1 oder 2, wobei das Verfahren (1) weiter folgenden Schritt aufweist:
- Falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, Reduzie ren einer Anzahl von auf der grafischen Benutzer schnittstelle dargestellten Widgets verglichen mit ei nem Zustand, in welchem keine erhöhte Aufmerksamkeit erforderlich ist (7).
4.Verfahren nach einem der Ansprüche 1 bis 3, wobei das Verfahren (1) weiter folgenden Schritt aufweist:
- Falls bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, Präsen tieren wenigstens einer Information über die den darge stellten Widgets zugeordneten Eingabegesten (8).
5.Verfahren nach einem der Ansprüche 1 bis 4, wobei das Verfahren weiter folgenden Schritt aufweist:
- Darstellen einer erfassten Eingabegeste in Echtzeit auf einer Anzeigevorrichtung (10).
6.Verfahren nach einem der Ansprüche 1 bis 5, wobei zusätz lich zum Ausführen einer einem Widget zugeordneten Einga begeste noch eine Bestätigungshandlung erforderlich ist, um die dem entsprechenden Widget zugeordnete Bedienfunk tion auszuwählen (9).
7.Verfahren nach einem der Ansprüche 1 bis 6, wobei das Verfahren (1) weiter folgenden Schritt aufweist: - Ausgeben eines Feedbacksignals, nachdem eine einem Widget zugeordnete Bedienfunktion ausgewählt wurde (11)·
8.Eingabevorrichtung zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung, wobei die Eingabevorrichtung (20) eine grafische Benutzerschnittstelle (23) aufweist, auf welcher mehrere Widgets dargestellt werden, wobei je dem Widget jeweils eine Bedienfunktion der Einrichtung zugeordnet ist, und wobei jede Bedienfunktion durch Aus wählen des entsprechenden Widgets durch eine durch einen Nutzer ausführbare Eingabegeste ausgewählt werden kann, wobei die Eingabevorrichtung (20) weiter eine Eingabeein heit (21), welche ausgebildet ist, durch einen Nutzer ausgeführte Eingabegesten zu erfassen, eine Erfassungs einheit (32), welche ausgebildet ist, Daten über eine ak tuelle Situation zu erfassen, eine Bestimmungseinheit (33), welche ausgebildet ist, basierend auf den Daten über die aktuelle Situation zu bestimmen, ob in der aktu ellen Situation eine erhöhte Aufmerksamkeit erforderlich ist, und ein Benutzerschnittstellen-Steuerungsmodul (26), welches ausgebildet ist, die auf der grafischen Benutzer schnittstelle (23) dargestellten Widgets derart anzuord nen, dass jedem Widget eine einfache Eingabegeste, welche sich stark von anderen dargestellten Widgets zugeordneten Eingabegesten unterscheidet, zugeordnet ist, um die Si cherheit während des Bedienens der Einrichtung zu erhö hen, falls durch die Bestimmungseinheit (33) bestimmt wird, dass in der aktuellen Situation eine erhöhte Auf merksamkeit erforderlich ist, aufweist.
9.Eingabevorrichtung nach Anspruch 8, wobei das Benutzer- schnittstellen-Steuerungsmodul (26) weiter ausgebildet ist, Konfidenzintervalle bei der Zuordnung von erfassten Eingabegesten zu einzelnen Widgets derart einzustellen, dass jede durch die Eingabeeinheit erfasste Eingabegeste einem Widget zugeordnet werden kann, falls durch die Be stimmungseinheit (33) bestimmt wird, dass in der aktuel len Situation eine erhöhte Aufmerksamkeit erforderlich ist.
10. Eingabevorrichtung nach Anspruch 8 oder 9, wobei das Be- nut zerschnittstellen-Steuerungsmodul (26) weiter ausge bildet ist, eine Anzahl von auf der grafischen Benutzer schnittstelle (23) dargestellten Widgets verglichen mit einem Zustand, in welchem keine erhöhte Aufmerksamkeit erforderlich ist, zu reduzieren, falls durch die Bestim mungseinheit (33) bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit erforderlich ist.
11. Eingabevorrichtung nach einem der Ansprüche 8 bis 10, wobei das Benutzerschnittstellen-Steuerungsmodul (26) weiter ausgebildet ist, wenigstens eine Information über die den dargestellten Widgets zugeordneten Eingabegesten auf einer Anzeigevorrichtung (22) zu präsentieren, falls durch die Bestimmungseinheit (33) bestimmt wird, dass in der aktuellen Situation eine erhöhte Aufmerksamkeit er forderlich ist.
12. Eingabevorrichtung nach einem der Ansprüche 8 bis 11, wobei die Eingabevorrichtung (20) weiter ein Darstel lungsmodul (38), welches ausgebildet ist, eine durch die Eingabeeinheit (21) erfasste Eingabegeste in Echtzeit auf einer Anzeigevorrichtung (22) darzustellen, aufweist.
13. Eingabevorrichtung nach einem der Ansprüche 8 bis 12, wobei die Eingabevorrichtung (20) weiter ein Bestäti gungselement (39), welches ausgebildet ist, eine Bestäti gungshandlung eines Nutzers zu erfassen, aufweist, und wobei das Benutzerschnittstellen-Steuerungsmodul (26) weiter ausgebildet ist, eine einem Widget zugeordnete Bedienfunktion nur auszuwählen, wenn eine entsprechende Eingabegeste durch die Eingabeeinheit (21) und eine Be stätigungshandlung durch das Bestätigungselement (39) er- fasst wird.
14. Eingabevorrichtung nach einem der Ansprüche 8 bis 13, wobei die Eingabevorrichtung (20) weiter einen Feedback geber (40), welcher ausgebildet ist, ein Feedbacksignal auszugeben, nachdem eine einem Widget zugeordnete Bedien funktion ausgewählt wurde, aufweist.
15. Kraftfahrzeug, welches eine Eingabevorrichtung (20) nach einem der Ansprüche 8 bis 14 aufweist.
PCT/EP2022/052364 2021-02-17 2022-02-01 Verfahren zum erhöhen der sicherheit während des bedienens einer einrichtung WO2022175077A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280010340.5A CN116783087A (zh) 2021-02-17 2022-02-01 用于提高在操作设备期间的安全性的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021103690.9A DE102021103690A1 (de) 2021-02-17 2021-02-17 Verfahren zum Erhöhen der Sicherheit während des Bedienens einer Einrichtung
DE102021103690.9 2021-02-17

Publications (1)

Publication Number Publication Date
WO2022175077A1 true WO2022175077A1 (de) 2022-08-25

Family

ID=80624074

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/052364 WO2022175077A1 (de) 2021-02-17 2022-02-01 Verfahren zum erhöhen der sicherheit während des bedienens einer einrichtung

Country Status (3)

Country Link
CN (1) CN116783087A (de)
DE (1) DE102021103690A1 (de)
WO (1) WO2022175077A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014118957A1 (de) * 2014-12-18 2016-06-23 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Bedienanordnung für ein Kraftfahrzeug mit zustandsabhängiger Anzeige, Bedienanordnung sowie Kraftfahrzeug
DE102016114669A1 (de) * 2016-08-08 2018-02-08 Volkswagen Aktiengesellschaft Verfahren und Bedienvorrichtung zum Bedienen einer Einrichtung
DE102017211378A1 (de) * 2017-07-04 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Anwenderschnittstelle für ein Fortbewegungsmittel und Fortbewegungsmittel enthaltend eine Anwenderschnittstelle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
DE102010020895A1 (de) 2010-05-18 2011-11-24 Volkswagen Ag Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
JP6525888B2 (ja) 2013-01-04 2019-06-05 ジョンソン コントロールズ テクノロジー カンパニーJohnson Controls Technology Company コンテキストに基づいた車両ユーザインターフェースの再構成
DE102015005853A1 (de) 2015-05-06 2016-11-10 Airbus Ds Electronics And Border Security Gmbh Elektronisches System und Verfahren zur Planung und Durchführung einer mit einem Fahrzeug durchzuführenden Mission

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014118957A1 (de) * 2014-12-18 2016-06-23 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Bedienanordnung für ein Kraftfahrzeug mit zustandsabhängiger Anzeige, Bedienanordnung sowie Kraftfahrzeug
DE102016114669A1 (de) * 2016-08-08 2018-02-08 Volkswagen Aktiengesellschaft Verfahren und Bedienvorrichtung zum Bedienen einer Einrichtung
DE102017211378A1 (de) * 2017-07-04 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Anwenderschnittstelle für ein Fortbewegungsmittel und Fortbewegungsmittel enthaltend eine Anwenderschnittstelle

Also Published As

Publication number Publication date
DE102021103690A1 (de) 2022-08-18
CN116783087A (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
EP2930049B1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
EP2121372B1 (de) Berührungslos aktivierbare anzeige- und bedienvorrichtung
EP3486805A1 (de) Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
DE102009059867A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102015011647B3 (de) Kraftfahrzeug-Bedienvorrichtung mit mehreren gekoppelten Bildschirmen
EP2196359B1 (de) Bedienverfahren und Bedieneinrichtung
DE102008020251A1 (de) Bediensystem für ein Kraftfahrzeug mit frei positionierbaren grafischen Darstellungselementen
EP3243688A1 (de) Verfahren und vorrichtung zum zuordnen von steuerbefehlen in einem fahrzeug sowie fahrzeug
WO2014170277A1 (de) Kraftfahrzeug mit einer anzeige- und bedienvorrichtung und entsprechendes verfahren
EP2030828B1 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug
WO2022175077A1 (de) Verfahren zum erhöhen der sicherheit während des bedienens einer einrichtung
DE102018206653B4 (de) Verfahren zum dynamischen Anpassen einer Bedienvorrichtung in einem Kraftfahrzeug sowie Bedienvorrichtung und Kraftfahrzeug
WO2017025395A1 (de) Verfahren zum betreiben eines kraftfahrzeugs durch eine bedienvorrichtung des kraftfahrzeugs
DE102012011177A1 (de) Verfahren zur Bedienung von Funktionen einesFahrzeuges sowie entsprechende Vorrichtung
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
EP1655847B1 (de) Bedienvorrichtung
DE102011121585B4 (de) Kraftfahrzeug
WO2014114428A1 (de) Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system
WO2014072177A1 (de) Verfahren zum anzeigen von informationen in einem fahrzeug und vorrichtung zum steuern der anzeige
EP3976411B1 (de) Verfahren zur grafischen konfigurierung eines anzeigeinstrumentes in einem kraftfahrzeug und kraftfahrzeug zur durchführung des verfahrens
DE102018204223A1 (de) Mobile, portable Bedienvorrichtung zum Bedienen eines mit der Bedienvorrichtung drahtlos gekoppelten Geräts, und Verfahren zum Betreiben eines Geräts mithilfe einer mobilen, portablen Bedienvorrichtung
DE102014217969A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102019131944A1 (de) Verfahren zur Steuerung zumindest einer Anzeigeeinheit, Kraftfahrzeug und Computerprogrammprodukt
WO2024046612A1 (de) Steuern einer funktion an bord eines kraftfahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22706520

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280010340.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22706520

Country of ref document: EP

Kind code of ref document: A1