WO2017144298A1 - Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen - Google Patents

Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen Download PDF

Info

Publication number
WO2017144298A1
WO2017144298A1 PCT/EP2017/053194 EP2017053194W WO2017144298A1 WO 2017144298 A1 WO2017144298 A1 WO 2017144298A1 EP 2017053194 W EP2017053194 W EP 2017053194W WO 2017144298 A1 WO2017144298 A1 WO 2017144298A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
user interface
user action
processor
graphical user
Prior art date
Application number
PCT/EP2017/053194
Other languages
English (en)
French (fr)
Inventor
Christian Butter
Eckhard Seibert
Silvio Wolf
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to CN201780012659.0A priority Critical patent/CN108700983A/zh
Priority to EP17705837.7A priority patent/EP3400515A1/de
Priority to US16/078,036 priority patent/US20190065007A1/en
Publication of WO2017144298A1 publication Critical patent/WO2017144298A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display

Definitions

  • the invention relates to a user interface with several ⁇ ren displays and a method for positioning content in work environments with multiple displays.
  • Multi-display environments such as monitors or giant screens, provide a variety of content and are often used in control rooms.
  • the displays form a multi-monitor working environment in their specific arrangement. They can be any screens, large screens, or projectors that receive and output image information from a computer.
  • a user interface is to place ⁇ multi-display and a method for positioning of contents are created on a plurality of displays which provide an alternative to the prior art.
  • the user interface has a display and operating at least one processor, which is programmed to output a graphical user interface on the user display, wherein the graphicalêtoberflä ⁇ surface includes a set of windows.
  • the user interface of the ⁇ le further has connected to the processor at least one other display, and is characterized gekennzeich- net that the processor is programmed for selection ei ⁇ nes to be distributed window from the set of windows in response to a first user action on the graphical user interface for a selection on the graphic of a display from the other displays in response to a second user action User interface, and for outputting the selected window to be distributed on the selected display.
  • At least one processor displays on a control display a graphical user interface that represents a set of windows that are positionable on at least one other display.
  • the processor selects a window to be distributed based on a first user action from the set of windows in the graphical user interface. He then selects an advertisement from the further displays on the basis of a second user action on the graphical user interface. He then outputs the selected window to be distributed on the selected display.
  • the processor may execute an operating system that provides the graphical user interface.
  • the processor which is for example a microprocessor of a computer, can be supported in the execution of the method to any extent by other processors.
  • the processor is part of a one-chip system that includes at least one graphics processor.
  • the computer system in which the processor is operating may have one or more discrete graphics Availability checked ⁇ gen.
  • the graphics processors or graphics cards tasks can take this on the issue of the graphical user interface and control of the ads, which relieve the processor. The same applies to the embodiments and developments of the invention.
  • the advantages mentioned below need not necessarily be achieved by the subject-matter of the independent patent claims. Rather, these may also be advantages that are achieved only by individual embodiments, variants or developments.
  • the user interface and method allow a user to lenzierlan- to be distributed windows with the first user action on the GUI, and a target display, such as a monitor or a large screen, for For the second user action choose ⁇ on which to be distributed the Window should be displayed.
  • the user interface and method provide a Be ⁇ user thus has the advantage that it can position of the operator display in any view a multi-monitor work environment, including the existing big screens.
  • the user no longer has to pay attention to the process of moving by, for example, holding a mouse button down over long distances to move a window across multiple monitors, but can fully rely on the positioning of the window on the displays of the multi Focus on monitor work environment.
  • the positioning takes place accurately and is intuitive to use. It is possible even if the target ad is not in the user's preferred field of view or completely outside of its field of view.
  • the positioning is ergonomic because the user can work in his preferred field of view on the control panel.
  • the user interface and the method allow, for the first time, such positioning by touch input, even though the aim of the positioning is outside the operating display.
  • Touchscreens do not provide an input device, such as a mouse, to move content. With touch gestures therefore can not be worked or positioned beyond the physical limits of the touch screen addition.
  • the user interface and the method also enable positioning by touch input. Consequently, they are suitable for different input modalities, such as touches or mouse operation, and are independent of the specific input medium, which is why other input modalities, such as keyboard input, can also be used.
  • are at least one Prozes ⁇ sor is a schematic representation of the spatial arrangement of the further display on the graphical user interface, wherein by means of the second user action, each of the other ads in the schematic illustration is selectable.
  • FIG. 1 In the schematic illustration is a scaled down version or a schematic image which is formed from the display of the user interface ei ⁇ ner multi-monitor work environment.
  • the schematic representation of this case forms a control element which can for example be operated with the mouse or Be ⁇ agitation of the graphical user interface.
  • the first user action forms the beginning and the second user action the
  • a drag-and-drop operation which can be performed in particular with a mouse operation, or which is in particular carried out by contact, wherein the operator display is a tactile ⁇ screen.
  • the second user action forms a drag-and-drop operation, which can only be executed after the first user action has been completed.
  • This variant makes it possible to drag and drop the content to be distributed to one of the displays in the schematic diagram.
  • the processor allows a successive selection of several of the other displays during the second user action, wherein the last selected display is the selected display.
  • the processor issues visual feedback on the currently selected display, temporarily highlighting it during the second user action.
  • the user touches one of the further displays in the schematic display on the operating display (which in this case is a touch screen). While his finger still
  • Touched touch screen the currently selected display vi ⁇ highlighted, for example by a colored Markie ⁇ tion or a change in brightness or contrast.
  • This visual feedback takes place both in the schematic representation, as well as on the real selected display.
  • the user can move his fingertip on the operating display as part of the second user action until it comes to rest on another display in the schematic representation. Then the visual feedback is output on the newly selected display.
  • the user could also drive the mouse over the displays while holding down the mouse button.
  • the final selection display results from the last selected display when the user releases the mouse button or lifts his finger off the control panel.
  • the window can be dragged to be distributed to the schematic representation with a drag-and-drop operation, using both a tactile and a mouse ⁇ operation can also be implemented here.
  • the visual feedback before the end of the drag-and-drop operation ie before releasing, can be displayed successively.
  • the vi ⁇ selle feedback occurs here without significant time delay and follows the movement of the second user action. It supports collaborative work because all users of the multi-monitor workspace can follow the second user action and comment on and support the selection. Further- In addition, the visual feedback also allows the user to direct his gaze to the multi-monitor work environment during the second user action, that is, to the real further displays.
  • At least one of the further displays has a graphical user interface which is subdivided into a plurality of display areas. As part of the second user interaction, one of the display panels is selectable. The selected window to be distributed is displayed on the in ⁇ selected display area.
  • a control element is displayed on the graphical user interface for each window of the set of windows, wherein each of the control elements can be selected by the first user action.
  • the schematic representation is displayed immediately after the first user action overlapping or adjacent to the selected control.
  • a distribution mode is activated in advance after detection of an initial user action, wherein the windows from the set of windows in the graphical user interface are only visually marked as distributable in the distribution mode.
  • the aforementioned control elements are only in the distribution mode displayed.
  • the aforementioned schematic representation is displayed only in the distribution mode.
  • the distribution mode allows visual highlighting and marking of flexibly distributable windows as manipulable to the user.
  • the distributable in the multi-monitor work environment windows are displayed very clearly and in a way that does not additionally overloaded the complex gra ⁇ fishes user interface with permanently visible controls. This is because the distributable windows are only visually highlighted after activation of the distribution mode.
  • the readability of the graphical user interface is not a fishing ⁇ ⁇ side set in a standard mode, since no additional controls or icons to be displayed with the exception of a control element for the mode change.
  • a switch is displayed on the graphical user interface, wherein the initial user action is detected upon actuation of the switch.
  • the user interface has egg ⁇ NEN electrical switch, which is arranged in the vicinity of the control panel.
  • the processor is programmed to detect the initial user action based on an operation of the switch.
  • the operating display is a tactile ⁇ screen, which is arranged to the first user action and the second user action as Tastein complex to detektie ⁇ ren.
  • the computer-readable medium stores a computer program which executes the method when it is executed in the processor.
  • the computer program is executed in the processor and executes the procedure.
  • FIG. 1 shows an operating display with a graphical user interface 1 11, and two other indicators 2; 3, so ⁇ as an enlarged representation of the graphical user interface 11,
  • FIG. 2 shows a first user action 41, which selects a window 15 to be distributed on the graphical user interface 11, FIG. 3, a second user action 42, which in one
  • FIG. 13 shows a third user action 43, which is a third
  • FIG. 5 a representation of the window 15 to be distributed on the third display 3
  • FIG. 6 shows a user interface 11 in a standard mode
  • FIG. 8 shows a selection of a window 15 to be distributed with a first user action 41
  • FIG. 10 a representation of the window 15 to be distributed on the third display 3
  • FIG. 11 shows a final user action 44 for deactivating the distribution mode on the graphical user interface 11
  • FIG. 13 shows an architecture of a user interface with several displays.
  • Figure 1 shows an operator display screen 1 on which a graphical user interface is output 11, and a second on ⁇ showing 2, and a third display 3.
  • the ads are part ei ⁇ ner user interface, the architecture is designed, for example corresponding to Figure 13, which further below will be explained.
  • Deviating from Figure 1, the Benut ⁇ cut point may also comprise only the operation display 1 and the second display. 2 It is also possible that the user interface in addition to the operating display 1, the second display 2 and the third display 3 still further displays summarized.
  • the user interface can still have wider ⁇ re displays, which are driven and selected in the same manner, as described in the embodiments.
  • any display can be multiple areas, such as quadrants, have, in turn, treated as separate displays and selected who can ⁇ .
  • the second display 2 and the third display 3 can also be only partial areas of a large-screen screen.
  • the graphical user interface 11 is shown on the left side again enlarged for illustrative purposes. It contains windows 15, 16, 17, 18, which basically also on the second display 2 and the third Display 3 can be output.
  • the graphical user interface 11 provides for each window 15, 16, 17, 18 a Be ⁇ service element 12, by means of which the respective window for distribution to the second display 2 or the third display 3 can be selected.
  • the operation display 1, the second display 2, and the third on ⁇ show three, and possibly further display form in their spatial arrangement, a multi-monitor work environment.
  • the second display 2 is here, for example divided into four quadrants, each of which forms a display area for one of the windows 15, 16, 17, 18 on the operator display screen 1, currency ⁇ rend of each of these windows would be represented chanyogl ⁇ lend on the third display.
  • 3 Of course, for each of the displays 2, 3, depending on the requirement, such a subdivision or a picture-filling representation can be selected.
  • FIG. 2 shows the user interface from FIG. 1, wherein a user now touches the operating element 12 for the window 15 by means of a first user action 41, since the window 15 is to be distributed to one of the further displays 2, 3. Subsequently, as shown in FIG. 3, a schematic representation 13 of all displays, that is to say the entire MultiMonitor working environment, is output on the graphical user interface 11 below the selected control element 12.
  • the operating display 1, the second display 2 and the third display 3 are arranged schematically according to their real spatial arrangement. In one variant, the representation of the operating display 1 itself can be omitted here.
  • the user now uses a second user action 42 to select the right lower quadrant of the second display 2 as the display area for the window 15 to be distributed. Then a visual
  • All user actions can be carried out as touch inputs, provided that the operating display 1 is a touch screen.
  • the operator panel 1 could be part of a tablet computer.
  • the user actions may also be performed by mouse, keyboard, or any other suitable input device that permits selection of graphical user interface 11 windows.
  • Figure 4 shows the case that the user selects a third display 3 with a third user action 43 on which there ⁇ rillerhin visual feedback is issued 31st The user can thus successively select a plurality of displays in the schematic diagram 13 until the visual message corresponding to his wishes is displayed on the display.
  • Figure 3 could correspond to a simple mouse-over or a slight pressure with the fingertip on the touch screen.
  • Such a second user action 42 can be detected from the user interface ⁇ location and are used for outputting the visual feedback 21st
  • a final selection, such as by the third user action 43 in Figure 4 is then detected, for example, by a completed mouse click or a greater pressure touch.
  • the second Benut ⁇ zertress 42 may be as simple, and the third user action 43 are implemented as a double mouse click.
  • Another possibility is to combine the second user action 42 and the third user action 43 as part of a swipe movement.
  • the user depresses a mouse button and moves then hold down the mouse pointer over different display areas or displays until the visual feedback 31 on the desired display 3 is displayed.
  • the user then confirms the selection made. Even when touched on a touch screen, this procedure can be selected, wherein the on ⁇ display is selected, which touches the user before he lifts his finger from the touch screen.
  • To confirm the final selection may also be provided a separate control.
  • the operating element 12 of the to-distributing element 15 as part of a drag can-and-drop operation on the desired display surface or display are Gezo ⁇ gen, where here too in the context of drag and drop motion, which can be carried out either via mouse button or touch, different displays or display surfaces can be covered, each with a visual feedback ⁇ tion on the swept display area or display is ⁇ out.
  • the final selected display area or to show ⁇ is then obtained from the final position of the drag-and-drop operation.
  • FIG. 6 again shows a multi-monitor working environment which is formed, for example, from a control display 1, a second display 2 and a third display 3.
  • a graphical user interface 11, which is shown on the operating display 1, is shown enlarged again in Figure 6 on the left side for illustration.
  • the graphical user interface 11 is in a standard mode, in which with respect to the distribution of windows 15, 16, 17, 18 of the graphical user interface 11 to the other displays 2, 3 only a single graphical element, here a switch 14, is displayed , This has the advantage that the user interface 11 is not overloaded in the standard mode by numerous graphic elements for the distribution functions.
  • a switch 14 With an initial user action 40, a user now activates the switch 14, which activates a distribution mode.
  • FIG. 7 shows the graphical user interface 11 after the distribution mode has been activated.
  • the user interface 11 is shown inverted.
  • inverted representation of the distribution mode lifts the windows 15, 16, 17, 18 visually forth ⁇ and informs the user that they can be distributed over the other displays 2; 3.
  • a loading is determined for each of the windows 15, 16, 17, 18 in the distribution mode serving element 12 is on the graphical user interface 11 provided ⁇ with which the respective window can be selected by the user.
  • a schematic diagram 13 is displayed in the distribution mode, as was already explained ⁇ be in the context of Figures 3 and 4.
  • FIG. The schematic representation is now arranged at the top of grafi ⁇ 's user interface. 11
  • FIG. 8 shows a first user action 41 with which the user activates the operating element 12 of the window 15 to be distributed.
  • the window 15 is thereby selected for distribution to ei ⁇ ne of the displays 2 or 3.
  • the user touches, with a second user action 42, the icon of the third display 3 in the schematic diagram 13.
  • a visual feedback 31 is output on the selected third display 3.
  • the switch 14 is not necessarily an element of gra ⁇ fishing UI. 11 He may also be designed as physika ⁇ Lischer, electric switches and realized for example by a special key on a keyboard ⁇ .
  • FIG 13 shows a possible architecture of the user interface imagine ⁇ .
  • a computer 9 includes a processor 5, which executes a computer program 7, which it has loaded from a secondary memory 8 in its main memory 6.
  • the user inputs previously discussed can be detected via an input device 4, which is optionally the berhakungsempfindli ⁇ che surface of a touchscreen, a computer mouse, a keyboard or any other input device which is suitable for operating a graphical user interface.
  • the graphical user interface is output on an operating display 1, which still belongs directly to the computer 9.
  • a second display 2 and a third display 3 are also supplied by the computer 9 with image information, but which may show on ⁇ also be arranged at a greater distance.
  • the third display 3 could be a large ⁇ screen in a control room.
  • Display 2 and the third display 3 directly via a Gra ⁇ fik badge with image information controls.
  • it is an extended desktop whose different displays are managed and controlled by the graphics card.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Benutzerschnittstelle ermöglicht es einem Benutzer, ein zu verteilendes Fenster (15) mit einer ersten Benutzeraktion (41) auf einer grafischen Benutzeroberfläche (11) auszuwählen, und eine Zielanzeige (3), beispielsweise einen Monitor oder eine Großbildleinwand, mit einer dritten Benutzeraktion (43) auszuwählen, auf der das zu verteilende Fenster (15) anschließend dargestellt wird. In einer Variante ist mittels der dritten Benutzeraktion (43) jede Anzeige (2, 3) in einer schematischen Darstellung (13) auswählbar.

Description

Beschreibung
Benutzerschnittstelle mit mehreren Anzeigen und Verfahren zur Positionierung von Inhalten auf mehreren Anzeigen
Die Erfindung betrifft eine Benutzerschnittstelle mit mehre¬ ren Anzeigen sowie ein Verfahren zur Positionierung von Inhalten in Arbeitsumgebungen mit mehreren Anzeigen. Arbeitsumgebungen mit mehreren Anzeigen, darunter beispielsweise Monitore oder Großbildleinwände, stellen eine Vielzahl von Inhalten dar und werden häufig in Leitwarten eingesetzt. Die Anzeigen bilden hierbei in ihrer spezifischen Anordnung eine Multi-Monitor-Arbeitsumgebung . Sie können beliebige Bildschirme, Großbildleinwände oder Projektoren sein, welche Bildinformationen von einem Computer empfangen und ausgeben.
Bekannt ist, Inhalte auf den unterschiedlichen Anzeigen mittels einer Computermaus zu positionieren. Hierzu verschiebt ein Benutzer einen Inhalt ggf. auch über mehrere Monitore hinweg an die gewünschte Position. Beispielsweise erlaubt es das Betriebssystem Microsoft Windows, den Desktop über mehre¬ re Monitore auszudehnen und Fenster über die Monitorgrenzen hinweg zu verschieben.
Durch die vorliegende Erfindung soll eine Benutzerschnitt¬ stelle mit mehreren Anzeigen und ein Verfahren zur Positionierung von Inhalten auf mehreren Anzeigen geschaffen werden, welche eine Alternative zum Stand der Technik bereitstellen.
Diese Aufgabe wird durch eine Benutzerschnittstelle mit meh¬ reren Anzeigen gelöst. Die Benutzerschnittstelle besitzt eine Bedienanzeige und mindestens einen Prozessor, welcher zur Ausgabe einer grafischen Benutzeroberfläche auf der Bedienan- zeige programmiert ist, wobei die grafische Benutzeroberflä¬ che eine Menge von Fenstern enthält. Die Benutzerschnittstel¬ le besitzt weiterhin mindestens eine weitere Anzeige, welche mit dem Prozessor verbunden ist, und ist dadurch gekennzeich- net, dass der Prozessor programmiert ist für eine Auswahl ei¬ nes zu verteilenden Fensters aus der Menge von Fenstern in Abhängigkeit von einer ersten Benutzeraktion auf der grafischen Benutzeroberfläche, für eine Auswahl einer Anzeige aus den weiteren Anzeigen in Abhängigkeit von einer zweiten Benutzeraktion auf der grafischen Benutzeroberfläche, und für eine Ausgabe des ausgewählten zu verteilenden Fensters auf der ausgewählten Anzeige. Bei dem Verfahren zur Positionierung von Inhalten auf mehreren Anzeigen zeigt mindestens ein Prozessor auf einer Bedienanzeige eine grafische Benutzeroberfläche an, welche eine Menge von Fenstern darstellt, welche auf mindestens einer weiteren Anzeige positionierbar sind. Der Prozessor wählt ein zu verteilendes Fenster anhand einer ersten Benutzeraktion aus der Menge von Fenstern auf der grafischen Benutzeroberfläche aus. Anschließend wählt er eine Anzeige aus den weite¬ ren Anzeigen anhand einer zweiten Benutzeraktion auf der grafischen Benutzeroberfläche aus. Daraufhin gibt er das ausge- wählte zu verteilende Fenster auf der ausgewählten Anzeige aus .
Es kann sich hierbei um einen einzelnen Prozessor handeln. Beispielsweise kann der Prozessor ein Betriebssystem ausfüh- ren, welches die grafische Benutzeroberfläche bereitstellt. Der Prozessor, welcher beispielsweise ein Mikroprozessor eines Computers ist, kann jedoch bei der Ausführung des Verfahrens in beliebigem Umfang von weiteren Prozessoren unterstützt werden. Beispielsweise ist der Prozessor Teil eines Ein-Chip-Systems , welches mindestens einen Grafikprozessor enthält. Ebenso kann das Computersystem, in dem der Prozessor arbeitet, über eine oder mehrere separate Grafikkarten verfü¬ gen. Die Grafikprozessoren bzw. Grafikkarten können hierbei Aufgaben bei der Ausgabe der grafischen Benutzeroberfläche und Ansteuerung der Anzeigen übernehmen, welche den Prozessor entlasten. Gleiches gilt auch für die Ausführungsformen und Weiterbildungen der Erfindung. Die im Folgenden genannten Vorteile müssen nicht notwendigerweise durch die Gegenstände der unabhängigen Patentansprüche erzielt werden. Vielmehr kann es sich hierbei auch um Vorteile handeln, welche lediglich durch einzelne Ausführungsfor- men, Varianten oder Weiterbildungen erzielt werden.
Die Benutzerschnittstelle und das Verfahren ermöglichen es einem Benutzer, das zu verteilende Fenster mit der ersten Benutzeraktion auf der grafischen Benutzeroberfläche auszuwäh- len, und eine Zielanzeige, beispielsweise einen Monitor oder eine Großbildleinwand, mit der zweiten Benutzeraktion auszu¬ wählen, auf der das zu verteilende Fenster dargestellt werden soll . Die Benutzerschnittstelle und das Verfahren bieten einem Be¬ nutzer somit den Vorteil, dass er von der Bedienanzeige in beliebige Anzeigen einer Multi-Monitor-Arbeitsumgebung inklusive eventuell vorhandener Großbildleinwände positionieren kann. Der Benutzer muss seine Aufmerksamkeit hierbei nicht mehr auf den Vorgang des Verschiebens legen, indem er beispielsweise eine Maustaste über weite Wege gedrückt hält, um ein Fenster über mehrere Monitore hinweg zu bewegen, sondern kann sich ganz auf die Positionierung des Fensters auf den Anzeigen der Multi-Monitor-Arbeitsumgebung konzentrieren. Die Positionierung erfolgt hierbei zielgenau und ist intuitiv zu bedienen. Sie ist auch dann möglich, wenn die Zielanzeige nicht im bevorzugten Blickfeld des Benutzers oder gänzlich außerhalb seines Sichtbereichs liegt. Die Positionierung ist ergonomisch, da der Benutzer in seinem bevorzugten Blickfeld auf der Bedienanzeige arbeiten kann.
Weiterhin ermöglichen die Benutzerschnittstelle und das Ver¬ fahren erstmals eine solche Positionierung per Berührungseingabe, obwohl das Ziel der Positionierung außerhalb der Be- dienanzeige liegt. Bei Tastschirmen ist kein Eingabegerät wie eine Maus zum Verschieben der Inhalte vorgesehen. Mit Berührungsgesten kann daher nicht über die physikalischen Grenzen des Tastschirms hinaus gearbeitet bzw. positioniert werden. Da jedoch sämtliche Benutzeraktionen auf der Bedienanzeige erfolgen, ermöglichen die Benutzerschnittstelle und das Ver¬ fahren auch eine Positionierung per Berührungseingabe. Sie sind folglich für unterschiedliche Eingabemodalitäten wie Be- rührungen oder Maus-Bedienung geeignet und von dem konkreten Eingabemedium unabhängig, weshalb auch andere Eingabemodalitäten wie beispielsweise Tastatureingaben verwendet werden können . Gemäß einer Ausführungsform gibt der mindestens eine Prozes¬ sor eine schematische Darstellung der räumlichen Anordnung der weiteren Anzeigen auf der grafischen Benutzeroberfläche aus, wobei mittels der zweiten Benutzeraktion jede der weiteren Anzeigen in der schematischen Darstellung auswählbar ist.
Bei der schematischen Darstellung handelt es sich um eine verkleinerte Darstellung bzw. um ein schematisches Abbild ei¬ ner Multi-Monitor-Arbeitsumgebung, welche aus den Anzeigen der Benutzerschnittstelle gebildet wird. Die schematische Darstellung bildet hierbei ein Bedienelement der grafischen Benutzeroberfläche, welches beispielsweise per Maus oder Be¬ rührung betätigt werden kann.
Gemäß einer Variante dieser Ausführungsform bildet die erste Benutzeraktion den Beginn und die zweite Benutzeraktion das
Ende einer Drag&Drop-Operation, welche insbesondere mit einer Maus-Bedienung durchführbar ist, oder welche insbesondere per Berührung durchführbar ist, wobei die Bedienanzeige ein Tast¬ schirm ist. Alternativ bildet die zweite Benutzeraktion eine Drag&Drop-Operation, welche erst nach Abschluss der ersten Benutzeraktion ausführbar ist.
Diese Variante ermöglicht es, den zu verteilenden Inhalt per Drag&Drop auf eine der Anzeigen in der schematischen Darstel- lung zu ziehen.
Gemäß einer Weiterbildung ermöglicht der Prozessor eine sukzessive Selektion mehrerer der weiteren Anzeigen während der zweiten Benutzeraktion, wobei die jeweils zuletzt selektierte Anzeige die ausgewählte Anzeige ist. Der Prozessor gibt eine visuelle Rückmeldung auf der jeweils aktuell selektierten Anzeige aus, welche diese während der zweiten Benutzeraktion temporär hervorhebt.
Beispielsweise berührt der Benutzer im Rahmen der zweiten Benutzeraktion in der schematischen Darstellung auf der Bedienanzeige (die in diesem Fall als Tastschirm ausgebildet ist) eine der weiteren Anzeigen. Noch während sein Finger den
Tastschirm berührt, wird die aktuell selektierte Anzeige vi¬ suell hervorgehoben, beispielsweise durch ein farbige Markie¬ rung oder eine Veränderung der Helligkeit oder des Kontrasts. Diese visuelle Rückmeldung erfolgt sowohl in der schemati- sehen Darstellung, als auch auf der realen selektierten Anzeige. Anhand dieser visuellen Rückmeldung kann der Benutzer im Rahmen der zweiten Benutzeraktion seine Fingerspitze auf der Bedienanzeige verschieben, bis sie auf einer anderen Anzeige in der schematischen Darstellung zu liegen kommt. Da- raufhin wird die visuelle Rückmeldung auf der neu selektierten Anzeige ausgegeben. In gleicher Weise könnte der Benutzer auch mit gedrückter Maustaste in der schematischen Darstellung über die Anzeigen fahren. Die endgültige Auswahl Anzeige ergibt sich aus der zuletzt selektierten Anzeige, wenn der Benutzer die Maustaste loslässt oder seinen Finger von der Bedienanzeige abhebt.
Weiterhin kann das zu verteilende Fenster auch mit einer Drag&Drop-Operation auf die schematische Darstellung gezogen werden, wobei auch hier sowohl eine Tast- als auch eine Maus¬ bedienung implementierbar ist. In diesem Fall können die visuellen Rückmeldungen vor dem Ende der Drag&Drop-Operation, also vor dem Loslassen, sukzessive angezeigt werden. Die vi¬ suelle Rückmeldung erfolgt hierbei ohne nennenswerten Zeit- verzug und folgt der Bewegung der zweiten Benutzeraktion. Sie unterstützt kollaboratives Arbeiten, da alle Nutzer der Mul- ti-Monitor-Arbeitsumgebung der zweiten Benutzeraktion folgen und die Auswahl kommentieren und unterstützen können. Weiter- hin ermöglicht die visuelle Rückmeldung auch dem Benutzer selbst, seinen Blick während der zweiten Benutzeraktion auf die Multi-Monitor-Arbeitsumgebung, also auf die realen weiteren Anzeigen zu richten.
Gemäß einer Ausführungsform weist zumindest eine der weiteren Anzeigen eine grafische Benutzeroberfläche auf, welche in mehrere Anzeigeflächen unterteilt ist. Im Rahmen der zweiten Benutzerinteraktion ist eine der Anzeigeflächen auswählbar. Das ausgewählte zu verteilende Fenster wird auf der ausge¬ wählten Anzeigefläche ausgegeben.
In Kombination mit der zuvor erläuterten schematischen Darstellung ergibt sich hierbei die Variante, dass die Anzeige- flächen auch in der schematischen Darstellung gekennzeichnet werden. Weiterhin ergibt sich in Kombination mit den zuvor erläuterten visuellen Rückmeldungen die Variante, dass der Benutzer im Rahmen der zweiten Benutzeraktion in der schematischen Darstellung über unterschiedliche Anzeigeflächen streicht, wobei jeweils eine visuelle Rückmeldung auf der ak¬ tuell selektierten Anzeigefläche ausgegeben wird. Nicht alle Anzeigen müssen in mehrere Anzeigeflächen unterteilt sein.
In einer Weiterbildung wird vor der ersten Benutzeraktion für jedes Fenster der Menge von Fenstern ein Bedienelement auf der grafischen Benutzeroberfläche angezeigt, wobei jedes der Bedienelemente durch die erste Benutzeraktion anwählbar ist.
Gemäß einer Ausführungsform wird die schematische Darstellung unmittelbar nach der ersten Benutzeraktion überlappend oder benachbart zu dem angewählten Bedienelement angezeigt.
In einer Weiterbildung wird vorab ein Verteilmodus nach Erkennung einer initialen Benutzeraktion aktiviert, wobei die Fenster aus der Menge von Fenstern auf der grafischen Benutzeroberfläche lediglich in dem Verteilmodus visuell als verteilbar gekennzeichnet werden. In einer Variante werden die zuvor genannten Bedienelemente lediglich im Verteilmodus angezeigt. In einer weiteren Variante wird die zuvor genannte schematische Darstellung lediglich im Verteilmodus angezeigt.
Der Verteilmodus ermöglicht eine visuelle Hervorhebung und Kennzeichnung der flexibel verteilbaren Fenster als manipulierbar für den Benutzer. Dadurch werden die in der MultiMonitor-Arbeitsumgebung verteilbaren Fenster sehr eindeutig und in einer Art und Weise dargestellt, die die komplexe gra¬ fische Benutzeroberfläche nicht zusätzlich mit permanent sichtbaren Bedienelementen überfrachtet. Denn die verteilbaren Fenster werden nur nach der Aktivierung des Verteilmodus visuell hervorgehoben. So wird die Lesbarkeit der gra¬ fischen Benutzeroberfläche in einem Standardmodus nicht ein¬ geschränkt, da dort keine zusätzlichen Bedienelemente oder Icons mit Ausnahme eines Bedienelements für den Moduswechsel angezeigt werden müssen.
Gemäß einer Ausführungsform wird ein Schalter auf der grafischen Benutzeroberfläche angezeigt wird, wobei die initiale Benutzeraktion bei Betätigung des Schalters detektiert wird.
In einer Weiterbildung besitzt die Benutzerschnittstelle ei¬ nen elektrischen Schalter, welcher in der Nähe der Bedienanzeige angeordnet ist. Der Prozessor ist programmiert, die initiale Benutzeraktion anhand einer Betätigung des Schalters zu detektieren.
Gemäß einer Ausführungsform ist die Bedienanzeige ein Tast¬ schirm, welcher eingerichtet ist, die erste Benutzeraktion und die zweite Benutzeraktion als Tasteingaben zu detektie¬ ren .
Auf dem computerlesbaren Datenträger ist ein Computerprogramm gespeichert, welches das Verfahren ausführt, wenn es in dem Prozessor abgearbeitet wird. Das Computerprogramm wird in dem Prozessor abgearbeitet und führt dabei das Verfahren aus. Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Figuren näher erläutert. In den Figuren sind gleich oder funktionsgleiche Elemente mit denselben Bezugszeichen verse¬ hen, sofern nichts anderes angegeben ist. Es zeigen:
Figur 1 eine Bedienanzeige 1 mit einer grafischen Benutzeroberfläche 11 sowie zwei weitere Anzeigen 2, 3, so¬ wie eine vergrößerte Darstellung der grafischen Benutzeroberfläche 11,
Figur 2 eine erste Benutzeraktion 41, welche ein zu verteilendes Fenster 15 auf der grafischen Benutzeroberfläche 11 auswählt, Figur 3 eine zweite Benutzeraktion 42, welche in einer
schematischen Darstellung 13 auf der grafischen Benutzeroberfläche 11 eine Teilfläche einer zweiten Anzeige 2 auswählt, Figur 4 eine dritte Benutzeraktion 43, welche eine dritte
Anzeige 3 auswählt,
Figur 5 eine Darstellung des zu verteilenden Fenster 15 auf der dritten Anzeige 3,
Figur 6 eine Benutzeroberfläche 11 in einem Standardmodus,
Figur 7 die Benutzeroberfläche 11 aus Figur 6 nach Aktivie¬ rung eines Verteilmodus,
Figur 8 eine Auswahl eines zu verteilenden Fensters 15 mit einer ersten Benutzeraktion 41,
Figur 9 eine Auswahl einer dritten Anzeige 3 mit einer
zweiten Benutzeraktion 42,
Figur 10 eine Darstellung des zu verteilenden Fensters 15 auf der dritten Anzeige 3, Figur 11 eine finale Benutzeraktion 44 zur Deaktivierung des Verteilmodus auf der grafischen Benutzeroberfläche 11,
Figur 12 die Benutzeroberfläche 11 nach Deaktivierung des
Verteilmodus, und
Figur 13 eine Architektur einer Benutzerschnittstelle mit mehreren Anzeigen.
Figur 1 zeigt eine Bedienanzeige 1, auf der eine grafische Benutzeroberfläche 11 ausgegeben wird, sowie eine zweite An¬ zeige 2 und eine dritte Anzeige 3. Die Anzeigen sind Teil ei¬ ner Benutzerschnittstelle, deren Architektur beispielsweise entsprechend Figur 13 ausgebildet ist, welche weiter unten noch erläutert wird. Abweichend von Figur 1 kann die Benut¬ zerschnittstelle auch lediglich die Bedienanzeige 1 und die zweite Anzeige 2 umfassen. Ebenso ist es möglich, dass die Benutzerschnittstelle neben der Bedienanzeige 1, der zweiten Anzeige 2 und der dritten Anzeige 3 noch weitere Anzeigen um- fasst .
Selbstverständlich kann die Benutzerschnittstelle noch weite¬ re Anzeigen aufweisen, welche in gleicher Weise angesteuert und ausgewählt werden, wie dies in den Ausführungsbeispielen beschrieben wird. Prinzipiell kann jede Anzeige auch mehrere Teilflächen, beispielsweise Quadranten, aufweisen, welche ihrerseits als separate Anzeigen behandelt und ausgewählt wer¬ den können. Umgekehrt können die zweite Anzeige 2 und die dritte Anzeige 3 auch lediglich Teilflächen einer Großbildleinwand sein. Diese Verallgemeinerungen und Varianten gelten in Bezug auf sämtliche Ausführungsbeispiele.
In Figur 1 ist die grafische Benutzeroberfläche 11 auf der linken Seite zur Veranschaulichung noch einmal vergrößert dargestellt. Sie enthält Fenster 15, 16, 17, 18, welche grundsätzlich auch auf der zweiten Anzeige 2 und der dritten Anzeige 3 ausgegeben werden können. Die grafische Benutzeroberfläche 11 sieht für jedes Fenster 15, 16, 17, 18 ein Be¬ dienelement 12 vor, mittels welchem das jeweilige Fenster zur Verteilung auf die zweite Anzeige 2 oder die dritte Anzeige 3 ausgewählt werden kann.
Die Bedienanzeige 1, die zweite Anzeige 2 und die dritte An¬ zeige 3, sowie ggf. noch weitere Anzeigen bilden in ihrer räumlichen Anordnung eine Multi-Monitor-Arbeitsumgebung. Die zweite Anzeige 2 ist hierbei beispielshaft in vier Quadranten unterteilt, welche jeweils eine Anzeigefläche für eines der Fenster 15, 16, 17, 18 auf der Bedienanzeige 1 bilden, wäh¬ rend jedes dieser Fenster auf der dritten Anzeige 3 bildfül¬ lend dargestellt würde. Selbstverständlich kann für jede der Anzeigen 2, 3 je nach Anforderung eine solche Unterteilung oder eine bildfüllende Darstellung gewählt werden.
Figur 2 zeigt die Benutzerschnittstelle aus Figur 1, wobei nun ein Benutzer mittels einer ersten Benutzeraktion 41 das Bedienelement 12 für das Fenster 15 berührt, da das Fenster 15 auf eine der weiteren Anzeigen 2, 3 verteilt werden soll. Daraufhin wird, wie in Figur 3 gezeigt, eine schematische Darstellung 13 sämtlicher Anzeigen, also der gesamten MultiMonitor-Arbeitsumgebung, unterhalb des angewählten Bedienele- ments 12 auf der grafischen Benutzeroberfläche 11 ausgegeben. In der schematischen Darstellung 13 werden die Bedienanzeige 1, die zweite Anzeige 2 und die dritte Anzeige 3 entsprechend ihrer realen räumlichen Anordnung schematisch angeordnet. In einer Variante kann hierbei die Darstellung der Bedienanzeige 1 selbst entfallen.
Innerhalb der schematischen Darstellung 13 wählt der Benutzer nun mit einer zweiten Benutzeraktion 42 den rechten unteren Quadranten der zweiten Anzeige 2 als Anzeigefläche für das zu verteilende Fenster 15 aus. Daraufhin wird eine visuelle
Rückmeldung 21 auf der zweiten Anzeige 2 ausgegeben, welche beispielsweise eine Hintergrundfarbe, einen Kontrast, eine Helligkeit oder ähnliche Bildparameter des rechten unteren Quadranten verändert oder eine Markierung anzeigt.
Sämtliche Benutzeraktionen können als Berührungseingaben aus- geführt werden, sofern die Bedienanzeige 1 ein Tastschirm ist. Beispielsweise könnte die Bedienanzeige 1 Teil eines Tabletcomputers sein. Die Benutzeraktionen können jedoch auch per Maus, Tastatur oder jedem anderen geeigneten Eingabegerät durchgeführt werden, welches eine Anwahl von Fenstern der grafischen Benutzeroberfläche 11 erlaubt. Diese Verallgemei¬ nerungen und Varianten gelten für sämtliche Ausführungsbei¬ spiele .
Figur 4 zeigt den Fall, dass der Benutzer mit einer dritten Benutzeraktion 43 eine dritte Anzeige 3 auswählt, auf der da¬ raufhin eine visuelle Rückmeldung 31 ausgegeben wird. Der Benutzer kann folglich mehrere Anzeigen oder Anzeigeflächen in der schematischen Darstellung 13 sukzessive auswählen, bis die visuelle Meldung auf der Anzeige ausgegeben wird, welche seinen Wünschen entspricht.
Die Unterscheidung einer vorläufigen Auswahl wie in Figur 3 von einer endgültigen Auswahl wie in Figur 4 kann auf sehr viele Arten implementiert werden. Beispielsweise könnte Figur 3 einem einfachen Mouse-Over entsprechen oder einem nur leichten Druck mit der Fingerspitze auf den Tastschirm. Eine solche zweite Benutzeraktion 42 kann von der Benutzerschnitt¬ stelle erkannt und zur Ausgabe der visuellen Rückmeldung 21 verwendet werden. Eine endgültige Auswahl wie durch die drit- te Benutzeraktion 43 in Figur 4 wird dann beispielsweise durch einen vollzogenen Mausklick oder eine Berührung mit größerem Druck detektiert. Weiterhin kann die zweite Benut¬ zeraktion 42 als einfacher und die dritte Benutzeraktion 43 als doppelter Mausklick implementiert werden. Eine weitere Möglichkeit besteht darin, die zweite Benutzeraktion 42 und die dritte Benutzeraktion 43 im Rahmen einer Streichbewegung zusammenzufassen. Beispielsweise drückt der Benutzer mit der zweiten Benutzeraktion 42 eine Maustaste herab und bewegt dann den Mauszeiger mit gedrückter Taste über unterschiedliche Anzeigeflächen oder Anzeigen, bis die visuelle Rückmeldung 31 auf der gewünschten Anzeige 3 ausgegeben wird. Durch Loslassen der Maustaste bestätigt der Benutzer dann die ge- troffene Auswahl. Auch bei Berührung auf einem Tastschirm kann diese Vorgehensweise gewählt werden, wobei diejenige An¬ zeige ausgewählt wird, welche der Benutzer berührt, bevor er seinen Finger von dem Tastschirm abhebt. Zur Bestätigung der endgültigen Auswahl kann auch ein separates Bedienelement vorgesehen sein. Weiterhin kann auch das Bedienelement 12 des zu verteilenden Elementes 15 im Rahmen einer Drag&Drop- Operation auf die gewünschte Anzeigefläche oder Anzeige gezo¬ gen werden, wobei auch hier im Rahmen der Drag&Drop-Bewegung, welche wahlweise per Maustaste oder Berührung ausgeführt wer- den kann, unterschiedliche Anzeigen oder Anzeigeflächen überstrichen werden können, wobei jeweils eine visuelle Rückmel¬ dung auf der überstrichenen Anzeigefläche oder Anzeige ausge¬ geben wird. Die endgültig ausgewählte Anzeigefläche oder An¬ zeige ergibt sich dann aus der Endposition der Drag&Drop- Operation.
In Figur 4 ist die endgültige Auswahl des Benutzers die mit der dritten Benutzeraktion 43 gewählte dritte Anzeige 3. Ent¬ sprechend zeigt Figur 5 die Ausgabe des zu verteilenden Fens- ters 15 auf der dritten Anzeige 3.
Die Figuren 6 bis 12 zeigen ein weiteres Ausführungsbeispiel. Figur 6 zeigt erneut eine Multi-Monitor-Arbeitsumgebung, welche beispielsweise aus einer Bedienanzeige 1, einer zweiten Anzeige 2 und einer dritten Anzeige 3 gebildet wird. Eine grafische Benutzeroberfläche 11, welche auf der Bedienanzeige 1 dargestellt wird, ist auch in Figur 6 erneut auf der linken Seite zur Illustration vergrößert dargestellt. Die grafische Benutzeroberfläche 11 befindet sich in einem Standardmodus, in welchem in Bezug auf die Verteilung von Fenstern 15, 16, 17, 18 der grafischen Benutzeroberfläche 11 auf die weiteren Anzeigen 2, 3 lediglich ein einziges grafisches Element, hier ein Schalter 14, dargestellt wird. Dies hat den Vorteil, dass die Benutzeroberfläche 11 im Standardmodus nicht durch zahl¬ reiche grafische Elemente für die Verteilfunktionen überladen wird. Mit einer initialen Benutzeraktion 40 aktiviert ein Benutzer nun den Schalter 14, wodurch ein Verteilmodus akti- viert wird.
Figur 7 zeigt die grafische Benutzeroberfläche 11, nachdem der Verteilmodus aktiviert wurde. Um den Verteilmodus für den Benutzer visuell hervorzuheben, ist die Benutzeroberfläche 11 invertiert dargestellt. Durch die invertierte Darstellung hebt der Verteilmodus die Fenster 15, 16, 17, 18 visuell her¬ vor und informiert den Benutzer darüber, dass diese auf die weiteren Anzeigen 2, 3 verteilt werden können. Für jedes der Fenster 15, 16, 17, 18 wird hierzu im Verteilmodus ein Be- dienelement 12 auf der grafischen Benutzeroberfläche 11 dar¬ gestellt, mit welchem die jeweiligen Fenster durch den Benutzer ausgewählt werden können. Weiterhin wird im Verteilmodus eine schematische Darstellung 13 eingeblendet, wie sie be¬ reits im Kontext der Figuren 3 und 4 erläutert wurde. Die schematische Darstellung ist nun am oberen Rand der grafi¬ schen Benutzeroberfläche 11 angeordnet.
Figur 8 zeigt eine erste Benutzeraktion 41, mit der der Benutzer das Bedienelement 12 des zu verteilenden Fensters 15 aktiviert. Das Fenster 15 wird dadurch zur Verteilung auf ei¬ ne der Anzeigen 2 oder 3 ausgewählt.
Anschließend berührt der Benutzer, wie in Figur 9 gezeigt, mit einer zweiten Benutzeraktion 42 das Symbol der dritten Anzeige 3 in der schematischen Darstellung 13. Hierbei wird eine visuelle Rückmeldung 31 auf der ausgewählten dritten Anzeige 3 ausgegeben.
Anschließend wird die Darstellung auf der dritten Anzeige 3 durch das zu verteilende Fenster 15 ersetzt, welches der Be¬ nutzer mit der ersten Benutzeraktion 41 ausgewählt hatte. Dies ist in Figur 10 gezeigt. Abschließend beendet der Benutzer durch eine finale Benutzer¬ aktion 44 den Verteilmodus, in dem er wie in Figur 11 gezeigt den Schalter 14 für den Verteilmodus deaktiviert. Dadurch wird die grafische Benutzeroberfläche 11 in den Standardmodus zurückversetzt, wie dies in Figur 12 gezeigt ist.
Der Schalter 14 muss nicht zwangsläufig ein Element der gra¬ fischen Benutzeroberfläche 11 sein. Er kann auch als physika¬ lischer, elektrischer Schalter ausgebildet und beispielsweise durch eine spezielle Taste auf einer Tastatur realisiert wer¬ den .
Figur 13 zeigt eine mögliche Architektur der Benutzerschnitt¬ stelle. Ein Rechner 9 beinhaltet einen Prozessor 5, welcher ein Computerprogramm 7 abarbeitet, welches er von einem Sekundärspeicher 8 in seinen Arbeitsspeicher 6 geladen hat. Die zuvor erläuterten Benutzereingaben werden über ein Eingabegerät 4 detektiert, welches wahlweise die berührungsempfindli¬ che Oberfläche eines Tastschirms, eine Computermaus, eine Tastatur oder jegliches andere Eingabegerät ist, welches zur Bedienung einer grafischen Benutzeroberfläche geeignet ist. Die grafische Benutzeroberfläche wird auf einer Bedienanzeige 1 ausgegeben, welche noch unmittelbar zum Rechner 9 gehört. Eine zweite Anzeige 2 und eine dritte Anzeige 3 werden vom Rechner 9 ebenfalls mit Bildinformationen versorgt, die An¬ zeigen können jedoch auch in größerer Entfernung angeordnet sein. Beispielsweise könnte die dritte Anzeige 3 eine Gro߬ bildleinwand in einer Leitwarte sein. Grundsätzlich ist es möglich, dass der Rechner 9 die zweite
Anzeige 2 und die dritte Anzeige 3 unmittelbar über eine Gra¬ fikkarte mit Bildinformationen ansteuert. In diesem Fall handelt es sich beispielsweise um einen erweiterten Desktop, dessen unterschiedliche Anzeigen von der Grafikkarte verwal- tet und angesteuert werden. Obwohl die Erfindung durch die Ausführungsbeispiele im Deta illustriert und beschrieben wurde, ist sie nicht durch die offenbarten Beispiele eingeschränkt. Andere Variationen kön nen vom Fachmann hieraus abgeleitet werden, ohne den Schutz umfang der Erfindung zu verlassen. Die beschriebenen Ausfüh rungsbeispiele, Varianten, Ausführungsformen und Weiterbil¬ dungen können auch frei miteinander kombiniert werden.

Claims

Patentansprüche
1. Benutzerschnittstelle mit mehreren Anzeigen,
mit einer Bedienanzeige (1) und mit mindestens einem Pro- zessor (5) , welcher zur Ausgabe einer grafischen Benutzeroberfläche (11) auf der Bedienanzeige (1) programmiert ist, wobei die grafische Benutzeroberfläche (11) eine Men¬ ge von Fenstern (15, 16, 17, 18) enthält, und
mit mindestens einer weiteren Anzeige (2, 3), welche mit dem Prozessor (5) verbunden ist,
dadurch gekennzeichnet, dass der Prozessor (5) programmiert ist für eine
Auswahl eines zu verteilenden Fensters (15) aus der Menge von Fenstern (15, 16, 17, 18) in Abhängigkeit von einer ersten Benutzeraktion (41) auf der grafischen Benutzeroberfläche (11),
Auswahl einer Anzeige (2) aus den weiteren Anzeigen (2, 3) in Abhängigkeit von einer zweiten Benutzeraktion (42) auf der grafischen Benutzeroberfläche (11), und
- Ausgabe des ausgewählten zu verteilenden Fensters (15) auf der ausgewählten Anzeige (2) .
2. Benutzerschnittstelle nach Anspruch 1, bei der der Prozes¬ sor (5) programmiert ist für eine Ausgabe einer schemati- sehen Darstellung (13) der räumlichen Anordnung der weiteren Anzeigen (2, 3) auf der grafischen Benutzeroberfläche (11), wobei mittels der zweiten Benutzeraktion (42) jede der weiteren Anzeigen (2, 3) in der schematischen Darstellung (13) auswählbar ist.
3. Benutzerschnittstelle nach einem der vorhergehenden Ansprüche, bei der der Prozessor (5) programmiert ist für eine sukzessive Selektion mehrerer der weiteren Anzeigen (2, 3) während der zweiten Benutzeraktion (42), wobei die jeweils zuletzt selektierte Anzeige die ausgewählte Anzei¬ ge (2) ist, und zur Ausgabe einer visuellen Rückmeldung (21, 31) auf der jeweils aktuell selektierten Anzeige, welche diese während der zweiten Benutzeraktion (42) temporär hervorhebt.
4. Benutzerschnittstelle nach einem der vorhergehenden Ansprüche,
bei der zumindest eine der weiteren Anzeigen (2, 3) eine grafische Benutzeroberfläche aufweist, welche in mehrere Anzeigeflächen unterteilt ist,
bei der im Rahmen der zweiten Benutzerinteraktion (42) eine der Anzeigeflächen auswählbar ist, und
bei der das ausgewählte zu verteilende Fenster (15) auf der ausgewählten Anzeigefläche ausgegeben wird.
5. Benutzerschnittstelle nach einem der vorhergehenden Ansprüche, bei der der Prozessor (5) programmiert ist für eine Ausgabe eines Bedienelements (12) für jedes Fenster der Menge von Fenstern (15, 16, 17, 18) auf der grafischen Benutzeroberfläche (11), wobei jedes der Bedienelemente (12) durch die erste Benutzeraktion (41) anwählbar ist.
6. Benutzerschnittstelle nach Anspruch 2 und 5, bei der der Prozessor (5) programmiert ist für
eine Ausgabe der schematischen Darstellung (13) unmittelbar nach der ersten Benutzeraktion (41), wobei die schematische Darstellung (13) überlappend oder benachbart zu dem angewählten Bedienelement (12) angeordnet ist.
7. Benutzerschnittstelle nach Anspruch 5 oder 6, bei der der Prozessor (5) programmiert ist für
eine Aktivierung eines Verteilmodus durch eine initiale Benutzeraktion (40), und
eine Beschränkung der Ausgabe der Bedienelemente (12) auf den Verteilmodus.
8. Benutzerschnittstelle nach Anspruch 2 und 7, bei der der Prozessor (5) programmiert ist für eine Beschränkung der Ausgabe der schematischen Darstellung (13) auf den Verteilmodus.
9. Benutzerschnittstelle nach Anspruch 7 oder 8, bei der der Prozessor (5) programmiert ist für
eine Ausgabe eines Schalters (14) auf der grafischen Be¬ nutzeroberfläche (11), und
eine Detektion der initialen Benutzeraktion (40) bei Betätigung des Schalters (14).
10. Benutzerschnittstelle nach Anspruch 7 oder 8,
mit einem elektrischen Schalter (14), welcher in der Nähe der Bedienanzeige (1) angeordnet ist, und
bei der der Prozessor (5) programmiert ist, die initiale Benutzeraktion (40) anhand einer Betätigung des Schalters
(14) zu detektieren.
11. Benutzerschnittstelle nach einem der vorhergehenden Ansprüche,
- bei der die Bedienanzeige (1) ein Tastschirm ist, welcher eingerichtet ist, die erste Benutzeraktion (41) und die zweite Benutzeraktion (42) als Tasteingaben zu detektieren .
12. Verfahren zur Positionierung von Inhalten auf mehreren Anzeigen, bei dem mindestens ein Prozessor (5)
auf einer Bedienanzeige (1) eine grafische Benutzerober¬ fläche (11) anzeigt, welche eine Menge von Fenstern (15, 16, 17, 18) darstellt, welche auf mindestens einer weite- ren Anzeige (2, 3) positionierbar sind,
ein zu verteilendes Fenster (15) anhand einer ersten Be¬ nutzeraktion (41) aus der Menge von Fenstern (15, 16, 17, 18) auf der grafischen Benutzeroberfläche (11) auswählt, eine Anzeige (2) aus den weiteren Anzeigen (2, 3) anhand einer zweiten Benutzeraktion (42) auf der grafischen Benutzeroberfläche (11) auswählt, und
das ausgewählte zu verteilende Fenster (15) auf der ausge¬ wählten Anzeige (2) ausgibt.
13. Verfahren nach Anspruch 12,
bei dem der mindestens eine Prozessor (5) eine schemati¬ sche Darstellung (13) der räumlichen Anordnung der weite- ren Anzeigen (2, 3) auf der grafischen Benutzeroberfläche
(11) ausgibt, wobei mittels der zweiten Benutzeraktion (42) jede der weiteren Anzeigen (2, 3) in der schematischen Darstellung (13) auswählbar ist.
14. Verfahren nach Anspruch 13,
bei dem die erste Benutzeraktion (41) den Beginn und die zweite Benutzeraktion (42) das Ende einer Drag&Drop- Operation bildet, welche insbesondere mit einer Maus- Bedienung durchführbar ist, oder welche insbesondere per Berührung durchführbar ist, wobei die Bedienanzeige (1) ein Tastschirm ist, oder
bei dem die zweite Benutzeraktion (42) eine Drag&Drop- Operation ist, welche erst nach Abschluss der ersten Be¬ nutzeraktion (41) ausführbar ist.
15. Verfahren nach einem der Ansprüche 12 bis 14,
bei dem während der zweiten Benutzeraktion (42) mehrere der weiteren Anzeigen (2, 3) sukzessive selektierbar sind, wobei die jeweils zuletzt selektierte Anzeige die ausge- wählte Anzeige (2) ist, und
bei dem während der zweiten Benutzeraktion (42) eine visuelle Rückmeldung (21, 31) auf der jeweils aktuell selek¬ tierten Anzeige ausgegeben wird, welche diese temporär hervorhebt .
16. Verfahren nach einem der Ansprüche 12 bis 15,
bei dem zumindest eine der weiteren Anzeigen (2, 3) eine grafische Benutzeroberfläche aufweist, welche in mehrere Anzeigeflächen unterteilt ist,
- bei dem im Rahmen der zweiten Benutzerinteraktion (42) eine der Anzeigeflächen auswählbar ist, und
bei dem das ausgewählte zu verteilende Fenster (15) auf der ausgewählten Anzeigefläche ausgegeben wird.
17. Verfahren nach einem der Ansprüche 12 bis 16, bei dem vor der ersten Benutzeraktion (41) für jedes Fenster der Menge von Fenstern (15, 16, 17, 18) ein Bedienele- ment (12) auf der grafischen Benutzeroberfläche (11) ange¬ zeigt wird, wobei die erste Benutzeraktion (41) eines der Bedienelemente (12) anwählt.
18. Verfahren nach Anspruch 13 und 17,
- bei dem die schematische Darstellung (13) unmittelbar nach der ersten Benutzeraktion (41) überlappend oder benachbart zu dem angewählten Bedienelement (12) angezeigt wird.
19. Verfahren nach einem der Ansprüche 12 bis 18,
- bei dem vorab ein Verteilmodus nach Erkennung einer initi¬ alen Benutzeraktion (40) aktiviert wird, und
bei dem die Fenster aus der Menge von Fenstern (15, 16, 17, 18) auf der grafischen Benutzeroberfläche (11) ledig¬ lich in dem Verteilmodus visuell als verteilbar gekenn- zeichnet werden.
20. Verfahren nach Anspruch 18 und 19,
bei dem die Bedienelemente (12) nur im Verteilmodus ange¬ zeigt werden.
21. Verfahren nach Anspruch 13 oder 14 in Verbindung mit Anspruch 19 oder 20,
bei dem die schematische Darstellung (13) nur im
Verteilmodus auf der grafischen Benutzeroberfläche (11) ausgegeben wird.
22. Verfahren nach einem der Ansprüche 19 bis 21,
bei dem ein Schalter (14) auf der grafischen Benutzeroberfläche (11) angezeigt wird, wobei die initiale Benutzerak- tion (40) den Schalter (14) betätigt.
23. Computerlesbarer Datenträger (8), auf dem ein Computerprogramm (7) gespeichert ist, welches das Verfahren nach einem der Ansprüche 12 bis 22 ausführt, wenn es in dem Prozessor (5) abgearbeitet wird.
Computerprogramm (7),
welches in dem Prozessor (5) abgearbeitet wird und dabei das Verfahren nach einem der Ansprüche 12 bis 22 ausführt.
PCT/EP2017/053194 2016-02-22 2017-02-14 Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen WO2017144298A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201780012659.0A CN108700983A (zh) 2016-02-22 2017-02-14 具有多个显示器的用户界面和用于在多个显示器上放置内容的方法
EP17705837.7A EP3400515A1 (de) 2016-02-22 2017-02-14 Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
US16/078,036 US20190065007A1 (en) 2016-02-22 2017-02-14 User interface comprising a plurality of display units, and method for positioning contents on a plurality of display units

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016202694.1 2016-02-22
DE102016202694.1A DE102016202694A1 (de) 2016-02-22 2016-02-22 Benutzerschnittstelle mit mehreren Anzeigen und Verfahren zur Positionierung von Inhalten auf mehreren Anzeigen

Publications (1)

Publication Number Publication Date
WO2017144298A1 true WO2017144298A1 (de) 2017-08-31

Family

ID=58057118

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/053194 WO2017144298A1 (de) 2016-02-22 2017-02-14 Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen

Country Status (5)

Country Link
US (1) US20190065007A1 (de)
EP (1) EP3400515A1 (de)
CN (1) CN108700983A (de)
DE (1) DE102016202694A1 (de)
WO (1) WO2017144298A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108762604A (zh) * 2018-03-30 2018-11-06 联想(北京)有限公司 一种显示方法、装置及电子设备
CN108762701A (zh) * 2018-04-13 2018-11-06 广州讯立享智能科技有限公司 一种触摸一体机的投屏控制方法、用户终端及触摸一体机

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402062B2 (en) * 2016-04-16 2019-09-03 Apple Inc. Organized timeline
EP3627298A1 (de) * 2018-09-21 2020-03-25 Kistler Holding AG Verfahren zur messung einer physikalischen messgrösse und messsystem zur durchführung des verfahrens
CN111510646A (zh) * 2020-04-29 2020-08-07 京东方科技集团股份有限公司 拼接屏的视频显示方法、显示装置、计算机设备和介质
CN111736789A (zh) * 2020-07-31 2020-10-02 成都依能科技股份有限公司 一种扩展显示屏控制器及扩展显示屏操控方法
CN112068749B (zh) * 2020-08-21 2021-09-21 易思维(杭州)科技有限公司 多屏幕单终端设备屏幕集中显示、控制的***及方法
US11157160B1 (en) * 2020-11-09 2021-10-26 Dell Products, L.P. Graphical user interface (GUI) for controlling virtual workspaces produced across information handling systems (IHSs)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078624A1 (en) * 2009-09-25 2011-03-31 Julian Missig Device, Method, and Graphical User Interface for Manipulating Workspace Views
US20120036465A1 (en) * 2009-04-17 2012-02-09 Christine Mikkelsen Supervisory control system for controlling a technical system, a method and computer program products
US20150355808A1 (en) * 2014-06-04 2015-12-10 Siemens Aktiengesellschaft Computer network and method for displacement of an object within a computer network

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999177A (en) * 1997-07-07 1999-12-07 International Business Machines Corporation Method and system for controlling content on a display screen in a computer system
US20030107604A1 (en) * 2001-12-12 2003-06-12 Bas Ording Method and system for automatic window resizing in a graphical user interface
US20060248471A1 (en) * 2005-04-29 2006-11-02 Microsoft Corporation System and method for providing a window management mode
US20080117225A1 (en) * 2006-11-21 2008-05-22 Rainer Wegenkittl System and Method for Geometric Image Annotation
US20080295012A1 (en) * 2007-05-23 2008-11-27 Microsoft Corporation Drag-and-drop abstraction
EP2232474A4 (de) * 2008-01-07 2011-08-31 Smart Technologies Ulc Verfahren zur verwaltung von anwendungen in einem computersystem mit mehreren monitoren und computersystem mit mehreren monitoren zur anwendung dieses verfahrens
US9372591B2 (en) * 2008-04-10 2016-06-21 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
US8966401B2 (en) * 2010-05-03 2015-02-24 Lg Electronics Inc. Electronic device and methods of sending information with the electronic device, controlling the electronic device, and transmitting and receiving information in an information system
US9182935B2 (en) * 2011-09-27 2015-11-10 Z124 Secondary single screen mode activation through menu option
US9195388B2 (en) * 2013-03-15 2015-11-24 Apple Inc. Specifying applications to share in a shared access mode
US20140351722A1 (en) * 2013-05-23 2014-11-27 Microsoft User interface elements for multiple displays
US20150253974A1 (en) * 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120036465A1 (en) * 2009-04-17 2012-02-09 Christine Mikkelsen Supervisory control system for controlling a technical system, a method and computer program products
US20110078624A1 (en) * 2009-09-25 2011-03-31 Julian Missig Device, Method, and Graphical User Interface for Manipulating Workspace Views
US20150355808A1 (en) * 2014-06-04 2015-12-10 Siemens Aktiengesellschaft Computer network and method for displacement of an object within a computer network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108762604A (zh) * 2018-03-30 2018-11-06 联想(北京)有限公司 一种显示方法、装置及电子设备
CN108762701A (zh) * 2018-04-13 2018-11-06 广州讯立享智能科技有限公司 一种触摸一体机的投屏控制方法、用户终端及触摸一体机

Also Published As

Publication number Publication date
EP3400515A1 (de) 2018-11-14
DE102016202694A1 (de) 2017-08-24
CN108700983A (zh) 2018-10-23
US20190065007A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
WO2017144298A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE69937592T2 (de) Verfahren und Vorrichtung zur Zeicheneingabe mit virtueller Tastatur
DE102010036906A1 (de) Konfigurierbares Pie-Menü
EP2017756A1 (de) Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
DE102012219119B4 (de) Intelligente Fenstererstellung in einer grafischen Benutzeroberfläche
DE60024655T2 (de) Verfahren zur benutzung von mit einem anzeigegerät verbundenen tasten für den zugriff und die ausführung von damit verbundenen funktionen
DE60205750T2 (de) Lenkung der aufmerksamkeit des benutzers auf bestimmte icons, denen sich ein zeiger nähert, in interaktiven benutzerschnittstellen
DE69533568T2 (de) Virtuelles Desk-Top-System und Verfahren dafür
EP3036126B1 (de) Bedienverfahren für eine bedien- und anzeigevorrichtung in einem fahrzeug und bedien- und anzeigevorrichtung in einem fahrzeug
EP1374027B1 (de) Positionieren von auf einer benutzeroberfläche angezeigten bereichen
DE19744861A1 (de) Verfahren zum Einsatz einer dreidimensionalen Mouse im WINDOWS-Betriebssystem
DE202009018624U1 (de) Berührungsereignismodell
EP2795451B1 (de) Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige
EP3270278B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
EP2652584A1 (de) System mit gestenerkennungseinheit
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
EP3372435B1 (de) Verfahren und bediensystem zum bereitstellen einer bedienschnittstelle
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
DE102013203918A1 (de) Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung
DE10084249T5 (de) Zusätzliches LCD-Feld mit Sensorbildschirm
EP3538977B1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102015105022B4 (de) Datenverarbeitungsverfahren und Elektronikgerät
EP2310935B1 (de) Verfahren zur vergrösserung eines darstellungsbereichs auf einer darstellungseinrichtung

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2017705837

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017705837

Country of ref document: EP

Effective date: 20180810