EP1425653A2 - Desktopmanager - Google Patents

Desktopmanager

Info

Publication number
EP1425653A2
EP1425653A2 EP02777079A EP02777079A EP1425653A2 EP 1425653 A2 EP1425653 A2 EP 1425653A2 EP 02777079 A EP02777079 A EP 02777079A EP 02777079 A EP02777079 A EP 02777079A EP 1425653 A2 EP1425653 A2 EP 1425653A2
Authority
EP
European Patent Office
Prior art keywords
user interface
input device
virtual window
freedom
enlargement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP02777079A
Other languages
English (en)
French (fr)
Inventor
Bernd 3Dconnexion GmbH GOMBERT
Bernhard Von Prittwitz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3DConnexion GmbH
Original Assignee
3DConnexion GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10155030A external-priority patent/DE10155030A1/de
Application filed by 3DConnexion GmbH filed Critical 3DConnexion GmbH
Publication of EP1425653A2 publication Critical patent/EP1425653A2/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to a method for managing user interfaces, to a computer software program for implementing such a method and to the use of a force / moment sensor for such a method.
  • the general background of the present invention is the management of graphical user interfaces on which symbols are arranged, the arrangement being generally freely selectable by the user.
  • “desktop” is the designation for the visible work surface of the graphical user interface of, for example, Microsoft Windows or OS / 2.
  • “Desktop” is normally a work area on the screen that contains symbols and menus, around the surface of a To simulate desks.
  • a desktop for example, is characteristic of window-oriented programs such as Microsoft Windows. The purpose of such a desktop is the intuitive operation of a computer, since the user can move the pictures of objects and start and end tasks in almost the same way as he is used to from a real desk.
  • a force / torque sensor is used as an input device for such a desktop program, the state of the art with regard to Force / torque sensors are explained.
  • DE 199 52 560 AI discloses a method for adjusting and / or adjusting a seat of a motor vehicle using a multifunctional, manually operated input device with a force / moment sensor.
  • a force / torque sensor is shown in FIG. 6 of DE 199 52 560 AI.
  • the technical details of such a sensor refer to this figure and the associated description for DE 199 52 560 AI.
  • the input device has a user interface on which a number of areas are provided for entering at least one pressure pulse.
  • the input device has a device for evaluating and recognizing a pressure pulse detected by means of the force / moment sensor and converted into a force and moment vector pair.
  • the selected device can then be controlled linearly by means of an analog signal from the force / torque sensor.
  • the selection of a function and the subsequent activation are thus separated into two processes that are separated from one another in time.
  • the central finding of the invention is that a user of a real desk arranges various documents on the desk surface in accordance with an intuitive, user-specific working behavior. This aspect has already been taken into account in classic desktop technology, i.e. translated into the world of the graphical user interface.
  • the first time it is possible for the first time to navigate a virtual window - similar to microfiche technology (microfilm with microcopies arranged in rows) - relative to a user interface.
  • the user interface under the virtual window can be moved in three dimensions, for example.
  • the user interface can therefore be larger than the desktop, depending on the desktop. In this case, the entire user interface is not displayed on the monitor. However, it is also possible to equate the size of the desktop with the entire user interface.
  • a further finding in the present invention is that the user first takes a certain distance (“lean back”) in order to obtain an overview of the workplace. After recognizing desired documents etc. by means of this overview, the focus is then turned to interesting working documents This is reproduced by the invention in that the enlargement / reduction factor of a virtual window can be changed, which essentially corresponds to a zoom effect with regard to the objects located within the window of the viewer are gradually directed towards certain screen objects (working documents, icons, etc.).
  • This effect is more precisely achieved according to the invention in that objects are first arranged on a user interface, for example by the user.
  • the user can add, delete or move objects and scale the display size of the objects.
  • This step corresponds to arranging documents on a desk, for example.
  • a virtual window with an adjustable enlargement / reduction factor can be navigated with respect to the user interface, which corresponds to a focus that can be changed in terms of position and viewing angle.
  • an input device which provides control signals in at least three mutually independent degrees of freedom. It is thus possible to navigate three-dimensionally with respect to the user interface, with control signals in two degrees of freedom for the
  • a method for managing objects on a graphical user interface is provided. First, objects are arranged on the user interface by the user. Finally, a virtual window can be navigated with respect to the overall user interface configured in this way, the content of the window being displayed on the screen in each case.
  • Control signals in Two degrees of freedom are used for the positioning of the virtual window with respect to the user interface and that
  • the input device can provide control signals in at least three translational and / or rotational degrees of freedom.
  • This input device can in particular be a force / moment sensor.
  • an input device can also be used Navigation (for example a computer mouse) can be used, which is physically assigned an element for generating a control signal in a third degree of freedom.
  • This element can be, for example, an additional switch, a rotary wheel or a button.
  • the virtual window can correspond to the entire display area of a screen.
  • the zoom function is carried out, the size of all objects on the total user surface changes to the same extent.
  • the virtual window only as part of the total display area of the screen. If the entire user interface is then displayed on the display area of the screen, the input device can be used to navigate the virtual window as a type of “magnifying glass” with an adjustable magnification factor with respect to the user interface, so that the user interface can be moved under the “magnifying glass”, so to speak.
  • the software programs to be managed can in particular be office applications, such as word processing or spreadsheets.
  • the objects on the user interface can be windows of files which can be changed with regard to their display size. These files can be active, ie immediately callable and executable state are displayed. It is therefore not necessary to start an application program after activating such an object.
  • the objects can be displayed on the user interface in a pseudo 3D view.
  • a computer software program which implements a method of the type mentioned above when it runs on a computer.
  • the invention proposes the use of a force / moment sensor for a method according to one of the above-mentioned types.
  • FIG. 1 shows a system having a 3D input device and a computer with a desktop surface
  • Fig. 2 shows a modification of
  • 3 to 5 show a further embodiment in which a virtual window has been defined as the entire screen
  • FIG. 6 shows a schematic flow diagram of a sequence for carrying out the present invention
  • FIG. 7 shows the evaluation step S3 from FIG. 6 in detail.
  • a PC 4 is used to implement the invention.
  • This PC 4 has a monitor 6 on which a desktop 3, that is to say a section of the user interface, is displayed.
  • a desktop 3 that is to say a section of the user interface
  • Several graphic objects 5, 10 are arranged on this displayed section of the user interface.
  • a 3D input device 1 has an operating part 7 which can be manipulated by the fingers or the hand of a user and which is movably mounted, for example, in three mutually independent rotational and three translational degrees of freedom with respect to a base part 8. A relative movement between the operating part 7 and the base part 8 is evaluated and the result of the evaluation is transmitted to the computer 4 in the form of control signals.
  • the input device 1 can of course still output control signals with respect to further degrees of freedom by physically assigning it further rotary dials, buttons or switches on the operating part 7 or on the base plate 8.
  • the input device 1 can be used to navigate a virtual window with an adjustable size with respect to the total area of the user interface.
  • the display scale of objects within of the virtual window can be optionally selected in a particularly advantageous embodiment within certain limits by means of the input device 1.
  • control signals are used in two degrees of freedom of the input device 1 for navigating the virtual window with respect to the user interface 3 (up / down or left / right).
  • a control signal in a third degree of freedom of the input device 1 is provided - if this option is provided - for real-time setting of an enlargement / reduction factor for the objects lying within the virtual window.
  • This enlargement / reduction factor can be changed continuously with the appropriate pixel scaling or discretely, for example in the case of defined font size levels.
  • increasing the enlargement / reduction factor within the virtual window can be as
  • Approximation according to the screen objects are shown larger and the section of the user interface 3 shown on the screen is reduced.
  • Such a virtual window is designated by the reference symbol 2 in FIG.
  • the size of this window 2 is set such that it occupies only part of the display area of the screen 6. Accordingly, it can be navigated selectively, for example, as shown, via the object 10, so that the object 10 lies within the window area. If now by means of the input device 1, the enlargement / reduction factor of the virtual window 2 is increased, which can be done in steps or continuously, results in the enlarged representation 10 ′ of the object 10, which is shown schematically in FIG.
  • FIGS. 3 to 5 show the case in which the virtual window 2 is set such that it corresponds to the entire display area of the screen 6.
  • the user interface 3 is thus moved with respect to the desktop.
  • the display size of all objects represented on the display area changes when the enlargement / reduction factor changes. If the user has arranged a group 11 on the user interface 3, he can enlarge the display of it continuously (pixel scaling) or step by step until, for example (see FIG. 5), only the document 12 from this group 11 is legibly displayed. This corresponds to zooming in on the user interface 3.
  • a computer mouse 1 ' is symbolically provided in FIG. 2 as an input device.
  • This computer mouse 1 ' which can actually only provide control signals in two degrees of freedom (x-y axis), is physically assigned a further element 9 which can generate a control signal in at least one further degree of freedom.
  • this further element is a rotary wheel 9, which is arranged on the top of the computer mouse 1 '. By rotating this wheel 9 to the front, the display area of a screen object 10, 10 'can also be enlarged (selective focus) or all screen objects 5, 10 can be shown enlarged (general focus).
  • the reduction function can accordingly by rotating the wheel 9 in the reverse direction (in the three-dimensional Input device by pressing or tilting the control panel 7 backwards), which intuitively corresponds to leaning back of the user in order to get a better overview of the objects 5, 10 on the user interface 3.
  • objects 5, 10 on the user interface 3 display files from application programs, such as word processing or spreadsheets
  • these file objects can be actively displayed.
  • the corresponding object is enlarged / reduced, not only is an icon enlarged or reduced as a symbol for the corresponding application program, but rather the document / spreadsheet itself can be enlarged or reduced.
  • several screen objects can be actively displayed on the user interface 3 at the same time, their respective display scale being freely selectable. The user can thus, for example, arrange documents of any size and at any position on the screen surface 3.
  • FIG. 6 shows schematically the sequence in the implementation of the present invention.
  • Output signals of the force / moment sensor are generated in a step S1. These are then fed (step S2) to the data input of an EDP system.
  • This can be done for example by means of a so-called USB interface.
  • USB Universal Serial Bus
  • peripheral devices such as a mouse, modem, printer, keyboard, scanner, etc.
  • the transfer rate of USB version 1.1 is already 12 Mbit / s.
  • step S3 the signals input by the force / moment sensor are evaluated. This step S3 is explained in detail below with reference to FIG. 7. Depending on the evaluation in step S3, the control of the graphical user interface (GUI) is then carried out in a step S4 before the data are evaluated again by the force / torque sensor.
  • GUI graphical user interface
  • step S3 of the sequence of FIG. 6 will now be explained in more detail.
  • data in three different degrees of freedom x, y and z are evaluated, for example, to determine whether the corresponding signal is in the positive or negative range.
  • degree of freedom “z” a positive signal can be used to enlarge and a negative signal to reduce the virtual window with respect to the entirety of the graphical user interface.
  • a positive signal can shift the virtual window to the left and a negative signal can shift the virtual window to the right (always with respect to the entirety of the graphical user interface).
  • the virtual window can therefore be designed as a fixed marking bar "under” the user interface is navigated. Objects that come under the virtual window are automatically marked “highlight”) and preselected for a possible subsequent click or other activation.
  • This procedure is particularly advantageous if a directory structure (directory tree) is navigated under the fixed window, under directories located in the window can be selected automatically, so that in principle, you can navigate in infinitely large structures without the user's hand having to leave the input device.
  • a "grasp" to change the image section as soon as the cursor in the case of known techniques on the edge of the screen is no longer required.
  • a positive signal can move the window upwards and a negative signal can move the window downwards. This can also be seen analogously as an inverse movement of the user interface "under” the virtual window.
  • the display size or the document size can be freely selected on the user interface.
  • a single device such as a 3D input device or a 2D input device with additional elements
  • the arrangement and the size of the screen objects on the desktop surface can be freely selected.
  • the recognition value of freely arranged areas is significantly larger, since optical recognition features and not just purely memory features apply here.
  • a real intuitive working behavior is largely reproduced.
  • the real working behavior is usually the fact that the user works in the workplace with the inclusion of the optically perceptible sector.
  • the focus on a working document that leans back to gain an overview are a natural part of processing real objects. But the present invention does it now for the first time possible to transfer such intuitive behavior to virtual objects, namely objects that are displayed on a user interface.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Bei einem Desktopmanager-Programm ist es möglich, die graphische Benutzeroberflähe (3) herkömmlicher Monitore und PCs durch die freie Positionierung des angezeigten Ausschnitts der Benutzeroberfläche mittels eines 3D-Eingabegeräts (1, 1') so zu erweitern, dass der Benutzer damit den sichtbaren Teil einer Benutzeroberfläche (3) eines Monitors (6) und eines PCs (4) selbst bestimmen kann. Die Auswahl dieses sichtbaren Teils, einer Art virtuellen Fenster (2), kann mit einem Eingabegerät (1, 1') mit wenigstens drei Freiheitsgraden erfolgen. Zwei Freiheitsgrade dienen dabei zur Navigation eines virtuellen Fensters (2) auf der Benutzeroberfläche (3). Ein weiterer Freiheitsgrad wird für die Einstellung eines Vergrösserungs-/Verkleinerungsfaktors bezüglich der Objekte auf der Benutzeroberfläche (3) innerhalb des virtuelle Fensters (2) verwendet. Wenn somit das virtuelle Fenster nur als einen Teil der gesamten Anzeigefläche des Bildschirms (6) zu definieren. Wenn dann die Benutzeroberfläche (3) auf der Anzeigefläche des Bildschirms (6) dargestellt wird, kann mittels dem Eingabegerät das virtuelle Fenster als eine Art "Lupe" mit einstellbarem Vergrösserungsfaktor über die Benutzeroberfläche (3) navigiert werden.

Description

Desktopmanager
Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Managen von Benutzeroberflächen, auf ein Computer- Softwareprogramm zur Implementierung eines solchen Verfahrens sowie auf die Verwendung eines Kraft-/Momentensensors für ein solches Verfahren.
Der generelle Hintergrund der vorliegenden Erfindung ist das Managen von graphischen Benutzeroberflächen, auf denen Symbole angeordnet sind, wobei die Anordnung in der Regel vom Benutzer frei wählbar ist. Gemäß einer Definition ist dabei „Desktop" die Bezeichnung für die sichtbare Arbeitsoberfläche der graphischen Benutzeroberfläche von z.B. Microsoft Windows oder OS/2. Mit „Desktop" wird also normalerweise ein Arbeitsbereich auf dem Bildschirm bezeichnet, der Symbole und Menüs enthält, um die Oberfläche eines Schreibtisches zu simulieren. Ein Desktop ist beispielsweise für fensterorientierte Programme wie Microsoft Windows charakteristisch. Zweck eines solchen Desktops ist die intuitive Bedienung eines Computers, da der Benutzer die Bilder von Objekten verschieben und Aufgaben nahezu in der gleichen Weise beginnen und beenden kann, wie er es von einem realen Schreibtisch her gewohnt ist.
Da gemäß einem Aspekt der Erfindung ein Kraft-/Momentensensor als Eingabegerät für ein solches Desktop-Programm verwendet wird, soll im Folgenden kurz der Stand der Technik bzgl . Kraft- /Momentensensoren erläutert werden.
Kraft -/Momentensensoren, die Ausgangssignale bzgl. eines auf sie einwirkenden Kraft-/Momentenvektors und somit Ausgangssignale bzgl . voneinander unabhängiger verschiedener Freiheitsgrade (bspw. drei translatorische und drei rotatorische Freiheitsgrade) bereitstellen, sind aus dem Stand der Technik bekannt . Weitere Freiheitsgrade können durch Schalter, Drehrädchen etc. bereitgestellt werden, die dem Kraft-/Momentensensor fest zugeordnet sind.
DE 199 52 560 AI offenbart ein Verfahren zum Ein- und/oder Verstellen eines Sitzes eines Kraftfahrzeugs unter Verwendung eines multifunktionalen, von Hand betätigten Eingabegerät mit Kraft-/Momentensensor. In Fig. 6 der DE 199 52 560 AI ist ein solcher Kraft-/Momentensensor dargestellt. Insoweit wird daher bzgl . der technischen Einzelheiten eines solchen Sensors auf diese Figur und die zugehörige Beschreibung für die DE 199 52 560 AI verwiesen. Bei der DE 199 52 560 AI weist das Eingabegerät eine Bedienoberfläche auf, auf der eine Anzahl von Bereichen zum Eingeben mindestens eines Druckimpulses vorgesehen sind. Das Eingabegerät weist eine Einrichtung zur Auswertung und Erkennung eines mittels des Kraft- /Momentensensors erfassten und in ein Kraft und Momenten- Vektorpaar umgesetzten Druckimpulses auf. Nach derartiger Auswahl bspw. eines anzusteuernden Sitzes bzw. Sitzteiles eines Kraftfahrzeugs kann dann das ausgewählte Gerät mittels eines analogen Signals des Kraft-/Momentensensors linear angesteuert werden. Die Auswahl einer Funktion sowie die darauffolgende Ansteuerung sind also gemäß diesem Stand der Technik in zwei zeitlich voneinander getrennte Abläufe getrennt.
Aus der DE 199 37 307 AI ist es bekannt, einen derartigen Kraft-/Momentensensor zum Steuern von Bedienelementen eines realen oder virtuellen Misch- bzw. Steuerpults zu verwenden, beispielsweise um neuartige Färb-, Licht- und/oder Tonkompositionen zu kreieren und zu gestalten. Hierbei kann in vorteilhafter Weise die intuitive räumliche Steuerung in drei translatorischen sowie drei rotatorischen Freiheitsgraden auf ein stufenloses räumliches Mischen oder Steuern einer großen Anzahl von optischen und/oder akustischen Parametern übertragen werden. Zur Steuerung wird auf die Bedienoberfläche des Eingabegeräts ein Druck ausgeübt und dadurch ein Impuls erzeugt, der mit Hilfe des Kraft/-Momentensensors erfasst und in ein aus einem Kraft- und einem Momentenvektor bestehendes Vektorpaar umgesetzt wird. Werden dabei bestimmte charakteristische Impulsvorgaben erfüllt, kann beispielsweise eine objektspezifische Steueroperation und/oder eine technische Funktion durch Schalten in einen Aktivierungszustand ausgelöst bzw. durch Schalten in einen Deaktivierungszustand wieder beendet werden.
Ausgehend von dem oben genannten Stand der Technik bzgl. Kraft- /Momentensensoren und Desktop-Programmen ist es Aufgabe der vorliegenden Erfindung, die Desktop-Technologie derart weiter zu entwickeln, dass das Managen von Benutzeroberflächen (Desktop-Oberflächen) noch intuitiver gestaltet werden kann.
Diese Aufgabe wird erfindungsgemäß durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken der Erfindung in besonders vorteilhafter Weise weiter.
Zentrale Erkenntnis der Erfindung ist es, dass ein Benutzer eines realen Schreibtisches verschiedene Dokumente auf der Schreibtischoberfläche gemäß einem intuitiven, benutzerindividuellen Arbeitsverhalten anordnet. Dieser Aspekt ist bei der klassischen Desktop-Technologie bereits berücksichtigt, d.h. in die Welt der graphischen Beutzeroberfläche übersetzt.
Gemäß der vorliegenden Erfindung ist es indessen erstmals möglich, ein virtuelles Fenster - ähnlich wie bei der Microfiche-Technologie (Mikrofilm mit reihenweise angeordneten Mikrokopien) - relativ zu einer Benutzeroberfläche zu navigieren. Um bei der Microfiche-Analogie zu bleiben, kann sozusagen die Benutzeroberfläche unter dem virtuellen Fenster bspw. in drei Dimensionen verschoben werden. Bei einem erfindungsgemässen Desktopmanager-Programm ist es somit erstmals möglich, die graphische Benutzeroberfläche herkömmlicher Monitore durch die freie Positionierung der Benutzeroberfläche bezüglich des virtuellen Fensters mittels eines 3D-Eingabegeräts so zu erweitern, dass der Benutzer damit den sichtbaren Teil einer Benutzeroberfläche eines Monitors selbst und/oder dessen Anzeigemasstab bestimmen kann.
Es sei nochmals darauf verwiesen, dass im Rahmen der vorliegenden Beschreibung die folgenden Definitionen zugrundegelegt werden:
„Benutzeroberfläche" : Gesamtheit der dem Benutzer zur Anordnung von Symbolen zur Verfügung stehenden (virtuellen) Fläche
„Desktop", „virtuelles Fenster": festlegbarer, auf dem Monitor angezeigter Ausschnitt der Benutzeroberfläche
Die Benutzeroberfläche kann also je nach Festlegung des Desktops größer als der Desktop sein. In diesem Fall wird nicht die gesamte Benutzeroberfläche auf dem Monitor angezeigt. Allerdings ist es auch möglich, die Größe des Desktops mit der gesamten Benutzeroberfläche gleichzusetzen.
Weitere Erkenntnis bei der vorliegenden Erfindung ist es, dass der Benutzer zu Erlangung einer Übersicht über den Arbeitsplatz zuerst einen gewissen Abstand einnimmt („zurücklehnen"). Nach dem Erkennen gewünschter Dokumente etc. mittels dieses Überblicks wird dann der Fokus auf interessante Arbeitsdokumente gerichtet. Bei der Erfindung wird dies nachvollzogen, indem der Vergrößerungs-/Verkleinerungsfaktor eines virtuellen Fensters verändert werden kann, was im Wesentlichen einem Zoomeffekt bezüglich der innerhalb des Fensters befindlichen Objekte entspricht. Somit kann der Fokus des Betrachters nach und nach auf bestimmte Bildschirmobjekte (Arbeitsdokumente, Ikonen, etc.) gerichtet werden.
Dieser Effekt wird genauer gesagt gemäß der Erfindung dadurch erreicht, dass zuerst bspw. durch den Benutzer Objekte auf einer Benutzeroberfläche angeordnet werden. Der Benutzer kann also wie als solches bekannt Objekte hinzufügen, löschen oder verschieben sowie die Anzeigegrösse der Objekte skalieren..
Dieser Schritt entspricht dem Anordnen bspw. von Dokumenten auf einem Schreibtisch. Danach kann gemäß der Erfindung ein virtuelles Fenster mit einstellbarem Vergrößerungs- /Verkleinerungsfaktor bezüglich der Benutzeroberfläche navigiert werden, was einem sich hinsichtlich Position und Blickwinkel veränderbarem Fokus entspricht.
Besonders vorteilhaft ist es dabei, wenn ein Eingabegerät verwendet wird, das Ansteuersignale in wenigstens drei voneinander unabhängigen Freiheitsgraden bereitstellt. Somit kann dreidimensional bezüglich der Benutzeroberfläche navigiert werden, wobei Ansteuersignale in zwei Freiheitsgraden für die
Positionierung und das weitere Ansteuersignal für die
Einstellung des Vergrößerungs-/Verkleinerungsfaktors
(entsprechend einer SehwinkelVeränderung des Fokus) verwendet werden können .
Genauer gesagt ist gemäß der vorliegenden Erfindung ein Verfahren zum Managen von Objekten auf einer graphischen Benutzeroberfläche vorgesehen. Zuerst werden durch den Benutzer Objekte auf der Benutzeroberfläche angeordnet. Schließlich kann ein virtuelles Fenster bezüglich der derart konfigurierten Gesamt-Benutzeroberfläche navigiert werden, wobei jeweils der Inhalt des Fensters auf dem Bildschirm dargestellt wird.
Wie bereits oben ausgeführt kann es besonders vorteilhaft sein, ein Eingabegerät zu verwenden, das Ansteuersignale in wenigstens drei Freiheitsgraden erzeugt . Ansteuersignale in zwei Freiheitsgraden werden dabei für die Positionierung des virtuellen Fensters bezüglich der Benutzeroberfläche und das
Ansteuersignal in den dritten Freiheitsgraden für die
Vergrößerungs-/Verkleinerungsfunktion verwendet .
Das Eingabegerät kann Ansteuersignale in wenigstens drei translatorischen und/oder rotatorischen Freiheitsgraden bereitstellen. Bei diesem Eingabegerät kann es sich insbesondere um einen Kraft-/Momentensensor handeln.
Alternativ kann auch ein Eingabegerät zur Navigation (beispielsweise eine Computermaus) verwendet werden, dem körperlich ein Element zur Erzeugung eines Ansteuersignais in einen dritten Freiheitsgrad zugeordnet ist. Dieses Element kann beispielsweise ein zusätzlicher Schalter, ein Drehrad oder eine Taste sein.
Das virtuelle Fenster kann der gesamten Anzeigefläche eines Bildschirms entsprechen. Somit verändert sich bei einer Ausführung der Zoomfunktion die Größe sämtlicher Objekte auf der Gesamt-Benutzerfläche in demselben Masse.
Alternativ ist es indessen auch möglich, das virtuelle Fenster nur als einen Teil der gesamten Anzeigefläche des Bildschirms zu definieren. Wenn dann die Gesamt-Benutzeroberflache auf der Anzeigefläche des Bildschirms dargestellt wird, kann mittels dem Eingabegerät das virtuelle Fenster als eine Art „Lupe" mit einstellbarem Vergrößerungsfaktor bezüglich der Benutzeroberfläche navigiert werden, so dass sozusagen die Benutzeroberfläche unter der „Lupe" hindurchbewegt werden kann.
Bei den zu managenden Software-Programmen kann es sich insbesondere um Büroanwendungen, wie beispielsweise Textverarbeitung oder Tabellenkalkulation handeln. In diesem Fall können die Objekte auf der Benutzeroberfläche Fenster von bzgl. ihrer Anzeigegröße veränderbaren Dateien sein. Diese Dateien können dabei aktiv, d.h. in einem unmittelbar aufrufbarem und ausführbarem Zustand angezeigt werden. Es ist also nach dem Aktivieren eines solchen Objekts nicht erst der Start eines Anwendungsprogramms notwendig.
Die Objekte können auf der Benutzeroberfläche in einer Pseudo- 3D-Ansicht dargestellt werden.
Bei der Ausübung der Vergrößerungs-/Verkleinerungsfunktion (Zoomfunktion) der Objektfläche ist keine Navigationsansteuerung der Zeigermarke erforderlich.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Computer-Softwareprogramm vorgesehen, das ein Verfahren der oben genannten Art implementiert, wenn es auf einem Computer läuft.
Schließlich schlägt die Erfindung die Verwendung eines Kraft - /Momentensensors für ein Verfahren nach einer der oben genannten Art vor.
Weitere Merkmale, Vorteile und Eigenschaften der vorliegenden Erfindung werden nunmehr anhand von Ausführungsbeispielen und bezugnehmend auf die Figuren der begleitenden Zeichnungen erläutert
Fig. 1 zeigt dabei ein System aufweisend ein 3D-Eingabegerät und einen Computer mit einer Desktop-Oberfläche, und
Fig. 2 zeigt eine Abwandlung des
Ausführungsbeispiel von Fig. 1, wobei gleichzeitig ein Bildschirmobjekt im vergrößerten Zustand (gezoomten Zustand) dargestellt ist,
Fig. 3 bis 5 zeigen ein weiteres Ausführungsbeispiel, bei dem ein virtuelles Fenster als gesamter Bildschirm definiert wurde,
Fig.6 zeigt ein schematisches Flussdiagramm eines Ablaufs zur Ausführung der vorliegenden Erfindung, und
Fig. 7 zeigt im Detail den Auswerteschritt S3 von Fig.6.
Wie in Fig. 1 ersichtlich, wird zur Implementierung der Erfindung beispielsweise ein PC 4 verwendet. Dieser PC 4 weist einen Monitor 6 auf, auf dem ein Desktop 3, also ein Ausschnitt der Benutzeroberfläche angezeigt wird. Auf diesem angezeigten Ausschnitt der Benutzeroberfläche sind mehrere graphische Objekte 5, 10 angeordnet.
Ein 3D-Eingabegerät 1 weist ein durch die Finger oder die Hand eines Benutzers zu manipulierendes Bedienteil 7 auf, das beispielsweise in drei voneinander unabhängigen rotatorischen und drei translatorischen Freiheitsgraden bzgl. eines Basisteils 8 beweglich gelagert ist. Eine Relativbewegung zwischen Bedienteil 7 und Basisteil 8 wird dabei ausgewertet und das Ergebnis der Auswertung in Form von Ansteuersignalen zu dem Computer 4 übertragen.
Es sei angemerkt, dass das Eingabegerät 1 natürlich noch Ansteuersignale bezüglich weiterer Freiheitsgrade ausgeben kann, indem ihm körperlich bspw. auf dem Bedienteil 7 oder auf der Basisplatte 8 weitere Drehrädchen, Tasten oder Schalter zugeordnet werden .
Ein Aspekt der vorliegenden Erfindung ist es, dass mittels des Eingabegeräts 1 ein virtuelles Fenster mit einstellbarer Größe bezüglich der Gesamtfläche der Benutzeroberfläche navigiert werden kann. Der Darstellungsmaßstab der Objekte, die innerhalb des virtuellen Fensters liegen, ist dabei bei einer besonders vorteilhaften Ausführungsform optional in bestimmten Grenzen mittels des Eingabegeräts 1 wählbar.
Genauer gesagt werden Ansteuersignale in zwei Freiheitsgraden des Eingabegerätes 1 zur Navigation des virtuellen Fensters bezüglich der Benutzeroberfläche 3 verwendet (auf/ab bzw. links/rechts) . Ein Ansteuersignal in einem dritten Freiheitsgrad des Eingabegerätes 1 schließlich ist - falls diese Option vorgesehen ist - zur Echtzeit-Einstellung eines Vergrößerungs-/Verkleinerungsfaktor für die innerhalb des virtuellen Fensters liegenden Objekte vorgesehen.
Dieser Vergrößerungs-/Verkleinerungsfaktor kann dabei kontinuierlich unter entsprechender PixelSkalierung oder aber diskret bspw. für den Fall definierter Schriftgrössenstufen verändert werden.
Beispielsweise kann die Erhöhung des Vergrößerungs- /Verkleinerungsfaktors innerhalb des virtuellen Fensters als
Antwort auf ein Drücken (Translation) oder ein Kippen
(Rotation) des Bedienteils 7 des Eingabegerätes 1 nach vorne erfolgen. Es erfolgt somit eine intuitive Hand/Augenkopplung, da diese Bewegung nach vorne einer Annäherung des virtuellen Fensters auf die Benutzeroberfläche 3 entspricht, wobei der
Annäherung entsprechend die Bildschirmobjekte größer dargestellt werden und sich dafür der auf dem Bildschirm dargestellte Ausschnitt der Benutzeroberfläche 3 verkleinert.
In Figur 1 ist ein solches virtuelles Fenster mit dem Bezugszeichen 2 bezeichnet. Wie ersichtlich ist die Größe dieses Fensters 2 derart eingestellt, dass es nur einen Teil der Anzeigefläche des Bildschirms 6 einnimmt. Dementsprechend kann es selektiv bspw. wie dargestellt über das Objekt 10 navigiert werden, so dass das Objekt 10 innerhalb der Fensterfläche liegt. Wenn nunmehr mittels des Eingabegeräts 1 der Vergrößerungs-/Verkleinerungsfaktor des virtuellen Fensters 2 erhöht wird, was stufenweise oder kontinuierlich erfolgen kann, ergibt sich die in Fig. 2 schematisch ersichtliche vergrößerte Darstellung 10' des Objekts 10.
In Figuren 3 bis 5 ist dagegen der Fall gezeigt, dass das virtuelle Fenster 2 derart eingestellt ist, dass es der gesamten Anzeigefläche des Bildschirms 6 entspricht Bei einer Navigation des virtuellen Fensters 2 wird somit die Benutzeroberfläche 3 bezüglich des Desktops bewegt.
Bei der bevorzugten Ausführungsform, bei der ein Vergrößerungs- /Verkleinerungsfaktor für das virtuelle Fenster wählbar ist, verändert sich bei einer Veränderung des Vergrößerungs- /Verkleinerungsfaktors die Darstellungsgröße sämtlicher auf der Anzeigefläche dargestellter Objekte. Wenn der Benutzer eine Gruppe 11 auf der Benutzeroberfläche 3 angeordnet hat, kann er die Darstellung von dieser kontinuierlich (Pixelskalierung) oder stufenweise solange vergrößern, bis bspw. (siehe Figur 5) nur das Dokument 12 aus dieser Gruppe 11 lesbar angezeigt wird. Dies entspricht einem Hineinzoomen auf die Benutzeroberfläche 3.
Im Unterschied zur Fig. 1 ist in Fig. 2 symbolisch eine Computermaus 1' als Eingabegerät vorgesehen. Dieser Computermaus 1', die ja eigentlich nur Ansteuersignale in zwei Freiheitsgraden (x-y-Achse) bereitstellen kann, ist körperlich ein weiteres Element 9 zugeordnet, das ein Ansteuersignal in wenigstens einem weiteren Freiheitsgrad erzeugen kann. Im dargestellten Fall ist dieses weitere Element ein Drehrädchen 9, das auf der Oberseite der Computermaus 1' angeordnet ist. Durch Drehen dieses Rades 9 nach vorne kann auch beispielsweise die Anzeigefläche eines Bildschirmobjekts 10, 10' vergrößert werden (selektiver Fokus) bzw. sämtliche Bildschirmobjekte 5, 10 vergrößert dargestellt werden (allgemeiner Fokus) .
Die Verkleinerungsfunktion kann entsprechend durch ein Drehen des Rades 9 in der Rückwärtsrichtung (bei dem dreidimensionalen Eingabegerät durch ein Drücken oder ein Kippen des Bedienteils 7 nach hinten) erfolgen, was intuitiv einem Zurücklehnen des Benutzers entspricht, um eine bessere Übersicht über die Objekte 5, 10 auf der Benutzeroberfläche 3 zu erlangen.
Für den Fall, dass die Objekte 5, 10 auf der Benutzeroberfläche 3 Dateien von Anwendungsprogrammen, wie beispielsweise Textverarbeitung oder Tabellenkalkulation wiedergeben, können diese Dateiobjekte aktiv dargestellt werden. Dies bedeutet, dass bei einem Vergrößerung/Verkleinerungsvorgang des entsprechenden Objekts nicht etwa nur eine Ikone als Symbol für das entsprechende Anwendungsprogramm vergrößert oder verkleinert dargestellt wird, sondern vielmehr das Dokument/die Tabellenkalkulation selbst vergrößert bzw. verkleinert werden kann. Dementsprechend können auch mehrere Bildschirmobjekte auf der Benutzeroberfläche 3 gleichzeitig aktiv dargestellt werden, wobei ihr jeweiliger Darstellungsmaßstab frei wählbar ist. Somit kann der Benutzer beispielsweise Dokumente in beliebigen Größen und an beliebiger Position auf der Bildschirmoberfläche 3 anordnen .
Figur 6 zeigt schematisch den Ablauf bei der Ausführung der vorliegenden Erfindung. In einem Schritt Sl werden Ausgabesignale des Kraft/Momentensensors erzeugt. Diese werden dann (Schritt S2) dem Dateneingang eines EDV-Systems zugeführt. Dies kann beispielsweise mittels einer sogenannten USB- Schnittstelle erfolgen. USB (Universal Serial Bus, Universeller serieller Datenbus) ist ein Anschluss (Port) für periphere Geräte (wie Maus, Modem, Drucker, Tastatur, Scanner, etc.) an einen Computer. Vorteilhafterweise beträgt die Übertragungsrate von USB in der Version 1.1 bereits 12 MBit/s.
In einem Schritt S3 werden die von dem Kraft-/Momentensensor eingegebenen Signale ausgewertet. Dieser Schritt S3 wird weiter unten bezugnehmend auf Figur 7 im Detail erläutert. Abhängig von der Auswertung in Schritt S3 erfolgt dann die Ansteuerung der grafischen Benutzeroberfläche (GUI) in einem Schritt S4, bevor erneut die Daten von dem Kraft- /Momentensensor ausgewertet werden.
Bezugnehmend auf Figur 7 soll nunmehr der Schritt S3 des Ablaufs von Figur 6 näher erläutert werden. Wie in Figur 7 ersichtlich werden beispielsweise Daten in drei verschiedenen Freiheitsgraden x, y und z dahingehend ausgewertet, ob das entsprechende Signal in dem positiven oder negativen Bereich liegt. Hinsichtlich des Freiheitsgrads „z" kann ein positives Signal zur Vergrößerung und ein negatives Signal zur Verkleinerung des virtuellen Fensters bezüglich der Gesamtheit der grafischen Benutzeroberfläche verwendet werden.
Bezüglich des Freiheitsgrads „y" kann ein positives Signal ein Verschieben des virtuellen Fensters nach links und ein negatives Signal ein Verschieben des virtuellen Fensters nach rechts (immer bezüglich der Gesamtheit der grafischen Benutzeroberfläche) bewirken.
Dies ist natürlich äquivalent zu der jeweils inversen Verschiebung der Benutzeroberfläche „unter" dem virtuellen Fenster. Bspw. kann daher das virtuelle Fenster als feststehende Markierleiste ausgebildet sein, „unter" dem hinweg die Benutzeroberfläche navigiert wird. Objekte, die dabei unter das virtuelle Fenster gelangen, werden automatisch markiert „Highlight") und für ein evtl. folgendes Anklicken oder sonstiges Aktivieren vorgewählt . Dieser Ablauf ist insbesondere vorteilhaft, wenn eine Verzeichnisstruktur (Verzeichnisbaum) unter dem feststehenden Fenster navigiert wird, wobei unter dem Fenster befindliche Verzeichnisse automatisch angewählt werden. Somit kann prinzipiell in unendlich grossen Strukturen navigiert werden, ohne dass die Hand des Benutzers das Eingabegerät verlassen müsste. Ein „Nachgreifen" zur Veränderung des Bildausschnitts, sobald der Kursor im Falle der bekannten Techniken an den Bildschirmrand gelangte, ist nicht mehr erforderlich.
Bezüglich des Freiheitsgrads „x" schließlich kann ein positives Signal ein Verschieben des Fensters nach oben und ein negatives Signal ein Verschieben des Fensters nach unten bewirken. Auch dies kann analog als inverse Bewegung der Benutzeroberfläche „unter" dem virtuellen Fenster gesehen werden.
Im folgenden sollen nochmals kurz die Vorteile der Erfindung im Vergleich zum Stand der Technik angeführt werden. Heutige Desktop-Programme bieten dagegen lediglich eine Arbeitsfläche, die über die Bildschirmgröße und die Fenstergröße der entsprechenden Applikation definiert ist. Entsprechend besteht der einzige Freiheitsgrad heutiger Desktop-Programme darin, sogenannte Ikonen als Verknüpfungen zu Dokumenten, auszuführen Programme und sonstigen Inhalten frei auf dem Desktop anordnen zu können.
Bei der vorliegenden Erfindung indessen ist die Darstellungsgröße bzw. die Dokumentengröße auf der Benutzeroberfläche frei wählbar. Mit Hilfe eines einzigen Gerätes, wie beispielsweise eines 3D-Eingabegerätes oder eines 2D-Eingabegerätes mit Zusatzelementen lässt sich also dann die Anordnung wie auch die grδßenmäßige Darstellung der Bildschirmobjekte auf der Desktop-Oberfläche frei wählen. Entsprechend ist der Wiedererkennungswert frei angeordneter Flächen wesentlich größer, da hier optische Wiedererkennungsmerkmale und nicht nur rein Erinnerungsmerkmale greifen. Somit wird gemäß der vorliegenden Erfindung ein reales intuitives Arbeitsverhalten weitgehend nachvollzogen. Das reale Arbeitsverhalten besteht nämlich üblicher Weise darin, dass der Benutzer auf dem Arbeitsplatz unter Einbeziehung des optisch wahrnehmbaren Sektors arbeitet. Die Fokussierung auf ein Arbeitsdokument, das zurücklehnend zur Erlangung eines Überblicks sind selbstverständlicher Teil der Verarbeitung realer Objekte. Doch die vorliegende Erfindung macht es nun erstmals möglich, ein derartiges intuitives Verhalten auch auf virtuelle Objekte, nämlich Objekte zu übertragen, die auf einer Benutzeroberfläche dargestellt sind.
Bei einem Desktopmanager-Programm wird es somit ermöglicht, die graphische Benutzeroberfläche 3 herkömmlicher Monitore und PCs durch die freie Positionierung des angezeigten Ausschnitts der Benutzeroberfläche 3 mittels eines 3D-Eingabegeräts 1, 1' , so zu erweitern, dass der Benutzer damit den sichtbaren Teil („virtuelles Fenster") der Benutzeroberfläche 3 eines Monitors 6 und eines PCs 4 selbst bestimmen kann.

Claims

Ansprüche .
1. Verfahren zum Managen einer graphischen Benutzeroberfläche (3), auf der mittels eines Eingabegeräts (1, 1') navigiert werden kann, wobei das Verfahren die folgenden Schritte aufweist:
- Anordnen von graphischen Objekten (5) auf der Benutzeroberfläche (3) ,
- Navigieren eines virtuelles Fensters (2) bezüglich der Benutzeroberfläche (3) , wobei die Navigation mittels Ansteuersignalen von dem Eingabegerät (1, 1') erfolgt, und
- Anzeige des in dem virtuellen Fenster (2) befindlichen Ausschnitts der Benutzeroberfläche (3) .
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass ein Vergrößerungs-/Verkleinerungsfaktor für innerhalb des virtuellen Fensters (2) befindliche Objekte mittels des Eingabegeräts (1, 1') eingestellt werden kann.
3. Verf hren nach Anspruch 1 oder 2 , dadurch gekennzeichnet, dass die Navigation und ggf. die Einstellung des
Vergrößerungs-/Verkleinerungsfaktors im wesentlichen in Echtzeit erfolgt.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels des Eingabegeräts (1, 1') Ansteuersignale in wenigstens drei Freiheitsgraden erzeugt werden, wobei Ansteuersignale in zwei Freiheitsgraden für die Navigation des virtuellen Fensters (2) bezüglich der Benutzeroberfläche
(3) und das Ansteuersignal in dem dritten Freiheitsgrad ggf. für die Einstellung des Vergrößerungs-/Verkleinerungsfaktors verwendet werden.
5. Verfahren nach Anspruch 4 , dadurch gekennzeichnet, dass das Eingabegerät (1) Ansteuersignale in wenigstens drei translatorischen und/oder rotatorischen Freiheitsgraden bereitstellt .
6. Verfahren nach Anspruch 5 , dadurch gekennzeichnet, dass es sich bei dem Eingabegerät um einen Kraft- /Momentensensor (1) handelt.
7. Verfahren nach Anspruch 1 oder 2 , dadurch gekennzeichnet, dass ein Eingabegerät (1) zur zweidimensionalen Navigation, wie bspw. eine Computermaus verwendet wird, dem körperlich ein Element (9) zur Erzeugung eines Ansteuersignais in einem dritten Freiheitsgrad zugeordnet ist .
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Größe des virtuellen Fensters (2) einstellbar ist.
9. Verfahren nach Anspruch 7 , dadurch gekennzeichnet, dass das virtuelle Fenster (2) als ein Teil der gesamten Anzeigefläche des Bildschirms definiert wird.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das virtuelle Fenster (2) der gesamten Anzeigefläche eines Bildschirms entspricht .
11. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass mittels des Eingabegeräts (1, 1') das virtuelle Fenster als eine Art „Lupe" mit einstellbarem Vergrößerungs- /Verkleinerungsfaktor über die Benutzeroberfläche (3) navigiert werden kann.
12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es sich bei den Softwareprogrammen um Büroanwendungen, wie bspw. Textverarbeitung oder Tabellenkalkulation handelt und die Objekte auf der Benutzeroberfläche (3) Fenster (5, 10, 10') von bezüglich ihrer Anzeigegrδße veränderbaren Dateien sind.
13. Verfahren nach Anspruch 12 , dadurch gekennzeichnet, dass die Dateien aktiv, d.h. in einem unmittelbar ausführbaren Zustand angezeigt werden.
14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Objekte auf der Benutzeroberfläche (3) in einer Pseudo-3D-Ansicht dargestellt werden.
15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Vergrößerung/Verkleinerung eines Objekts in der Art eines Zoomeffekts ausgeführt wird.
16. Verfahren zum Managen eines Desktops, dadurch gekennzeichnet , dass die graphische Benutzeroberfläche (3) eines Monitors (6) durch die freie Positionierung der Benutzeroberfläche (3) mittels eines 3D-Eingabegeräts (1, 1') so erweitert wird, dass der Benutzer damit den sichtbaren Teilausschnitt einer Benutzeroberfläche (3) des Monitors (6) durch Betätigung des 3D-Eingabegeräts (1, 1') selbst bestimmen kann.
17. Computer-Softwareprogramm, dadurch gekennzeichnet, dass es ein Verfahren nach einem der vorhergehenden Ansprüche implementiert, wenn auf einer prozessorgesteuerten Einrichtung (4) läuft.
18. Verwendung eines Kraft-/Momentensensors für ein Verfahren nach einem der Ansprüche 1 bis 16.
EP02777079A 2001-09-13 2002-09-12 Desktopmanager Withdrawn EP1425653A2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE10145185 2001-09-13
DE10145185 2001-09-13
DE10155030 2001-11-09
DE10155030A DE10155030A1 (de) 2001-09-13 2001-11-09 Desktopmanager
PCT/EP2002/010246 WO2003023592A2 (de) 2001-09-13 2002-09-12 Desktopmanager

Publications (1)

Publication Number Publication Date
EP1425653A2 true EP1425653A2 (de) 2004-06-09

Family

ID=26010126

Family Applications (1)

Application Number Title Priority Date Filing Date
EP02777079A Withdrawn EP1425653A2 (de) 2001-09-13 2002-09-12 Desktopmanager

Country Status (3)

Country Link
US (1) US20040046799A1 (de)
EP (1) EP1425653A2 (de)
WO (1) WO2003023592A2 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070898A (ja) * 2003-08-20 2005-03-17 Toshiba Corp 情報処理装置および表示制御方法
US7899756B2 (en) * 2004-12-01 2011-03-01 Xerox Corporation Critical parameter/requirements management process and environment
US8819569B2 (en) * 2005-02-18 2014-08-26 Zumobi, Inc Single-handed approach for navigation of application tiles using panning and zooming
JP4653561B2 (ja) * 2005-05-31 2011-03-16 株式会社東芝 情報処理装置および表示制御方法
US20070268317A1 (en) * 2006-05-18 2007-11-22 Dan Banay User interface system and method for selectively displaying a portion of a display screen
US8914786B2 (en) 2007-03-23 2014-12-16 Zumobi, Inc. Systems and methods for controlling application updates across a wireless interface
US8595642B1 (en) * 2007-10-04 2013-11-26 Great Northern Research, LLC Multiple shell multi faceted graphical user interface
WO2011104269A1 (en) 2008-02-26 2011-09-01 Jenavalve Technology Inc. Stent for the positioning and anchoring of a valvular prosthesis in an implantation site in the heart of a patient
US8289288B2 (en) * 2009-01-15 2012-10-16 Microsoft Corporation Virtual object adjustment via physical object detection
US9443257B2 (en) * 2010-10-21 2016-09-13 Yahoo! Inc. Securing expandable display advertisements in a display advertising environment
US9843665B2 (en) * 2011-05-27 2017-12-12 Microsoft Technology Licensing, Llc Display of immersive and desktop shells
US10417018B2 (en) 2011-05-27 2019-09-17 Microsoft Technology Licensing, Llc Navigation of immersive and desktop shells
US10133355B2 (en) 2014-03-21 2018-11-20 Dell Products L.P. Interactive projected information handling system support input and output devices
US9965038B2 (en) 2014-03-21 2018-05-08 Dell Products L.P. Context adaptable projected information handling system input environment
US20150268739A1 (en) * 2014-03-21 2015-09-24 Dell Products L.P. Projected Information Handling System Input Environment with Object Initiated Responses
US9304599B2 (en) 2014-03-21 2016-04-05 Dell Products L.P. Gesture controlled adaptive projected information handling system input and output devices
US20160196013A1 (en) * 2015-01-07 2016-07-07 Blackberry Limited Electronic device and method of controlling display of information
CN105867754B (zh) * 2015-01-22 2019-11-26 阿里巴巴集团控股有限公司 应用界面处理方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5341466A (en) * 1991-05-09 1994-08-23 New York University Fractal computer user centerface with zooming capability
US5670984A (en) * 1993-10-26 1997-09-23 Xerox Corporation Image lens
JP2813728B2 (ja) * 1993-11-01 1998-10-22 インターナショナル・ビジネス・マシーンズ・コーポレイション ズーム/パン機能付パーソナル通信機
EP0693852A3 (de) * 1994-07-22 1997-05-28 Eastman Kodak Co Verfahren und Vorrichtung zur Anwendung einer Funktion in einem Ausschnitt eines digitalen Bildes mittels Fensters
US6037939A (en) * 1995-09-27 2000-03-14 Sharp Kabushiki Kaisha Method for enabling interactive manipulation of data retained in computer system, and a computer system for implementing the method
US5999169A (en) * 1996-08-30 1999-12-07 International Business Machines Corporation Computer graphical user interface method and system for supporting multiple two-dimensional movement inputs
US6097393A (en) * 1996-09-03 2000-08-01 The Takshele Corporation Computer-executed, three-dimensional graphical resource management process and system
US6128006A (en) * 1998-03-26 2000-10-03 Immersion Corporation Force feedback mouse wheel and other control wheels
US6275232B1 (en) * 1998-12-14 2001-08-14 Sony Corporation Polymorphic event handling for zooming graphical user interface
US20020060691A1 (en) * 1999-11-16 2002-05-23 Pixel Kinetix, Inc. Method for increasing multimedia data accessibility

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO03023592A2 *

Also Published As

Publication number Publication date
WO2003023592B1 (de) 2004-03-25
WO2003023592A2 (de) 2003-03-20
US20040046799A1 (en) 2004-03-11
WO2003023592A3 (de) 2004-02-12

Similar Documents

Publication Publication Date Title
EP1425653A2 (de) Desktopmanager
DE60024655T2 (de) Verfahren zur benutzung von mit einem anzeigegerät verbundenen tasten für den zugriff und die ausführung von damit verbundenen funktionen
DE69724416T2 (de) Zeigersteuerung mit benutzerrückführungsmechanismus
EP1428110B1 (de) 3d-eingabegerät mit integriertem touchscreen
EP1272921B1 (de) Verfahren zum navigieren zwischen ausschnitten in einem darstellungsraum
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
DE102012109058A1 (de) Steuerverfahren und elektronische Einrichtung
DE19744861A1 (de) Verfahren zum Einsatz einer dreidimensionalen Mouse im WINDOWS-Betriebssystem
DE102012014098A1 (de) Verfahren zur Imitation der Touchscreen-Steuerung durch eine Maus
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102012014603A1 (de) System und Verfahren für den synchronisierten Betrieb einer Touch-vorrichtung
WO2017144298A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE10140874A1 (de) Graphische Benutzeroberfläche
DE102013203918A1 (de) Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung
EP2877910B1 (de) Eingabevorrichtung mit versenkbarer berührungsempfindlicher oberfläche
DE10084249T5 (de) Zusätzliches LCD-Feld mit Sensorbildschirm
WO2006032442A1 (de) Steuereinrichtung für anzeigen
DE10155030A1 (de) Desktopmanager
EP1444566A2 (de) Eingabegerät, webcam und bildschirm mit spracheingabefunktion
DE102009003995A1 (de) Verfahren zur Vergrößerung eines Darstellungsbereichs auf einer Darstellungseinrichtung
EP1484666A2 (de) Multidimensionales Eingabegerät zur Navigation und Selektion von virtuellen Objekten
WO2017178313A1 (de) Steuer- und konfiguriereinheit sowie verfahren zum steuern und konfigurieren eines mikroskops
EP2570907B1 (de) Verfahren zum Betreiben einer Benutzerschnittstelle einer Datenverarbeitungsanordnung
DE102008011072B4 (de) System zur Steuerung der Sichtbarkeit von Fenstern in fensterorientierten Bedienoberflächen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20040202

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LI LU MC NL PT SE SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK RO SI

17Q First examination report despatched

Effective date: 20070817

REG Reference to a national code

Ref country code: DE

Ref legal event code: 8566

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20071228