DE112010002760T5 - Benutzerschnittstelle - Google Patents

Benutzerschnittstelle Download PDF

Info

Publication number
DE112010002760T5
DE112010002760T5 DE112010002760T DE112010002760T DE112010002760T5 DE 112010002760 T5 DE112010002760 T5 DE 112010002760T5 DE 112010002760 T DE112010002760 T DE 112010002760T DE 112010002760 T DE112010002760 T DE 112010002760T DE 112010002760 T5 DE112010002760 T5 DE 112010002760T5
Authority
DE
Germany
Prior art keywords
event
magnification
touch screen
input
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112010002760T
Other languages
English (en)
Other versions
DE112010002760B4 (de
Inventor
Min-Liang Tan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Razer Asia Pacific Pte Ltd
Original Assignee
Razer Asia Pacific Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Razer Asia Pacific Pte Ltd filed Critical Razer Asia Pacific Pte Ltd
Publication of DE112010002760T5 publication Critical patent/DE112010002760T5/de
Application granted granted Critical
Publication of DE112010002760B4 publication Critical patent/DE112010002760B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • G09G5/26Generation of individual character patterns for modifying the character dimensions, e.g. double width, double height
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Benutzerschnittstelle, die einen Bildschirm und eine Eingabevorrichtung enthält. Die Eingabevorrichtung ist zum Beispiel ein Touchscreen, ein Touchpad und einer oder mehrere Näherungssensoren. Die Eingabevorrichtung erfasst ein Eingabeereignis, spezieller ein Zeigeobjekt, das in ihrer Nähe angeordnet ist. Parameter des Eingabeereignisses enthalten den Abstand des Zeigeobjekts von der Eingabevorrichtung, die Verschiebegeschwindigkeit des Zeigeobjekts zur Eingabevorrichtung, die Verschieberichtung des Zeigeobjekts zur Eingabevorrichtung und die Verschieberichtung des Zeigeobjekts bezüglich einer Ebene der Eingabevorrichtung. Der Bildschirm führt Ausgabeereignisse oder Vergrößerungsereignisse aus. Ein Sichtfeld auf dem Bildschirm (d. h. ein Bereich auf dem Bildschirm) wird vergrößert. Mindestens eine(r) von dem Vergrößerungsmaßstab, der Größe des zu vergrößernden Sichtfelds und der Größe des resultierenden vergrößerten Sichtfelds hängt von mindestens einem der Parameter des Eingabeereignisses ab. Ein Benutzerschnittstellen-Verfahren zur Steuerung von Vergrößerungsereignissen, die vom Bildschirm als Reaktion auf von der Eingabevorrichtung erzeugte Signale durchgeführt wird, wird auch von der vorliegenden Offenbarung geliefert.

Description

  • Gebiet der Erfindung
  • Die vorliegende Offenbarung bezieht sich allgemein auf Touchscreen-Technologien für elektronische Vorrichtungen. Spezieller bezieht die vorliegende Offenbarung sich auf Touchscreen-Technologien, die in tragbaren elektronischen Vorrichtungen implementiert werden, um Eingabeereignisse in eine gesteuerte Vergrößerung von Abbildungen umzusetzen, die auf einem Bildschirm angezeigt werden.
  • Hintergrund
  • Die Verwendung von Touchscreen-Schnittstellen wird bei veranschaulichenden elektronischen Rechenvorrichtungen wie Tablet-PCs, Personal Digital Assistants (PDAs), handgeführten Audio- und Video-Steuersystemen, tragbaren Musicplayern und Videogeräten sowie Mobil- und Satellitentelefonen immer beliebter. Dies ist hauptsächlich auf die bequeme Nutzung, Vielseitigkeit der Betätigung und eine verbesserte Ästhetik der Touchscreen-Schnittstellen zurückzuführen. Touchscreen-Schnittstellen enthalten typischerweise eine berührungsempfindliche Fläche (die als Touchscreen bezeichnet werden kann) und einen Bildschirm. Typischerweise überlagert die berührungsempfindliche Fläche oder Touchscreen einen oder ist koextensiv mit einem spezifizierten Teil des Bildschirms.
  • Bis jetzt wurden eine Reihe von Touchscreen-Technologien mit Touchscreen-Schnittstellen implementiert, um solche Touchscreen-Schnittstellen zu befähigen, eine(n) oder mehr von Anwesenheit, Standort und Bewegung eines oder mehrerer Objekte, zum Beispiel Finger, Eingabestifte und Touchpens, zu bestimmen. Arten von Touchscreen-Technologien enthalten resistive, kapazitive, induktive, optische (IR), und akustische Technologien.
  • Die Touchscreen-Schnittstelle dient typischerweise als eine Benutzerschnittstelle oder als Mittel, mit dem ein Benutzer der elektronischen Vorrichtung mit der elektronischen Rechenvorrichtung interagiert. Der Touchscreen der Touchscreen-Schnittstelle dient als Eingabeeinrichtung der elektronische Rechenvorrichtung für den Empfang von Eingabeereignisse (z. B., um den Benutzer zu befähigen, Befehle in den Touchscreen einzugeben). Der Touchscreen ist typischerweise fähig, Zeigeobjekte zu erfassen oder zu registrieren, die entweder in der Nähe des Touchscreens oder direkt in Kontakt mit dem Touchscreen platziert sind (d. h. Eingabeereignisse). Die Erfassung von Eingabeereignisse durch den Touchscreen löst die Erzeugung von Eingabesignalen aus. Eingabesignale werden in Ausgabesignale umgesetzt, um Ausgabeereignisse zu erzeugen, die von Ausgabevorrichtungen der elektronischen Rechenvorrichtung ausgeführt werden, zum Beispiel durch den Bildschirm.
  • Die Touchscreen-Schnittstellen von veranschaulichenden elektronischen Rechenvorrichtungen werden immer kleiner. Folglich werden, auch Texte, Cursors, Grafiken und Icons, die auf dem Bildschirm angezeigt werden, immer kleiner. Es ist allgemein schwierig, den Berührungsbereich des Zeigeobjekts bezüglich des Texts, der Cursors, der Grafiken und Icons zu reduzieren, die auf dem Bildschirm angezeigt werden. Folglich ist es immer schwieriger geworden, einen gewünschten spezifischen Cursor oder Icon, der/das auf dem Bildschirm der Touchscreen-Schnittstelle angezeigt wird, exakt zu bewegen und/oder auszuwählen.
  • Die Positionierung des Zeigeobjekts auf dem oder selbst in der Nähe des Touchscreens der Touchscreen-Schnittstelle verdeckt das Sichtfeld dieses Bereichs auf dem Touchscreen erheblich, mit dem das Zeigeobjekt in Kontakt kommt oder in dessen Nähe es ist. Dies kann zu Schwierigkeiten für den Benutzer führen, einen von dem dem Bereich auf dem Touchscreen entsprechenden Bildschirm angezeigten speziellen Cursor oder Icon exakt anzusehen, zu bewegen oder auszuwählen. Zusätzlich können die abnehmenden Größen von Grafiken und Icons, die derzeit angezeigt werden, zu einer Schwierigkeit für den Benutzer führen, solche Grafiken und Icons anzusehen und/oder auszuwählen, insbesondere, wenn der Benutzer dies schnell tun muss.
  • Es gibt Touchscreen Technologien, die es dem Benutzer erlauben, einen spezifizierten Bereich auf Touchscreen-Schnittstellen bei Erfassung einer Berührung durch den Finger, Eingabestift, oder anderes Zeigeobjekt zu vergrößern. Die US-Patentanmeldung Nr. 11/240,788 von Apple Computer Inc. offenbart auf Nähe beruhende Systeme und Verfahren, die Objekte abtasten können, die auf und/oder in großer Nähe einer Darstellungsfläche einer elektronischen Vorrichtung positioniert sind. Die US-Patentanmeldung Nr. 11/240,788 offenbart weiter die Fähigkeit, einen Bereich grafischer Information nahe der Position des Objekts zu erweitern, wenn das Objekt im Raum über der Darstellungsfläche erfasst wird. Es gibt aber mehrere Begrenzungen für die von der US-Patentanmeldung Nr. 11/240,788 offenbarten Systeme und Verfahren. Zum Beispiel heißt es, dass es schwierig ist, das Abtasten oder die Erfassung des Objekts zu steuern. Dementsprechend kann es schwierig sein, eine zufällige oder unerwünschte Aktivierung und Vergrößerung von Bereichen der Darstellungsfläche zu verhindern. Zudem ist es mit den von der US-Patentanmeldung Nr. 11/240,788 offenbarten Systemen und Verfahren nicht möglich, die Vergrößerung von auf dem Bildschirm angezeigten Abbildungen dynamisch zu steuern.
  • Daher gibt es einen Bedarf zum Verbessern der Schnittstellen von Touchscreens oder dergleichen, die in elektronische Rechenvorrichtungen eingebaut sind.
  • Zusammenfassung
  • Gemäß einem ersten Merkmal der vorliegenden Offenbarung wird ein Benutzerschnittstellen-Verfahren zur Steuerung eines Vergrößerungsereignisses auf einem Bildschirm als Reaktion auf Eingabeereignisse offenbart. Das Benutzerschnittstellen-Verfahren weist die Erfassung eines Eingabeereignisses durch die Eingabevorrichtung und die Bestimmung mindestens eines einer Vielzahl von Parametern des Eingabeereignisses auf, wobei die Vielzahl von Parameter einen Abstand eines Zeigeobjekts von der Eingabevorrichtung und eine Verschiebegeschwindigkeit des Zeigeobjekts zur Eingabevorrichtung aufweist. Das Benutzerschnittstellen-Verfahren weist weiter das Korrelieren jedes der mindestens einen der Vielzahl von Parametern des Eingabeereignisses mit mindestens einem/einer von einem Vergrößerungsfaktor, einer Sichtfeldgröße und einer Größe eines resultierenden. vergrößerten Sichtfelds für das Vergrößerungsereignis auf.
  • Gemäß einem zweiten Merkmal der vorliegenden Offenbarung wird ein Touchscreen-Schnittstellen-Verfahren zur Steuerung eines Vergrößerungsereignisses eines Bildschirms als Reaktion auf mindestens einen Parameters eines Eingabeereignisses offenbart. Das Touchscreen-Schnittstellen-Verfahren weist das Erfassen eines Zeigeobjekts in der Nähe des Touchscreens und das Bestimmen mindestens eines einer Vielzahl von Parameter des Eingabeereignisses auf, wobei die Vielzahl von Parametern den Abstand des Zeigeobjekts von dem Touchscreen und die Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen aufweist. Das Touchscreen-Schnittstellen-Verfahren weist weiter das Bestimmen mindestens eines/einer von einem Vergrößerungsfaktor, einer Sichtfeldgröße und einer Größe eines resultierenden vergrößerten Sichtfelds für das Vergrößerungsereignis auf, wobei der/die mindestens eine von dem Vergrößerungsfaktor, der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds in Korrelation mit dem mindestens einen der Vielzahl von Parametern des Eingabeereignisses bestimmt wird.
  • Gemäß einem dritten Merkmal der vorliegenden Offenbarung wird ein Benutzerschnittstellen-Verfahren zur Steuerung eines Parameter eines Vergrößerungsereignisses auf einem Bildschirm als Reaktion auf ein Eingabeereignis offenbart. Das Benutzerschnittstellen-Verfahren weist die Bestimmung mindestens eines einer Vielzahl von Parametern des Eingabeereignisse auf, wobei die Vielzahl von Parametern des Eingabeereignisses den Abstand des Zeigeobjekts vom Touchscreen, die Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, die Verschieberichtung des Zeigeobjekts zum Touchscreen und die Verschieberichtung des Zeigeobjekts parallel zu einer Ebene des Touchscreens aufweist. Das Benutzerschnittstellen-Verfahren weist weiter das Korrelieren mindestens eines Parameters des Vergrößerungsereignisses mit dem mindestens einen der Vielzahl von Parametern des Eingabeereignisses auf, wobei der mindestens eine Parameter des Vergrößerungsereignisses aus einer Gruppe ausgewählt wird, die einen Vergrößerungsfaktor, eine Sichtfeldgröße und eine Größe eines resultierenden vergrößerten Sichtfelds des Vergrößerungsereignisses aufweist.
  • Gemäß einem vierten Merkmal der vorliegenden Offenbarung wird eine Benutzerschnittstelle offenbart, die einen Näherungssensor zur Erfassung eines Zeigeobjekts in dessen Nähe und zur Erzeugung von Eingabesignalen enthält. Die Eingabesignale, wenn sie verarbeitet werden, liefern eine Information über mindestens eine(n) von dem Abstand des Zeigeobjekts vom Touchscreen, der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, der Verschieberichtung des Zeigeobjekts zum Touchscreen und der Verschieberichtung des Zeigeobjekts parallel zu einer Ebene des Touchscreens. Die elektronische Vorrichtung weist weiter einen Bildschirm in Signalverbindung mit dem Näherungssensor zum Ausführen eines Vergrößerungsereignisses auf. Das Vergrößerungsereignis hat mindestens einen Parameter, der mindestens einem/einer von dem Abstand des Zeigeobjekts vom Touchscreen, der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, der Verschieberichtung des Zeigeobjekts zum Touchscreen und der Verschieberichtung des Zeigeobjekts parallel zur Ebene des Touchscreens entspricht. Der mindestens eine Parameter wird ausgewählt unter einem Vergrößerungsmaßstab des Vergrößerungsereignisses, einer Sichtfeldgröße für das Vergrößerungsereignis und einer Größe eines vergrößerten Sichtfelds.
  • Gemäß einem fünften Merkmal der vorliegenden Offenbarung wird eine elektronische Vorrichtung offenbart, die einen Touchscreen, der fähig ist, ein Zeigeobjekt in seiner Nähe zu erfassen, um Eingabesignale zu erzeugen, und einen Prozessor aufweist, um die Eingabesignale vom Touchscreen zu empfangen und die Eingabesignale zu verarbeiten, um mindestens eine(n) von einem Abstand des Zeigeobjekts vom Touchscreen und einer Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen zu bestimmen. Die Benutzerschnittstelle weist weiter einen Bildschirm zur Ausführung eines Vergrößerungsereignisses auf, wobei das Vergrößerungsereignis mindestens einen Parameter hat, der mit mindestens einem/einer von dem Abstand des Zeigeobjekts vom Touchscreen und der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen korreliert. Der mindestens eine Parameter ist einer unter einem Vergrößerungsmaßstab des Vergrößerungsereignisses, einer Sichtfeldgröße für das Vergrößerungsereignis und einer Größe eines vergrößerten Sichtfelds.
  • Gemäß einem sechsten Merkmal der vorliegenden Offenbarung wird eine Eingabevorrichtung offenbart, die mindestens einen Sensor zur Erfassung eines Eingabeereignisses und Erzeugung von Eingabesignalen und ein Modul zur Verarbeitung der Eingabesignale aufweist, um mindestens einen einer Vielzahl von Parametern des Eingabeereignisses zu bestimmen. Die Vielzahl von Parametern enthält einen Abstand des Zeigeobjekts von dem mindestens einen Sensor, eine Verschiebegeschwindigkeit des Zeigeobjekts zu dem mindestens einen Sensor, eine Verschieberichtung des Zeigeobjekts zum mindestens einen Sensor und eine Verschieberichtung des Zeigeobjekts bezüglich des mindestens einen Sensors. Das Modul korreliert auch den mindestens einen der Vielzahl von Parametern des Eingabeereignisses mit mindestens einem einer Vielzahl von Parametern eines Vergrößerungsereignisses, das von einem Bildschirm durchgeführt wird. Die Vielzahl von Parametern des Vergrößerungsereignisses weist einen Vergrößerungsmaßstab, eine Sichtfeldgröße für das Vergrößerungsereignis und eine Größe eines vergrößerten Sichtfelds auf.
  • Kurze Beschreibung der Zeichnungen
  • Nachfolgend werden Ausführungsformen der vorliegenden Offenbarung unter Bezug auf die Zeichnungen beschrieben, in denen:
  • 1 ein Blockdiagram eines elektronischen Rechensystems ist, das eine Benutzerschnittstelle gemäß mehreren Ausführungsformen der vorliegenden Offenbarung enthält;
  • 2 eine schematische Veranschaulichung einer repräsentativen elektronischen Rechenvorrichtung ist, die eine Touchscreen-Schnittstelle gemäß bestimmten Ausführungsformen der vorliegenden Offenbarung enthält;
  • 3 eine Teilseitenansicht der repräsentativen elektronischen Rechenvorrichtung aus 2 mit einem Zeigeobjekt in ihrer Nähe platziert zeigt;
  • 4a verschiedene Sichtfeldgrößen veranschaulicht, die auf einem Bildschirm vergrößert werden;
  • 4b verschiedene Größen von resultierenden vergrößerten Sichtfeldern auf dem Bildschirm zeigt;
  • 5 ein Ablaufdiagramm eines Benutzerschnittstellen-Verfahrens gemäß einer Ausführungsform der vorliegenden Offenbarung ist; und
  • 6 ein Ablaufdiagramm eines Programmierprozesses ist, der in einem Verfahrensschritt des Benutzerschnittstellen-Verfahrens der 5 durchgeführt wird.
  • Ausführliche Beschreibung
  • Touchscreen-Technologien werden üblicherweise in veranschaulichende elektronische Rechenvorrichtungen integriert, zum Beispiel Tablet-PCs, Personal Digital Assistants (PDAs), Audio- und Video-Steuersysteme, tragbare Musicplayer und Videogeräte, sowie Mobil- und Satellitentelefone. Solche elektronischen Rechenvorrichtungen umfassen eine Touchscreen-Schnittstelle, die als eine Benutzerschnittstelle dient. Die Touchscreen-Schnittstelle umfasst eine berührungsempfindliche Fläche (nachfolgend als Touchscreen bezeichnet) und einen Bildschirm. Der Touchscreen überlagert einen spezifizierten Teil auf dem Bildschirm.
  • Übliche Touchscreen-Technologien können einem Benutzer der elektronischen Rechenvorrichtung erlauben, einen auf dem Bildschirm angezeigten Bereich von grafischer oder Textinformation nach Erfassung oder Registrierung eines Berührungsereignisses durch den Touchscreen zu erweitern. Es gibt aber Begrenzungen der üblichen Touchscreen-Technologien. Zum Beispiel erlauben übliche Touchscreen-Technologien es dem Benutzer nicht, aktiv den Vergrößerungsmaßstab (oder Vergrößerungsfaktor) eines vergrößerten Bereichs basierend auf dem Abstand des Objekts vom Touchscreen zu steuern. Zusätzlich erlauben übliche Touchscreen-Technologien es dem Benutzer nicht, aktiv die Größe des vergrößerten Bereichs basierend auf dem Abstand des Objekts vom Touchscreen zu steuern.
  • Verschiedene beispielhafte Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme, Vorrichtungen, Verfahren, Prozesse, Prozeduren und/oder Techniken zum Liefern verbesserter Benutzerschnittstellen. Ausführungsformen der vorliegenden Offenbarung umfassen die Beeinflussung oder Steuerung mindestens eines/einer von einem Vergrößerungsmaßstab (d. h. Vergrößerungsfaktor), einer Größe eines auf dem Bildschirm zu vergrößernden Sichtfelds und einer Größe eines auf dem Bildschirm angezeigten vergrößerten Bereichs. Spezieller beziehen sich verschiedene Ausführungsformen der vorliegenden Offenbarung auf Systeme, Vorrichtungen, Benutzerschnittstellen, Verfahren, Prozesse, Prozeduren und/oder Techniken zum Ermöglichen der Steuerung mindestens eines/einer von dem Vergrößerungsmaßstab, der Größe eines auf dem Bildschirm zu vergrößernden Sichtfelds und der Größe eines auf dem Bildschirm angezeigten vergrößerten Bereichs basierend auf mindestens einem/einer von dem Abstand eines Zeigeobjekts vom Touchscreen, der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, der Richtung, in der das Zeigeobjekt zum Touchscreen verschoben wird und der Bewegungsrichtung des Zeigeobjekts entlang einer Ebene des Touchscreens.
  • Aus Gründen der Vereinfachung und Klarheit der Veranschaulichung werden die beispielhaften Ausführungsformen der vorliegenden Offenbarung nachfolgend mit Bezug auf die 1 bis 6 beschrieben, in denen gleiche Elemente die gleichen Bezugszeichen tragen. Spezifische Einzelheiten der beschriebenen Ausführungsformen können dargelegt werden, um ein vollständiges Verständnis der beispielhaften Ausführungsformen der vorliegenden Offenbarung zu liefern. Es ist dem Fachmann aber klar, dass die hier beschriebenen beispielhaften Ausführungsformen der vorliegenden Offenbarung nicht von anderen Anwendungen ausgeschlossen sind, in denen Grundprinzipien erforderlich sind, die unter den verschiedenen beispielhaften Ausführungsformen der vorliegenden Offenbarung vorherrschend sind, wie Betriebs-, Funktions- oder Leistungseigenschaften.
  • Wie nachfolgend im Einzelnen beschrieben, beinhalten verschiedene Ausführungsformen der vorliegenden Offenbarung eine elektronische Rechenvorrichtung mit einer Benutzerschnittstelle. Beispiele elektronischer Rechenvorrichtungen umfassen tragbare Spielkonsolen, Digitalkameras und mobile oder handgeführte drahtlose Kommunikationsvorrichtungen wie Pager, Mobiletelefone, zellulare Smartphones, drahtlose Organizer, Personal Digital Assistants, drahtlos betriebene Notebook-Computer und ähnliche Vorrichtungen. Die Benutzerschnittstelle registriert oder erfasst Eingabeereignisse über eine Eingabevorrichtung und führt Ausgabeereignisse über einen Bildschirm aus. Die Eingabevorrichtung ist zum Beispiel ein Touchscreen, ein Touchpad, und einer oder mehrere Näherungsdetektoren. In den meisten Ausführungsformen der vorliegenden Offenbarung erfasst die Eingabevorrichtung Zeigeobjekt(e) wie Finger, Eingabestift und Touchpens, die in der Nähe der Eingabevorrichtung positioniert sind. Die Vergrößerung eines spezifizierten Bereichs einer vom Bildschirm präsentierten grafischen und/oder Textinformation wird nach der Erfassung des/der Zeigeobjekts/-objekte durch die Eingabevorrichtung ausgeführt. Parameter der durch den Bildschirm ausgeführten Ausgabeereignisse, spezifischer, der Parameter des durch den Bildschirm ausgeführten Vergrößerungsereignisses (d. h. Vergrößerung eines Sichtfelds auf dem Bildschirm), hängen von Parametern der Eingabeereignisse ab, die von der Eingabevorrichtung erfasst werden. In mehreren Ausführungsformen der vorliegenden Offenbarung wird mindestens eine(r) von einem Vergrößerungsmaßstab, einer auf dem Bildschirm zu vergrößernden Sichtfeldgröße und einer Größe des vergrößerten Sichtfelds basierend auf einer Formel bestimmt, die mindestens einen/eine von dem Abstand des/der Zeigeobjekts/-objekte von der Eingabevorrichtung, der Verschiebegeschwindigkeit des/der Zeigeobjekts/-objekte zur Eingabevorrichtung, der Richtung, in der das Zeigeobjekt zur Eingabevorrichtung verschoben wird und der Bewegungsrichtung des Zeigeobjekts entlang einer Ebene der Eingabevorrichtung beinhaltet.
  • 1 veranschaulicht ein repräsentatives elektronisches Rechensystem 10, das eine Benutzerschnittstelle gemäß Ausführungsformen der vorliegenden Offenbarung aufnimmt.
  • Das in 1 gezeigte elektronische Rechensystem 10 ist in Personal Computer und besonderen Personal Digital Assistants (PDAs) vorhanden oder wird damit genutzt. Das elektronische Rechensystem 10 umfasst eine Verarbeitungseinheit 12; eine Eingabeeinheit 14, die mit einer oder mehreren Eingabevorrichtungen wie einem Touchscreen 16, einem Tastenfeld 18 und einer oder mehreren Eingabe-Schaltflächen 20 (solche Eingabevorrichtungen sind in 2 gezeigt) verbunden ist; eine Datenspeichereinheit 22; eine mit einem Bildschirm 26 verbundene Grafikeinheit 24; und eine Netzwerk-Schnittstelleneinheit 28, die die elektronische Rechenvorrichtung 10 an eine Telekommunikations-Station, und/oder ein Computernetzwerk wie ein Local Area Network (LAN), ein Wide Area Network (WAN), und/oder das Internet anschließt. Das elektronische Rechensystem 10 umfasst weiter einen Speicher 30, in dem sich ein Betriebssystem 32, ein Satz von Vorrichtungstreibern 34 und ein oder mehrere Teile eines Anwendungsprogramms 36 befinden. Schließlich umfasst das elektronische Rechensystem 10 mindestens einen Bus 38, mit dem jedes Element des elektronischen Rechensystems 10 verbunden ist, um die Kommunikation oder den Austausch von Steuersignalen und Daten zu erleichtern. Ein Fachmann versteht, dass die Architektur des elektronischen Rechensystems 10, wie es in 1 gezeigt ist, nach Bedarf verändert werden kann. Zum Beispiel sind in mehreren Ausführungsformen der vorliegenden Offenbarung nicht alle Bauteile des elektronischen Rechensystems 10 vorhanden.
  • Die Verarbeitungseinheit 12 umfasst einen oder mehrere Prozessoren (z. B. mindestens einen Mikroprozessor und/oder Mikrocontroller), die gespeicherte Programmbefehle anwenden können. Die Datenspeichereinheit 22 umfasst eine oder mehrere Arten von festen und/oder entfernbaren Datenspeichervorrichtungen oder -elementen, sowie dementsprechende Speichermedien. Zum Beispiel kann die Datenspeichereinheit 22 einen Festplatten-Treiber, einen DVD- oder CD-ROM-Treiber, und/oder einen US-Flash-Treiber umfassen. Der Speicher 30 umfasst eine oder mehrere Arten von flüchtigen und/oder nicht-flüchtigen Speichern, wie einen Registersatz, ein Random Access Memory (RAM), und ein Read Only Memory (ROM). Teile der Datenspeichereinheit 22 und/oder des Speichers 30 können ein oder mehrere computerprogrammierbare oder -lesbare Medien bilden, in denen sich Teile eines Anwendungsprogramms und/oder von Programmbefehlen eines oder mehrerer Vorrichtungs-Treiber 34, gemäß Ausführungsformen der vorliegenden Offenbarung befinden.
  • 2 und 3 zeigen eine elektronische Rechenvorrichtung 15 gemäß mehreren Ausführungsformen der vorliegenden Offenbarung. In mehreren Ausführungsformen der vorliegenden Offenbarung umfasst die elektronische Rechenvorrichtung 15 der 2 die Bauteile des elektronischen Rechensystems 10 wie in 1 gezeigt. Die elektronische Rechenvorrichtung 15 umfasst oder enthält eine Touchscreen-Schnittstelle 42, die als Benutzerschnittstelle arbeitet. Die Touchscreen-Schnittstelle 42 umfasst den Touchscreen 16 und den Bildschirm 26. Der Touchscreen 16 überlagert zumindest einen Teil des Bildschirms 26. In anderen Ausführungsformen der vorliegenden Offenbarung ist es möglich, dass der Touchscreen 16 durch ein Touchpad oder eine ähnliche Nähenerfassungsvorrichtung ersetzt wird, die sich an einem anderen Standort vom Bildschirm 26 befindet. Der Touchscreen 16 arbeitet als Eingabeeinrichtung für die elektronische Rechenvorrichtung 15 und registriert dementsprechend Eingabeereignisse. In mehreren Ausführungsformen der vorliegenden Offenbarung erfasst oder registriert der Touchscreen 16 Zeigeobjekt(e) 40, die nahe (d. h., in einem Abstand von) dem Touchscreen 16 positioniert sind. In manchen Ausführungsformen der vorliegenden Offenbarung registriert der Touchscreen 16 auch Zeigeobjekt(e) 40, die in direktem physikalischem Kontakt mit dem Touchscreen 16 positioniert sind. Der Bildschirm 26 führt Ausgabeereignisse der elektronischen Rechenvorrichtung 15 aus. Der Bildschirm 26 zeigt grafische und/oder Textinformationen dem Benutzer der elektronischen Rechenvorrichtung 15 an. Typischerweise verwendet der Bildschirm 26 eine von lichtemittierenden Dioden (LEDs), Kathodenstrahlröhre (CRT), und Plasmaanzeigetechnologie zur Anzeige der grafischen und/oder Textinformation für den Benutzer. In mehreren Ausführungsformen der vorliegenden Offenbarung sind Ausgabeereignisse Vergrößerungsereignisse, die eine Vergrößerung eines Sichtfelds (d. h. eines Bereichs von grafischer und/oder Textinformation) auf dem Bildschirm 26 beinhalten.
  • Der Touchscreen 16 kann eine Anzahl von Touchscreen-abtastenden Technologien für den Empfang von Eingabeereignissen (d. h., zum Erfassen oder Registrieren von Zeigeobjekt(en) 40) verwenden. Touchscreen-Abtasttechnologien umfassen, sind aber nicht beschränkt auf, kapazitive, resistive, Projected-Capacity-, optische (Infrarot), elektrische Feld-, induktive, akustische Oberflächenwellen- und akustische Emissions-Technologien. Beschreibungen einer Anzahl von beispielhaften Touchscreen-Abtasttechnologien werden nachfolgend geliefert. Ein Fachmann versteht aber, das jede Kombination der beschriebenen Touchscreen-Abtasttechnologien verwendet werden kann. Zusätzlich können andere Touchscreen-Abtasttechnologien und Näherungs-Abtasttechnologien, die hier nicht beschrieben sind, auch mit dem Touchscreen 16 verwendet werden.
  • Kapazitive Touchscreen-Technologie
  • Ein kapazitiver Touchscreen ist mit einem Material beschichtet, zum Beispiel Indium-Zinn-Oxid, das einen durchgehenden elektrischen Strom über den Touchscreen führt. Der Touchscreen erreicht eine Kapazität, oder besitzt ein präzise gesteuertes Feld gespeicherter Elektronik in sowohl der waagrechten als auch der senkrechten Achse des Touchscreens. Der kapazitive Touchscreen erfasst oder registriert ein Zeigeobjekt, das in der Nähe positioniert oder mit ihm in Kontakt ist, durch Erfassen von Kapazitätsänderungen neben dem kapazitiven Touchscreen. Das Zeigeobjekt muss keinen physikalischen Kontakt mit dem kapazitiven Touchscreen aufnehmen, um durch den kapazitiven Touchscreen erfasst zu werden. Das Zeigeobjekt muss eine Kapazität aufweisen, um vom kapazitiven Touchscreen erfasst zu werden. Beispiele von Zeigeobjekten, die mit dem kapazitiven Touchscreen verwendet werden können, umfassen Finger und einen Conductive-Pen-Eingabestift.
  • Optische Infrarot-Touchscreen-Technologie
  • Ein Touchscreen, der die optische Infrarot-Technologie verwendet oder einbezieht, umfasst ein Array von Infrarotlicht (IR) emittierenden Dioden (LEDs), die an zwei benachbarten Rahmenkanten des Touchscreens positioniert sind, und Fotosensoren, die an zwei gegenüberliegenden Rahmenkanten des Touchscreens positioniert sind. Die IR-LEDs und Fotosensoren formen zusammen ein Raster von IR-Lichtstrahlen über die Fläche des Touchscreens. Die IR-LEDs emittieren Impulse von IR-Lichtstrahlen, die von den Fotosensoren erfasst werden. Wenn ein Zeigeobjekt in der Nähe oder in physikalischem Kontakt mit dem Touchscreen positioniert wird, werden die IR-Strahlen unterbrochen, was zu einer messbaren Abnahme des von den Fotosensoren erfassten Lichts führt. Die messbare Abnahme des von den Fotosensoren erfassten Lichts wird verarbeitet, um das Zeigeobjekt zu lokalisieren (d. h., Bestimmen von Koordinaten des Zeigeobjekts bezüglich des Touchscreens).
  • In verschiedenen Ausführungsformen der vorliegenden Offenbarung, einschließlich der in 2 gezeigten, ist die Eingabeeinheit 14 der elektronischen Rechenvorrichtung 15 mit einer oder mehr anderen Eingabevorrichtungen außer dem Touchscreen 16 verbunden, zum Beispiel dem Tastenfeld 18 und den Eingabe-Schaltflächen 20. Mehrere Eingabevorrichtungen zu haben, liefert der elektronischen Rechenvorrichtung 15 viele Eingabeoptionen. Jede Eingabevorrichtung empfängt Eingabeereignisse und erzeugt entsprechende Eingabesignale, die dann über den Bus 38 an die Verarbeitungseinheit 12 (d. h. ein Modul der elektronischen Rechenvorrichtung 15 für Verarbeitungs-Eingabesignale) übertragen werden. Die Verarbeitungseinheit 12 verarbeitet die Eingabesignale, um Parameter, Merkmale und Eigenschaften der entsprechenden Eingabeereignisse zu bestimmen (d. h. Daten bezüglich der entsprechenden Eingabeereignisse). Die Verarbeitungseinheit 12 erzeugt Ausgabedaten, die an eine oder mehr Ausgabevorrichtungen zur Erzeugung von Ausgabeereignissen übertragen werden. Die Verarbeitungseinheit 12 kann gleichzeitig viele Eingabesignale (erzeugt von vielen Eingabeereignissen) verarbeiten, die an die Verarbeitungseinheit 12 von vielen Eingabevorrichtungen übertragen werden.
  • In mehreren Ausführungsformen der vorliegenden Offenbarung können Anwendungsprogramme, Konfigurationseinstellungen und/oder Programmbefehle, die die Umsetzung von Eingabeereignissen in Ausgabeereignisse steuern, an Speicherstellen und/oder in einer Datei gespeichert werden, die sich in der Datenspeichereinheit 22 befinden. Spezieller erleichtern die Anwendungsprogramme, Programmbefehle und/oder Konfigurationseinstellungen die Korrelation zwischen vom Touchscreen 16 erfassten Eingabeereignissen (und von diesen Eingabeereignissen erzeugten entsprechenden Signalen) und von durch den Bildschirm 26 ausgeführten Ausgabeereignissen. Solche Anwendungsprogramme, Programmbefehle und/oder Konfigurationseinstellungen können verändert (d. h., (re)konfiguriert oder (neu)programmiert) werden, wie vom Benutzer der elektronischen Rechenvorrichtung 15 gefordert.
  • In verschiedenen Ausführungsformen der vorliegenden Offenbarung kann der Touchscreen 16 (ein) zeigende(s) Objekt(e) 40 erfassen, das/die in direktem physikalischem Kontakt mit dem Touchscreen 16 positioniert ist/sind (d. h., das Eingabeereignis ist ein physikalischer Kontakt des/der Zeigeobjekts/-objekte 40 mit dem Touchscreen 16). In mehreren Ausführungsformen der vorliegenden Offenbarung kann der Touchscreen 16 weiter ein Zeigeobjekt/Zeigeobjekte 40 erfassen, das/die in der Nähe des Touchscreens 16 positioniert ist(sind (d. h., das Eingabeereignis ist die Erfassung eines Zeigeobjekts/von Zeigeobjekten 40 in der Nähe des Touchscreens 16). Zusätzlich kann der Touchscreen-Treiber konfiguriert oder programmiert werden, um einen Auslöseabstand (auch als erster Bezugsabstand bezeichnet) auszuwählen oder einzustellen. Der Auslöseabstand oder erste Bezugsabstand ist der Abstand vom Touchscreen 16, in dem das/die Zeigeobjekt(e) 40 zuerst vom Touchscreen 16 erfasst werden kann/können.
  • Wie oben erwähnt, kann die Verarbeitungseinheit 12 Eingabesignale verarbeiten; um Parameter, Merkmale oder Eigenschaften der Eingabeereignisse zu bestimmen (d. h., um einen Datensatz entsprechend dem Eingabeereignis zu bestimmen). In verschiedenen Ausführungsformen der vorliegenden Offenbarung kann die elektronische Rechenvorrichtung 15 den Abstand (d. h., Z-Achse-Abstand) des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 bestimmen. Die Z-Achse wird durch eine lotrechte Linie zwischen dem/den Zeigeobjekt(en) 40, das/die in der Nähe des Touchscreen 16 positioniert ist/sind, und dem Touchscreen 16 definiert. In anderen Ausführungsformen der vorliegenden Offenbarung kann die elektronische Rechenvorrichtung 15 weiter mindestens eine(n) von der Verschiebegeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16, dem Standort des/der Zeigeobjekts/-objekte 40 bezüglich des Touchscreens 16, der Annäherungsrichtung des/der Zeigeobjekts/-objekte 40, das/die zum Touchscreen 16 verschoben wird/werden, und der X-Y-Verschiebung des/der Zeigeobjekts/-objekte 40 entlang einer Ebene des Touchscreens 16 (d. h. einer Fläche des Touchscreens 16) bestimmen.
  • In mehreren Ausführungsformen der vorliegenden Offenbarung steuern Programmbefehle und/oder Konfigurationsdaten des Touchscreen-Treibers zumindest teilweise die Verarbeitung der Eingabesignale vom Touchscreen 16 durch die Verarbeitungseinheit 12. In verschiedenen Ausführungsformen sind andere Anwendungsprogramme und/oder Programmbefehle an der Verarbeitung von Eingabesignalen, die vom Touchscreen 16 durch die Verarbeitungseinheit 12 empfangen werden, beteiligt.
  • In den meisten Ausführungsformen der vorliegenden Offenbarung verarbeitet die Verarbeitungseinheit 12 die Eingabesignale, um den Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 zu bestimmen. In mehreren Ausführungsformen der vorliegenden Offenbarung verarbeitet die Verarbeitungseinheit 12 die Eingabesignale zur weiteren Bestimmung mindestens einer/eines von der Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16, dem Standort des/der Zeigeobjekts/-objekte 40 bezüglich des Touchscreens 16, der Annäherungsrichtung des/der Zeigeobjekts/-objekte 40 bezüglich des Touchscreens 16, und der X-Y-Verschiebung des/der Zeigeobjekts/-objekte 40 bezüglich einer Ebene des Touchscreens 16.
  • Die Verarbeitungseinheit 12 setzt Eingabesignale in Ausgabedaten oder Ausgabesignale um, die an den Bildschirm 26 gesendet werden, um Ausgabeereignisse auszuführen oder zu vereinfachen. Die Parameter, Merkmale oder Eigenschaften der Eingabeereignisse werden zur Bestimmung von Parametern, Merkmalen oder Eigenschaften der Ausgabeereignisse verwendet. Das bedeutet, dass Daten bezüglich der Eingabeereignisse zur Bestimmung oder Erzeugung von Daten bezüglich der Ausgabeereignisse verwendet werden. Wenn das Ausgabeereignis ein Vergrößerungsereignis ist (d. h., Vergrößerung eines auf dem Bildschirm 26 angezeigten Bereichs), umfassen die Parameter, Merkmale oder Eigenschaften des Vergrößerungsereignisses einen Vergrößerungsfaktor, eine Sichtfeldgröße zur Vergrößerung (verschiedene Sichtfeldgrößen sind in 4a veranschaulicht), und die Größe des resultierenden vergrößerten Sichtfelds (verschiedene Größen des resultierenden vergrößerten Sichtfelds sind in 4b veranschaulicht). Anwendungsprogramme, Konfigurationseinstellungen, und/oder Programmbefehle erleichtern die Umsetzung oder Korrelation zwischen Eingabeereignissen des Touchscreens 16 (und von solchen Eingabeereignissen erzeugten Eingabesignalen) und Ausgabedaten zur Erzeugung entsprechender Ausgabeereignisse, spezieller von Vergrößerungsereignissen, die durch den Bildschirm 26 ausgeführt werden.
  • Wie oben erwähnt, ist das Ausgabeereignis mehrerer Ausführungsformen der vorliegenden Offenbarung das Vergrößerungsereignis, das die Vergrößerung eines Bereichs einer grafischen und/oder Textinformation beinhaltet, die vom Bildschirm 26 dargestellt wird. Der Bereich der grafischen und/oder Textinformation, der auf dem Bildschirm 26 vergrößert wird/werden soll, wird als ein Sichtfeld bezeichnet. In verschiedenen Ausführungsformen der vorliegenden Offenbarung spezifizieren die Ausgabedaten den Standort des vergrößerten Sichtfelds. Der Standort des vergrößerten Sichtfelds auf dem Bildschirm 26 entspricht der Position des/der Zeigeobjekts/-objekte 40 bezüglich des Touchscreens 16 in den meisten Ausführungsformen der vorliegenden Offenbarung. In verschiedenen Ausführungsformen der vorliegenden Offenbarung folgt das vergrößerte Sichtfeld dem Zeigeobjekt 40, wenn das Zeigeobjekt 40 entlang der Ebene des Touchscreens 16 verschoben wird. In anderen Ausführungsformen der vorliegenden Offenbarung wird das Sichtfeld auf dem Bildschirm 26 dynamisch ausgewählt und ändert sich in Korrelation mit der Verschiebung des Zeigeobjekts 40 entlang der Ebene des Bildschirms 26. In verschiedenen Ausführungsformen der vorliegenden Offenbarung spezifizieren die Ausgabedaten die Größe des zu vergrößernden Sichtfelds. In mehreren Ausführungsformen der vorliegenden Offenbarung spezifizieren die Ausgabedaten weiter die Größe des vergrößerten Sichtfelds (d. h. die resultierende Größe des vergrößerten Sichtfelds). In mehreren Ausführungsformen der vorliegenden Offenbarung spezifizieren die Ausgabedaten weiter die Form des Sichtfelds. In manchen Ausführungsformen der vorliegenden Offenbarung diktieren die Ausgabedaten weiter den Vergrößerungsmaßstab oder Vergrößerungsfaktor des Sichtfelds.
  • Ein Größenbereich des zu vergrößernden Sichtfelds, ein Größenbereich für resultierende vergrößerte Sichtfelder, sowie ein Maßstabsbereich der Vergrößerung können vorbestimmt, vorprogrammiert und in der Datenspeichereinheit 22 gespeichert werden. Die Auswahl jeder/jedes von der zu vergrößernden Sichtfeldgröße, der Größe des resultierenden vergrößerten Sichtfelds und dem Vergrößerungsmaßstab des Vergrößerungsereignisses (d. h. Parameter des Vergrößerungsereignisses) kann auf der Basis von Parametern des Eingabeereignisses bestimmt werden, wie sie von der Verarbeitungseinheit 12 bestimmt werden. In manchen Ausführungsformen der vorliegenden Offenbarung können die Auswahl jeder/jedes von der zu vergrößernden Sichtfeldgröße, der Größe des resultierenden vergrößerten Sichtfelds und dem Vergrößerungsmaßstab durch Eingabesignale beeinflusst werden, die von anderen Eingabevorrichtungen empfangen werden (d. h., durch von anderen Eingabevorrichtungen erfasste Eingabeereignisse).
  • In verschiedenen Ausführungsformen der vorliegenden Offenbarung erleichtern die von vom Touchscreen 16 empfangenen Eingabesignalen erzeugten Ausgabedaten weiter das Anhalten und/oder darauffolgende Neustarten des vergrößerten Sichtfelds. In den meisten Ausführungsformen der vorliegenden Erfindung hängt das Anhalten und/oder Neustarten des vergrößerten Sichtfelds zumindest teilweise vom Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 ab.
  • In verschiedenen Ausführungsformen der vorliegenden Offenbarung werden die Ausgabedaten weiter als Reaktion auf andere Eingabesignale erzeugt, die von anderen Eingabevorrichtungen außer dem Touchscreen 16 empfangen werden (z. B. vom Tastenfeld 18 oder den Eingabe-Schaltflächen 20 empfangene Eingabesignale). Zum Beispiel kann das Anhalten und/oder der Neustart des vergrößerten Sichtfelds zumindest teilweise von der Betätigung des Tastenfelds 18 oder der Eingabe-Schaltfläche 20 der elektronischen Rechenvorrichtung 15 abhängen.
  • Wie oben erleichtert die Touchscreen-Schnittstelle 42 der elektronischen Rechenvorrichtung 15 gemäß Ausführungsformen der vorliegenden Offenbarung die Steuerung der Vergrößerung vorbestimmter Bereiche von grafischer und/oder Textinformation, die auf dem Bildschirm 26 angezeigt wird (d. h. Sichtfelder auf dem Bildschirm). Die Funktionalität der Vergrößerung des Sichtfelds auf dem Bildschirm 26 erhöht die Bequemlichkeit des Ansehens der und die Auswahl von Icons innerhalb des resultierenden vergrößerten Sichtfelds auf dem Bildschirm 26.
  • Aus Gründen der Kürze und der Klarheit beziehen verschiedene nachfolgend beschriebene Ausführungsformen der vorliegenden Offenbarung sich auf Verfahren und Prozesse, die die Verwendung der Touchscreen-Schnittstelle 42 als Haupt- oder Schlüssel-Benutzerschnittstelle der elektronischen Rechenvorrichtung 15 beinhalten. Die Touchscreen-Schnittstelle 42 weist den Touchscreen 16 und den Bildschirm 26 auf. Einem Fachmann ist klar, dass die Touchscreen-Schnittstelle 42 durch eine alternative Art von Benutzerschnittstelle ersetzt werden kann, die Touchpads oder Näherungssensor(en) als Eingabevorrichtung(en) beinhaltet.
  • 5 ist ein Flussdiagramm eines Touchscreen-Schnittstellen-Verfahrens 100 (oder Benutzerschnittstellen-Verfahrens) gemäß einer Ausführungsform der vorliegenden Offenbarung. Ein erster Verfahrensschritt 110 des Touchscreen-Schnittstellen-Verfahrens 100 beinhaltet die Durchführung eines Programmierungs- oder Setup-Prozesses 200, der von Ausführungsformen der vorliegenden Offenbarung geliefert wird. Der Programmierungsprozess 200 beinhaltet die Erzeugung und Speicherung einer Touchscreen-Schnittstellen-Programmanwendung (d. h., eines Satzes von Programmbefehlen für die Touchscreen-Schnittstelle 42). Die Touchscreen-Schnittstellen-Programmanwendung kann zumindest einen Teil der Konfigurationseinstellungen des Touchscreen-Treibers umfassen. Die Touchscreen-Schnittstellen-Programmanwendung steuert die Umsetzung von Eingabeereignissen, die vom Touchscreen 16 erfasst werden, in Ausgabeereignisse, spezieller Vergrößerungsereignisse, ausgeführt durch den Bildschirm 26.
  • In einem zweiten Verfahrensschritt 120 wird ein Eingabeereignis vom Touchscreen 16 erfasst oder registriert. In mehreren Ausführungsformen der vorliegenden Offenbarung beinhaltet das Eingabeereignis die Erfassung des/der Zeigeobjekts/-objekte 40 durch den Touchscreen 16. Spezieller beinhaltet das Eingabeereignis die Erfassung des/der Zeigeobjekts/-objekte 40, das/die in der Nähe zu (d. h., in einem Abstand von) dem Touchscreen 16 positioniert ist/sind. Die Erfassung des Eingabeereignisses löst die Erzeugung von Eingabesignalen durch den Touchscreen 16 aus. Die Eingabesignale werden über den Bus 38 an die Verarbeitungseinheit 12 übertragen.
  • Eingabesignale werden in einem dritten Verfahrensschritt 130 des Touchscreen-Schnittstellen-Verfahrens 100 von der Verarbeitungseinheit 12 verarbeitet. Die Verarbeitung der Eingabesignale ermöglicht die Bestimmung von Daten bezüglich des Eingabeereignisses (d. h. Parameter, Merkmale, oder Eigenschaften des Eingabeereignisses). In manchen Ausführungsformen der vorliegenden Offenbarung ermöglicht die Verarbeitung der Eingabesignale die Bestimmung des Abstands des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16. In verschiedenen Ausführungsformen der vorliegenden Offenbarung beinhaltet der dritte Verfahrensschritt weiter die Bestimmung der Annäherungs- oder Verschiebungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16. In mehr Ausführungsformen der vorliegenden Offenbarung beinhaltet der dritte Verfahrensschritt weiter die Bestimmung der Verschieberichtung des/der Zeigeobjekts/-objekte 40 zum Touchscreen und/oder der Verschieberichtung des/der Zeigeobjekts/-objekte 40 entlang einer Ebene des Touchscreens 16. Die Bestimmung von Parameter der Eingabeereignisse erleichtert die Auswahl oder Erzeugung von Ausgabedaten in einem vierten Verfahrensschritt 140. In Ausführungsformen der vorliegenden Offenbarung werden die Ausgabedaten unter Beachtung der verarbeiteten Eingabesignale erzeugt. Ein fünfter Verfahrensschritt 150 des Touchscreen-Schnittstellen-Verfahrens 100 beinhaltet die Übertragung der Ausgabedaten zum Bildschirm 26 zur Ausführung von Ausgabeereignissen, spezieller zur Ausführung von Vergrößerungsereignissen, die die Vergrößerung von durch den Bildschirm 26 dargestellter grafischer und/oder Textinformation beinhaltet.
  • Wie oben erwähnt, beinhaltet der erste Verfahrensschritt 110 des Touchscreen-Schnittstellen-Verfahrens 100 die Durchführung eines Programmierungsprozesses 200, der durch Ausführungsformen der vorliegenden Offenbarung geliefert wird. Ein Flussdiagramm des Programmierungsprozesses 200 ist in 6 gezeigt.
  • In einem ersten Prozessteil 210 des Programmierungsprozesses 200 wird ein erster Bezugsabstand (auch als Auslöseabstand bekannt) vom Touchscreen 16 bestimmt und gespeichert. Der erste Bezugsabstand entspricht einem Abstand vom Touchscreen 16, in dem das/die Zeigeobjekt(e) 40 zuerst vom Touchscreen 16 erfasst oder registriert werden kann/können. Der erste Bezugsabstand kann nach Wunsch des Benutzers geändert werden. Der erste Bezugsabstand kann während des normalen Betriebs der elektronischen Rechenvorrichtung 15 geändert werden.
  • Ein zweiter Prozessteil 220 des Programmierungsprozesses 200 beinhaltet die Bestimmung und Speicherung eines Bereichs von Vergrößerungsmaßstäben oder Vergrößerungsfaktoren, durch die das Sichtfeld auf dem Bildschirm 26 vergrößert werden kann. In bestimmten Ausführungsformen der vorliegenden Offenbarung ist jeder Vergrößerungsfaktor innerhalb des Bereichs von Vergrößerumgsfaktoren mit einem vorbestimmten Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 verbunden. Dementsprechend hängt der Vergrößerungsfaktor des Sichtfelds vom Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 ab. In anderen Ausführungsformen der vorliegenden Erfindung ist jeder Vergrößerungsfaktor innerhalb des Bereichs von Vergrößerungsfaktoren mit einer vorbestimmten Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 verbunden. Dementsprechend hängt der Vergrößerungsfaktor des Sichtfelds von der Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 ab. In noch anderen Ausführungsformen der vorliegenden Offenbarung hängt jeder Vergrößerungsfaktor des Bereichs von Vergrößerungsfaktoren zumindest teilweise von einem oder mehr anderen Eingabeereignissen ab (z. B. Verschieberichtung des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16, Verschieberichtung des Zeigeobjekts entlang einer Ebene des Touchscreens 16, eine Betätigung einer anderen Eingabevorrichtung, und/oder die Auswahl eines auf dem Bildschirm 26 angezeigten Icons).
  • In einem dritten Prozessteil 230 des Programmierungsprozesses 200 wird ein Bereich von Größen (d. h. Bereichen) des Sichtfelds bestimmt und gespeichert. In verschiedenen Ausführungsformen der vorliegenden Offenbarung kann die Form des Sichtfelds weiter bestimmt und gespeichert werden. Die Größe des Sichtfelds kann durch ein kartesisches Koordinatensystem definiert werden. Spezieller kann die Größe des Sichtfelds durch einen Wert auf der X-Achse (oder waagrechten Achse) und einen Wert auf der Y-Achse (oder senkrechten Achse) entlang der Ebene des Bildschirms 26 definiert werden. Der Wert auf jeder der X-Achse und der Y-Achse wird von der Z-Achse gemessen, die von einer lotrechten Linie bestimmt wird, die zwischen dem Zeigeobjekt 40 und dem Touchscreen 16 verläuft. Der Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 ist ein Wert auf der Z-Achse.
  • In bestimmten Ausführungsformen der vorliegenden Offenbarung ist die Größe des Sichtfelds mit einem vorbestimmten Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 verbunden. Dementsprechend hängt die Größe des Sichtfelds vom Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 ab. In anderen Ausführungsformen der vorliegenden Erfindung ist die Größe des Sichtfelds mit einer vorbestimmten Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 verbunden. Dementsprechend hängt die Größe des Sichtfelds von der Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 ab. In noch anderen Ausführungsformen der vorliegenden Offenbarung hängt die Größe des Sichtfelds zumindest teilweise von einem oder mehr anderen Eingabeereignissen ab (z. B. Verschieberichtung des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16, Verschieberichtung des/der Zeigeobjekts/-objekte 40 entlang der Ebene des Touchscreens 16, Betätigung einer anderen Eingabevorrichtung und/oder Auswahl eines auf dem Bildschirm 26 angezeigten Icons).
  • In einem vierten Prozessteil 230 des Programmierungsprozesses 200 wird ein Größenbereich für ein resultierendes vergrößertes Sichtfeld bestimmt und gespeichert. Die Größe des resultierenden vergrößerten Sichtfelds kann als die Größe bezeichnet werden, bis zu der das Sichtfeld, wenn es vergrößert ist, reicht. In bestimmten Ausführungsformen der vorliegenden Offenbarung ist die Größe des resultierenden vergrößerten Sichtfelds mit einem vorbestimmten Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 verbunden. Dementsprechend hängt die Größe des resultierenden vergrößerten Sichtfelds vom Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 ab. In anderen Ausführungsformen der vorliegenden Erfindung ist die Größe des resultierenden vergrößerten Sichtfelds mit einer vorbestimmten Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 verbunden. Dementsprechend hängt die Größe des resultierenden vergrößerten Sichtfelds von der Annäherungsgeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 ab. In noch anderen Ausführungsformen der vorliegenden Offenbarung hängt die Größe des resultierenden vergrößerten Sichtfelds zumindest teilweise von einem oder mehr anderen Eingabeereignissen (z. B. Verschieberichtung des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16, Verschieberichtung des/der Zeigeobjekts/-objekte 40 entlang der Ebene des Touchscreens 16, Betätigung einer anderen Eingabevorrichtung und/oder Auswahl eines auf dem Bildschirm 26 angezeigten Icons) ab.
  • Ein Prozessteil 250 beinhaltet die Bestimmung eines zweiten Bezugsabstands (auch als eine Abbildung anhaltender Abstand bekannt). Der zweite Bezugsabstand entspricht einem Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16, in dem das resultierende vergrößerte Sichtfeld auf dem Bildschirm 26 angehalten oder festgehalten werden kann. In den meisten Ausführungsformen ist der zweite Bezugsabstand kleiner als der erste Bezugsabstand. In manchen Ausführungsformen wird das resultierende vergrößerte Sichtfeld auf dem Bildschirm 26 bei Auftreten eines zusätzlichen oder alternativen Eingabeereignisses angehalten (d. h., Eingabe eines anderen oder alternativen Eingabesignals), zum Beispiel der Betätigung einer Eingabe-Schaltfläche 20. Die Fähigkeit, das resultierende vergrößerte Sichtfeld anzuhalten, ermöglicht es dem Benutzer, eine angehaltene vergrößerte Abbildung (d. h., einen vergrößerten Bereich einer grafischen und/oder Textinformation) auf dem Bildschirm 26 anzusehen. Dies erhöht die Bequemlichkeit des Ansehens einer auf dem Bildschirm 26 angezeigten grafischen und/oder Textinformation, und/oder die Bequemlichkeit der Eingaben des Benutzers in die elektronische Rechenvorrichtung 10 über den Touchscreen 16 (z. B. Auswählen eines Icons, das innerhalb des resultierenden vergrößerten Sichtfelds gefunden wurde).
  • Ein Prozessteil 260 beinhaltet die Bestimmung eines dritten Bezugsabstands (auch als eine Abbildung neu startender Abstand bekannt). Der dritte Bezugsabstand entspricht einem Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16, in dem ein angehaltenes vergrößertes Sichtfeld neu gestartet werden kann. In manchen Ausführungsformen kann der Neustart des angehaltenen vergrößerten. Sichtfelds mit einem anderen oder alternativen Eingabeereignis (d. h., mit einem anderen oder alternativen Eingabesignal) durchgeführt werden, zum Beispiel der Betätigung einer Eingabe-Schaltfläche 20. Jeder der zweiten und dritten Bezugsabstände kann nach Wunsch des Benutzers während des normalen Betriebs der elektronischen Rechenvorrichtung 10 variiert werden.
  • Es ist einem Fachmann klar, dass die oben beschriebenen Prozessteile 210 bis 260 des Setup-Prozesses 200 nach Wunsche des Benutzers (neu) angeordnet werden können.
  • Zusätzlich ist es einem Fachmann klar, dass irgendeiner oder mehr der Schritte 210 bis 260 nach Wunsch des Benutzers verändert oder entfernt werden kann.
  • Wie oben beschrieben, beinhaltet der zweite Verfahrensschritt 120 des Touchscreen-Schnittstellen-Verfahrens 100 die Erfassung oder Registrierung von Eingabeereignissen. Die Erfassung des Eingabeereignisses löst die Erzeugung von Eingabesignalen durch den Touchscreen 16 aus, die über den Bus 38 an die Verarbeitungseinheit übertragen werden. Der dritte Verfahrensschritt 130 beinhaltet die Verarbeitung der Eingabesignale zur Bestimmung von Parametern, Merkmalen oder Eigenschaften der Eingabeereignisse.
  • Die Ausgabedaten werden basierend auf den bestimmten Parametern, Merkmalen oder Eigenschaften der Eingabeereignisse (d. h. Daten bezüglich des Eingabeereignisses) erzeugt. In den meisten Ausführungsformen der vorliegenden Offenbarung hängen die Ausgabedaten von mindestens einem/einer von dem Abstand des/der Zeigeobjekts/objekte 40 vom Touchscreen 16, der Verschiebegeschwindigkeit des/der Zeigeobjekts/objekte 40 zum Touchscreen 16, der Verschieberichtung des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 und der Verschieberichtung des/der Zeigeobjekts/-objekte 40 entlang der Ebene des Touchscreens 16 ab. Die Ausgabedaten werden im fünften Verfahrensschritt 150 an den Bildschirm 26 zur Erzeugung entsprechender Ausgabeereignisse, spezieller Vergrößerungsereignisse, übertragen. In den meisten Ausführungsformen der vorliegenden Offenbarung beinhaltet der fünfte Verfahrensschritt 150 die Vergrößerung eines Bereichs einer auf dem Bildschirm 26 dargestellten grafischen und/oder Textinformation (d. h., Sichtfeld auf dem Bildschirm). Parameter, Merkmale oder Eigenschaften des Ausgabeereignisses, spezieller Vergrößerungsereignisses, hängen von den Ausgabedaten, die von der Verarbeitungseinheit erzeugt werden, und dementsprechend von einem oder mehr Parametern, Merkmalen oder Eigenschaften des Eingabeereignisses ab.
  • In mehreren Ausführungsformen der vorliegenden Offenbarung hängt der Vergrößerungsmaßstab oder Vergrößerungsfaktor des vergrößerten Bereichs von einem oder mehr von dem Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16, der Verschiebegeschwindigkeit des/der Zeigeobjekts/-objekte 40 zum Touchscreen 16 und der Richtung, in der das (die) Zeigeobjekt(e) 40 zum Touchscreen 16 verschoben wird, und der Verschieberichtung des Zeigeobjekts 40 entlang der Ebene Touchscreen 16, wie durch die Verarbeitung der Eingabesignale bestimmt, ab. In manchen Ausführungsformen der vorliegenden Offenbarung hängt die Größe des zu vergrößernden Sichtfelds (d. h. zur Vergrößerung) von einem/einer oder mehr von dem Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16, der Geschwindigkeit des/der Zeigeobjekt(e) 40, das/die zum Touchscreen 16 verschoben wird/werden, und der Richtung, in der das/die Zeigeobjekt(e) 40 zum Touchscreen 16 verschoben wird/werden, und der Verschieberichtung des Zeigeobjekts 40 entlang der Ebene des Touchscreens 16 ab, wie es mittels der Verarbeitung der Eingabesignale bestimmt wird. In mehreren Ausführungsformen der vorliegenden Offenbarung hängt die Größe des resultierenden vergrößerten Sichtfelds von einem/einer oder mehr von dem Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16, der Geschwindigkeit des/der Zeigeobjekt(e) 40, das/die zum Touchscreen 16 verschoben wird/werden, und der Richtung, in der das/die Zeigeobjekt/-objekte 40 zum Touchscreen 16 verschoben wird/werden, und der Verschieberichtung des Zeigeobjekts 40 entlang der Ebene des Touchscreens 16 ab, wie mittels der Verarbeitung der Eingabesignale bestimmt wird. In mehreren Ausführungsformen der vorliegenden Offenbarung hängt das Anhalten und nachfolgende Neustarten der vergrößerten Abbildung vom Abstand des/der Zeigeobjekts/-objekte 40 vom Touchscreen 16 ab.
  • Obwohl Ausführungsformen der vorliegenden Offenbarung wie oben vorgesehen sich auf die Touchscreen-Schnittstelle 42 beziehen, kann ein Fachmann verstehen, dass andere Eingabeereignisse, die durch alternative Eingabevorrichtungen (z. B. das Tastenfeld 18 und die Eingabe-Schaltfläche 20) vermittelt werden, um entsprechende Eingabesignale zu erzeugen, auch in Betracht gezogen werden können, um einen oder mehr der Parameter, Merkmale, oder Eigenschaften des Ausgabeereignisses zu steuern. Zum Beispiel kann mindestens einer/eine von einem Vergrößerungsmaßstab, einer zu vergrößernden Sichtfeldgröße, und/oder einer Größe des resultierenden vergrößerten Sichtfelds, einem Anhalten und Neustarten des resultierenden vergrößerten Sichtfelds durch Betätigung der Eingabe-Schaltfläche 20, einer Eingabe über das Tastenfeld 18, einer Erfassung eines (von) zusätzlich eingegebenen Zeigeobjekts/-objekten 40 durch den Touchscreen 16, sowie anderen in der Technik bekannten Eingabeereignissen gesteuert oder bestimmt werden. Es ist einem Fachmann auch klar, dass die Verarbeitungseinheit andere Anwendungsprogramme, Rechenprogramme, Konfigurationsdaten, und/oder dergleichen zur Durchführung anderer oben nicht beschriebener Funktionen ausführen kann.
  • Die Vergrößerung einer auf dem Bildschirm 26 angezeigten grafischen und/oder Textinformation steigert die Bequemlichkeit des Ansehens einer grafischen und/oder Textinformation (z. B. Text, Icons, Abbildungen, Bilder), die auf dem Bildschirm 26 angezeigt wird. Zusätzlich erhöht die Vergrößerung einer auf dem Bildschirm 26 angezeigten grafischen und/oder Textinformation die Bequemlichkeit, mit der der Benutzer Befehle über den Touchscreen 16 eingeben kann. In bestimmten Ausführungsformen der vorliegenden Offenbarung kann der Benutzer ein Icon auswählen, das sich innerhalb des vergrößerten Bereichs befindet. Die Auswahl des Icons innerhalb des vergrößerten Sichtfelds kann durch Betätigung einer Eingabe-Schaltfläche 20 und/oder physikalischen Kontakt eines zweiten Zeigeobjekts auf dem Touchscreen 16 an einem ausgewählten Standort ausgeführt werden. Die Funktionalität, eine auf dem Bildschirm 26 angezeigte grafische und/oder Textinformation zu vergrößern, ohne dass das Zeigeobjekt 40 in direktem physikalischem Kontakt mit dem Touchscreen 16 ist, trägt dazu bei, die Verdeckung des Bildschirms 26 aufgrund eines physikalischen Kontakts des Zeigeobjekts 40 mit dem überlagernden Touchscreen 16 zu verringern.
  • In der obigen Weise werden beispielhafte Ausführungsformen der vorliegenden Offenbarung unter Bezug auf die Figuren beschrieben. Obwohl nur beispielhafte Ausführungsformen der vorliegenden Offenbarung beschrieben werden, ist die vorliegende Erfindung nicht auf so beschriebene spezifische Einzelheiten beschränkt. Der Schutzumfang der vorliegenden Offenbarung ist nicht auf die oben gelieferten beispielhaften Ausführungsformen der vorliegenden Offenbarung beschränkt. Viele Abänderungen und Änderungen können an den beispielhaften Ausführungsformen durchgeführt werden, ohne den Rahmen der vorliegende Erfindung zu verlassen.

Claims (30)

  1. Benutzerschnittstellen-Verfahren zur Steuerung eines Vergrößerungsereignisses auf einem Bildschirm als Reaktion auf ein Eingabeereignis, wobei das Benutzerschnittstellen-Verfahren Folgendes aufweist: Erfassen eines Eingabeereignisses durch eine Eingabevorrichtung; Bestimmen mindestens eines einer Vielzahl von Parametern des Eingabeereignisses, wobei die Vielzahl von Parameter einen Abstand eines Zeigeobjekts von der Eingabevorrichtung und eine Verschiebungsgeschwindigkeit des Zeigeobjekts zur Eingabevorrichtung enthält; und Bestimmen mindestens eines/einer von einem Vergrößerungsfaktor, einer Sichtfeldgröße und einer Größe eines resultierenden vergrößerten Sichtfelds für das Vergrößerungsereignis, wobei der/die mindestens eine von dem Vergrößerungsfaktor, der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds in Korrelation mit dem mindestens einen der Vielzahl von Parameter des Eingabeereignisses bestimmt wird.
  2. Benutzerschnittstellen-Verfahren nach Anspruch 1, wobei die Vielzahl von Parameter des Eingabeereignisses weiter eine Richtung, in der das Zeigeobjekt zur Eingabevorrichtung verschoben wird, und eine Verschieberichtung des Zeigeobjekts parallel zu einer Ebene der Eingabevorrichtung aufweist.
  3. Benutzerschnittstellen-Verfahren nach Anspruch 1, wobei die Eingabevorrichtung einer/eines von einem Touchscreen, einem Touchpad und mindestens einem Näherungssensor ist.
  4. Benutzerschnittstellen-Verfahren nach Anspruch 1, wobei das Eingabeereignis die Erfassung des Zeigeobjekts in der Nähe der Eingabevorrichtung aufweist.
  5. Benutzerschnittstellen-Verfahren nach Anspruch 4, wobei der Vergrößerungsfaktor für das Vergrößerungsereignis mit entsprechender Abnahme des Abstands des Zeigeobjekts von der Eingabevorrichtung zunimmt.
  6. Benutzerschnittstellen-Verfahren nach Anspruch 4, wobei der Vergrößerungsfaktor für das Vergrößerungsereignis mit der entsprechenden Zunahme der Verschiebegeschwindigkeit des Zeigeobjekts zur Eingabevorrichtung zunimmt.
  7. Benutzerschnittstellen-Verfahren nach Anspruch 4, wobei mindestens eine von der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds mit entsprechender Abnahme des Abstands des Zeigeobjekts zur Eingabevorrichtung zunimmt.
  8. Benutzerschnittstellen-Verfahren nach Anspruch 4, wobei mindestens eine von der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds mit entsprechender Zunahme der Verschiebegeschwindigkeit des Zeigeobjekts zur Eingabevorrichtung zunimmt.
  9. Benutzerschnittstellen-Verfahren nach Anspruch 1, das weiter Folgendes aufweist: Ausführen des Vergrößerungsereignisses auf dem Bildschirm; Bestimmen der Änderung mindestens eines der Vielzahl von Parametern des Eingabeereignisses; und Variieren mindestens eines/einer von dem Vergrößerungsfaktor, der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds für das Vergrößerungsereignis in Korrelation mit dem variierenden mindestens einen der Vielzahl von Parametern des Eingabeereignisses.
  10. Benutzerschnittstellen-Verfahren nach Anspruch 9, das weiter Folgendes aufweist: Anhalten des Vergrößerungsereignisses auf dem Bildschirm; und Neustart eines angehaltenen Vergrößerungsereignisses auf dem Bildschirm, wobei das Anhalten des Vergrößerungsereignisses auf dem Bildschirm das bequeme Ansehen von auf dem Bildschirm angezeigten Bildern verbessert.
  11. Benutzerschnittstellen-Verfahren nach Anspruch 10, das weiter Folgendes aufweist: Erzeugen von Eingabesignalen durch eine zweite Eingabevorrichtung, wobei die zweite Eingabevorrichtung eine von einer Eingabe-Schaltfläche und einer Taste eines Tastenfelds ist; und Bestimmen mindestens eines/einer von dem Vergrößerungsfaktor, der Sichtfeldgröße, der Größe des resultierenden vergrößerten Sichtfelds, dem Anhalten und dem Neustart des Vergrößerungsereignisses zumindest teilweise als Reaktion auf die durch die zweite Eingabevorrichtung erzeugten Eingabesignale.
  12. Touchscreen-Schnittstellen-Verfahren zur Steuerung eines Vergrößerungsereignisses eines Bildschirms als Reaktion auf mindestens einen Parameter eines Eingabeereignisses, wobei das Touchscreen-Schnittstellen-Verfahren Folgendes aufweist: Erfassen eines Zeigeobjekts in der Nähe eines Touchscreens; Bestimmen mindestens eines einer Vielzahl von Parameter des Eingabeereignisses, wobei die Vielzahl von Parameter den Abstand des Zeigeobjekts vom Touchscreen und die Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen enthält; und Bestimmen mindestens eines/einer von einem Vergrößerungsfaktor, einer Sichtfeldgröße und einer Größe eines resultierenden vergrößerten Sichtfelds für das Vergrößerungsereignis, wobei der/die mindestens eine von dem Vergrößerungsfaktor, der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds in Korrelation mit dem mindestens einen der Vielzahl von Parametern des Eingabeereignisses bestimmt wird.
  13. Touchscreen-Schnittstellen-Verfahren nach Anspruch 12, wobei die Vielzahl von Parametern des Eingabeereignisses weiter eine Richtung, in der das Zeigeobjekt zum Touchscreen verschoben wird, und eine Verschieberichtung des Zeigeobjekts parallel zu einer Ebene des Touchscreens aufweist.
  14. Touchscreen-Schnittstellen-Verfahren nach Anspruch 12, wobei der Vergrößerungsfaktor für das Vergrößerungsereignis mit einer entsprechenden Abnahme des Abstands des Zeigeobjekts vom Touchscreen zunimmt.
  15. Touchscreen-Schnittstellen-Verfahren nach Anspruch 12, wobei der Vergrößerungsfaktor für das Vergrößerungsereignis mit einer entsprechenden Zunahme der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen zunimmt.
  16. Touchscreen-Schnittstellen-Verfahren nach Anspruch 12, wobei mindestens eine von der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds mit entsprechender Abnahme des Abstands des Zeigeobjekts vom Touchscreen zunimmt.
  17. Touchscreen-Schnittstellen-Verfahren nach Anspruch 12, wobei mindestens eine von der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds mit der entsprechenden Zunahme der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen zunimmt.
  18. Touchscreen-Schnittstellen-Verfahren nach Anspruch 12, das weiter Folgendes aufweist: Ausführen des Vergrößerungsereignisses auf dem Bildschirm; Bestimmen der Variation mindestens eines der Vielzahl von Parametern des Eingabeereignisses; und Variieren mindestens eines/einer von dem Vergrößerungsfaktor, der Sichtfeldgröße und der Größe des resultierenden vergrößerten Sichtfelds für das Vergrößerungsereignis in Korrelation mit dem variierenden mindestens einen der Vielzahl von Parameter des Eingabeereignisses.
  19. Touchscreen-Schnittstellen-Verfahren nach Anspruch 18, das weiter Folgendes aufweist: Anhalten des Vergrößerungsereignisses auf dem Bildschirm; und Neustart eines angehaltenen Vergrößerungsereignisses auf dem Bildschirm, wobei das Anhalten des Vergrößerungsereignisses auf dem Bildschirm das bequeme Ansehen von auf dem Bildschirm angezeigten Bildern verbessert.
  20. Touchscreen-Schnittstellen-Verfahren nach Anspruch 19, das weiter Folgendes aufweist: Erzeugen von Eingabesignalen durch eine zweite Eingabevorrichtung, wobei die zweite Eingabevorrichtung eine von einer Eingabe-Schaltfläche und einer Taste eines Tastenfelds ist; und Bestimmen mindestens eines/einer von dem Vergrößerungsfaktor, der Sichtfeldgröße, der Größe des resultierenden vergrößerten Sichtfelds, dem Anhalten und Neustart des Vergrößerungsereignisses basierend zumindest teilweise auf von der zweiten Eingabevorrichtung erzeugten Eingabesignalen.
  21. Benutzerschnittstellen-Verfahren zur Steuerung eines Parameters eines Vergrößerungsereignisses auf einem Bildschirm als Reaktion auf ein Eingabeereignis, wobei das Benutzerschnittstellen-Verfahren Folgendes aufweist: Bestimmen mindestens eines einer Vielzahl von Parameter des Eingabeereignisses, wobei die Vielzahl von Parametern des Eingabeereignisses den Abstand des Zeigeobjekts vom Touchscreen, die Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, die Verschieberichtung des Zeigeobjekts zum Touchscreen und die Verschieberichtung des Zeigeobjekts parallel zu einer Ebene des Touchscreens aufweist; und Korrelieren mindestens eines Parameters des Vergrößerungsereignisses mit dem mindestens einen der Vielzahl von Parametern des Eingabeereignisses, wobei der mindestens eine Parameter des Vergrößerungsereignisses aus einer Gruppe ausgewählt wird, die einen Vergrößerungsfaktor, eine Sichtfeldgröße und eine Größe eines resultierenden vergrößerten Sichtfelds des Vergrößerungsereignisses aufweist.
  22. Benutzerschnittstelle, die Folgendes aufweist: einen Näherungssensor zum Erfassen eines Zeigeobjekts in dessen Nähe und zum Erzeugen von Eingabesignalen, wobei die Eingabesignale, wenn sie verarbeitet werden, eine Information über mindestens eine(n) von dem Abstand des Zeigeobjekts vom Touchscreen, der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, der Verschieberichtung des Zeigeobjekts zum Touchscreen und der Verschieberichtung des Zeigeobjekts parallel zu einer Ebene des Touchscreens liefert; und einen Bildschirm in Signalverbindung mit dem Näherungssensor zur Ausführung eines Vergrößerungsereignisses, wobei das Vergrößerungsereignis mindestens einen Parameter hat, der mindestens einem/einer von dem Abstand des Zeigeobjekts vom Touchscreen, der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen, der Verschieberichtung des Zeigeobjekts zum Touchscreen und der Verschieberichtung des Zeigeobjekts parallel zur Ebene des Touchscreens entspricht, wobei der mindestens eine Parameter ausgewählt wird aus einem/einer von einem Vergrößerungsmaßstab des Vergrößerungsereignisses, einer Sichtfeldgröße für das Vergrößerungsereignis und einer Größe eines vergrößerten Sichtfelds.
  23. Elektronische Vorrichtung nach Anspruch 22, wobei der Näherungssensor ein Touchscreen ist.
  24. Elektronische Vorrichtung nach Anspruch 22, wobei der Vergrößerungsmaßstab des Vergrößerungsereignisses mit abnehmendem Abstand des Zeigeobjekts vom Näherungssensor zunimmt.
  25. Elektronische Vorrichtung nach Anspruch 22, wobei der Vergrößerungsmaßstab des Vergrößerungsereignisses mit zunehmender Verschiebegeschwindigkeit des Zeigeobjekts zum Näherungssensor zunimmt.
  26. Elektronische Vorrichtung nach Anspruch 22, wobei mindestens eine von der Sichtfeldgröße für das Vergrößerungsereignis und der Größe des vergrößerten Sichtfelds mit abnehmendem Abstand des Zeigeobjekts vom Näherungssensor zunimmt.
  27. Elektronische Vorrichtung nach Anspruch 22, wobei mindestens eine von der Sichtfeldgröße für das Vergrößerungsereignis und der Größe des vergrößerten Sichtfelds mit zunehmender Verschiebegeschwindigkeit des Zeigeobjekts zum Näherungssensor zunimmt.
  28. Elektronische Vorrichtung nach Anspruch 22, die weiter Folgendes aufweist: mindestens eine Eingabevorrichtung in Signalverbindung mit dem Bildschirm, wobei die mindestens eine Eingabevorrichtung betätigt werden kann, um Signale zu erzeugen, um mindestens eine(n) von dem Vergrößerungsmaßstab des Vergrößerungsereignisses, der Sichtfeldgröße für das Vergrößerungsereignis und der Größe eines auf dem Bildschirm angezeigten vergrößerten Sichtfelds zu steuern.
  29. Elektronische Vorrichtung, die Folgendes aufweist: einen Touchscreen, der ein Zeigeobjekt in seiner Nähe zur Erzeugung von Eingabesignalen erfassen kann; einen Prozessor zum Empfang von Eingabesignalen vom Touchscreen und zur Verarbeitung der Eingabesignale zur Bestimmung mindestens eines/einer von dem Abstand des Zeigeobjekts vom Touchscreen und der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen; und einen Bildschirm zur Ausführung eines Vergrößerungsereignisses, wobei das Vergrößerungsereignis mindestens einen Parameter hat, der mit mindestens einem/einer von dem Abstand des Zeigeobjekts vom Touchscreen und der Verschiebegeschwindigkeit des Zeigeobjekts zum Touchscreen korreliert, wobei der mindestens eine Parameter einer/eine von einem Vergrößerungsmaßstab des Vergrößerungsereignisses, einer Sichtfeldgröße für das Vergrößerungsereignis und einer Größe eines vergrößertes Sichtfelds ist.
  30. Eingabevorrichtung, die Folgendes aufweist: mindestens einen Sensor zur Erfassung eines Eingabeereignisses und zur Erzeugung von Eingabesignalen; und ein Modul zur Verarbeitung der Eingabesignale, um mindestens einen einer Vielzahl von Parametern des Eingabeereignisses zu bestimmen, wobei die Vielzahl von Parametern einen Abstand des Zeigeobjekts vom mindestens einen Sensor, eine Verschiebegeschwindigkeit des Zeigeobjekts zum mindestens einen Sensor, eine Verschieberichtung des Zeigeobjekts zum mindestens einen Sensor und eine Verschieberichtung des Zeigeobjekts bezüglich des mindestens einen Sensors aufweist, wobei das Modul weiter den mindestens einen der Vielzahl von Parameter des Eingabeereignisses mit mindestens einem einer Vielzahl von Parameter eines vom Bildschirm durchgeführten Vergrößerungsereignnisses korreliert, wobei die Vielzahl von Parameter des Vergrößerungsereignisses einen Vergrößerungsmaßstab, eine Sichtfeldgröße für das Vergrößerungsereignis und eine Größe eines vergrößerten Sichtfelds aufweist.
DE112010002760.9T 2009-06-29 2010-06-28 Benutzerschnittstelle Active DE112010002760B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/459,248 2009-06-29
US12/459,248 US8466934B2 (en) 2009-06-29 2009-06-29 Touchscreen interface
PCT/SG2010/000239 WO2011002414A2 (en) 2009-06-29 2010-06-28 A user interface

Publications (2)

Publication Number Publication Date
DE112010002760T5 true DE112010002760T5 (de) 2012-10-11
DE112010002760B4 DE112010002760B4 (de) 2020-02-06

Family

ID=43380213

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010002760.9T Active DE112010002760B4 (de) 2009-06-29 2010-06-28 Benutzerschnittstelle

Country Status (6)

Country Link
US (1) US8466934B2 (de)
KR (1) KR101453628B1 (de)
CN (1) CN102576279B (de)
DE (1) DE112010002760B4 (de)
TW (1) TWI438661B (de)
WO (1) WO2011002414A2 (de)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
KR101424942B1 (ko) 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
WO2010026587A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
EP2480951A4 (de) 2009-09-21 2014-04-30 Extreme Reality Ltd Verfahren, schaltungen, vorrichtungen und systeme für eine mensch-maschine-schnittstelle mit einem elektronischen gerät
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
KR101623008B1 (ko) * 2009-10-23 2016-05-31 엘지전자 주식회사 이동 단말기
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US8522158B2 (en) * 2010-10-19 2013-08-27 Apple Inc. Systems, methods, and computer-readable media for providing a dynamic loupe for displayed information
TWI456429B (zh) * 2011-01-19 2014-10-11 Acer Inc 顯示裝置與動態調整顯示資料的方法
JP2014504074A (ja) 2011-01-23 2014-02-13 エクストリーム リアリティー エルティーディー. 立体三次元イメージおよびビデオを生成する方法、システム、装置、および、関連する処理論理回路
BR112013033223B1 (pt) 2011-06-29 2021-03-09 Koninklijke Philips N.V. sistema para ampliar uma imagem exibida em uma janela de visualização, utilização do sistema, aparelho de aquisição de imagem, estação de trabalho, método para ampliar uma imagem exibida em uma janela de visualização e aparelho para ampliar uma imagem exibida em uma janela de visualização
US9293107B2 (en) 2011-09-20 2016-03-22 Microsoft Technology Licensing, Llc Adjusting user interfaces based on entity location
EP2575006B1 (de) 2011-09-27 2018-06-13 Elo Touch Solutions, Inc. Interaktion eines Benutzers mit einer Vorrichtung auf Berührungs- und berührungsloser Basis
EP2575007A1 (de) * 2011-09-27 2013-04-03 Elo Touch Solutions, Inc. Skalierung von Eingaben auf Gestenbasis
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
WO2013105041A1 (en) * 2012-01-10 2013-07-18 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
EP2624116B1 (de) 2012-02-03 2017-09-06 EchoStar Technologies L.L.C. Mittels Nähenerkennung gesteuertes Anzeigezoom
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
CN103295503A (zh) * 2012-03-02 2013-09-11 鸿富锦精密工业(深圳)有限公司 数字告示***及其方法
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
US20140189579A1 (en) * 2013-01-02 2014-07-03 Zrro Technologies (2009) Ltd. System and method for controlling zooming and/or scrolling
CN104063117A (zh) * 2013-03-19 2014-09-24 海尔集团公司 家电设备及其控制装置和方法
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
US9507426B2 (en) * 2013-03-27 2016-11-29 Google Inc. Using the Z-axis in user interfaces for head mountable displays
WO2014166044A1 (en) * 2013-04-08 2014-10-16 Thomson Licensing Method and device for user input
DE102013215742A1 (de) 2013-08-09 2015-02-12 Ford Global Technologies, Llc Verfahren sowie Bedienvorrichtung zum Bedienen eines elektronischen Gerätes über einen Touchscreen
DE102014215049A1 (de) 2013-08-09 2015-02-12 Ford Global Technologies, Llc Verfahren sowie Bedienvorrichtung zum Bedienen eines elektronischen Gerätes über einen Touchscreen
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
WO2015127485A2 (en) * 2014-02-21 2015-08-27 Realitygate (Pty) Ltd Dynamic information transfer from display to control
TWI605360B (zh) 2014-05-27 2017-11-11 禾瑞亞科技股份有限公司 觸控處理器、觸控裝置、觸控系統與觸控方法
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
KR102399589B1 (ko) * 2014-11-05 2022-05-18 삼성전자주식회사 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체
KR102422793B1 (ko) 2014-12-04 2022-07-19 삼성전자주식회사 전자 디바이스 및 전자 디바이스를 통하여 글자 입력을 수신하기 위한 방법
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
CN106293175B (zh) * 2015-05-27 2020-06-19 禾瑞亚科技股份有限公司 触控处理器、触控装置、触控***与触控方法
CN105573633B (zh) * 2015-12-16 2018-09-25 深圳市金锐显数码科技有限公司 基于触摸屏的输入方法和装置
WO2017192781A1 (en) * 2016-05-03 2017-11-09 Affera, Inc. Anatomical model displaying
EP3572917B1 (de) * 2017-01-17 2022-08-17 Alps Alpine Co., Ltd. Koordinateneingabevorrichtung
JP7335487B2 (ja) * 2019-04-02 2023-08-30 船井電機株式会社 入力装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6747680B1 (en) * 1999-12-13 2004-06-08 Microsoft Corporation Speed-dependent automatic zooming interface
JPH1165769A (ja) * 1997-08-25 1999-03-09 Oki Electric Ind Co Ltd タッチパネル表示制御方法及びそれを記録した記録媒体
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7392041B2 (en) * 2006-01-06 2008-06-24 Microsoft Corporation Mobile access to information using images
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
EP2057527B1 (de) * 2006-08-15 2013-05-22 N-trig Ltd. Gestendetektion für einen digitalisierer
KR20080029028A (ko) * 2006-09-28 2008-04-03 삼성전자주식회사 터치 스크린을 갖는 단말기의 문자 입력 방법
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
KR101403079B1 (ko) * 2007-08-22 2014-06-02 엘지전자 주식회사 터치스크린에서 화면 줌 방법 및 이를 이용한 단말기
KR20090022466A (ko) * 2007-08-30 2009-03-04 엘지전자 주식회사 메뉴 선택 방법
KR20090029028A (ko) * 2007-09-17 2009-03-20 현대자동차주식회사 블로바이가스 배출방법
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
KR101502002B1 (ko) * 2008-05-21 2015-03-12 엘지전자 주식회사 근접 터치를 이용한 이동 단말기 및 그의 화면표시제어방법
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch

Also Published As

Publication number Publication date
US8466934B2 (en) 2013-06-18
DE112010002760B4 (de) 2020-02-06
WO2011002414A2 (en) 2011-01-06
KR20120109464A (ko) 2012-10-08
WO2011002414A3 (en) 2011-04-21
TWI438661B (zh) 2014-05-21
KR101453628B1 (ko) 2014-10-21
US20100328351A1 (en) 2010-12-30
TW201101144A (en) 2011-01-01
CN102576279B (zh) 2014-09-10
CN102576279A (zh) 2012-07-11

Similar Documents

Publication Publication Date Title
DE112010002760B4 (de) Benutzerschnittstelle
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE112011101203T5 (de) Tragbare elektronische Vorrichtung und Verfahren zu deren Steuerung
DE102018116244A1 (de) Verformbares elektrisches Gerät und Verfahren und Systeme zum Steuern der verformten Benutzerschnittstelle
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE102008028223A1 (de) Modusabhängige Verarbeitung von Berührungsdaten
DE102012223250A1 (de) Berührungssensor mit mehreren Oberflächen und Betriebsartenauswahl
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE202012101741U1 (de) Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE102013007250A1 (de) Verfahren zur Gestensteuerung
DE202007014957U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
DE212009000073U1 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE102010028983A1 (de) Zweidimensionale Berührungssensoren
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112013002387T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE202007018368U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE202009018624U1 (de) Berührungsereignismodell
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE

Representative=s name: VIERING, JENTSCHURA & PARTNER PATENT- UND RECH, DE

R012 Request for examination validly filed

Effective date: 20140508

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final