DE102009011687B4 - Berührungsereignismodell - Google Patents
Berührungsereignismodell Download PDFInfo
- Publication number
- DE102009011687B4 DE102009011687B4 DE102009011687.7A DE102009011687A DE102009011687B4 DE 102009011687 B4 DE102009011687 B4 DE 102009011687B4 DE 102009011687 A DE102009011687 A DE 102009011687A DE 102009011687 B4 DE102009011687 B4 DE 102009011687B4
- Authority
- DE
- Germany
- Prior art keywords
- touch
- view
- exclusive
- flag
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 21
- 230000001413 cellular effect Effects 0.000 claims 2
- 230000000903 blocking effect Effects 0.000 claims 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 40
- 230000003993 interaction Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000000994 depressogenic effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Percussion Or Vibration Massage (AREA)
- Manipulator (AREA)
- Manufacture Of Switches (AREA)
Abstract
Verfahren zur Bearbeitung von Berührungsereignissen in einer Mehrfachberührungsvorrichtung (200; 210), umfassend:Anzeigen einer oder mehrerer Ansichten (301 bis 312);Ausführungen einer oder mehrerer Softwareelemente, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist;Assoziieren jeweils eines Mehrfachberührungsflags oder eines exklusiven Berührungsflags mit jeder Ansicht;Empfangen (400; 500) einer oder mehrerer Berührungen in der einen oder den mehreren Ansichten; undSelektives Senden (406-410; 506-514) eines oder mehrerer Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente, die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
Description
- Gebiet der Erfindung
- Hier geht es im Allgemeinen um mehrfachpunktfähige- und mehrfachberührungsfähige Vorrichtungen und insbesondere um das Erkennen von Einfach- und Mehrfachpunkt- sowie Berührungsereignissen in mehrfachpunktfähigen und mehrfachberührungsfähigen Vorrichtungen.
- Hintergrund der Erfindung
- Mehrfachberührungsfähigen Vorrichtungen sind im Stand der Technik bekannt. Eine mehrfachberührungsfähige Vorrichtung ist eine Vorrichtung, die mehrere Berührungen zur selben Zeit erfassen kann. Daher kann eine mehrfachberührungsfähige Vorrichtung beispielsweise zwei Berührungsereignisse erfassen, die gleichzeitig an zwei verschiedenen Positionen auf einem Mehrfachberührungsfeld auftreten und dadurch bewirkt werden, dass zwei Finger auf das Feld gedrückt werden. Beispiele mehrfachberührungsfähige Vorrichtungen sind in der
US-Patentanmeldung Nr. 11/649,998 US-Patentanmeldung Nr. 11/349,998 - Während die Vorteile von mehrfachberührungsfähigen Schnittstellen bekannt sind, können diese Vorrichtungen einige Herausforderungen bei Entwurf von Schnittstellen mit sich bringen. Existierende Konventionen zum Schnittstellenentwurf haben ein Einfachzeige-Benutzereingabegerät angenommen, das zu einem gegebenen Zeitpunkt einen einzige Stelle spezifiziert. Beispiele umfassen eine Maus oder ein Berührungsfeld.
- Spezieller, viele existierende graphische Benutzerschnittstellen (GUI)-Systeme stellen dem Benutzer Schnittstellen zur Verfügung, bei denen verschiedene Teile einer Anzeige mit separaten Softwareelementen assoziiert sind. So können beispielsweise Teile einer Anzeige mit einem Fenster assoziiert sein und das Fenster kann mit einer speziellen Softwareanwendung und/oder einem Prozess assoziiert sein. Eine Maus kann verwendet werden, um mit dem Fenster und der mit dem Fenster assoziierten Anwendung bzw. dem Prozess zu interagieren. Der Mauscursor kann dann zu einem anderen Fenster bewegt werden, um mit einer anderen Anwendung oder einem anderen Prozess zu interagieren. Wenn nur ein Einfachzeigegerät verwendet wird, kann eine Interaktion mit nur einem einzigen Fenster, mit einer Anwendung oder einem Prozess zur selben Zeit auftreten.
- Die Annahme einer einzigen Interaktion mit einem Fenster zu jedem beliebigen Zeitpunkt kann den Entwurf einer Benutzerschnittstelle sehr vereinfachen. Die Anwendung und/oder der Prozess, die bzw. der innerhalb eines Fensters abläuft, kann unter der Annahme operieren, dass eine detektierte Interaktion mit diesem bestimmten Fenster die einzige empfangene Eingabe ist. Daher müssen sich die Anwendung und/oder der Prozess nicht mit der Möglichkeit anderer Benutzerinteraktionen befassen, die in anderen Teilen der Anzeige außerhalb des Fensters auftreten. Des Weiteren kann ein Fenster zusätzlich in verschiedene Elemente partitioniert werden, wobei jedes Element mit einem speziellen Teil des Fensters assoziiert ist. Jedes Element kann durch ein separates Softwareelement (z.B. ein Softwareobjekt) implementiert sein. Wiederum kann jedes Softwareobjekt Interaktionen verarbeiten, die in seinem assoziierten Bereich auftreten, ohne sich mit Interaktionen zu befassen, die gleichzeitig an einem anderen Ort auftreten können.
- Andererseits, können bei Verwendung einer Mehrfachberührungsschnittstelle zwei oder mehrere Berührungsereignisse gleichzeitig an verschiedenen Teilen der Anzeige auftreten. Dieses kann es schwer machen, die Anzeige in verschiedene Teile aufzuspalten und verschiedene unabhängige Softwareelemente die mit jedem der Teile assoziierten Interaktionen verarbeiten zu lassen. Außerdem können, selbst wenn die Anzeige in verschiedene Teile aufgespalten wird, verschiedene Berührungsereignisse in einem einzigen Teil auftreten. Daher kann es erforderlich sein, dass eine einzige Anwendung, ein Prozess oder ein anderes Softwareelement mehrere gleichzeitig auftretende Berührungsereignisse verarbeiten muss. Wenn allerdings jede Anwendung, jeder Prozess oder jedes andere Softwareelement mehrere Berührungsinteraktionen betrachten muss, dann können die Gesamtkosten und die Gesamtkomplexität von auf der mehrfachberührungsfähigen Vorrichtung ablaufender Software unerwünscht hoch sein. Genauer, jede Anwendung kann große Mengen von hereinkommenden Berührungsdaten verarbeiten müssen. Dies kann eine hohe Komplexität in Anwendungen von scheinbar einfacher Funktionalität erfordern und kann die Programmierung einer mehrfachberührungsfähigen Vorrichtung allgemein schwierig und teuer machen. Ebenso kann existierende Software, die eine Einfachzeigevorrichtung voraussetzt, sehr schwierig in eine Version umzuwandeln oder dorthin zu portieren sein, die auf einer mehrfachpunktfähigen- oder mehrfachberührungsfähigen Vorrichtung ablaufen kann.
(Die DruckschriftUS 2006/0097991 A1
Die DruckschriftUS 2007/0226636 A1 - Zusammenfassung der Erfindung
- Ausführungsformen der vorliegenden Erfindung betreffen Verfahren, Software, Vorrichtungen und APIs zur Definition von Berührungsereignissen für Anwendungssoftware. Des Weiteren sind einige Ausführungsformen auf die Vereinfachung der Erkennung von Einfach- und Mehrfachberührungsereignissen für auf mehrfachberührungsfähigen Vorrichtungen ablaufenden Anwendungen gerichtet.
Die DruckschriftUS 2006/0097991 A1
Die DruckschriftUS 2007/0226636 A1 - Um das Erkennen von Einfach- und Mehrfachberührungsereignissen zu vereinfachen, kann jede Ansicht innerhalb eines bestimmten Fensters entweder als Mehrfachberührungsansicht oder als Einfachberührungsansicht konfiguriert werden. Des Weiteren kann jede Ansicht entweder als eine exklusive oder eine nicht exklusive Ansicht konfiguriert sein. Abhängig von der Konfiguration einer Ansicht können Berührungsereignisse in dieser und anderen Ansichten entweder ignoriert oder erkannt werden. Ignorierte Berührungen müssen nicht an die Anwendung gesendet werden. Ein selektives Ignorieren von Berührungen erlaubt es einfacheren Anwendungen oder Softwareelementen, die nicht die Vorteile hoch entwickelter Mehrfachberührungsmerkmale nutzen, auf derselben Vorrichtung (und sogar zur selben Zeit) ausgeführt zu werden, wie komplexere Anwendungen oder Softwareelemente.
- Figurenliste
-
-
1 ist ein Diagramm eines Eingabe/Ausgabeverarbeitungs-stapels einer beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einer Ausführungsform dieser Erfindung. -
2A ist ein Diagramm einer beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einer Ausführungsform dieser Erfindung. -
2B ist ein Diagramm einer anderen beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einer Ausführungsform dieser Erfindung. -
3 ist ein Diagramm einer beispielhaften Mehrfachberührungsanzeige gemäß einer Ausführungsform dieser Erfindung. -
4 ist ein Flussdiagramm, das ein beispielhaftes Betriebsverfahren des Mehrfachberührungsflags gemäß einer Ausführungsform dieser Erfindung zeigt. -
5A und5B sind Flussdiagramme, die ein beispielhaftes Betriebsverfahren für das exklusive Berührungsflag gemäß einer Ausführungsform dieser Erfindung zeigen. - Detaillierte Beschreibung der bevorzugten Ausführungsform
- In der folgenden Beschreibung bevorzugter Ausführungsformen wird auf die beiliegenden Zeichnungen Bezug genommen, die einen Teil hiervon bilden und in denen spezifische Ausführungsformen illustriert sind, in denen die Erfindung implementiert werden kann. Es versteht sich, dass andere Ausführungsformen verwendet werden können und dass strukturelle Änderungen durchgeführt werden können, ohne vom Umfang der bevorzugten Ausführungsformen der vorliegenden Erfindung abzuweichen.
- Hier geht es um ein Berührungsereignismodell, das das Erkennen von Einfach- und Mehrfachberührungsereignissen für Benutzerschnittstellenanwendungen vereinfacht, die in mehrfachpunktfähigen- und mehrfachberührungsfähigen Vorrichtungen ablaufen. Um das Erkennen von Einfach- und Mehrfachberührungsereignissen zu erleichtern, kann jede Ansicht innerhalb eines bestimmten Fensters entweder als Mehrfachberührungsansicht oder als Einfachberührungsansicht konfiguriert werden. Des Weiteren kann jede Ansicht entweder als eine exklusive oder als eine nicht exklusive Ansicht konfiguriert sein. Abhängig von der Konfiguration einer Ansicht können Berührungsereignisse in dieser oder anderen Ansichten entweder ignoriert oder erkannt werden.
- Wenngleich Ausführungsformen der vorliegenden Erfindung hier in Bezug auf spezielle mehrfachberührungsfähige Vorrichtungen beschrieben und illustriert sind, versteht es sich, dass Ausführungsformen der vorliegenden Erfindung nicht auf derartige Vorrichtungen beschränkt sind, sondern allgemein auf jegliche mehrfachberührungsfähige Vorrichtungen anwendbar sind. Des Weiteren sind Ausführungsformen der Erfindung nicht auf mehrfachberührungsfähige Vorrichtungen beschränkt, sondern umfassen Mehrfachpunktvorrichtungen, wie z.B. Mehrfachnäherungssensorvorrichtungen, die in der oben genannten
US-Patentanmeldung Nr. 11/649,998 - Einige Ausführungsformen beziehen sich auf
APIs . Im Allgemeinen ist einAPI eine Quellcodeschnittstelle, die ein Computersystem bereitstellt, um Dienstanforderungen einer Softwareoperation zu unterstützen. EinAPI wird vermittels einer Programmiersprache spezifiziert, die beim Bau eines Systems interpretiert oder kompiliert werden kann, anstatt als eine explizite systemnahe Beschreibung wie Daten im Speicher abgelegt zu werden. Die Software, die die Funktionalität einesAPI bereitstellt, wird als eine Implementierung desAPI bezeichnet. Vielerlei Vorrichtungen wie z.B. Computersysteme, elektronische Geräte, tragbare Vorrichtungen und handgehaltene Vorrichtungen weisen Softwareanwendungen auf. Die Vorrichtung stellt eine Schnittstelle zwischen den Softwareanwendungen und der Benutzerschnittstellensoftware bereit, um dem Benutzer der Vorrichtung bestimmte Merkmale und Operationen zur Verfügung zu stellen. - Wenigstens einige Ausführungsformen der Vorrichtung können ein oder mehrere
APIs in einer Umgebung umfassen, in der Benutzerschnittstellensoftware mit einer Softwareanwendung interagiert. Verschiedene Funktionsaufrufe oder Nachrichten werden über dieAPIs zwischen der Benutzerschnittstellensoftware und den Softwareanwendungen übertragen. Das Übertragen der Funktionsaufrufe oder Nachrichten kann ein Ausgeben, Initiieren, Auslösen oder Empfangen der Funktionsaufrufe oder Nachrichten umfassen. BeispielhafteAPIs können das Senden von Berührungsereignisinformation umfassen. EinAPI kann auch Funktionen mit Parametern, Variablen oder Zeigern implementieren. EinAPI kann offenbarte Parameter oder andere Kombinationen von Parametern empfangen. Zusätzlich zu den offenbartenAPIs können andereAPIs individuell oder in Kombination ähnliche Funktionalität ausführen wie die offenbartenAPIs . -
1 ist ein Diagramm eines Eingabe-/Ausgabeverarbeitungs-stapels einer beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einiger Ausführungsformen der Erfindung. Die Hardware100 kann auf der untersten Schicht einer mehrfachberührungsfähigen Vorrichtung verfügbar sein. Sie kann verschiedene Hardwareschnittstellenkomponenten, wie z.B. ein mehrfachberührungsfähiges Feld101 und/oder einen Beschleunigungsmesser102 , aufweisen. Das Mehrfachberührungsfeld kann eine Anzeige und ein Feld aufweisen, dass gleichzeitig mehrere Berührungen misst. Ein Beispiel für ein solches Feld ist in größerem Detail in der oben genannten Anmeldung11 /649 ,998 erläutert. Der Beschleunigungsmesser kann eine Hardwarevorrichtung sein, die die Beschleunigung der mehrfachberührungsfähigen Vorrichtung misst. Sie kann verwendet werden, um zu erfassen, wann sich die Vorrichtung bewegt, wie sie bewegt wird, ob sie fallengelassen wird usw. Andere Hardwareschnittstellenvorrichtungen, wie z.B. Gyroskope, Lautsprecher, Tasten, Infrarot(IR)-Sensoren usw. (nicht gezeigt) können ebenso vorhanden sein. - Ein Treiber oder ein Satz von Treibern
103 kann mit der Hardware100 kommunizieren. Die Treiber können von der Hardware empfangene Eingabedaten empfangen und verarbeiten. Ein Kernbetriebssystem (OS )104 kann mit dem bzw. den Treiber(n) kommunizieren. Das Kern-OS kann von dem bzw. den Treiber(n) empfangene Roheingabedaten verarbeiten. In einigen Ausführungsformen können die Treiber als ein Teil des Kern-OS betrachtet werden. - Ein Satz von OS-Anwendungsprogrammierschnittstellen (
APIs )105 kann mit dem Kern-OS kommunizieren. DieseAPIs können ein Satz vonAPIs sein, die normalerweise im Umfang von Betriebssystemen (wie z.B. Linux oder UNIXAPIs ) enthalten sind. Benutzerschnittstellen-APIs 106 (UI APIs ) können einen Satz vonAPIs enthalten, der zur Verwendung durch auf der Vorrichtung ablaufende Anwendungen entworfen ist. DieUI APIs können dieOS APIs verwenden. Auf der Vorrichtung ablaufende Anwendungen107 können dieAPIs derUI APIs verwenden, um mit dem Benutzer zu kommunizieren. DieUI APIs können im Gegenzug mit den Elementen niedrigerer Schichten kommunizieren und so schließlich mit dem Mehrfachberührungsfeld101 und verschiedener anderer Benutzerschnittstellenhardware kommunizieren. Während jede Schicht die unter ihr liegende Schicht verwenden kann, ist dies nicht immer erforderlich. In einigen Ausführungsformen können beispielsweise Anwendungen107 fallweise mit denOS APIs 105 kommunizieren. DieAPIs 105 und106 können entsprechende Sätze von Anwendungsprogrammierschnittstellen sowie deren entsprechende Implementierungen umfassen. Beispielsweise können dieUI APIs 106 auch eine Benutzerschnittstellen(UI)-Software zur Implementierung derUI APIs enthalten. - Die
2A und2B sind Diagramme zweier Typen beispielhafter mehrfachberührungsfähiger Vorrichtungen gemäß einiger Ausführungsformen der Erfindung.2A zeigt eine beispielhafte Vorrichtung200 . Die Vorrichtung200 kann eineCPU 201 und einen Speicher202 aufweisen, die durch einen Bus204 verbunden sind. Der Bus kann auch mit einer Mehrfachberührungsanzeige203 verbunden sein. Die Mehrfachberührungsanzeige kann ein Mehrfachberührungsfeld und eine Anzeige enthalten. Das Mehrfachberührungsfeld und die Anzeige können kombiniert sein, um die Mehrfachberührungsanzeige203 zu bilden. Die Mehrfachberührungsanzeige kann zu dem Mehrfachberührungsfeld101 innerhalb der Hardwareschicht100 von1 korrespondieren. DieCPU kann verwendet werden, um in dem Speicher abgelegte Software auszuführen. Die durch dieCPU ausgeführte Software kann die Schichten103 bis107 aus1 enthalten. Daher kann die Software Treiber, einOS , verschiedeneAPIs und Anwendungen enthalten. -
2B zeigt eine alternative Vorrichtung210 . Die Vorrichtung210 kann der Vorrichtung200 ähnlich sein. Allerdings kann die Vorrichtung210 ein separates Mehrfachberührungsfeld212 und eine Anzeige211 anstatt der einzigen Einheit der Vorrichtung200 enthalten. Daher muss man bei der Vorrichtung210 die Anzeige nicht berühren, um mit dem Mehrfachberührungsfeld zu interagieren. Die Vorrichtung210 kann beispielsweise ein Laptop-Computer mit einem Mehrfachberührungstrackpad sein (wobei das Mehrfachberührungsfeld als Trackpad dient). - Das Mehrfachberührungsfeld und/oder die Anzeige aus den
2A und2B können auch andere Sensortechnologie, wie z.B. Näherungsmessung wie in der oben genanntenUS-Patentanmeldung Nr. 11/649,998 2A und2B verwendet werden. Das Mehrfachpunktfeld und/oder die Mehrfachpunktanzeige können verschiedene Typen von Sensortechnologie aufweisen. Beispielsweise kann es bzw. sie nur Mehrfachberührungstechnologie (wodurch sich ein Mehrfachberührungsfeld und/oder eine Mehrfachberührungsanzeige ergibt), Mehrfachnäherungsmesstechnologie, eine Kombination der beiden oder einen anderen Typ von Mehrfachpunkttechnologie aufweisen. - Die Vorrichtungen aus den
2A und2B können verschiedene unterschiedliche Typen von mehrfachberührungsfähigen Vorrichtungen umfassen. Beispielsweise können sie ein Mobiltelefon, eine tragbare Videospielkonsole, einen elektronischen Musikspieler, ein E-Book, einen PDA, einen elektronischen Organizer, ein E-Mail-Gerät, einen Laptop- oder Personalcomputer, einen Kioskcomputer oder eine Verkaufsmaschine usw. umfassen. -
3 ist ein Diagramm einer beispielhaften Mehrfachberührungsanzeige300 . Die Mehrfachberührungsanzeige kann die Anzeige203 aus2A oder die Anzeige211 aus2B sein. Die Anzeige kann verschiedene Benutzerschnittstellenelemente (wie z.B. Graphik, usw.) anzeigen, die durch Software generiert sind, die auf der die Anzeige enthaltenden Vorrichtung (z.B. Vorrichtung200 aus2A oder Vorrichtung210 aus2B) abläuft. Der Benutzer kann mit den verschiedenen Benutzerschnittstellenelementen interagieren, um mit der Software zu interagieren. Bei der Verwendung der Vorrichtung aus2A kann der Benutzer mit den Benutzerschnittstellen interagieren, indem er sie direkt auf der Anzeige berührt. Bei der Verwendung der Vorrichtung aus2B kann der Benutzer das separate Mehrfachberührungsfeld212 berühren, um ein oder mehrere Cursor auf der Anzeige211 zu bewegen und zu steuern, wobei die Cursor verwendet werden, um mit der Software zu interagieren. - Die auf der Anzeige
300 dargestellten Benutzerschnittstellenelemente können ein oder mehrere Ansichten umfassen. Jede Ansicht kann ein graphisches Benutzerschnittstellenelement darstellen, das durch ein separates Softwareelement behandelt wird. Die separaten Softwareelemente können verschiedene Anwendungen, verschiedene Prozesse oder Threads (sogar innerhalb derselben Anwendung), unterschiedlichen Routinen oder Subroutinen, unterschiedliche Objekte usw. enthalten. In einigen Ausführungsformen kann jedes separate Softwareelement Benutzerschnittstellenelemente für seinen entsprechenden Teil der Anzeige erstellen sowie Berührungseingaben für diesen Teil der Anzeige empfangen und verarbeiten. Die Berührungseingaben können durch die verschiedenen im Zusammenhang mit1 erläuterten Schichten verarbeitet werden, die nachfolgend verarbeitete Berührungseingabedaten an das Softwareelement (welches ein Teil der Anwendungen109 sein kann) senden können. Die verarbeiteten Berührungseingabedaten können als Berührungsereignis(se) bezeichnet werden und können in einem Format vorliegen, das einfacher zu verarbeiten ist, als durch das Mehrfachberührungsfeld erzeugte Rohberührungsdaten. Beispielsweise kann jedes Berührungsereignis einen Satz von Koordinaten umfassen, an denen gegenwärtig eine Berührung auftritt. In einigen Ausführungsformen kann der Satz von Koordinaten zu einem Schwerpunkt einer Berührung korrespondieren. Der Kürze und Einfachheit willen kann in der nachfolgenden Erläuterung auf ein mit einer Ansicht assoziiertes Softwareelement Bezug genommen werden, indem einfach auf die Ansicht selbst Bezug genommen wird. - Ansichten können verschachtelt sein. In anderen Worten, eine Ansicht kann andere Ansichten enthalten. Folglich kann ein mit einer ersten Ansicht assoziiertes Softwareelement ein oder mehrere mit Ansichten innerhalb der ersten Ansicht assoziierte Softwareelemente enthalten oder damit verknüpft sein. Während einige Ansichten mit Anwendungen assoziiert sein können, können andere mit OS-Elementen hoher Schichten, wie z.B. graphischen Benutzerschnittstellen, Fensterverwaltungen, usw. assoziiert sein.
- Die beispielhafte Anzeige aus
3 zeigt eine Musikbrowseranwendung. Die Anzeige kann eine Statusbalkenansicht301 umfassen, die den Gesamtstatus der Vorrichtung anzeigt. Die Statusbalkenansicht kann ein Teil desOS sein. Die Titelansicht302 kann auch enthalten sein. Die Titelansicht selbst enthält mehrere andere Ansichten, wie z.B. die zentrale Titelansicht310 , die Zurücktaste312 und die Vorwärtstaste311 . Die Tabellenansicht303 kann auch enthalten sein. Die Tabellenansicht303 kann ein oder mehrere Tabellenelementansichten enthalten, wie z.B. die Tabellenelementansicht304 . Wie in einer Ausführungsform gesehen, können die Tabellenelementansichten Liedertitel sein. Eine Tastenbalkenansicht305 kann ebenso enthalten sein. Die Tastenbalkenansicht kann die Tasten306 bis309 enthalten. - Jede Ansicht und ihr assoziiertes Softwareelement können in der Lage sein, Berührungsereignisse, die bei dieser bestimmten Ansicht auftreten, zu empfangen, zu verarbeiten und zu behandeln. Wenn daher beispielsweise ein Benutzer die Liedertitelansicht
304 berührt, so kann das mit dieser Ansicht assoziierte Softwareelement ein Berührungsereignis empfangen, das anzeigt, dass die Ansicht berührt wurde, und es verarbeiten und entsprechend reagieren. Beispielsweise kann das Softwareelement die graphische Darstellung der Ansicht (z.B. ein Markieren der Ansicht) ändern und/oder kann bewirken, dass andere Aktionen, wie z.B. das Wiedergeben eines mit der berührten Ansicht assoziierten Liedes, bewirkt werden. - In einigen Ausführungsformen werden Berührungsereignisse auf der niedrigsten Schicht der Ansichtenhierarchie verarbeitet. Wenn daher beispielsweise ein Benutzer die Titelbalkenansicht
302 berührt, muss das Berührungsereignis nicht direkt durch das mit der Titelbalkenansicht assoziierte Softwareelement verarbeitet werden, sondern kann statt dessen durch ein Softwareelement verarbeitet werden, das mit einer in der Titelbalkenansicht enthaltenen Ansicht assoziiert ist, an der die Berührung auftrat (d.h. ein mit einer der Ansichten310 ,311 oder312 assoziiertes Softwareelement). In einigen Ausführungsformen können auch einige Ansichten höherer Schichten Berührungsereignisse verarbeiten. Zusätzlich können verschiedene Softwareelemente, die nicht mit einer gerade berührten Ansicht assoziiert sind, nichtsdestotrotz alarmiert werden oder sie können selbst erkennen, dass die Ansicht berührt wird. - Da die Anzeige
300 eine Mehrfachberührungsanzeige ist, können mehrere Berührungen zur selben Zeit auftreten. Die mehreren Berührungen können in derselben Ansicht oder in zwei oder mehr verschiedenen Ansichten auftreten. Des Weiteren kann ein Benutzer Gesten ausführen (z.B. durch Herabdrücken eines oder mehrerer Finger oder durch ihre Bewegung), die vordefinierte Bedeutungen haben können. Mehrfachberührungsgesten werden in größerem Detail in derUS-Patentanmeldung Nr. 10/903,964 - Eine Ansicht kann Berührungsereignisse empfangen, die innerhalb der Ansicht beginnen. Wenn ein Benutzer einen Finger gegen die Anzeige gedrückt hält, dann kann die Ansicht mehrere Berührungsereignisse empfangen, die eine kontinuierliche Berührung anzeigen. Wenn ein Benutzer einen gedrückten Finger bewegt, kann die Ansicht mehrere Berührungsereignisse empfangen, die eine Bewegung der Berührung anzeigen. Wenn ein Benutzer einen gedrückten Finger aus der Ansicht heraus bewegt, dann kann die Ansicht weiterhin mit dieser Bewegung assoziierte Berührungsereignisse empfangen (und die Ansichten, zu denen sich der Finger hinbewegt hat, brauchen solche Berührungsereignisse nicht empfangen). Daher kann eine Ansicht Ereignisse empfangen, die mit einer Geste oder einer Bewegung assoziiert sind, die in der Ansicht beginnt, selbst wenn sie außerhalb der Ansicht fortgeführt wird.
- Eine Berührung kann sich auf eine Aktion beziehen, die damit beginnt, dass ein Finger oder ein anderer Körperteil oder ein anderes Objekt auf die Oberfläche eines Mehrfachberührungsfeldes (oder einer Mehrfachberührungsanzeige) gedrückt wird und die endet, wenn der Finger oder das Objekt von der Anzeige entfernt wird. Daher kann die Berührung ein Bewegen des Fingers oder Objekts oder das Beibehalten des Fingers oder des Objekts an derselben Stelle für eine Zeitspanne umfassen.
- Berührungsereignisse können durch ein oder mehrere
APIs (und ihre entsprechenden Implementierungen) an Ansichten (oder die Softwareelemente, die die Ansichten implementieren) gesendet werden. Ein Beispiel für einAPI , zur Verarbeitung von Berührungsereignissen ist im Anhang A unten zur Verfügung gestellt. Gemäß demAPI aus Anhang A kann dasAPI an jede Ansicht eine Berührungsereignisdatenstruktur senden, die ein oder mehrere Einfachberührungsdatenstrukturen (oder Berührungsdatenstrukturen) enthält. Jede Berührungsereignisdatenstruktur kann den gegenwärtigen Zustand aller in der Ansicht zu einem bestimmten Zeitpunkt auftretenden Berührungen definieren. Die entsprechenden Berührungsdatenstrukturen innerhalb einer Berührungsereignisdatenstruktur können den gegenwärtigen Status einer oder mehrerer entsprechender Einfachberührungen zu dem bestimmten Zeitpunkt definieren. Wenn daher drei Berührungen zu einem bestimmten Zeitpunkt in einer bestimmten Ansicht auftreten, so kann eine Berührungsereignisdatenstruktur, die drei Berührungsdatenstrukturen zur Definition des Zustands der drei Berührungen enthält, an die Ansicht gesendet werden. In einigen Ausführungsformen können Berührungsdatenstrukturen gesendet werden, selbst wenn ihre assoziierten Berührungen nicht mehr stattfinden, um die Ansicht darauf hinzuweisen, dass die Berührungen beendet worden sind. - Wie oben bemerkt, kann eine Berührung eine Aktion beinhalten, die nicht auf den Moment begrenzt sein muss. Beispielsweise kann eine Berührung eine Aktion enthalten, bei der ein Finger bewegt oder für eine Zeitspanne gegen eine Anzeige gehalten wird. Eine Berührungsdatenstruktur definiert dagegen einen Zustand einer Berührung zu einem bestimmten Zeitpunkt. Daher können mehrere Berührungsdatenstrukturen mit einer einzigen Berührung assoziiert sein, wodurch die einzelne Berührung zu verschiedenen Zeitpunkte definiert wird.
- Jede Berührungsdatenstruktur kann verschiedene Felder umfassen. Ein „erste Berührung für Ansicht“-Feld kann anzeigen, ob die Berührungsdatenstruktur die erste Berührung für die bestimmte Ansicht definiert (seit das die Ansicht implementierende Softwareelement instantiiert wurde). Ein „Zeitstempel“-Feld kann die bestimmte Zeit anzeigen, auf die sich die Berührungsdatenstruktur bezieht.
- Ein „Info“-Feld kann verwendet werden, um anzugeben, ob eine Berührung eine rudimentäre Geste ist. Beispielsweise kann das „Info“-Feld anzeigen, ob die Berührung ein Ziehen ist, und wenn dies der Fall ist, in welche Richtung das Ziehen orientiert ist. Ein Ziehen ist hier ein schnelles Ziehen eines oder mehrerer Finger in einer geraden Richtung. Die API-Implementierungen können feststellen, ob eine Berührung ein Ziehen ist und diese Information an die Anwendung über das „Info“-Feld weiterleiten, und so der Anwendung einige Datenverarbeitung ersparen, die nötig wäre, wenn die Berührung ein Ziehen wäre.
- Ein „Tippzähler“-Feld kann anzeigen, wie viele Tippberührungen sequentiell an der Berührungsposition ausgeführt wurden. Eine Tippberührung kann als ein kurzes Drücken und wieder Abheben eines Fingers gegen ein Feld an einer bestimmten Position definiert werden. Mehrere sequentielle Tippbewegungen können auftreten, wenn der Finger wiederholt in schneller Folge an derselben Position des Feldes gedrückt und abgehoben wird. Daher kann die API-Implementierung Tippberührungen für verschiedene Anwendungen zählen und diese Information über das Tippberührungs-„Zählfeld“ weiterleiten. Mehrere Tippberührungen am selben Ort werden manchmal als sehr nützliche und einfach zu merkende Befehle für berührungsfähige Schnittstellen betrachtet. Daher kann das
API durch das Zählen von Tippberührungen der Anwendung wieder einige Datenverarbeitung ersparen. - Ein „Phase“-Feld kann eine bestimmte Phase anzeigen, in der sich die Berührung gegenwärtig befindet. Das Phasefeld kann verschiedene Werte haben, wie z.B. „Berührungsphase hat begonnen“, die anzeigen können, dass die Berührungsdatenstruktur eine neue Berührung definiert, die noch nicht durch frühere Berührungsdatenstrukturen referenziert wurde. Ein „Berührungsphase hat sich bewegt“-Wert kann anzeigen, dass die definierte Berührung sich von einer in einer früheren Berührungsdatenstruktur definierten Position weiterbewegt hat. Ein „Berührungsphase stationär“-Wert kann anzeigen, dass die Berührung in derselben Position verblieben ist, seit die letzte Berührungsdatenstruktur für diese Berührung erzeugt wurde. Ein „Berührungsphase beendet“-Wert kann anzeigen, dass die Berührung beendet wurde (z.B. wenn der Benutzer seinen Finger von der Oberfläche einer Mehrfachberührungsanzeige abgehoben hat). Ein „Berührungsphase abgebrochen“-Wert kann anzeigen, dass die Berührung durch die Vorrichtung abgebrochen wurde. Eine abgebrochene Berührung kann eine Berührung sein, die nicht nötigerweise durch den Benutzer beendet wird, aber bei der die Vorrichtung bestimmt, dass sie ignoriert werden soll. Beispielsweise kann die Vorrichtung bestimmen, dass die Berührung versehentlich erzeugt wurde (d.h. als Ergebnis davon, dass eine tragbare mehrfachberührungsfähige Vorrichtung in eine Tasche gesteckt wurde) und dass daher die Berührung zu ignorieren ist. Jeder Wert des „Phasefeldes“ kann eine ganze Zahl sein.
- Daher kann jede Datenstruktur definieren, was mit einer Berührung zu einem bestimmten Zeitpunkt passiert (z.B. ob die Berührung stationär, bewegt, usw. ist) sowie andere mit der Berührung assoziierte Information (wie z.B. Position). Entsprechend kann jede Berührungsdatenstruktur den Zustand einer bestimmten Berührung zu einem bestimmten Zeitpunkt definieren. Ein oder mehrere sich auf denselben Zeitpunkt beziehende Berührungsdatenstrukturen können zu einer Berührungsereignisdatenstruktur hinzugefügt werden, die den Status aller Berührungen definiert, die eine bestimmte Ansicht zu einem Zeitpunkt empfängt (wie oben bemerkt können einige Berührungsdatenstrukturen auch Berührungen referenzieren, die beendet wurden und nicht länger empfangen werden). Im Laufe der Zeit können mehrere Berührungsereignisdatenstrukturen an die eine Ansicht implementierende Software gesendet werden, um die Software mit kontinuierlicher Information zu versorgen, die die in der Ansicht auftretenden Berührungen beschreibt. Ein oder mehrere Elemente der Vorrichtung, wie z.B. die Hardware
100 , die Treiber103 , das Kern-OS104 , dieOS APIs 105 undUI APIs können Berührungen an dem Mehrfachberührungsfeld101 detektieren und die verschiedenen Berührungsereignisdatenstrukturen erzeugen, die diese Berührungen definieren. - Die Fähigkeit, mehrere Berührungen und Mehrfachberührungsgesten verarbeiten zu können kann den verschiedenen Softwareelementen Komplexität hinzufügen. In einigen Fällen kann solche zusätzliche Komplexität erforderlich sein, um fortschrittliche und gewünschte Schnittstellenmerkmale zu implementieren. Beispielsweise kann ein Spiel die Fähigkeit, mehrere gleichzeitige in verschiedenen Ansichten auftretende Berührungen zu verarbeiten, erforderlich machen, da Spiele oft das Drücken mehrerer Tasten zur selben Zeit verlangen. Einige einfachere Anwendungen und/oder Ansichten (und ihre assoziierten Softwareelemente) benötigen dagegen keine fortschrittlichen Schnittstellenmerkmale. Beispielsweise kann eine einfache Taste (wie z.B. Taste
306 ) befriedigend mit einfachen Berührungen betrieben werden und benötigt keine Mehrfachberührungsfunktionalität. In diesen Fällen kann das darunter liegende OS unnötigerweise oder exzessive Berührungsdaten (z.B. Mehrfachberührungsdaten) an ein Softwareelement schicken, das mit einer Ansicht assoziiert ist, die dafür vorgesehen ist, nur durch einfache Berührungen betrieben zu werden (z.B. eine Taste). Weil das Softwareelement diese Daten möglicherweise verarbeiten muss, muss es möglicherweise die gesamte Komplexität eines Softwareelements aufweisen, das Mehrfachberührungen verarbeitet, selbst wenn es mit einer Ansicht assoziiert ist, für die nur Einfachberührungen relevant sind. Dies kann die Kosten der Softwareentwicklung für die Vorrichtung erhöhen, weil Softwareelemente, die in einer Mausschnittstellenumgebung traditionell sehr leicht zu programmieren waren (z.B. verschiedene Tasten, usw.), in einer Mehrfachberührungsumgebung viel komplexer sein können. - Ausführungsformen der vorliegenden Erfindung adressieren die oben genannten Probleme durch das selektive Bereitstellen von Berührungsdaten an verschiedene Softwareelemente gemäß vordefinierter Einstellungen. Daher kann eine einfachere Schnittstelle für ausgewählte Softwareelemente bereitgestellt werden, während andere die Vorteile komplexerer Mehrfachberührungseingaben nutzen können.
- Ausführungsformen der Erfindung können auf ein oder mehreren Flags beruhen, die mit ein oder mehreren Ansichten assoziiert sind, wobei jedes Flag oder jede Kombination daraus einen Modus zur Berührungsereignisverarbeitung für eine bestimmte Ansicht anzeigt. Beispielsweise können Mehrfachberührungs- und/oder exklusive Berührungsflags verwendet werden. Das Mehrfachberührungsflag kann anzeigen, ob eine bestimmte Ansicht in der Lage ist, mehrere gleichzeitige Berührungen zu empfangen oder nicht. Das exklusive Berührungsflag kann anzeigen, ob eine bestimmte Ansicht es anderen Ansichten erlaubt, Berührungsereignisse zu empfangen, während die Ansicht ein Berührungsereignis empfängt.
-
4 ist ein Flussdiagramm, das den Betrieb des Mehrfachberührungsflags gemäß einer Ausführungsform der Erfindung zeigt. Bei Schritt400 kann ein Benutzer eine Ansicht an einer ersten Stelle innerhalb der Ansicht berühren. Es kann angenommen werden, dass auf der Mehrfachberührungsanzeige keine weiteren Berührungen vorliegen, wenn die Berührung aus Schritt400 empfangen wird. Bei Schritt402 kann dasOS ein die empfangene Berührung definierendes Berührungsereignis an ein mit der berührten Stelle assoziiertes Softwareelement senden. - Bei Schritt
404 kann der Benutzer die Ansicht an einer zweiten Stelle berühren, ohne dabei die erste Berührung aufzugeben (d.h. während ein Finger an der ersten Stelle gedrückt verbleibt). Daher kann der Benutzer beispielsweise den rechten Teil der Tabellenelementansicht304 bei Schritt400 berühren und den linken Teil der Tabellenelementansicht304 bei Schritt404 , ohne dabei seinen bzw. ihren Finger von dem rechten Teil zu lösen. Dadurch tritt die zweite Berührung gleichzeitig mit der ersten Berührung auf (und macht sich damit die Vorteile der Mehrfachberührungsfähigkeit der Anzeige300 zunutze). - Bei Schritt
406 kann dasOS feststellen, ob das Mehrfachberührungsflag für die berührte Ansicht gesetzt ist. Wenn das Mehrfachberührungsflag gesetzt ist, dann kann die Ansicht eine Ansicht sein, die mehrere gleichzeitige Berührungen verarbeiten kann. Daher kann bei Schritt408 ein zweites Berührungsereignis für die zweite Berührung an das mit der Ansicht assoziierte Softwareelement gesendet werden. Es ist zu bemerken, dass neue Instanzen für das erste Berührungsereignis ebenso gesendet werden können, die anzeigen, dass das erste Berührungsereignis weiterhin stattfindet (d.h. der Finger an der ersten Stelle wurde nicht abgehoben). Die neuen Instanzen des ersten Berührungsereignisses können unterschiedliche Stellen spezifizieren, wenn der Finger an der ersten Stelle von dieser Stelle wegbewegt wird, ohne dabei abgehoben zu werden (d.h., wenn er über die Oberfläche der Anzeige „gezogen“ wird). - Wenn andererseits das Mehrfachberührungsflag nicht gesetzt ist, kann das OS die zweite Berührung ignorieren oder blockieren. Ein Ignorieren der zweiten Berührung kann darin resultieren, dass keinerlei mit der zweiten Berührung assoziierte Berührungsereignisse an das mit der berührten Ansicht assoziierte Softwareelement gesendet werden. In einigen Ausführungsformen kann das OS, soweit erforderlich, andere Softwareelemente auf die zweite Berührung hinweisen.
- Daher können es Ausführungsformen der vorliegenden Erfindung ermöglichen, dass relativ einfache Softwareelemente, die programmiert sind, um nur eine einzige Berührung zu einem Zeitpunkt zu verarbeiten, ihr Mehrfachberührungsflag nicht aktiviert lassen und damit sicherstellen, dass Berührungsereignisse, die ein Teil mehrerer gleichzeitiger Berührungen sind, nicht an sie gesendet werden. Unterdessen können komplexe Softwareelemente, die mehrere gleichzeitig auftretende Berührungen verarbeiten können, ihr Mehrfachberührungsflag aktivieren und Berührungsereignisse für alle Berührungen empfangen, die in ihren assoziierten Ansichten auftreten. Folglich können die Entwicklungskosten für einfache Softwareelemente reduziert werden, während fortschrittliche Mehrfachberührungsfunktionalität für komplexere Elemente bereitgestellt werden kann.
- Die
5A und5B sind Flussdiagramme, die ein beispielhaftes Betriebsverfahren für das exklusive Berührungsflag gemäß einer Ausführungsform der Erfindung zeigen. Bei Schritt500 kann ein Benutzer eine erste Ansicht berühren. Bei Schritt502 kann dasOS ein Berührungsereignis an ein erstes mit der ersten Ansicht assoziiertes Softwareelement senden. Bei Schritt504 kann der Benutzer eine zweite Ansicht berühren, ohne dabei die erste Berührung aufzugeben. - Bei Schritt
506 kann dasOS prüfen, ob das exklusive Berührungsflag für die erste Ansicht aktiviert ist. Wenn es gesetzt (aktiviert) ist, bedeutet dies, dass die erste Ansicht exklusiv die Berührungen empfangen muss und dass keine anderen Berührungen an andere Ansichten gesendet werden sollen. Wenn daher das exklusive Berührungsflag gesetzt ist, kann dasOS die zweite Berührung ignorieren (oder blockieren) und diese nicht an irgendwelche Softwareelemente senden. Wenn das Exklusivansichtsflag nicht gesetzt ist, dann kann das Verfahren zu Schritt510 aus5B übergehen. - In Schritt
510 kann das OS feststellen, ob das exklusive Ansichtsflag für die zweite Ansicht gesetzt ist. Wenn dieses Flag gesetzt ist, dann kann die zweite Ansicht nur exklusive Berührungsereignisse empfangen. Wenn daher bereits ein anderes Berührungsereignis durch eine andere Ansicht empfangen wird (d.h. die erste Ansicht), so kann die zweite Ansicht kein Berührungsereignis empfangen und dasOS kann die zweite Berührung ignorieren (Schritt512 ). Wenn allerdings das exklusive Berührungsflag für die zweite Berührung nicht gesetzt (aktiviert) ist, so kann dasOS ein mit der zweiten Berührung assoziiertes Berührungsereignis an die zweite Ansicht senden. Insbesondere kann dasOS ein mit der zweiten Berührung assoziiertes Berührungsereignis an ein mit der zweiten Ansicht assoziiertes Softwareelement senden (Schritt514 ). - Somit kann das exklusive Berührungsflag sicherstellen, dass als exklusiv markierte Ansichten nur Berührungsereignisse empfangen, wenn sie die einzigen Ansichten auf der Anzeige sind, die Berührungsereignisse empfangen. Das exklusive Flag kann bei der Vereinfachung der Software für auf einer mehrfachberührungsfähigen Vorrichtung ablaufende Anwendungen sehr nützlich sein. In bestimmten Situationen können sich komplexe Konflikte und Fehler ergeben, wenn es mehreren Ansichten erlaubt wird, gleichzeitig Berührungen zu empfangen. Wenn beispielsweise eine Taste zum Löschen eines Liedes und eine Taste zum Abspielen eines Liedes gleichzeitig gedrückt werden, kann dies einen Fehler hervorrufen. Das Verhindern solcher Konflikte kann komplexe und teure Software erforderlich machen. Die Ausführungsformen der vorliegenden Erfindung können jedoch den Bedarf für solche Software dadurch reduzieren, dass ein exklusives Berührungsflag bereitgestellt wird, das sicherstellen kann, dass eine Ansicht, die dieses Flag gesetzt hat, nur dann Berührungsereignisse empfangen wird, wenn sie die einzige Ansicht ist, die ein Berührungsereignis empfängt. Alternativ dazu können ein oder mehrere Ansichten ihr exklusives Berührungsflag nicht aktiviert haben und dadurch mehrere gleichzeitige Berührungen in zwei oder mehreren dieser Ansichten zulassen.
- In einigen Ausführungsformen kann das exklusive Flag die Exklusivität für die gesamte Anzeige angeben. Wenn daher eine Ansicht, bei der das exklusive Flag gesetzt ist, ein Berührungsereignis empfängt, können andere Ansichten in der Anzeige für den Empfang jeglicher Berührungsereignisse blockiert werden. In alternativen Ausführungsformen kann das exklusive Flag eine Exklusivität in einem kleineren Bereich wie z.B. einer einzigen Applikation oder einem einzigen Fenster anzeigen. Beispielsweise kann eine erste Ansicht mit gesetztem Exklusivitätsflag den Empfang jeglicher Berührungsereignisse durch andere Ansichten in demselben Fenster blockieren, während die erste Ansicht ein Berührungsereignis empfängt, aber sie kann nicht die Ansichten in anderen Fenstern blockieren.
- Die exklusiven Berührungs- und Mehrfachberührungsflags können kombiniert werden. Entsprechend können ein oder mehrere angezeigte Ansichten jeweils zwei Flags aufweisen - ein Mehrfachberührungsflag und ein exklusives Berührungsflag. In einigen Ausführungsformen können alle angezeigten Ansichten diese zwei Flags enthalten. Der Wert eines Flags muss nicht von dem Wert des anderen abhängen. In einem Beispiel kann eine Ansicht, bei der sowohl exklusive als auch Mehrfachberührungsflags gesetzt sind, mehrere Berührungen innerhalb der Ansicht zulassen, wobei sie jedoch Berührungen exklusiv empfängt (d.h., wenn die Ansicht Berührungen empfängt, können Berührungen in anderen Ansichten blockiert werden). Eine Ansicht, bei der beide Flags nicht aktiviert sind, kann Mehrfachberührungen innerhalb der Ansicht blockieren, aber einfache Berührungen innerhalb der Ansicht zulassen, selbst wenn gleichzeitig Berührungen in anderen Ansichten auftreten. Eine Ansicht, bei der das Mehrfachberührungsflag nicht aktiviert und das exklusive Berührungsflag aktiviert ist, kann nur einfache Berührungen innerhalb der Ansicht zulassen, wenn keine Berührungen in irgendwelchen anderen Ansichten auftreten. Eine Ansicht, in der das Mehrfachberührungsflag aktiviert und das exklusive Berührungsflag nicht aktiviert ist, kann alle für die Ansicht empfangenen Berührungen zulassen. Eine Ansicht, bei der beide Flags aktiviert sind, kann Mehrfachberührungen in der Ansicht zulassen, während keine anderen Berührungen in anderen Ansichten auftreten.
- Alternative Ausführungsformen können nur eines des Flags (und deren assoziierte Funktionalität) umfassen. Daher können einige Ausführungsformen das Mehrfachberührungsflag allein oder das exklusive Berührungsflag allein verwenden. In anderen Ausführungsformen können verschiedene Ansichten verschiedene Kombinationen der Flags verwenden.
- Die verschiedenen durch das OS in den
4 ,5A und5B ausgeführten Funktionalitäten können stattdessen durch andere Software wie z.B. verschiedene Dienstsoftware ausgeführt werden. Diese Funktionalitäten können durch Software auf einer jeden der Schichten103 bis107 aus1 ausgeführt werden. In einer alternativen Ausführungsform können diese Funktionalitäten sogar durch die Hardware100 ausgeführt werden. - Im Folgenden ist ein beispielhafter Codesatz aufgeführt, der die Verfahren eines beispielhaften mit einer Ansicht assoziierten Softwareelements gemäß einiger Ausführungsformen der Erfindung zeigt. Ein Fachmann würde erkennen, dass ebenso anderer Code verwendet werden könnte, um die oben erläuterten Funktionalitäten zu implementieren.
- Während die obige Erläuterung sich schwerpunktmäßig auf Mehrfachberührungsanzeigen und -felder bezieht, ist die vorliegende Erfindung nicht auf Mehrfachberührungsvorrichtungen beschränkt, sondern kann verschiedene Mehrfachpunktvorrichtungen, wie oben erläutert, umfassen, einschließlich beispielsweise von Mehrfachberührungssensorvorrichtungen. Für Mehrfachpunktvorrichtungen können Mehrfachpunkt- und Exklusivpunktflags verwendet werden. Diese Flags können ähnlich den Mehrfachberührungs- und exklusiven Berührungsflags wie oben erläutert funktionieren.
- Während die vorliegende Erfindung vollständig im Zusammenhang mit Ausführungsformen dafür unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben wurde, ist zu bemerken, dass verschiedene Änderungen und Modifikationen für den Fachmann offensichtlich werden. Solche Änderungen und Modifikationen sind so zu verstehen, dass sie im Umfang der vorliegenden Erfindung, wie durch ihre angehängten Ansprüche definiert, enthalten sind.
Claims (19)
- Verfahren zur Bearbeitung von Berührungsereignissen in einer Mehrfachberührungsvorrichtung (200; 210), umfassend: Anzeigen einer oder mehrerer Ansichten (301 bis 312); Ausführungen einer oder mehrerer Softwareelemente, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist; Assoziieren jeweils eines Mehrfachberührungsflags oder eines exklusiven Berührungsflags mit jeder Ansicht; Empfangen (400; 500) einer oder mehrerer Berührungen in der einen oder den mehreren Ansichten; und Selektives Senden (406-410; 506-514) eines oder mehrerer Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente, die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
- Verfahren nach
Anspruch 1 , wobei, wenn ein Mehrfachberührungsflag mit einer bestimmten Ansicht assoziiert ist, das Mehrfachberührungsflag anzeigt (406-410), ob das mit dieser bestimmten Ansicht assoziierte Softwareelement mehrere gleichzeitig in dieser Ansicht auftretende Berührungen verarbeiten darf. - Verfahren nach
Anspruch 1 , wobei das exklusive Berührungsflag verhindert (508), dass während eine Berührung in einer Ansicht mit einem aktivierten exklusiven Berührungsflag empfangen wird, Berührungsereignisse an Softwareelemente gesendet werden, die mit anderen Ansichten als der Ansicht mit aktiviertem exklusiven Berührungsflag assoziiert sind. - Verfahren nach
Anspruch 1 , wobei die Mehrfachberührungsvorrichtung ein Mobiltelefon ist. - Verfahren nach
Anspruch 1 , wobei die Mehrfachberührungsvorrichtung ein digitaler Medienspieler ist. - Verfahren nach
Anspruch 1 , umfassend: das Assoziieren eines Mehrfachberührungsflags mit einer ersten Ansicht; Empfangen (400) einer ersten Berührung in der ersten Ansicht, wobei die erste Ansicht eine der einen oder mehreren Ansichten ist; Senden (402) eines Berührungsereignisses, das die erste Berührung für ein erstes Softwareelement beschreibt, wobei das erste Softwareelement eines der einen oder mehreren Softwareelemente ist und mit der ersten Ansicht assoziiert ist; Feststellen (406), ob das mit der ersten Ansicht assoziierte Mehrfachberührungsflag anzeigt, dass die erste Ansicht eine Mehrfachberührungsansicht ist; und wenn die erste Ansicht keine Mehrfachberührungsansicht ist (406 - Nein), blockieren aller Berührungsereignisse, die jegliche anderen in der ersten Ansicht auftretenden Berührungen beschreiben, bis die erste Berührung nicht länger empfangen wird. - Verfahren nach
Anspruch 6 , weiterhin umfassend: Assoziieren jeder der einen oder mehreren Ansichten mit jeweils einem exklusiven Berührungsflag; Feststellen (506), ob das mit der ersten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die erste Ansicht eine exklusive Berührungsansicht ist, und wenn die erste Ansicht eine exklusive Berührungsansicht ist (506 - Ja), Blockieren bis die erste Berührung nicht länger empfangen wird jeglicher Berührungsereignisse, die jegliche anderen in einer Ansicht, die nicht die erste Ansicht ist, auftretende Berührungen beschreiben. - Verfahren nach
Anspruch 7 , wobei die erste Ansicht keine exklusive Berührungsansicht ist (506 - Nein), und wobei das Verfahren weiterhin umfasst: Empfangen (504) einer zweiten Berührung an dem Mehrfachberührungsfeld, wobei die zweite Berührung in einer zweiten Ansicht auftritt und mit einem zweiten Softwareelement assoziiert ist; Feststellen (510), ob das mit der zweiten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die zweite Ansicht eine exklusive Berührungsansicht ist; und wenn die zweite Ansicht eine exklusive Berührungsansicht ist (510 - Ja), verhindern (512) bis die erste Berührung nicht länger empfangen wird, dass ein mit der zweiten Berührung assoziiertes Berührungsereignis an das zweite Softwareelement gesendet wird. - Verfahren nach
Anspruch 8 , weiterhin umfassend: wenn die zweite Ansicht keine exklusive Berührungsansicht ist (510 - Nein), Senden (514) eines die zweite Berührung beschreibenden Berührungsereignisses an das zweite Softwareelement. - Computerlesbares Medium, umfassend eine Mehrzahl von Befehlen, die zur Ausführung auf einer Mehrfachberührungsvorrichtung (200; 210) konfiguriert sind, wobei die Befehle konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: eine oder mehrere Ansichten (301 bis 312) anzuzeigen; ein oder mehrere Softwareelemente auszuführen, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist; jeweils ein Mehrfachberührungsflag oder ein exklusives Berührungsflag mit jeder Ansicht zu assoziieren; eine oder mehrere Berührungen in der einen oder den mehreren Ansichten zu empfangen (400; 500); und selektiv eines oder mehrere Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente zu senden (406-410; 506-514), die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
- Computerlesbares Medium nach
Anspruch 10 , wobei, wenn ein Mehrfachberührungsflag mit einer bestimmten Ansicht assoziiert ist, das Mehrfachberührungsflag anzeigt (406-410), ob das mit dieser bestimmten Ansicht assoziierte Softwareelement mehrere gleichzeitig in dieser Ansicht auftretende Berührungen verarbeiten darf. - Computerlesbares Medium nach
Anspruch 10 , wobei das exklusive Berührungsflag verhindert (508), dass während eine Berührung in einer Ansicht mit einem aktivierten exklusiven Berührungsflag empfangen wird, Berührungsereignisse an Softwareelemente gesendet werden, die mit anderen Ansichten als der Ansicht mit aktiviertem exklusiven Berührungsflag assoziiert sind. - Computerlesbares Medium nach
Anspruch 10 , wobei die Mehrfachberührungsvorrichtung ein Mobiltelefon ist. - Computerlesbares Medium nach
Anspruch 10 , wobei die Mehrfachberührungsvorrichtung ein digitaler Medienspieler ist. - Computerlesbares Medium nach
Anspruch 10 , wobei die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: ein Mehrfachberührungsflag mit einer ersten Ansicht zu assoziieren; eine erste Berührung in der ersten Ansicht zu empfangen (400), wobei die erste Ansicht eine der einen oder mehreren Ansichten ist; ein die erste Berührung beschreibendes Berührungsereignis an ein erstes Softwareelement zu senden (402), wobei das erste Softwareelement eines der einen oder mehreren Softwareelemente ist und mit der ersten Ansicht assoziiert ist; Festzustellen (406), ob das mit der ersten Ansicht assoziierte Mehrfachberührungsflag anzeigt, dass die erste Ansicht eine Mehrfachberührungsansicht ist; und wenn die erste Ansicht keine Mehrfachberührungsansicht ist (406 - Nein), alle Berührungsereignisse zu blockieren, die jegliche anderen Berührungen in der ersten Ansicht beschreiben, bis die erste Berührung nicht länger empfangen wird. - Computerlesbares Medium nach
Anspruch 15 , wobei die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: jeweils ein exklusives Berührungsflag mit jeder der einen oder mehreren Ansichten zu assoziieren; Festzustellen (506), ob das mit der ersten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die erste Ansicht eine exklusive Berührungsansicht ist; und wenn die erste Ansicht eine exklusive Berührungsansicht ist (506 - Ja), bis die erste Berührung nicht länger empfangen wird alle Berührungsereignisse zu blockieren, die jegliche anderen Berührungen in einer Ansicht beschreiben, die nicht die erste Ansicht ist. - Computerlesbares Medium nach
Anspruch 16 , wobei die erste Ansicht keine exklusive Berührungsansicht ist (506 - Nein) und die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: eine zweite Berührung an dem Mehrfachberührungsfeld zu empfangen (504), wobei die zweite Berührung in einer zweiten Ansicht auftritt und mit einem zweiten Softwareelemente assoziiert ist; Festzustellen (510), ob das mit der zweiten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die zweite Ansicht eine exklusive Berührungsansicht ist; und wenn die zweite Ansicht eine exklusive Berührungsansicht ist (510 - Ja), zu verhindern (512) bis die erste Berührung nicht länger empfangen wird, dass eine mit der zweiten Ansicht assoziiertes Berührungsereignis an das zweite Softwareelement gesendet wird. - Computerlesbares Medium nach
Anspruch 17 , wobei die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: wenn die zweite Ansicht keine exklusive Berührungsansicht ist (510 - Nein), ein die zweite Berührung beschreibendes Berührungsereignis an das zweite Softwareelement zu senden (514). - Mehrfachberührungsfähiges Mobiltelefon mit einem computerlesbaren Medium, das eine Mehrzahl von Befehlen aufweist, die zur Ausführung auf dem Mobiltelefon konfiguriert sind, wobei die Befehle konfiguriert sind, das Mobiltelefon zu veranlassen: eine oder mehrere Ansichten (301 bis 312) anzuzeigen; ein oder mehrere Softwareelemente auszuführen, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist; jeweils ein Mehrfachberührungsflag oder ein exklusives Berührungsflag mit jeder Ansicht zu assoziieren; eine oder mehrere Berührungen in der einen oder den mehreren Ansichten zu empfangen (400; 500); und selektiv eines oder mehrere Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente zu senden (406-410; 506-514), die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/042,318 | 2008-03-04 | ||
US12/042,318 US8645827B2 (en) | 2008-03-04 | 2008-03-04 | Touch event model |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102009011687A1 DE102009011687A1 (de) | 2009-10-22 |
DE102009011687B4 true DE102009011687B4 (de) | 2019-02-07 |
Family
ID=40510039
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009011687.7A Active DE102009011687B4 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
DE202009018653U Expired - Lifetime DE202009018653U1 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
DE602009000704T Active DE602009000704D1 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
DE202009018624U Expired - Lifetime DE202009018624U1 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202009018653U Expired - Lifetime DE202009018653U1 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
DE602009000704T Active DE602009000704D1 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
DE202009018624U Expired - Lifetime DE202009018624U1 (de) | 2008-03-04 | 2009-03-04 | Berührungsereignismodell |
Country Status (12)
Country | Link |
---|---|
US (10) | US8645827B2 (de) |
EP (12) | EP2098948B1 (de) |
JP (5) | JP5075867B2 (de) |
CN (2) | CN102253797B (de) |
AT (1) | ATE498157T1 (de) |
AU (1) | AU2009200493A1 (de) |
CA (3) | CA2931604C (de) |
DE (4) | DE102009011687B4 (de) |
ES (2) | ES2393911T3 (de) |
HK (3) | HK1135210A1 (de) |
IL (2) | IL197386A (de) |
WO (1) | WO2009111189A1 (de) |
Families Citing this family (125)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7333092B2 (en) | 2002-02-25 | 2008-02-19 | Apple Computer, Inc. | Touch pad for handheld device |
US20070152983A1 (en) | 2005-12-30 | 2007-07-05 | Apple Computer, Inc. | Touch pad with symbols based on mode |
US8022935B2 (en) | 2006-07-06 | 2011-09-20 | Apple Inc. | Capacitance sensing electrode with integrated I/O mechanism |
US8274479B2 (en) | 2006-10-11 | 2012-09-25 | Apple Inc. | Gimballed scroll wheel |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US8174502B2 (en) | 2008-03-04 | 2012-05-08 | Apple Inc. | Touch event processing for web pages |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
US8463430B2 (en) * | 2008-10-23 | 2013-06-11 | Utique, Inc | Interactive and 3-D multi-senor touch selection interface for an automated retail store, vending machine, digital sign, or retail display |
GB2466077A (en) * | 2008-12-15 | 2010-06-16 | Symbian Software Ltd | Emulator for multiple computing device inputs |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US9684521B2 (en) * | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US20110175827A1 (en) * | 2009-12-04 | 2011-07-21 | Adam Bogue | Filtering Input Streams in a Multi-Touch System |
US20100085323A1 (en) * | 2009-12-04 | 2010-04-08 | Adam Bogue | Segmenting a Multi-Touch Input Region by User |
US8878791B2 (en) * | 2010-01-19 | 2014-11-04 | Avaya Inc. | Event generation based on print portion identification |
WO2011105996A1 (en) * | 2010-02-23 | 2011-09-01 | Hewlett-Packard Development Company, L.P. | Skipping through electronic content on an electronic device |
JP5557316B2 (ja) | 2010-05-07 | 2014-07-23 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、情報生成方法及びプログラム |
KR20110129125A (ko) * | 2010-05-25 | 2011-12-01 | 삼성전자주식회사 | 휴대 단말기의 터치 패널 운용 방법 및 이를 지원하는 휴대 단말기 |
KR101679572B1 (ko) | 2010-05-31 | 2016-11-25 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
JP5668355B2 (ja) * | 2010-08-04 | 2015-02-12 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
KR101705872B1 (ko) * | 2010-09-08 | 2017-02-10 | 삼성전자주식회사 | 모바일 디바이스의 화면상의 영역 선택 방법 및 장치 |
CN102445983B (zh) * | 2010-09-30 | 2014-03-12 | 联想(北京)有限公司 | 电子设备及其多个输入设备协同工作的方法 |
JP5304763B2 (ja) * | 2010-10-22 | 2013-10-02 | アイシン・エィ・ダブリュ株式会社 | 画像表示装置、画像表示方法及びプログラム |
EP3982242B1 (de) * | 2010-12-20 | 2024-05-01 | Apple Inc. | Ereigniserkennung |
CN106095418B (zh) * | 2010-12-20 | 2019-09-13 | 苹果公司 | 事件识别 |
JP5735841B2 (ja) * | 2011-04-05 | 2015-06-17 | キヤノン株式会社 | 印刷装置、その制御方法、及びプログラム |
US8743386B2 (en) | 2011-04-05 | 2014-06-03 | Canon Kabushiki Kaisha | Executing a print job in accordance with input image data |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
US8572194B2 (en) * | 2011-06-10 | 2013-10-29 | Microsoft Corporation | Selective linking of message accounts |
JP5797950B2 (ja) * | 2011-06-29 | 2015-10-21 | 富士通コンポーネント株式会社 | マルチタッチパネル装置 |
CN102289318B (zh) * | 2011-07-06 | 2013-07-10 | 广东威创视讯科技股份有限公司 | 一种触摸屏多点书写处理方法以及装置 |
JP2013016122A (ja) * | 2011-07-06 | 2013-01-24 | Oki Electric Ind Co Ltd | 表示制御装置、表示制御方法、およびプログラム |
US9727227B2 (en) * | 2011-07-28 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-touch remoting |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US10318146B2 (en) * | 2011-09-12 | 2019-06-11 | Microsoft Technology Licensing, Llc | Control area for a touch screen |
US9274642B2 (en) | 2011-10-20 | 2016-03-01 | Microsoft Technology Licensing, Llc | Acceleration-based interaction for multi-pointer indirect input devices |
US9658715B2 (en) | 2011-10-20 | 2017-05-23 | Microsoft Technology Licensing, Llc | Display mapping modes for multi-pointer indirect input devices |
CN103076964B (zh) * | 2011-10-26 | 2016-06-01 | 腾讯科技(深圳)有限公司 | 翻屏方法及装置 |
US20130124872A1 (en) * | 2011-11-15 | 2013-05-16 | MingXiang Shen | Method of accessing a computer hardware device in a Metro user interface mode application |
US9389679B2 (en) | 2011-11-30 | 2016-07-12 | Microsoft Technology Licensing, Llc | Application programming interface for a multi-pointer indirect touch input device |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
JP6082458B2 (ja) | 2012-05-09 | 2017-02-15 | アップル インコーポレイテッド | ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース |
KR101956082B1 (ko) | 2012-05-09 | 2019-03-11 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
EP2847661A2 (de) | 2012-05-09 | 2015-03-18 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zum bewegen und ablegen eines benutzeroberflächenobjekts |
WO2013169846A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying additional information in response to a user contact |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169854A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
KR101823288B1 (ko) | 2012-05-09 | 2018-01-29 | 애플 인크. | 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
US9098196B2 (en) * | 2012-06-11 | 2015-08-04 | Lenovo (Singapore) Pte. Ltd. | Touch system inadvertent input elimination |
JP5700020B2 (ja) | 2012-10-10 | 2015-04-15 | コニカミノルタ株式会社 | 画像処理装置、プログラム及び操作イベント判別方法 |
JP5655836B2 (ja) | 2012-10-11 | 2015-01-21 | コニカミノルタ株式会社 | 画像処理装置、プログラム及び操作イベント判別方法 |
CN103838502B (zh) * | 2012-11-22 | 2018-04-27 | 腾讯科技(深圳)有限公司 | 一种滑动识别方法和装置 |
JP5862549B2 (ja) | 2012-11-28 | 2016-02-16 | コニカミノルタ株式会社 | データ処理装置、操作受付方法およびブラウジングプログラム |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
JP6093877B2 (ja) | 2012-12-29 | 2017-03-08 | アップル インコーポレイテッド | 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース |
CN107831991B (zh) | 2012-12-29 | 2020-11-27 | 苹果公司 | 用于确定是滚动还是选择内容的设备、方法和图形用户界面 |
CN104903834B (zh) | 2012-12-29 | 2019-07-05 | 苹果公司 | 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面 |
EP2939095B1 (de) | 2012-12-29 | 2018-10-03 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften |
JP6138274B2 (ja) | 2012-12-29 | 2017-05-31 | アップル インコーポレイテッド | ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース |
JP5981023B2 (ja) * | 2013-01-06 | 2016-08-31 | インテル コーポレイション | タッチ・データの分散前処理及びディスプレイ領域制御のための方法、装置、及びシステム |
KR102102157B1 (ko) | 2013-03-29 | 2020-04-21 | 삼성전자주식회사 | 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법 |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
US9256358B2 (en) * | 2013-06-10 | 2016-02-09 | Adtile Technologies Inc. | Multiple panel touch user interface navigation |
US20140372935A1 (en) * | 2013-06-14 | 2014-12-18 | Microsoft Corporation | Input Processing based on Input Context |
JP2016522502A (ja) * | 2013-07-01 | 2016-07-28 | インテル・コーポレーション | クイックレスポンス静電容量方式タッチスクリーンデバイス |
US9531722B1 (en) | 2013-10-31 | 2016-12-27 | Google Inc. | Methods for generating an activity stream |
US9542457B1 (en) | 2013-11-07 | 2017-01-10 | Google Inc. | Methods for displaying object history information |
US9614880B1 (en) | 2013-11-12 | 2017-04-04 | Google Inc. | Methods for real-time notifications in an activity stream |
JP5992900B2 (ja) * | 2013-12-19 | 2016-09-14 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、そのタッチイベント処理方法、及びコンピュータが実行可能なプログラム |
US9509772B1 (en) | 2014-02-13 | 2016-11-29 | Google Inc. | Visualization and control of ongoing ingress actions |
US9536199B1 (en) | 2014-06-09 | 2017-01-03 | Google Inc. | Recommendations based on device usage |
US9507791B2 (en) | 2014-06-12 | 2016-11-29 | Google Inc. | Storage system user interface with floating file collection |
US10078781B2 (en) | 2014-06-13 | 2018-09-18 | Google Llc | Automatically organizing images |
US9182889B1 (en) | 2014-06-24 | 2015-11-10 | Google Inc. | Preventing unintentional user activation of user interface elements |
KR101594946B1 (ko) * | 2014-11-21 | 2016-02-17 | 스튜디오씨드코리아 주식회사 | 프로토타이핑 툴을 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
JP6436752B2 (ja) * | 2014-12-04 | 2018-12-12 | キヤノン株式会社 | 情報処理装置、情報処理装置における情報処理方法、並びにプログラム |
US9870420B2 (en) | 2015-01-19 | 2018-01-16 | Google Llc | Classification and storage of documents |
KR102332015B1 (ko) * | 2015-02-26 | 2021-11-29 | 삼성전자주식회사 | 터치 처리 방법 및 이를 지원하는 전자 장치 |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US10120735B2 (en) | 2015-03-30 | 2018-11-06 | Microsoft Technology Licensing, Llc | Touch application programming interfaces |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US9846535B2 (en) | 2015-06-05 | 2017-12-19 | Apple Inc. | Devices and methods for processing touch inputs over multiple regions of a touch-sensitive surface |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
CN106796472B (zh) * | 2015-06-07 | 2019-10-18 | 苹果公司 | 分离内容的延迟缩短 |
US10402089B2 (en) | 2015-07-27 | 2019-09-03 | Jordan A. Berger | Universal keyboard |
US9864516B2 (en) * | 2015-07-27 | 2018-01-09 | Jordan A. Berger | Universal keyboard |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10097913B2 (en) | 2015-09-30 | 2018-10-09 | Apple Inc. | Earbud case with charging system |
JP6805589B2 (ja) * | 2016-07-11 | 2020-12-23 | 富士通株式会社 | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 |
CN106325668B (zh) * | 2016-08-11 | 2019-10-18 | 网易(杭州)网络有限公司 | 触摸事件响应处理方法及*** |
KR102316024B1 (ko) * | 2017-03-02 | 2021-10-26 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
CN108088435A (zh) * | 2017-10-20 | 2018-05-29 | 沈阳美行科技有限公司 | 一种识别触控的导航方法及装置 |
KR102448223B1 (ko) | 2018-02-09 | 2022-09-29 | 애플 인크. | 그래픽 사용자 인터페이스를 위한 미디어 캡처 잠금 어포던스 |
US10921975B2 (en) | 2018-06-03 | 2021-02-16 | Apple Inc. | Devices, methods, and user interfaces for conveying proximity-based and contact-based input events |
US11172101B1 (en) | 2018-09-20 | 2021-11-09 | Apple Inc. | Multifunction accessory case |
USD962244S1 (en) * | 2018-10-28 | 2022-08-30 | Apple Inc. | Electronic device with graphical user interface |
US11301128B2 (en) * | 2019-05-01 | 2022-04-12 | Google Llc | Intended input to a user interface from detected gesture positions |
KR102300939B1 (ko) * | 2019-08-13 | 2021-09-10 | 주식회사 인터유니크 | 멀티터치를 지원하지 않는 앱사용에 따른 터치스크린 시스템의 싱글터치 변환장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060097991A1 (en) | 2004-05-06 | 2006-05-11 | Apple Computer, Inc. | Multipoint touchscreen |
US20070226636A1 (en) | 2006-03-21 | 2007-09-27 | Microsoft Corporation | Simultaneous input across multiple applications |
Family Cites Families (603)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US649998A (en) | 1899-09-30 | 1900-05-22 | Elmer A Sperry | Element for storage batteries. |
GB1517521A (en) | 1975-09-01 | 1978-07-12 | Tilgate Pallets Ltd | Pallets |
US4455452A (en) | 1982-09-13 | 1984-06-19 | Touch Activated Switch Arrays, Inc. | Touch activated controller for generating X-Y output information |
US4674066A (en) | 1983-02-18 | 1987-06-16 | Houghton Mifflin Company | Textual database system using skeletonization and phonetic replacement to retrieve words matching or similar to query words |
JPS61228523A (ja) * | 1985-04-03 | 1986-10-11 | Hitachi Ltd | キ−ボ−ド制御方式 |
US4914624A (en) | 1988-05-06 | 1990-04-03 | Dunthorn David I | Virtual button for touch screen |
JPH02140822A (ja) | 1988-11-22 | 1990-05-30 | Nec Corp | マルチウインドディスプレイ方式 |
US5252951A (en) | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
JP2862626B2 (ja) | 1990-03-22 | 1999-03-03 | 株式会社東芝 | 電子辞書及び情報検索方法 |
US5046434A (en) | 1990-05-02 | 1991-09-10 | Penda Corporation | Plastic reinforced thermoformed pallet |
JP3145735B2 (ja) | 1991-07-17 | 2001-03-12 | 富士通株式会社 | 入力制御方式 |
JPH05197573A (ja) | 1991-08-26 | 1993-08-06 | Hewlett Packard Co <Hp> | タスク指向パラダイムによるタスク管理システム |
JP2827612B2 (ja) | 1991-10-07 | 1998-11-25 | 富士通株式会社 | タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。 |
US5233547A (en) | 1991-11-12 | 1993-08-03 | Ncr Corporation | Electronic checking account apparatus and method having a digitizer to receive information as a check is being written |
JP2787523B2 (ja) * | 1992-04-15 | 1998-08-20 | 沖電気工業株式会社 | キーボード |
US5880411A (en) * | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5488204A (en) * | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
JPH0816314B2 (ja) | 1992-09-12 | 1996-02-21 | グンゼ株式会社 | 筒状編地の連続染色法 |
US7084859B1 (en) | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
JP2999335B2 (ja) | 1992-11-05 | 2000-01-17 | シャープ株式会社 | ジェスチャー処理装置およびジェスチャー処理方法 |
US5583543A (en) | 1992-11-05 | 1996-12-10 | Sharp Kabushiki Kaisha | Pen input processing apparatus |
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US5463725A (en) | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
US5513309A (en) * | 1993-01-05 | 1996-04-30 | Apple Computer, Inc. | Graphic editor user interface for a pointer-based computer system |
JP3147572B2 (ja) * | 1993-03-22 | 2001-03-19 | 株式会社日立製作所 | プログラム生成方法 |
DE4406668C2 (de) * | 1993-04-27 | 1996-09-12 | Hewlett Packard Co | Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts |
JP2986047B2 (ja) | 1993-04-29 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | ディジタル入力用表示装置並びに入力処理装置および方法 |
DE69432199T2 (de) | 1993-05-24 | 2004-01-08 | Sun Microsystems, Inc., Mountain View | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
US6035343A (en) * | 1993-06-11 | 2000-03-07 | Fujitsu Limited | Method for executing software formed of software components and a system for executing such software |
US5581670A (en) | 1993-07-21 | 1996-12-03 | Xerox Corporation | User interface having movable sheet with click-through tools |
CA2124505C (en) | 1993-07-21 | 2000-01-04 | William A. S. Buxton | User interface having simultaneously movable tools and cursor |
US5818455A (en) | 1993-07-21 | 1998-10-06 | Xerox Corporation | Method and apparatus for operating on the model data structure of an image to produce human perceptible output using a viewing operation region having explicit multiple regions |
US5627959A (en) * | 1993-09-20 | 1997-05-06 | Oracle Corporation | Method for manipulating graphic objects |
US5564112A (en) * | 1993-10-14 | 1996-10-08 | Xerox Corporation | System and method for generating place holders to temporarily suspend execution of a selected command |
US5454960A (en) | 1993-11-10 | 1995-10-03 | Advanced Building Technologies, Inc. | Oil change and recycling system |
US5534893A (en) | 1993-12-15 | 1996-07-09 | Apple Computer, Inc. | Method and apparatus for using stylus-tablet input in a computer system |
US5588072A (en) | 1993-12-22 | 1996-12-24 | Canon Kabushiki Kaisha | Method and apparatus for selecting blocks of image data from image data having both horizontally- and vertically-oriented blocks |
US5686940A (en) | 1993-12-24 | 1997-11-11 | Rohm Co., Ltd. | Display apparatus |
US5566337A (en) | 1994-05-13 | 1996-10-15 | Apple Computer, Inc. | Method and apparatus for distributing events in an operating system |
JP2939119B2 (ja) | 1994-05-16 | 1999-08-25 | シャープ株式会社 | 手書き文字入力表示装置および方法 |
US5570113A (en) | 1994-06-29 | 1996-10-29 | International Business Machines Corporation | Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system |
US5510061A (en) | 1994-07-26 | 1996-04-23 | Norton Chemical Process Products Corp. | Non-welded support plate member |
DE69521575T2 (de) | 1994-09-12 | 2002-05-16 | Adobe Systems Inc | Verfahren und Anordnung zur Darstellung elektronischer Dokumente |
EP0712825B1 (de) | 1994-11-15 | 1998-03-11 | Uop | Verfahren zur adsorptiven Abtrennung von meta-Xylol von aromatischen Kohlenwasserstoffen |
US5495566A (en) | 1994-11-22 | 1996-02-27 | Microsoft Corporation | Scrolling contents of a window |
JP2944439B2 (ja) | 1994-12-27 | 1999-09-06 | シャープ株式会社 | 手書き文字入力装置および方法 |
JPH08307954A (ja) | 1995-05-12 | 1996-11-22 | Sony Corp | 座標入力装置および方法、並びに情報処理装置 |
US5708460A (en) * | 1995-06-02 | 1998-01-13 | Avi Systems, Inc. | Touch screen |
US6496182B1 (en) | 1995-06-07 | 2002-12-17 | Microsoft Corporation | Method and system for providing touch-sensitive screens for the visually impaired |
JPH0944285A (ja) * | 1995-07-28 | 1997-02-14 | Hitachi Ltd | 情報処理装置 |
JPH0969037A (ja) | 1995-08-31 | 1997-03-11 | Sharp Corp | データ処理装置 |
US5655094A (en) | 1995-09-29 | 1997-08-05 | International Business Machines Corporation | Pop up scroll bar |
JP3636792B2 (ja) | 1995-10-18 | 2005-04-06 | 株式会社リコー | ペン先座標入力装置 |
JP3845890B2 (ja) | 1996-02-23 | 2006-11-15 | カシオ計算機株式会社 | 電子機器 |
US5676064A (en) | 1996-04-22 | 1997-10-14 | Shuert; Lyle H. | Pallet and pallet package |
JP3839877B2 (ja) | 1996-07-05 | 2006-11-01 | キヤノン株式会社 | 手書きパターン処理装置及び手書きパターン処理方法 |
US5745116A (en) * | 1996-09-09 | 1998-04-28 | Motorola, Inc. | Intuitive gesture-based graphical user interface |
US5903902A (en) * | 1996-09-09 | 1999-05-11 | Design Intelligence, Inc. | Design engine with tree and component structure |
US5995083A (en) | 1996-11-20 | 1999-11-30 | Alps Electric Co., Ltd. | Coordinates input apparatus |
JP3889466B2 (ja) | 1996-11-25 | 2007-03-07 | ソニー株式会社 | 文章入力装置及び方法 |
US5917477A (en) * | 1997-02-28 | 1999-06-29 | Samsung Electronics Co., Ltd. | Touch screen input apparatus for chip mounter, chip mounter including the same and method for controlling the chip mounter |
US6141018A (en) | 1997-03-12 | 2000-10-31 | Microsoft Corporation | Method and system for displaying hypertext documents with visual effects |
CN1124010C (zh) | 1997-03-13 | 2003-10-08 | 国际商业机器公司 | 连到计算机网络上的信息站和服务器 |
US5999176A (en) | 1997-04-04 | 1999-12-07 | International Business Machines Corporation | Method to provide a single scrolling control for a multi-window interface |
JPH1185354A (ja) | 1997-09-04 | 1999-03-30 | Internatl Business Mach Corp <Ibm> | キーボード組込み型座標指示装置、キーボード・ユニット、及び情報処理機器 |
US9098297B2 (en) * | 1997-05-08 | 2015-08-04 | Nvidia Corporation | Hardware accelerator for an object-oriented programming language |
US6049326A (en) | 1997-05-12 | 2000-04-11 | Siemens Information And Communication Networks, Inc. | System and method for dual browser modes |
US5983190A (en) * | 1997-05-19 | 1999-11-09 | Microsoft Corporation | Client server animation system for managing interactive user interface characters |
FI115689B (fi) | 1997-05-21 | 2005-06-15 | Nokia Corp | Menetelmä ja järjestely matkaviestimen näytöllä esitettävän tiedon vierittämiseksi |
US6028602A (en) * | 1997-05-30 | 2000-02-22 | Telefonaktiebolaget Lm Ericsson | Method for managing contents of a hierarchical data model |
JP3968477B2 (ja) | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US6034688A (en) | 1997-09-15 | 2000-03-07 | Sony Corporation | Scrolling navigational display system |
US6377965B1 (en) | 1997-11-07 | 2002-04-23 | Microsoft Corporation | Automatic word completion system for partially entered data |
AU1329199A (en) | 1997-12-01 | 1999-06-16 | Cedara Software Corp. | Architecture for an application framework |
DE69814155T2 (de) | 1997-12-16 | 2003-10-23 | Microsoft Corp | System und verfahren zur virtuellen eingabe |
US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
EP1717683A3 (de) | 1998-01-26 | 2010-03-17 | Apple Inc. | Verfahren und Vorrichtung zur Integration von manuellen Eingaben |
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US20070177804A1 (en) | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US7840912B2 (en) | 2006-01-30 | 2010-11-23 | Apple Inc. | Multi-touch gesture dictionary |
US7844914B2 (en) * | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US20040080541A1 (en) | 1998-03-20 | 2004-04-29 | Hisashi Saiga | Data displaying device |
US7346850B2 (en) * | 1998-06-12 | 2008-03-18 | Cygnus Systems, Inc. | System and method for iconic software environment management |
US6429846B2 (en) | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US6061063A (en) | 1998-06-30 | 2000-05-09 | Sun Microsystems, Inc. | Method and apparatus for providing feedback while scrolling |
US6570594B1 (en) | 1998-06-30 | 2003-05-27 | Sun Microsystems, Inc. | User interface with non-intrusive display element |
JP4083879B2 (ja) | 1998-07-06 | 2008-04-30 | 株式会社シマノ | 釣り用衣服 |
US6188391B1 (en) * | 1998-07-09 | 2001-02-13 | Synaptics, Inc. | Two-layer capacitive touchpad and method of making same |
US7559039B2 (en) | 1998-07-14 | 2009-07-07 | Brad Ridgley | Method and device for finding, collecting and acting upon units of information |
CA2244431C (en) | 1998-07-30 | 2002-02-19 | Ibm Canada Limited-Ibm Canada Limitee | Touchscreen keyboard support for multi-byte character languages |
US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
US6068124A (en) | 1998-08-27 | 2000-05-30 | Nanya Plastics | Plastic pallet and separator for packaging yarn spools |
US6628835B1 (en) | 1998-08-31 | 2003-09-30 | Texas Instruments Incorporated | Method and system for defining and recognizing complex events in a video sequence |
US20020018051A1 (en) | 1998-09-15 | 2002-02-14 | Mona Singh | Apparatus and method for moving objects on a touchscreen display |
US6985178B1 (en) * | 1998-09-30 | 2006-01-10 | Canon Kabushiki Kaisha | Camera control system, image pick-up server, client, control method and storage medium therefor |
JP4159674B2 (ja) | 1998-10-22 | 2008-10-01 | 富士通株式会社 | オブジェクト指向業務システムおよび方法 |
JP4542637B2 (ja) | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
JP2000163443A (ja) | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | 携帯情報機器及び情報記憶媒体 |
US8938688B2 (en) | 1998-12-04 | 2015-01-20 | Nuance Communications, Inc. | Contextual prediction of user words and user actions |
US6963937B1 (en) | 1998-12-17 | 2005-11-08 | International Business Machines Corporation | Method and apparatus for providing configurability and customization of adaptive user-input filtration |
US6259436B1 (en) | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
US6643824B1 (en) | 1999-01-15 | 2003-11-04 | International Business Machines Corporation | Touch screen region assist for hypertext links |
US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
JP2000222130A (ja) | 1999-02-02 | 2000-08-11 | Toshiba Corp | 入力装置および方法および記憶媒体 |
US20060061551A1 (en) | 1999-02-12 | 2006-03-23 | Vega Vista, Inc. | Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection |
US6486896B1 (en) | 1999-04-07 | 2002-11-26 | Apple Computer, Inc. | Scalable scroll controller |
ATE233365T1 (de) | 1999-04-21 | 2003-03-15 | Barrie Weatherall | Stabilisiervorrichtung für leitern |
JP4939682B2 (ja) | 1999-04-27 | 2012-05-30 | エーユー オプトロニクス コーポレイション | 表示装置 |
US7164413B2 (en) | 1999-05-19 | 2007-01-16 | Digimarc Corporation | Enhanced input peripheral |
AUPQ439299A0 (en) | 1999-12-01 | 1999-12-23 | Silverbrook Research Pty Ltd | Interface system |
US6714936B1 (en) * | 1999-05-25 | 2004-03-30 | Nevin, Iii Rocky Harry W. | Method and apparatus for displaying data stored in linked nodes |
US7030863B2 (en) | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
US7286115B2 (en) | 2000-05-26 | 2007-10-23 | Tegic Communications, Inc. | Directional input system with automatic correction |
US6631501B1 (en) | 1999-06-30 | 2003-10-07 | Microsoft Corporation | Method and system for automatic type and replace of characters in a sequence of characters |
US6639584B1 (en) | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
US6335725B1 (en) * | 1999-07-14 | 2002-01-01 | Hewlett-Packard Company | Method of partitioning a touch screen for data input |
JP2001027924A (ja) | 1999-07-14 | 2001-01-30 | Sharp Corp | 表示画面を用いる入力装置 |
US6636242B2 (en) | 1999-08-31 | 2003-10-21 | Accenture Llp | View configurer in a presentation services patterns environment |
US6448986B1 (en) | 1999-09-07 | 2002-09-10 | Spotware Technologies Llc | Method and system for displaying graphical objects on a display screen |
EP1094383A3 (de) * | 1999-10-18 | 2005-11-02 | Honeywell International, Inc. | Verfahren und Vorrichtung zur Kursorsteuerung |
EP1208476A2 (de) | 1999-10-20 | 2002-05-29 | Koninklijke Philips Electronics N.V. | Gerät und verfahren zum durchblättern einer bildersammlung |
JP2001134382A (ja) | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
JP2001167227A (ja) | 1999-12-07 | 2001-06-22 | Hitachi Ltd | 情報端末装置 |
US6778992B1 (en) | 1999-12-21 | 2004-08-17 | Lockstream Corporation | Flexible and hierarchical user interfaces defined using a data definition language |
US6664991B1 (en) * | 2000-01-06 | 2003-12-16 | Microsoft Corporation | Method and apparatus for providing context menus on a pen-based device |
US6809724B1 (en) | 2000-01-18 | 2004-10-26 | Seiko Epson Corporation | Display apparatus and portable information processing apparatus |
US6820237B1 (en) | 2000-01-21 | 2004-11-16 | Amikanow! Corporation | Apparatus and method for context-based highlighting of an electronic document |
US6757068B2 (en) | 2000-01-28 | 2004-06-29 | Intersense, Inc. | Self-referenced tracking |
US6856326B1 (en) | 2000-01-28 | 2005-02-15 | International Business Machines Corporation | Smooth scrolling system and method |
US7138983B2 (en) | 2000-01-31 | 2006-11-21 | Canon Kabushiki Kaisha | Method and apparatus for detecting and interpreting path of designated position |
JP4803883B2 (ja) | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
US6590595B1 (en) | 2000-02-08 | 2003-07-08 | Sun Microsystems, Inc. | Mechanism for providing intuitive scrolling feedback |
US6922810B1 (en) | 2000-03-07 | 2005-07-26 | Microsoft Corporation | Grammar-based automatic data completion and suggestion for user input |
JP2003528377A (ja) * | 2000-03-17 | 2003-09-24 | ビジブル. コム インコーポレーティッド | 三次元空間ユーザ・インタフェース |
US7142205B2 (en) | 2000-03-29 | 2006-11-28 | Autodesk, Inc. | Single gesture map navigation graphical user interface for a personal digital assistant |
CN1422481A (zh) | 2000-03-30 | 2003-06-04 | 高通股份有限公司 | 把指定事件通知移动台应用程序的方法和设备 |
JP4124402B2 (ja) | 2000-03-31 | 2008-07-23 | 株式会社リコー | 画像入力装置 |
WO2001077792A2 (en) | 2000-04-07 | 2001-10-18 | Rsa Security Inc. | System and method for authenticating a user |
US6765557B1 (en) | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
US7450114B2 (en) * | 2000-04-14 | 2008-11-11 | Picsel (Research) Limited | User interface systems and methods for manipulating and viewing digital documents |
US6459770B1 (en) | 2000-04-19 | 2002-10-01 | Analogic Corporation | Backlash-resistant drive assembly for collimator in a CT scanner |
JP2001299733A (ja) | 2000-04-27 | 2001-10-30 | Konica Corp | Pci放射線画像処理装置、pci放射線画像検出処理装置、pci放射線画像出力装置及びpci画像診断支援装置 |
US6559869B1 (en) | 2000-05-04 | 2003-05-06 | Microsoft Corporation | Adaptive auto-scrolling merge for hand written input |
US7818691B2 (en) | 2000-05-11 | 2010-10-19 | Nes Stewart Irvine | Zeroclick |
US6446083B1 (en) | 2000-05-12 | 2002-09-03 | Vastvideo, Inc. | System and method for classifying media items |
US6912694B1 (en) | 2000-06-28 | 2005-06-28 | Intel Corporation | Providing a scrolling function for a multiple frame web page |
US6677965B1 (en) * | 2000-07-13 | 2004-01-13 | International Business Machines Corporation | Rubber band graphical user interface control |
GB0017793D0 (en) | 2000-07-21 | 2000-09-06 | Secr Defence | Human computer interface |
JP2002041242A (ja) * | 2000-07-27 | 2002-02-08 | Nec Corp | 描画フェードアウト機能付き入力装置と方法 |
US6714221B1 (en) | 2000-08-03 | 2004-03-30 | Apple Computer, Inc. | Depicting and setting scroll amount |
US20020015064A1 (en) | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
US6704024B2 (en) | 2000-08-07 | 2004-03-09 | Zframe, Inc. | Visual content browsing using rasterized representations |
JP2002062983A (ja) | 2000-08-21 | 2002-02-28 | Hitachi Ltd | ポインティングデバイス |
US6791530B2 (en) | 2000-08-29 | 2004-09-14 | Mitsubishi Electric Research Laboratories, Inc. | Circular graphical user interfaces |
US6562929B2 (en) | 2000-08-30 | 2003-05-13 | Jsr Corporation | Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same |
US6912462B2 (en) | 2000-08-31 | 2005-06-28 | Sony Corporation | Information processing apparatus, information processing method and program storage media |
US20020138617A1 (en) | 2000-09-06 | 2002-09-26 | Jacob Christfort | Providing content from multiple services |
US6757673B2 (en) | 2000-10-09 | 2004-06-29 | Town Compass Llc | Displaying hierarchial relationship of data accessed via subject index |
US7761541B1 (en) | 2000-10-25 | 2010-07-20 | Nortel Networks Limited | Service enabling technology |
US6735583B1 (en) | 2000-11-01 | 2004-05-11 | Getty Images, Inc. | Method and system for classifying and locating media content |
US7072501B2 (en) | 2000-11-22 | 2006-07-04 | R2 Technology, Inc. | Graphical user interface for display of anatomical information |
US7184796B2 (en) | 2000-12-04 | 2007-02-27 | International Business Machines Corporation | Personal communication device having a built in projection display |
US7240291B2 (en) | 2000-12-21 | 2007-07-03 | Xerox Corporation | Methods, systems, and computer program products for display of information relating to a virtual three-dimensional book |
US6976172B2 (en) | 2000-12-28 | 2005-12-13 | Intel Corporation | System and method for protected messaging |
US6839721B2 (en) * | 2001-01-12 | 2005-01-04 | Hewlett-Packard Development Company, L.P. | Integration of a database into file management software for protecting, tracking, and retrieving data |
US6677932B1 (en) * | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
JP3881179B2 (ja) | 2001-02-14 | 2007-02-14 | 三菱電機株式会社 | ユーザインタフェース設計装置 |
US20040027398A1 (en) * | 2001-02-15 | 2004-02-12 | Denny Jaeger | Intuitive graphic user interface with universal tools |
US6720954B2 (en) * | 2001-03-14 | 2004-04-13 | International Business Machines Corporation | Method to aid in sizing graphical user interface touch controls |
US6972776B2 (en) | 2001-03-20 | 2005-12-06 | Agilent Technologies, Inc. | Scrolling method using screen pointing device |
GB2373778B (en) | 2001-03-30 | 2003-08-06 | Robin Lewis | Corner elements for packaging |
US6741996B1 (en) | 2001-04-18 | 2004-05-25 | Microsoft Corporation | Managing user clips |
ATE459908T1 (de) | 2001-05-02 | 2010-03-15 | Bitstream Inc | Verfahren, systeme und programmierung zur herstellung und anzeige von subpixeloptimierten font-bitmaps unter verwendung eines nichtlinearen farbausgleichs |
US20020194589A1 (en) | 2001-05-08 | 2002-12-19 | Cristofalo Michael | Technique for optimizing the delivery of advertisements and other programming segments by making bandwidth tradeoffs |
US20020171675A1 (en) | 2001-05-15 | 2002-11-21 | International Business Machines Corporation | Method and system for graphical user interface (GUI) widget having user-selectable mass |
US7730401B2 (en) | 2001-05-16 | 2010-06-01 | Synaptics Incorporated | Touch screen with user interface enhancement |
US20050024341A1 (en) * | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
US6498590B1 (en) | 2001-05-24 | 2002-12-24 | Mitsubishi Electric Research Laboratories, Inc. | Multi-user touch surface |
TW521205B (en) | 2001-06-05 | 2003-02-21 | Compal Electronics Inc | Touch screen capable of controlling amplification with pressure |
US6868383B1 (en) | 2001-07-12 | 2005-03-15 | At&T Corp. | Systems and methods for extracting meaning from multimodal inputs using finite-state devices |
US6985137B2 (en) * | 2001-08-13 | 2006-01-10 | Nokia Mobile Phones Ltd. | Method for preventing unintended touch pad input due to accidental touching |
US6661409B2 (en) | 2001-08-22 | 2003-12-09 | Motorola, Inc. | Automatically scrolling handwritten input user interface for personal digital assistants and the like |
US6972749B2 (en) * | 2001-08-29 | 2005-12-06 | Microsoft Corporation | Touch-sensitive device for scrolling a document on a display |
US6690365B2 (en) | 2001-08-29 | 2004-02-10 | Microsoft Corporation | Automatic scrolling |
US6907575B2 (en) | 2001-09-06 | 2005-06-14 | Danger, Inc. | Method of scrolling a display window |
JP2003173237A (ja) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
JP4430842B2 (ja) * | 2001-10-01 | 2010-03-10 | 株式会社リコー | 入力処理方法、座標入力機能付表示装置、及びプログラム |
US7254775B2 (en) | 2001-10-03 | 2007-08-07 | 3M Innovative Properties Company | Touch panel system and method for distinguishing multiple touch inputs |
US20030071850A1 (en) * | 2001-10-12 | 2003-04-17 | Microsoft Corporation | In-place adaptive handwriting input method and system |
US7046230B2 (en) | 2001-10-22 | 2006-05-16 | Apple Computer, Inc. | Touch pad handheld device |
US7345671B2 (en) * | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
TW528981B (en) * | 2001-10-25 | 2003-04-21 | Compal Electronics Inc | Portable computer and related method for preventing input interruption by write-tracking input region |
US7009599B2 (en) | 2001-11-20 | 2006-03-07 | Nokia Corporation | Form factor for portable device |
CA2366183A1 (en) * | 2001-12-21 | 2003-06-21 | Ibm Canada Limited-Ibm Canada Limitee | Dynamic status tree facility |
US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
US7414616B2 (en) | 2002-01-03 | 2008-08-19 | Mahesh Jayachandra | User-friendly Brahmi-derived Hindi keyboard |
US6957392B2 (en) | 2002-01-16 | 2005-10-18 | Laszlo Systems, Inc. | Interface engine providing a continuous user interface |
GB0201074D0 (en) | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
US7603627B2 (en) | 2002-02-05 | 2009-10-13 | Microsoft Corporation | Systems and methods for creating and managing graphical user interface lists |
JP3951727B2 (ja) | 2002-02-06 | 2007-08-01 | 松下電器産業株式会社 | 情報処理装置 |
US7075512B1 (en) | 2002-02-07 | 2006-07-11 | Palmsource, Inc. | Method and system for navigating a display screen for locating a desired item of information |
WO2003081458A1 (en) | 2002-03-19 | 2003-10-02 | America Online, Inc. | Controlling content display |
US20030184525A1 (en) | 2002-03-29 | 2003-10-02 | Mitac International Corp. | Method and apparatus for image processing |
JP2003296024A (ja) | 2002-04-01 | 2003-10-17 | Nec Engineering Ltd | タッチパネル制御方式 |
US7466307B2 (en) * | 2002-04-11 | 2008-12-16 | Synaptics Incorporated | Closed-loop sensor on a solid-state object position detector |
US20030197689A1 (en) * | 2002-04-23 | 2003-10-23 | May Gregory J. | Input device that allows multiple touch key input |
US7203911B2 (en) | 2002-05-13 | 2007-04-10 | Microsoft Corporation | Altering a display on a viewing device based upon a user proximity to the viewing device |
TWI238348B (en) | 2002-05-13 | 2005-08-21 | Kyocera Corp | Portable information terminal, display control device, display control method, and recording media |
US7158675B2 (en) | 2002-05-14 | 2007-01-02 | Microsoft Corporation | Interfacing with ink |
US20030214531A1 (en) | 2002-05-14 | 2003-11-20 | Microsoft Corporation | Ink input mechanisms |
US8166388B2 (en) | 2002-05-14 | 2012-04-24 | Microsoft Corporation | Overlaying electronic ink |
US20030214553A1 (en) | 2002-05-14 | 2003-11-20 | Microsoft Corporation | Ink regions in an overlay control |
EP2254025A3 (de) | 2002-05-16 | 2016-03-30 | Sony Corporation | Eingabeverfahren und Eingabevorrichtung |
US7519918B2 (en) | 2002-05-30 | 2009-04-14 | Intel Corporation | Mobile virtual desktop |
FI20021655A (fi) | 2002-06-19 | 2003-12-20 | Nokia Corp | Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite |
US7062090B2 (en) | 2002-06-28 | 2006-06-13 | Microsoft Corporation | Writing guide for a free-form document editor |
US7023427B2 (en) * | 2002-06-28 | 2006-04-04 | Microsoft Corporation | Method and system for detecting multiple touches on a touch-sensitive screen |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
JP4338364B2 (ja) | 2002-07-02 | 2009-10-07 | ソニー株式会社 | 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体 |
TW591488B (en) | 2002-08-01 | 2004-06-11 | Tatung Co | Window scrolling method and device thereof |
EP1394692A1 (de) | 2002-08-05 | 2004-03-03 | Alcatel | Verfahren, Terminal, Browser und Markierungssprache für multimodale Interaktionen zwischen einem Benutzer und dem Terminal |
US20040021698A1 (en) * | 2002-08-05 | 2004-02-05 | Baldwin Amanda K. | Intuitive touchscreen interface for a multifunction device and method therefor |
US7263721B2 (en) | 2002-08-09 | 2007-08-28 | International Business Machines Corporation | Password protection |
JP2004084111A (ja) * | 2002-08-26 | 2004-03-18 | Tsudakoma Corp | 織機の情報表示装置 |
US7739604B1 (en) | 2002-09-25 | 2010-06-15 | Apple Inc. | Method and apparatus for managing windows |
US7002560B2 (en) | 2002-10-04 | 2006-02-21 | Human Interface Technologies Inc. | Method of combining data entry of handwritten symbols with displayed character data |
GB0223883D0 (en) | 2002-10-15 | 2002-11-20 | Seamless Display Ltd | Visual display screen arrangement |
US7281248B2 (en) | 2002-11-19 | 2007-10-09 | Microsoft Corporation | Virtualized and realized user interface controls |
EP1422599B1 (de) | 2002-11-20 | 2006-07-05 | Nokia Corporation | Verfahren und Benutzerschnittstelle zur Zeicheneingabe |
CA2414047A1 (en) | 2002-12-09 | 2004-06-09 | Corel Corporation | System and method of extending scalable vector graphics capabilities |
US6903927B2 (en) | 2002-12-17 | 2005-06-07 | Nokia Corporation | Convertible mobile computing device |
US20040125136A1 (en) | 2002-12-30 | 2004-07-01 | Jukka Wallenius | Provision of services through a display system |
US20040135817A1 (en) | 2003-01-14 | 2004-07-15 | Daughtery Joey L. | Interface for selecting and performing operations on objects |
US7117453B2 (en) | 2003-01-21 | 2006-10-03 | Microsoft Corporation | Media frame object visualization system |
US7490296B2 (en) | 2003-01-31 | 2009-02-10 | Microsoft Corporation | Utility object for specialized data entry |
US20040225965A1 (en) | 2003-05-06 | 2004-11-11 | Microsoft Corporation | Insertion location tracking for controlling a user interface |
US20040155888A1 (en) | 2003-02-11 | 2004-08-12 | Padgitt David Gary | Method for displaying the contents of a collection of media objects |
US20040160419A1 (en) * | 2003-02-11 | 2004-08-19 | Terradigital Systems Llc. | Method for entering alphanumeric characters into a graphical user interface |
US7894177B2 (en) | 2005-12-29 | 2011-02-22 | Apple Inc. | Light activated hold switch |
US7088374B2 (en) | 2003-03-27 | 2006-08-08 | Microsoft Corporation | System and method for managing visual structure, timing, and animation in a graphics processing system |
US7187801B2 (en) | 2003-03-31 | 2007-03-06 | Microsoft Corporation | Multiple handwriting recognition engine selection |
KR100465969B1 (ko) | 2003-04-11 | 2005-01-13 | (주)모비솔 | 손가락 표면을 이용한 소형 포인팅 장치 |
US7098776B2 (en) | 2003-04-16 | 2006-08-29 | Massachusetts Institute Of Technology | Methods and apparatus for vibrotactile communication |
US8484576B2 (en) | 2003-04-17 | 2013-07-09 | Supersonic Aerospace International, Llc | System and method for customizing multiple windows of information on a display |
US7627343B2 (en) | 2003-04-25 | 2009-12-01 | Apple Inc. | Media player system |
US7102626B2 (en) | 2003-04-25 | 2006-09-05 | Hewlett-Packard Development Company, L.P. | Multi-function pointing device |
GB2401272B (en) * | 2003-04-30 | 2007-11-21 | Hewlett Packard Development Co | Method and apparatus for enhancing user interest in static digital images |
US8555165B2 (en) * | 2003-05-08 | 2013-10-08 | Hillcrest Laboratories, Inc. | Methods and systems for generating a zoomable graphical user interface |
US7173623B2 (en) | 2003-05-09 | 2007-02-06 | Microsoft Corporation | System supporting animation of graphical display elements through animation object instances |
KR20070012570A (ko) | 2003-05-21 | 2007-01-25 | 가부시키가이샤 히다치 하이테크놀로지즈 | 지문센서내장 휴대 단말장치 |
US20060242607A1 (en) | 2003-06-13 | 2006-10-26 | University Of Lancaster | User interface |
US7567239B2 (en) | 2003-06-26 | 2009-07-28 | Motorola, Inc. | Method and system for message and note composition on small screen devices |
US8373660B2 (en) | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
US20050027666A1 (en) * | 2003-07-15 | 2005-02-03 | Vente, Inc | Interactive online research system and method |
KR100522940B1 (ko) * | 2003-07-25 | 2005-10-24 | 삼성전자주식회사 | 활성영역을 설정 가능한 터치스크린 시스템 및 그 제어방법 |
JP2005056286A (ja) | 2003-08-07 | 2005-03-03 | Nec Engineering Ltd | ウェブブラウザにおける拡大表示方法および拡大表示プログラム |
US7499035B2 (en) | 2003-08-21 | 2009-03-03 | Microsoft Corporation | Focus management using in-air points |
JP4295280B2 (ja) * | 2003-08-29 | 2009-07-15 | ノキア コーポレイション | タッチベースユーザ入力装置で2点ユーザ入力を認識する方法および装置 |
US9024884B2 (en) | 2003-09-02 | 2015-05-05 | Apple Inc. | Touch-sensitive electronic apparatus for media applications, and methods therefor |
JP4360871B2 (ja) | 2003-09-10 | 2009-11-11 | 富士通テン株式会社 | 情報端末における入力装置 |
US20050052427A1 (en) * | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
JP2005092476A (ja) * | 2003-09-17 | 2005-04-07 | Elo Touchsystems Inc | マルチユーザー/マルチポインチングデバイスグラフィカルユーザーインターフェースシステム |
KR20060091310A (ko) | 2003-09-30 | 2006-08-18 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 |
US7034834B2 (en) * | 2003-10-24 | 2006-04-25 | Microsoft Corporation | Communication protocol for synchronizing animation systems |
US20050183035A1 (en) | 2003-11-20 | 2005-08-18 | Ringel Meredith J. | Conflict resolution for graphic multi-user interface |
US7962862B2 (en) | 2003-11-24 | 2011-06-14 | International Business Machines Corporation | Method and data processing system for providing an improved graphics design tool |
US7298367B2 (en) | 2003-11-25 | 2007-11-20 | 3M Innovative Properties Company | Light emitting stylus and user input device using same |
US7814419B2 (en) | 2003-11-26 | 2010-10-12 | Nokia Corporation | Changing an orientation of a user interface via a course of motion |
JP3962718B2 (ja) | 2003-12-01 | 2007-08-22 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
US7337412B2 (en) * | 2003-12-15 | 2008-02-26 | International Business Machines Corporation | Methods, systems and computer program products for providing multi-dimensional tree diagram graphical user interfaces |
US20050162402A1 (en) | 2004-01-27 | 2005-07-28 | Watanachote Susornpol J. | Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback |
US7366995B2 (en) | 2004-02-03 | 2008-04-29 | Roland Wescott Montague | Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag |
FI117308B (fi) | 2004-02-06 | 2006-08-31 | Nokia Corp | Eleohjausjärjestelmä |
US7319457B2 (en) | 2004-02-12 | 2008-01-15 | Sentelic Corporation | Method of scrolling window screen by means of controlling electronic device |
US7358965B2 (en) | 2004-02-18 | 2008-04-15 | Microsoft Corporation | Tapping to create writing |
US20050193015A1 (en) | 2004-02-19 | 2005-09-01 | Sandraic Logic, Llc A California Limited Liability Company | Method and apparatus for organizing, sorting and navigating multimedia content |
GB2411331A (en) | 2004-02-19 | 2005-08-24 | Trigenix Ltd | Rendering user interface using actor attributes |
FR2866726B1 (fr) | 2004-02-23 | 2006-05-26 | Jazzmutant | Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact |
US7406696B2 (en) | 2004-02-24 | 2008-07-29 | Dialogic Corporation | System and method for providing user input information to multiple independent, concurrent applications |
JP4438448B2 (ja) | 2004-02-26 | 2010-03-24 | セイコーエプソン株式会社 | 構造化文書表示処理装置、構造化文書表示方法、構造化文書表示プログラム |
JP2005242069A (ja) | 2004-02-27 | 2005-09-08 | Sony Corp | 光導波路装置及び光情報処理装置 |
US7327349B2 (en) | 2004-03-02 | 2008-02-05 | Microsoft Corporation | Advanced navigation techniques for portable devices |
US20050210369A1 (en) * | 2004-03-18 | 2005-09-22 | Damm John A Jr | Methods of updating spreadsheets |
US7301529B2 (en) | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Context dependent gesture response |
JP2005275652A (ja) | 2004-03-24 | 2005-10-06 | Canon Inc | 入力軌跡処理装置および入力軌跡処理方法 |
JP2005276120A (ja) * | 2004-03-26 | 2005-10-06 | Fujitsu Component Ltd | タッチパネル入力装置及びその入力制御システム |
CN100407223C (zh) | 2004-04-02 | 2008-07-30 | 诺基亚公司 | 一种用于手写识别的设备和方法 |
US7623119B2 (en) | 2004-04-21 | 2009-11-24 | Nokia Corporation | Graphical functions by gestures |
US20050246304A1 (en) | 2004-04-30 | 2005-11-03 | Microsoft Corporation | End-user application customization using rules |
JP4387242B2 (ja) | 2004-05-10 | 2009-12-16 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
US7624355B2 (en) | 2004-05-27 | 2009-11-24 | Baneth Robin C | System and method for controlling a user interface |
JP4855654B2 (ja) | 2004-05-31 | 2012-01-18 | ソニー株式会社 | 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体 |
US7358962B2 (en) | 2004-06-15 | 2008-04-15 | Microsoft Corporation | Manipulating association of data with a physical object |
US7773950B2 (en) | 2004-06-16 | 2010-08-10 | Telefonaktiebolaget Lm Ericsson (Publ) | Benign interference suppression for received signal quality estimation |
WO2005124526A2 (en) | 2004-06-17 | 2005-12-29 | Koninklijke Philips Electronics N.V. | Use of a two finger input on touch screens |
WO2006009813A1 (en) | 2004-06-18 | 2006-01-26 | Microth, Inc. | Stroke-based data entry device, system, and method |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7786980B2 (en) | 2004-06-29 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Method and device for preventing staining of a display device |
US20080284799A1 (en) | 2004-06-29 | 2008-11-20 | Koninklijke Philips Electronics, N.V. | Discontinous Zoom |
JP4210936B2 (ja) * | 2004-07-08 | 2009-01-21 | ソニー株式会社 | 情報処理装置及びこれに用いるプログラム |
JP4903371B2 (ja) | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | タッチパネルを用いたゲーム装置およびゲームプログラム |
CN103365595B (zh) | 2004-07-30 | 2017-03-01 | 苹果公司 | 用于触敏输入设备的手势 |
KR100958490B1 (ko) | 2004-07-30 | 2010-05-17 | 애플 인크. | 사용자 인터페이스 방법, 미디어 항목들을 통해 스크롤하는방법, 디스플레이 및 터치 스크린을 갖는 사용자-조작되는전자 장치 상에서 수행되는 방법, 디스플레이 및 터치감지 입력 장치를 갖는 컴퓨팅 장치 상에서 수행되는 방법,컴퓨팅 시스템, 컴퓨팅 장치, 터치 감지 장치를 통해플로팅 컨트롤을 기동시키는 컴퓨터 구현 방법 및 컴퓨터구현 방법 |
EP2296078A3 (de) * | 2004-07-30 | 2014-12-10 | Apple Inc. | Berührungsempfindliche elektronische Vorrichtung für Medienanwendungen und Verfahren dafür |
US7506799B2 (en) * | 2004-07-30 | 2009-03-24 | Nokia Corporation | Method for the monitoring of system security in electronic devices |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US7719523B2 (en) | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US20070046643A1 (en) * | 2004-08-06 | 2007-03-01 | Hillis W Daniel | State-Based Approach to Gesture Identification |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7724242B2 (en) | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
US7721197B2 (en) * | 2004-08-12 | 2010-05-18 | Microsoft Corporation | System and method of displaying content on small screen computing devices |
US7181373B2 (en) | 2004-08-13 | 2007-02-20 | Agilent Technologies, Inc. | System and methods for navigating and visualizing multi-dimensional biological data |
US7434173B2 (en) | 2004-08-30 | 2008-10-07 | Microsoft Corporation | Scrolling web pages using direct interaction |
JP4366695B2 (ja) | 2004-09-13 | 2009-11-18 | 日本ビクター株式会社 | メニュー画像表示方法及び電子情報機器 |
US20060055669A1 (en) | 2004-09-13 | 2006-03-16 | Mita Das | Fluent user interface for text entry on touch-sensitive display |
US7761814B2 (en) | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
JP4355639B2 (ja) | 2004-09-15 | 2009-11-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
US7728823B2 (en) * | 2004-09-24 | 2010-06-01 | Apple Inc. | System and method for processing raw data of track pad device |
JP3786669B2 (ja) | 2004-10-06 | 2006-06-14 | 株式会社バンダイナムコゲームス | ゲームシステム、プログラム及び情報記憶媒体 |
US20060077183A1 (en) * | 2004-10-08 | 2006-04-13 | Studt Peter C | Methods and systems for converting touchscreen events into application formatted data |
WO2006045530A2 (en) | 2004-10-22 | 2006-05-04 | Novo Nordisk A/S | An apparatus and a method of providing information to a user |
JP3770499B1 (ja) | 2004-11-02 | 2006-04-26 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
US7925996B2 (en) * | 2004-11-18 | 2011-04-12 | Microsoft Corporation | Method and system for providing multiple input connecting user interface |
US7461348B2 (en) | 2004-11-19 | 2008-12-02 | Microsoft Corporation | Systems and methods for processing input data before, during, and/or after an input focus change event |
US7665031B2 (en) | 2004-12-08 | 2010-02-16 | Microsoft Corporation | Method and system of taskbar button interfaces |
US20060136833A1 (en) | 2004-12-15 | 2006-06-22 | International Business Machines Corporation | Apparatus and method for chaining objects in a pointer drag path |
WO2006067711A2 (en) | 2004-12-21 | 2006-06-29 | Koninklijke Philips Electronics N.V. | Method and device for displaying animated buttons |
CN100377055C (zh) | 2004-12-22 | 2008-03-26 | 盛群半导体股份有限公司 | 触控感应装置的判读方法 |
US20060176403A1 (en) | 2005-01-05 | 2006-08-10 | Hillcrest Laboratories, Inc. | Distributed software construction for user interfaces |
WO2006073272A1 (en) | 2005-01-05 | 2006-07-13 | Jaewoo Ahn | Method and apparatus for inputting character through pointing device |
US20060156249A1 (en) | 2005-01-12 | 2006-07-13 | Blythe Michael M | Rotate a user interface |
US20070185876A1 (en) | 2005-02-07 | 2007-08-09 | Mendis Venura C | Data handling system |
GB0503253D0 (en) | 2005-02-17 | 2005-03-23 | Univ Northumbria Newcastle | User control of a hand-held device |
US8819569B2 (en) | 2005-02-18 | 2014-08-26 | Zumobi, Inc | Single-handed approach for navigation of application tiles using panning and zooming |
JP4613078B2 (ja) | 2005-03-01 | 2011-01-12 | 学校法人 名城大学 | 半導体基板の製造方法 |
DE202006020369U1 (de) | 2005-03-04 | 2008-05-21 | Apple Inc., Cupertino | Multifunktionale handgehaltene Vorrichtung |
CN1841284A (zh) | 2005-03-28 | 2006-10-04 | 上海桐港信息科技有限公司 | 触摸屏式移动设备微浏览器页面显示漂移方法 |
US20060221061A1 (en) | 2005-03-31 | 2006-10-05 | Tyco Electronic Corporation | Touch sensor and control with random pulse spacing |
US7750893B2 (en) | 2005-04-06 | 2010-07-06 | Nintendo Co., Ltd. | Storage medium storing input position processing program, and input position processing device |
CN1845046A (zh) | 2005-04-07 | 2006-10-11 | 技嘉科技股份有限公司 | 具有触控式功能键的键盘和鼠标 |
US7355595B2 (en) | 2005-04-15 | 2008-04-08 | Microsoft Corporation | Tactile device for scrolling |
US7673255B2 (en) * | 2005-04-22 | 2010-03-02 | Microsoft Corporation | Interface and system for manipulating thumbnails of live windows in a window manager |
US7692637B2 (en) | 2005-04-26 | 2010-04-06 | Nokia Corporation | User input device for electronic device |
US7499027B2 (en) * | 2005-04-29 | 2009-03-03 | Microsoft Corporation | Using a light pointer for input on an interactive display surface |
JP4490326B2 (ja) | 2005-05-09 | 2010-06-23 | 株式会社土井製作所 | 地中埋設ケーブル等に対する地盤変動時の保護方法及びその保護装置 |
DE112006001209T5 (de) | 2005-05-16 | 2008-04-30 | General Motors Global Technology Operations, Inc., Detroit | Katalysator für Brennstoffzellenelektrode |
US8117540B2 (en) | 2005-05-18 | 2012-02-14 | Neuer Wall Treuhand Gmbh | Method and device incorporating improved text input mechanism |
US20060262104A1 (en) * | 2005-05-19 | 2006-11-23 | Sullivan Darius M | Systems and methods for distinguishing contact-induced plate vibrations from acoustic noise-induced plate vibrations |
US20070024646A1 (en) | 2005-05-23 | 2007-02-01 | Kalle Saarinen | Portable electronic apparatus and associated method |
US9785329B2 (en) | 2005-05-23 | 2017-10-10 | Nokia Technologies Oy | Pocket computer and associated methods |
US7487447B1 (en) * | 2005-05-25 | 2009-02-03 | Google Inc. | Web page zoom feature |
US20060271520A1 (en) | 2005-05-27 | 2006-11-30 | Ragan Gene Z | Content-based implicit search query |
US7561159B2 (en) | 2005-05-31 | 2009-07-14 | Magnifi Group Inc. | Control of animation timeline |
US20090049388A1 (en) * | 2005-06-02 | 2009-02-19 | Ronnie Bernard Francis Taib | Multimodal computer navigation |
US7710397B2 (en) | 2005-06-03 | 2010-05-04 | Apple Inc. | Mouse with improved input mechanisms using touch sensors |
US9019209B2 (en) | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
JP4849300B2 (ja) | 2005-06-14 | 2012-01-11 | ソニー株式会社 | 表示信号処理装置および方法、記録媒体、並びにプログラム |
KR20060133389A (ko) | 2005-06-20 | 2006-12-26 | 엘지전자 주식회사 | 이동 단말기의 데이터 처리 장치 및 그 방법 |
TW200701082A (en) | 2005-06-23 | 2007-01-01 | Elan Microelectronics Corp | Scroll control method used in the touch panel |
US20070006078A1 (en) | 2005-07-01 | 2007-01-04 | Microsoft Corporation | Declaratively responding to state changes in an interactive multimedia environment |
US7463263B2 (en) | 2005-07-15 | 2008-12-09 | Sap Portals Israel Ltd. | Declarative specification of model visualizations |
US8542196B2 (en) | 2005-07-22 | 2013-09-24 | Move Mobile Systems, Inc. | System and method for a thumb-optimized touch-screen user interface |
US7808478B2 (en) | 2005-08-22 | 2010-10-05 | Samsung Electronics Co., Ltd. | Autonomous handheld device having a drawing tool |
EP1758345B1 (de) | 2005-08-26 | 2016-12-28 | Microsoft Technology Licensing, LLC | Mobilfunkapparat mit einem Berührungseingabefeld |
US7568035B2 (en) * | 2005-08-30 | 2009-07-28 | Microsoft Corporation | Command binding determination and implementation |
US20070061126A1 (en) * | 2005-09-01 | 2007-03-15 | Anthony Russo | System for and method of emulating electronic input devices |
CN102841713A (zh) | 2005-09-15 | 2012-12-26 | 苹果公司 | 处理跟踪板装置的原始数据的***和方法 |
US20070152980A1 (en) | 2006-01-05 | 2007-07-05 | Kenneth Kocienda | Touch Screen Keyboards for Portable Electronic Devices |
US7694231B2 (en) | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
US20070064004A1 (en) * | 2005-09-21 | 2007-03-22 | Hewlett-Packard Development Company, L.P. | Moving a graphic element |
US7633076B2 (en) * | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US8686318B2 (en) | 2005-10-07 | 2014-04-01 | Illinois Tool Works Inc. | Wireless tracking and inventory monitoring for welding-type devices |
CN1949161B (zh) | 2005-10-14 | 2010-05-26 | 鸿富锦精密工业(深圳)有限公司 | 多层次菜单显示装置及显示控制方法 |
KR100717047B1 (ko) | 2005-10-20 | 2007-05-10 | 삼성전자주식회사 | 간편하게 웹 페이지를 표시하는 방법 및 장치 |
US20070109275A1 (en) | 2005-11-16 | 2007-05-17 | Chen-Ting Chuang | Method for controlling a touch screen user interface and device thereof |
US9182837B2 (en) | 2005-11-28 | 2015-11-10 | Synaptics Incorporated | Methods and systems for implementing modal changes in a device in response to proximity and force indications |
JP2007148927A (ja) | 2005-11-29 | 2007-06-14 | Alps Electric Co Ltd | 入力装置及びこれを用いたスクロール制御方法 |
US9069877B2 (en) | 2005-12-07 | 2015-06-30 | Ziilabs Inc., Ltd. | User interface with variable sized icons |
US8428359B2 (en) | 2005-12-08 | 2013-04-23 | Core Wireless Licensing S.A.R.L. | Text entry for electronic devices |
US7765754B2 (en) | 2005-12-08 | 2010-08-03 | Johnson Jay A | Ventilating spacing strip between rear surface of siding and outer surface of structure allowing horizontal air circulation |
US20070132789A1 (en) | 2005-12-08 | 2007-06-14 | Bas Ording | List scrolling in response to moving contact over list of index symbols |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US7480870B2 (en) | 2005-12-23 | 2009-01-20 | Apple Inc. | Indication of progress towards satisfaction of a user input condition |
US7786975B2 (en) | 2005-12-23 | 2010-08-31 | Apple Inc. | Continuous scrolling list with acceleration |
US7650137B2 (en) | 2005-12-23 | 2010-01-19 | Apple Inc. | Account information display for portable communication device |
AU2006332488A1 (en) | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US20070152983A1 (en) | 2005-12-30 | 2007-07-05 | Apple Computer, Inc. | Touch pad with symbols based on mode |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US7860536B2 (en) | 2006-01-05 | 2010-12-28 | Apple Inc. | Telephone interface for a portable communication device |
US7574672B2 (en) | 2006-01-05 | 2009-08-11 | Apple Inc. | Text entry interface for a portable communication device |
US20070174257A1 (en) | 2006-01-18 | 2007-07-26 | Bruce Thomas Howard | Systems and methods for providing sorted search results |
US20070176903A1 (en) | 2006-01-31 | 2007-08-02 | Dahlin Jeffrey J | Capacitive touch sensor button activation |
US9910497B2 (en) | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8312479B2 (en) | 2006-03-08 | 2012-11-13 | Navisense | Application programming interface (API) for sensory events |
US20070214436A1 (en) | 2006-03-13 | 2007-09-13 | Myers Raymond L Jr | Positional navigation graphic link system |
US8866750B2 (en) | 2006-04-10 | 2014-10-21 | Microsoft Corporation | Universal user interface device |
US8587526B2 (en) | 2006-04-12 | 2013-11-19 | N-Trig Ltd. | Gesture recognition feedback for a dual mode digitizer |
US20070242607A1 (en) | 2006-04-13 | 2007-10-18 | Tellabs Operations, Inc. | Method and system for controlling distribution of network topology information |
TWI328185B (en) | 2006-04-19 | 2010-08-01 | Lg Electronics Inc | Touch screen device for potable terminal and method of displaying and selecting menus thereon |
US8077153B2 (en) | 2006-04-19 | 2011-12-13 | Microsoft Corporation | Precise selection techniques for multi-touch screens |
KR20070113025A (ko) | 2006-05-24 | 2007-11-28 | 엘지전자 주식회사 | 터치스크린 장치 및 이의 작동방법 |
US8296684B2 (en) | 2008-05-23 | 2012-10-23 | Hewlett-Packard Development Company, L.P. | Navigating among activities in a computing device |
US20070259685A1 (en) | 2006-05-08 | 2007-11-08 | Goran Engblom | Electronic equipment with keylock function using motion and method |
US9063647B2 (en) * | 2006-05-12 | 2015-06-23 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
JP2007312823A (ja) | 2006-05-23 | 2007-12-06 | Pentax Corp | タッチパネル入力ユニットおよび内視鏡プロセッサ |
US8775820B1 (en) | 2006-06-02 | 2014-07-08 | Sprint Communications Company L.P. | System and method of enterprise administrative password generation and control |
US7844661B2 (en) * | 2006-06-15 | 2010-11-30 | Microsoft Corporation | Composition of local media playback with remotely generated user interface |
KR101277256B1 (ko) | 2006-06-16 | 2013-07-05 | 삼성전자주식회사 | 사용자 인터페이스를 위한 장치 및 방법 |
US8169421B2 (en) | 2006-06-19 | 2012-05-01 | Cypress Semiconductor Corporation | Apparatus and method for detecting a touch-sensor pad gesture |
GB0612624D0 (en) | 2006-06-26 | 2006-08-02 | Symbian Software Ltd | Speed of gesture |
KR100748469B1 (ko) | 2006-06-26 | 2007-08-10 | 삼성전자주식회사 | 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기 |
US8269725B2 (en) * | 2006-06-28 | 2012-09-18 | Microsoft Corporation | Input simulation system for touch based devices |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
RU2008149112A (ru) | 2006-06-30 | 2010-06-20 | Теле Атлас Норт Америка, Инк. (Us) | Способ и система для сбора пользовательских запросов на обновление относительно географических данных для поддержки автоматизированного анализа, обработки и обновлений географических данных |
US9069417B2 (en) * | 2006-07-12 | 2015-06-30 | N-Trig Ltd. | Hover and touch detection for digitizer |
JP4762070B2 (ja) | 2006-07-19 | 2011-08-31 | 富士通株式会社 | 手書き入力装置、手書き入力方法、及びコンピュータプログラム |
JP4280759B2 (ja) * | 2006-07-27 | 2009-06-17 | キヤノン株式会社 | 情報処理装置およびユーザインタフェース制御方法 |
EP2057527B1 (de) | 2006-08-15 | 2013-05-22 | N-trig Ltd. | Gestendetektion für einen digitalisierer |
US20080043020A1 (en) * | 2006-08-18 | 2008-02-21 | Microsoft Corporation | User interface for viewing street side imagery |
US7864163B2 (en) * | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US8253695B2 (en) | 2006-09-06 | 2012-08-28 | Apple Inc. | Email client for a portable multifunction device |
US7843427B2 (en) | 2006-09-06 | 2010-11-30 | Apple Inc. | Methods for determining a cursor position from a finger contact with a touch screen display |
US7941760B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Soft keyboard display for a portable multifunction device |
CN101535940B (zh) | 2006-09-06 | 2013-06-12 | 苹果公司 | 用于即时消息传送的便携式电子设备 |
US20080084400A1 (en) | 2006-10-10 | 2008-04-10 | Outland Research, Llc | Touch-gesture control of video media play on handheld media players |
US20080114614A1 (en) | 2006-11-15 | 2008-05-15 | General Electric Company | Methods and systems for healthcare application interaction using gesture-based interaction enhanced with pressure sensitivity |
US8056007B2 (en) | 2006-11-15 | 2011-11-08 | Yahoo! Inc. | System and method for recognizing and storing information and associated context |
US7694240B2 (en) | 2006-11-22 | 2010-04-06 | General Electric Company | Methods and systems for creation of hanging protocols using graffiti-enabled devices |
JP5191119B2 (ja) | 2006-12-06 | 2013-04-24 | 株式会社ジャパンディスプレイウェスト | 表示装置、表示装置の制御方法、及びプログラム |
CN101206659B (zh) | 2006-12-15 | 2013-09-18 | 谷歌股份有限公司 | 自动搜索查询校正 |
TW200828089A (en) | 2006-12-29 | 2008-07-01 | Inventec Appliances Corp | Method for zooming image |
US7777732B2 (en) | 2007-01-03 | 2010-08-17 | Apple Inc. | Multi-event input system |
US8970501B2 (en) | 2007-01-03 | 2015-03-03 | Apple Inc. | Proximity and multi-touch sensor detection and demodulation |
US8489783B2 (en) * | 2007-01-03 | 2013-07-16 | Apple Inc. | Multi buffer asynchronous scheme for processing incoming information |
US7924271B2 (en) | 2007-01-05 | 2011-04-12 | Apple Inc. | Detecting gestures on multi-event sensitive devices |
US7907125B2 (en) | 2007-01-05 | 2011-03-15 | Microsoft Corporation | Recognizing multiple input point gestures |
US8214768B2 (en) | 2007-01-05 | 2012-07-03 | Apple Inc. | Method, system, and graphical user interface for viewing multiple application windows |
US8656295B2 (en) | 2007-01-05 | 2014-02-18 | Apple Inc. | Selecting and manipulating web content |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US20080168402A1 (en) * | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US7671756B2 (en) | 2007-01-07 | 2010-03-02 | Apple Inc. | Portable electronic device with alert silencing |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US7966578B2 (en) | 2007-01-07 | 2011-06-21 | Apple Inc. | Portable multifunction device, method, and graphical user interface for translating displayed content |
US7872652B2 (en) | 2007-01-07 | 2011-01-18 | Apple Inc. | Application programming interfaces for synchronization |
US8519963B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
US20080168395A1 (en) | 2007-01-07 | 2008-07-10 | Bas Ording | Positioning a Slider Icon on a Portable Multifunction Device |
US7903115B2 (en) | 2007-01-07 | 2011-03-08 | Apple Inc. | Animations |
US8656311B1 (en) | 2007-01-07 | 2014-02-18 | Apple Inc. | Method and apparatus for compositing various types of content |
US8091045B2 (en) * | 2007-01-07 | 2012-01-03 | Apple Inc. | System and method for managing lists |
US8665225B2 (en) * | 2007-01-07 | 2014-03-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture |
TWI399671B (zh) * | 2007-01-19 | 2013-06-21 | Lg Electronics Inc | 透過觸碰輸入裝置之資訊輸入 |
US7912700B2 (en) | 2007-02-08 | 2011-03-22 | Microsoft Corporation | Context based word prediction |
FR2912742B1 (fr) | 2007-02-16 | 2010-03-05 | Arkema France | Procede de synthese d'acrylonitrile a partir de glycerol |
JP4866262B2 (ja) | 2007-02-16 | 2012-02-01 | ソフトバンクモバイル株式会社 | 操作入力処理方法及び携帯型情報処理装置 |
JP4793287B2 (ja) | 2007-02-28 | 2011-10-12 | ブラザー工業株式会社 | 通信装置および通信システム |
KR101383709B1 (ko) * | 2007-03-07 | 2014-04-09 | 삼성디스플레이 주식회사 | 표시 장치 및 그의 구동 방법 |
EP1970799B1 (de) | 2007-03-15 | 2017-08-16 | LG Electronics Inc. | Elektronische Vorrichtung und Verfahren für einen Steuermodus dafür sowie mobiles Kommunikationsendgerät |
KR100883115B1 (ko) | 2007-03-28 | 2009-02-10 | 삼성전자주식회사 | 실행영역이 설정된 터치스크린을 구비하는 휴대 단말기 및그 기능 실행 방법 |
JP4342572B2 (ja) * | 2007-05-21 | 2009-10-14 | 株式会社リコー | 情報入出力装置、情報入出力制御方法、記録媒体およびプログラム |
US8436815B2 (en) | 2007-05-25 | 2013-05-07 | Microsoft Corporation | Selective enabling of multi-input controls |
JP5117121B2 (ja) | 2007-06-18 | 2013-01-09 | パイオニア株式会社 | Av機器の操作制御システム |
US8350815B2 (en) | 2007-06-20 | 2013-01-08 | Sony Mobile Communications | Portable communication device including touch input with scrolling function |
US8171432B2 (en) | 2008-01-06 | 2012-05-01 | Apple Inc. | Touch screen device, method, and graphical user interface for displaying and selecting application options |
US8059101B2 (en) | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
US8181122B2 (en) | 2007-07-30 | 2012-05-15 | Perceptive Pixel Inc. | Graphical user interface for large-scale, multi-user, multi-touch systems |
WO2009016607A2 (en) | 2007-08-01 | 2009-02-05 | Nokia Corporation | Apparatus, methods, and computer program products providing context-dependent gesture recognition |
US8471823B2 (en) | 2007-08-16 | 2013-06-25 | Sony Corporation | Systems and methods for providing a user interface |
US8315362B2 (en) | 2007-08-22 | 2012-11-20 | Citrix Systems, Inc. | Systems and methods for voicemail avoidance |
US20090051671A1 (en) * | 2007-08-22 | 2009-02-26 | Jason Antony Konstas | Recognizing the motion of two or more touches on a touch-sensing surface |
US7949516B2 (en) | 2007-08-31 | 2011-05-24 | Research In Motion Limited | Handheld electronic device and method employing logical proximity of characters in spell checking |
KR101348721B1 (ko) * | 2007-09-03 | 2014-01-08 | 엘지전자 주식회사 | 휴대 단말기 및 그 휴대 단말기의 터치 인식 방법 |
US20090058820A1 (en) | 2007-09-04 | 2009-03-05 | Microsoft Corporation | Flick-based in situ search from ink, text, or an empty selection region |
KR20090024541A (ko) | 2007-09-04 | 2009-03-09 | 삼성전자주식회사 | 하이퍼링크 선택 방법 및 이를 이용하는 이동통신 단말기 |
US8667412B2 (en) | 2007-09-06 | 2014-03-04 | Google Inc. | Dynamic virtual input device configuration |
WO2009049331A2 (en) * | 2007-10-08 | 2009-04-16 | Van Der Westhuizen Willem Mork | User interface |
US7917584B2 (en) * | 2007-10-22 | 2011-03-29 | Xcerion Aktiebolag | Gesture-based collaboration |
JP2009110286A (ja) | 2007-10-30 | 2009-05-21 | Toshiba Corp | 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法 |
WO2009062124A1 (en) | 2007-11-09 | 2009-05-14 | Wms Gaming, Inc. | Interface for wagering game environments |
US20090128504A1 (en) | 2007-11-16 | 2009-05-21 | Garey Alexander Smith | Touch screen peripheral device |
JP2009169825A (ja) | 2008-01-18 | 2009-07-30 | Kyocera Mita Corp | 表示入力装置、電子機器及び表示入力制御プログラム |
US20090207140A1 (en) * | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
TWI352924B (en) * | 2008-02-21 | 2011-11-21 | Wintek Corp | Touch panel and driving method of touch panel |
US8289283B2 (en) | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8717305B2 (en) | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US8174502B2 (en) | 2008-03-04 | 2012-05-08 | Apple Inc. | Touch event processing for web pages |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US8205157B2 (en) | 2008-03-04 | 2012-06-19 | Apple Inc. | Methods and graphical user interfaces for conducting searches on a portable multifunction device |
US8352877B2 (en) | 2008-03-06 | 2013-01-08 | Microsoft Corporation | Adjustment of range of content displayed on graphical user interface |
US20090231281A1 (en) | 2008-03-11 | 2009-09-17 | Microsoft Corporation | Multi-touch virtual keyboard |
US8289289B2 (en) | 2008-04-03 | 2012-10-16 | N-trig, Ltd. | Multi-touch and single touch detection |
KR101513024B1 (ko) | 2008-04-22 | 2015-04-17 | 엘지전자 주식회사 | 단말기 및 이것의 이미지 인식 방법 |
US8261190B2 (en) | 2008-04-24 | 2012-09-04 | Burlington Education Ltd. | Displaying help sensitive areas of a computer application |
US8526767B2 (en) | 2008-05-01 | 2013-09-03 | Atmel Corporation | Gesture recognition |
US20100177053A2 (en) | 2008-05-09 | 2010-07-15 | Taizo Yasutake | Method and apparatus for control of multiple degrees of freedom of a display |
US20090282332A1 (en) | 2008-05-12 | 2009-11-12 | Nokia Corporation | Apparatus, method and computer program product for selecting multiple items using multi-touch |
US9268483B2 (en) | 2008-05-16 | 2016-02-23 | Microsoft Technology Licensing, Llc | Multi-touch input platform |
WO2009155092A2 (en) | 2008-05-29 | 2009-12-23 | Telcordia Technologies, Inc. | Method and system for multi-touch-based browsing of media summarizations on a handheld device |
US20090322671A1 (en) | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
US20090309847A1 (en) | 2008-06-12 | 2009-12-17 | You I Labs, Inc. | Apparatus and method for providing multi-touch interface capability |
US7864037B2 (en) * | 2008-06-16 | 2011-01-04 | International Business Machines Corporation | Pattern-driven communication architecture |
KR100978929B1 (ko) | 2008-06-24 | 2010-08-30 | 한국전자통신연구원 | 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말 |
US20090322699A1 (en) * | 2008-06-25 | 2009-12-31 | Sony Ericsson Mobile Communications Ab | Multiple input detection for resistive touch panel |
US8754855B2 (en) | 2008-06-27 | 2014-06-17 | Microsoft Corporation | Virtual touchpad |
US20090322700A1 (en) * | 2008-06-30 | 2009-12-31 | Tyco Electronics Corporation | Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen |
JP2010015238A (ja) | 2008-07-01 | 2010-01-21 | Sony Corp | 情報処理装置、及び補助情報の表示方法 |
US8154428B2 (en) * | 2008-07-15 | 2012-04-10 | International Business Machines Corporation | Gesture recognition control of electronic devices using a multi-touch device |
US8237807B2 (en) * | 2008-07-24 | 2012-08-07 | Apple Inc. | Image capturing device with touch screen for adjusting camera settings |
US8390577B2 (en) * | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
KR101482120B1 (ko) * | 2008-08-01 | 2015-01-21 | 엘지전자 주식회사 | 스케줄 관리가 가능한 휴대 단말기 및 그 제어방법 |
CN101339453B (zh) | 2008-08-15 | 2012-05-23 | 广东威创视讯科技股份有限公司 | 基于交互式输入设备的模拟鼠标输入方法 |
US8135171B2 (en) * | 2008-08-19 | 2012-03-13 | Au Optronics Corp. | Multipoint tracking method and related device |
CN101661361A (zh) * | 2008-08-27 | 2010-03-03 | 比亚迪股份有限公司 | 多点触摸检测*** |
US8279241B2 (en) | 2008-09-09 | 2012-10-02 | Microsoft Corporation | Zooming graphical user interface |
CN101673154B (zh) * | 2008-09-10 | 2012-11-21 | 鸿富锦精密工业(深圳)有限公司 | 基于触摸屏的区域选择方法 |
US20100073303A1 (en) | 2008-09-24 | 2010-03-25 | Compal Electronics, Inc. | Method of operating a user interface |
US20100088628A1 (en) | 2008-10-07 | 2010-04-08 | Sony Ericsson Mobile Communications Ab | Live preview of open windows |
US20100107116A1 (en) * | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch user interfaces |
JP4853507B2 (ja) | 2008-10-30 | 2012-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR101019335B1 (ko) | 2008-11-11 | 2011-03-07 | 주식회사 팬택 | 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템 |
US8732576B2 (en) * | 2008-12-04 | 2014-05-20 | Nvidia Corporation | Operating system providing multi-touch support for applications in a mobile device |
TW201023018A (en) * | 2008-12-12 | 2010-06-16 | Asustek Comp Inc | Touch panel with multi-touch function and multi-touch detecting method thereof |
DE112008004156B4 (de) | 2008-12-15 | 2021-06-24 | Hewlett-Packard Development Company, L.P. | System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür |
US8217909B2 (en) | 2008-12-19 | 2012-07-10 | Cypress Semiconductor Corporation | Multi-finger sub-gesture reporting for a user interface device |
US8869070B2 (en) | 2008-12-30 | 2014-10-21 | T-Mobile Usa, Inc. | Handwriting manipulation for conducting a search over multiple databases |
KR20110112831A (ko) | 2009-01-05 | 2011-10-13 | 스마트 테크놀러지스 유엘씨 | 제스처 인식 방법 및 이 방법을 이용하는 대화형 입력 시스템 |
US8319736B2 (en) | 2009-01-19 | 2012-11-27 | Microsoft Corporation | Touch sensitive computing device and method |
KR101521932B1 (ko) | 2009-01-19 | 2015-05-20 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US8704767B2 (en) | 2009-01-29 | 2014-04-22 | Microsoft Corporation | Environmental gesture recognition |
BRPI1008357A2 (pt) | 2009-02-10 | 2016-02-23 | Sharp Kk | dispositivo de autenticação, método de autenticação, e programa para execução deste por computador |
US20100235745A1 (en) | 2009-03-10 | 2010-09-16 | Sony Corporation | Accessibility system for consumer devices |
US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
KR101510484B1 (ko) | 2009-03-31 | 2015-04-08 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
US20100281435A1 (en) | 2009-04-30 | 2010-11-04 | At&T Intellectual Property I, L.P. | System and method for multimodal interaction using robust gesture processing |
US8427440B2 (en) | 2009-05-05 | 2013-04-23 | Microsoft Corporation | Contact grouping and gesture recognition for surface computing |
US9367216B2 (en) | 2009-05-21 | 2016-06-14 | Sony Interactive Entertainment Inc. | Hand-held device with two-finger touch triggered selection and transformation of active elements |
US8681106B2 (en) | 2009-06-07 | 2014-03-25 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
DE102009024656A1 (de) | 2009-06-12 | 2011-03-24 | Volkswagen Ag | Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle |
US20110069021A1 (en) * | 2009-06-12 | 2011-03-24 | Hill Jared C | Reducing false touchpad data by ignoring input when area gesture does not behave as predicted |
KR101608532B1 (ko) * | 2009-08-11 | 2016-04-01 | 엘지전자 주식회사 | 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기 |
US8310459B2 (en) | 2009-09-23 | 2012-11-13 | Nokia Corporation | Touch detection |
US9223590B2 (en) | 2010-01-06 | 2015-12-29 | Apple Inc. | System and method for issuing commands to applications based on contextual information |
TWI400638B (zh) * | 2009-10-20 | 2013-07-01 | Acer Inc | 觸控顯示裝置、觸控顯示系統及其調整觸控區域之方法 |
KR20110047349A (ko) | 2009-10-30 | 2011-05-09 | 주식회사 팬택 | 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법 |
US8957918B2 (en) | 2009-11-03 | 2015-02-17 | Qualcomm Incorporated | Methods for implementing multi-touch gestures on a single-touch touch surface |
US8390600B2 (en) | 2009-11-13 | 2013-03-05 | Microsoft Corporation | Interactive display system with contact geometry interface |
US8436821B1 (en) | 2009-11-20 | 2013-05-07 | Adobe Systems Incorporated | System and method for developing and classifying touch gestures |
US20100085323A1 (en) * | 2009-12-04 | 2010-04-08 | Adam Bogue | Segmenting a Multi-Touch Input Region by User |
US20110151974A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Gesture style recognition and reward |
US8432368B2 (en) | 2010-01-06 | 2013-04-30 | Qualcomm Incorporated | User interface methods and systems for providing force-sensitive input |
US8140570B2 (en) * | 2010-03-11 | 2012-03-20 | Apple Inc. | Automatic discovery of metadata |
US8296332B2 (en) | 2010-04-01 | 2012-10-23 | Apple Inc. | Visual manipulation of database schema |
KR20110110940A (ko) * | 2010-04-02 | 2011-10-10 | 삼성전자주식회사 | 휴대용 단말기의 터치 입력 장치 및 방법 |
US9058186B2 (en) | 2010-04-07 | 2015-06-16 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
US20110252364A1 (en) | 2010-04-07 | 2011-10-13 | Freddy Allen Anzures | Device, Method, and Graphical User Interface for Navigation of Multiple Applications |
US8131898B2 (en) * | 2010-05-27 | 2012-03-06 | Adobe Systems Incorporated | Event handling in an integrated execution environment |
EP2390766B1 (de) | 2010-05-28 | 2013-09-25 | BlackBerry Limited | Elektronische Vorrichtung mit berührungsempfindlicher Anzeige und Verfahren zu deren Steuerung |
US8669946B2 (en) | 2010-05-28 | 2014-03-11 | Blackberry Limited | Electronic device including touch-sensitive display and method of controlling same |
US20130120280A1 (en) | 2010-05-28 | 2013-05-16 | Tim Kukulski | System and Method for Evaluating Interoperability of Gesture Recognizers |
CN102262890A (zh) | 2010-05-31 | 2011-11-30 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及其标记方法 |
CN101853105A (zh) | 2010-06-02 | 2010-10-06 | 友达光电股份有限公司 | 一种具有触控屏幕的计算机及其操作方法 |
US8749499B2 (en) | 2010-06-08 | 2014-06-10 | Sap Ag | Touch screen for bridging multi and/or single touch points to applications |
US8836643B2 (en) | 2010-06-10 | 2014-09-16 | Qualcomm Incorporated | Auto-morphing adaptive user interface device and methods |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
JP5663980B2 (ja) | 2010-06-29 | 2015-02-04 | ブラザー工業株式会社 | 画像処理装置 |
TWI407346B (zh) * | 2010-07-30 | 2013-09-01 | Ind Tech Res Inst | 觸控輸入裝置之軌跡補償方法與系統,及其電腦程式產品 |
KR20120024247A (ko) | 2010-09-06 | 2012-03-14 | 삼성전자주식회사 | 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치 |
US20120092286A1 (en) | 2010-10-19 | 2012-04-19 | Microsoft Corporation | Synthetic Gesture Trace Generator |
US20120133579A1 (en) | 2010-11-30 | 2012-05-31 | Microsoft Corporation | Gesture recognition management |
CN106095418B (zh) | 2010-12-20 | 2019-09-13 | 苹果公司 | 事件识别 |
US8438473B2 (en) | 2011-01-05 | 2013-05-07 | Research In Motion Limited | Handling of touch events in a browser environment |
US20120242584A1 (en) | 2011-03-22 | 2012-09-27 | Nokia Corporation | Method and apparatus for providing sight independent activity reports responsive to a touch gesture |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
AU2011202182B1 (en) | 2011-05-11 | 2011-10-13 | Frequency Ip Holdings, Llc | Creation and presentation of selective digital content feeds |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
TWI467463B (zh) | 2011-05-27 | 2015-01-01 | Asustek Comp Inc | 具觸控式螢幕的電腦系統及其手勢的處理方法 |
US9389679B2 (en) | 2011-11-30 | 2016-07-12 | Microsoft Technology Licensing, Llc | Application programming interface for a multi-pointer indirect touch input device |
US9071970B2 (en) * | 2011-12-05 | 2015-06-30 | Sony Corporation | Terminal device |
US10983625B2 (en) | 2011-12-22 | 2021-04-20 | Adobe Inc. | Systems and methods for measurement of unsupported user interface actions |
US8411060B1 (en) | 2012-01-13 | 2013-04-02 | Google Inc. | Swipe gesture classification |
US9046958B2 (en) * | 2012-03-15 | 2015-06-02 | Nokia Technologies Oy | Method, apparatus and computer program product for user input interpretation and input error mitigation |
US20140160085A1 (en) | 2012-12-07 | 2014-06-12 | Qualcomm Incorporated | Adaptive analog-front-end to optimize touch processing |
CN104903834B (zh) | 2012-12-29 | 2019-07-05 | 苹果公司 | 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面 |
US9626100B2 (en) | 2013-04-15 | 2017-04-18 | Microsoft Technology Licensing, Llc | Dynamic management of edge inputs by users on a touch device |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
WO2014203459A1 (ja) | 2013-06-18 | 2014-12-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 入力装置及び動作要求を入力する方法 |
US9430142B2 (en) | 2014-07-17 | 2016-08-30 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
US9886190B2 (en) | 2014-09-26 | 2018-02-06 | The Florida International University Board Of Trustees | Gesture discernment and processing system |
US9952676B2 (en) | 2015-06-25 | 2018-04-24 | Intel Corporation | Wearable device with gesture recognition mechanism |
US11029836B2 (en) | 2016-03-25 | 2021-06-08 | Microsoft Technology Licensing, Llc | Cross-platform interactivity architecture |
US11755146B2 (en) | 2021-06-03 | 2023-09-12 | Apple Inc. | Devices and methods for processing touch inputs |
-
2008
- 2008-03-04 US US12/042,318 patent/US8645827B2/en active Active
-
2009
- 2009-02-09 AU AU2009200493A patent/AU2009200493A1/en not_active Abandoned
- 2009-02-10 CA CA2931604A patent/CA2931604C/en active Active
- 2009-02-10 CA CA3011844A patent/CA3011844C/en active Active
- 2009-02-10 CA CA2653363A patent/CA2653363C/en active Active
- 2009-02-20 WO PCT/US2009/034772 patent/WO2009111189A1/en active Application Filing
- 2009-03-03 IL IL197386A patent/IL197386A/en active IP Right Grant
- 2009-03-04 EP EP09154313A patent/EP2098948B1/de active Active
- 2009-03-04 CN CN201110148738.9A patent/CN102253797B/zh active Active
- 2009-03-04 DE DE102009011687.7A patent/DE102009011687B4/de active Active
- 2009-03-04 ES ES11150786T patent/ES2393911T3/es active Active
- 2009-03-04 EP EP11150786A patent/EP2306285B1/de active Active
- 2009-03-04 DE DE202009018653U patent/DE202009018653U1/de not_active Expired - Lifetime
- 2009-03-04 EP EP12156395.1A patent/EP2472385B1/de active Active
- 2009-03-04 EP EP11184167.2A patent/EP2405339B1/de active Active
- 2009-03-04 EP EP11184172.2A patent/EP2405342B1/de active Active
- 2009-03-04 EP EP17158104.4A patent/EP3244296B1/de active Active
- 2009-03-04 DE DE602009000704T patent/DE602009000704D1/de active Active
- 2009-03-04 EP EP12156394.4A patent/EP2472384B1/de active Active
- 2009-03-04 EP EP11184170.6A patent/EP2405341B1/de active Active
- 2009-03-04 AT AT09154313T patent/ATE498157T1/de not_active IP Right Cessation
- 2009-03-04 JP JP2009080377A patent/JP5075867B2/ja active Active
- 2009-03-04 DE DE202009018624U patent/DE202009018624U1/de not_active Expired - Lifetime
- 2009-03-04 EP EP11150788.5A patent/EP2302494B1/de active Active
- 2009-03-04 EP EP11184169.8A patent/EP2405340B1/de active Active
- 2009-03-04 ES ES09154313T patent/ES2357374T3/es active Active
- 2009-03-04 CN CN2009101185964A patent/CN101526880B/zh active Active
- 2009-03-04 EP EP11184409.8A patent/EP2405347B1/de active Active
- 2009-03-04 EP EP20174181.6A patent/EP3712758B1/de active Active
-
2010
- 2010-02-18 HK HK10101742.7A patent/HK1135210A1/xx unknown
-
2011
- 2011-08-30 US US13/221,827 patent/US9720594B2/en active Active
- 2011-10-03 HK HK11110416.2A patent/HK1156126A1/xx unknown
-
2012
- 2012-05-23 HK HK12105027.2A patent/HK1164498A1/xx unknown
- 2012-08-27 JP JP2012186775A patent/JP5427279B2/ja active Active
- 2012-11-06 US US13/670,378 patent/US8560975B2/en active Active
-
2013
- 2013-11-28 JP JP2013246656A patent/JP5736029B2/ja active Active
-
2014
- 2014-02-03 US US14/171,680 patent/US9389712B2/en active Active
-
2015
- 2015-04-17 JP JP2015085361A patent/JP6224647B2/ja active Active
-
2016
- 2016-02-15 IL IL244139A patent/IL244139B/en active IP Right Grant
- 2016-06-29 US US15/197,704 patent/US9690481B2/en active Active
-
2017
- 2017-02-14 US US15/432,746 patent/US9971502B2/en active Active
- 2017-10-05 JP JP2017195359A patent/JP6659648B2/ja active Active
-
2018
- 2018-05-14 US US15/979,357 patent/US10521109B2/en active Active
-
2019
- 2019-12-19 US US16/721,746 patent/US10936190B2/en active Active
-
2020
- 2020-12-30 US US17/138,687 patent/US11740725B2/en active Active
-
2023
- 2023-08-15 US US18/234,259 patent/US20230384881A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060097991A1 (en) | 2004-05-06 | 2006-05-11 | Apple Computer, Inc. | Multipoint touchscreen |
US20070226636A1 (en) | 2006-03-21 | 2007-09-27 | Microsoft Corporation | Simultaneous input across multiple applications |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009011687B4 (de) | Berührungsereignismodell | |
DE202016001516U1 (de) | Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird | |
DE202011106886U1 (de) | Modusumschaltung | |
DE112007000278T5 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
DE112013006621T5 (de) | Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung | |
DE112009001276T5 (de) | Karten-Metapher für Aktivitäten in einem Rechengerät | |
DE112009001281T5 (de) | Navigieren zwischen Aktivitäten in einem Computergerät | |
DE202008001338U1 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
DE202012007707U1 (de) | Vorrichtung zum Vorsehen einer Benutzerschnittstelle auf einer Vorrichtung, die Inhalt-Operatoren anzeigt | |
DE202016001024U1 (de) | Navigations-Benutzerschnittstelle | |
DE202011110722U1 (de) | Tragbare elektronische Vorrichtung mit scrollbarem Bereich | |
DE112013002412T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts | |
DE202007013923U1 (de) | Mehrfachereignis-Eingabesystem | |
DE112018005206T5 (de) | Berührungsempfindliche Benutzeroberfläche einschliesslich konfigurierbarer virtueller Widgets | |
DE112010002760T5 (de) | Benutzerschnittstelle | |
DE102009014555A1 (de) | Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds | |
EP2795451B1 (de) | Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige | |
DE202017105614U1 (de) | Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools | |
DE102012020607B4 (de) | Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements | |
DE102012220062A1 (de) | Einstellung mehrerer benutzereingabeparameter | |
DE102014117614A1 (de) | Wechseln eines Schnittstellenmodus mittels einer Eingabegeste | |
WO2017144298A1 (de) | Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen | |
DE102015218963A1 (de) | Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung | |
DE102009059868A1 (de) | Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle | |
DE112011104981T5 (de) | Ergänzung von Elementen der Benutzeroberfläche |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06F0003042000 Ipc: G06F0003048800 Effective date: 20130307 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |