DE112012000189B4 - Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben - Google Patents
Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben Download PDFInfo
- Publication number
- DE112012000189B4 DE112012000189B4 DE112012000189.3T DE112012000189T DE112012000189B4 DE 112012000189 B4 DE112012000189 B4 DE 112012000189B4 DE 112012000189 T DE112012000189 T DE 112012000189T DE 112012000189 B4 DE112012000189 B4 DE 112012000189B4
- Authority
- DE
- Germany
- Prior art keywords
- characters
- displayed
- character
- generated
- sets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005192 partition Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 claims abstract description 65
- 125000006850 spacer group Chemical group 0.000 claims abstract description 7
- 238000004891 communication Methods 0.000 description 13
- 210000003811 finger Anatomy 0.000 description 12
- 230000008569 process Effects 0.000 description 8
- 238000010079 rubber tapping Methods 0.000 description 4
- 240000007817 Olea europaea Species 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 235000019640 taste Nutrition 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 235000019633 pungent taste Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
- VERWANDTE ANMELDUNGSDATEN
- Die vorliegende Anmeldung beansprucht Priorität zu und den Vorteil der vorläufigen U.S.-Patentanmeldung Nr.
61/603,043 13/373,356 - TECHNISCHES GEBIET
- Die vorliegende Offenbarung betrifft im Allgemeinen Eingabe-Methodiken für elektronische Vorrichtungen, wie handgehaltene elektronische Vorrichtungen, und insbesondere Verfahren zum Empfangen einer prädiktiven Texteingabe und zur Erzeugung eines Satzes von Zeichen für elektronische Vorrichtungen.
- HINTERGRUND
- Zunehmend haben elektronische Vorrichtungen, wie Computer, Netbooks, zellulare Telefone, Smartphones, persönliche digitale Assistenten (PDAs- personal digital assistants), Tablets, etc., Berührungsbildschirme, die einem Benutzer ermöglichen, Zeichen in eine Anwendung einzugeben, wie eine Textverarbeitungs- oder Email-Anwendung. Eine Zeicheneingabe auf Berührungsbildschirmen kann eine mühselige Angelegenheit sein aufgrund zum Beispiel des kleinen Berührungsbildschirmbereichs, insbesondere, wenn ein Benutzer eine lange Nachricht eingeben möchte.
-
WO 2010/035574 A1 -
US 2010/0192086 A1 -
WO 2012/076743 A1 US 2010/0225599 A1 - Figurenliste
-
-
1 ist ein beispielhaftes Blockdiagramm einer elektronischen Vorrichtung, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
2 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zur Vorhersage eines ausgewählten Satzes von Zeichen darstellt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
3A ,3B ,3C und3D zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
4A und4B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
5 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
6A ,6B und6C zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
7 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
8A und8B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
9 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
10A und10B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
11A und11B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
12A und12B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
13A und13B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
14A ,14B und14C zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
15 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
16 zeigt eine beispielhafte Vorderansicht eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
17 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
18 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
19 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren zeigt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
20 zeigt eine beispielhafte Vorderansicht einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
21 bis24 zeigen beispielhafte Vorderansichten einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
25 bis28 zeigen beispielhafte Vorderansichten einer virtuellen Tastatur zur Anzeige auf einem Berührungsbildschirm in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. -
29 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren darstellt, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen. - BESCHREIBUNG VON BEISPIELHAFTEN AUSFÜHRUNGSBEISPIELEN
- Es wird nun im Detail auf verschiedene Ausführungsbeispiele Bezug genommen, von denen Beispiele in den beigefügten Zeichnungen dargestellt werden. Wenn möglich, werden die gleichen Referenznummern in den gesamten Zeichnungen verwendet, um auf gleiche oder ähnliche Teile zu verweisen.
- Die vorliegende Offenbarung betrifft eine elektronische Vorrichtung, einschließlich drahtgebundener Kommunikationsvorrichtungen (zum Beispiel ein Laptop-Computer mit einem Berührungsbildschirm) und mobiler oder handgehaltener drahtloser Kommunikationsvorrichtungen, wie zellulare Telefone, Smartphones, drahtlose Organizer, persönliche digitale Assistenten, drahtlos aktivierte Notebook-Computer, Tablets und ähnliche Vorrichtungen. Die elektronische Vorrichtung kann auch eine elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein, wie eine handgehaltene elektronische Spielevorrichtung, ein digitales Fotoalbum, eine Digitalkamera oder eine andere Vorrichtung.
- Grundlegende prädiktive Texteingabe-Lösungen wurden zur Unterstützung bei einer Eingabe auf einer elektronischen Vorrichtung eingeführt. Diese Lösungen umfassen eine Vorhersage, welches Wort ein Benutzer eingibt, und bieten einen Vorschlag zur Vervollständigung des Worts. Aber diese Lösungen können Grenzen haben, die oft erfordern, dass der Benutzer die meisten oder alle der Zeichen in einem Wort eingibt, bevor die Lösung das Wort vorschlägt, das der Benutzer einzugeben versucht. Auch dann muss ein Benutzer oft den Fokus von der Tastatur weglenken, um das vorgeschlagene Wort zu betrachten und zu berücksichtigen, das auf einer anderen Stelle auf der Anzeige der elektronischen Vorrichtung angezeigt wird, und danach zurück auf die Tastatur blicken, um eine Eingabe fortzusetzen. Ein Neufokussieren der Augen in Bezug auf die Tastatur während einer Eingabe von Information in eine elektronische Vorrichtung, insbesondere bei einem Erstellen von langen Texten, kann die Augen ermüden und umständlich, ablenkend und anderweitig ineffizient sein. Ferner sind Verarbeitungszyklen verloren und Anzeigeleistung wird verschwendet, wenn der Prozessor im Leerlauf ist, während der Benutzer seine Aufmerksamkeit auf den Eingabebereich richtet und dann zurück zu der virtuellen Tastatur.
- Die Effizienz von prädiktiven Texteingabe-Lösungen, aus der Perspektive von sowohl Vorrichtungsressourcen als auch Benutzererfahrung, hängt manchmal von dem bestimmten Benutzer und der Art der Interaktion des bestimmten Benutzers mit dem Berührungsbildschirm ab. Benutzungsmuster virtueller Tastaturen können grob als zwei Typen kategorisiert werden: „schnell“ und „präzise“. Schnelle Tipper sind typischerweise schnelle zwei-Daumen-Tipper, die sich auf eine Autokorrektur verlassen. Dieses Benutzungsmuster entspricht am ehesten erfahrenen häufigen Berührungsbildschirm-Benutzern. Präzise Tipper sind typischerweise sorgfältige Tipper, die geneigt sind, ein Zeigen mit einem Finger zu benutzen, um Tasten in der virtuellen Tastatur anzutippen, und wählen oft Prädiktionen als einen Eingabebeschleuniger anstatt eine Autokorrektur. Dieses Benutzungsmuster entspricht am ehesten unerfahrenen/neuen Berührungsbildschirm-Benutzern sowie möglichen einhändigen (Daumen) Benutzungssituationen.
- Entsprechend ermöglichen hier beschriebene beispielhafte Ausführungsbeispiele dem Benutzer einer elektronischen Vorrichtung, Zeichen einzugeben, ohne die Aufmerksamkeit von der Tastatur abzulenken und eine anschließende Neufokussierung zu erfordern. Beispielhafte Ausführungsbeispiele, die hier beschrieben werden, versuchen auch, unterschiedlichen Benutzertypen, wie schnellen Tippern und genauen Tippern, und den unterschiedlichen Herausforderungen hinsichtlich Effizienz gerecht zu werden, die durch die unterschiedlichen Benutzertypen präsentiert werden.
- Eine Verwendung des unbestimmten Artikels „a“ oder „an“ („ein/eine“) in der Beschreibung und den Ansprüchen soll ein oder mehr als eines des Merkmals umfassen, das eingeführt wird, sofern nichts anderes angegeben. Somit kann der Begriff „ein Satz von Zeichen“, wie bei einem „Erzeugen eines Satzes von Zeichen“ verwendet, die Erzeugung von einem oder mehr als einem Satz von Zeichen umfassen. Ebenso soll eine Verwendung des bestimmten Artikels „the“ oder „said“ („der/die/das“), insbesondere, nachdem ein Merkmal mit dem unbestimmten Artikel eingeführt wurde, ein oder mehr als eines des Merkmals umfassen, auf das er sich bezieht (falls nicht anders angegeben). Deshalb umfasst der Ausdruck „der erzeugte Satz von Zeichen“, wie bei einem „Anzeigen des erzeugten Satzes von Zeichen“ verwendet, ein Anzeigen eines oder mehrerer erzeugter Sätze von Zeichen. Referenzen zur Ausrichtung bzw. Orientierung, die hier enthalten sind, wie horizontal und vertikal, sind relativ zu der Bildschirmausrichtung einer graphischen Benutzerschnittstelle anstatt zu einer physikalischen Ausrichtung.
- In einem Ausführungsbeispiel ist ein Verfahren vorgesehen, das aufweist ein Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige dargestellt wird; ein Erzeugen eines Satzes oder mehrerer Sätze von vorhergesagten Eingabe-Zeichen basierend auf dem Eingabe-Zeichen; und ein Anzeigen eines oder mehrerer der erzeugten Sätze von vorhergesagten Eingabe-Zeichen in der virtuellen Tastatur an einer Position in der Nähe einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen in dem einen oder mehreren erzeugten Sätzen von vorhergesagten Eingabe-Zeichen entspricht.
- In einem anderen Ausführungsbeispiel ist eine elektronische Vorrichtung vorgesehen, die einen Prozessor und eine Anzeige aufweist, die mit dem Prozessor gekoppelt ist. Der Prozessor kann konfiguriert sein zum Durchführen des/der hier beschriebenen Verfahren(s).
- In einem anderen Ausführungsbeispiel ist eine Tastatur vorgesehen, die auf einer Anzeige einer elektronischen Vorrichtung vorgesehen ist. Die Tastatur kann eine Vielzahl von Tasten umfassen, wobei jede Taste einem oder mehreren verschiedenen Zeichen einer Vielzahl von Zeichen entspricht. In Reaktion auf ein Empfangen einer Eingabe eines Zeichens ist die Tastatur konfiguriert zum Durchführen des/der hier beschriebenen Verfahren(s).
- Diese beispielhaften Ausführungsbeispiele sowie die unten beschriebenen ermöglichen dem Benutzer einer elektronischen Vorrichtung eine Eingabe eines Satzes von Zeichen ohne Ablenkung von der virtuellen Tastatur und einem nachfolgenden Neufokussieren. Ein Vorhersagen und Vorsehen von verschiedenen Optionen, die der Benutzer wahrscheinlich in Betracht zieht, und dies an geeigneten Positionen auf der Tastatur, ermöglicht, dass der Fokus auf der Tastatur bleibt, was eine Effizienz, Genauigkeit und Schnelligkeit einer Zeicheneingabe verbessert.
-
1 ist ein Blockdiagramm einer elektronischen Vorrichtung 100 in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen. Die elektronische Vorrichtung 100 umfasst mehrere Komponenten, wie einen Hauptprozessor 102, der den Gesamtbetrieb der elektronischen Vorrichtung 100 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikationen, werden durch ein Kommunikationsteilsystem 104 durchgeführt. Daten, die von der elektronischen Vorrichtung 100 empfangen werden, werden durch einen Decodierer 106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem 104 empfängt Nachrichten von einem Netzwerk 150 und sendet Nachrichten an dieses. Das Netzwerk 150 kann jeder Typ von Netzwerk sein, einschließlich, aber nicht darauf beschränkt, ein drahtgebundenes Netzwerk, ein drahtloses Datennetzwerk, ein drahtloses Sprachnetzwerk, und drahtlose Dual-Modus-Netzwerke, die sowohl Sprach- als auch Datenkommunikationen über dieselben physikalischen Basisstationen unterstützen. Die elektronische Vorrichtung 100 kann ein batteriebetriebene Vorrichtung sein und eine Batterie-Schnittstelle 142 zur Aufnahme einer oder mehrerer Batterien 144 umfassen. - Der Hauptprozessor 102 ist mit zusätzlichen Teilsystemen gekoppelt und kann mit diesen interagieren, wie einem Arbeitsspeicher (RAM - Random Access Memory) 108; einem Speicher 110, wie eine Festplatte, CD, DVD, Flash-Speicher oder ähnliche Speichervorrichtung; einem oder mehreren Aktuatoren 120; einem oder mehreren Kraftsensoren 122; einem Hilfs-Eingabe/Ausgabe (E/A bzw. I/O - input/output)-Teilsystem 124; einem Datenanschluss 126; einem Lautsprecher 128; einem Mikrofon 130; Nahbereichskommunikationen 132; anderen Vorrichtungs-Teilsystemen 134; und einem Berührungsbildschirm 118.
- Der Berührungsbildschirm 118 umfasst eine Anzeige 112 mit einer berührungsaktiven Überlagerung 114, die mit einer Steuervorrichtung 116 verbunden ist. Eine Benutzerinteraktion mit einer graphischen Benutzerschnittstelle (GUI - graphical user interface), wie einer virtuellen Tastatur, die auf der Anzeige 112 dargestellt und angezeigt wird als eine GUI zur Eingabe von Zeichen, oder ein Web-Browser, wird durch die berührungsaktive Überlagerung 114 durchgeführt. Der Hauptprozessor 102 interagiert mit der berührungsaktiven Überlagerung 114 über die Steuervorrichtung 116. Zeichen, wie Text, Symbole, Bilder und andere Elemente werden auf der Anzeige 112 des Berührungsbildschirms 118 über den Hauptprozessor 102 angezeigt. Zeichen werden eingegeben, wenn der Benutzer den Berührungsbildschirm an einer Position berührt, die mit dem Zeichen assoziiert ist.
- Der Berührungsbildschirm 118 ist mit dem Hauptprozessor 102 verbunden und wird durch diesen gesteuert. Demgemäß kann ein Erfassen eines Berührungsereignisses und/oder ein Bestimmen der Position des Berührungsereignisses durch den Hauptprozessor 102 der elektronischen Vorrichtung 100 durchgeführt werden. Ein Berührungsereignis umfasst in einigen Ausführungsbeispielen ein Antippen durch einen Finger, eine Wischgeste bzw. Swipe durch einen Finger, eine Wischgeste mit einem Stift, ein langes Drücken mit einem Finger oder einem Stift oder ein Drücken mit einem Finger für eine vorgegebene Zeitdauer, und dergleichen.
- Während spezifische Ausführungsbeispiele eines Berührungsbildschirms beschrieben wurden, kann jeder geeignete Typ von Berührungsbildschirm für eine elektronische Vorrichtung verwendet werden, einschließlich, aber nicht darauf beschränkt, ein kapazitiver Berührungsbildschirm, ein resistiver Berührungsbildschirm, ein „akustische Oberflächenwelle (SAW - surface acoustic wave)“-Berührungsbildschirm, ein „eingebettete Fotozelle“-Berührungsbildschirm, ein Infrarot-(IR - infrared)-Berührungsbildschirm, ein Dehnungsmesser-basierter Berührungsbildschirm, ein „optische Abbildung“-Berührungsbildschirm, ein „dispersive Signal-Technologie“-Berührungsbildschirm, ein „akustische Pulserkennung“-Berührungsbildschirm oder ein „Frustrated Total Internal Reflection“-Berührungsbildschirm. Der Typ der Berührungsbildschirm-Technologie, die in einem gegebenen Ausführungsbeispiel verwendet wird, ist abhängig von der elektronischen Vorrichtung und ihrer bestimmten Anwendung und ihren Anforderungen.
- Der Hauptprozessor 102 kann auch mit einem Positionierungssystem 136 interagieren zum Bestimmen des Standorts der elektronischen Vorrichtung 100. Der Standort kann auf eine Anzahl von Arten bestimmt werden, wie durch einen Computer, durch GPS (Global Positioning System), in der elektrischen Vorrichtung 100 entweder enthalten oder nicht, durch ein WiFi-Netzwerk, oder durch manuelle Eingabe einer Position. Der Standort kann auch basierend auf Kalendereinträgen bestimmt werden.
- Der Hauptprozessor 102 kann auch mit einem Ausrichtungs- bzw. Orientierungssensor 197 interagieren zum Erfassen der Ausrichtung der Vorrichtung. In einigen Beispielen kann der Ausrichtungssensor 197 ein oder mehrere Beschleunigungsmesser sein. In einigen Beispielen kann der Ausrichtungssensor eine Beschleunigung entlang mehrerer orthogonaler Achsen erfassen. Der Hauptprozessor 102 kann auch mit einem oder mehreren Nähe-Sensoren 198 interagieren zum Erfassen der Nähe von Objekten in der Nähe. In einigen Beispielen kann der Nähe-Sensor ein oder mehrere Infrarot-Emitter/Sensor-Paare sein. Der Hauptprozessor 102 kann auch mit einem Umgebungslicht-Sensor 199 interagieren zum Erfassen der Intensität und/oder der Farbtemperatur eines Umgebungslichts.
- In einigen Ausführungsbeispielen verwendet die elektronische Vorrichtung 100, um einen Teilnehmer für einen Netzwerkzugriff zu identifizieren, eine SIM/RUIM(Subscriber Identity Module oder Removable User Identity Module)-Karte 138, eingefügt in eine SIM/RUIM-Schnittstelle 140, zur Kommunikation mit einem Netzwerk, wie dem Netzwerk 150. Alternativ kann eine Benutzeridentifikationsinformation in den Speicher 110 programmiert sein.
- Die elektronische Vorrichtung 100 umfasst auch ein Betriebssystem 146 und Programme 148, die von dem Hauptprozessor 102 ausgeführt werden und typischerweise in einem Speicher 110 gespeichert sind. Zusätzliche Anwendungen können auf die elektronische Vorrichtung 100 über das Netzwerk 150, das Hilfs- E/A-Teilsystem 124, den Datenanschluss 126, das Nahbereichs-Kommunikationsteilsystem 132 oder jedes andere geeignete Teilsystem geladen werden.
- Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite wird von dem Kommunikationsteilsystem 104 verarbeitet und diese verarbeitete Information wird dann an den Hauptprozessor 102 geliefert. Der Hauptprozessor 102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige 112, das Hilfs- E/A-Teilsystem 124, oder eine Kombination aus beiden. Ein Benutzer kann Datenelemente erstellen, zum Beispiel Email-Nachrichten, die über das Netzwerk 150 durch das Kommunikationsteilsystem 104 übertragen werden können. Für Sprachkommunikationen ist der allgemeine Betrieb der elektronischen Vorrichtung 100 ähnlich. Ein Lautsprecher 128 gibt hörbare Information aus, die aus elektrischen Signalen umgewandelt wurde, und das Mikrofon 130 wandelt hörbare Information in elektrische Signale zur Verarbeitung um.
-
2 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren 200 zum Vorhersagen eines Satzes von Zeichen in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen darstellt. Wie hier verwendet, umfasst ein Prädiktor (wie ein prädiktiver Algorithmus, Programm oder Firmware) einen Satz von Anweisungen, die bei Ausführung durch einen Prozessor (zum Beispiel den Hauptprozessor 102) verwendet werden können, um zum Beispiel eine empfangene mehrdeutige Texteingabe zu disambiguieren und verschiedene Optionen vorzusehen, wie einen Satz von Zeichen (zum Beispiel Wörter oder Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen, oder jede Kombination daraus), die ein Benutzer in Betracht ziehen könnte. Ein Prädiktor kann auch eine ansonsten eindeutige Texteingabe empfangen und einen Satz bzw. Sätze von Zeichen vorhersagen, der/die möglicherweise von dem Benutzer in Betracht gezogen wird/werden, basierend auf mehreren Faktoren, wie Kontext, Verwendungshäufigkeit, und anderes, wie für Fachleute offensichtlich ist. Der Prädiktor kann einen Satz von Zeichen vorhersagen, der eine empfangene Texteingabe vervollständigt (als Autovervollständigen bekannt), eine empfangene Texteingabe korrigieren (als Autokorrektur bekannt), oder eine Kombination daraus (zum Beispiel Vervollständigen der Texteingabe während eines Korrigierens einer vorher eingegebenen Texteingabe). - Zum Beispiel ist der Prädiktor ein Programm 148, das sich in dem Speicher 110 der elektronischen Vorrichtung 100 befindet. Demgemäß umfasst das Verfahren 200 einen Prädiktor zum Erzeugen eines Satzes von Zeichen, der einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, basierend auf eingegebenen Zeichen. Es ist anzumerken, dass, während die hier beschriebenen beispielhaften Ausführungsbeispiele ein Prädiktor-Programm betreffen, das von einem Prozessor ausgeführt wird, der Prädiktor durch eine Steuervorrichtung der virtuellen Tastatur ausgeführt werden kann.
- Das Verfahren 200 beginnt in Block 210, wo der Prozessor eine Eingabe aus einem oder mehreren Zeichen von einer virtuellen Tastatur empfängt, die auf einem Berührungsbildschirm angezeigt wird. Wie hier verwendet, kann jedoch ein Zeichen jedes alphanumerische Zeichen, wie ein Buchstabe, eine Zahl, ein Symbol, eine Interpunktion und dergleichen sein. Das eingegebene Zeichen kann in einem Eingabefeld angezeigt werden (zum Beispiel das Eingabefeld 330, das weiter unten in den
3-9 beschrieben wird), das das Zeichen anzeigt, das der Benutzer unter Verwendung der virtuellen Tastatur eingibt. - In Block 220 erzeugt der Prozessor einen oder mehrere Sätze von Zeichen, wie Wörter oder Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jede Kombination daraus, basierend auf der Eingabe, die in Block 210 empfangen wird. Der Satz von Zeichen umfasst zum Beispiel einen Satz von Zeichen, der in einem Wörterbuch (zum Beispiel ein Wort oder ein Akronym) eines Speichers der elektronischen Vorrichtung gespeichert ist, einen Satz von Zeichen, der früher von dem Benutzer eingegeben wurde (zum Beispiel ein Name oder Akronym), einen Satz von Zeichen basierend auf einer Hierarchie oder Baumstruktur, eine Kombination daraus, oder einen Satz von Zeichen, der von einem Prozessor basierend auf einer definierten Anordnung ausgewählt wird.
- In einigen Ausführungsbeispielen kann der Prozessor Kontextdaten zum Erzeugen eines Satzes von Zeichen verwenden. Kontextdaten berücksichtigen den Kontext von Zeichen in dem Eingabefeld. Kontextdaten können Information enthalten über zum Beispiel einen Satz von Zeichen, der zuvor von dem Benutzer eingegeben wurde, grammatikalische Eigenschaften der Zeichen, die in dem Eingabefeld eingegeben werden (zum Beispiel, ob ein Substantiv oder ein Verb als der nächste Satz von Zeichen in einem Satz benötigt wird) oder jede Kombination daraus. Wenn zum Beispiel der Satz von Zeichen „the (der/die/das)“ bereits in die Anzeige eingegeben wurde, kann der Prozessor die Kontextdaten verwenden, um zu bestimmen, dass ein Substantiv - anstelle eines Verbs - der nächste Satz von Zeichen sein wird nach dem „the“. Ähnlich, wenn die Sätze von Zeichen „Guy Lafleur played in the National Hockey“ eingegeben wurden, kann der Prozessor basierend auf dem Kontext bestimmen, dass der nachfolgende Satz von Zeichen wahrscheinlich „League“ ist. Unter Verwendung der Kontextdaten kann der Prozessor auch bestimmen, ob ein eingegebenes Zeichen nicht korrekt war. Zum Beispiel kann der Prozessor bestimmen, dass das eingegebene Zeichen ein „w“ anstelle eines „a“ sein sollte, aufgrund der Nähe dieser Zeichen auf einer virtuellen QWERTY-Tastatur.
- Der Prozessor 102 kann auch ein Affix als Teil des Satzes von Zeichen aufnehmen, wie ein Adverb-Ende, ein Adjektiv-Ende, verschiedene Verb-Zeitformen, und dergleichen, oder jede andere Änderung, um einen vollständigen Satz von Zeichen herzustellen. Der Prozessor 102 kann auch die empfangene Eingabe verwenden, um Affixe zu erzeugen, wie Pluralendungen oder Pluralformen. Jede bekannte prädiktive Technik oder Software kann verwendet werden, um die empfangene Eingabe und die Kontextdaten bei der Erzeugung eines Satzes von Zeichen in Block 220 zu verarbeiten.
- In einigen beispielhaften Ausführungsbeispielen kann der Satz von Zeichen, der in Block 220 erzeugt wird, mit demselben Zeichen beginnen, das als Eingabe in Block 210 empfangen wurde. Wenn zum Beispiel die Zeichen „pl“ als Eingabe unter Verwendung einer virtuellen Tastatur empfangen wurden, werden diese Zeichen von dem Prozessor als Eingabe empfangen. In diesen Ausführungsbeispielen würden die Sätze von Zeichen, die in Block 220 erzeugt werden, alle mit „pl“ beginnen, wie „please“ oder „plot“. Es gibt keine Begrenzung für die Länge eines erzeugten Satzes von Zeichen. Hinsichtlich Affixen, wenn der Benutzer zum Beispiel das Zeichen „child“ eingegeben hat, können die Affixe, die in Block 220 erzeugt werden, „-ren“ umfassen, damit der Satz von Zeichen „children“ wird, oder „-ish“, damit der Satz von Zeichen „childish“ wird.
- In einigen beispielhaften Ausführungsbeispielen kann der Satz von Zeichen, der in Block 220 erzeugt wird, einfach dieselben Zeichen umfassen, die als Eingabe in Block 210 empfangen werden. Wenn zum Beispiel die empfangene Eingabe ein „x“ ist, kann der Prozessor „example“ oder „xyiophone“ als den Satz von Zeichen erzeugen. Solche Sätze von Zeichen können unter Verwendung der Kontextdaten erzeugt werden.
- In einem anderen beispielhaften Ausführungsbeispiel, wenn keine Eingabe empfangen wurde oder ein Delimiter bzw. Trennzeichen (wie <LEERZEICHEN> bzw. <SPACE>) verwendet wurde, kann der erzeugte Satz von Zeichen auf nachfolgende Kandidaten-Eingabe-Zeichen platziert werden, die dem ersten Buchstaben des erzeugten Satzes von Zeichen entsprechen.
- Als nächstes kann in Block 230 der erzeugte Satz von Zeichen aus dem Block 220 eingestuft werden. Die Einstufungen bzw. Rangordnungen reflektieren die Wahrscheinlichkeit, dass ein Kandidaten-Satz von Zeichen von dem Benutzer beabsichtigt war oder von einem Benutzer ausgewählt werden kann im Vergleich zu einem anderen Kandidaten-Satz von Zeichen.
- In einigen Ausführungsbeispielen können Kontextdaten in der Rangeinstufung in Block 230 enthalten sein. In einigen Ausführungsbeispielen kann die elektronische Vorrichtung konfiguriert sein, Substantive oder Adjektive höher einzuordnen basierend auf dem vorher eingegebenen Satz von Zeichen. Wenn der eingegebene Satz von Zeichen ein Substantiv oder Adjektiv andeutet, kann der Prozessor unter Verwendung der Kontextdaten die Substantive oder Adjektive entsprechend dem, was der Benutzer eingibt, höher einordnen in Block 230. In einem weiteren Ausführungsbeispiel kann ein Satz von Zeichen, der Adjektiv-Affixe (wie „-ish“ oder „-ful“), Ausdrücke, Pluralformen, oder Kombinationen daraus umfasst, ebenfalls in einer Rangeinstufung eingeordnet werden. Kontextdaten können die Wahrscheinlichkeit erhöhen, dass der höherrangige erzeugte Satz von Zeichen von einem Benutzer beabsichtigt ist. In einigen Ausführungsbeispielen können die Kontextdaten Information darüber umfassen, welche Programme oder Anwendungen derzeit ausgeführt werden oder durch einen Benutzer verwendet werden. Wenn zum Beispiel der Benutzer eine Email-Anwendung ausführt, dann können Sätze von Zeichen, die mit dem Email-System dieses Benutzers assoziiert sind, wie Sätze von Zeichen aus der Kontaktliste des Benutzers, verwendet werden, um die Rangeinstufung zu bestimmen. N-Gramme, einschließlich Unigramme, Bigramme, Trigramme, und dergleichen, können ebenfalls in der Rangeinstufung der Sätze von Zeichen verwendet werden. Alternativ kann die Geoposition der elektronischen Vorrichtung oder des Benutzers bei der Rangeinstufung verwendet werden. Wenn zum Beispiel die elektronische Vorrichtung erkennt, dass sich ein Benutzer in seinem/ihrem Büro befindet, dann können Sätze von Zeichen, die im Allgemeinen mit Arbeit assoziiert sind, in der Liste höher eingeordnet werden. Wenn andererseits die Vorrichtung bestimmt, dass ein Benutzer am Strand ist, dann können Sätze von Zeichen, die im Allgemeinen mit dem Strand assoziiert sind, in der Liste höher eingeordnet werden.
- In Block 240 bestimmt der Prozessor, welcher der Sätze von Zeichen anzuzeigen ist basierend auf der Rangeinstufung. Beispielsweise wird für höherrangige Sätze von Zeichen eher bestimmt, dass sie angezeigt werden sollen. Eine Rangeinstufungseinheit (wie ein Rangeinstufungs-Algorithmus, Programm oder Firmware) umfasst einen Satz von Anweisungen, die bei Ausführung durch einen Prozessor (zum Beispiel den Hauptprozessor 102) ausgeführt werden können, um eine Rangeinstufung in dieser Hinsicht zu bestimmen. In einigen Ausführungsbeispielen ist die Rangeinstufungseinheit ein Programm 146, das sich in dem Speicher 110 der elektronischen Vorrichtung 100 befindet.
- In Block 250 wird der bestimmte Satz von Zeichen an einer Position auf der Tastatur entsprechend eines nachfolgenden Kandidaten-Eingabe-Zeichens angezeigt, vorhergesagt als das nächste Zeichen in einem Wort, das der Benutzer eingeben könnte. Wenn zum Beispiel ein Benutzer „pl“ eingibt, würde das Wort „please“ auf der Taste für den Buchstaben „e“ angezeigt, dem nachfolgenden Kandidaten-Eingabe-Zeichen für dieses Wort. Ähnlich würde auch das Wort „plus“ auf der Taste für den Buchstaben „u“ angezeigt, ein weiteres nachfolgendes Kandidaten-Eingabe-Zeichen. Das nachfolgende Kandidaten-Eingabe-Zeichen kann jedes alphanumerische Zeichen sein, wie ein Buchstabe, eine Zahl, ein Symbol, ein Interpunktion und dergleichen.
- In einigen Ausführungsbeispielen wird der erzeugte Satz von Zeichen an oder nahe von Tasten auf der virtuellen Tastatur angezeigt, die mit den nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert sind. Ihre Platzierung an oder nahe einer Taste kann zum Beispiel von der Größe des Worts oder der Anzahl von benachbarten nachfolgenden Kandidaten-Eingabe-Zeichen und der Größe ihres zugehörigen Satzes von Zeichen abhängen.
- Der Satz von Zeichen kann in einer Weise angezeigt werden, die die Aufmerksamkeit des Benutzers gewinnt. In einigen Ausführungsbeispielen kann das Erscheinungsbild eines angezeigten Satzes von Zeichen verbessert oder in einer Weise verändert werden, die den Satz für den Benutzer einfacher sichtbar macht. Zum Beispiel können angezeigte Sätze von Zeichen mit einer Hintergrundbeleuchtung, einem Hervorheben, Unterstreichen, Fettschrift, Kursivschrift, unter Verwendung von Kombinationen daraus, oder in einer anderen Weise angezeigt werden, um den angezeigten Satz von Zeichen sichtbarer zu machen.
- Bei der Identifizierung des Satzes von Zeichen zur Anzeige in Block 240 kann der Prozessor die angezeigten Sätze von Zeichen auf die ersten wenigen begrenzen oder aus den höherrangigen Sätzen von Zeichen auswählen. Wenn zum Beispiel zwei Sätze von Zeichen beide hoch eingeordnet sind, und diese Sätze von Zeichen ansonsten auf derselben Taste angezeigt würden, kann die elektronische Vorrichtung konfiguriert sein, nur den am höchsten eingeordneten erzeugten Satz von Zeichen anzuzeigen. In anderen Ausführungsbeispielen können beide Sätze von Zeichen auf oder um dieselbe Taste angezeigt werden, oder ein Satz von Zeichen wird auf einer Taste angezeigt, während der zweite Satz von Zeichen an einer anderen Taste angezeigt wird. In einigen beispielhaften Ausführungsbeispielen kann der Prozessor die Anzeigegröße berücksichtigen, um die Anzahl von erzeugten Sätzen von Zeichen zu begrenzen.
- In einigen Ausführungsbeispielen kann die Rangeinstufung verwendet werden, um zwischen einem oder mehreren Sätzen von Zeichen auszuwählen, die bei Anzeige auf benachbarten nachfolgenden Kandidaten-Eingabe-Zeichen einander überlappen würden (zum Beispiel aufgrund ihrer jeweiligen Längen). In einem solchen Szenario kann die elektronische Vorrichtung konfiguriert sein, den höherrangigen Satz von Zeichen auf der Tastatur anzuzeigen. Wenn zum Beispiel der Satz von Zeichen „establishment“ als erster in einer Liste angeordnet ist, die in Block 240 erzeugt wird, nachdem der Buchstabe „E“ eingegeben wird, kann „establishment“ an der „S“-Taste angezeigt werden. Wenn auf einer virtuellen Tastatur angezeigt, kann jedoch seine Länge einen Platz auf der „A“-Taste und der „D“-Taste besetzen, und möglicherweise einen Satz von Zeichen blockieren, der an oder um diese Tasten angezeigt würde. In Block 240 kann bestimmt werden, dass „establishment“ vollständig angezeigt wird, und kein anderer Satz von Zeichen an den „A“- oder „D“-Tasten vor dem erstrangigen Satz von Zeichen „establishment“ platziert wird. Eine Alternative zur Anzeige nur des obersten Satzes von Zeichen wäre, Abkürzungen oder anerkannte verkürzte Formen des Satzes von Zeichen zu verwenden, was effektiv ermöglicht, dass ein langer Satz von Zeichen in oder hauptsächlich in den Grenzen einer einzelnen Taste angezeigt wird gleichzeitig mit anderen Sätzen von Zeichen auf benachbarten Tasten einer virtuellen Tastatur.
- Die
3-9 zeigen eine Reihe von beispielhaften Vorderansichten des Berührungsbildschirms 118 mit einer virtuellen Tastatur 320, in Übereinstimmung mit hier offenbarten beispielhaften Ausführungsbeispielen. Beginnend mit3A umfasst der Berührungsbildschirm 118 eine virtuelle Tastatur 320, die berührungsaktiv ist. Die Position der virtuellen Tastatur 320 ist variabel derart, dass die virtuelle Tastatur 320 an jeder beliebigen Position auf dem Berührungsbildschirm 118 platziert werden kann. Der Berührungsbildschirm 118 kann konfiguriert sein, die Position und möglicherweise einen Druck von einem oder mehreren Objekten gleichzeitig zu erfassen. Der Berührungsbildschirm 118 umfasst zwei Bereiche: (1) ein Eingabefeld 330, das Zeichen anzeigt, nachdem ein Benutzer diese Zeichen eingegeben hat, und (2) die virtuelle Tastatur 320, die die Eingabe von dem Benutzer empfängt. Wie in dieser Offenbarung beschrieben wird, zeigt eine virtuelle Tastatur einen Satz von Zeichen an einer Position auf der Tastatur entsprechend einem nachfolgenden Kandidaten-Eingabe-Zeichen an, das als Eingabe von dem Benutzer empfangen werden könnte. - Die Beispiele und Ausführungsbeispiele, die in den
3-9 dargestellt werden, können mit jedem Satz von Zeichen implementiert werden, wie Wörter, Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jeder Kombination daraus. - Wie in
3A gezeigt, zeigt der Berührungsbildschirm 118 eine virtuelle Standard-QWERTY-Tastatur 320 an; jedoch kann jede herkömmliche Tastenkonfiguration angezeigt werden zur Verwendung in der Vorrichtung, wie AZERTY, QWERTZ oder eine Anordnung, die auf dem ITU(lnternational Telecommunication Union)-Standard (ITU E.161) basiert, mit „ABC“ auf der Taste 2, „DEF“ auf der Taste 3, und so weiter. Die virtuelle Tastatur 320 umfasst eine Leertaste (space key) 350 sowie andere Tasten, die verschiedene Eingaben vorsehen können, wie Interpunktion, Buchstaben, Zahlen, Eingabe- oder Return-Tasten und Funktionstasten. Während die virtuelle Tastatur 320 als in einer quadratischen Form gezeigt wird, kann sie jede andere Form haben (wie zum Beispiel ein Bogen). - Wie in
3A gezeigt, zeigt der Berührungsbildschirm 118 ein Eingabefeld 330 an, das die Zeichen anzeigt, die der Benutzers über die virtuelle Tastatur 320 eingibt. Das Eingabefeld 330 umfasst einen Cursor 340, der ein Unterstrich (wie gezeigt) oder eine andere Form sein kann, wie eine vertikale Linie. Der Cursor 340 repräsentiert die Zeichen-Position, an der ein nächstes eingegebenes Zeichen, ein ausgewähltes Zeichen, oder ein ausgewählter Satz von Zeichen eingefügt wird. - Wie in
3B gezeigt, wenn ein Benutzer ein Zeichen eingibt (in diesem Beispiel „P“), wird dieses Zeichen in dem Eingabefeld 330 angezeigt und der Cursor 340 bewegt sich zu der Zeichen-Position, wo das nächste eingegebene Zeichen oder Wort eingefügt wird. Nachdem das Zeichen eingegeben ist, kann ein Prädiktor (wie ein prädiktiver Algorithmus oder eine Schaltung) Sätze von Zeichen 360 erzeugen (für diese Ausführungsbeispiel), die alle mit dem Zeichen „P“ beginnen, oder Zeichen, wenn mehr als ein Zeichen eingegeben wird. Die erzeugten Sätze von Zeichen werden an einer Position auf der Tastatur angezeigt, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, das als Eingabe von dem Benutzer empfangen werden kann. Wie erwähnt, können die erzeugten Sätze von Zeichen 360 an oder nahe der Taste angezeigt werden, die den nachfolgenden Kandidaten-Eingabe-Zeichen entspricht (zum Beispiel unter den jeweiligen Tasten A, E, H und 0 der virtuellen Tastatur 320). Tatsächlich kann ein leichtes Verschieben der Anzeigeposition des erzeugten Satzes von Zeichen eine Überfüllung von nachfolgenden Kandidaten-Eingabe-Zeichen adressieren, wodurch effektiv ermöglicht wird, dass mehr Sätze von Zeichen angezeigt werden können. - In dem Beispiel, das in
3B gezeigt wird, wird „P“ als Eingabe empfangen und ein Prädiktor erzeugt mehrere Sätze von Zeichen 360, die an den Tasten angezeigt werden, die dem nachfolgenden Kandidaten-Eingabe-Zeichen jedes erzeugten Satzes von Zeichen entsprechen. Wie in3B gezeigt, wird „People“ an der „E“-Taste platziert, da der nächste Buchstabe nach dem „P“ von „People“ „E“ ist; „Paul“ wird an der „A“-Taste platziert, da der nächste Buchstabe nach dem „P“ von „Paul“ „A“ ist; „Phone“ wird an der „H“-Taste platziert, da der nächste Buchstabe nach dem „P“ von „Phone“ „H“ ist; und so weiter. Es sollte angemerkt werden, dass jeder der Buchstaben in dem Satz von Zeichen Großbuchstaben oder Kleinbuchstaben haben kann. - In dem in
3C gezeigten Ausführungsbeispiel ist „L“ die nächste Eingabe, die durch den Berührungsbildschirm empfangen wird, und ein Prädiktor bestimmt mehrere erzeugte Sätze von Zeichen 360, die an einer Taste angezeigt werden entsprechend den nachfolgenden Kandidaten-Eingabe-Zeichen (zum Beispiel unter den jeweiligen Tasten A, E, und U der virtuellen Tastatur 320) für die aktuelle Position des Cursors 340, der an der dritten Zeichen-Position ist, wie in dem Eingabefeld 330 gezeigt wird. In einem anderen Ausführungsbeispiel kann ein erzeugter Satz von Zeichen 360 derart dargestellt werden, als das nachfolgende Kandidaten-Eingabe-Zeichen umfassend. Zum Beispiel kann der Satz von Zeichen „Please“ angezeigt werden derart, dass die Zeichen „PI“ angezeigt werden vor dem „E“-Zeichen auf der Taste „E“ und die Zeichen „ase“ können nach dem „E“-Zeichen auf der „E“-Taste platziert werden. Ferner kann in diesem oder anderen Ausführungsbeispielen das angezeigte „E“ auf eine Weise dargestellt werden, die sich von „PL“ und „ase“ unterscheidet, wodurch es für den Benutzer möglich ist, diese weiter als die „E“-Taste zu erkennen, während sie auch einfach zu erkennen ist, so dass der Benutzer entweder den erzeugten Satz von Zeichen „Please“ eingeben kann oder das Zeichen „E“ eingeben kann. Das „E“ kann in Großbuchstaben oder in Kleinbuchstaben sein. In anderen Ausführungsbeispielen kann ein Affix an der Taste angezeigt werden. Unter Verwendung des obigen Beispiels des Satzes von Zeichen „Please“, kann „ase“ an der „E“-Taste angezeigt werden, so dass der Satz von Zeichenfragmenten „-ease“ oder „-Ease“ erscheinen würde. - Wenn der Benutzer einen erzeugten Satz von Zeichen eingibt, wird dieser Satz von Zeichen in dem Eingabefeld 330 platziert. Dies ist in
3D zu sehen, wo der Benutzer den erzeugten Satz von Zeichen „Please“ eingegeben hat, was zu dessen Platzierung in dem Eingabefeld führt. Ein Leerzeichen wird nach dem Satz von Zeichen eingefügt, wenn der Benutzer wünscht, einen neuen Satz von Zeichen einzugeben. Ein Benutzer kann einen erzeugten Satz von Zeichen auf verschiedene Weise eingeben, einschließlich auf eine Weise, die sich von einer Weise zum Eingeben einer Zeichen-Taste unterscheidet. Zum Beispiel kann zur Eingabe eines erzeugten Satzes von Zeichen ein Benutzer einen Finger oder Stift verwenden, um den erzeugten Satz von Zeichen zu „wischen“. Wie hier verwendet, umfasst eine Wischgeste eine Wischgeste auf dem Satz von Zeichen selbst oder eine Wischgeste oder ein Berühren in der Nähe des Satzes von Zeichen. Für letzteres Ausführungsbeispiel kann die Vorrichtung eine Wischgeste oder eine Berührung in der Nähe eines Satzes von Zeichen erfassen, sei es ein erzeugter Satz von Zeichen oder ein vorhergesagter Satz von Zeichen (wie weiter unten beschrieben wird), und durch die Verwendung eines Prädiktors den Satz von Zeichen zu bestimmen, den der Benutzer eingeben wollte. In einem anderen Ausführungsbeispiel kann der Benutzer eine Taste für eine vorgegebene Zeitdauer betätigen, wie ein langes Drücken. Diese Taste kann zum Beispiel die Taste sein, die dem nachfolgenden Kandidaten-Eingabe-Zeichen des Satzes von Zeichen entspricht. Wenn somit der Satz von Zeichen „Please“ eingegeben werden soll anstatt „E“, kann die elektronische Vorrichtung 100 konfiguriert sein, zu erfordern, dass die „E“-Taste für eine vorgegebene Zeitdauer gedrückt wird, um die Eingabe von „Please“ auszulösen. - Nachdem ein erzeugter Satz von Zeichen 360 bestimmt wurde, wie in
3D gezeigt, kann ein vorhergesagter Satz von Zeichen 380 angezeigt werden, wie hier an der Leertaste 350 gezeigt. Der vorhergesagte Satz von Zeichen 380 kann sich von dem erzeugten Satz von Zeichen 360 unterscheiden (wie in den3A-3C gezeigt) und ist der Versuch des Systems, den nächsten Satz von Zeichen vorherzusagen, den ein Benutzer in Betracht ziehen könnte. Ein Prädiktor wird verwendet, um einen vorhergesagten Satz von Zeichen 380 zu bestimmen. Wie bei dem angezeigten erzeugten Satz von Zeichen 360, kann ein vorhergesagter Satz von Zeichen 380 als Eingabe auf verschiedene Weise empfangen werden, einschließlich Empfangen einer Wischgeste auf dem vorhergesagten Satz von Zeichen mit einem Finger oder Stift oder Empfangen eines Drückens einer Taste (wie der Leertaste oder einer anderen zugewiesenen Taste) für eine vorgegebene Zeitdauer (langes Drücken). - In
4A empfängt die elektronische Vorrichtung 100 „C“ als eine Eingabe von der virtuellen Tastatur 320. Wiederum bestimmt ein Prädiktor einen erzeugten Satz von Zeichen 460 basierend zum Teil auf der empfangenen Eingabe. In4B empfängt die elektronische Vorrichtung 100 „O“ als Eingabe von der virtuellen Tastatur und gibt das „O“ in dem Eingabefeld 330 aus. Wie in4A gezeigt, wurde der Satz von Zeichen „count“ an der „O“-Taste angezeigt, nachdem die Eingabe des „C“-Zeichens empfangen wurde. Da die „O“-Taste auf eine Weise gedrückt wurde, um nur das „O“-Zeichen einzugeben, wie in4B gezeigt, wird ein „O“ als zweites Zeichen des aktuell eingegebenen Satzes von Zeichen angezeigt, und der Satz von Zeichen „count“ wird nicht durch den Benutzer eingegeben. Alternativ, wenn ein Benutzer den erzeugten Satz von Zeichen „count“ eingeben wollte, kann der Benutzer die „O“-Taste in4A auf eine andere Weise als die Weise der Eingabe der „O“-Taste eingeben, zum Beispiel durch eine Wischgeste auf dem Satz von Zeichen „count“ oder durch ein langes Drücken der „O“-Taste, im Gegensatz zu einem Antippen. Zurück zu4B werden, nachdem das „O“ eingegeben ist, erzeugte Sätze von Zeichen 460 an den Tasten angezeigt, die den nachfolgenden Kandidaten-Eingabe-Zeichen entsprechen, wie in4B gezeigt. -
5 zeigt das Eingabefeld 330, das den Satz von Zeichen „contact“ gefolgt von einem Leerzeichen anzeigt, In diesem Beispiel hat der Benutzer den erzeugten Satz von Zeichen „contact“ 460 eingegeben, wie in4B an der „N“-Taste gezeigt wurde. Unter Bezugnahme wiederum auf5 wird nun ein <LEER>-Zeichen automatisch nach dem erzeugten Wort in dem Eingabefeld eingefügt. Das vorhergesagte Wort „me“ 580 wird nun auf der Leertaste 350 angezeigt. - Wenn das vorhergesagte Wort „me“ 580 als Eingabe empfangen wird, wird das Wort „me“ 580 dann in dem Eingabefeld 330 angezeigt; gefolgt von einem Leerzeichen, wie in
6A gezeigt, die dann das vorhergesagte Wort 680 „immediately“ angezeigt auf der Leertaste 350 zeigt. Das vorhergesagte Wort wird dargestellt, nachdem ein vollständiges Wort und Leerzeichen in dem Eingabefeld 330 angezeigt wurden. -
6B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das „T“-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Taste „T“ gedrückt hat. In diesem Szenario zeigt der Berührungsbildschirm 118 ein „t“ in dem Eingabefeld 330 an. Erzeugte Sätze von Zeichen 660 (zum Beispiel „Tuesday“, „today“ und „Thursday“) werden an den Tasten der nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.6C zeigt ein Beispiel, wo die elektronische Vorrichtung 100 das „o“-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die „O“-Taste drückt anstatt einen erzeugten Satz von Zeichen 660 „today“ einzugeben, wie in6B gezeigt wurde. Somit wird nun „o“ in dem Eingabefeld 330 angezeigt. -
7 zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das <LEER>-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Leertaste auswählt. In diesem Szenario fügt der Berührungsbildschirm 118 ein <LEER>-Zeichen ein und zeigt dann den vorhergesagten Satz von Zeichen „talk“ 780 an der Leertaste 350 an. -
8A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das „d“-Zeichen als Eingabe empfangen hat, nachdem der Benutzer die Taste „D“ drückt. In diesem Szenario zeigt der Berührungsbildschirm 118 ein „d“ in dem Eingabefeld 330 an und zeigt die erzeugten Sätze von Zeichen „discuss“, „divide“ und „dinner“ 860 an Tasten an, die nachfolgenden Kandidaten-Eingabe-Zeichen entsprechen. In diesem beispielhaften Ausführungsbeispiel, während das Zeichen „l“ niemals als Eingabe empfangen wurde, bestimmt die elektronische Vorrichtung 100, dass die erzeugten Sätze von Zeichen „discuss“, „divide“ und „dinner“ 860 die Sätze von Zeichen sind, die auf dem Berührungsbildschirm anzuzeigen sind. In diesem Ausführungsbeispiel, da jeder dieser Sätze von Zeichen „i“ als zweiten Buchstaben hat, zeigt der Berührungsbildschirm 118 erzeugte Sätze von Zeichen an unter Verwendung eines weiteren nachfolgenden Buchstabens in dem Satz von Zeichen (zum Beispiel „discuss“ unter der Taste „S“, „divide“ unter der Taste „V“ und „dinner“ unter der Taste „N“). In anderen Ausführungsbeispielen können die erzeugten Sätze von Zeichen „discuss“, „divide“ und „dinner“ 860 an oder nahe der Taste „I“ angezeigt werden. -
8B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „discuss“ als Eingabe empfangen hat, nachdem der Benutzer den erzeugten Satz von Zeichen „discuss“ 860 ausgewählt hat. In diesem Beispiel zeigt der Berührungsbildschirm 118 den vorhergesagten Satz von Zeichen „this“ 880 an der Leertaste 350 an. -
9 zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „this“ als Eingabe empfängt, nachdem der Benutzer „this“ als gewünschten vorhergesagten Satz von Zeichen 880 auswählt. In diesem Beispiel zeigt der Berührungsbildschirm 118 den vorhergesagten Satz von Zeichen „now“ 980 an der Leertaste 350 an. - Der Berührungsbildschirm 118 kann auch eine Interpunktion als eine Eingabe zu jedem Zeitpunkt während der Eingabe einer Nachricht empfangen. Wenn ein Benutzer beschließt, eine Interpunktion nach einer Eingabe entweder eines erzeugten Satzes von Zeichen oder eines vorhergesagten Satzes von Zeichen zu verwenden, wird das <LEER>-Zeichen (zum Beispiel das <LEER>-Zeichen vor dem Cursor 940 von
9 ) gelöscht und die eingegebene Interpunktion wird eingefügt. - Die
10A und10B zeigen beispielhafte Vorderansichten eines Berührungsbildschirms, in Übereinstimmung mit hier offenbarten Ausführungsbeispielen.10A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The co“ in einer Textleiste 1030 anzeigt, und mehrere erzeugte Sätze von Zeichen 1060 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel zeigt der Berührungsbildschirm 118 an einen erzeugten Satz von Zeichen „cottage“ 1060 unter der Taste „T“, einen erzeugten Satz von Zeichen „cook“ 1060 unter der Taste „O“, einen erzeugten Satz von Zeichen „coat“ 1060 unter der Taste „A“ und einen erzeugten Satz von Zeichen „coffee“ 1060 unter der Taste „F“. -
10B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „cook“ als eine Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen 1060 „cook“ ausgewählt hat. Der Satz von Zeichen „cook“ wird in das Eingabefeld 1030 zusammen mit einem <LEER>-Zeichen eingefügt. In diesem Beispiel umfassen die Sätze von Zeichen neue vorhergesagte Sätze von Zeichen (wie Wörter 1090, Affixe 1092 (zum Beispiel „-ed“ unter der Taste „E“ und „-ing“ unter der Taste „I“) und Pluralformen 1094 (zum Beispiel „s“ unter der Taste „S“)), die alle an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. Jedes vorhergesagte Wort 1090, Affix 1092 oder Plural 1094 befindet sich auf jeweiligen nachfolgenden Kandidaten-Eingabe-Zeichen, die mit dem ersten Buchstaben des vorhergesagten Worts 1090, des Affixes 1092 oder des Plurals 1094 übereinstimmen. Nun hat der Benutzer die zusätzliche Option eines Eingebens eines vorhergesagten Satzes von Zeichen 1090, 1092 und 1094. Eine Eingabe wird auf dieselbe Weise wie oben beschrieben durchgeführt. In einigen Ausführungsbeispielen, wenn der Berührungsbildschirm 118 entweder das Affix 1092 oder den Plural 1094 als eine Eingabe empfängt, wird das <LEER>-Zeichen zwischen dem Cursor 1040 und „cook“ gelöscht und das entsprechende eingegebene Affix oder der Plural wird an das Ende von „cook“ hinzugefügt. -
11A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „Did she co“ in einer Textleiste 1130 anzeigt und mehrere erzeugte Sätze von Zeichen 1160 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel zeigt der Berührungsbildschirm 118 an den erzeugten Satz von Zeichen „correct“ 1160 unter der Taste „R“, den erzeugten Satz von Zeichen „copy“ 1160 unter der Taste „P“ und den erzeugten Satz von Zeichen „contact“ 1160 unter der Taste „N“. Während „co“ in den Textleisten von sowohl10A als auch11A vorgesehen wird, zeigt der Berührungsbildschirm verschiedene erzeugte Sätze von Zeichen basierend auf dem Kontext der Zeichen in ihren jeweiligen Textleisten 1030 und 1130 an. Zum Beispiel folgen in der10A die Zeichen „co“ auf „The“, was impliziert, dass ein Substantiv beginnend mit „co“ folgen sollte. In11A folgen die Zeichen „co“ einem Pronomen, was impliziert, dass ein Verb beginnend mit „co“ folgen sollte. Wie oben angeführt, können Kontextdaten verwendet werden, um zu bestimmen, wann bestimmte Sätze von Zeichen geeigneter sind basierend zum Beispiel auf dem Satz von Zeichen in einer Textleiste oder auf früheren Aktionen durch einen Benutzer. -
11B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „correct“ als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „correct“ 1160 gewählt hat. In diesem Beispiel wird der Satz von Zeichen „correct“ in das Eingabefeld 1130 eingefügt und ein <LEER>-Zeichen wird ebenfalls eingefügt. Vorhergesagte Sätze von Zeichen (wie Wörter 1190 und Affixe 1192) werden nun bei nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesem Beispiel, während die Affixe „-ing“ und „ily“ beide der Taste „I“ entsprechen, zeigt der Berührungsbildschirm 118 „-ing“ mit der Taste „I“ und „-ily“ mit der Taste „L“ an. Wie oben angemerkt, kann das vorhergesagte Affix einer bestimmten Taste zugewiesen werden basierend auf einer Rangeinstufung, auf Kontextdaten, oder einer Kombination aus beiden. In diesem Ausführungsbeispiel kann das Affix „-ing“ einen höheren Rang haben als das Affix „-ily“ und wurde somit der Taste „I“ zugewiesen. Demgemäß wurde das Affix „-ily“ der Taste „L“ zugewiesen basierend darauf, dass das entsprechende „L“-Zeichen in dem Affix „-ily“ ist. -
12A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The ch“ in einer Textleiste 1230 anzeigt und mehrere erzeugte Sätze von Zeichen 1260 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt werden. In diesem Beispiel umfassen die erzeugten Sätze von Zeichen 1260 sowohl „child“ als auch „chimp“. In diesem Ausführungsbeispiel zeigt, während der dritte Buchstabe in sowohl „child“ als auch „chimp“ gleich ist, der Berührungsbildschirm „child“ unter der Taste „I“ an und zeigt „chimp“ unter der Taste „C“ an. Die Bestimmung, welcher erzeugte Satz von Zeichen unter welche Kandidaten-Eingabe-Taste zu setzen ist, kann auf einer Rangeinstufung basieren (wie oben spezifiziert). Wie in diesem Ausführungsbeispiel dargestellt wird, kann der Berührungsbildschirm 118 einen erzeugten Satz von Zeichen (in diesem Fall „chimp“) auf einer Taste anzeigen, auch wenn diese Taste nicht mit nachfolgenden Zeichen der Zeichen in der Textleiste 1230 assoziiert ist. -
12B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „child“ als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „child“ 1260 ausgewählt hat. Der Satz von Zeichen „child“ wird in das Eingabefeld 1230 eingefügt, und kein <LEER>-Zeichen wird in diesem Beispiel eingefügt. Vorhergesagte Sätze von Zeichen (wie Wörter 1290 und Affixe 1292) werden nun an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesem Beispiel, während die Affixe „-ish“ und „-ily" beide der Taste „I“ entsprechen, zeigt der Berührungsbildschirm 118 „-ish“ mit der Taste „I“ und „-ily“ mit der Taste „L“ an. Wie oben angemerkt, kann das vorhergesagte Affix einer bestimmten Taste zugewiesen werden basierend auf einer Rangeinstufung, herkömmlichen Daten, oder einer Kombination aus beiden. In diesem Ausführungsbeispiel kann das Affix „-ish“ einen höheren Rang haben als das Affix „-ily“ und wurde daher der Taste „I“ zugewiesen. Demgemäß wurde das Affix „-ily“ der Taste „L“ zugewiesen basierend darauf, dass das entsprechende „L“-Zeichen in dem Affix „-ily“ ist. -
13A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The texture and“ in einer Textleiste 1330 anzeigt und mehrere vorhergesagte Sätze von Zeichen (zum Beispiel Wörter 1390) werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.13B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „taste“ als Eingabe empfängt, nachdem der Benutzer den vorhergesagten Satz von Zeichen „taste“ ausgewählt hat. In diesem Beispiel wurde ein <LEER>-Zeichen nach dem „taste“ eingefügt. Folglich werden vorhergesagte Sätze von Zeichen (wie Wörter 1390 und Affixe 1392) an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. -
14A zeigt ein Beispiel, in dem der Berührungsbildschirm 118 „The hospital staff c“ in einer Textleiste 1430 anzeigt und mehrere erzeugte Sätze von Zeichen 1460 werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.14B zeigt ein Beispiel, in dem der Berührungsbildschirm 118 den Satz von Zeichen „care“ als Eingabe empfängt, nachdem der Benutzer den erzeugten Satz von Zeichen „care“ ausgewählt hat. Der erzeugte Satz von Zeichen „care“ wird nun in dem Eingabefeld 1430 zusammen mit einem <LEERZEICHEN> platziert und vorhergesagte Sätze von Zeichen (wie Wörter 1490 und Affixe 1492) werden an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt.14C zeigt ein Beispiel, in dem der Berührungsbildschirm 118 das Affix „-ful" als eine Eingabe empfangen hat (wodurch der Satz von Zeichen „care“ zu „careful“ modifiziert wird), nachdem der Benutzer das vorhergesagte Affix „-ful“ ausgewählt hat. Somit wird nun der Satz von Zeichen „careful“ in das Eingabefeld 1430 eingefügt. Es ist anzumerken, dass in einigen Ausführungsbeispielen ein Eingeben eines Wortes oder eines Affixes das eingegebene Wort oder Wortfragment modifizieren kann. Wenn zum Beispiel „spicy“ durch einen Benutzer eingegeben wird und „ness“ ist ein vorhergesagtes Affix und wird eingegeben, ändert sich „spicy“ zu „spiciness“, das „y“ wird entfernt und „iness“ hinzugefügt. In anderen Ausführungsbeispielen kann „happy“ zu „happiness“ geändert werden oder „conceive“ kann zu „conceivable“ geändert werden. -
15 zeigt ein Beispiel einer mehrdeutigen Tastatur 1520, die mehrere Zeichen mit einer Taste assoziiert haben kann (zum Beispiel eine Telefontastatur, wo „A“ „B“ und „C“ der Taste 2 zugewiesen sind; „D“, „E“ und „F" der Taste 3 zugewiesen sind, und so weiter). Zum Beispiel können die Zeichen „Q“ und „W“ einer Taste zugewiesen sein, und die Zeichen „E“ und „R“ sind einer anderen Taste zugewiesen. In diesem Beispiel hat der Benutzer die Zeichen „01“ eingegeben durch Drücken der „op“-Taste gefolgt von der „L“-Taste. Unter Verwendung eines Prädiktors werden die erzeugten Sätze von Zeichen 1560 an nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. Da die erste gedrückte Taste entweder ein „O“ oder „P“ eingeben kann und die zweite gedrückte Taste ein „L“ eingibt, beginnen die erzeugten Sätze von Zeichen 1560 mit „OL“ oder „PL“, wie gezeigt durch die erzeugten Sätze von Zeichen 1560 in15 . -
16 zeigt ein weiteres Beispiel einer mehrdeutigen Tastatur 1620. In diesem Beispiel werden die erzeugten Sätze von Zeichen „plum“ und „olive“ 1660 in der Nähe der „ui“-Taste angezeigt. Die Sätze von Zeichen könnten auch an oder auf der „ui“-Taste angezeigt werden. Hier entsprechen beide Sätze von Zeichen einer bestimmten Eingabe, die einer Taste entspricht, d.h. der dritte Buchstabe von plum ist ein „u“ und der dritte Buchstabe von olive ist ein „i“. Der Berührungsbildschirm 118 (via den Hauptprozessor 102) kann zwischen der Eingabe eines der beiden Sätze von Zeichen basierend auf der Aktion des Benutzers unterscheiden. Zum Beispiel kann der Benutzer an oder in der Nähe der rechten Seite der „ui“-Taste eine Wischgeste ausführen, um „olive“ einzugeben, oder er kann an oder in der Nähe der linken Seite der „ui“-Taste eine Wischgeste ausführen, um „plum“ einzugeben. - Die Beispiele und Ausführungsbeispiele, die in den
17 ,18 und19 dargestellt werden, können mit jedem Satz von Zeichen implementiert werden, wie Wörter, Ausdrücke, Akronyme, Namen, Slang, Umgangssprache, Abkürzungen oder jeder Kombination daraus. -
17 zeigt in einer Ablaufdiagramm-Form ein Verfahren 1700 in Übereinstimmung mit einigen Ausführungsbeispielen. Das Verfahren 1700 kann mit einem Prozessor, wie dem Hauptprozessor 102, implementiert werden und auf einem materiellen computerlesbaren Medium gespeichert werden, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen. In Block 1710 empfängt der Prozessor eine Eingabe eines Zeichens. In Block 1720 zeigt der Prozessor einen erzeugten Satz von Zeichen an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen auf dem Berührungsbildschirm an, wie oben beschrieben. - In Block 1730 empfängt der Prozessor eine Eingabe des erzeugten Satzes von Zeichen, wie von einem Benutzer ausgewählt. Wenn der Benutzer keinen erzeugten Satz von Zeichen auswählt, der an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt wird, startet das Verfahren wieder in Block 1710, wo der Berührungsbildschirm eine Eingabe eines anderen Zeichens empfangen kann. Wenn ein erzeugter Satz von Zeichen als Eingabe empfangen wird, wird in Block 1740 der erzeugte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt (zum Beispiel das Eingabefeld 330 der
3-9 ). Wie oben erwähnt, kann der Benutzer den erzeugten Satz von Zeichen auswählen zum Beispiel durch ein Durchführen einer Wischgeste an diesem oder in dessen Nähe oder durch langes Drücken einer Taste, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht. - Weiter in Block 1750, wenn der Prozessor erfasst, dass keine Interpunktion einzufügen ist, startet das Verfahren in Block 1710 neu. Wenn eine Interpunktion eingefügt werden soll, geht das Verfahren zu Block 1760 weiter, wo das <LEER>-Zeichen gelöscht wird und die entsprechende Interpunktion in das Eingabefeld hinzugefügt wird. Nach dem Block 1760 beginnt das Verfahren erneut in Block 1710.
-
18 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren 1800 in Übereinstimmung mit einigen Ausführungsbeispielen darstellt. Das Verfahren 1800 kann mit einem Prozessor, wie dem Hauptprozessor 102, implementiert werden und auf einem materiellen computerlesbaren Medium, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen, gespeichert werden. In Block 1810 empfängt der Prozessor eine Eingabe eines Zeichens. - In Block 1820 zeigt der Prozessor einen erzeugten Satz von Zeichen an oder nahe einer Position auf der Tastatur an, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, auf einem Berührungsbildschirm. In Block 1830 empfängt der Prozessor eine Eingabe eines erzeugten Satzes von Zeichen, der von einem Benutzer ausgewählt wurde. Wenn der Benutzer keinen erzeugten Satz von Zeichen auswählt, der an oder in der Nähe von Tasten von nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt wird, beginnt das Verfahren erneut in Block 1810, wo der Prozessor eine Eingabe eines weiteren Zeichens empfangen kann. Wenn ein erzeugter Satz von Zeichen als Eingabe empfangen wird, wird in Block 1840 der erzeugte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt (zum Beispiel das Eingabefeld 330 der
3-9 ). Wie oben erwähnt, kann der Benutzer den erzeugten Satz von Zeichen auswählen, zum Beispiel durch eine Wischgeste an diesem oder in dessen Nähe oder durch Drücken einer Taste, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, für eine vorgegebene Zeitdauer. - In Block 1850 wird ein vorhergesagter Satz von Zeichen, verschieden von dem/den erzeugten Satz/Sätzen von Zeichen, auf einer Leertaste der Tastatur angezeigt nach der Eingabe des erzeugten Satzes von Zeichen in Block 1830. Der vorhergesagte Satz von Zeichen, der in Block 1850 angezeigt wird, wird unter Verwendung eines Prädiktors bestimmt. In einigen Ausführungsbeispielen kann der eine Satz oder mehrere Sätze von Zeichen auf einer oder mehreren Taste(n) platziert werden, die von der Leertaste verschieden ist/sind.
- In Block 1860 kann der Prozessor bestimmen, ob er eine Eingabe des vorhergesagten Satzes von Zeichen empfangen hat basierend auf einer Benutzereingabe. Wenn der Berührungsbildschirm keine Eingabe des vorhergesagten Satzes von Zeichen empfangen hat, da der Benutzer den vorhergesagten Satz von Zeichen nicht ausgewählt hat, beginnt das Verfahren erneut in Block 1810. Wenn der Prozessor die Eingabe des vorhergesagten Satzes von Zeichen empfangen hat, geht das Verfahren weiter zu Block 1870, wo der ausgewählte vorhergesagte Satz von Zeichen und ein <LEER>-Zeichen in das Eingabefeld eingefügt werden. Von hier kann das Verfahren 1800 entweder zu Block 1810 oder zu Block 1850 zurückkehren.
- Obwohl das Verfahren 1800 die Interpunktions-Darstellung nicht wie in Verfahren 1700 gezeigt anzeigt, kann die Interpunktions-Darstellung, wie in den Blöcken 1750 und 1760 gezeigt, ebenfalls auf das Verfahren 1800 angewendet werden.
-
19 ist ein Ablaufdiagramm, das ein beispielhaftes Verfahren 1900 in Übereinstimmung mit einigen Ausführungsbeispielen darstellt. In Box 1910 wird ein vorhergesagter Satz von Zeichen an entsprechenden nachfolgenden Kandidaten-Eingabe-Zeichen angezeigt. In diesen Ausführungsbeispielen wurde keine Eingabe empfangen oder ein Trennzeichen wurde aktiviert, wie eine Eingabe eines <LEERZEICHENS>. Hier werden ein vorhergesagter Satz oder mehrere vorhergesagte Sätze von Zeichen (wie Wörter, Affixe, oder eine Kombination daraus) auf nachfolgenden Kandidaten-Eingabe-Zeichen platziert, die dem ersten Buchstaben des erzeugten Satzes von Zeichen entsprechen. Weiter zu Box 1920 wird bestimmt, ob der Berührungsbildschirm eine Eingabe des Satzes von Zeichen (wie Wort oder Affix) basierend auf der Auswahl eines Benutzers empfängt. Wenn eine Eingabe empfangen wird, geht das Verfahren weiter zu Block 1930, wo der vorhergesagte Satz von Zeichen und ein <LEER>-Zeichen in ein Eingabefeld eingefügt werden. Dann beginnt das Verfahren wieder in Block 1910. Wenn der Berührungsbildschirm keine Eingabe des Satzes von Zeichen empfängt, ist der Berührungsbildschirm verfügbar, eine Eingabe eines Zeichens zu empfangen (wie durch Block 1710 von17 oder Block 1810 von18 beschrieben wird) und weiter durch die Verfahren fortzufahren (wie die Verfahren 1700 von17 oder 1800 von18 oder sogar das Verfahren 1900 von19 ). -
20 zeigt ein weiteres Beispiel für eine virtuelle Tastatur 2020 mit einem Eingabefeld 2030. Die Sätze von Zeichen „Please con“ werden als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2030 angezeigt, gefolgt von einem Cursor bzw. Eingabezeiger 2040, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Ein Prädiktor bestimmt einen erzeugten Satz oder mehrere erzeugte Sätze von Zeichen 2060 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2040 in dem aktuellen Wort, der an der vierten Zeichen-Position des aktuellen Worts ist, wie in dem Eingabefeld 2030 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2060 „cones“, „contact“, „construction“ und „connect“ angezeigt. Jeder erzeugte Satz von Zeichen 2060 wird an einer Taste angezeigt, die einem nachfolgenden Kandidat-Eingabe-Zeichen entspricht (zum Beispiel unter den Tasten E, T, S beziehungsweise N der virtuellen Tastatur 2020), für die aktuelle Position des Cursors 2040, der an der dritten Zeichen-Position ist, wie in dem Eingabefeld 2030 gezeigt. - In dem gezeigten Beispiel wird jeder erzeugte Satz von Zeichen 2060 an oder nahe Tasten auf der virtuellen Tastatur 2020 angezeigt, die mit den nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert sind. Die Anzeige eines erzeugten Satzes von Zeichen 2060 an oder nahe einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, hängt zum Beispiel von der Größe des erzeugten Satzes von Zeichen 2060 und der Größe eines erzeugten Satzes von Zeichen ab, der mit nahegelegenen Tasten von anderen nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist. Wenn die erzeugten Sätze von Zeichen, die mit nahegelegenen Tasten in derselben Reihe von Tasten in der virtuellen Tastatur 2020 assoziiert sind, zu groß sind zur gleichzeitigen Anzeige, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen, begrenzt der Prozessor 102 die erzeugten Sätze von Zeichen, die angezeigt werden. Der Prozessor 102 kann die erzeugten Sätze von Zeichen, die angezeigt werden, unter Verwendung einer oder jeder Kombination des Rangs jedes erzeugten Satzes von Zeichen, der Größe jedes erzeugten Satzes von Zeichen, und eines Abstands zwischen jedem erzeugten Satz von Zeichen, die angezeigt werden, derart begrenzen, dass ein vorgegebener Abstand zwischen den erzeugten Sätzen von Zeichen beibehalten wird. Dies kann zu der Anzeige von einem oder mehreren erzeugten Sätze von Zeichen führen, der/die größer ist/sind als die assoziierte Taste in der virtuellen Tastatur 2020.
- In einigen Beispielen, wenn zwei erzeugte Sätze von Zeichen beide einen hohen Rang haben, und diese Sätze von Zeichen ansonsten an nahegelegenen Tasten angezeigt würden, aber nicht angezeigt werden können und trotzdem einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen mit der Anzeigetextgröße beibehalten, könnte die elektronische Vorrichtung konfiguriert werden, nur den erzeugten Satz von Zeichen mit dem höchsten Rang anzuzeigen. Dies führt zu der Anzeige des am wahrscheinlichsten erzeugten Satzes von Zeichen. In anderen Beispielen wird nur der längste der erzeugten Sätze von Zeichen angezeigt. Dies kann vorteilhaft sein, da ein Ermöglichen einer schnelleren Eingabe von längeren Wörtern Zeit und Verarbeitungszyklen spart, wodurch die prädiktive Texteingabe-Lösung wirksam eingesetzt wird. In weiteren Beispielen wird nur der kürzeste erzeugte Satz von Zeichen angezeigt. Dies kann vorteilhaft sein, da kürzere Worte häufiger sein können, zumindest für einige Benutzer, wodurch eine schnellere Eingabe von Wörtern ermöglicht wird, was Zeit und Verarbeitungszyklen spart, wodurch die prädiktive Texteingabe-Lösung wirksam eingesetzt wird.
- In einigen Beispielen kann der Prozessor 102 nur den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die in benachbarten/angrenzenden Tasten in derselben Reihe von Tasten in der virtuellen Tastatur 2020 angezeigt wird/werden. In einigen Beispielen kann der Prozessor 102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die in benachbarten/angrenzenden Tasten in derselben Reihe von Tasten in der virtuellen Tastatur 2020 angezeigt wird/werden, so dass ein erzeugter Satz von Zeichen niemals in benachbarten/angrenzenden Tasten angezeigt wird, unabhängig von der Größe des erzeugten Satzes von Zeichen oder dem Abstand zwischen jedem erzeugten Satz von Zeichen. In solchen Beispielen verwendet der Prozessor 102 den Rang, um zu bestimmen, welche erzeugten Sätze von Zeichen angezeigt werden.
- In anderen Beispielen kann der Prozessor 102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die angezeigt wird/werden, wenn der/die erzeugten Satz/Sätze von Zeichen, der/die die mit nahegelegenen Tasten in verschiedenen Tastenreihen in der virtuellen Tastatur 2020 assoziiert ist/sind, zu groß ist/sind, um gleichzeitig angezeigt zu werden, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen zu haben. In anderen Beispielen kann der Prozessor 102 den/die erzeugten Satz/Sätze von Zeichen begrenzen, der/die angezeigt wird/werden, wenn der/die erzeugten Satz/Sätze von Zeichen, die mit nahegelegenen Tasten in derselben oder in anderen Spalten von Tasten in der virtuellen Tastatur 2020 assoziiert ist/sind, zu groß ist/sind, um gleichzeitig angezeigt zu werden, ohne einander zu überlappen oder ohne einen vorgegebenen Abstand zwischen den erzeugten Sätzen von Zeichen zu haben.
- Wie oben erwähnt, kann ein Benutzer einen Finger oder einen Stift verwenden, um über einen erzeugten Satz von Zeichen zu wischen, um diesen erzeugten Satz von Zeichen einzugeben. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur 2020 unter Verwendung eines Fingers oder Stifts. Der Berührungsbildschirm unterscheidet zwischen Antippen- und Swipe- bzw. Wischgeste-Ereignissen unter Verwendung von Bewegung und Dauer von Berührungsereignissen, deren Details in der Technik bekannt sind und hier nicht beschrieben werden müssen. Jede Taste in der virtuellen Tastatur 2020 und jeder erzeugte Satz von Zeichen 2060, der angezeigt wird, hat einen assoziierten Zielbereich auf dem Berührungsbildschirm. Der Zielbereich, der mit jedem erzeugten Satz von Zeichen assoziiert ist, kann größer sein als der Zielbereich der Taste und/oder den Zielbereich der Taste überlappen, die dem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, mit dem sie assoziiert ist, und möglicherweise der nahegelegenen Tasten, wie benachbarte Tasten in derselben Reihe. Ein Benutzer muss nur auf oder in der Nähe eines angezeigten erzeugten Satzes von Zeichen wischen, um den erzeugten Satz von Zeichen einzugeben. Dies ermöglicht eine schnellere Eingabe eines erzeugten Satzes von Zeichen durch Erzeugen von größeren und besser zugänglichen Zielbereichen, wodurch Zeit und Verarbeitungszyklen eingespart wird/werden. In einigen Beispielen kann ein erzeugter Satz von Zeichen eingegeben werden durch Erfassen einer Wischgeste in jede Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. In anderen Beispielen kann ein erzeugter Satz von Zeichen nur eingegeben werden durch Erfassen einer Wischgeste in eine bestimmte Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. Die bestimmte Richtung kann mit einer Richtung assoziiert sein, in der die bestimmte Richtung den erzeugten Satz von Zeichen angezeigt hat (zum Beispiel links oder rechts in dem gezeigten Beispiel). In einigen Beispielen ist die Wischgeste an oder nahe dem angezeigten erzeugten Satz von Zeichen, wenn die Wischgeste einen anfänglichen Kontaktpunkt in dem Zielbereich hat, der mit dem angezeigten erzeugten Satz von Zeichen assoziiert ist (der gleich oder größer als der angezeigte erzeugte Satz von Zeichen sein kann).
- Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur
-
21 zeigt ein weiteres Beispiel eines Benutzerschnittstelle-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „Ec“ wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Eine Texteingabe-Werkzeugleiste 2150 wird an dem oberen Rand des Benutzerschnittstelle-Bildschirms angezeigt, über dem Eingabefeld 2130. Ein Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2160 „Every“, „Ecuador“ und „Economy“ angezeigt. Die erzeugten Sätze von Zeichen 2160 werden an festgelegten Positionen innerhalb der virtuellen Tastatur 2120 angezeigt und nicht an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, wie in den oben beschriebenen Beispielen. Die festgelegten Positionen in der virtuellen Tastatur 2120 in den beschriebenen Ausführungsbeispielen werden definiert durch Partitionen (oder Regionen) der virtuellen Tastatur 2120. Die Partitionen, zumindest in einigen Ausführungsbeispielen, werden durch Aufteilen der virtuellen Tastatur 2120 definiert. Die virtuelle Tastatur 2120 kann in gleiche oder ungleiche Partitionen unterteilt werden. Die Partitionen können im Wesentlichen die gesamte virtuelle Tastatur 2120 einnehmen oder weniger als die gesamte virtuelle Tastatur 2120. In einigen Beispielen können die Partitionen andere Teile des Benutzerschnittstelle-Bildschirms einnehmen, wie das Eingabefeld 2130. In den21 bis24 sind die Partitionen der virtuellen Tastatur 2120 durch drei Spalten definiert (zum Beispiel linke, mittlere und rechte Spalten). Eine andere Anzahl von Spalten kann in anderen Ausführungsbeispielen verwendet werden. Die Spalten können durch Aufteilen der virtuellen Tastatur 2120 in gleiche Teile definiert werden, d.h. durch Aufteilen der virtuellen Tastatur 2120 in drei gleich große Spalten. - In dem gezeigten Beispiel sind die angezeigten Sätze von Zeichen horizontal (oder im Wesentlichen horizontal) ausgerichtet, um die Verwendung und Auswahl von Prädiktionen als Eingabe zu erleichtern, indem die angezeigten erzeugten Sätze von Zeichen leichter sichtbar gemacht werden. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen in einer horizontalen „Abstandshalter“-Leiste angezeigt, die zwei Reihen von Tasten trennt, insbesondere eine horizontale Leiste, die die obere Reihe von Tasten von der zweiten Reihe von Tasten unter der oberen Reihe trennt. Dies vermeidet ein Verdecken der Tasten der virtuellen Tastatur 2120, wodurch die Eingabe von einzelnen Tasten erleichtert wird, während die Sichtbarkeit der angezeigten Prädiktionen erhöht wird. Die angezeigten erzeugten Sätze von Zeichen können sich anderswo befinden, zum Beispiel in einer horizontalen Leiste, die zwei verschiedene Reihen von Tasten trennen.
- Der Prozessor 102 bestimmt die Partition, in der ein erzeugter Satz von Zeichen angezeigt wird, unter Verwendung des Ranges jedes erzeugten Satzes von Zeichen. Der erzeugte Satz von Zeichen mit dem höchsten Rang wird in der Partition angezeigt, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, ist typischerweise die Partition (d.h. Spalte in dem aktuell beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. In dem gezeigten Beispiel hat der erzeugte Satz von Zeichen „Economy“ den höchsten Rang und das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen ist der Buchstabe „o“. Dementsprechend befindet sich der erzeugte Satz von Zeichen „Economy“ in der rechten Spalte, in der sich der Buchstabe „o“ befindet.
- Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d.h. dem zweithöchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel der erzeugte Satz von Zeichen mit höchstem Rang, dem in dem gezeigten Beispiel die rechte Spalte zugeordnet ist), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Economics“ den zweithöchsten Rang hat, würde die Prädiktion „Economics“ verworfen, da die assoziierte Partition dieselbe ist wie die Partition, die dem erzeugten Satz von Zeichen mit dem höchsten Rang, „Economy“, zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d.h. dem dritt-höchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen (zum Beispiel dem erzeugten Satz von Zeichen mit dem höchsten Rang) zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine zweite Partition mit einem erzeugten Satz von Zeichen assoziiert ist oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die zweite Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die linke Spalte und der erzeugte Satz von Zeichen, der mit der zweiten Partition (zum Beispiel linke Spalte) assoziiert ist, ist „Every“. Der Satz von Zeichen „Every“ wird vorhergesagt, obwohl der Satz von Zeichen „Ec“ als Eingabe empfangen wird, die keine Wurzel für das Wort „Every“ ist.
- Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel sind in dem gezeigten Beispiel die linken und rechten Spalten bereits einem erzeugten Satz von Zeichen zugeordnet), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Everyone“ den nächst-höchsten Rang hat, würde die Prädiktion von „Everyone“ verworfen, da die assoziierte Partition die linke Spalte ist, die bereits dem erzeugten Satz von Zeichen „Every“ zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn dieser Partition bereits ein erzeugter Satz von Zeichen zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine dritte Partition mit einem erzeugten Satz von Zeichen assoziiert ist (zum Beispiel bis die mittlere Spalte zugeordnet ist) oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die dritte Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die mittlere Spalte und der erzeugte Satz von Zeichen, der mit der dritten Partition (zum Beispiel mittlere Spalte) assoziiert ist, ist „Ecuador“.
- In dem gezeigten Beispiel hat die virtuelle Tastatur 2120 drei Partitionen. Wenn mehr Partitionen verwendet werden, würde dieser Prozess fortgesetzt, bis alle Partitionen mit einem erzeugten Satz von Zeichen assoziiert sind oder kein erzeugter Satz von Zeichen verbleibt.
-
22 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Das Zeichen „T“ wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der zweiten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2160 „Thanks“ und „To“ angezeigt. Weniger erzeugte Sätze von Zeichen als Partitionen werden angezeigt, was bedeutet, dass nur zwei Prädiktionen existieren oder die Prädiktionen erschöpft sind durch Konflikte bei einem Versuchen, einen erzeugten Satz von Zeichen mit einer Partition zu assoziieren, die bereits einem anderen erzeugten Satz von Zeichen zugeordnet ist. -
23 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „An“ wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2160 „And“, „Anyway“ und „Another“ angezeigt. -
24 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „This“ wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2160 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen 2160 „will“, „is“ und „message“ angezeigt. -
25 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Das Zeichen „A“ wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Eine Texteingabe-Werkzeugleiste 2150 wird an dem oberen Rand des Benutzerschnittstelle-Bildschirms angezeigt, über dem Eingabefeld 2130. Ein Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der zweiten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt. Das aktuelle Wort ist das Wort, in dem sich der Cursor aktuell befindet. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2560 „Are“, „As“ und „And“ angezeigt. Die erzeugten Sätze von Zeichen 2560 werden an festgelegten Positionen innerhalb der virtuellen Tastatur 2120 angezeigt und nicht an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen entspricht, wie in früheren Beispielen. Die festgelegten Positionen in der virtuellen Tastatur 2120 in den beschriebenen Ausführungsbeispielen werden definiert durch Partitionen der virtuellen Tastatur 2120. Die virtuelle Tastatur 2120 kann in gleiche oder ungleiche Partitionen unterteilt werden. Die Partitionen können im Wesentlichen die gesamte virtuelle Tastatur 2120 einnehmen oder weniger als die gesamte virtuelle Tastatur 2120. In einigen Beispielen können die Partitionen andere Teile des Benutzerschnittstelle-Bildschirms einnehmen, wie das Eingabefeld 2130. In den25 bis28 sind die Partitionen der virtuellen Tastatur 2120 durch drei Reihen definiert (zum Beispiel obere, mittlere und untere Reihen) anstatt durch Spalten, wie in den21 bis24 . Eine andere Anzahl von Reihen kann in anderen Ausführungsbeispielen verwendet werden. Die Reihen können durch Aufteilen der virtuellen Tastatur 2120 in gleiche Teile definiert werden, d.h. durch Aufteilen der virtuellen Tastatur 2120 in drei gleich große Reihen. - In dem gezeigten Beispiel sind die angezeigten Sätze von Zeichen vertikal (oder im Wesentlichen vertikal) ausgerichtet, um die Verwendung und Auswahl von Prädiktionen als Eingabe zu erleichtern, indem die angezeigten erzeugten Sätze von Zeichen leichter sichtbar gemacht werden. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen in horizontalen „Abstandshalter“-Leisten angezeigt, die die Reihen von Tasten trennen, wobei sich jeder der angezeigten Sätze von Zeichen in einer anderen Abstandshalter-Leiste befindet. Dies vermeidet ein Verdecken der Tasten der virtuellen Tastatur 2120, wodurch die Eingabe von einzelnen Tasten erleichtert wird, während die Sichtbarkeit der angezeigten Prädiktionen erhöht wird. Die angezeigten erzeugten Sätze von Zeichen können sich anderswo befinden.
- Der Prozessor 102 bestimmt die Partition, in der ein erzeugter Satz von Zeichen angezeigt wird, unter Verwendung des Ranges jedes erzeugten Satzes von Zeichen. Der erzeugte Satz von Zeichen mit dem höchsten Rang wird in der Partition angezeigt, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, ist typischerweise die Partition (d.h. Reihe in dem aktuell beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. In dem gezeigten Beispiel hat der erzeugte Satz von Zeichen „Are“ den höchsten Rang und das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen ist der Buchstabe „r“. Dementsprechend befindet sich der erzeugte Satz von Zeichen „Are“ in der oberen Reihe, in der sich der Buchstabe „r“ befindet.
- Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d.h. dem zweithöchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel der erzeugte Satz von Zeichen mit höchstem Rang, der in dem gezeigten Beispiel der oberen Reihe zugeordnet ist), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Array“ den zweithöchsten Rang hat, würde die Prädiktion „Array“ verworfen, da die assoziierte Partition dieselbe ist wie die Partition, die dem erzeugten Satz von Zeichen mit dem höchsten Rang, „Are“, zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang (d.h. dem dritt-höchsten Rang) assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen (zum Beispiel dem erzeugten Satz von Zeichen mit dem höchsten Rang) zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine zweite Partition mit einem erzeugten Satz von Zeichen assoziiert ist oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die zweite Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die mittlere Reihe und der erzeugte Satz von Zeichen, der mit der zweiten Partition (zum Beispiel linke Spalte) assoziiert ist, ist „As“.
- Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (zum Beispiel sind in dem gezeigten Beispiel die oberen und mittleren Spalten bereits einem erzeugten Satz von Zeichen zugeordnet), wird der erzeugte Satz von Zeichen verworfen. Wenn zum Beispiel der erzeugte Satz von Zeichen „Assume“ den nächst-höchsten Rang hat, würde die Prädiktion von „Assume“ verworfen, da die assoziierte Partition die linke Spalte ist, die bereits dem erzeugten Satz von Zeichen „As“ zugeordnet ist. Der Prozessor 102 bestimmt dann die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen eines erzeugten Satzes von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn diese Partition bereits zu einem erzeugten Satz von Zeichen zugeordnet ist, wird der erzeugte Satz von Zeichen verworfen. Dieser Prozess wird wiederholt, bis eine dritte Partition mit einem erzeugten Satz von Zeichen assoziiert ist (zum Beispiel bis die untere Reihe zugeordnet ist) oder kein erzeugter Satz von Zeichen verbleibt. In dem gezeigten Beispiel ist die dritte Partition, die mit einem erzeugten Satz von Zeichen zu assoziieren ist, die untere Reihe und der erzeugte Satz von Zeichen, der mit der dritten Partition (zum Beispiel mittlere Spalte) assoziiert ist, ist „And“.
- In dem gezeigten Beispiel hat die virtuelle Tastatur 2120 drei Partitionen. Wenn mehr Partitionen verwendet werden, würde dieser Prozess fortgesetzt, bis alle Partitionen mit einem erzeugten Satz von Zeichen assoziiert sind oder kein erzeugter Satz von Zeichen verbleibt.
-
26 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Der Satz von Zeichen „How“ wird als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen 2560 „is“, „are“ und „many“ angezeigt. -
27 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Die Sätze von Zeichen „It is ab“ werden als Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der dritten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel werden die erzeugten Sätze von Zeichen 2560 „about“ und „absolutely“ angezeigt. Weniger erzeugte Sätze von Zeichen als Partitionen werden angezeigt, was bedeutet, dass nur zwei Prädiktionen existieren oder die Prädiktionen erschöpft sind durch Konflikte bei einem Versuchen, einen erzeugten Satz von Zeichen mit einer Partition zu assoziieren, die bereits einem anderen erzeugten Satz von Zeichen zugeordnet ist. -
28 zeigt ein weiteres Beispiel eines Benutzerschnittstellen-Bildschirms mit einer virtuellen Tastatur 2120 und einem Eingabefeld 2130. Die Sätze von Zeichen „It is about to“ werden als eine Eingabe durch den Berührungsbildschirm empfangen und in dem Eingabefeld 2130 angezeigt, gefolgt von einem Cursor 2140, der eine senkrechte Linie sein kann (wie gezeigt) oder eine andere Form haben kann, wie ein Unterstrich, wie oben erwähnt. Der Prädiktor bestimmt einen oder mehrere erzeugte Sätze von Zeichen 2560 basierend zum Teil auf der empfangenen Eingabe für die aktuelle Position des Cursors 2140 in dem aktuellen Wort, der an der ersten Zeichen-Position des aktuellen Worts ist, wie in Eingabefeld 2130 gezeigt wird. In dem gezeigten Beispiel sagt der Prädiktor die nächsten Wörter in dem Satz voraus, der eingegeben wird, mit den erzeugten Sätzen von Zeichen 2560 „take“, „start“ und „be“ angezeigt. - Es ist offensichtlich, dass die Ausführungsbeispiele der
21 bis28 einen Kompromiss darstellen zwischen einem Anzeigen der Prädiktionen mit dem höchsten Rang und einem Anzeigen der Prädiktionen auf eine Weise, die die Verwendung und Auswahl von Prädiktionen als Eingabe erleichtert. Während die Prädiktion mit dem höchsten Rang immer angezeigt wird, müssen andere angezeigte Prädiktionen nicht die Prädiktionen mit dem nächst-höchsten Rang repräsentieren. Während Prädiktionen mit einem niedrigeren Rang nicht die Prädiktionen mit dem höchsten Rang sein müssen, sind die Prädiktionen dennoch Prädiktionen mit hohem Rang und die angezeigten Prädiktionen befinden sich an festgelegten Positionen in der virtuellen Tastatur 2120 und bewegen sich nicht auf der virtuellen Tastatur 2120 basierend auf dem nachfolgenden Kandidaten-Eingabe-Zeichen. Dies erleichtert die Verwendung und Auswahl von Prädiktionen als Eingabe, anstatt dass der Benutzer das gesamte Wort tippen muss und Prädiktionen ignoriert, wodurch Zeit und Verarbeitungszyklen eingespart werden und die prädiktive Texteingabe-Lösung wirksam eingesetzt wird. - Wie bereits erwähnt, kann ein Benutzer einen Finger oder Stift verwenden, um über einen erzeugten Satz von Zeichen zu wischen (swipe), um diesen erzeugten Satz von Zeichen einzugeben. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur 2120 unter Verwendung eines Fingers oder Stifts. Der Berührungsbildschirm unterscheidet zwischen Antippen- und Swipe-bzw. Wischgeste-Ereignissen unter Verwendung von Bewegung und Dauer von Berührungsereignissen, deren Details in der Technik bekannt sind und hier nicht beschrieben werden müssen. Jede Taste in der virtuellen Tastatur 2120 und jeder erzeugte Satz von Zeichen 2560, der angezeigt wird, hat einen assoziierten Zielbereich auf dem Berührungsbildschirm. Der Zielbereich, der mit jedem erzeugten Satz von Zeichen assoziiert ist, ist typischerweise gleich groß oder größer als der angezeigte erzeugte Satz von Zeichen. Ein Benutzer muss nur auf oder in der Nähe eines angezeigten erzeugten Satzes von Zeichen wischen, um den erzeugten Satz von Zeichen einzugeben. Dies ermöglicht eine relativ schnelle Eingabe eines erzeugten Satzes von Zeichen durch Erzeugen von relativ großen und zugänglichen Zielbereichen, wodurch Zeit und Verarbeitungszyklen eingespart wird/werden. In einigen Beispielen kann ein erzeugter Satz von Zeichen nur eingegeben werden durch Erfassen einer Wischgeste in eine bestimmte Richtung an oder nahe dem angezeigten erzeugten Satz von Zeichen. In einigen Beispielen ist die bestimmte Richtung „nach oben“ derart, dass nur eine Wischgeste „nach oben“ einen erzeugten Satz von Zeichen eingeben kann. In einigen Beispielen ist die Wischgeste an oder nahe dem angezeigten erzeugten Satz von Zeichen, wenn die Wischgeste einen anfänglichen Kontaktpunkt in dem Zielbereich hat, der mit dem angezeigten erzeugten Satz von Zeichen assoziiert ist (der gleich oder größer als der angezeigte erzeugte Satz von Zeichen sein kann) (zum Beispiel innerhalb der angezeigten Wörter „Every“, „Ecuador“ oder „Economy“ in
21 ). - Es ist offensichtlich, dass die Partitionen der virtuellen Tastatur 2120 in den oben beschriebenen Ausführungsbeispielen, ob durch Reihen oder Spalten definiert, nicht koinzident sind mit den Reihen und Spalten von Tasten der virtuellen Tastatur 2120. In anderen Ausführungsbeispielen können die Partitionen der virtuellen Tastatur 2120 koinzident sein mit den Reihen und Spalten von Tasten der virtuellen Tastatur 2120, obwohl dies typischerweise nicht bevorzugt ist, da es die Sichtbarkeit der Tasten der virtuellen Tastatur 2120 und/oder die Sichtbarkeit der Prädiktionen reduzieren kann durch Überladen der Benutzerschnittstelle.
- Während die oben beschriebenen Ausführungsbeispielen Partitionen der virtuellen Tastatur 2120 als durch Reihen oder Spalten definiert beschreiben, sind andere Konfigurationen möglich. Zum Beispiel können die Partitionen in einer zweidimensionalen Anordnung angeordnet sein, wie einer rechtwinkligen Anordnung von Reihen von Spalten. Während dies die Anzahl der Prädiktionen erhöhen kann, die in der virtuellen Tastatur 2120 angezeigt werden können, kann es die Sichtbarkeit der Tasten der virtuellen Tastatur 2120 und/oder die Sichtbarkeit der Prädiktionen reduzieren durch Überladen der Benutzerschnittstelle.
-
29 zeigt in Form eines Ablaufdiagramms ein Verfahren 2900 in Übereinstimmung mit einigen Ausführungsbeispielen. Das Verfahren 2900 kann mit einem Prozessor implementiert werden, wie einem Hauptprozessor 102, und auf einem materiellen computerlesbaren Medium gespeichert werden, wie Festplatten, CDs, DVDs, Flash-Speicher und dergleichen. In Block 2902 empfängt der Prozessor eine Eingabe eines Zeichens. In Block 2904 erzeugt der Prozessor einen Satz von vorhergesagten Eingabe-Zeichen. Der Satz von vorhergesagten Eingabe-Zeichen entspricht nachfolgenden Kandidaten-Eingabe-Zeichen. - In Block 2906 wird der Satz von vorhergesagten Eingabe-Zeichen mit dem höchsten Rang einer Partition in der virtuellen Tastatur 2120 zugeordnet, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen mit dem höchsten Rang assoziiert ist. Wie oben erwähnt, ist die Partition, die mit dem nachfolgenden Kandidaten-Eingabe-Zeichen assoziiert ist, typischerweise die Partition (d.h. Reihe in dem vorliegenden beschriebenen Ausführungsbeispiel), in der sich das nachfolgende Kandidaten-Eingabe-Zeichen des erzeugten Satzes von Zeichen befindet. Der Satz von vorhergesagten Eingabe-Zeichen entspricht nachfolgenden Kandidaten-Eingabe-Zeichen.
- In Block 2908 wird der Satz von Zeichen mit dem nächst-höchsten Rang bestimmt. In Block 2910 wird eine Partition bestimmt, die mit dem Satz von Zeichen mit dem nächst-höchsten Rang assoziiert ist. Wenn die bestimmte Partition nicht bereits einem erzeugten Satz von Zeichen zugeordnet ist (Entscheidungsblock 2912), wird die bestimmte Partition dem Satz von Zeichen mit dem nächst-höchsten Rang zugeordnet (Block 2914). Wenn die bestimmte Partition bereits einem erzeugten Satz von Zeichen zugeordnet ist (Entscheidungsblock 2912), wird der Satz von Zeichen mit dem nächst-höchsten Rang bestimmt (Block 2908).
- In dem Entscheidungsblock 2916 wird bestimmt, ob Partitionen in der virtuellen Tastatur 2120 nicht zugeordnet verbleiben, und wenn ja, ob ein vorhergesagter Satz von Eingabe-Zeichen verbleibt. Wenn ja, ist zumindest eine Partition in der virtuellen Tastatur 2120 nicht zugeordnet oder ein Satz von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang existiert. Der Satz von Zeichen mit dem nächst-höchsten Rang wird dann bestimmt (Block 2908). Wenn nicht, wurden alle Partitionen in der virtuellen Tastatur 2120 zugeordnet oder kein Satz von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang existiert. Dann werden die vorhergesagten Sätze von Eingabe-Zeichen, die Partitionen in der virtuellen Tastatur 2120 zugeordnet sind, an einer Position nahe an dem nachfolgenden Kandidaten-Eingabe-Zeichen in den Sätzen von vorhergesagten Eingabe-Zeichen angezeigt, d.h. in den Bereichen der virtuellen Tastatur 2120, die den Partitionen der virtuellen Tastatur 2120 zugeordnet sind.
- Während in
29 nicht gezeigt, kann ein Benutzer einen Finger oder Stift verwenden, um auf einem erzeugten Satz von Zeichen zu wischen, um diesen erzeugten Satz von Zeichen einzugeben, wie zuvor diskutiert. Ein einzelner Buchstabe kann im Gegensatz dazu eingegeben werden durch Antippen einer jeweiligen Taste in der virtuellen Tastatur 2120 unter Verwendung eines Fingers oder Stifts. In einigen Beispielen geht das Verfahren weiter mit Operationen von Block 1750 und 1760 (nicht gezeigt), wie oben in Zusammenhang mit dem Verfahren 1700 und der17 angeführt. Weiter in Block 1750, wenn der Prozessor erfasst, dass kein Satzzeichen eingefügt werden soll, startet das Verfahren erneut in Block 2110. Wenn ein Satzzeichen eingefügt werden soll, geht das Verfahren weiter zu Block 1760, wo das <LEER>-Zeichen gelöscht wird und das entsprechende Satzzeichen zu dem Eingabefeld hinzugefügt wird. Nach dem Block 1760 beginnt das Verfahren erneut in Block 2110. - Während das Verfahren 2900 in dem Kontext einer Prädiktion des nächsten Buchstabens in einem Wort beschrieben wird, kann das Verfahren angepasst werden zur Prädiktion des nächsten Buchstabens in dem nächsten Wort.
- Während die vorliegende Offenbarung, zumindest teilweise, in Bezug auf Verfahren beschrieben wird, ist für einen Fachmann auf dem Gebiet offensichtlich, dass die vorliegende Offenbarung auch die verschiedenen Komponenten zum Durchführen zumindest einiger der Aspekte und Merkmale der beschriebenen Verfahren betrifft, entweder mit Hilfe von Hardware-Komponenten, Software oder einer Kombination aus beiden, oder auf eine andere Weise. Darüber hinaus betrifft die vorliegende Offenbarung auch eine voraufgezeichnete Speichervorrichtung oder ein anderes ähnliches computerlesbares Medium mit darauf gespeicherten Programmanweisungen zum Durchführen der hier beschriebenen Verfahren.
Claims (8)
- Ein Verfahren, das aufweist: Empfangen einer Eingabe eines Zeichens von einer virtuellen Tastatur, die auf einer Anzeige angezeigt wird; Erzeugen von zwei oder mehreren Sätzen von vorhergesagten Eingabe-Zeichen basierend auf dem eingegebenen Zeichen; und Anzeigen der zwei oder mehr erzeugten Sätze von vorhergesagten Eingabe-Zeichen in festgelegten Partitionen der virtuellen Tastatur und an einer Position nahe an einer Taste, die einem nachfolgenden Kandidaten-Eingabe-Zeichen in den zwei oder mehreren erzeugten Sätzen von vorhergesagten Eingabe-Zeichen entspricht, wobei die angezeigten Sätze von vorhergesagten Eingabe-Zeichen in einer oder mehreren horizontalen „Abstandhalter“-Leiste angezeigt werden, die zwei Reihen von Tasten in der virtuellen Tastatur trennt bzw. trennen, wobei die Partitionen durch eine Anzahl von Spalten in einem Bereich der virtuellen Tastatur definiert sind und die angezeigten Sätze von vorhergesagten Eingabe-Zeichen horizontal ausgerichtet sind, oder die Partitionen durch eine Anzahl von Reihen in einem Bereich der virtuellen Tastatur definiert sind und die angezeigten Sätze von vorhergesagten Eingabe-Zeichen vertikal ausgerichtet sind und sich jeder der angezeigten Sätze von Zeichen in einer anderen „Abstandhalter“-Leiste befindet, wobei ein angezeigter Satz von vorhergesagten Eingabe-Zeichen eingegeben wird durch Erfassen einer Wischgeste an oder nahe dem angezeigten Satz von vorhergesagten Eingabe-Zeichen, und ein individuelles Zeichen der virtuellen Tastatur eingegeben wird durch Erfassen eines Antippens einer jeweiligen Taste auf der virtuellen Tastatur.
- Das Verfahren gemäß
Anspruch 1 , das weiter aufweist: Zuordnen einer ersten Partition der virtuellen Tastatur zu einem Satz von vorhergesagten Eingabe-Zeichen mit einem höchsten Rang; Bestimmen einer Kandidaten-Partition eines Satzes von vorhergesagten Eingabe-Zeichen mit einem nächst-höchsten Rang; Zuordnen des Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang zu der Kandidaten-Partition, wenn die Kandidaten-Partition nicht zugeordnet ist. - Das Verfahren gemäß
Anspruch 2 , das weiter aufweist: Bestimmen eines weiteren vorhergesagten Satzes von Eingabe-Zeichen mit einem nächst-höchsten Rang, wenn die Kandidaten-Partition bereits zugeordnet ist; Bestimmen einer Kandidaten-Partition des weiteren Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang; Zuordnen des weiteren Satzes von vorhergesagten Eingabe-Zeichen mit dem nächst-höchsten Rang zu der Kandidaten-Partition, wenn die Kandidaten-Partition nicht zugeordnet ist. - Das Verfahren gemäß
Anspruch 2 oderAnspruch 3 , wobei die Sätze von vorhergesagten Eingabe-Zeichen in einer Partition angezeigt werden, die ihnen zugeordnet ist. - Das Verfahren gemäß einem der
Ansprüche 2 bis4 , wobei die Sätze von vorhergesagten Eingabe-Zeichen in einer Partition, die ihnen zugeordnet ist, nur angezeigt werden, wenn alle Partitionen in der virtuellen Tastatur zugeordnet wurden oder kein weiterer Satz von vorhergesagten Eingabe-Zeichen mit nächsthöchstem Rang existiert. - Das Verfahren gemäß einem der
Ansprüche 2 bis5 , wobei die Partitionen im Wesentlichen die gesamte virtuelle Tastatur einnehmen. - Das Verfahren gemäß
Anspruch 1 , wobei die Wischgeste eine Wischgeste „nach oben“ ist. - Eine elektronische Vorrichtung, die aufweist: einen Prozessor; eine Anzeige, die mit dem Prozessor gekoppelt ist; wobei der Prozessor konfiguriert ist, das Verfahren gemäß einem der
Ansprüche 1 bis7 durchzuführen.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261603043P | 2012-02-24 | 2012-02-24 | |
US61/603043 | 2012-02-24 | ||
PCT/CA2012/050405 WO2013123572A1 (en) | 2012-02-24 | 2012-06-18 | Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters |
Publications (2)
Publication Number | Publication Date |
---|---|
DE112012000189T5 DE112012000189T5 (de) | 2013-12-24 |
DE112012000189B4 true DE112012000189B4 (de) | 2023-06-15 |
Family
ID=46245982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112012000189.3T Active DE112012000189B4 (de) | 2012-02-24 | 2012-06-18 | Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben |
Country Status (6)
Country | Link |
---|---|
US (1) | US9910588B2 (de) |
EP (1) | EP2631758B1 (de) |
CN (1) | CN103380407B (de) |
DE (1) | DE112012000189B4 (de) |
GB (1) | GB2503968B (de) |
WO (1) | WO2013123572A1 (de) |
Families Citing this family (159)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8490008B2 (en) | 2011-11-10 | 2013-07-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9652448B2 (en) | 2011-11-10 | 2017-05-16 | Blackberry Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9310889B2 (en) | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9122672B2 (en) | 2011-11-10 | 2015-09-01 | Blackberry Limited | In-letter word prediction for virtual keyboard |
US9715489B2 (en) | 2011-11-10 | 2017-07-25 | Blackberry Limited | Displaying a prediction candidate after a typing mistake |
US9557913B2 (en) | 2012-01-19 | 2017-01-31 | Blackberry Limited | Virtual keyboard display having a ticker proximate to the virtual keyboard |
US9152323B2 (en) | 2012-01-19 | 2015-10-06 | Blackberry Limited | Virtual keyboard providing an indication of received input |
EP2631758B1 (de) | 2012-02-24 | 2016-11-02 | BlackBerry Limited | Berührungsbildschirmtastatur mit Wortvorhersagen an Abschnitten der Berührungsbildschirmtastatur in Verbindung mit Bewerberschreiben |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
CN102629160B (zh) | 2012-03-16 | 2016-08-03 | 华为终端有限公司 | 一种输入法、输入装置及终端 |
US8930813B2 (en) * | 2012-04-03 | 2015-01-06 | Orlando McMaster | Dynamic text entry/input system |
US9201510B2 (en) | 2012-04-16 | 2015-12-01 | Blackberry Limited | Method and device having touchscreen keyboard with visual cues |
US9354805B2 (en) | 2012-04-30 | 2016-05-31 | Blackberry Limited | Method and apparatus for text selection |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9207860B2 (en) | 2012-05-25 | 2015-12-08 | Blackberry Limited | Method and apparatus for detecting a gesture |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9116552B2 (en) | 2012-06-27 | 2015-08-25 | Blackberry Limited | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard |
US9524290B2 (en) | 2012-08-31 | 2016-12-20 | Blackberry Limited | Scoring predictions based on prediction length and typing speed |
US9063653B2 (en) | 2012-08-31 | 2015-06-23 | Blackberry Limited | Ranking predictions based on typing speed and typing confidence |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP4138075A1 (de) | 2013-02-07 | 2023-02-22 | Apple Inc. | Sprachauslöser für digitalen assistenten |
CN104007832B (zh) * | 2013-02-25 | 2017-09-01 | 上海触乐信息科技有限公司 | 连续滑行输入文本的方法、***及设备 |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
CN110442699A (zh) | 2013-06-09 | 2019-11-12 | 苹果公司 | 操作数字助理的方法、计算机可读介质、电子设备和*** |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9576074B2 (en) * | 2013-06-20 | 2017-02-21 | Microsoft Technology Licensing, Llc | Intent-aware keyboard |
US10791216B2 (en) | 2013-08-06 | 2020-09-29 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
CN103631521B (zh) * | 2013-12-12 | 2017-10-17 | 华为终端有限公司 | 一种触控屏输入方法和终端 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US20170206004A1 (en) * | 2014-07-15 | 2017-07-20 | Amar Y Servir | Input of characters of a symbol-based written language |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
CN104391644B (zh) * | 2014-11-11 | 2018-03-20 | 北京元心科技有限公司 | 一种输入方法及装置 |
CN104571579A (zh) * | 2014-12-12 | 2015-04-29 | 百度在线网络技术(北京)有限公司 | 信息处理方法及装置 |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) * | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US20170336969A1 (en) * | 2016-05-17 | 2017-11-23 | Google Inc. | Predicting next letters and displaying them within keys of a graphical keyboard |
JP6691818B2 (ja) * | 2016-05-23 | 2020-05-13 | シャープ株式会社 | インターフェース、文字入力ガイド方法及びプログラム |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
CN106527753B (zh) * | 2016-09-30 | 2019-05-14 | 张伟 | 一种智能电视的字符输入方法 |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
CN107765979A (zh) * | 2017-09-27 | 2018-03-06 | 北京金山安全软件有限公司 | 一种预测词的展示方法、装置及电子设备 |
CN107704100A (zh) * | 2017-09-27 | 2018-02-16 | 北京金山安全软件有限公司 | 一种预测词的展示方法、装置及电子设备 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
WO2020209866A1 (en) | 2019-04-12 | 2020-10-15 | Hewlett-Packard Development Company, L.P. | Biometrics for predictive execution |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11043220B1 (en) | 2020-05-11 | 2021-06-22 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112256139B (zh) * | 2020-10-22 | 2022-10-14 | 米环科技(长春)有限公司 | 具有键位布局的键盘及其应用于电子设备的输入法 |
JP7265048B1 (ja) | 2022-02-07 | 2023-04-25 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、及び制御方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010035574A1 (ja) | 2008-09-29 | 2010-04-01 | シャープ株式会社 | 入力装置、入力方法、プログラム、および記録媒体 |
US20100192086A1 (en) | 2006-01-05 | 2010-07-29 | Kenneth Kocienda | Keyboard with Multi-Symbol Icons |
US20100225599A1 (en) | 2009-03-06 | 2010-09-09 | Mikael Danielsson | Text Input |
WO2012076743A1 (en) | 2010-12-08 | 2012-06-14 | Nokia Corporation | An apparatus and associated methods for text entry |
Family Cites Families (326)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3872433A (en) | 1973-06-07 | 1975-03-18 | Optical Business Machines | Optical character recognition system |
DE2915673A1 (de) | 1979-04-18 | 1980-10-30 | Olympia Werke Ag | Textbearbeitungseinrichtung mit einer anzeigeeinrichtung |
US5261009A (en) | 1985-10-15 | 1993-11-09 | Palantir Corporation | Means for resolving ambiguities in text passed upon character context |
US5963671A (en) | 1991-11-27 | 1999-10-05 | International Business Machines Corporation | Enhancement of soft keyboard operations using trigram prediction |
US5416895A (en) | 1992-04-08 | 1995-05-16 | Borland International, Inc. | System and methods for improved spreadsheet interface with user-familiar objects |
US5523775A (en) | 1992-05-26 | 1996-06-04 | Apple Computer, Inc. | Method for selecting objects on a computer display |
JP3546337B2 (ja) | 1993-12-21 | 2004-07-28 | ゼロックス コーポレイション | 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法 |
US5574840A (en) | 1994-08-29 | 1996-11-12 | Microsoft Corporation | Method and system for selecting text utilizing a plurality of text using switchable minimum granularity of selection |
JPH10154144A (ja) | 1996-11-25 | 1998-06-09 | Sony Corp | 文章入力装置及び方法 |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
GB2335822B (en) | 1998-03-25 | 2003-09-10 | Nokia Mobile Phones Ltd | Context sensitive pop-up window for a portable phone |
US6421453B1 (en) | 1998-05-15 | 2002-07-16 | International Business Machines Corporation | Apparatus and methods for user recognition employing behavioral passwords |
KR100306277B1 (ko) | 1998-05-29 | 2001-11-02 | 윤종용 | 문자인식디지털휴대용전화기에서비밀기호등록및확인방법 |
US6064340A (en) | 1998-07-02 | 2000-05-16 | Intersil Corporation | Electrostatic discharge locating apparatus and method |
US7679534B2 (en) | 1998-12-04 | 2010-03-16 | Tegic Communications, Inc. | Contextual prediction of user words and user actions |
US6226299B1 (en) | 1999-01-20 | 2001-05-01 | Emulex Corporation | Sanitizing fibre channel frames |
US7506252B2 (en) | 1999-01-26 | 2009-03-17 | Blumberg Marvin R | Speed typing apparatus for entering letters of alphabet with at least thirteen-letter input elements |
GB2347240A (en) | 1999-02-22 | 2000-08-30 | Nokia Mobile Phones Ltd | Communication terminal having a predictive editor application |
US6411283B1 (en) | 1999-05-20 | 2002-06-25 | Micron Technology, Inc. | Computer touch screen adapted to facilitate selection of features at edge of screen |
US7030863B2 (en) | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
CA2392446C (en) | 1999-05-27 | 2009-07-14 | America Online Incorporated | Keyboard system with automatic correction |
US6573844B1 (en) | 2000-01-18 | 2003-06-03 | Microsoft Corporation | Predictive keyboard |
US6646572B1 (en) | 2000-02-18 | 2003-11-11 | Mitsubish Electric Research Laboratories, Inc. | Method for designing optimal single pointer predictive keyboards and apparatus therefore |
US6621424B1 (en) | 2000-02-18 | 2003-09-16 | Mitsubishi Electric Research Laboratories Inc. | Method for predicting keystroke characters on single pointer keyboards and apparatus therefore |
US6922810B1 (en) | 2000-03-07 | 2005-07-26 | Microsoft Corporation | Grammar-based automatic data completion and suggestion for user input |
US7107204B1 (en) | 2000-04-24 | 2006-09-12 | Microsoft Corporation | Computer-aided writing system and method with cross-language writing wizard |
US7145554B2 (en) | 2000-07-21 | 2006-12-05 | Speedscript Ltd. | Method for a high-speed writing system and high -speed writing device |
US20050195173A1 (en) | 2001-08-30 | 2005-09-08 | Mckay Brent | User Interface for Large-Format Interactive Display Systems |
CA2323856A1 (en) | 2000-10-18 | 2002-04-18 | 602531 British Columbia Ltd. | Method, system and media for entering data in a personal computing device |
US6891551B2 (en) | 2000-11-10 | 2005-05-10 | Microsoft Corporation | Selection handles in editing electronic documents |
US6577296B2 (en) | 2000-11-14 | 2003-06-10 | Vega Vista, Inc. | Fixed cursor |
US7318019B1 (en) | 2000-11-17 | 2008-01-08 | Semantic Compaction Systems | Word output device and matrix keyboard for use therein |
US6696985B2 (en) | 2001-04-24 | 2004-02-24 | International Business Machines Corporation | Reformable keyboard with variable key design |
US20050024341A1 (en) | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
US20090040184A9 (en) | 2001-10-04 | 2009-02-12 | Infogation Corporation | Information entry mechanism |
GB2380583A (en) | 2001-10-04 | 2003-04-09 | Ilam Samson | Touch pad/screen for electronic equipment |
FI115254B (fi) | 2001-12-20 | 2005-03-31 | Nokia Corp | Kosketusnäytön käyttäminen osoitinvälineellä |
US7394346B2 (en) | 2002-01-15 | 2008-07-01 | International Business Machines Corporation | Free-space gesture recognition for transaction security and command processing |
JP4073215B2 (ja) | 2002-01-28 | 2008-04-09 | 富士通株式会社 | 文字入力装置 |
US20030182279A1 (en) | 2002-03-19 | 2003-09-25 | Willows Kevin John | Progressive prefix input method for data entry |
FI20021655A (fi) | 2002-06-19 | 2003-12-20 | Nokia Corp | Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite |
US8583440B2 (en) | 2002-06-20 | 2013-11-12 | Tegic Communications, Inc. | Apparatus and method for providing visual indication of character ambiguity during text entry |
US7259752B1 (en) | 2002-06-28 | 2007-08-21 | Microsoft Corporation | Method and system for editing electronic ink |
US7061403B2 (en) | 2002-07-03 | 2006-06-13 | Research In Motion Limited | Apparatus and method for input of ideographic Korean syllables from reduced keyboard |
US7216588B2 (en) | 2002-07-12 | 2007-05-15 | Dana Suess | Modified-qwerty letter layout for rapid data entry |
US20040111475A1 (en) | 2002-12-06 | 2004-06-10 | International Business Machines Corporation | Method and apparatus for selectively identifying misspelled character strings in electronic communications |
JP2004213269A (ja) | 2002-12-27 | 2004-07-29 | Toshiba Corp | 文字入力装置 |
US7194699B2 (en) | 2003-01-14 | 2007-03-20 | Microsoft Corporation | Animating images to reflect user selection |
US7382358B2 (en) | 2003-01-16 | 2008-06-03 | Forword Input, Inc. | System and method for continuous stroke word-based text input |
US7098896B2 (en) | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
US20040153963A1 (en) | 2003-02-05 | 2004-08-05 | Simpson Todd G. | Information entry mechanism for small keypads |
US7136047B2 (en) | 2003-04-09 | 2006-11-14 | Microsoft Corporation | Software multi-tap input system and method |
US7230607B2 (en) | 2003-06-12 | 2007-06-12 | Katsuyasu Ono | 6-key keyboard for touch typing |
EP1652310A4 (de) | 2003-07-17 | 2007-11-14 | Xrgomics Pte Ltd | Buchstabe- und wortauswahl-texteingabeverfahren für systeme mit tastaturen und reduzierte tastaturen |
US7533351B2 (en) | 2003-08-13 | 2009-05-12 | International Business Machines Corporation | Method, apparatus, and program for dynamic expansion and overlay of controls |
US7499040B2 (en) | 2003-08-18 | 2009-03-03 | Apple Inc. | Movable touch pad with added functionality |
KR100537280B1 (ko) | 2003-10-29 | 2005-12-16 | 삼성전자주식회사 | 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법 |
US20070156394A1 (en) | 2004-01-14 | 2007-07-05 | Banerjee Aroop K | Method of data entry for indic languages |
JP2005202527A (ja) | 2004-01-14 | 2005-07-28 | Fujitsu Component Ltd | 入力装置およびユーザー認証方法 |
US8042056B2 (en) | 2004-03-16 | 2011-10-18 | Leica Geosystems Ag | Browsers for large geometric data visualization |
US20090240949A9 (en) | 2004-04-23 | 2009-09-24 | Kitchens Fred L | Identity authentication based on keystroke latencies using a genetic adaptive neural network |
US7439959B2 (en) | 2004-07-30 | 2008-10-21 | Research In Motion Limited | Key arrangement for a keyboard |
US20060176283A1 (en) | 2004-08-06 | 2006-08-10 | Daniel Suraqui | Finger activated reduced keyboard and a method for performing text input |
WO2006036887A2 (en) | 2004-09-28 | 2006-04-06 | Yost David A | Improved system of gui text cursor, caret, and selection |
US7561145B2 (en) | 2005-03-18 | 2009-07-14 | Microsoft Corporation | Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface |
GB0505941D0 (en) | 2005-03-23 | 2005-04-27 | Patel Sanjay | Human-to-mobile interfaces |
US7680333B2 (en) | 2005-04-21 | 2010-03-16 | Microsoft Corporation | System and method for binary persistence format for a recognition result lattice |
US7487461B2 (en) | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
EP2109046A1 (de) | 2008-04-07 | 2009-10-14 | ExB Asset Management GmbH | Prädiktives Texteingabesystem und Verfahren mit zwei gleichrangigen Ordnungskriterien |
US20090193334A1 (en) * | 2005-05-18 | 2009-07-30 | Exb Asset Management Gmbh | Predictive text input system and method involving two concurrent ranking means |
US9606634B2 (en) | 2005-05-18 | 2017-03-28 | Nokia Technologies Oy | Device incorporating improved text input mechanism |
US8036878B2 (en) | 2005-05-18 | 2011-10-11 | Never Wall Treuhand GmbH | Device incorporating improved text input mechanism |
US8185841B2 (en) | 2005-05-23 | 2012-05-22 | Nokia Corporation | Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen |
US7886233B2 (en) | 2005-05-23 | 2011-02-08 | Nokia Corporation | Electronic text input involving word completion functionality for predicting word candidates for partial word inputs |
US9019209B2 (en) | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
KR100709320B1 (ko) | 2005-06-17 | 2007-04-20 | 삼성전자주식회사 | 문서 인쇄 방법 및 인쇄 시스템 |
JP4619882B2 (ja) | 2005-07-12 | 2011-01-26 | 株式会社東芝 | 携帯電話およびその遠隔操作方法 |
US7443316B2 (en) | 2005-09-01 | 2008-10-28 | Motorola, Inc. | Entering a character into an electronic device |
US7539472B2 (en) * | 2005-09-13 | 2009-05-26 | Microsoft Corporation | Type-ahead keypad input for an input device |
WO2007031816A1 (en) | 2005-09-14 | 2007-03-22 | Nokia Corporation | A device, method, computer program and user interface for enabling a user to vary which items are displayed to the user |
KR20080068668A (ko) | 2005-10-21 | 2008-07-23 | 산요덴키가부시키가이샤 | 비밀 번호 등을 입력하기 위한 입력 장치 및 그 입력장치를 구비한 휴대 전화 장치 |
CN101317147B (zh) | 2005-12-13 | 2011-09-07 | 国际商业机器公司 | 自动完成方法和*** |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US7877685B2 (en) | 2005-12-29 | 2011-01-25 | Sap Ag | Persistent adjustable text selector |
US7574672B2 (en) | 2006-01-05 | 2009-08-11 | Apple Inc. | Text entry interface for a portable communication device |
GB0605386D0 (en) | 2006-03-17 | 2006-04-26 | Malvern Scient Solutions Ltd | Character input method |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
KR100686165B1 (ko) | 2006-04-18 | 2007-02-26 | 엘지전자 주식회사 | 오에스디 기능 아이콘을 갖는 휴대용 단말기 및 이를이용한 오에스디 기능 아이콘의 디스플레이 방법 |
KR100771626B1 (ko) | 2006-04-25 | 2007-10-31 | 엘지전자 주식회사 | 단말기 및 이를 위한 명령 입력 방법 |
JP2007299291A (ja) | 2006-05-01 | 2007-11-15 | Sony Computer Entertainment Inc | 文字入力装置、文字入力方法及びプログラム |
US20070256029A1 (en) | 2006-05-01 | 2007-11-01 | Rpo Pty Llimited | Systems And Methods For Interfacing A User With A Touch-Screen |
KR100813062B1 (ko) | 2006-05-03 | 2008-03-14 | 엘지전자 주식회사 | 휴대용 단말기 및 이를 이용한 텍스트 표시 방법 |
US20070263932A1 (en) | 2006-05-12 | 2007-11-15 | Waterloo Maple Inc. | System and method of gesture feature recognition |
US20070271466A1 (en) | 2006-05-18 | 2007-11-22 | Genevieve Mak | Security or authentication system and method using manual input measurements, such as via user manipulation of a computer mouse |
US7661068B2 (en) | 2006-06-12 | 2010-02-09 | Microsoft Corporation | Extended eraser functions |
US20080141125A1 (en) | 2006-06-23 | 2008-06-12 | Firooz Ghassabian | Combined data entry systems |
US20080033713A1 (en) | 2006-07-10 | 2008-02-07 | Sony Ericsson Mobile Communications Ab | Predicting entered text |
US7941760B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Soft keyboard display for a portable multifunction device |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7934156B2 (en) | 2006-09-06 | 2011-04-26 | Apple Inc. | Deletion gestures on a portable multifunction device |
US7856605B2 (en) | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
US8022934B2 (en) | 2006-10-31 | 2011-09-20 | Research In Motion Limited | Handheld electronic device with text disambiguation and selective disabling of frequency learning |
US7900145B2 (en) | 2006-11-08 | 2011-03-01 | Yahoo! Inc. | System and method for synchronizing data |
KR20080041856A (ko) | 2006-11-08 | 2008-05-14 | 팅크웨어(주) | 메뉴 표시 방법 |
EP2092405A4 (de) | 2006-11-08 | 2012-10-17 | Cubic Design Studios Llc | Asymmetrische shuffle-tastatur |
US7692629B2 (en) | 2006-12-07 | 2010-04-06 | Microsoft Corporation | Operating touch screen interfaces |
US8125312B2 (en) | 2006-12-08 | 2012-02-28 | Research In Motion Limited | System and method for locking and unlocking access to an electronic device |
US8115658B2 (en) * | 2006-12-29 | 2012-02-14 | Research In Motion Limited | Handheld electronic device providing confirmation of input, and associated method |
EP1939715B1 (de) | 2006-12-29 | 2011-01-26 | Research In Motion Limited | Tragbare elektronische Vorrichtung mit Eingabebestätigung und entsprechendes Verfahren |
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US8665225B2 (en) | 2007-01-07 | 2014-03-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture |
US7978176B2 (en) | 2007-01-07 | 2011-07-12 | Apple Inc. | Portrait-landscape rotation heuristics for a portable multifunction device |
US8607144B2 (en) | 2007-01-08 | 2013-12-10 | Apple Inc. | Monitor configuration for media device |
US20090213081A1 (en) | 2007-01-10 | 2009-08-27 | Case Jr Charlie W | Portable Electronic Device Touchpad Input Controller |
US8311530B2 (en) | 2007-01-26 | 2012-11-13 | Research In Motion Limited | Touch entry of password on a mobile device |
US8201087B2 (en) | 2007-02-01 | 2012-06-12 | Tegic Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US8225203B2 (en) | 2007-02-01 | 2012-07-17 | Nuance Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US7912700B2 (en) | 2007-02-08 | 2011-03-22 | Microsoft Corporation | Context based word prediction |
CA2581824A1 (en) | 2007-03-14 | 2008-09-14 | 602531 British Columbia Ltd. | System, apparatus and method for data entry using multi-function keys |
CN101021762A (zh) | 2007-03-26 | 2007-08-22 | 宇龙计算机通信科技(深圳)有限公司 | 触摸屏的锁定装置及方法 |
EP2132920A1 (de) | 2007-04-10 | 2009-12-16 | Nokia Corporation | Verbesserungen von oder in bezug auf elektronische anordnungen |
CN101641665B (zh) | 2007-04-12 | 2013-02-06 | 诺基亚公司 | 键区 |
US20080266261A1 (en) | 2007-04-25 | 2008-10-30 | Idzik Jacek S | Keystroke Error Correction Method |
US8130202B2 (en) | 2007-05-01 | 2012-03-06 | International Business Machines Corporation | Infrared touch screen gated by touch force |
JP2010530561A (ja) | 2007-05-07 | 2010-09-09 | フォースウォール・メディア・インコーポレーテッド | ユニバーサルなリエントラント予測テキスト入力ソフトウェアコンポーネントを用いた、コンテキスト依存の予測および学習 |
US8018441B2 (en) | 2007-06-11 | 2011-09-13 | Samsung Electronics Co., Ltd. | Character input apparatus and method for automatically switching input mode in terminal having touch screen |
JP4775332B2 (ja) | 2007-06-14 | 2011-09-21 | ブラザー工業株式会社 | 画像選択装置および画像選択方法 |
US7970438B2 (en) | 2007-06-19 | 2011-06-28 | Lg Electronics Inc. | Mobile terminal and keypad control method |
US8059101B2 (en) | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
US8009146B2 (en) | 2007-06-28 | 2011-08-30 | Nokia Corporation | Method, apparatus and computer program product for facilitating data entry via a touchscreen |
US8065624B2 (en) | 2007-06-28 | 2011-11-22 | Panasonic Corporation | Virtual keypad systems and methods |
US8127254B2 (en) | 2007-06-29 | 2012-02-28 | Nokia Corporation | Unlocking a touch screen device |
US8365282B2 (en) | 2007-07-18 | 2013-01-29 | Research In Motion Limited | Security system based on input shortcuts for a computer device |
US20090044124A1 (en) | 2007-08-06 | 2009-02-12 | Nokia Corporation | Method, apparatus and computer program product for facilitating data entry using an offset connection element |
JP2010538353A (ja) | 2007-08-28 | 2010-12-09 | モビエンス インコーポレイテッド | キー入力インターフェース方法 |
US20090058823A1 (en) * | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8661340B2 (en) | 2007-09-13 | 2014-02-25 | Apple Inc. | Input methods for device having multi-language environment |
CN100592249C (zh) | 2007-09-21 | 2010-02-24 | 上海汉翔信息技术有限公司 | 快速输入相关词的方法 |
US8125458B2 (en) | 2007-09-28 | 2012-02-28 | Microsoft Corporation | Detecting finger orientation on a touch-sensitive device |
EP2045700A1 (de) | 2007-10-04 | 2009-04-08 | LG Electronics Inc. | Menüanzeigeverfahren für ein Mobilkommunikationsendgerät |
US20090125848A1 (en) | 2007-11-14 | 2009-05-14 | Susann Marie Keohane | Touch surface-sensitive edit system |
US20110035696A1 (en) | 2007-11-20 | 2011-02-10 | Avi Elazari | Character input system for limited keyboards |
US7870164B2 (en) | 2007-11-20 | 2011-01-11 | Microsoft Corporation | Database part creation, merge and reuse |
US20090144667A1 (en) | 2007-11-30 | 2009-06-04 | Nokia Corporation | Apparatus, method, computer program and user interface for enabling user input |
JP2009139544A (ja) | 2007-12-05 | 2009-06-25 | Denso Corp | 入力装置 |
CN101464741B (zh) | 2007-12-19 | 2011-12-07 | 联想(北京)有限公司 | 触摸板、触摸板使用方法以及具有触摸板的笔记本电脑 |
US8610671B2 (en) | 2007-12-27 | 2013-12-17 | Apple Inc. | Insertion marker placement on touch sensitive display |
TWI420344B (zh) | 2007-12-31 | 2013-12-21 | Htc Corp | 切換觸碰鍵盤的方法以及使用此方法的手持電子裝置與儲存媒體 |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
US8650507B2 (en) | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
US8289283B2 (en) | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8358277B2 (en) | 2008-03-18 | 2013-01-22 | Microsoft Corporation | Virtual keyboard based activation and dismissal |
US8627231B2 (en) | 2008-03-28 | 2014-01-07 | Sprint Communications Company L.P. | List-position locator |
JP2009245239A (ja) | 2008-03-31 | 2009-10-22 | Sony Corp | ポインタ表示装置、ポインタ表示検出方法、ポインタ表示検出プログラム及び情報機器 |
US20090254818A1 (en) | 2008-04-03 | 2009-10-08 | International Business Machines Corporation | Method, system and user interface for providing inline spelling assistance |
TWI361613B (en) | 2008-04-16 | 2012-04-01 | Htc Corp | Mobile electronic device, method for entering screen lock state and recording medium thereof |
CN101266520B (zh) | 2008-04-18 | 2013-03-27 | 上海触乐信息科技有限公司 | 一种可实现灵活键盘布局的*** |
US8949743B2 (en) | 2008-04-22 | 2015-02-03 | Apple Inc. | Language input interface on a device |
US20090267909A1 (en) | 2008-04-27 | 2009-10-29 | Htc Corporation | Electronic device and user interface display method thereof |
JP2009288873A (ja) | 2008-05-27 | 2009-12-10 | Ntt Docomo Inc | 携帯端末及び文字入力方法 |
US9355090B2 (en) | 2008-05-30 | 2016-05-31 | Apple Inc. | Identification of candidate characters for text input |
CN101604216B (zh) | 2008-06-10 | 2012-11-21 | 鸿富锦精密工业(深圳)有限公司 | 密码保护方法 |
DE602008005428D1 (de) | 2008-06-11 | 2011-04-21 | Exb Asset Man Gmbh | Vorrichtung und Verfahren mit verbessertem Texteingabemechanismus |
US8683582B2 (en) | 2008-06-16 | 2014-03-25 | Qualcomm Incorporated | Method and system for graphical passcode security |
JP4632102B2 (ja) | 2008-07-17 | 2011-02-16 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US20100020036A1 (en) | 2008-07-23 | 2010-01-28 | Edward Hui | Portable electronic device and method of controlling same |
US20100020033A1 (en) | 2008-07-23 | 2010-01-28 | Obinna Ihenacho Alozie Nwosu | System, method and computer program product for a virtual keyboard |
US20100026650A1 (en) | 2008-07-29 | 2010-02-04 | Samsung Electronics Co., Ltd. | Method and system for emphasizing objects |
US20100070908A1 (en) | 2008-09-18 | 2010-03-18 | Sun Microsystems, Inc. | System and method for accepting or rejecting suggested text corrections |
JP2010079441A (ja) | 2008-09-24 | 2010-04-08 | Sharp Corp | 携帯端末、ソフトウェアキーボード表示方法、及びソフトウェアキーボード表示プログラム |
US20100079413A1 (en) | 2008-09-29 | 2010-04-01 | Denso Corporation | Control device |
WO2010041092A1 (en) | 2008-10-07 | 2010-04-15 | Tiki'labs | Method and device for controlling an inputting data |
KR20100042976A (ko) | 2008-10-17 | 2010-04-27 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
JP5371371B2 (ja) | 2008-10-29 | 2013-12-18 | 京セラ株式会社 | 携帯端末および文字表示プログラム |
CN101533403B (zh) | 2008-11-07 | 2010-12-01 | 广东国笔科技股份有限公司 | 一种派生词生成方法及*** |
US9501694B2 (en) | 2008-11-24 | 2016-11-22 | Qualcomm Incorporated | Pictorial methods for application selection and activation |
WO2010068445A2 (en) | 2008-11-25 | 2010-06-17 | Spetalnick Jeffrey R | Methods and systems for improved data input, compression, recognition, correction, and translation through frequency-based language analysis |
KR20100060192A (ko) | 2008-11-27 | 2010-06-07 | 삼성전자주식회사 | 휴대 단말 장치의 방향 센서를 이용한 잠금 기능 제어 장치및 방법 |
US9041660B2 (en) | 2008-12-09 | 2015-05-26 | Microsoft Technology Licensing, Llc | Soft keyboard control |
US8451236B2 (en) | 2008-12-22 | 2013-05-28 | Hewlett-Packard Development Company L.P. | Touch-sensitive display screen with absolute and relative input modes |
US20100161538A1 (en) | 2008-12-22 | 2010-06-24 | Kennedy Jr Thomas William | Device for user input |
US8686952B2 (en) | 2008-12-23 | 2014-04-01 | Apple Inc. | Multi touch with multi haptics |
EP2214118A1 (de) | 2009-01-30 | 2010-08-04 | Research In Motion Limited | System und Verfahren für die Zugriffssteuerung in einer tragbaren elektronischen Vorrichtung |
US8326358B2 (en) | 2009-01-30 | 2012-12-04 | Research In Motion Limited | System and method for access control in a portable electronic device |
US20100199176A1 (en) | 2009-02-02 | 2010-08-05 | Chronqvist Fredrik A | Electronic device with text prediction function and method |
SG177239A1 (en) | 2009-02-04 | 2012-02-28 | Keyless Systems Ltd | Data entry system |
US8584050B2 (en) | 2009-03-16 | 2013-11-12 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US8294680B2 (en) | 2009-03-27 | 2012-10-23 | Sony Mobile Communications Ab | System and method for touch-based text entry |
GB0905457D0 (en) | 2009-03-30 | 2009-05-13 | Touchtype Ltd | System and method for inputting text into electronic devices |
US8539382B2 (en) | 2009-04-03 | 2013-09-17 | Palm, Inc. | Preventing unintentional activation and/or input in an electronic device |
US9213477B2 (en) | 2009-04-07 | 2015-12-15 | Tara Chand Singhal | Apparatus and method for touch screen user interface for handheld electric devices part II |
US20100259482A1 (en) | 2009-04-10 | 2010-10-14 | Microsoft Corporation | Keyboard gesturing |
US8300023B2 (en) | 2009-04-10 | 2012-10-30 | Qualcomm Incorporated | Virtual keypad generator with learning capabilities |
KR101537706B1 (ko) | 2009-04-16 | 2015-07-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US20100265181A1 (en) | 2009-04-20 | 2010-10-21 | ShoreCap LLC | System, method and computer readable media for enabling a user to quickly identify and select a key on a touch screen keypad by easing key selection |
CN101876878A (zh) | 2009-04-29 | 2010-11-03 | 深圳富泰宏精密工业有限公司 | 单词预测输入***及方法 |
US8739055B2 (en) | 2009-05-07 | 2014-05-27 | Microsoft Corporation | Correction of typographical errors on touch displays |
US20100293475A1 (en) | 2009-05-12 | 2010-11-18 | International Business Machines Corporation | Notification of additional recipients of email messages |
JP5158014B2 (ja) | 2009-05-21 | 2013-03-06 | ソニー株式会社 | 表示制御装置、表示制御方法およびコンピュータプログラム |
US8856649B2 (en) | 2009-06-08 | 2014-10-07 | Business Objects Software Limited | Aggregation level and measure based hinting and selection of cells in a data display |
US20100313158A1 (en) | 2009-06-08 | 2010-12-09 | Lg Electronics Inc. | Method for editing data in mobile terminal and mobile terminal using the same |
US20100315266A1 (en) | 2009-06-15 | 2010-12-16 | Microsoft Corporation | Predictive interfaces with usability constraints |
US8458485B2 (en) | 2009-06-17 | 2013-06-04 | Microsoft Corporation | Image-based unlock functionality on a computing device |
US20100333027A1 (en) | 2009-06-26 | 2010-12-30 | Sony Ericsson Mobile Communications Ab | Delete slider mechanism |
US20120166696A1 (en) | 2009-06-26 | 2012-06-28 | Nokia Corporation | Method, Apparatus and Computer Program Code Handling a User Input |
WO2011008861A2 (en) | 2009-07-14 | 2011-01-20 | Eatoni Ergonomics, Inc | Keyboard comprising swipe-switches performing keyboard actions |
US20110018812A1 (en) | 2009-07-21 | 2011-01-27 | Cisco Technology, Inc. | Fast Typographical Error Correction for Touchscreen Keyboards |
US20110029862A1 (en) | 2009-07-30 | 2011-02-03 | Research In Motion Limited | System and method for context based predictive text entry assistance |
EP2282252A1 (de) | 2009-07-31 | 2011-02-09 | France Telecom | Verfahren und Vorrichtung zur Umwandlung einer Zeichenfolgeneingabe |
US20110041056A1 (en) | 2009-08-14 | 2011-02-17 | Research In Motion Limited | Electronic device with touch-sensitive display and method of facilitating input at the electronic device |
US8531410B2 (en) | 2009-08-18 | 2013-09-10 | Fuji Xerox Co., Ltd. | Finger occlusion avoidance on touch display devices |
US20120149477A1 (en) | 2009-08-23 | 2012-06-14 | Taeun Park | Information input system and method using extension key |
US9262063B2 (en) | 2009-09-02 | 2016-02-16 | Amazon Technologies, Inc. | Touch-screen user interface |
TW201109990A (en) | 2009-09-04 | 2011-03-16 | Higgstec Inc | Touch gesture detecting method of a touch panel |
US20110060984A1 (en) | 2009-09-06 | 2011-03-10 | Lee Yung-Chao | Method and apparatus for word prediction of text input by assigning different priorities to words on a candidate word list according to how many letters have been entered so far by a user |
US9317116B2 (en) | 2009-09-09 | 2016-04-19 | Immersion Corporation | Systems and methods for haptically-enhanced text interfaces |
US20110063231A1 (en) | 2009-09-14 | 2011-03-17 | Invotek, Inc. | Method and Device for Data Input |
US8516367B2 (en) | 2009-09-29 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity weighted predictive key entry |
US9122393B2 (en) | 2009-09-30 | 2015-09-01 | At&T Mobility Ii Llc | Predictive sensitized keypad |
US8812972B2 (en) | 2009-09-30 | 2014-08-19 | At&T Intellectual Property I, L.P. | Dynamic generation of soft keyboards for mobile devices |
US20110084922A1 (en) | 2009-10-14 | 2011-04-14 | Research In Motion Limited | Electronic device including touch-sensitive display and method of controlling same |
WO2011056610A2 (en) * | 2009-10-26 | 2011-05-12 | Google Inc. | Predictive text entry for input devices |
US8627224B2 (en) | 2009-10-27 | 2014-01-07 | Qualcomm Incorporated | Touch screen keypad layout |
EP2320312A1 (de) | 2009-11-10 | 2011-05-11 | Research In Motion Limited | Tragbare elektronische Vorrichtung und Steuerverfahren dafür |
KR101595029B1 (ko) | 2009-11-18 | 2016-02-17 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
TW201122890A (en) | 2009-12-18 | 2011-07-01 | Best Solution Technology Inc | Touch-control lock operated according to gesture or figure. |
CA2783774A1 (en) | 2009-12-20 | 2011-06-23 | Keyless Systems Ltd. | Features of a data entry system |
KR20110071612A (ko) | 2009-12-21 | 2011-06-29 | 삼성전자주식회사 | 화상형성장치 및 그 문자 입력방법 |
US20110171617A1 (en) | 2010-01-11 | 2011-07-14 | Ideographix, Inc. | System and method for teaching pictographic languages |
US20110179355A1 (en) | 2010-01-15 | 2011-07-21 | Sony Ericsson Mobile Communications Ab | Virtual information input arrangement |
US8782556B2 (en) | 2010-02-12 | 2014-07-15 | Microsoft Corporation | User-centric soft keyboard predictive technologies |
US20110202835A1 (en) | 2010-02-13 | 2011-08-18 | Sony Ericsson Mobile Communications Ab | Item selection method for touch screen devices |
KR101557358B1 (ko) | 2010-02-25 | 2015-10-06 | 엘지전자 주식회사 | 문자열 입력 방법 및 그 장치 |
EP2545426A4 (de) | 2010-03-12 | 2017-05-17 | Nuance Communications, Inc. | Multimodales texteingabesystem, wie etwa zur verwendung mit berührungsbildschirmen auf mobiltelefonen |
JP5556270B2 (ja) * | 2010-03-17 | 2014-07-23 | 富士通株式会社 | 候補表示装置および候補表示方法 |
US9292161B2 (en) | 2010-03-24 | 2016-03-22 | Microsoft Technology Licensing, Llc | Pointer tool with touch-enabled precise placement |
CN102202130A (zh) | 2010-03-25 | 2011-09-28 | 鸿富锦精密工业(深圳)有限公司 | 具有解锁和锁定功能的电子装置及其解锁和锁定方法 |
US20110242138A1 (en) | 2010-03-31 | 2011-10-06 | Tribble Guy L | Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards |
US9264659B2 (en) | 2010-04-07 | 2016-02-16 | Apple Inc. | Video conference network management for a mobile device |
KR101642725B1 (ko) | 2010-04-14 | 2016-08-11 | 삼성전자 주식회사 | 휴대 단말기의 잠금 기능 운용 방법 및 장치 |
EP2381384B1 (de) | 2010-04-21 | 2019-02-27 | BlackBerry Limited | Verfahren zur Bereitstellung von Sicherheit in einem tragbaren elektronischen Gerät mit einer berührungsempfindlichen Anzeige |
DE102010020474A1 (de) | 2010-05-14 | 2011-11-17 | Deutsche Telekom Ag | Touch Screen Bildschirm mit Funktionsverriegelung |
US20110285656A1 (en) | 2010-05-19 | 2011-11-24 | Google Inc. | Sliding Motion To Change Computer Keys |
US20110302518A1 (en) | 2010-06-07 | 2011-12-08 | Google Inc. | Selecting alternate keyboard characters via motion input |
US20110305494A1 (en) | 2010-06-11 | 2011-12-15 | Chulho Kang | Portable and ease-of-use ergonomic keyboard |
KR101694154B1 (ko) | 2010-06-29 | 2017-01-09 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
JP5573457B2 (ja) | 2010-07-23 | 2014-08-20 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US8918734B2 (en) * | 2010-07-28 | 2014-12-23 | Nuance Communications, Inc. | Reduced keyboard with prediction solutions when input is a partial sliding trajectory |
US20120030566A1 (en) | 2010-07-28 | 2012-02-02 | Victor B Michael | System with touch-based selection of data items |
US20120030624A1 (en) | 2010-07-30 | 2012-02-02 | Migos Charles J | Device, Method, and Graphical User Interface for Displaying Menus |
US8799815B2 (en) | 2010-07-30 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for activating an item in a folder |
JP5510185B2 (ja) | 2010-08-20 | 2014-06-04 | ソニー株式会社 | 情報処理装置、プログラム及び表示制御方法 |
US8904311B2 (en) | 2010-09-01 | 2014-12-02 | Nokia Corporation | Method, apparatus, and computer program product for implementing a variable content movable control |
EP2616908A2 (de) | 2010-09-15 | 2013-07-24 | Jeffrey R. Spetalnick | Verfahren und systeme zur reduzierung von dateneingabefehlern mit tastaturen |
US20120068937A1 (en) | 2010-09-16 | 2012-03-22 | Sony Ericsson Mobile Communications Ab | Quick input language/virtual keyboard/ language dictionary change on a touch screen device |
KR101178294B1 (ko) | 2010-09-20 | 2012-08-29 | 진병욱 | 슬라이딩 삭제키 또는 역삭제키를 포함하는 키보드 |
JP5657973B2 (ja) | 2010-09-24 | 2015-01-21 | Necエンベデッドプロダクツ株式会社 | 情報処理装置、選択文字表示方法及びプログラム |
US8516386B2 (en) | 2010-09-29 | 2013-08-20 | Apple Inc. | Scrolling virtual music keyboard |
KR101688944B1 (ko) | 2010-10-01 | 2016-12-22 | 엘지전자 주식회사 | 키보드 제어 장치 및 그 방법 |
US9027117B2 (en) | 2010-10-04 | 2015-05-05 | Microsoft Technology Licensing, Llc | Multiple-access-level lock screen |
JP5782699B2 (ja) | 2010-10-15 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理装置の入力制御方法及びプログラム |
US20120102401A1 (en) | 2010-10-25 | 2012-04-26 | Nokia Corporation | Method and apparatus for providing text selection |
US9104306B2 (en) | 2010-10-29 | 2015-08-11 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Translation of directional input to gesture |
US8593422B2 (en) | 2010-11-05 | 2013-11-26 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
GB2485999A (en) | 2010-11-30 | 2012-06-06 | St Microelectronics Res & Dev | Optical keyboard each key recognising multiple different inputs |
US20120167009A1 (en) | 2010-12-22 | 2012-06-28 | Apple Inc. | Combining timing and geometry information for typing correction |
US20120200514A1 (en) | 2011-02-07 | 2012-08-09 | Allen James M | Graphical Caregiver Interface With Swipe to Unlock Feature |
US20120223959A1 (en) | 2011-03-01 | 2012-09-06 | Apple Inc. | System and method for a touchscreen slider with toggle control |
US20120249595A1 (en) | 2011-03-31 | 2012-10-04 | Feinstein David Y | Area selection for hand held devices with display |
US10222974B2 (en) | 2011-05-03 | 2019-03-05 | Nokia Technologies Oy | Method and apparatus for providing quick access to device functionality |
US8656315B2 (en) | 2011-05-27 | 2014-02-18 | Google Inc. | Moving a graphical selector |
US9244605B2 (en) | 2011-05-31 | 2016-01-26 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
DE112011105305T5 (de) | 2011-06-03 | 2014-03-13 | Google, Inc. | Gesten zur Textauswahl |
US20130007606A1 (en) | 2011-06-30 | 2013-01-03 | Nokia Corporation | Text deletion |
US9746995B2 (en) | 2011-07-14 | 2017-08-29 | Microsoft Technology Licensing, Llc | Launcher for context based menus |
US20130050222A1 (en) | 2011-08-25 | 2013-02-28 | Dov Moran | Keyboard with embedded display |
US20130067411A1 (en) | 2011-09-08 | 2013-03-14 | Google Inc. | User gestures indicating rates of execution of functions |
US9262076B2 (en) | 2011-09-12 | 2016-02-16 | Microsoft Technology Licensing, Llc | Soft keyboard interface |
US9785251B2 (en) | 2011-09-14 | 2017-10-10 | Apple Inc. | Actuation lock for a touch sensitive mechanical keyboard |
US20130080962A1 (en) | 2011-09-26 | 2013-03-28 | Mahmoud Razzaghi | Touch screen alpha numeric keyboard |
US20130104068A1 (en) | 2011-10-20 | 2013-04-25 | Microsoft Corporation | Text prediction key |
US8490008B2 (en) | 2011-11-10 | 2013-07-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US20130120268A1 (en) | 2011-11-10 | 2013-05-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9310889B2 (en) | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9715489B2 (en) | 2011-11-10 | 2017-07-25 | Blackberry Limited | Displaying a prediction candidate after a typing mistake |
US9122672B2 (en) | 2011-11-10 | 2015-09-01 | Blackberry Limited | In-letter word prediction for virtual keyboard |
US9652448B2 (en) | 2011-11-10 | 2017-05-16 | Blackberry Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9152323B2 (en) | 2012-01-19 | 2015-10-06 | Blackberry Limited | Virtual keyboard providing an indication of received input |
US9557913B2 (en) | 2012-01-19 | 2017-01-31 | Blackberry Limited | Virtual keyboard display having a ticker proximate to the virtual keyboard |
WO2013123571A1 (en) | 2012-02-24 | 2013-08-29 | Research In Motion Limited | Virtual keyboard with dynamically reconfigurable layout |
EP2631758B1 (de) | 2012-02-24 | 2016-11-02 | BlackBerry Limited | Berührungsbildschirmtastatur mit Wortvorhersagen an Abschnitten der Berührungsbildschirmtastatur in Verbindung mit Bewerberschreiben |
US9223497B2 (en) | 2012-03-16 | 2015-12-29 | Blackberry Limited | In-context word prediction and word correction |
EP2653955B1 (de) | 2012-04-16 | 2017-02-08 | BlackBerry Limited | Verfahren und Vorrichtung mit Berührungsbildschirmtastatur mit visuellen Hinweisen |
CA2812457C (en) | 2012-04-16 | 2017-03-21 | Research In Motion Limited | Method and device having touchscreen keyboard with visual cues |
US20130271385A1 (en) | 2012-04-16 | 2013-10-17 | Research In Motion Limited | Method of Changing Input States |
US9201510B2 (en) | 2012-04-16 | 2015-12-01 | Blackberry Limited | Method and device having touchscreen keyboard with visual cues |
EP2660696B1 (de) | 2012-04-30 | 2014-06-11 | BlackBerry Limited | Verfahren und Vorrichtung zur Textauswahl |
CA2813393C (en) | 2012-04-30 | 2019-10-22 | Research In Motion Limited | Touchscreen keyboard providing word predictions at locations in association with candidate letters |
US9354805B2 (en) | 2012-04-30 | 2016-05-31 | Blackberry Limited | Method and apparatus for text selection |
US9292192B2 (en) | 2012-04-30 | 2016-03-22 | Blackberry Limited | Method and apparatus for text selection |
EP2660727B1 (de) | 2012-04-30 | 2016-10-26 | BlackBerry Limited | Verfahren und Vorrichtung zur Textauswahl |
CA2832392A1 (en) | 2012-04-30 | 2013-11-07 | Jerome Pasquero | Touchscreen keyboard with correction of previously input text |
EP2660697B1 (de) | 2012-04-30 | 2017-03-01 | BlackBerry Limited | Verfahren und Vorrichtung zur Textauswahl |
US10025487B2 (en) | 2012-04-30 | 2018-07-17 | Blackberry Limited | Method and apparatus for text selection |
US20130285927A1 (en) | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard with correction of previously input text |
CA2821814C (en) | 2012-04-30 | 2017-01-10 | Research In Motion Limited | Method and apparatus for text selection |
US20130285916A1 (en) | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard providing word predictions at locations in association with candidate letters |
EP2660699A1 (de) | 2012-04-30 | 2013-11-06 | BlackBerry Limited | Berührungsbildschirmtastatur mit Korrektur von vorher eingegebenem Text |
US9207860B2 (en) | 2012-05-25 | 2015-12-08 | Blackberry Limited | Method and apparatus for detecting a gesture |
US20130342452A1 (en) | 2012-06-21 | 2013-12-26 | Research In Motion Limited | Electronic device including touch-sensitive display and method of controlling a position indicator |
EP2680120B1 (de) | 2012-06-27 | 2018-03-21 | BlackBerry Limited | Berührungsbildschirm-tastatur mit auswahl an wortvorhersagen in unterteilungen der berührungsbildschirmtastatur |
US9116552B2 (en) | 2012-06-27 | 2015-08-25 | Blackberry Limited | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard |
CA2820997C (en) | 2012-07-13 | 2016-10-18 | Research In Motion Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9152319B2 (en) | 2012-07-16 | 2015-10-06 | Avaya Inc. | Method for simplifying a Swype based touch-screen keypad for fast text entry |
EP2703957B1 (de) | 2012-08-31 | 2018-06-06 | BlackBerry Limited | Verfahren zum Auswählen eines Wortes durch Wischen einer kapazitativen Tastatur |
US9524290B2 (en) | 2012-08-31 | 2016-12-20 | Blackberry Limited | Scoring predictions based on prediction length and typing speed |
EP2703955B1 (de) | 2012-08-31 | 2014-11-26 | BlackBerry Limited | Bewertung von Vorhersageergebnissen basierend auf Vorhersagelänge und Eintippgeschwindigkeit |
US20140063067A1 (en) | 2012-08-31 | 2014-03-06 | Research In Motion Limited | Method to select word by swiping capacitive keyboard |
EP2703956B1 (de) | 2012-08-31 | 2014-11-26 | BlackBerry Limited | Bewerten von Vorhersagen basierend auf der Tippgeschwindigkeit und Tippsicherheit |
US9063653B2 (en) | 2012-08-31 | 2015-06-23 | Blackberry Limited | Ranking predictions based on typing speed and typing confidence |
US8850350B2 (en) | 2012-10-16 | 2014-09-30 | Google Inc. | Partial gesture text entry |
KR101380430B1 (ko) | 2012-12-20 | 2014-04-01 | 주식회사 팬택 | 통화 중 편의정보를 제공하는 휴대 단말 및 휴대 단말 상에서 통화 중 편의정보를 제공하는 방법 |
-
2012
- 2012-06-18 EP EP12172458.7A patent/EP2631758B1/de active Active
- 2012-06-18 DE DE112012000189.3T patent/DE112012000189B4/de active Active
- 2012-06-18 US US13/525,576 patent/US9910588B2/en active Active
- 2012-06-18 CN CN201280003919.5A patent/CN103380407B/zh active Active
- 2012-06-18 WO PCT/CA2012/050405 patent/WO2013123572A1/en active Application Filing
- 2012-06-18 GB GB1306290.6A patent/GB2503968B/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100192086A1 (en) | 2006-01-05 | 2010-07-29 | Kenneth Kocienda | Keyboard with Multi-Symbol Icons |
WO2010035574A1 (ja) | 2008-09-29 | 2010-04-01 | シャープ株式会社 | 入力装置、入力方法、プログラム、および記録媒体 |
US20100225599A1 (en) | 2009-03-06 | 2010-09-09 | Mikael Danielsson | Text Input |
WO2012076743A1 (en) | 2010-12-08 | 2012-06-14 | Nokia Corporation | An apparatus and associated methods for text entry |
Also Published As
Publication number | Publication date |
---|---|
DE112012000189T5 (de) | 2013-12-24 |
CN103380407A (zh) | 2013-10-30 |
EP2631758A1 (de) | 2013-08-28 |
WO2013123572A1 (en) | 2013-08-29 |
CN103380407B (zh) | 2017-05-03 |
GB201306290D0 (en) | 2013-05-22 |
US9910588B2 (en) | 2018-03-06 |
GB2503968B (en) | 2021-02-17 |
GB2503968A (en) | 2014-01-15 |
EP2631758B1 (de) | 2016-11-02 |
US20130222249A1 (en) | 2013-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112012000189B4 (de) | Berührungsbildschirm-Tastatur zum Vorsehen von Wortvorhersagen in Partitionen der Berührungsbildschirm-Tastatur in naher Assoziation mit Kandidaten-Buchstaben | |
DE112012000403T5 (de) | Berührungsbildschirm-tastaturmit korrektur von vorher eingegebenem text | |
US20180039335A1 (en) | Touchscreen Keyboard Providing Word Predictions at Locations in Association with Candidate Letters | |
US9134810B2 (en) | Next letter prediction for virtual keyboard | |
US9116552B2 (en) | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard | |
US9122672B2 (en) | In-letter word prediction for virtual keyboard | |
CA2813393C (en) | Touchscreen keyboard providing word predictions at locations in association with candidate letters | |
EP2618248A1 (de) | Virtuelle Tastatur zum Bereitstellen einer Anzeige von empfangener Eingabe | |
EP2680120B1 (de) | Berührungsbildschirm-tastatur mit auswahl an wortvorhersagen in unterteilungen der berührungsbildschirmtastatur | |
DE112013004769T5 (de) | Leerstellenvorhersage für eine Texteingabe | |
CA2817262C (en) | Touchscreen keyboard with corrective word prediction | |
US8589145B2 (en) | Handheld electronic device including toggle of a selected data source, and associated method | |
US9939922B2 (en) | Input method of Chinese pinyin and terminal | |
US8922492B2 (en) | Device and method of inputting characters | |
US20130125035A1 (en) | Virtual keyboard configuration | |
WO2016095051A1 (en) | Predictive text typing employing an augmented computer keyboard | |
DE112011101748B4 (de) | Prädiktive Anzeige auf einer Berührungsbildschirm-Tastatur und Erzeugung eines Satzes von Zeichen | |
Rodrigues et al. | Improving text entry performance on tablet devices | |
KR101380502B1 (ko) | 터치스크린을 가진 전자기기의 드래그 기반 한글입력장치 및 한글입력방법 | |
US20150278176A1 (en) | Providing for text entry by a user of a computing device | |
CA2812033C (en) | Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters | |
EP2660693B1 (de) | Berührungsbildschirm-Tastatur mit Wortvorhersage an Standorten in Verbindung mit Kandidatenschreiben | |
TWI468984B (zh) | 筆劃輸入法 | |
DE112012004224T5 (de) | Erfassung einer an die Leertaste angrenzenden Zeicheneingabe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: BLACKBERRY LIMITED, WATERLOO, CA Free format text: FORMER OWNER: RESEARCH IN MOTION LTD., WATERLOO, ONTARIO, CA Effective date: 20131104 Owner name: BLACKBERRY LIMITED, WATERLOO, CA Free format text: FORMER OWNER: RESEARCH IN MOTION LIMITED, WATERLOO, ONTARIO, CA Effective date: 20140925 |
|
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE Effective date: 20140925 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE Effective date: 20131104 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE Effective date: 20131104 Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE Effective date: 20140925 |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: MALIKIE INNOVATIONS LTD., IE Free format text: FORMER OWNER: BLACKBERRY LIMITED, WATERLOO, ONTARIO, CA |
|
R082 | Change of representative |