DE112011101014T5 - A method of facilitating input to an electronic device - Google Patents

A method of facilitating input to an electronic device Download PDF

Info

Publication number
DE112011101014T5
DE112011101014T5 DE112011101014T DE112011101014T DE112011101014T5 DE 112011101014 T5 DE112011101014 T5 DE 112011101014T5 DE 112011101014 T DE112011101014 T DE 112011101014T DE 112011101014 T DE112011101014 T DE 112011101014T DE 112011101014 T5 DE112011101014 T5 DE 112011101014T5
Authority
DE
Germany
Prior art keywords
touch
character
characters
distance
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011101014T
Other languages
German (de)
Inventor
Noel John Orland STONEHOUSE
Eric Philip LONEY
Daniel James Legg
Jerome Pasquero
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BlackBerry Ltd
Original Assignee
Research in Motion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research in Motion Ltd filed Critical Research in Motion Ltd
Publication of DE112011101014T5 publication Critical patent/DE112011101014T5/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

Ein Verfahren zum Erleichtern einer Eingabe an einer elektronischen Vorrichtung umfasst ein Erfassen einer ersten Berührung an einer ersten Berührungsposition auf einer berührungsempfindlichen Vorrichtung; wobei die erste Berührung mit einem ersten Zeichen assoziiert ist; ein Erfassen einer zweiten Berührung an einer zweiten Berührungsposition auf der berührungsempfindlichen Oberfläche, wobei die zweite Berührung mit einem zweiten Zeichen assoziiert ist; wenn eine Bewegung einer der ersten Berührung und der zweiten Berührung erfasst wird, ein Bestimmen einer Entfernung zwischen der ersten Berührungsposition und der zweiten Berührungsposition, wobei die Entfernung mit einer Anzahl von Zeichen eines Objekts assoziiert ist; ein Identifizieren von Kandidat-Objekten in Referenzdaten, die mit der Anzahl von Zeichen übereinstimmen und ein Anfangszeichen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen umfassen, das mit dem zweiten Zeichen übereinstimmt; und ein Anzeigen zumindest eines Kandidat-Objekts.A method of facilitating input to an electronic device includes detecting a first touch at a first touch position on a touch-sensitive device; wherein the first touch is associated with a first character; detecting a second touch at a second touch position on the touch-sensitive surface, the second touch being associated with a second character; when detecting a movement of one of the first touch and the second touch, determining a distance between the first touch position and the second touch position, wherein the distance is associated with a number of characters of an object; identifying candidate objects in reference data that match the number of characters and include an initial character that matches the first character and a last character that matches the second character; and displaying at least one candidate object.

Figure 00000001
Figure 00000001

Description

TECHNOLOGIEBEREICHTECHNOLOGY AREA

Die vorliegende Offenbarung betrifft tragbare elektronische Vorrichtungen, die eine Berührungseingabe empfangen können, und die Steuerung solcher tragbaren elektronischen Vorrichtungen.The present disclosure relates to portable electronic devices capable of receiving touch input and the control of such portable electronic devices.

HINTERGRUNDBACKGROUND

Elektronische Vorrichtungen, einschließlich tragbare elektronische Vorrichtungen, haben eine weit verbreitete Verwendung erlangt und können eine Vielzahl von Funktionen vorsehen, einschließlich, zum Beispiel, telefonische, elektronische Nachrichten- und andere persönliche Informationsverwaltungs(PIM – personal information manager)-Anwendungs-Funktionen. Tragbare elektronische Vorrichtungen umfassen zum Beispiel mehrere Typen von mobilen Stationen, wie einfache zellulare Telefone, Smartphones, drahtlose persönliche digitale Assistenten (PDAs – Personal Digital Assistants) und Laptop-Computer mit drahtlosen 802.11- oder Bluetooth-Fähigkeiten.Electronic devices, including portable electronic devices, have gained widespread use and can provide a variety of functions, including, for example, telephone, electronic messaging, and other personal information manager (PIM) application functions. Portable electronic devices include, for example, several types of mobile stations, such as simple cellular telephones, smart phones, personal digital assistants (PDAs), and wireless 802.11 or Bluetooth wireless laptop computers.

Tragbare elektronische Vorrichtungen, wie PDAs oder Smartphones, sind im Allgemeinen für eine handgehaltene Verwendung und zur einfachen Portabilität vorgesehen. Kleinere Vorrichtungen sind im Allgemeinen wünschenswert für die Portabilität. Eine berührungsempfindliche Anzeige, auch als eine Berührungsbildschirm-Anzeige bekannt, ist insbesondere nützlich auf handgehaltenen Vorrichtungen, die klein sind und begrenzten Platz haben für eine Benutzereingabe und -ausgabe. Die Information, die auf den berührungsempfindlichen Anzeigen angezeigt wird, kann modifiziert werden abhängig von den Funktionen und Operationen, die durchgeführt werden.Portable electronic devices, such as PDAs or smartphones, are generally intended for handheld use and for ease of portability. Smaller devices are generally desirable for portability. A touch-sensitive display, also known as a touchscreen display, is particularly useful on hand-held devices that are small and have limited space for user input and output. The information displayed on the touch-sensitive displays may be modified depending on the functions and operations being performed.

Verbesserungen in elektronischen Vorrichtungen mit berührungsempfindlichen Anzeigen sind wünschenswert.Improvements in electronic devices with touch-sensitive displays are desirable.

ZUSAMMENFASSUNGSUMMARY

Im Folgenden wird eine Vorrichtung und ein Verfahren zum Erleichtern einer Eingabe an einer elektronischen Vorrichtung beschrieben, wobei das Verfahren umfasst: Erfassen einer ersten Berührung an einer ersten Berührungsposition auf einer berührungsempfindlichen Vorrichtung; wobei die erste Berührung mit einem ersten Zeichen assoziiert ist; Erfassen einer zweiten Berührung an einer zweiten Berührungsposition auf der berührungsempfindlichen Oberfläche, wobei die zweite Berührung mit einem zweiten Zeichen assoziiert ist; wenn eine Bewegung von einer der ersten Berührung und der zweiten Berührung erfasst wird, Bestimmen einer Entfernung zwischen der ersten Berührungsposition und der zweiten Berührungsposition, wobei die Entfernung mit einer Anzahl von Zeichen eines Objekts assoziiert ist; Identifizieren von Kandidat-Objekten in Referenzdaten, die mit der Anzahl von Zeichen übereinstimmen und ein Anfangszeichen umfassen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen, das mit dem zweiten Zeichen übereinstimmt; und Anzeigen zumindest eines Kandidat-Objekts.The following describes an apparatus and method for facilitating input to an electronic device, the method comprising: detecting a first touch at a first touch position on a touch-sensitive device; wherein the first touch is associated with a first character; Detecting a second touch at a second touch location on the touch-sensitive surface, wherein the second touch is associated with a second character; when detecting a movement of one of the first touch and the second touch, determining a distance between the first touch position and the second touch position, wherein the distance is associated with a number of characters of an object; Identifying candidate objects in reference data that match the number of characters and include an initial character that matches the first character and a last character that matches the second character; and displaying at least one candidate object.

In einem anderen Aspekt ist eine elektronische Vorrichtung vorgesehen, die umfasst: ein Gehäuse; eine Anzeige, die von dem Gehäuse freigelegt ist; und funktionale Komponenten in dem Gehäuse, die einen Speicher und einen Prozessor aufweisen, der betriebsfähig mit der Anzeige verbunden ist zum Ausführen eines Programms, das in dem Speicher gespeichert ist, um die elektronische Vorrichtung zu veranlassen zum: Erfassen einer ersten Berührung an einer ersten Berührungsposition auf einer berührungsempfindlichen Oberfläche; wobei die erste Berührung mit einem ersten Zeichen assoziiert ist, Erfassen einer zweiten Berührung an einer zweiten Berührungsposition auf der berührungsempfindlichen Oberfläche, wobei die zweite Berührung mit einem zweiten Zeichen assoziiert ist, Bestimmen einer Entfernung zwischen der ersten Berührungsposition und der zweiten Berührungsposition, wenn eine Bewegung der ersten Berührung erfasst wird, wobei die Entfernung mit einer Anzahl von Zeichen eines Objekts assoziiert ist, Identifizieren von Kandidat-Objekten in Referenzdaten, die mit der Anzahl von Zeichen übereinstimmen, und ein Anfangszeichen umfassen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen, das mit dem zweiten Zeichen übereinstimmt, und Anzeigen zumindest eines Kandidat-Objekts.In another aspect, there is provided an electronic device comprising: a housing; a display exposed from the housing; and functional components in the housing having a memory and a processor operatively connected to the display for executing a program stored in the memory to cause the electronic device to: detect a first touch at a first touch position on a touch-sensitive surface; wherein the first touch is associated with a first character, detecting a second touch at a second touch position on the touch-sensitive surface, wherein the second touch is associated with a second character, determining a distance between the first touch position and the second touch position when moving the first touch is detected, wherein the distance is associated with a number of characters of an object, identifying candidate objects in reference data that match the number of characters, and include an initial character that matches the first character, and a last one Character matching the second character and displaying at least one candidate object.

KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Ausführungsbeispiele der vorliegenden Offenbarung werden nun auf beispielhafte Weise unter Bezugnahme auf die beigefügten Figuren beschrieben, wobei:Embodiments of the present disclosure will now be described by way of example with reference to the accompanying drawings, in which:

1 ein vereinfachtes Blockdiagramm eines Beispiels einer tragbaren elektronischen Vorrichtung gemäß der vorliegenden Erfindung ist; 1 Fig. 10 is a simplified block diagram of an example of a portable electronic device according to the present invention;

2 ein Ablaufdiagramm ist, das ein Beispiel eines Verfahrens zum Erleichtern einer Eingabe an einer elektronischen Vorrichtung gemäß der vorliegenden Erfindung darstellt; 2 Fig. 10 is a flowchart illustrating an example of a method of facilitating an input to an electronic device according to the present invention;

Die 3 bis 7 ein Beispiel einer tragbaren elektronischen Vorrichtung darstellen, die Berührungen in Übereinstimmung mit der vorliegenden Offenbarung empfängt;The 3 to 7 illustrate an example of a portable electronic device that receives touches in accordance with the present disclosure;

Die 8 bis 12 ein weiteres Beispiel einer tragbaren elektronischen Vorrichtung darstellen, die Berührungen in Übereinstimmung mit der vorliegenden Offenbarung empfängt; und The 8th to 12 illustrate another example of a portable electronic device that receives touches in accordance with the present disclosure; and

Die 13 bis 18 ein weiteres Beispiel einer tragbaren elektronischen Vorrichtung darstellen, die Berührungen in Übereinstimmung mit der vorliegenden Offenbarung empfängt.The 13 to 18 illustrate another example of a portable electronic device that receives touches in accordance with the present disclosure.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

Zur Einfachheit und Übersichtlichkeit der Darstellung können Bezugszeichen bei den Figuren wiederholt werden, um entsprechende oder analoge Elemente zu bezeichnen. Zahlreiche Details werden dargelegt, um ein Verständnis der hier beschriebenen Ausführungsbeispiele zu ermöglichen. Die Ausführungsbeispiele können ohne diese Details praktiziert werden. In anderen Instanzen werden weithin bekannte Verfahren, Vorgänge und Komponenten nicht im Detail beschrieben, um ein Verdecken der beschriebenen Ausführungsbeispiele zu vermeiden. Die Beschreibung soll nicht als auf den Umfang der hier beschriebenen Ausführungsbeispiele beschränkt angesehen werden.For simplicity and clarity of illustration, reference numerals may be repeated in the figures to indicate corresponding or analogous elements. Numerous details are set forth in order to provide an understanding of the embodiments described herein. The embodiments may be practiced without these details. In other instances, well-known methods, operations, and components are not described in detail to avoid obscuring the described embodiments. The description is not intended to be limited to the scope of the embodiments described herein.

Die Offenbarung betrifft im Allgemeinen eine elektronische Vorrichtung, die eine tragbare elektronische Vorrichtung in den hier beschriebenen Ausführungsbeispielen ist. Beispiele für tragbare elektronische Vorrichtungen umfassen mobile, oder handgehaltene, drahtlose Kommunikationsvorrichtungen wie Pager, zellulare Telefone, zellulare Smartphones, drahtlose Organizer, Tablets, GPS(Global Positioning System)-Vorrichtungen, persönliche digitale Assistenten, drahtlos betriebsbereite Notebook-Computer, und so weiter. Die tragbare elektronische Vorrichtung kann auch eine tragbare elektronische Vorrichtung ohne drahtlose Kommunikationsfähigkeiten sein, wie eine handgehaltene elektronische Spiele-Vorrichtung, ein digitales Fotoalbum, eine digitale Kamera, oder eine andere Vorrichtung.The disclosure generally relates to an electronic device that is a portable electronic device in the embodiments described herein. Examples of portable electronic devices include mobile or handheld wireless communication devices such as pagers, cellular telephones, cellular smartphones, wireless organizers, tablets, Global Positioning System (GPS) devices, personal digital assistants, wireless notebook computers, and so forth. The portable electronic device may also be a portable electronic device without wireless communication capabilities, such as a handheld electronic game device, a digital photo album, a digital camera, or other device.

Ein Blockdiagramm eines Beispiels einer tragbaren elektronischen Vorrichtung 100 wird in 1 gezeigt. Die tragbare elektronische Vorrichtung 100 umfasst mehrere Komponenten, wie einen Prozessor 102, der den Gesamtbetrieb der tragbaren elektronischen Vorrichtung 100 steuert. Kommunikationsfunktionen, einschließlich Daten- und Sprachkommunikationen, werden durch ein Kommunikationsteilsystem 104 durchgeführt. Daten, die von der tragbaren elektronischen Vorrichtung 100 empfangen werden, werden durch einen Decodierer 106 dekomprimiert und entschlüsselt. Das Kommunikationsteilsystem 104 empfängt Nachrichten von einem drahtlosen Netzwerk 140 und sendet Nachrichten an dieses. Das drahtlose Netzwerk 140 kann jeder Typ eines drahtlosen Netzwerks sein, einschließlich, aber nicht darauf beschränkt, drahtlose Datennetzwerke, drahtlose Sprachnetzwerke, und Netzwerke, die sowohl Sprachals auch Datenkommunikationen unterstützen. Eine Energiequelle 142, wie eine oder mehrere wiederaufladbare Batterien oder ein Anschluss zu einer externen Energieversorgung, versorgt die tragbare elektronische Vorrichtung 100 mit Energie.A block diagram of an example of a portable electronic device 100 is in 1 shown. The portable electronic device 100 includes several components, such as a processor 102 , the overall operation of the portable electronic device 100 controls. Communication functions, including data and voice communications, are provided by a communications subsystem 104 carried out. Data coming from the portable electronic device 100 are received by a decoder 106 decompressed and decrypted. The communication subsystem 104 receives messages from a wireless network 140 and sends messages to this. The wireless network 140 can be any type of wireless network, including, but not limited to, wireless data networks, wireless voice networks, and networks that support both voice and data communications. An energy source 142 such as one or more rechargeable batteries or a connection to an external power supply, powers the portable electronic device 100 with energy.

Der Prozessor 102 interagiert mit anderen Komponenten, wie ein Arbeitsspeicher (RAM – Random Access Memory) 108, ein Speicher 110, ein zusätzliches Eingabe/Ausgabe(E/A bzw. I/O – input/output)-Teilsystem 124, ein Datenanschluss 126, eine Eingabevorrichtung 144, ein Lautsprecher 128, ein Mikrofon 130, Nahbereichskommunikationen 132 und andere Vorrichtungsteilsysteme 134. Der Prozessor 102 interagiert weiter mit einer Anzeige 112 mit einer berührungsempfindlichen Überlagerung 114, die betriebsfähig mit einer elektronischen Steuervorrichtung 116 verbunden ist, die zusammen eine berührungsempfindliche Anzeige 118 bilden. Die tragbare elektronische Vorrichtung 100 kann alternativ mit einer Anzeige interagieren, die nicht berührungsempfindlich ist, wie eine Flüssigkristallanzeige (LCD – liquid crystal display), zum Beispiel. Wenn die tragbare elektronische Vorrichtung eine LCD umfasst, kann eine berührungsempfindliche Vorrichtung auf der tragbaren elektronischen Vorrichtung 100 vorgesehen sein, um mit dem Prozessor 102 zu interagieren. Die berührungsempfindliche Vorrichtung kann auf ähnliche Weise wie die berührungsempfindliche Anzeige funktionieren, um eine Benutzereingabe zu erfassen.The processor 102 interacts with other components, such as RAM (Random Access Memory) 108 , a store 110 , an additional input / output (I / O) input / output subsystem 124 , a data connection 126 , an input device 144 , a speaker 128 , a microphone 130 , Short-range communications 132 and other device subsystems 134 , The processor 102 continues to interact with an ad 112 with a touch-sensitive overlay 114 that is operational with an electronic control device 116 connected, which together a touch-sensitive display 118 form. The portable electronic device 100 may alternatively interact with a display that is not touch-sensitive, such as a liquid crystal display (LCD), for example. When the portable electronic device includes an LCD, a touch-sensitive device may be mounted on the portable electronic device 100 be provided with the processor 102 to interact. The touch-sensitive device may function in a manner similar to the touch-sensitive display to detect user input.

Der Prozessor 102 kann optional mit einem oder mehreren Aktuatoren 120, um eine taktile Rückmeldung vorzusehen, und einem oder mehreren Kraftsensoren 122 interagieren, um eine Kraft zu erfassen, die auf die berührungsempfindliche Anzeige 118 ausgeübt wird. Eine Interaktion mit einer graphischen Benutzerschnittstelle wird durch die berührungsempfindliche Überlagerung 114 durchgeführt. Der Prozessor 102 interagiert mit der berührungsempfindlichen Überlagerung 114 über die elektronische Steuervorrichtung 116. Information, wie Text, Zeichen, Symbole, Bilder, Icons und andere Elemente, die auf einer tragbaren elektronischen Vorrichtung angezeigt oder dargestellt werden können, wird auf der berührungsempfindlichen Anzeige 118 über den Prozessor 102 angezeigt. Der Prozessor 102 kann mit einem Ausrichtungssensor interagieren, wie einem Beschleunigungssensor 136, der verwendet werden kann, um eine Richtung von Gravitationskräften oder Gravitations-induzierten Reaktionskräften zu erfassen.The processor 102 can be optional with one or more actuators 120 to provide tactile feedback, and one or more force sensors 122 interact to capture a force on the touch-sensitive display 118 is exercised. An interaction with a graphical user interface is through the touch-sensitive overlay 114 carried out. The processor 102 interacts with the touch-sensitive overlay 114 via the electronic control device 116 , Information such as text, characters, symbols, pictures, icons, and other items that may be displayed or displayed on a portable electronic device is displayed on the touch-sensitive display 118 over the processor 102 displayed. The processor 102 can interact with an alignment sensor, such as an accelerometer 136 , which can be used to detect a direction of gravitational forces or gravitational induced reaction forces.

Um einen Teilnehmer für einen Netzwerkzugang zu identifizieren, verwendet die tragbare elektronische Vorrichtung 100 eine SIM/RUIM(Subscriber Identity Module oder Removable User Identity Module)-Karte 138 zur Kommunikation mit einem Netzwerk, wie dem drahtlosen Netzwerk 140. Alternativ kann eine Benutzeridentifizierungsinformation in den Speicher 110 programmiert werden.To identify a subscriber for network access, the portable electronic device uses 100 a SIM / RUIM (Subscriber Identity Module or Removable User Identity Module) card 138 for communication with a network, such as the wireless network 140 , Alternatively, user identification information may be stored in the memory 110 be programmed.

Die tragbare elektronische Vorrichtung 100 umfasst ein Betriebssystem 146 und Software-Programme oder -Komponenten 148, die durch den Prozessor 102 ausgeführt werden und typischerweise in einem persistenten aktualisierbaren Speicher gespeichert werden, wie dem Speicher 110. Zusätzliche Anwendungen oder Programme können auf die tragbare elektronische Vorrichtung 100 geladen werden über das drahtlose Netzwerk 140, das Hilfs-E/A-Teilsystem 124, den Datenanschluss 126, das Nahbereichskommunikationsteilsystem 132 oder jedes andere geeignete Teilsystem 134.The portable electronic device 100 includes an operating system 146 and software programs or components 148 that through the processor 102 are executed and typically stored in persistent updatable memory, such as the memory 110 , Additional applications or programs may be on the portable electronic device 100 be charged via the wireless network 140 , the auxiliary I / O subsystem 124 , the data connection 126 , the short-range communication subsystem 132 or any other suitable subsystem 134 ,

Ein empfangenes Signal, wie eine Textnachricht, eine Email-Nachricht oder eine heruntergeladene Webseite, wird durch das Kommunikationsteilsystem 104 verarbeitet und in den Prozessor 102 eingegeben. Der Prozessor 102 verarbeitet das empfangene Signal zur Ausgabe an die Anzeige 112 und/oder das Hilfs-E/A-Teilsystem 124. Ein Teilnehmer kann Datenelemente erzeugen, zum Beispiel Email-Nachrichten, die über das drahtlose Netzwerk 140 durch das Kommunikationsteilsystem 104 übertragen werden können. Für Sprachkommunikationen ist der Gesamtbetrieb der tragbaren elektronischen Vorrichtung 100 ähnlich. Der Lautsprecher 128 gibt hörbare Information aus, die aus elektrischen Signalen umgewandelt wird, und das Mikrofon 130 wandelt hörbare Information in elektrische Signale um zur Verarbeitung.A received signal, such as a text message, an e-mail message or a downloaded web page, is transmitted by the communication subsystem 104 processed and in the processor 102 entered. The processor 102 processes the received signal for output to the display 112 and / or the auxiliary I / O subsystem 124 , A subscriber can generate data elements, for example e-mail messages, over the wireless network 140 through the communication subsystem 104 can be transmitted. For voice communications, the overall operation of the portable electronic device is 100 similar. The speaker 128 outputs audible information that is converted from electrical signals and the microphone 130 converts audible information into electrical signals for processing.

Die berührungsempfindliche Anzeige 118 kann jede geeignete berührungsempfindliche Anzeige sein, wie eine kapazitive, resistive, Infrarot-, „akustische Oberflächenwelle (SAW – surface acoustic wave)” berührungsempfindliche Anzeige, Dehnungsmesser, optische Abbildung, dispersive Signaltechnologie, akustische Pulserkennung, und so weiter, wie in der Technik bekannt ist. Eine kapazitive berührungsempfindliche Anzeige kann eine kapazitive berührungsempfindliche Überlagerung 114 umfassen. Die Überlagerung 114 kann eine Anordnung von mehreren Schichten in einem Stapel sein, der zum Beispiel ein Substrat, eine Masseabschirmungsschicht, eine Sperrschicht, eine oder mehrere kapazitive Berührungssensor-Schichten, die durch ein Substrat oder eine andere Barriere getrennt sind, und eine Abdeckung umfasst. Die kapazitiven Berührungssensor-Schichten können jedes geeignete Material aufweisen, wie gemustertes Indium-Zinn-Oxid (ITO – indium tin oxide).The touch-sensitive display 118 may be any suitable touch-sensitive display, such as a Capacitive, Resistive, Infrared, Surface Acoustic Wave (SAW) touch-sensitive display, strain gauge, optical imaging, dispersive signal technology, acoustic pulse detection, and so on, as known in the art is. A capacitive touch-sensitive display may include a capacitive touch-sensitive overlay 114 include. The overlay 114 may be an array of multiple layers in a stack, including, for example, a substrate, a ground shield layer, a barrier layer, one or more capacitive touch sensor layers separated by a substrate or other barrier, and a cover. The capacitive touch-sensing layers may comprise any suitable material, such as patterned indium tin oxide (ITO).

Eine oder mehrere Berührungen, auch als Berührungskontakte oder Berührungsereignisse bekannt, können von der berührungsempfindlichen Anzeige 118 erfasst werden. Der Prozessor 102 kann Attribute der Berührung bestimmen, einschließlich zum Beispiel einer Position der Berührung. Berührungspositionsdaten können einen Kontaktbereich oder einen einzelnen Kontaktpunkt umfassen, wie einen Punkt an oder nahe einer Mitte des Kontaktbereichs. Die Position einer erfassten Berührung kann x- und y-Komponenten umfassen, zum Beispiel horizontale beziehungsweise vertikale Komponenten, in Bezug auf eine Ansicht der berührungsempfindlichen Anzeige 118. Zum Beispiel kann die x-Positions-Komponente bestimmt werden durch ein Signal, das von einem Berührungssensor erzeugt wird, und die y-Positions-Komponente kann bestimmt werden durch ein Signal, das von einem anderen Berührungssensor erzeugt wird. Ein Signal wird an die Steuervorrichtung 116 geliefert in Reaktion auf ein Erfassen einer Berührung. Eine Berührung kann von jedem geeigneten Objekt erfasst werden, wie einem Finger, Daumen, Gliedmaß oder anderen Elementen, zum Beispiel ein Stylus, Stift oder anderer Zeiger, abhängig von dem Typ der berührungsempfindlichen Anzeige 118. Mehrere gleichzeitige Berührungen können erfasst werden.One or more touches, also known as touch contacts or touch events, may be from the touch-sensitive display 118 be recorded. The processor 102 can determine attributes of the touch, including, for example, a position of the touch. Touch position data may include a contact area or a single contact point, such as a point at or near a center of the contact area. The position of a sensed touch may include x and y components, for example, horizontal and vertical components, respectively, with respect to a view of the touch-sensitive display 118 , For example, the x-position component may be determined by a signal generated by a touch sensor, and the y-position component may be determined by a signal generated by another touch sensor. A signal is sent to the control device 116 delivered in response to detecting a touch. A touch may be detected by any suitable object, such as a finger, thumb, limb, or other elements, such as a stylus, pen, or other pointer, depending on the type of touch-sensitive display 118 , Multiple simultaneous touches can be detected.

Die berührungsempfindliche Anzeige 118 ist auch konfiguriert, um eine Geste zu erfassen. Eine Geste, wie eine Wischbewegung bzw. ein Swipe, ist ein Typ einer Berührung, die an einem Anfangspunkt beginnt und zu einem Endpunkt weitergeht, während der Berührungskontakt beibehalten wird. Eine Wischbewegung kann lang oder kurz in der Entfernung oder der Dauer oder sowohl in Entfernung als auch Dauer sein. Zwei Punkte der Wischbewegung können verwendet werden, um einen Vektor zu bestimmen, der eine Richtung der Wischbewegung beschreibt. Die Richtung kann in Bezug auf die berührungsempfindliche Anzeige 118, die Ausrichtung der Information, die auf der berührungsempfindlichen Anzeige 118 angezeigt wird, oder eine andere Referenz referenziert werden. Für die Zweck eines Vorsehens einer Referenz ist „horizontal”, wie hier verwendet, im Wesentlichen von links nach rechts oder von rechts nach links relativ zu der Ausrichtung der angezeigten Information, und „vertikal”, wie hier verwendet, ist im Wesentlichen nach oben oder nach unten relativ zu der Ausrichtung der angezeigten Information. Der Anfangspunkt und der Endpunkt der Wischbewegung können verwendet werden, um den Umfang oder die Entfernung der Wischbewegung zu bestimmen. Die Dauer der Wischbewegung kann aus dem Anfangspunkt und dem Endpunkt der Wischbewegung in der Zeit bestimmt werden. Der Prozessor 102 empfängt Daten von der Steuervorrichtung 116, um die Richtung, den Umfang und die Dauer der Wischbewegung zu bestimmen. Die Geste kann verfolgt werden und eine Vielzahl von Teilvektoren für jede Geste bestimmt werden. Der letzte Teilvektor kann verwendet werden, um eine Entfernung und Dauer eines letzten Teils der Geste zu bestimmen. Der Prozessor 102 empfängt Daten von der Steuervorrichtung 116, um die Geschwindigkeit der Wischbewegung basierend auf der Entfernung und der Dauer des letzten Teils der Geste zu bestimmen.The touch-sensitive display 118 is also configured to capture a gesture. A gesture, such as a swipe, is a type of touch that begins at a start point and continues to an end point while maintaining touch contact. A swipe may be long or short in distance or duration, or both in distance and duration. Two points of the swipe can be used to determine a vector that describes a direction of swipe. The direction may be in relation to the touch-sensitive display 118 , the orientation of the information on the touch-sensitive display 118 is displayed, or another reference can be referenced. For the purpose of providing a reference, "horizontal" as used herein is substantially left to right or right to left relative to the orientation of the displayed information, and "vertical" as used herein is substantially up or down relative to the orientation of the displayed information. The starting point and the end point of the wiping movement can be used to determine the extent or distance of the wiping movement. The duration of the wiping movement can be determined from the starting point and the end point of the wiping movement in time. The processor 102 receives data from the controller 116 to determine the direction, extent and duration of the wiping movement. The gesture can be tracked and a variety of sub-vectors determined for each gesture. The last subvector can be used to determine a distance and duration of a last part of the gesture. The processor 102 receives data from the controller 116 to determine the speed of the swipe based on the distance and duration of the last part of the gesture.

2 ist ein Ablaufdiagramm, das ein Beispiel eines Verfahrens zur Erleichterung einer Eingabe an einer elektronischen Vorrichtung darstellt. Das Verfahren kann durch Software ausgeführt werden, die zum Beispiel durch den Prozessor 102 ausgeführt wird. Ein Codieren von Software zur Ausführung eines solchen Verfahrens liegt angesichts der vorliegenden Beschreibung im Anwendungsbereich eines Fachmanns in der Technik. Das Verfahren kann zusätzliche oder weniger Prozesse enthalten, als gezeigt und beschrieben wurden, und kann in einer anderen Reihenfolge durchgeführt werden. Computerlesbarer Code, der zum Beispiel durch den Prozessor 102 der tragbaren elektronischen Vorrichtung 100 ausführbar ist, um das Verfahren durchzuführen, kann in einem computerlesbaren Medium, wie einem nicht-transitorischen computerlesbaren Medium, gespeichert werden. 2 FIG. 10 is a flowchart illustrating an example of a method for facilitating input to an electronic device. FIG. The method may be performed by software, for example, by the processor 102 is performed. Coding software to perform such a method is within the scope of a person skilled in the art in light of the present description. The method may include additional or fewer processes than shown and described, and may be performed in a different order. Computer-readable code, for example, by the processor 102 portable electronic device 100 is executable to perform the method may be stored in a computer readable medium, such as a non-transitory computer readable medium.

Gemäß dem Verfahren von 2 werden eine erste Berührung und eine zweite Berührung 200, 202 auf einer berührungsempfindlichen Vorrichtung erfasst, wie der berührungsempfindlichen Anzeige 118. Die erste Berührung ist mit einem ersten Zeichen einer Tastatur assoziiert und die zweite Berührung ist mit einem zweiten Zeichen einer Tastatur assoziiert. Die Tastatur kann jede Anordnung von auswählbaren Zeichen sein, wie zum Beispiel eine physikalische Tastatur oder eine virtuelle Tastatur. Zusätzlich kann die Tastatur zum Beispiel Zeichen der englischen Sprache oder Zeichen umfassen, die mit einer anderen Sprache assoziiert sind.According to the method of 2 be a first touch and a second touch 200 . 202 detected on a touch-sensitive device, such as the touch-sensitive display 118 , The first touch is associated with a first character of a keyboard and the second touch is associated with a second character of a keyboard. The keyboard may be any arrangement of selectable characters, such as a physical keyboard or a virtual keyboard. In addition, the keyboard may include, for example, English language characters or characters associated with another language.

Nach der Erfassung der ersten Berührung und der zweiten Berührung werden übereinstimmende Kandidat-Objekte in Referenzdaten mit einem Anfangszeichen, das mit dem ersten Zeichen übereinstimmt, und einem letzten Zeichen, das mit dem zweiten Zeichen übereinstimmt, identifiziert 204. Die Referenzdaten sind durchsuchbar und können als Teil einer prädiktiven Textanwendung vorgesehen sein. Die Referenzdaten können verschiedene Typen von linguistischen Objekten umfassen, wie zum Beispiel Wörterbucheinträge, Kontaktdatensätze, die in einer Kontaktdatenbank gespeichert sind, und Akronyme. Die prädiktive Textanwendung kann die Referenzdaten modifizieren, um Objekte hinzuzufügen, wenn ein Objekt, wie ein Wort oder ein Satz von Zeichen, das nicht bereits enthalten ist, durch den Benutzer eingegeben wird.Upon detection of the first touch and the second touch, matching candidate objects are identified in reference data having an initial character that matches the first character and a last character that matches the second character 204 , The reference data is searchable and may be provided as part of a predictive text application. The reference data may include various types of linguistic objects, such as dictionary entries, contact records stored in a contact database, and acronyms. The predictive text application may modify the reference data to add objects when an object, such as a word or a set of characters that is not already included, is input by the user.

Ein wahrscheinlichstes Kandidat-Objekt kann bestimmt werden durch Ordnen bzw. in Reihenfolge bringen der übereinstimmenden Kandidat-Objekte basierend auf einem Kriterium, wie zum Beispiel Häufigkeit einer Benutzereingabe, früher eingegebene(s) Wort/Wörter, alphabetische Position oder Kontext, wie aktive Anwendung. Das ausgewählte Kriterium kann basierend auf der prädiktiven Textanwendung bestimmt werden. Ein in Reihenfolge bringen der übereinstimmenden Kandidat-Objekte kann durchgeführt werden, wenn die übereinstimmenden Kandidat-Objekte in den Referenzdaten identifiziert werden 204 oder nach der Identifizierung 204 aller übereinstimmenden Kandidat-Objekte.A most probable candidate object may be determined by ordering the matching candidate objects based on a criterion such as frequency of user input, previously entered word (s), alphabetic position or context, such as active application. The selected criterion can be determined based on the predictive text application. Ordering the matching candidate objects may be performed if the matching candidate objects in the reference data are identified 204 or after identification 204 of all matching candidate objects.

Weiter unter Bezugnahme auf 2 wird dann das wahrscheinlichste Kandidat-Objekt angezeigt 206. Wenn keine Bewegung von einer oder beiden der ersten Berührung und der zweiten Berührung erfasst wird 208 und sowohl die erste Berührung als auch die zweite Berührung beendet ist 216, wird das wahrscheinlichste Kandidat-Objekt in einem Textfeld 218 angezeigt.Further referring to 2 then the most likely candidate object is displayed 206 , If no movement is detected by either or both of the first touch and the second touch 208 and both the first touch and the second touch are completed 216 , becomes the most likely candidate object in a text box 218 displayed.

Wenn eine Bewegung von einer oder beiden der ersten Berührung und der zweiten Berührung erfasst wird 208, wird eine Entfernung zwischen der ersten Berührung und der zweiten Berührung bestimmt 210. Die Entfernung zwischen der ersten Berührung und der zweiten Berührung ist mit einer Anzahl von Zeichen eines Objekts assoziiert. Übereinstimmende Kandidat-Objekte werden dann in Referenzdaten identifiziert 212. Die Referenzdaten sind durchsuchbar, um Kandidat-Objekte zu identifizieren, die die Anzahl von Zeichen haben, die assoziiert ist mit der Entfernung zwischen der ersten Berührung und der zweiten Berührung, und ein Anfangszeichen umfassen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen, das mit dem zweiten Zeichen übereinstimmt. Das wahrscheinlichste Kandidat-Objekt wird dann bestimmt durch in Reihenfolge bringen der übereinstimmenden Kandidat-Objekte basierend auf einem Kriterium. Von den übereinstimmenden Kandidat-Objekten wird ein wahrscheinlichstes Kandidat-Objekt angezeigt 214.When a Movement of one or both of the first touch and the second touch is detected 208 , a distance between the first touch and the second touch is determined 210 , The distance between the first touch and the second touch is associated with a number of characters of an object. Matching candidate objects are then identified in reference data 212 , The reference data is searchable to identify candidate objects having the number of characters associated with the distance between the first touch and the second touch, and including an initial character that matches the first character and a last character that matches the second character. The most probable candidate object is then determined by ranking the matching candidate objects based on a criterion. Of the matching candidate objects, a most likely candidate object is displayed 214 ,

Wenn eine weitere Bewegung von einer oder beiden der ersten Berührung und der zweiten Berührung stattfindet 208, wird eine aktualisierte Entfernung zwischen der ersten Berührung und der zweiten Berührung bestimmt 210 und übereinstimmende Kandidat-Objekte werden dann in Referenzdaten identifiziert 212. Die aktualisierte Entfernung kann eine horizontale Entfernung zwischen der ersten Berührung und der zweiten Berührung sein, die der Richtung eines eingegebenen Texts auf der berührungsempfindlichen Anzeige 118 entspricht, oder eine absolute Entfernung zwischen der ersten Berührung und der zweiten Berührung. Die aktualisierte Entfernung kann mit einer unterschiedlichen Anzahl von Zeichen eines Objekts assoziiert sein als die zuvor bestimmte Entfernung. Das wahrscheinlichste Kandidat-Objekt der übereinstimmenden Kandidat-Objekte wird dann angezeigt 214. Eine weitere Bewegung von einer oder beiden der ersten Berührung und der zweiten Berührung kann in der Anzeige 214 von anderen wahrscheinlichsten Kandidat-Objekten resultieren, die mit einer anderen Anzahl von Zeichen assoziiert sind. Wenn sowohl die erste Berührung als auch die zweite Berührung beendet sind 216, wird das wahrscheinlichste Kandidat-Objekt in einem Textfeld angezeigt 218.When another movement of one or both of the first touch and the second touch occurs 208 , an updated distance between the first touch and the second touch is determined 210 and matching candidate objects are then identified in reference data 212 , The updated distance may be a horizontal distance between the first touch and the second touch, that of the direction of an input text on the touch-sensitive display 118 corresponds to, or an absolute distance between the first touch and the second touch. The updated distance may be associated with a different number of characters of an object than the previously determined distance. The most likely candidate object of the matching candidate objects is then displayed 214 , Another movement of one or both of the first touch and the second touch may be in the display 214 from other most likely candidate objects associated with a different number of characters. When both the first touch and the second touch are finished 216 , the most likely candidate object is displayed in a text box 218 ,

Die Entfernung zwischen der ersten Berührung und der zweiten Berührung kann mit einer Anzahl von Zeichen eines Objekts assoziiert werden durch Bestimmen einer Referenzentfernung, die der Entfernungentsprechen kann, die bestimmt wird, wenn eine Bewegung von einer oder beiden der Berührungen das erste Mal erfasst wird. Eine Anzahl von Zeichen kann dann mit der Referenzentfernung basierend auf einem Verhältnis der Entfernung relativ zu einer Anzeigenbreite assoziiert werden. Zum Beispiel kann eine Entfernung, die etwa 75% der Anzeigenbreite beträgt, mit einem Zehn-Zeichen-Objekt assoziiert werden und eine Entfernung, die etwa 25% der Anzeigenbreite beträgt, kann mit einem Drei-Zeichen-Objekt assoziiert werden. Die aktualisierten Entfernungen können mit der Referenzentfernung verglichen werden. Alternativ kann die Referenzentfernung nach einer Berührungsbewegung aktualisiert werden, so dass die aktualisierten Entfernungen mit Entfernungen verglichen werden, die nach der vorherigen Berührungsbewegung bestimmt werden. Zum Beispiel kann der Benutzer die Entfernung zwischen seinen oder ihren Daumen vergrößern, um eine Liste von Objekten anzuzeigen, die mehr Zeichen als eine aktuell angezeigte Liste haben, oder der Benutzer kann die Entfernung verringern, um eine Liste von Objekten mit weniger Zeichen als die aktuell angezeigte Liste anzuzeigen. Wenn keine übereinstimmenden Kandidat-Objekte für eine bestimmte Objektlänge identifiziert werden, können übereinstimmende Kandidat-Objekte für die nächste Objektlänge angezeigt werden ohne zusätzliche Bewegung von einer oder beiden Berührungen. Der Benutzer kann weiter einen oder beide Daumen bewegen, bis die gewünschte Anzahl von Zeichen erreicht ist.The distance between the first touch and the second touch may be associated with a number of characters of an object by determining a reference distance that may correspond to the distance that is determined when a movement of one or both of the touches is detected for the first time. A number of characters may then be associated with the reference distance based on a ratio of the distance relative to a display width. For example, a distance that is about 75% of the display width may be associated with a ten character object, and a distance that is about 25% of the display width may be associated with a three character object. The updated distances can be compared to the reference distance. Alternatively, the reference distance may be updated after a touch movement so that the updated distances are compared to distances determined after the previous touch movement. For example, the user may increase the distance between his or her thumb to display a list of objects that have more characters than a list currently displayed, or the user may decrease the distance to a list of objects with fewer characters than the current one display the displayed list. If no matching candidate objects are identified for a particular object length, matching candidate objects may be displayed for the next object length without additional movement of one or both touches. The user may continue to move one or both thumbs until the desired number of characters is reached.

Das Ablaufdiagramm von 2 ist für den Zweck der Erläuterung vereinfacht. Zusätzliche oder weniger Schritte können ausgeführt werden. Zum Beispiel kann das wahrscheinlichste Kandidat-Objekt als Teil einer Liste von Kandidat-Objekten in Reihenfolge vorgesehen werden. Zusätzlich kann eine Identifikation 204 von übereinstimmenden Kandidat-Objekten in Referenzdaten und eine Anzeige 206 eines wahrscheinlichsten Kandidat-Objekts nicht stattfinden, bevor eine Bewegung der ersten und/oder der zweiten Berührung erfasst wird 208.The flowchart of 2 is simplified for the purpose of explanation. Additional or fewer steps can be performed. For example, the most likely candidate object may be provided as part of a list of candidate objects in order. In addition, an identification 204 of matching candidate objects in reference data and an ad 206 a most likely candidate object does not take place before a movement of the first and / or the second touch is detected 208 ,

Eine Vorderansicht eines Beispiels einer tragbaren elektronischen Vorrichtung 100 wird in 3 gezeigt. Die tragbare elektronische Vorrichtung 100 umfasst ein Gehäuse 300, das die internen Komponenten umfasst, die in 1 gezeigt werden, und die berührungsempfindliche Anzeige 118 umrahmt, so dass eine äußere Oberfläche der berührungsempfindlichen Anzeige 118 für eine Benutzerinteraktion exponiert ist, wenn die tragbare elektronische Vorrichtung 100 benutzt wird. In dem in 3 gezeigten Beispiel umfasst die berührungsempfindliche Anzeige 118 eine virtuelle Tastatur 302, die linke und rechte Teile umfasst zur Benutzereingabe von Daten in der Form von beispielsweise Zeichen während des Betriebs der tragbaren elektronischen Vorrichtung 100. Daten können auch in der Form von Zahlen oder Symbolen eingegeben werden, auf die durch Auswählen einer Umschalttaste 306 von der virtuellen Tastatur 302 zugegriffen werden kann. Alternativ kann die virtuelle Tastatur 302 obere und/oder untere Teile umfassen zur Erleichterung einer Eingabe von Zahlen und Symbolen zum Beispiel.A front view of an example of a portable electronic device 100 is in 3 shown. The portable electronic device 100 includes a housing 300 that includes the internal components that are in 1 and the touch-sensitive display 118 framed, leaving an outer surface of the touch-sensitive display 118 for a user interaction when the portable electronic device 100 is used. In the in 3 The example shown comprises the touch-sensitive display 118 a virtual keyboard 302 comprising left and right parts for user input of data in the form of, for example, characters during operation of the portable electronic device 100 , Data may also be entered in the form of numbers or symbols, by clicking on a shift key 306 from the virtual keyboard 302 can be accessed. Alternatively, the virtual keyboard 302 upper and / or lower parts include for ease of input of numbers and symbols, for example.

Ein Bereich auf der berührungsempfindlichen Überlagerung 114, der mit einer Taste der virtuellen Tastatur 302 derart assoziiert ist, dass eine Berührung irgendwo auf diesem Bereich zu einer Auswahl eines Zeichens führt, entspricht dem Bereich der entsprechenden dargestellten Repräsentation auf der berührungsempfindlichen Anzeige 118. Der Bereich kann größer oder kleiner sein als die dargestellte Repräsentation auf der berührungsempfindlichen Anzeige 118.An area on the touch-sensitive overlay 114 Using a virtual keyboard key 302 is such that a touch somewhere on this area results in a selection of a character corresponds to the area of the corresponding represented representation on the touch-sensitive display 118 , The range may be greater or less than the represented representation on the touch-sensitive display 118 ,

Weiter wird Bezug genommen auf 2, unter zusätzlicher Bezugnahme auf die 3 bis 7, um ein Beispiel für ein Verfahren zur Erleichterung einer Eingabe an der tragbaren elektronischen Vorrichtung 100 zu beschreiben. In dem vorliegenden Beispiel wird die Tastatur 302 auf der berührungsempfindlichen Anzeige 118 dargestellt für eine Benutzereingabe von Daten in Felder einer Anwendung, wie einer Email-Anwendung.Further, reference is made to 2 , with additional reference to the 3 to 7 to give an example of a method for facilitating input to the portable electronic device 100 to describe. In the present example, the keyboard becomes 302 on the touch-sensitive display 118 presented for user input of data into fields of an application, such as an e-mail application.

Für den Zweck der vorliegenden Erläuterung hat der Benutzer während eines Verfassens einer Email bereits Zeichen in ein Textfeld eingegeben. In diesem Beispiel ist das Textfeld ein Hauptteil 304 einer Email. Wie gezeigt, berührt der Benutzer die berührungsempfindliche Anzeige 118 an einer Position, die dem Zeichen „s” entspricht, mit einem linken Daumen und an einer Position, die dem Zeichen „n” entspricht, mit einem rechten Daumen. Übereinstimmende Kandidat-Objekte mit einem Anfangszeichen, das mit „s” übereinstimmt, und einem letzten Zeichen, das mit „n” übereinstimmt, werden in Referenzdaten identifiziert 204 und „section”, das als das wahrscheinlichste Kandidat-Objekt bestimmt wird, wird angezeigt 206.For the purposes of the present discussion, the user has already entered characters in a text field while composing an email. In this example, the text box is a major part 304 an email. As shown, the user touches the touch-sensitive display 118 at a position corresponding to the character "s" with a left thumb and at a position corresponding to the character "n" with a right thumb. Matching candidate objects with an initial character that matches "s" and a last character that matches "n" are identified in reference data 204 and "section", which is determined to be the most likely candidate object, is displayed 206 ,

Wenn „section” nicht das einzugebende Objekt ist, bewegt der Benutzer beide Berührungspositionen aufeinander zu auf ungefähr eine Länge des Worts, das der Benutzer eingeben möchte, wie in 4 gezeigt. Nach dem Erfassen 208 der Berührungsbewegung wird eine Entfernung zwischen der ersten Berührung und der zweiten Berührung bestimmt 210. Der Entfernung ist mit acht Zeichen assoziiert und Kandidat-Objekte mit acht Zeichen, einem Anfangszeichen „s”. und einem letzten Zeichen „n” werden dann in Referenzdaten identifiziert 212. Eine Reihenfolge-Liste von übereinstimmenden Kandidat-Objekten wird dann angezeigt 214: „sanction”, „skeleton” und „sanation”, mit dem wahrscheinlichsten Kandidat-Objekt, „salesman”, hervorgehoben am Anfang der Liste.If "section" is not the object to be entered, the user moves both touch positions toward each other to approximately one length of the object Words the user wants to type, as in 4 shown. After capturing 208 the contact movement determines a distance between the first touch and the second touch 210 , The distance is associated with eight characters and candidate objects with eight characters, an initial character "s". and a last character "n" are then identified in reference data 212 , An order list of matching candidate objects is then displayed 214 : "Sanction", "skeleton" and "sanation", with the most likely candidate object, "salesman", highlighted at the top of the list.

Wenn das Objekt, das der Benutzer einzugeben wünscht, kein Objekt mit acht Zeichen ist, bewegt der Benutzer beide Berührungspositionen, um eine andere Objektlänge ungefähr anzugeben. In dem vorliegenden Beispiel bewegt der Benutzer seine oder ihre Daumen zueinander, um ein Objekt mit weniger Zeichen ungefähr anzugeben. Nach einem Erfassen 208 der Berührungsbewegung wird eine aktualisierte Entfernung zwischen der ersten Berührung und der zweiten Berührung bestimmt 210. Wie in 5 gezeigt, ist die aktualisierte Entfernung mit vier Zeichen assoziiert. Kandidat-Objekte mit vier Zeichen, einem Anfangszeichen „s” und einem letzten Zeichen „n” werden in Referenzdaten identifiziert 212 und eine Reihenfolge-Liste von übereinstimmenden Kandidat-Objekten wird dann angezeigt 214. Die Liste umfasst: „scan”, das das wahrscheinlichste Kandidat-Objekt hervorgehoben am Anfang der Liste ist, „seen”, „sewn” und „soon”.If the object the user desires to input is not an eight character object, the user moves both touch locations to approximately specify a different object length. In the present example, the user moves his or her thumbs to each other to approximately specify an object with fewer characters. After a capture 208 the touch movement is determined an updated distance between the first touch and the second touch 210 , As in 5 shown, the updated distance is associated with four characters. Candidate objects with four characters, an initial character "s" and a last character "n" are identified in reference data 212 and an order list of matching candidate objects is then displayed 214 , The list includes: "scan", which is the most likely candidate object highlighted at the top of the list, "seen", "sewn" and "soon".

Wenn das Objekt, das der Benutzer einzugeben wünscht, nicht „scan”, das hervorgehoben ist, aber ein Objekt mit vier Buchstaben ist, beendet der Benutzer eine der Berührungen. Wie in 6 gezeigt, wird der Berührungskontakt zwischen der berührungsempfindlichen Anzeige 118 und dem linken Daumen beendet. Der Benutzer bewegt dann den rechten Daumen auf der berührungsempfindlichen Anzeige 118 nach oben und/oder nach unten, um durch die Liste der Kandidat-Objekte in Reihenfolge zu scrollen. Da die Liste basierend auf einem Kriterium geordnet ist, wie Häufigkeit einer Verwendung, muss der Benutzer im Allgemeinen nicht durch die gesamte Liste scrollen, die umfangreich sein kann.If the object the user desires to input is not "scan", which is highlighted, but is a four-letter object, the user ends one of the touches. As in 6 is shown, the touch contact between the touch-sensitive display 118 and the left thumb finished. The user then moves the right thumb on the touch-sensitive display 118 up and / or down to scroll through the list of candidate objects in order. Since the list is ordered based on a criterion, such as frequency of use, the user generally does not have to scroll through the entire list, which can be extensive.

Die Objekte in der Liste werden in Reaktion auf eine Bewegung der Berührungsposition hervorgehoben. Wenn das Wort, das der Benutzer auszuwählen wünscht, hervorgehoben ist, unterbricht der Benutzer den Berührungskontakt zwischen der berührungsempfindlichen Anzeige und dem rechten Daumen, um beide Berührungen zu beenden 216. Das hervorgehobene Wort „soon” wird in dem Textfeld 304 angezeigt 218, wie in 7 gezeigt.The objects in the list are highlighted in response to movement of the touch position. When the word the user desires to select is highlighted, the user interrupts the touch contact between the touch-sensitive display and the right thumb to end both touches 216 , The highlighted word "soon" appears in the text box 304 appropriate 218 , as in 7 shown.

Das hervorgehobene Kandidat-Objekt, das ausgewählt ist, wenn beide Berührungen enden, wird durch eine Linie 600 identifiziert, die sich um das Wort erstreckt, wie in 6 gezeigt. Eine Umrandung ist ein Beispiel für ein Hervorheben. Andere Typen von Hervorhebungen, die visuell das auszuwählende Kandidat-Objekt von anderen Kandidat-Objekten in der Liste unterscheiden, können alternativ verwendet werden.The highlighted candidate object that is selected when both touches end is indicated by a line 600 identifies that extends around the word as in 6 shown. A border is an example of a highlight. Other types of highlights that visually distinguish the candidate object to be selected from other candidate objects in the list may alternatively be used.

Die Anzahl von Kandidat-Objekten der Liste, die angezeigt werden, kann durch die Größe der Anzeige und die Schriftgröße der Zeichen in der Liste begrenzt sein. Wenn die Anzahl von Kandidat-Objekten in der Liste die Anzahl von angezeigten Kandidat-Objekten übersteigt, kann ein Pfeil oder eine andere visuelle Anzeige für den Benutzer vorgesehen werden.The number of candidate objects of the list that are displayed may be limited by the size of the display and the font size of the characters in the list. If the number of candidate objects in the list exceeds the number of candidate objects displayed, an arrow or other visual indication may be provided to the user.

Unter Bezugnahme auf 8, kann in einem anderen Beispiel die berührungsempfindliche Überlagerung 114 einer tragbaren elektronischen Vorrichtung 100 Meta-Navigations-Gesten erfassen. Eine Meta-Navigations-Geste ist eine Berührung, die einen Anfangspunkt hat, der auf einem Nicht-Anzeigebereich 800 ist, der außerhalb des Anzeigebereichs der berührungsempfindlichen Überlagerung 114 ist. Meta-Navigations-Gesten können einen Endpunkt haben, der im Allgemeinen an der selben Position ist wie der Anfangspunkt, einen Endpunkt, der außerhalb des Anzeigebereichs der berührungsempfindlichen Überlagerung 114 ist, oder einen Endpunkt, der auf dem Anzeigebereich der berührungsempfindlichen Anzeige ist. Die Verwendung von Meta-Navigations-Gesten bietet eine zusätzliche Eingabe, die von Nicht-Meta-Navigations-Gesten oder anderen Berührungen unterschieden werden kann. Diese Meta-Navigations-Gesten können ein Eingeben von Eingabe in Bezug auf eine Anwendung erleichtern, für die keine Information zu dem Zeitpunkt angezeigt wird, an dem die Geste empfangen wird, und kann weiter eine Systemebenenavigation vorsehen ohne die Verwendung von zusätzlichen Bildschirmen oder Menüs für eine derartige Navigation, was eine verbesserte Schnittstelle bietet. In dem vorliegenden Beispiel erleichtern Meta-Navigations-Gesten eine Zeicheneingabe durch Vorsehen einer Tastatur 802, einschließlich einer Umschalttaste 806, in dem Nicht-Anzeigebereich 800. Die Tastatur 802 umfasst rechte und linke Teile, um eine Eingabe von Zeichen mit zwei Händen zu erleichtern. Da die Tastatur 802 in dem Nicht-Anzeigebereich 800 vorgesehen ist, wird der Anzeigebereich der berührungsempfindlichen Anzeige durch die Tastatur in diesem Beispiel nicht beeinträchtigt.With reference to 8th , in another example, the touch-sensitive overlay 114 a portable electronic device 100 Capture meta-navigation gestures. A meta-navigation gesture is a touch that has a starting point that is on a non-display area 800 is outside the display area of the touch-sensitive overlay 114 is. Meta-navigation gestures may have an endpoint that is generally at the same position as the starting point, an endpoint that is outside of the touch-sensitive overlay's display area 114 or an endpoint that is on the display area of the touch-sensitive display. The use of meta-navigation gestures provides additional input that can be distinguished from non-meta-navigation gestures or other touches. These meta-navigation gestures may facilitate inputting of input regarding an application for which no information is displayed at the time the gesture is received, and may further provide for system-level navigation without the use of additional screens or menus for such navigation, which provides an improved interface. In the present example, meta-navigation gestures facilitate character input by providing a keyboard 802 , including a shift key 806 , in the non-display area 800 , The keyboard 802 includes right and left parts to facilitate two-handed input of characters. Because the keyboard 802 in the non-display area 800 is provided, the display area of the touch-sensitive display is not affected by the keyboard in this example.

Ein Bereich auf der berührungsempfindlichen Überlagerung 114, der mit einer Taste der Tastatur 802 assoziiert ist derart, dass eine Berührung irgendwo auf diesem Bereich zu einer Auswahl eines Zeichens führt, entspricht dem Bereich der entsprechenden Repräsentation auf dem Nicht-Anzeigebereich 800. Der Bereich kann größer oder kleiner als die Repräsentation auf dem Nicht-Anzeigebereich 800 sein.An area on the touch-sensitive overlay 114 that with a keyboard key 802 is such that a touch somewhere on this area to a selection of a Character corresponds to the area of the corresponding representation on the non-display area 800 , The range may be larger or smaller than the representation on the non-display area 800 be.

Unter Bezugnahme auch auf 2, unter zusätzlicher Bezugnahme auf die 8 bis 12, wird nun ein weiteres Beispiel eines Verfahrens zum Erleichtern einer Eingabe an der tragbaren elektronischen Vorrichtung 100 beschrieben. In dem vorliegenden Beispiel ist die Tastatur 802 für eine Benutzereingabe von Daten in Feldern einer Anwendung, wie einer Email-Anwendung, vorgesehen.With reference also to 2 , with additional reference to the 8th to 12 Now, another example of a method of facilitating input on the portable electronic device will become 100 described. In the present example, the keyboard is 802 for user input of data in fields of an application, such as an email application.

Für den Zweck der vorliegenden Erläuterung hat der Benutzer bereits Zeichen in einen Hauptteil 804 einer Email eingegeben. Unter Bezugnahme auf 9, berührt der Benutzer den Nicht-Anzeigebereich 800 an einer Position, die dem Zeichen „a” entspricht, mit einem linken Daumen und an einer Position, die dem Zeichen „t” entspricht, mit einem rechten Daumen. Wie in 9 und 10 gezeigt, umfasst die Berührung mit dem linken Daumen einen Berührungspunkt an einer Position in der Nähe des Zeichens „a” in dem Nicht-Anzeigebereich 800 und eine Bewegung der Berührung auf die berührungsempfindliche Anzeige 118, um vergrößerte Zeichen „a”, „b” und „c” anzuzeigen. Eine weitere Bewegung der Berührung an die Position des vergrößerten Zeichens „a” assoziiert die Berührung mit dem Zeichen „a”. Ähnlich umfasst die Berührung mit dem rechten Daumen einen Berührungspunkt an einer Position in der Nähe des Zeichens „t” in dem Nicht-Anzeigebereich 800 und eine Bewegung der Berührung auf die berührungsempfindliche Anzeige 118, um vergrößerte Zeichen „s”, „t” und „u” anzuzeigen. Eine weitere Bewegung der Berührung an die Position des vergrößerten Zeichens „t” assoziiert die Berührung mit dem Zeichen „t”. Eine Bewegung der Berührungen zu dem Zweck eines Assoziierens der Berührungen mit Zeichen kann vermieden werden, wenn die Tasten der Tastatur 800 groß genug sind, um einzeln durch den Benutzer auswählbar zu sein.For the purpose of the present explanation, the user already has characters in a body 804 entered an email. With reference to 9 , the user touches the non-display area 800 at a position corresponding to the character "a" with a left thumb and at a position corresponding to the mark "t" with a right thumb. As in 9 and 10 As shown, the touch with the left thumb includes a touch point at a position near the mark "a" in the non-display area 800 and a movement of the touch on the touch-sensitive display 118 to display enlarged characters "a", "b" and "c". Further movement of the touch to the position of the enlarged character "a" associates the touch with the character "a". Similarly, the touch with the right thumb includes a touch point at a position near the mark "t" in the non-display area 800 and a movement of the touch on the touch-sensitive display 118 to display enlarged characters "s", "t" and "u". Further movement of the touch to the position of the enlarged character "t" associates the touch with the character "t". Movement of the touches for the purpose of associating the touches with characters can be avoided when the keys of the keyboard 800 are large enough to be individually selectable by the user.

Wenn Berührungen erfasst wurden 200, 202 und mit den Zeichen „a” und „t” assoziiert wurden, wird eine Bewegung der Berührungen erfasst 208. Wie in 11 gezeigt, bewegt der Benutzer beide Berührungspositionen aufeinander zu, um eine Länge des einzugebenden Worts ungefähr anzugeben. Eine Entfernung zwischen der ersten Berührung und der zweiten Berührung wird dann bestimmt 210. Die Entfernung ist mit fünf Zeichen assoziiert und Kandidat-Objekte mit fünf Zeichen, einem Anfangszeichen „a” und einem letzten Zeichen „t” werden in Referenzdaten identifiziert 212. Eine Reihenfolge-Liste von übereinstimmenden Kandidat-Objekten wird dann angezeigt 214: „await”, „adopt” und „adult”, mit dem wahrscheinlichsten Kandidat-Objekt „about” hervorgehoben am Anfang der Liste. Der Benutzer hebt beide Daumen, um die Berührungen zu beenden 216 und „about” in dem Textfeld 804 anzuzeigen 218, wie in 12 gezeigt.When touches were detected 200 . 202 and associated with the characters "a" and "t", a movement of the touches is detected 208 , As in 11 As shown, the user moves both touch positions toward each other to approximately specify a length of the word to be entered. A distance between the first touch and the second touch is then determined 210 , The distance is associated with five characters and candidate objects with five characters, an initial character "a" and a last character "t" are identified in reference data 212 , An order list of matching candidate objects is then displayed 214 : "Await", "adopt" and "adult", with the most likely candidate object "about" highlighted at the top of the list. The user raises both thumbs to end the touches 216 and "about" in the text box 804 display 218 , as in 12 shown.

Eine Vorderansicht eines anderen Beispiels für eine tragbare elektronische Vorrichtung 100 wird in 13 gezeigt. Die tragbare elektronische Vorrichtung 100 umfasst ein Gehäuse 1300, das die internen Komponenten umfasst, die in 1 gezeigt werden, und eine Anzeige 1302, wie eine LCD, und eine Tastatur 1304 einrahmt. Der Prozessor 102 der tragbaren elektronischen Vorrichtung 100 kann eine Zeicheneingabe empfangen, wenn Tasten der Tastatur 1304 gedrückt werden. Die Tastatur 1304 umfasst weiter eine berührungsempfindliche Oberfläche 1306, die Berührungen auf ähnliche Weise wie die berührungsempfindliche Überlagerung 114 erfassen kann. Die tragbare elektronische Vorrichtung 100 kann auch ein optisches Trackpad 1310 umfassen, wie gezeigt.A front view of another example of a portable electronic device 100 is in 13 shown. The portable electronic device 100 includes a housing 1300 that includes the internal components that are in 1 be shown, and an ad 1302 like an LCD, and a keyboard 1304 framing. The processor 102 portable electronic device 100 can receive a character input when keyboard keys 1304 be pressed. The keyboard 1304 further includes a touch-sensitive surface 1306 , the touches in a similar way as the touch-sensitive overlay 114 can capture. The portable electronic device 100 can also use an optical trackpad 1310 include as shown.

Wieder wird Bezug genommen auf 2, unter zusätzlicher Bezugnahme auf die 13 bis 18, um ein weiteres Beispiel für ein Verfahren zum Erleichtern einer Eingabe an der tragbaren elektronischen Vorrichtung 100 zu beschreiben. Für den Zweck der vorliegenden Erläuterung hat der Benutzer bereits Zeichen in ein Textfeld während eines Verfassens einer Email eingegeben. In diesem Beispiel ist das Textfeld 1308 ein Hauptteil einer Email.Again, reference is made to 2 , with additional reference to the 13 to 18 to illustrate another example of a method for facilitating input to the portable electronic device 100 to describe. For the purpose of the present discussion, the user has already entered characters in a text field during an authoring of an email. In this example, the text box is 1308 a main part of an email.

Der Benutzer berührt die berührungsempfindliche Oberfläche 1306 an einer Position, die dem Zeichen „s” entspricht, mit einem linken Daumen, wie in 13 gezeigt, und berührt die berührungsempfindliche Oberfläche 1306 an einer Position, die dem Zeichen „y” entspricht, mit einem rechten Daumen, wie in 14 gezeigt. Wenn die Berührungen erfasst werden 200, 202, werden übereinstimmende Kandidat-Objekte mit einem Anfangszeichen, das mit „s” übereinstimmt, und einem letzten Zeichen, das mit „y” übereinstimmt, in Referenzdaten identifiziert 204. Wie in 14 gezeigt, wird „stay”, das als das wahrscheinlichste Kandidat-Objekt bestimmt wird, angezeigt 206.The user touches the touch-sensitive surface 1306 at a position corresponding to the character "s" with a left thumb as in 13 and touches the touch-sensitive surface 1306 at a position corresponding to the character "y" with a right thumb, as in 14 shown. When the touches are detected 200 . 202 , matching candidate objects having an initial character that matches "s" and a last character that matches "y" are identified in reference data 204 , As in 14 shown, "stay", which is determined to be the most likely candidate object, is displayed 206 ,

Wenn „stay” nicht das einzugebende Objekt ist, bewegt der Benutzer beide Berührungspositionen voneinander weg, um eine Länge des Worts ungefähr anzugeben, das der Benutzer einzugeben wünscht, wie in 15 gezeigt. Nach einem Erfassen 208 der Berührungsbewegung wird eine Entfernung zwischen der ersten Berührung und der zweiten Berührung bestimmt 210. Die Entfernung ist mit sieben Zeichen assoziiert und Kandidat-Objekte mit sieben Zeichen, einem Anfangszeichen „s” und einem letzten Zeichen „y” werden in Referenzdaten identifiziert 212. Eine Reihenfolge-Liste von übereinstimmenden Kandidat-Objekten wird dann angezeigt 214, wie in 16 gezeigt. Die Liste umfasst „secured”, „seventy” und „shortly”. Das wahrscheinlichste Kandidat-Objekt „scenery” wird am Anfang der Liste hervorgehoben.If "stay" is not the object to be entered, the user moves both touch positions away from each other to approximately specify a length of the word the user desires to input, as in 15 shown. After a capture 208 the contact movement determines a distance between the first touch and the second touch 210 , The distance is associated with seven characters and candidate objects with seven characters, an initial character "s" and a last character "y" are identified in reference data 212 , An order list of matching candidate objects is then displayed 214 , as in 16 shown. The list includes "secured", "seventy" and "shortly". The most likely candidate object "scenery" is highlighted at the top of the list.

Wenn das einzugebende Objekt nicht „scenery” ist, das hervorgehoben ist, aber ein Wort mit sieben Buchstaben ist, beendet der Benutzer eine der Berührungen. Wie in 16 gezeigt, wird, der Berührungskontakt zwischen der berührungsempfindlichen Oberfläche 1306 und dem rechten Daumen beendet. Der Benutzer bewegt dann den rechten Daumen auf der berührungsempfindlichen Oberfläche 1306 nach oben und/oder unten, um durch die Liste der geordneten Kandidat-Objekte zu scrollen. Da die Liste basierend auf einem Kriterium geordnet ist, wie Häufigkeit der Verwendung, muss der Benutzer im Allgemeinen nicht die gesamte Liste scrollen, die umfangreich sein kann. In dem vorliegenden Beispiel ist das einzugebende Objekt „shortly”, das in der 17 hervorgehoben ist. Der Benutzer beendet dann den Berührungskontakt zwischen der berührungsempfindlichen Oberfläche 1306 und dem linken Daumen, um beide Berührungen zu beenden 216. Das hervorgehobene Wort „shortly” wird dann in dem Textfeld 1308 angezeigt 218, wie in 18 gezeigt.If the object to be entered is not "scenery" that is highlighted, but is a seven letter word, the user ends one of the touches. As in 16 is shown, the touch contact between the touch-sensitive surface 1306 and the right thumb finished. The user then moves the right thumb on the touch-sensitive surface 1306 up and / or down to scroll through the list of ordered candidate objects. Since the list is ordered based on a criterion, such as frequency of use, the user generally does not have to scroll the entire list, which can be extensive. In the present example, the object to be entered is "shortly", which is in the 17 is highlighted. The user then terminates the touch contact between the touch-sensitive surface 1306 and the left thumb to end both touches 216 , The highlighted word "shortly" will then appear in the text box 1308 appropriate 218 , as in 18 shown.

Als Alternative kann das Wort in dem Textfeld 1308 angezeigt werden 218, wenn der Benutzer eine oder zwei der Tasten der Tastatur 802 drückt. In diesem Ausführungsbeispiel kann ein Beenden beider Berührungen veranlassen, dass die Operation abgebrochen wird, in diesem Fall wird kein Wort angezeigt.As an alternative, the word in the text box 1308 are displayed 218 if the user has one or two of the keyboard keys 802 suppressed. In this embodiment, terminating both touches may cause the operation to be aborted, in which case no word is displayed.

Obwohl in den hier beschriebenen Beispielen eine Anpassung der Entfernung zwischen Berührungspositionen erreicht wird in Reaktion auf eine Bewegung beider Berührungen, kann die Entfernung stattdessen angepasst werden durch Beibehalten einer Berührungsposition und Bewegen der anderen Berührungsposition. Ferner werden in den hier beschriebenen Beispielen Benutzerdaumen genannt, jedoch kann das Verfahren unter Verwendung zum Beispiel eines anderen Fingers des Benutzers oder eines anderen Elements erreicht werden.Although in the examples described here an adjustment of the distance between touch positions is achieved in response to a movement of both touches, the distance may instead be adjusted by maintaining a touch position and moving the other touch position. Further, in the examples described herein, user thumbs are called, however, the method can be achieved using, for example, another user's finger or other element.

In den Beispielen, die unter Bezugnahme auf 2 beschrieben werden, sind die ersten und zweiten Berührungen kontinuierlich, bis eine Entfernung zwischen den ersten und zweiten Berührungspositionen einer gewünschten Anzahl von Zeichen eines einzugebenden Objekts entspricht. Wenn eine Berührung endet, kann durch die Liste von Kandidat-Objekten gescrollt werden in Reaktion auf eine Bewegung der Berührung, die beibehalten wird. Wenn beide Berührungen beendet sind, wird das hervorgehobene Kandidat-Objekt in einem Textfeld angezeigt.In the examples, with reference to 2 are described, the first and second touches are continuous until a distance between the first and second touch positions corresponds to a desired number of characters of an object to be entered. When a touch ends, the list of candidate objects can be scrolled in response to a movement of the touch being retained. When both touches are completed, the highlighted candidate object is displayed in a text box.

Das Verfahren von 2 ist mit einem normalen Texteingabemodus betriebsfähig. Um zwischen einem regulären Tippen und dem Verfahren von 2 zu unterscheiden, kann ein Timer verwendet werden. Zum Beispiel können gleichzeitige linke und rechte Berührungen, die länger als 400 ms stattfinden, die Identifikation 204 von übereinstimmenden Kandidat-Objekten in Referenzdaten auslösen. Alternativ kann eine Bewegung der Berührungen anzeigen, dass das Verfahren von 2 durchgeführt wird.The procedure of 2 is operational with a normal text input mode. To switch between a regular typing and the procedure of 2 To differentiate, a timer can be used. For example, simultaneous left and right touches that last longer than 400 ms may cause identification 204 from matching candidate objects into reference data. Alternatively, movement of the touches may indicate that the method of 2 is carried out.

Anstatt, dass die erste Berührung und die zweite Berührung mit den ersten und letzten Zeichen eines Objekts assoziiert sind, können die erste Berührung und die zweite Berührung mit den ersten und zweiten Zeichen eines Objekts assoziiert sein. Ähnlich zu den zuvor beschriebenen Beispielen entspricht die Entfernung zwischen der ersten Berührung und der zweiten Berührung einer Länge des Objekts.Instead of the first touch and the second touch being associated with the first and last characters of an object, the first touch and the second touch may be associated with the first and second characters of an object. Similar to the examples described above, the distance between the first touch and the second touch corresponds to a length of the object.

Das Verfahren zur Erleichterung einer Eingabe an einer elektronischen Vorrichtung ist ein bequemes alternatives Verfahren zur Eingabe von Daten. Das Verfahren kann eine Geschwindigkeit einer Dateneingabe verbessern und, insbesondere bei der Eingabe von Daten auf einer breiten Tastatur, für den Benutzer mehr Komfort bieten. Das Verfahren kann auch unterhaltend und lehrreich sein, da viele verschiedene Listen von Kandidat-Objekten für den Benutzer angezeigt werden können. In Ausführungsbeispielen mit einer berührungsempfindlichen Anzeige kann das Verfahren den Teil der Anzeige reduzieren, der für die virtuelle Tastatur bestimmt ist, wodurch der nutzbare Anzeigebereich vergrößert wird.The method of facilitating input to an electronic device is a convenient alternative method of entering data. The method can improve a speed of data entry and, in particular when entering data on a wide keyboard, can provide more convenience to the user. The method can also be entertaining and instructive since many different lists of candidate objects can be displayed to the user. In embodiments having a touch-sensitive display, the method may reduce the portion of the display intended for the virtual keyboard, thereby increasing the usable display area.

Die vorliegende Offenbarung kann in anderen spezifischen Formen verkörpert werden, ohne von ihrem Sinn oder wesentlichen Eigenschaften abzuweichen. Die beschriebenen Ausführungsbeispiele sollen in jeder Hinsicht nur als illustrativ und nicht als einschränkend betrachtet werden. Der Umfang der vorliegenden Offenbarung ist daher durch die beigefügten Ansprüche anstatt durch die obige Beschreibung angegeben. Alle Änderungen, die innerhalb der Bedeutung und des Umfangs von Äquivalenz der Ansprüche liegen, sollen innerhalb ihres Umfangs aufgenommen sein.The present disclosure may be embodied in other specific forms without departing from its spirit or essential characteristics. The described embodiments are to be considered in all respects only as illustrative and not restrictive. The scope of the present disclosure is, therefore, indicated by the appended claims rather than by the above description. Any changes that are within the meaning and scope of equivalence of the claims should be included within their scope.

Claims (12)

Ein Verfahren zum Erleichtern einer Eingabe an einer elektronischen Vorrichtung (100), wobei das Verfahren aufweist: Erfassen einer ersten Berührung an einer ersten Berührungsposition auf einer berührungsempfindlichen Vorrichtung; wobei die erste Berührung mit einem ersten Zeichen assoziiert ist; Erfassen einer zweiten Berührung an einer zweiten Berührungsposition auf der berührungsempfindlichen Vorrichtung, wobei die zweite Berührung mit einem zweiten Zeichen assoziiert ist; wenn eine Bewegung einer der ersten Berührung und der zweiten Berührung erfasst wird, Bestimmen einer Entfernung zwischen der ersten Berührungsposition und der zweiten Berührungsposition, wobei die Entfernung mit einer Anzahl von Zeichen eines Objekts assoziiert ist; Identifizieren von Kandidat-Objekten in Referenzdaten, die mit der Anzahl von Zeichen übereinstimmen und ein Anfangszeichen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen umfassen, das mit dem zweiten Zeichen übereinstimmt; und Anzeigen zumindest eines Kandidat-Objekts.A method of facilitating input to an electronic device ( 100 ), the method comprising: detecting a first touch at a first touch position on a touch-sensitive device; wherein the first touch is associated with a first character; Detecting a second touch at a second touch location on the touch-sensitive device, wherein the second touch is associated with a second character; when detecting a movement of one of the first touch and the second touch, determining a distance between the first touch position and the second touch position, wherein the distance is associated with a number of characters of an object; Identifying candidate objects in reference data that match the number of characters and include an initial character that matches the first character and a last character that matches the second character; and displaying at least one candidate object. Ein Verfahren gemäß Anspruch 1, das aufweist in Reihenfolge bringen der Kandidat-Objekte, die mit der Anzahl von Zeichen übereinstimmen und ein Anfangszeichen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen umfassen, das mit dem zweiten Zeichen übereinstimmt, basierend auf einem Kriterium und Anzeigen eines wahrscheinlichsten Kandidat-Objekts.A method according to claim 1, comprising in sequence the candidate objects that match the number of characters and include an initial character that matches the first character and a last character that matches the second character, based on a Criterion and display of a most likely candidate object. Ein Verfahren gemäß Anspruch 1, wobei, wenn eine Bewegung einer der ersten Berührung und der zweiten Berührung erfasst wird, ein Bestimmen einer aktualisierten Entfernung.A method according to claim 1, wherein, when a movement of one of the first touch and the second touch is detected, determining an updated distance. Ein Verfahren gemäß Anspruch 1, das ein Anzeigen einer Liste von Kandidat-Objekten in Reihenfolge aufweist, wobei die Liste ein wahrscheinlichstes Kandidat-Objekt umfasst und die Kandidat-Objekte in Reihenfolge aus der Liste auswählbar sind.A method according to claim 1, comprising displaying a list of candidate objects in order, the list comprising a most likely candidate object and the candidate objects being selectable from the list in order. Ein Verfahren gemäß Anspruch 4, das ein Empfangen einer Eingabe aufweist, wobei die Eingabe einem der Kandidat-Objekte der Liste der Kandidat-Objekte in Reihenfolge entspricht.A method according to claim 4, comprising receiving an input, the input corresponding to one of the candidate objects of the list of candidate objects in order. Ein Verfahren gemäß Anspruch 1, das aufweist ein Anzeigen eines wahrscheinlichsten Kandidat-Objekts, bevor eine Bewegung der ersten Berührung erfasst wird, wobei ein Anfangszeichen des wahrscheinlichsten Kandidat-Objekts mit dem ersten Zeichen übereinstimmt und ein letztes Zeichen des wahrscheinlichsten Kandidat-Objekts mit dem zweiten Zeichen übereinstimmt.A method according to claim 1, including displaying a most likely candidate object before detecting movement of the first touch, wherein an initial character of the most likely candidate object matches the first character and a last character of the most likely candidate object matches the second character Character matches. Ein Verfahren gemäß Anspruch 1, wobei die berührungsempfindliche Vorrichtung eine berührungsempfindliche Anzeige (118) ist.A method according to claim 1, wherein the touch-sensitive device comprises a touch-sensitive display ( 118 ). Ein Verfahren gemäß Anspruch 5, wobei die Eingabe in Reaktion auf ein Ende beider Berührungen erzeugt wird.A method according to claim 5, wherein the input is generated in response to an end of both touches. Ein Verfahren gemäß Anspruch 2, wobei das Kriterium eine Häufigkeit einer Verwendung ist.A method according to claim 2, wherein the criterion is a frequency of use. Ein Verfahren gemäß Anspruch 1, wobei die Entfernung mit einer Anzahl von Zeichen eines Objekts durch Bestimmen eines Verhältnisses der Entfernung zu einer Bildschirmbreite assoziiert wird.A method according to claim 1, wherein the distance is associated with a number of characters of an object by determining a ratio of the distance to a screen width. Ein computerlesbares Medium, das Anweisungen aufweist, die auf einem Prozessor einer elektronischen Vorrichtung zur Implementierung des Verfahrens gemäß Anspruch 1 ausführbar sind.A computer-readable medium having instructions executable on a processor of an electronic device for implementing the method of claim 1. Eine elektronische Vorrichtung (100), die aufweist: ein Gehäuse (300); eine Anzeige (112), die durch das Gehäuse (300) freigelegt ist; und funktionale Komponenten in dem Gehäuse (300), die einen Speicher (110) und einen Prozessor (102) aufweisen, der betriebsfähig mit der Anzeige (112) verbunden ist zum Ausführen eines Programms, das in dem Speicher gespeichert ist, um die elektronische Vorrichtung (100) zu veranlassen zum: Erfassen einer ersten Berührung an einer ersten Berührungsposition auf einer berührungsempfindlichen Oberfläche, wobei die erste Berührung mit einem ersten Zeichen assoziiert ist; Erfassen einer zweiten Berührung an einer zweiten Berührungsposition auf der berührungsempfindlichen Oberfläche, wobei die zweite Berührung mit einem zweiten Zeichen assoziiert ist; Bestimmen einer Entfernung zwischen der ersten Berührungsposition und der zweiten Berührungsposition, wenn eine Bewegung der ersten Berührung erfasst wird, wobei die Entfernung mit einer Anzahl von Zeichen eines Objekts assoziiert ist; Identifizieren von Kandidat-Objekten in Referenzdaten, die mit der Anzahl von Zeichen übereinstimmen, ein Anfangszeichen, das mit dem ersten Zeichen übereinstimmt, und ein letztes Zeichen umfassen, das mit dem zweiten Zeichen übereinstimmt; und Anzeigen zumindest eines Kandidat-Objekts.An electronic device ( 100 ), comprising: a housing ( 300 ); an ad ( 112 ) passing through the housing ( 300 ) is exposed; and functional components in the housing ( 300 ), which has a memory ( 110 ) and a processor ( 102 ) operable with the display ( 112 ) for executing a program stored in the memory to connect the electronic device ( 100 causing: detecting a first touch at a first touch position on a touch-sensitive surface, wherein the first touch is associated with a first character; Detecting a second touch at a second touch location on the touch-sensitive surface, wherein the second touch is associated with a second character; Determining a distance between the first touch position and the second touch position when a movement of the first touch is detected, wherein the distance is associated with a number of characters of an object; Identifying candidate objects in reference data that match the number of characters, an initial character that matches the first character, and a last character that matches the second character; and displaying at least one candidate object.
DE112011101014T 2011-09-08 2011-09-08 A method of facilitating input to an electronic device Withdrawn DE112011101014T5 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CA2011/001009 WO2013033809A1 (en) 2011-09-08 2011-09-08 Touch-typing disambiguation based on distance between delimiting characters

Publications (1)

Publication Number Publication Date
DE112011101014T5 true DE112011101014T5 (en) 2013-07-11

Family

ID=47294391

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011101014T Withdrawn DE112011101014T5 (en) 2011-09-08 2011-09-08 A method of facilitating input to an electronic device

Country Status (4)

Country Link
CA (1) CA2793436C (en)
DE (1) DE112011101014T5 (en)
GB (1) GB2498028A (en)
WO (1) WO2013033809A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7382358B2 (en) * 2003-01-16 2008-06-03 Forword Input, Inc. System and method for continuous stroke word-based text input
US20060176283A1 (en) * 2004-08-06 2006-08-10 Daniel Suraqui Finger activated reduced keyboard and a method for performing text input
US20100241984A1 (en) * 2009-03-21 2010-09-23 Nokia Corporation Method and apparatus for displaying the non alphanumeric character based on a user input
US9189156B2 (en) * 2009-07-14 2015-11-17 Howard Gutowitz Keyboard comprising swipe-switches performing keyboard actions
US8135582B2 (en) * 2009-10-04 2012-03-13 Daniel Suraqui Keyboard system and method for global disambiguation from classes with dictionary database from first and last letters

Also Published As

Publication number Publication date
GB2498028A (en) 2013-07-03
WO2013033809A1 (en) 2013-03-14
GB201217942D0 (en) 2012-11-21
CA2793436A1 (en) 2013-03-08
CA2793436C (en) 2014-02-11

Similar Documents

Publication Publication Date Title
DE112011101380T5 (en) Touch-sensitive display with variable repetition rate
US9508322B2 (en) Text box resizing
DE112012000403T5 (en) TOUCH SCREEN KEYBOARD WITH CORRECTION OF PREVIOUS TEXT
DE112011101203T5 (en) Portable electronic device and method for its control
DE112016001105T5 (en) Responding competing devices to voice triggers
DE112016001104T5 (en) Activation of virtual assistant
DE202011110722U1 (en) Portable electronic device with scrollable area
DE202016001819U1 (en) Touch input cursor manipulation
DE202011110334U1 (en) System for orthogonal dragging on scrollbars
DE112013002409T5 (en) Apparatus, method and graphical user interface for displaying additional information in response to a user contact
US20110175815A1 (en) Character input method and system as well as electronic device and keyboard thereof
DE112012000299T5 (en) Method and device for text selection
DE112013004585T5 (en) Incremental feature-based gesture keyboard decoding
DE112011103173T5 (en) Transitional view on a portable electronic device
DE112013004614T5 (en) Gestentastatur with Gestannannullierung
CN112433693B (en) Split screen display method and device and electronic equipment
DE112008003816B4 (en) Method and device for controlling a user interface on the basis of a gesture by a user
US8766937B2 (en) Method of facilitating input at an electronic device
CN113703630A (en) Interface display method and device
CN108536653B (en) Input method, input device and input device
EP2568370A1 (en) Method of facilitating input at an electronic device
CN114063845A (en) Display method, display device and electronic equipment
CN113311982A (en) Information selection method and device
DE112011101014T5 (en) A method of facilitating input to an electronic device
CN114356113A (en) Input method and input device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

R081 Change of applicant/patentee

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LTD., WATERLOO, ONTARIO, CA

Effective date: 20121108

Owner name: BLACKBERRY LIMITED, WATERLOO, CA

Free format text: FORMER OWNER: RESEARCH IN MOTION LTD., WATERLOO, ONTARIO, CA

Effective date: 20140925

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20140925

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20140925

R120 Application withdrawn or ip right abandoned