ES2328921T3 - Entrada de objeto en un dispositivo electronico. - Google Patents
Entrada de objeto en un dispositivo electronico. Download PDFInfo
- Publication number
- ES2328921T3 ES2328921T3 ES03752872T ES03752872T ES2328921T3 ES 2328921 T3 ES2328921 T3 ES 2328921T3 ES 03752872 T ES03752872 T ES 03752872T ES 03752872 T ES03752872 T ES 03752872T ES 2328921 T3 ES2328921 T3 ES 2328921T3
- Authority
- ES
- Spain
- Prior art keywords
- subset
- objects
- display
- pointer
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)
- Vending Machines For Individual Products (AREA)
- Devices For Checking Fares Or Tickets At Control Points (AREA)
- Push-Button Switches (AREA)
- Electrophonic Musical Instruments (AREA)
- Position Input By Displaying (AREA)
Abstract
Sistema de procesamiento de datos para seleccionar un objeto a partir de un conjunto de objetos, en el que: - el sistema comprende medios de visualización y medios de introducción; - los medios de visualización están operativos para visualizar un primer subconjunto (12) de los objetos; - los medios de introducción están operativos para determinar una posición de un puntero con respecto al primer subconjunto de los objetos, para hacer que dependiendo de la posición los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero y que representa un subconjunto de objetos del primer subconjunto, y - los medios de introducción permiten el movimiento del puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos, - el puntero puede moverse sobre los medios de visualización con respecto al primer subconjunto (12) de los objetos y los medios de visualización están operativos para visualizar el segundo subconjunto (13) de los objetos que rodean el objeto (12a) específico del primer subconjunto de los objetos que se corresponde con la posición del puntero, en el que dichos medios de visualización están operativos para visualizar al menos un objeto del primer subconjunto de los objetos (12) cuando visualizan el segundo subconjunto (13) de los objetos.
Description
Entrada de objeto en un dispositivo
electrónico.
La presente invención se refiere al campo de la
selección de objetos mediante un dispositivo electrónico que
comprende una pantalla de visualización, y particularmente a un
método y aparato para seleccionar objetos, tales como caracteres
gráficos, mediante un aparato electrónico pequeño o portátil, que no
tiene un teclado alfanumérico convencional con teclas
diferenciadas. Más específicamente, la invención se refiere a un
sistema eficaz para seleccionar objetos a partir de un gran
conjunto de objetos cuando el área disponible en la pantalla de
visualización es relativamente limitada, tal como en un teléfono
celular, o en un asistente digital personal. La presente invención
también se refiere a un producto de programa informático que
comprende segmentos de código de software para implementar el
sistema y un método para seleccionar objetos mediante un aparato
electrónico pequeño o portátil cuando se está ejecutando dicho
producto.
Recientemente, la proliferación del número de
aparatos electrónicos pequeños o portátiles ha supuesto un reto
para los usuarios, que quieren introducir eficazmente datos en tales
dispositivos. Por ejemplo, considérense los muchos tipos diferentes
de dispositivos, tales como: asistentes digitales personales (PDA,
personal digital assistants) (también conocidos como
gestores de información personal); dispositivos de comunicación
personal (por ejemplo, teléfonos móviles); ordenadores personales
portátiles; controles remotos multifuncionales; dispositivos tipo
web-tablet, por nombrar algunos, que ayudan a
los usuarios a almacenar y organizar o procesar de otro modo la
información. Recientemente, la tendencia ha sido hacia una reducción
cada vez mayor del tamaño de tales dispositivos. Sin embargo, esta
reducción de tamaño ha dado como resultado el problema de que la
entrada de datos en estos dispositivos con frecuencia es muy
difícil.
Es bastante común dotar estas clases de
dispositivos de diversos sistemas para facilitar la introducción de
texto. Un sistema usado comúnmente con los teléfonos móviles es
hacer que cada tecla numérica del teléfono móvil represente un
conjunto ordenado de hasta cuatro caracteres. Esto permite al
usuario introducir un carácter específico pulsando la tecla
apropiada varias veces, lo que corresponde al carácter deseado. En
el caso de los PDA, se ha usado comúnmente un sistema de
introducción de texto basado en la interpretación de letra escrita
a mano, que requiere con frecuencia que el usuario aplique un estilo
de escritura específico. Otros aparatos proporcionan un teclado
alfanumérico virtual (teclas programables) para la introducción de
caracteres mediante una pantalla sensible al tacto. El usuario
selecciona los caracteres usando normalmente un lápiz.
Un enfoque de la técnica anterior para
proporcionar un sistema de entrada de texto gráfico ha consistido en
visualizar una rueda de entrada de texto gráfico en una pantalla de
entrada de texto gráfico. Una pluralidad de caracteres está situada
sobre la rueda. El sistema también incluye un dispositivo apuntador
para hacer girar la rueda que permite a un usuario seleccionar los
caracteres que van a introducirse, uno cada vez. Tras la selección
de uno o más caracteres, el sistema puede proporcionar sugerencias
para caracteres o palabras posteriores como ayuda para las entradas
de texto. Se da a conocer un sistema de este tipo en la patente
estadounidense 6.011.542, concedida a Sony.
El documento EP 1 168 870 A2 da a conocer un
aparato para seleccionar una unidad de datos a partir de un conjunto
predeterminado de unidades de datos. El aparato comprende una
interfaz de usuario que comprende una entrada que tiene una
pluralidad de actuadores, y una salida. Comprende además medios de
control para controlar la interfaz de usuario para proporcionar una
primera selección de menú que comprende una pluralidad de unidades
de datos que no supera el número de actuadores, y medios de
selección que responden al funcionamiento de los actuadores para
seleccionar la unidad de datos del menú asociada con el actuador
operado. Los medios de control controlan la interfaz de usuario
para proporcionar una selección de menú adicional en respuesta a la
selección de una unidad de datos, representando al menos una unidad
de datos de la selección de menú adicional, un subconjunto de la
unidad de datos seleccionada.
El documento
WO-A-00/57265 da a conocer un
sistema de entrada de datos en el que el usuario puede introducir y
buscar rápidamente texto a través de una combinación de la entrada
de uno o más caracteres en un teclado visualizado de manera digital
con un dispositivo apuntador y el uso de una lista de búsqueda para
obtener una lista de candidatos para la finalización. El usuario
puede activar la lista de búsqueda para obtener una lista de
candidatos para la finalización en cualquier momento mientras
introduce una entrada de texto parcial con el sistema de entrada de
datos. Cuando la lista de búsqueda está activa, se visualiza una
lista de candidatos para la finalización en una interfaz gráfica de
usuario para que el usuario seleccione de ella y el usuario puede
realizar una de varias acciones. El usuario puede desactivar la
lista de búsqueda y volver a modificar la entrada de texto parcial
actual y otro texto. El usuario puede seleccionar uno de los
candidatos para la finalización en la lista de búsqueda y usar el
candidato para la finalización seleccionado para sustituir la
entrada de texto parcial que el usuario está introduciendo
actualmente. Cuando el usuario desactiva la lista de búsqueda
interactiva, el usuario puede continuar inmediatamente añadiendo o
modificando la entrada de texto parcial actual que está
introduciendo, y puede volver a recurrir a la lista de búsqueda para
buscar adicionalmente candidatos para la finalización basándose en
la entrada de texto parcial modificada. En el segundo caso, el
candidato para la finalización seleccionado se usa para sustituir la
entrada de texto parcial que el usuario está introduciendo
actualmente, y el sistema de entrada de datos empieza a monitorizar
una nueva entrada de texto parcial por parte del usuario.
\newpage
Por consiguiente, es un objeto de la presente
invención proporcionar un sistema mejorado para la introducción de
objetos, tales como caracteres gráficos, en un aparato electrónico
pequeño.
Otro objeto de la invención es proporcionar un
sistema mejorado para introducir caracteres gráficos en un aparato
electrónico pequeño también para proporcionar sugerencias de
palabras como ayuda para las entradas de texto.
Un objeto adicional de la invención es
proporcionar un sistema para introducir objetos en un aparato
electrónico pequeño usando pequeños movimientos de un dedo o un
lápiz sobre una pantalla sensible al tacto.
Todavía un objeto adicional de la invención es
proporcionar un sistema mejorado para introducir objetos en un
aparato electrónico pequeño, en el que la selección y la entrada de
objetos individuales se logran en campos seleccionables
individualmente que requieren sólo una cantidad limitada de espacio
para representarse en la pantalla de visualización del pequeño
aparato de información.
Aún otro objeto de la invención es proporcionar
un sistema para introducir objetos en un aparato electrónico
pequeño, permitiendo el sistema al usuario introducir cualquier
objeto individual de un gran conjunto de objetos.
Todavía un objeto adicional de la invención es
proporcionar un producto de programa informático que comprende
segmentos de código de software para implementar el sistema, y para
implementar un método para introducir objetos en un aparato
electrónico pequeño o portátil cuando se ejecuta dicho producto.
Según la invención, se proporcionan un sistema
de procesamiento de datos según la reivindicación independiente 1,
un método según la reivindicación independiente 7 y un programa
informático según la reivindicación independiente 12. Se definen
realizaciones favorables en las reivindicaciones dependientes.
Resultarán evidentes objetos y características
adicionales de la presente invención a partir de la siguiente
descripción detallada considerada junto con los dibujos adjuntos.
Sin embargo, ha de entenderse que los dibujos están diseñados
únicamente con fines de ilustración y no como una definición de los
límites de la invención, para lo que debe hacerse referencia a las
reivindicaciones adjuntas. Debe entenderse además que los dibujos
no están trazados necesariamente a escala y que, a menos que se
indique lo contrario, meramente pretenden ilustrar de modo
conceptual las estructuras y los procedimientos descritos en el
presente documento.
En los dibujos, en los que los caracteres de
referencia similares indican elementos similares en la totalidad de
las diversas vistas:
la figura 1 es una vista en planta desde arriba
del nivel superior de campos que pueden seleccionarse
individualmente, representando cada uno de ellos un subconjunto de
objetos de un conjunto mayor de objetos, ilustrado en este caso
como subconjuntos de caracteres gráficos;
la figura 2 es una vista en planta desde arriba
de un nivel subordinado de campos que pueden seleccionarse
individualmente, representando cada uno de ellos un carácter
individual del subconjunto de caracteres gráficos representados en
los campos de la figura 1;
la figura 3 es una vista en planta desde arriba
que ilustra la selección de un carácter gráfico individual a partir
de los caracteres representados en el nivel subordinado de campos
que pueden seleccionarse individualmente de la figura 2;
la figura 4 es una vista en planta desde arriba
que ilustra un nivel subordinado adicional de campos que pueden
seleccionarse individualmente, representando cada uno de ellos una
palabra candidata para su entrada según una segunda realización de
la presente invención;
la figura 5 es una vista en planta desde arriba
que ilustra la selección de una palabra individual a partir de las
palabras candidatas representadas en el nivel subordinado adicional
de campos que pueden seleccionarse individualmente de la figura
4;
la figura 6 es un diagrama de flujo del método
para introducir objetos de la realización de las figuras 1 a 3;
y
la figura 7 ilustra una extensión del diagrama
de flujo de la figura 6 que representa el método para proporcionar
sugerencias de palabras como ayuda para las entradas de texto según
la realización de las figuras 4 y 5.
La figura 1 muestra una pantalla 10 de
visualización gráfica que visualiza una vista en planta desde arriba
de un sistema de interfaz gráfica de usuario para introducir
objetos, seleccionados a partir de un conjunto de objetos, en un
dispositivo electrónico según una realización de la presente
invención. La pantalla 10 del dispositivo electrónico comprende
medios de visualización. Los medios de visualización pueden ser
cualquier tipo de visualización usado comúnmente, tal como: una
pantalla de cristal líquido; una pantalla de visualización de
plasma; una pantalla electrocrómica; una pantalla de rayos
catódicos. Los medios de visualización son preferiblemente
sensibles al tacto. El dispositivo electrónico también comprende
medios de introducción de usuario (no mostrados) tal como un panel
táctil o una pantalla sensible al tacto que se opera con un lápiz
y/o dedo. Alternativamente, pueden proporcionarse medios de
introducción de usuario para su uso con una pantalla que no es
sensible al tacto, tal como las teclas de un microteléfono de un
sistema de comunicaciones inalámbrico; las teclas de un aparato de
control remoto; una palanca de mando (joystick), bola de
control del cursor o ratón para ordenador, o cualquier combinación
de los anteriores. Sin embargo, esta alternativa podría requerir
ciertos ajustes menores de los gráficos de soporte además de lo que
se describirá a continuación.
Para facilitar la comprensión, la presente
realización se describirá con referencia a un dispositivo
electrónico que comprende una pantalla de visualización sensible al
tacto con la que interacciona el usuario a través de un lápiz y/o
el dedo del usuario. La interacción proporciona al usuario la
introducción en el dispositivo electrónico por medio de la
realización de operaciones en la interfaz gráfica de usuario del
sistema de entrada de objetos.
Cuando el usuario sitúa el lápiz y/o dedo,
denominado a continuación en el presente documento como puntero, en
una ubicación en la pantalla 10, los medios de visualización
determinan esta primera posición 11 de puntero y visualizan una
primera pluralidad de campos 12 que pueden seleccionarse
individualmente que representan un nivel superior de la interfaz
gráfica de usuario. Los campos 12 se visualizan rodeando la primera
posición 11 de puntero. Tal como se muestra en la figura 1, estos
campos 12 se representan como casillas rectangulares o cuadradas,
pero alternativamente podrían adoptar cualquier forma o conformación
adecuada, tal como circular, triangular o en sectores circulares.
Cada uno de estos campos 12 representa un subconjunto de objetos de
un conjunto mayor de objetos. Para facilitar la comprensión, los
objetos se ilustran en este caso como caracteres gráficos de un
conjunto mayor de caracteres, por ejemplo, tal como se muestra en la
figura 1, el alfabeto de la a a la z y algunos caracteres
adicionales específicos del país. Sin embargo, se pretende que los
objetos puedan ser objetos de otras clases de grupos de datos, por
ejemplo, un conjunto de datos que representan información de
contacto de personas individuales (como en una lista de teléfono), o
una carpeta de nivel superior, que contiene cualquier número de
carpetas subordinadas con o bien carpetas subordinadas adicionales o
bien objetos que pueden seleccionarse individualmente
representativos de unidades de datos o funciones, que son accesibles
a través de la interfaz de usuario del dispositivo electrónico. Los
medios de introducción están entonces operativos para permitir el
movimiento del puntero hasta cualquiera de los primeros campos 12
que pueden seleccionarse individualmente. Esto se logra a través
del movimiento del puntero por parte del usuario, manteniéndolo en
contacto con la pantalla 10 sensible al tacto, hasta el campo que
representa el subconjunto de caracteres deseado. Este subconjunto
deseado se ilustra en la figura 2 como el campo 12a de color negro
que contiene los caracteres f a j, para realizar una selección del
campo indicado. Cuando se ha realizado esta selección, dichos
medios de visualización están operativos para generar una nueva
vista en la que un campo seleccionado está rodeado por una
pluralidad adicional de campos 13 que pueden seleccionarse
individualmente. Cada uno de los campos 13 representa o bien un
carácter individual o un subconjunto adicional de caracteres (no
mostrado) del subconjunto de caracteres gráficos representados en
el campo seleccionado previamente. De nuevo, se permite el
movimiento del puntero, manteniéndolo en contacto con la pantalla
sensible al tacto, hasta cualquiera de los campos 13 que pueden
seleccionarse individualmente adicionales hasta que el campo
adicional seleccionado representa un carácter individual. El
carácter seleccionado se ilustra en la figura 3 como el campo 13a de
color negro que contiene el carácter "h". De esta manera,
puede proporcionarse cualquier número de niveles subordinados de
campos que pueden seleccionarse individualmente, aunque la
realización, mostrada en este caso como ejemplo, sólo tenga un nivel
subordinado.
Tal como se muestra en la figura 2, sólo esos
campos contienen un carácter y por tanto pueden seleccionarse, que
se visualizan como no recubiertos con los campos de la primera
pluralidad de campos 12. Naturalmente es posible asignar caracteres
a todos los campos 13 adicionales. Sin embargo, se prefiere el modo
de presentación de los caracteres en la realización mostrada en
este caso, ya que esto facilita el mantenimiento de una visión
general de la interfaz gráfica de usuario por parte del usuario.
Esto también permite que el usuario realice un movimiento inverso
del puntero hasta el nivel previo para invalidar una selección
realizada. Como alternativa, podrían eliminarse por completo todos
los campos menos uno de un nivel previo, lo que todavía
proporcionaría ayuda al realizar este movimiento inverso. Todavía
como una alternativa adicional, podrían eliminarse todos los campos
del nivel previo y sustituirse por una indicación del sentido de
movimiento para ayudar al usuario a volver a un nivel previo. Los
medios de introducción están operativos además para permitir la
introducción del carácter gráfico, representado en el campo 13a
adicional seleccionado, a través de que el usuario levante el
puntero de la pantalla sensible al tacto. Tras levantarlo, se
introduce el carácter gráfico seleccionado en un campo 14 de
entrada de texto de la interfaz gráfica de usuario y se eliminan los
campos visualizados. El campo 14 de entrada de texto de las figuras
1 a 3 tal como se ilustra, contiene un carácter introducido
previamente, ilustrado en este caso como el carácter "s", con
el fin de facilitar la siguiente descripción. Tras levantar el
usuario el puntero de la pantalla sensible al tacto, ilustrado en la
figura 3, se introduce el carácter "h" en el campo 14 de
entrada de texto tras el carácter "s".
Según una realización adicional del sistema en
la invención, el sistema proporciona sugerencias de palabras como
ayuda para las entradas de texto. Además de lo que se ha descrito
con referencia a las figuras 1, 2 y 3, el sistema según esta
segunda realización comprende además medios de almacenamiento de
diccionario (no mostrados), tales como cualquier tipo convencional
de memoria, por ejemplo, circuitos de memoria RAM, circuitos de
memoria ROM, un dispositivo de memoria magnética (tal como una
unidad de disco duro) o un dispositivo de memoria óptica (tal como
una unidad de CD-ROM o DVD). Los medios de
almacenamiento de diccionario almacenan una pluralidad de palabras
candidatas. El sistema comprende además medios de recuperación (no
mostrados) para recuperar un subconjunto de palabras candidatas de
los medios de almacenamiento de diccionario. Los medios de
recuperación comprenden preferiblemente un microprocesador y
segmentos de código de software para realizar el proceso de
recuperación cuando se ejecutan en dicho microprocesador. El
subconjunto de palabras candidatas se recupera basándose en o bien
el carácter representado en el campo adicional seleccionado o bien
la combinación del carácter representado en el campo adicional
seleccionado y al menos un carácter introducido previamente, tal
como se ilustra mediante el carácter "s" en el campo 14 de
entrada de texto de las figuras 1, 2 y 3. Tras haberse recuperado
dicho subconjunto de palabras candidatas, los medios de
visualización visualizan una pluralidad 15 adicional de campos que
pueden seleccionarse individualmente que rodean el campo 13a
adicional seleccionado y que representan un nivel subordinado
adicional de la interfaz gráfica de usuario. Cada uno de los campos
15 que pueden seleccionarse individualmente adicionales representa
una palabra candidata del subconjunto de palabras candidatas. Los
medios de introducción permiten el movimiento del puntero hasta
cualquiera de los campos 15 que pueden seleccionarse
individualmente adicionales a través del movimiento del puntero por
parte del usuario, manteniéndolo en contacto con la pantalla 10
sensible al tacto, hasta el campo que representa la palabra
candidata deseada. La palabra candidata deseada se ilustra en la
figura 5 como el campo 15a de color negro que contiene la palabra
"ship" ("barco"), para realizar una selección del
campo adicional indicado. Los medios de introducción permiten la
introducción de la palabra candidata, representada en el campo 15a
adicional seleccionado, a través de que el usuario levante el
puntero de la pantalla 10 sensible al tacto. Esto hace entonces que
la palabra candidata seleccionada se introduzca en el campo 14 de
entrada de texto de la interfaz gráfica de usuario, mientras se
sustituye el carácter introducido previamente, mostrado como el
carácter "s" en la figura 5.
En ambas realizaciones anteriores, los medios de
introducción permiten el movimiento inverso del puntero a través de
que el usuario mueva el puntero, manteniéndolo en contacto con la
pantalla sensible al tacto, desde un campo seleccionado actualmente
hasta una posición previa del puntero para invalidar una selección
realizada. Tras tal invalidación, se cancela la presentación de
cualquier campo iniciada a través de la selección previa.
Tal como se ilustra en las figuras 1 y 2, los
medios de visualización de esta realización visualizan los
caracteres individuales, representados en la pluralidad adicional
de campos que pueden seleccionarse individualmente, con un aumento
del tamaño de fuente en comparación con el tamaño de fuente del
subconjunto de caracteres gráficos representados en la primera
pluralidad de campos que pueden seleccionarse individualmente. En
una realización alternativa (no mostrada), podría usarse el mismo
tamaño de fuente para presentar todos los caracteres.
Aún en una realización adicional (no mostrada),
con el fin de facilitar la visión general de la interfaz de usuario
por parte del usuario, los medios de visualización proporcionan una
versión ampliada de la pluralidad adicional de campos 13 que pueden
seleccionarse individualmente. Esto se efectúa en respuesta al uso
de los medios de introducción para iniciar el movimiento del
puntero hacia cualquiera de los campos 13 que pueden seleccionarse
individualmente adicionales.
Tal como se ilustra mediante la realización de
las figuras 1 a 3, los medios de visualización visualizan la
pluralidad adicional de campos 13 que pueden seleccionarse
individualmente estando al menos parcialmente recubiertos con la
primera pluralidad previamente visualizada de campos 12 que pueden
seleccionarse individualmente.
Aún en una realización adicional (no mostrada),
el sistema para introducir objetos de un conjunto de objetos en un
dispositivo electrónico se aloja en un microteléfono de un sistema
de comunicación inalámbrico, tal como un teléfono móvil. En esta
realización, como alternativa a la pantalla 10 de visualización que
no es sensible al tacto, podrían controlarse el movimiento del
puntero y la entrada pulsando el usuario teclas designadas de la
pluralidad de teclas que se encuentran comúnmente en tales
dispositivos.
En lugar de alojarse en el microteléfono de un
sistema de comunicación inalámbrico, el sistema para introducir
objetos de un conjunto de objetos en un dispositivo electrónico
puede alojarse en un asistente digital personal, un aparato de
control remoto o cualquier tipo de dispositivo electrónico de mano.
Dependiendo de las características del puntero del dispositivo,
podría realizarse el movimiento por parte del usuario usando medios
de introducción alternativos, tales como las teclas (por ejemplo,
de un aparato de control remoto); una palanca de mando, bola de
control del cursor o ratón para ordenador; un lápiz o el dedo de un
usuario en combinación con un panel táctil o una pantalla sensible
al tacto; o cualquier combinación de los anteriores.
La figura 6 es un diagrama de flujo del método
para introducir objetos de un conjunto de objetos, ilustrados en
este caso como caracteres gráficos de un conjunto de caracteres, en
un dispositivo electrónico según una realización de la presente
invención.
Con el fin de empezar a introducir caracteres
gráficos en el dispositivo electrónico, el usuario inicia el
proceso de introducción. En la realización descrita anteriormente,
esto se logra situando el usuario la punta del puntero sobre la
pantalla sensible al tacto. En otras realizaciones, puede lograrse
la iniciación de varias maneras, por ejemplo, simplemente
encendiendo el dispositivo o pulsando una tecla dedicada en el
dispositivo, o tocando una zona dedicada en una pantalla sensible
al tacto o un panel táctil, etc.
Tras determinar que el usuario ha iniciado el
proceso de introducción (etapa 20), el sistema determina una
primera posición del puntero y visualiza en la pantalla una primera
pluralidad de campos que pueden seleccionarse individualmente, que
rodean la primera posición de puntero. Cada uno de los campos
representa un subconjunto de caracteres gráficos del conjunto de
caracteres (etapa 21). Posteriormente, se determina si el usuario ha
introducido órdenes para el movimiento del puntero hasta cualquiera
de los primeros campos que pueden seleccionarse individualmente
para la selección del campo indicado (etapa 22). Entonces se destaca
el campo seleccionado (etapa 23).
Una vez hecho esto, el sistema cambia para
visualizar en la pantalla una pluralidad adicional de campos que
pueden seleccionarse individualmente (etapa 24) que rodean un campo
seleccionado. Cada uno de los campos adicionales representa o bien
un carácter individual o bien un subconjunto adicional de caracteres
del subconjunto de caracteres gráficos representados en el campo
seleccionado previamente. El sistema determina si el usuario ha
introducido órdenes para el movimiento del puntero hasta cualquiera
de los campos que pueden seleccionarse individualmente adicionales
para la selección y destaca el campo adicional indicado (etapa 25).
En el uso operativo del sistema, este proceso continúa hasta que el
campo adicional seleccionado en último lugar representa un carácter
gráfico individual. Posteriormente, se determina si el usuario ha
introducido órdenes para la introducción del carácter gráfico
representado en el campo adicional seleccionado (etapa 26). Si es
así, el carácter gráfico seleccionado se introduce en un campo de
entrada de texto de la interfaz gráfica de usuario (etapa 27) y se
eliminan los campos visualizados. También se prevé una realización
mejorada adicional para proporcionar sugerencias de palabras como
ayuda para las entradas de texto. Esto se ilustra en la figura 7,
cuyo diagrama de flujo está acoplado al diagrama de flujo de la
figura 6 a través de la flecha 28 de línea discontinua.
Haciendo referencia a la figura 7, considérese
el escenario en el que el usuario no ha introducido órdenes para la
introducción del carácter gráfico representado en el campo adicional
seleccionado. El flujo de proceso se continúa entonces mediante la
flecha 28 de línea discontinua tal como sigue. Se accede a los
medios de almacenamiento de diccionario que almacenan una
pluralidad de palabras candidatas (etapa 29), y se recupera un
subconjunto de palabras candidatas de los medios de almacenamiento
de diccionario basándose o bien en el carácter representado en el
campo adicional seleccionado, o bien en la combinación del carácter
representado en el campo adicional seleccionado y al menos un
carácter introducido previamente (etapa 30). Posteriormente, el
sistema visualiza en la pantalla una pluralidad adicional de campos
que pueden seleccionarse individualmente que rodean el campo
adicional seleccionado. Cada campo de la pluralidad adicional de
campos representa una palabra candidata del subconjunto de palabras
candidatas (etapa 31). Como etapa siguiente, se determina si el
usuario ha introducido órdenes para el movimiento del puntero hasta
cualquiera de los campos que pueden seleccionarse individualmente
adicionales para realizar una selección del campo adicional indicado
(etapa 32). Si es así, entonces se destaca este campo (etapa 33).
Posteriormente, se determina si el usuario ha introducido órdenes
para una introducción de la palabra candidata representada en el
campo adicional seleccionado (etapa 34). Si es así, entonces se
introduce esta palabra en un campo de entrada de texto de la
interfaz gráfica de usuario (etapa 35), sustituyendo cualquier
carácter introducido previamente usado para recuperar las palabras
candidatas.
Por tanto, aunque se han mostrado, descrito y
expuesto características novedosas fundamentales de la invención
aplicadas a una realización preferida de la misma, se entenderá que
los expertos en la técnica pueden realizar diversas omisiones y
sustituciones y cambios en la forma y los detalles de los
dispositivos ilustrados, y en su funcionamiento. Por ejemplo, se
pretende expresamente que todas las combinaciones de aquellos
elementos y/o etapas del método, que realizan sustancialmente la
misma función sustancialmente de la misma manera para lograr los
mismos resultados, se encuentren dentro del alcance de la invención.
Además, debe reconocerse que las estructuras y/o los elementos y/o
las etapas del método tal como se muestran y/o describen en relación
con cualquier forma o realización de la invención dada a conocer
puedan incorporarse en cualquier otra forma o realización dada a
conocer o descrita o sugerida como cuestión general de elección de
diseño. Por tanto, la intención es verse limitada únicamente según
lo indicado por el alcance de las reivindicaciones adjuntas.
Claims (17)
1. Sistema de procesamiento de datos para
seleccionar un objeto a partir de un conjunto de objetos, en el
que:
- -
- el sistema comprende medios de visualización y medios de introducción;
- -
- los medios de visualización están operativos para visualizar un primer subconjunto (12) de los objetos;
- -
- los medios de introducción están operativos para determinar una posición de un puntero con respecto al primer subconjunto de los objetos, para hacer que dependiendo de la posición los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero y que representa un subconjunto de objetos del primer subconjunto, y
- -
- los medios de introducción permiten el movimiento del puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos,
- -
- el puntero puede moverse sobre los medios de visualización con respecto al primer subconjunto (12) de los objetos y los medios de visualización están operativos para visualizar el segundo subconjunto (13) de los objetos que rodean el objeto (12a) específico del primer subconjunto de los objetos que se corresponde con la posición del puntero, en el que dichos medios de visualización están operativos para visualizar al menos un objeto del primer subconjunto de los objetos (12) cuando visualizan el segundo subconjunto (13) de los objetos.
2. Sistema según la reivindicación 1, en el que
dichos medios de introducción están operativos para permitir el
movimiento inverso del puntero desde un objeto seleccionado
actualmente hasta una posición previa del puntero para anular una
selección realizada.
3. Sistema según la reivindicación 1, en el que
el conjunto de objetos comprende un grupo de caracteres
gráficos.
4. Sistema según la reivindicación 3, en el que
los caracteres gráficos comprenden caracteres alfabéticos, y en el
que:
- -
- el sistema comprende medios de almacenamiento de diccionario para almacenar una pluralidad de palabras candidatas;
- -
- el sistema comprende medios de recuperación para recuperar un subconjunto de las palabras candidatas de los medios de almacenamiento de diccionario basándose o bien en un carácter particular de los caracteres alfabéticos seleccionados en último lugar o bien en el carácter alfabético particular seleccionado en último lugar y al menos un carácter adicional de los caracteres alfabéticos seleccionado previamente;
- -
- los medios de visualización están operativos para visualizar dicho subconjunto (15) de las palabras candidatas que pueden seleccionarse individualmente y que rodean el carácter (13a) alfabético seleccionado en último lugar;
- -
- los medios de introducción están operativos para permitir el movimiento del puntero hasta cualquiera de la pluralidad adicional de las palabras candidatas para seleccionar una palabra (15a) específica de las mismas.
5. Sistema según la reivindicación 1, en el que
los medios de visualización visualizan el segundo subconjunto (13)
en una disposición que recubre al menos parcialmente el primer
subconjunto (12).
6. Dispositivo electrónico de mano que comprende
un sistema según cualquiera de las reivindicaciones
1-5.
7. Método de selección de un objeto a partir de
un conjunto de objetos, usando medios de visualización operativos
para visualizar un primer subconjunto de los objetos, comprendiendo
el método:
- -
- determinar una posición de un puntero con respecto al primer subconjunto (12) de los objetos;
- -
- dependiendo de la posición, hacer que los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero, y que representa un subconjunto de objetos del primer subconjunto y
- -
- permitir que se mueva el puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos
en el que el puntero puede moverse sobre los
medios de visualización con respecto al primer subconjunto (12) de
los objetos y se hace que los medios de visualización visualicen el
segundo subconjunto (13) de los objetos que rodean el objeto (12a)
específico del primer subconjunto de los objetos que se corresponde
con la posición del puntero, en el que dichos medios de
visualización visualizan al menos un objeto del primer subconjunto
de los objetos (12) cuando visualizan el segundo subconjunto (13) de
los objetos.
8. Método según la reivindicación 7, en el que
la etapa de permitir el movimiento del puntero permite además el
movimiento inverso del puntero desde un objeto seleccionado
actualmente hasta una posición previa del puntero para anular una
selección realizada.
9. Método según la reivindicación 7, en el que
el conjunto de objetos comprende un grupo de caracteres
gráficos.
10. Método según la reivindicación 9, en el que
los caracteres gráficos comprenden caracteres alfabéticos, y en el
que el método comprende:
- -
- tener disponible una pluralidad de palabras candidatas almacenadas en los medios de almacenamiento de diccionario;
- -
- recuperar un subconjunto de las palabras candidatas basándose o bien en un carácter particular de los caracteres alfabéticos seleccionados en último lugar o bien en el carácter alfabético particular seleccionado en último lugar y al menos un carácter adicional de los caracteres alfabéticos seleccionado previamente;
- -
- hacer que se visualice una pluralidad (15) de las palabras candidatas que pueden seleccionarse individualmente y centradas en el carácter (13a) alfabético seleccionado en último lugar; y
- -
- permitir el movimiento del puntero hasta cualquiera de dicho subconjunto de las palabras candidatas para seleccionar una palabra (15a) específica de las mismas.
11. Método según la reivindicación 7, que
comprende hacer que se visualice el segundo subconjunto (13) en una
disposición que recubre al menos parcialmente el primer subconjunto
(12).
12. Producto de programa informático que
comprende código de software para implementar en un sistema de
procesamiento de datos un método de selección de un objeto a partir
de un conjunto de objetos, usando medios de visualización
operativos para visualizar un primer subconjunto (12) de los
objetos, estando operativo el código de software para:
- -
- determinar una posición de un puntero con respecto al primer subconjunto (12) de los objetos;
- -
- dependiendo de la posición, hacer que los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero y que representa un subconjunto de objetos del primer subconjunto; y
- -
- permitir que se mueva el puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos
en el que el puntero puede moverse sobre los
medios de visualización con respecto al primer subconjunto (12) de
los objetos y el código de software está operativo para hacer que
los medios de visualización visualicen el segundo subconjunto (13)
de los objetos que rodean el objeto (12a) específico del primer
subconjunto de los objetos que se corresponde con la posición del
puntero, en el que el código de software está operativo para hacer
que los medios de visualización visualicen al menos un objeto del
primer subconjunto de los objetos (12) cuando visualizan el segundo
subconjunto (13) de los objetos.
13. Producto de programa informático según la
reivindicación 12, en el que el código de software está operativo
para permitir el movimiento inverso del puntero desde un objeto
seleccionado actualmente hasta una posición previa del puntero para
anular una selección realizada.
14. Producto de programa informático según la
reivindicación 12, en el que el conjunto de objetos comprende un
grupo de caracteres gráficos.
15. Producto de programa informático según la
reivindicación 14, en el que los caracteres gráficos comprenden
caracteres alfabéticos, y en el que el código de software está
operativo para:
- -
- tener acceso a una pluralidad de palabras candidatas almacenadas en medios de almacenamiento de diccionario;
- -
- recuperar un subconjunto de las palabras candidatas basándose o bien en un carácter particular de los caracteres alfabéticos seleccionados en último lugar o bien en el carácter alfabético particular seleccionado en último lugar y al menos un carácter adicional de los caracteres alfabéticos seleccionado previamente;
\newpage
- -
- hacer que se visualice dicho subconjunto de las palabras (15) candidatas que pueden seleccionarse individualmente y que rodean el carácter (13a) alfabético seleccionado en último lugar; y
- -
- permitir el movimiento del puntero hasta cualquiera de la pluralidad de las palabras candidatas para seleccionar una palabra (15a) específica de las mismas.
16. Producto de programa informático según la
reivindicación 12, operativo para hacer que se visualice el segundo
subconjunto (13) en una disposición que recubre al menos
parcialmente el primer subconjunto (12).
17. Producto de programa informático según la
reivindicación 12, para su uso en un dispositivo electrónico de
mano.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP02076985 | 2002-05-21 | ||
EP02076985 | 2002-05-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2328921T3 true ES2328921T3 (es) | 2009-11-19 |
Family
ID=29433166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03752872T Expired - Lifetime ES2328921T3 (es) | 2002-05-21 | 2003-04-23 | Entrada de objeto en un dispositivo electronico. |
Country Status (10)
Country | Link |
---|---|
US (1) | US7424683B2 (es) |
EP (1) | EP1509832B1 (es) |
JP (1) | JP4429898B2 (es) |
KR (1) | KR100941948B1 (es) |
CN (1) | CN1308803C (es) |
AT (1) | ATE436048T1 (es) |
AU (1) | AU2003225484A1 (es) |
DE (1) | DE60328284D1 (es) |
ES (1) | ES2328921T3 (es) |
WO (1) | WO2003098417A2 (es) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
WO2005081894A2 (en) | 2004-02-23 | 2005-09-09 | Hillcrest Laboratories, Inc. | Keyboardless text entry |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
KR100672362B1 (ko) * | 2005-02-16 | 2007-01-24 | 엘지전자 주식회사 | 이동통신 단말기의 문자 입력 방법 |
US20080098331A1 (en) * | 2005-09-16 | 2008-04-24 | Gregory Novick | Portable Multifunction Device with Soft Keyboards |
US7694231B2 (en) | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
KR100772580B1 (ko) * | 2006-02-28 | 2007-11-02 | 삼성전자주식회사 | 휴대단말기의 특수문자 관리방법 |
US10521022B2 (en) * | 2006-03-17 | 2019-12-31 | Conversant Wireless Licensing S.a.r.l. | Mobile communication terminal and method therefor |
GB0605386D0 (en) * | 2006-03-17 | 2006-04-26 | Malvern Scient Solutions Ltd | Character input method |
KR100755360B1 (ko) * | 2006-09-26 | 2007-09-04 | 삼성전자주식회사 | 휴대 단말기 및 메뉴 표시 방법 |
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
EP1959238B1 (en) * | 2007-02-13 | 2018-05-23 | Harman Becker Automotive Systems GmbH | Method for inputting a destination in a navigation unit and nagivation system therefor |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
JP5207699B2 (ja) * | 2007-09-28 | 2013-06-12 | 京セラ株式会社 | 文字入力装置、文字入力方法および文字入力プログラム |
US8839123B2 (en) * | 2007-11-19 | 2014-09-16 | Red Hat, Inc. | Generating a visual user interface |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
JP2009169456A (ja) * | 2008-01-10 | 2009-07-30 | Nec Corp | 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置 |
US8667413B2 (en) * | 2008-02-14 | 2014-03-04 | Creative Technology Ltd | Apparatus and method for information input in an electronic device with display |
US8570279B2 (en) | 2008-06-27 | 2013-10-29 | Apple Inc. | Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard |
JP2010033254A (ja) * | 2008-07-28 | 2010-02-12 | Speedscript Ltd | アジア言語の高速入力システム |
US20100110002A1 (en) * | 2008-11-06 | 2010-05-06 | Sony Ericsson Mobile Communications Ab | Communication device with combined input and display device |
US8605039B2 (en) * | 2009-03-06 | 2013-12-10 | Zimpl Ab | Text input |
US20100333014A1 (en) * | 2009-06-24 | 2010-12-30 | Research In Motion Limited | Method and system for rendering data records |
US8806362B2 (en) | 2010-01-06 | 2014-08-12 | Apple Inc. | Device, method, and graphical user interface for accessing alternate keys |
CN102193641B (zh) * | 2010-03-09 | 2014-06-18 | 阿里巴巴集团控股有限公司 | 字符输入过程中的待选字符显示方法及装置 |
US8686955B2 (en) * | 2010-03-11 | 2014-04-01 | Apple Inc. | Device, method, and graphical user interface for performing character entry |
EP2367118A1 (en) * | 2010-03-15 | 2011-09-21 | GMC Software AG | Method and devices for generating two-dimensional visual objects |
JP6115867B2 (ja) * | 2010-05-24 | 2017-04-26 | テンプル,ウィル,ジョン | 1つ以上の多方向ボタンを介して電子機器と相互作用できるようにする方法およびコンピューティングデバイス |
US8487877B2 (en) | 2010-06-10 | 2013-07-16 | Michael William Murphy | Character specification system and method that uses a limited number of selection keys |
KR20120033918A (ko) * | 2010-09-30 | 2012-04-09 | 삼성전자주식회사 | 터치스크린을 구비한 휴대용 단말기의 입력 방법 및 장치 |
CN102455853B (zh) * | 2010-11-01 | 2016-08-03 | 纬创资通股份有限公司 | 输入方法、输入装置及计算机*** |
US20120124472A1 (en) * | 2010-11-15 | 2012-05-17 | Opera Software Asa | System and method for providing interactive feedback for mouse gestures |
JP2012123461A (ja) * | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | 電子機器 |
US20120162086A1 (en) * | 2010-12-27 | 2012-06-28 | Samsung Electronics Co., Ltd. | Character input method and apparatus of terminal |
US8704789B2 (en) * | 2011-02-11 | 2014-04-22 | Sony Corporation | Information input apparatus |
CN102281352B (zh) * | 2011-07-29 | 2014-02-26 | 华为技术有限公司 | 联系人列表显示方法及终端 |
CN104160361A (zh) | 2012-02-06 | 2014-11-19 | 迈克尔·K·科尔比 | 字符串完成 |
US9256366B2 (en) | 2012-08-14 | 2016-02-09 | Google Technology Holdings LLC | Systems and methods for touch-based two-stage text input |
US8701050B1 (en) * | 2013-03-08 | 2014-04-15 | Google Inc. | Gesture completion path display for gesture-based keyboards |
US9274685B2 (en) | 2013-03-15 | 2016-03-01 | Google Technology Holdings LLC | Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input |
JP6112968B2 (ja) | 2013-05-23 | 2017-04-12 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | コマンド生成方法、装置及びプログラム |
JP2015130207A (ja) * | 2015-04-15 | 2015-07-16 | スピードスクリプト リミテッド | アジア言語の高速入力システム |
US10452264B2 (en) | 2015-04-30 | 2019-10-22 | Michael William Murphy | Systems and methods for word identification that use button press type error analysis |
KR101678094B1 (ko) * | 2015-07-03 | 2016-11-23 | 현대자동차주식회사 | 차량, 및 그 제어방법 |
US10546053B2 (en) * | 2016-05-18 | 2020-01-28 | Citrix Systems, Inc. | Semi-automated field placement for electronic forms |
US10365823B2 (en) | 2017-03-02 | 2019-07-30 | International Business Machines Corporation | Simplified text entry user interface for touch devices |
US10671181B2 (en) * | 2017-04-03 | 2020-06-02 | Microsoft Technology Licensing, Llc | Text entry interface |
BR112019024245A2 (pt) | 2017-05-19 | 2020-06-02 | William Murphy Michael | Interface de seleção de caracteres entrelaçados |
JP6482622B2 (ja) * | 2017-09-14 | 2019-03-13 | スピードスクリプト リミテッド | アジア言語の高速入力システム |
US11922007B2 (en) | 2018-11-29 | 2024-03-05 | Michael William Murphy | Apparatus, method and system for inputting characters to an electronic device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5940076A (en) * | 1997-12-01 | 1999-08-17 | Motorola, Inc. | Graphical user interface for an electronic device and method therefor |
GB2332293A (en) * | 1997-12-11 | 1999-06-16 | British Telecomm | An Input Device |
US6011542A (en) | 1998-02-13 | 2000-01-04 | Sony Corporation | Graphical text entry wheel |
DE60003177T2 (de) * | 1999-03-18 | 2004-05-06 | 602531 British Columbia Ltd., Vancouver | Dateneingabe für personalrechnergeräte |
EP1081583A3 (en) * | 1999-08-31 | 2005-07-06 | Sony Corporation | Menu display system |
GB2364493B (en) * | 2000-06-30 | 2004-11-10 | Nokia Mobile Phones Ltd | Improved data input |
US6907581B2 (en) * | 2001-04-03 | 2005-06-14 | Ramot At Tel Aviv University Ltd. | Method and system for implicitly resolving pointing ambiguities in human-computer interaction (HCI) |
-
2003
- 2003-04-23 ES ES03752872T patent/ES2328921T3/es not_active Expired - Lifetime
- 2003-04-23 CN CNB038114968A patent/CN1308803C/zh not_active Expired - Lifetime
- 2003-04-23 WO PCT/IB2003/001710 patent/WO2003098417A2/en active Application Filing
- 2003-04-23 JP JP2004505864A patent/JP4429898B2/ja not_active Expired - Lifetime
- 2003-04-23 DE DE60328284T patent/DE60328284D1/de not_active Expired - Lifetime
- 2003-04-23 US US10/514,594 patent/US7424683B2/en active Active
- 2003-04-23 EP EP03752872A patent/EP1509832B1/en not_active Expired - Lifetime
- 2003-04-23 KR KR1020047018628A patent/KR100941948B1/ko active IP Right Grant
- 2003-04-23 AT AT03752872T patent/ATE436048T1/de not_active IP Right Cessation
- 2003-04-23 AU AU2003225484A patent/AU2003225484A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP1509832B1 (en) | 2009-07-08 |
DE60328284D1 (de) | 2009-08-20 |
JP4429898B2 (ja) | 2010-03-10 |
US20060095844A1 (en) | 2006-05-04 |
ATE436048T1 (de) | 2009-07-15 |
WO2003098417A2 (en) | 2003-11-27 |
US7424683B2 (en) | 2008-09-09 |
KR20040111642A (ko) | 2004-12-31 |
EP1509832A2 (en) | 2005-03-02 |
CN1666168A (zh) | 2005-09-07 |
WO2003098417A3 (en) | 2004-11-11 |
JP2005526321A (ja) | 2005-09-02 |
KR100941948B1 (ko) | 2010-02-11 |
CN1308803C (zh) | 2007-04-04 |
AU2003225484A8 (en) | 2003-12-02 |
AU2003225484A1 (en) | 2003-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2328921T3 (es) | Entrada de objeto en un dispositivo electronico. | |
US8151209B2 (en) | User input for an electronic device employing a touch-sensor | |
ES2202070T3 (es) | Entrada de datos para dispositivos informaticos personales. | |
US6744427B2 (en) | Character input interface for compact electronic devices | |
US7487147B2 (en) | Predictive user interface | |
US6104317A (en) | Data entry device and method | |
US7075519B2 (en) | Method for entering a character sequence into an electronic device as well as an electronic device for performing said method | |
US6011542A (en) | Graphical text entry wheel | |
JP4863211B2 (ja) | 文字データ入力装置 | |
US8605039B2 (en) | Text input | |
US9140572B2 (en) | Methods for controlling a navigation system | |
KR101718881B1 (ko) | 다단계 메뉴 선택을 위한 방법 및 그 방법을 수행하는 전자 기기 | |
JP2005235188A (ja) | データ入力装置 | |
JP2001265500A (ja) | 情報処理装置、文字入力方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
US20030128241A1 (en) | Information terminal device | |
JP2002278694A (ja) | ストローク運動に基づくデータ入力装置とグラフィカルインターフェイス方式 | |
KR101313287B1 (ko) | 문자 입력을 제공하는 방법, 단말기 및 기록매체 | |
US9996240B2 (en) | Device associated with a vehicle and having a spelling system with a delete button and/or list selection button | |
JP3841590B2 (ja) | ソフトウェアキーボード装置 | |
EP0810513A1 (en) | Data processing entry system provided with soft keyboard that has an ergonomic layout based on preferred positions of certain characters | |
US10539426B2 (en) | Device associated with a vehicle and having a spelling system with a completion indication | |
JP2004310543A (ja) | キャラクター入力装置、キャラクター入力方法、キャラクター入力プログラム、およびコンピュータ読み取り可能な記録媒体 | |
JP4317634B2 (ja) | 文字入力装置及び方法並びにこれに利用される記憶媒体 | |
KR100909592B1 (ko) | 커서를 이용한 휴대단말기의 문자 입력 방법 | |
JP2011034281A (ja) | 電子機器、文字受付方法、および文字受付プログラム |