ES2328921T3 - Entrada de objeto en un dispositivo electronico. - Google Patents

Entrada de objeto en un dispositivo electronico. Download PDF

Info

Publication number
ES2328921T3
ES2328921T3 ES03752872T ES03752872T ES2328921T3 ES 2328921 T3 ES2328921 T3 ES 2328921T3 ES 03752872 T ES03752872 T ES 03752872T ES 03752872 T ES03752872 T ES 03752872T ES 2328921 T3 ES2328921 T3 ES 2328921T3
Authority
ES
Spain
Prior art keywords
subset
objects
display
pointer
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03752872T
Other languages
English (en)
Inventor
Marco Van Leeuwen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of ES2328921T3 publication Critical patent/ES2328921T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)
  • Vending Machines For Individual Products (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Push-Button Switches (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Position Input By Displaying (AREA)

Abstract

Sistema de procesamiento de datos para seleccionar un objeto a partir de un conjunto de objetos, en el que: - el sistema comprende medios de visualización y medios de introducción; - los medios de visualización están operativos para visualizar un primer subconjunto (12) de los objetos; - los medios de introducción están operativos para determinar una posición de un puntero con respecto al primer subconjunto de los objetos, para hacer que dependiendo de la posición los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero y que representa un subconjunto de objetos del primer subconjunto, y - los medios de introducción permiten el movimiento del puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos, - el puntero puede moverse sobre los medios de visualización con respecto al primer subconjunto (12) de los objetos y los medios de visualización están operativos para visualizar el segundo subconjunto (13) de los objetos que rodean el objeto (12a) específico del primer subconjunto de los objetos que se corresponde con la posición del puntero, en el que dichos medios de visualización están operativos para visualizar al menos un objeto del primer subconjunto de los objetos (12) cuando visualizan el segundo subconjunto (13) de los objetos.

Description

Entrada de objeto en un dispositivo electrónico.
La presente invención se refiere al campo de la selección de objetos mediante un dispositivo electrónico que comprende una pantalla de visualización, y particularmente a un método y aparato para seleccionar objetos, tales como caracteres gráficos, mediante un aparato electrónico pequeño o portátil, que no tiene un teclado alfanumérico convencional con teclas diferenciadas. Más específicamente, la invención se refiere a un sistema eficaz para seleccionar objetos a partir de un gran conjunto de objetos cuando el área disponible en la pantalla de visualización es relativamente limitada, tal como en un teléfono celular, o en un asistente digital personal. La presente invención también se refiere a un producto de programa informático que comprende segmentos de código de software para implementar el sistema y un método para seleccionar objetos mediante un aparato electrónico pequeño o portátil cuando se está ejecutando dicho producto.
Recientemente, la proliferación del número de aparatos electrónicos pequeños o portátiles ha supuesto un reto para los usuarios, que quieren introducir eficazmente datos en tales dispositivos. Por ejemplo, considérense los muchos tipos diferentes de dispositivos, tales como: asistentes digitales personales (PDA, personal digital assistants) (también conocidos como gestores de información personal); dispositivos de comunicación personal (por ejemplo, teléfonos móviles); ordenadores personales portátiles; controles remotos multifuncionales; dispositivos tipo web-tablet, por nombrar algunos, que ayudan a los usuarios a almacenar y organizar o procesar de otro modo la información. Recientemente, la tendencia ha sido hacia una reducción cada vez mayor del tamaño de tales dispositivos. Sin embargo, esta reducción de tamaño ha dado como resultado el problema de que la entrada de datos en estos dispositivos con frecuencia es muy difícil.
Es bastante común dotar estas clases de dispositivos de diversos sistemas para facilitar la introducción de texto. Un sistema usado comúnmente con los teléfonos móviles es hacer que cada tecla numérica del teléfono móvil represente un conjunto ordenado de hasta cuatro caracteres. Esto permite al usuario introducir un carácter específico pulsando la tecla apropiada varias veces, lo que corresponde al carácter deseado. En el caso de los PDA, se ha usado comúnmente un sistema de introducción de texto basado en la interpretación de letra escrita a mano, que requiere con frecuencia que el usuario aplique un estilo de escritura específico. Otros aparatos proporcionan un teclado alfanumérico virtual (teclas programables) para la introducción de caracteres mediante una pantalla sensible al tacto. El usuario selecciona los caracteres usando normalmente un lápiz.
Un enfoque de la técnica anterior para proporcionar un sistema de entrada de texto gráfico ha consistido en visualizar una rueda de entrada de texto gráfico en una pantalla de entrada de texto gráfico. Una pluralidad de caracteres está situada sobre la rueda. El sistema también incluye un dispositivo apuntador para hacer girar la rueda que permite a un usuario seleccionar los caracteres que van a introducirse, uno cada vez. Tras la selección de uno o más caracteres, el sistema puede proporcionar sugerencias para caracteres o palabras posteriores como ayuda para las entradas de texto. Se da a conocer un sistema de este tipo en la patente estadounidense 6.011.542, concedida a Sony.
El documento EP 1 168 870 A2 da a conocer un aparato para seleccionar una unidad de datos a partir de un conjunto predeterminado de unidades de datos. El aparato comprende una interfaz de usuario que comprende una entrada que tiene una pluralidad de actuadores, y una salida. Comprende además medios de control para controlar la interfaz de usuario para proporcionar una primera selección de menú que comprende una pluralidad de unidades de datos que no supera el número de actuadores, y medios de selección que responden al funcionamiento de los actuadores para seleccionar la unidad de datos del menú asociada con el actuador operado. Los medios de control controlan la interfaz de usuario para proporcionar una selección de menú adicional en respuesta a la selección de una unidad de datos, representando al menos una unidad de datos de la selección de menú adicional, un subconjunto de la unidad de datos seleccionada.
El documento WO-A-00/57265 da a conocer un sistema de entrada de datos en el que el usuario puede introducir y buscar rápidamente texto a través de una combinación de la entrada de uno o más caracteres en un teclado visualizado de manera digital con un dispositivo apuntador y el uso de una lista de búsqueda para obtener una lista de candidatos para la finalización. El usuario puede activar la lista de búsqueda para obtener una lista de candidatos para la finalización en cualquier momento mientras introduce una entrada de texto parcial con el sistema de entrada de datos. Cuando la lista de búsqueda está activa, se visualiza una lista de candidatos para la finalización en una interfaz gráfica de usuario para que el usuario seleccione de ella y el usuario puede realizar una de varias acciones. El usuario puede desactivar la lista de búsqueda y volver a modificar la entrada de texto parcial actual y otro texto. El usuario puede seleccionar uno de los candidatos para la finalización en la lista de búsqueda y usar el candidato para la finalización seleccionado para sustituir la entrada de texto parcial que el usuario está introduciendo actualmente. Cuando el usuario desactiva la lista de búsqueda interactiva, el usuario puede continuar inmediatamente añadiendo o modificando la entrada de texto parcial actual que está introduciendo, y puede volver a recurrir a la lista de búsqueda para buscar adicionalmente candidatos para la finalización basándose en la entrada de texto parcial modificada. En el segundo caso, el candidato para la finalización seleccionado se usa para sustituir la entrada de texto parcial que el usuario está introduciendo actualmente, y el sistema de entrada de datos empieza a monitorizar una nueva entrada de texto parcial por parte del usuario.
\newpage
Por consiguiente, es un objeto de la presente invención proporcionar un sistema mejorado para la introducción de objetos, tales como caracteres gráficos, en un aparato electrónico pequeño.
Otro objeto de la invención es proporcionar un sistema mejorado para introducir caracteres gráficos en un aparato electrónico pequeño también para proporcionar sugerencias de palabras como ayuda para las entradas de texto.
Un objeto adicional de la invención es proporcionar un sistema para introducir objetos en un aparato electrónico pequeño usando pequeños movimientos de un dedo o un lápiz sobre una pantalla sensible al tacto.
Todavía un objeto adicional de la invención es proporcionar un sistema mejorado para introducir objetos en un aparato electrónico pequeño, en el que la selección y la entrada de objetos individuales se logran en campos seleccionables individualmente que requieren sólo una cantidad limitada de espacio para representarse en la pantalla de visualización del pequeño aparato de información.
Aún otro objeto de la invención es proporcionar un sistema para introducir objetos en un aparato electrónico pequeño, permitiendo el sistema al usuario introducir cualquier objeto individual de un gran conjunto de objetos.
Todavía un objeto adicional de la invención es proporcionar un producto de programa informático que comprende segmentos de código de software para implementar el sistema, y para implementar un método para introducir objetos en un aparato electrónico pequeño o portátil cuando se ejecuta dicho producto.
Según la invención, se proporcionan un sistema de procesamiento de datos según la reivindicación independiente 1, un método según la reivindicación independiente 7 y un programa informático según la reivindicación independiente 12. Se definen realizaciones favorables en las reivindicaciones dependientes.
Resultarán evidentes objetos y características adicionales de la presente invención a partir de la siguiente descripción detallada considerada junto con los dibujos adjuntos. Sin embargo, ha de entenderse que los dibujos están diseñados únicamente con fines de ilustración y no como una definición de los límites de la invención, para lo que debe hacerse referencia a las reivindicaciones adjuntas. Debe entenderse además que los dibujos no están trazados necesariamente a escala y que, a menos que se indique lo contrario, meramente pretenden ilustrar de modo conceptual las estructuras y los procedimientos descritos en el presente documento.
En los dibujos, en los que los caracteres de referencia similares indican elementos similares en la totalidad de las diversas vistas:
la figura 1 es una vista en planta desde arriba del nivel superior de campos que pueden seleccionarse individualmente, representando cada uno de ellos un subconjunto de objetos de un conjunto mayor de objetos, ilustrado en este caso como subconjuntos de caracteres gráficos;
la figura 2 es una vista en planta desde arriba de un nivel subordinado de campos que pueden seleccionarse individualmente, representando cada uno de ellos un carácter individual del subconjunto de caracteres gráficos representados en los campos de la figura 1;
la figura 3 es una vista en planta desde arriba que ilustra la selección de un carácter gráfico individual a partir de los caracteres representados en el nivel subordinado de campos que pueden seleccionarse individualmente de la figura 2;
la figura 4 es una vista en planta desde arriba que ilustra un nivel subordinado adicional de campos que pueden seleccionarse individualmente, representando cada uno de ellos una palabra candidata para su entrada según una segunda realización de la presente invención;
la figura 5 es una vista en planta desde arriba que ilustra la selección de una palabra individual a partir de las palabras candidatas representadas en el nivel subordinado adicional de campos que pueden seleccionarse individualmente de la figura 4;
la figura 6 es un diagrama de flujo del método para introducir objetos de la realización de las figuras 1 a 3; y
la figura 7 ilustra una extensión del diagrama de flujo de la figura 6 que representa el método para proporcionar sugerencias de palabras como ayuda para las entradas de texto según la realización de las figuras 4 y 5.
La figura 1 muestra una pantalla 10 de visualización gráfica que visualiza una vista en planta desde arriba de un sistema de interfaz gráfica de usuario para introducir objetos, seleccionados a partir de un conjunto de objetos, en un dispositivo electrónico según una realización de la presente invención. La pantalla 10 del dispositivo electrónico comprende medios de visualización. Los medios de visualización pueden ser cualquier tipo de visualización usado comúnmente, tal como: una pantalla de cristal líquido; una pantalla de visualización de plasma; una pantalla electrocrómica; una pantalla de rayos catódicos. Los medios de visualización son preferiblemente sensibles al tacto. El dispositivo electrónico también comprende medios de introducción de usuario (no mostrados) tal como un panel táctil o una pantalla sensible al tacto que se opera con un lápiz y/o dedo. Alternativamente, pueden proporcionarse medios de introducción de usuario para su uso con una pantalla que no es sensible al tacto, tal como las teclas de un microteléfono de un sistema de comunicaciones inalámbrico; las teclas de un aparato de control remoto; una palanca de mando (joystick), bola de control del cursor o ratón para ordenador, o cualquier combinación de los anteriores. Sin embargo, esta alternativa podría requerir ciertos ajustes menores de los gráficos de soporte además de lo que se describirá a continuación.
Para facilitar la comprensión, la presente realización se describirá con referencia a un dispositivo electrónico que comprende una pantalla de visualización sensible al tacto con la que interacciona el usuario a través de un lápiz y/o el dedo del usuario. La interacción proporciona al usuario la introducción en el dispositivo electrónico por medio de la realización de operaciones en la interfaz gráfica de usuario del sistema de entrada de objetos.
Cuando el usuario sitúa el lápiz y/o dedo, denominado a continuación en el presente documento como puntero, en una ubicación en la pantalla 10, los medios de visualización determinan esta primera posición 11 de puntero y visualizan una primera pluralidad de campos 12 que pueden seleccionarse individualmente que representan un nivel superior de la interfaz gráfica de usuario. Los campos 12 se visualizan rodeando la primera posición 11 de puntero. Tal como se muestra en la figura 1, estos campos 12 se representan como casillas rectangulares o cuadradas, pero alternativamente podrían adoptar cualquier forma o conformación adecuada, tal como circular, triangular o en sectores circulares. Cada uno de estos campos 12 representa un subconjunto de objetos de un conjunto mayor de objetos. Para facilitar la comprensión, los objetos se ilustran en este caso como caracteres gráficos de un conjunto mayor de caracteres, por ejemplo, tal como se muestra en la figura 1, el alfabeto de la a a la z y algunos caracteres adicionales específicos del país. Sin embargo, se pretende que los objetos puedan ser objetos de otras clases de grupos de datos, por ejemplo, un conjunto de datos que representan información de contacto de personas individuales (como en una lista de teléfono), o una carpeta de nivel superior, que contiene cualquier número de carpetas subordinadas con o bien carpetas subordinadas adicionales o bien objetos que pueden seleccionarse individualmente representativos de unidades de datos o funciones, que son accesibles a través de la interfaz de usuario del dispositivo electrónico. Los medios de introducción están entonces operativos para permitir el movimiento del puntero hasta cualquiera de los primeros campos 12 que pueden seleccionarse individualmente. Esto se logra a través del movimiento del puntero por parte del usuario, manteniéndolo en contacto con la pantalla 10 sensible al tacto, hasta el campo que representa el subconjunto de caracteres deseado. Este subconjunto deseado se ilustra en la figura 2 como el campo 12a de color negro que contiene los caracteres f a j, para realizar una selección del campo indicado. Cuando se ha realizado esta selección, dichos medios de visualización están operativos para generar una nueva vista en la que un campo seleccionado está rodeado por una pluralidad adicional de campos 13 que pueden seleccionarse individualmente. Cada uno de los campos 13 representa o bien un carácter individual o un subconjunto adicional de caracteres (no mostrado) del subconjunto de caracteres gráficos representados en el campo seleccionado previamente. De nuevo, se permite el movimiento del puntero, manteniéndolo en contacto con la pantalla sensible al tacto, hasta cualquiera de los campos 13 que pueden seleccionarse individualmente adicionales hasta que el campo adicional seleccionado representa un carácter individual. El carácter seleccionado se ilustra en la figura 3 como el campo 13a de color negro que contiene el carácter "h". De esta manera, puede proporcionarse cualquier número de niveles subordinados de campos que pueden seleccionarse individualmente, aunque la realización, mostrada en este caso como ejemplo, sólo tenga un nivel subordinado.
Tal como se muestra en la figura 2, sólo esos campos contienen un carácter y por tanto pueden seleccionarse, que se visualizan como no recubiertos con los campos de la primera pluralidad de campos 12. Naturalmente es posible asignar caracteres a todos los campos 13 adicionales. Sin embargo, se prefiere el modo de presentación de los caracteres en la realización mostrada en este caso, ya que esto facilita el mantenimiento de una visión general de la interfaz gráfica de usuario por parte del usuario. Esto también permite que el usuario realice un movimiento inverso del puntero hasta el nivel previo para invalidar una selección realizada. Como alternativa, podrían eliminarse por completo todos los campos menos uno de un nivel previo, lo que todavía proporcionaría ayuda al realizar este movimiento inverso. Todavía como una alternativa adicional, podrían eliminarse todos los campos del nivel previo y sustituirse por una indicación del sentido de movimiento para ayudar al usuario a volver a un nivel previo. Los medios de introducción están operativos además para permitir la introducción del carácter gráfico, representado en el campo 13a adicional seleccionado, a través de que el usuario levante el puntero de la pantalla sensible al tacto. Tras levantarlo, se introduce el carácter gráfico seleccionado en un campo 14 de entrada de texto de la interfaz gráfica de usuario y se eliminan los campos visualizados. El campo 14 de entrada de texto de las figuras 1 a 3 tal como se ilustra, contiene un carácter introducido previamente, ilustrado en este caso como el carácter "s", con el fin de facilitar la siguiente descripción. Tras levantar el usuario el puntero de la pantalla sensible al tacto, ilustrado en la figura 3, se introduce el carácter "h" en el campo 14 de entrada de texto tras el carácter "s".
Según una realización adicional del sistema en la invención, el sistema proporciona sugerencias de palabras como ayuda para las entradas de texto. Además de lo que se ha descrito con referencia a las figuras 1, 2 y 3, el sistema según esta segunda realización comprende además medios de almacenamiento de diccionario (no mostrados), tales como cualquier tipo convencional de memoria, por ejemplo, circuitos de memoria RAM, circuitos de memoria ROM, un dispositivo de memoria magnética (tal como una unidad de disco duro) o un dispositivo de memoria óptica (tal como una unidad de CD-ROM o DVD). Los medios de almacenamiento de diccionario almacenan una pluralidad de palabras candidatas. El sistema comprende además medios de recuperación (no mostrados) para recuperar un subconjunto de palabras candidatas de los medios de almacenamiento de diccionario. Los medios de recuperación comprenden preferiblemente un microprocesador y segmentos de código de software para realizar el proceso de recuperación cuando se ejecutan en dicho microprocesador. El subconjunto de palabras candidatas se recupera basándose en o bien el carácter representado en el campo adicional seleccionado o bien la combinación del carácter representado en el campo adicional seleccionado y al menos un carácter introducido previamente, tal como se ilustra mediante el carácter "s" en el campo 14 de entrada de texto de las figuras 1, 2 y 3. Tras haberse recuperado dicho subconjunto de palabras candidatas, los medios de visualización visualizan una pluralidad 15 adicional de campos que pueden seleccionarse individualmente que rodean el campo 13a adicional seleccionado y que representan un nivel subordinado adicional de la interfaz gráfica de usuario. Cada uno de los campos 15 que pueden seleccionarse individualmente adicionales representa una palabra candidata del subconjunto de palabras candidatas. Los medios de introducción permiten el movimiento del puntero hasta cualquiera de los campos 15 que pueden seleccionarse individualmente adicionales a través del movimiento del puntero por parte del usuario, manteniéndolo en contacto con la pantalla 10 sensible al tacto, hasta el campo que representa la palabra candidata deseada. La palabra candidata deseada se ilustra en la figura 5 como el campo 15a de color negro que contiene la palabra "ship" ("barco"), para realizar una selección del campo adicional indicado. Los medios de introducción permiten la introducción de la palabra candidata, representada en el campo 15a adicional seleccionado, a través de que el usuario levante el puntero de la pantalla 10 sensible al tacto. Esto hace entonces que la palabra candidata seleccionada se introduzca en el campo 14 de entrada de texto de la interfaz gráfica de usuario, mientras se sustituye el carácter introducido previamente, mostrado como el carácter "s" en la figura 5.
En ambas realizaciones anteriores, los medios de introducción permiten el movimiento inverso del puntero a través de que el usuario mueva el puntero, manteniéndolo en contacto con la pantalla sensible al tacto, desde un campo seleccionado actualmente hasta una posición previa del puntero para invalidar una selección realizada. Tras tal invalidación, se cancela la presentación de cualquier campo iniciada a través de la selección previa.
Tal como se ilustra en las figuras 1 y 2, los medios de visualización de esta realización visualizan los caracteres individuales, representados en la pluralidad adicional de campos que pueden seleccionarse individualmente, con un aumento del tamaño de fuente en comparación con el tamaño de fuente del subconjunto de caracteres gráficos representados en la primera pluralidad de campos que pueden seleccionarse individualmente. En una realización alternativa (no mostrada), podría usarse el mismo tamaño de fuente para presentar todos los caracteres.
Aún en una realización adicional (no mostrada), con el fin de facilitar la visión general de la interfaz de usuario por parte del usuario, los medios de visualización proporcionan una versión ampliada de la pluralidad adicional de campos 13 que pueden seleccionarse individualmente. Esto se efectúa en respuesta al uso de los medios de introducción para iniciar el movimiento del puntero hacia cualquiera de los campos 13 que pueden seleccionarse individualmente adicionales.
Tal como se ilustra mediante la realización de las figuras 1 a 3, los medios de visualización visualizan la pluralidad adicional de campos 13 que pueden seleccionarse individualmente estando al menos parcialmente recubiertos con la primera pluralidad previamente visualizada de campos 12 que pueden seleccionarse individualmente.
Aún en una realización adicional (no mostrada), el sistema para introducir objetos de un conjunto de objetos en un dispositivo electrónico se aloja en un microteléfono de un sistema de comunicación inalámbrico, tal como un teléfono móvil. En esta realización, como alternativa a la pantalla 10 de visualización que no es sensible al tacto, podrían controlarse el movimiento del puntero y la entrada pulsando el usuario teclas designadas de la pluralidad de teclas que se encuentran comúnmente en tales dispositivos.
En lugar de alojarse en el microteléfono de un sistema de comunicación inalámbrico, el sistema para introducir objetos de un conjunto de objetos en un dispositivo electrónico puede alojarse en un asistente digital personal, un aparato de control remoto o cualquier tipo de dispositivo electrónico de mano. Dependiendo de las características del puntero del dispositivo, podría realizarse el movimiento por parte del usuario usando medios de introducción alternativos, tales como las teclas (por ejemplo, de un aparato de control remoto); una palanca de mando, bola de control del cursor o ratón para ordenador; un lápiz o el dedo de un usuario en combinación con un panel táctil o una pantalla sensible al tacto; o cualquier combinación de los anteriores.
La figura 6 es un diagrama de flujo del método para introducir objetos de un conjunto de objetos, ilustrados en este caso como caracteres gráficos de un conjunto de caracteres, en un dispositivo electrónico según una realización de la presente invención.
Con el fin de empezar a introducir caracteres gráficos en el dispositivo electrónico, el usuario inicia el proceso de introducción. En la realización descrita anteriormente, esto se logra situando el usuario la punta del puntero sobre la pantalla sensible al tacto. En otras realizaciones, puede lograrse la iniciación de varias maneras, por ejemplo, simplemente encendiendo el dispositivo o pulsando una tecla dedicada en el dispositivo, o tocando una zona dedicada en una pantalla sensible al tacto o un panel táctil, etc.
Tras determinar que el usuario ha iniciado el proceso de introducción (etapa 20), el sistema determina una primera posición del puntero y visualiza en la pantalla una primera pluralidad de campos que pueden seleccionarse individualmente, que rodean la primera posición de puntero. Cada uno de los campos representa un subconjunto de caracteres gráficos del conjunto de caracteres (etapa 21). Posteriormente, se determina si el usuario ha introducido órdenes para el movimiento del puntero hasta cualquiera de los primeros campos que pueden seleccionarse individualmente para la selección del campo indicado (etapa 22). Entonces se destaca el campo seleccionado (etapa 23).
Una vez hecho esto, el sistema cambia para visualizar en la pantalla una pluralidad adicional de campos que pueden seleccionarse individualmente (etapa 24) que rodean un campo seleccionado. Cada uno de los campos adicionales representa o bien un carácter individual o bien un subconjunto adicional de caracteres del subconjunto de caracteres gráficos representados en el campo seleccionado previamente. El sistema determina si el usuario ha introducido órdenes para el movimiento del puntero hasta cualquiera de los campos que pueden seleccionarse individualmente adicionales para la selección y destaca el campo adicional indicado (etapa 25). En el uso operativo del sistema, este proceso continúa hasta que el campo adicional seleccionado en último lugar representa un carácter gráfico individual. Posteriormente, se determina si el usuario ha introducido órdenes para la introducción del carácter gráfico representado en el campo adicional seleccionado (etapa 26). Si es así, el carácter gráfico seleccionado se introduce en un campo de entrada de texto de la interfaz gráfica de usuario (etapa 27) y se eliminan los campos visualizados. También se prevé una realización mejorada adicional para proporcionar sugerencias de palabras como ayuda para las entradas de texto. Esto se ilustra en la figura 7, cuyo diagrama de flujo está acoplado al diagrama de flujo de la figura 6 a través de la flecha 28 de línea discontinua.
Haciendo referencia a la figura 7, considérese el escenario en el que el usuario no ha introducido órdenes para la introducción del carácter gráfico representado en el campo adicional seleccionado. El flujo de proceso se continúa entonces mediante la flecha 28 de línea discontinua tal como sigue. Se accede a los medios de almacenamiento de diccionario que almacenan una pluralidad de palabras candidatas (etapa 29), y se recupera un subconjunto de palabras candidatas de los medios de almacenamiento de diccionario basándose o bien en el carácter representado en el campo adicional seleccionado, o bien en la combinación del carácter representado en el campo adicional seleccionado y al menos un carácter introducido previamente (etapa 30). Posteriormente, el sistema visualiza en la pantalla una pluralidad adicional de campos que pueden seleccionarse individualmente que rodean el campo adicional seleccionado. Cada campo de la pluralidad adicional de campos representa una palabra candidata del subconjunto de palabras candidatas (etapa 31). Como etapa siguiente, se determina si el usuario ha introducido órdenes para el movimiento del puntero hasta cualquiera de los campos que pueden seleccionarse individualmente adicionales para realizar una selección del campo adicional indicado (etapa 32). Si es así, entonces se destaca este campo (etapa 33). Posteriormente, se determina si el usuario ha introducido órdenes para una introducción de la palabra candidata representada en el campo adicional seleccionado (etapa 34). Si es así, entonces se introduce esta palabra en un campo de entrada de texto de la interfaz gráfica de usuario (etapa 35), sustituyendo cualquier carácter introducido previamente usado para recuperar las palabras candidatas.
Por tanto, aunque se han mostrado, descrito y expuesto características novedosas fundamentales de la invención aplicadas a una realización preferida de la misma, se entenderá que los expertos en la técnica pueden realizar diversas omisiones y sustituciones y cambios en la forma y los detalles de los dispositivos ilustrados, y en su funcionamiento. Por ejemplo, se pretende expresamente que todas las combinaciones de aquellos elementos y/o etapas del método, que realizan sustancialmente la misma función sustancialmente de la misma manera para lograr los mismos resultados, se encuentren dentro del alcance de la invención. Además, debe reconocerse que las estructuras y/o los elementos y/o las etapas del método tal como se muestran y/o describen en relación con cualquier forma o realización de la invención dada a conocer puedan incorporarse en cualquier otra forma o realización dada a conocer o descrita o sugerida como cuestión general de elección de diseño. Por tanto, la intención es verse limitada únicamente según lo indicado por el alcance de las reivindicaciones adjuntas.

Claims (17)

1. Sistema de procesamiento de datos para seleccionar un objeto a partir de un conjunto de objetos, en el que:
-
el sistema comprende medios de visualización y medios de introducción;
-
los medios de visualización están operativos para visualizar un primer subconjunto (12) de los objetos;
-
los medios de introducción están operativos para determinar una posición de un puntero con respecto al primer subconjunto de los objetos, para hacer que dependiendo de la posición los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero y que representa un subconjunto de objetos del primer subconjunto, y
-
los medios de introducción permiten el movimiento del puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos,
-
el puntero puede moverse sobre los medios de visualización con respecto al primer subconjunto (12) de los objetos y los medios de visualización están operativos para visualizar el segundo subconjunto (13) de los objetos que rodean el objeto (12a) específico del primer subconjunto de los objetos que se corresponde con la posición del puntero, en el que dichos medios de visualización están operativos para visualizar al menos un objeto del primer subconjunto de los objetos (12) cuando visualizan el segundo subconjunto (13) de los objetos.
2. Sistema según la reivindicación 1, en el que dichos medios de introducción están operativos para permitir el movimiento inverso del puntero desde un objeto seleccionado actualmente hasta una posición previa del puntero para anular una selección realizada.
3. Sistema según la reivindicación 1, en el que el conjunto de objetos comprende un grupo de caracteres gráficos.
4. Sistema según la reivindicación 3, en el que los caracteres gráficos comprenden caracteres alfabéticos, y en el que:
-
el sistema comprende medios de almacenamiento de diccionario para almacenar una pluralidad de palabras candidatas;
-
el sistema comprende medios de recuperación para recuperar un subconjunto de las palabras candidatas de los medios de almacenamiento de diccionario basándose o bien en un carácter particular de los caracteres alfabéticos seleccionados en último lugar o bien en el carácter alfabético particular seleccionado en último lugar y al menos un carácter adicional de los caracteres alfabéticos seleccionado previamente;
-
los medios de visualización están operativos para visualizar dicho subconjunto (15) de las palabras candidatas que pueden seleccionarse individualmente y que rodean el carácter (13a) alfabético seleccionado en último lugar;
-
los medios de introducción están operativos para permitir el movimiento del puntero hasta cualquiera de la pluralidad adicional de las palabras candidatas para seleccionar una palabra (15a) específica de las mismas.
5. Sistema según la reivindicación 1, en el que los medios de visualización visualizan el segundo subconjunto (13) en una disposición que recubre al menos parcialmente el primer subconjunto (12).
6. Dispositivo electrónico de mano que comprende un sistema según cualquiera de las reivindicaciones 1-5.
7. Método de selección de un objeto a partir de un conjunto de objetos, usando medios de visualización operativos para visualizar un primer subconjunto de los objetos, comprendiendo el método:
-
determinar una posición de un puntero con respecto al primer subconjunto (12) de los objetos;
-
dependiendo de la posición, hacer que los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero, y que representa un subconjunto de objetos del primer subconjunto y
-
permitir que se mueva el puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos
en el que el puntero puede moverse sobre los medios de visualización con respecto al primer subconjunto (12) de los objetos y se hace que los medios de visualización visualicen el segundo subconjunto (13) de los objetos que rodean el objeto (12a) específico del primer subconjunto de los objetos que se corresponde con la posición del puntero, en el que dichos medios de visualización visualizan al menos un objeto del primer subconjunto de los objetos (12) cuando visualizan el segundo subconjunto (13) de los objetos.
8. Método según la reivindicación 7, en el que la etapa de permitir el movimiento del puntero permite además el movimiento inverso del puntero desde un objeto seleccionado actualmente hasta una posición previa del puntero para anular una selección realizada.
9. Método según la reivindicación 7, en el que el conjunto de objetos comprende un grupo de caracteres gráficos.
10. Método según la reivindicación 9, en el que los caracteres gráficos comprenden caracteres alfabéticos, y en el que el método comprende:
-
tener disponible una pluralidad de palabras candidatas almacenadas en los medios de almacenamiento de diccionario;
-
recuperar un subconjunto de las palabras candidatas basándose o bien en un carácter particular de los caracteres alfabéticos seleccionados en último lugar o bien en el carácter alfabético particular seleccionado en último lugar y al menos un carácter adicional de los caracteres alfabéticos seleccionado previamente;
-
hacer que se visualice una pluralidad (15) de las palabras candidatas que pueden seleccionarse individualmente y centradas en el carácter (13a) alfabético seleccionado en último lugar; y
-
permitir el movimiento del puntero hasta cualquiera de dicho subconjunto de las palabras candidatas para seleccionar una palabra (15a) específica de las mismas.
11. Método según la reivindicación 7, que comprende hacer que se visualice el segundo subconjunto (13) en una disposición que recubre al menos parcialmente el primer subconjunto (12).
12. Producto de programa informático que comprende código de software para implementar en un sistema de procesamiento de datos un método de selección de un objeto a partir de un conjunto de objetos, usando medios de visualización operativos para visualizar un primer subconjunto (12) de los objetos, estando operativo el código de software para:
-
determinar una posición de un puntero con respecto al primer subconjunto (12) de los objetos;
-
dependiendo de la posición, hacer que los medios de visualización visualicen un segundo subconjunto (13) de los objetos que se corresponde con la posición del puntero y que representa un subconjunto de objetos del primer subconjunto; y
-
permitir que se mueva el puntero para seleccionar un objeto (12a) específico del primer subconjunto y/o para seleccionar un objeto (13a) particular del segundo subconjunto de los objetos
en el que el puntero puede moverse sobre los medios de visualización con respecto al primer subconjunto (12) de los objetos y el código de software está operativo para hacer que los medios de visualización visualicen el segundo subconjunto (13) de los objetos que rodean el objeto (12a) específico del primer subconjunto de los objetos que se corresponde con la posición del puntero, en el que el código de software está operativo para hacer que los medios de visualización visualicen al menos un objeto del primer subconjunto de los objetos (12) cuando visualizan el segundo subconjunto (13) de los objetos.
13. Producto de programa informático según la reivindicación 12, en el que el código de software está operativo para permitir el movimiento inverso del puntero desde un objeto seleccionado actualmente hasta una posición previa del puntero para anular una selección realizada.
14. Producto de programa informático según la reivindicación 12, en el que el conjunto de objetos comprende un grupo de caracteres gráficos.
15. Producto de programa informático según la reivindicación 14, en el que los caracteres gráficos comprenden caracteres alfabéticos, y en el que el código de software está operativo para:
-
tener acceso a una pluralidad de palabras candidatas almacenadas en medios de almacenamiento de diccionario;
-
recuperar un subconjunto de las palabras candidatas basándose o bien en un carácter particular de los caracteres alfabéticos seleccionados en último lugar o bien en el carácter alfabético particular seleccionado en último lugar y al menos un carácter adicional de los caracteres alfabéticos seleccionado previamente;
\newpage
-
hacer que se visualice dicho subconjunto de las palabras (15) candidatas que pueden seleccionarse individualmente y que rodean el carácter (13a) alfabético seleccionado en último lugar; y
-
permitir el movimiento del puntero hasta cualquiera de la pluralidad de las palabras candidatas para seleccionar una palabra (15a) específica de las mismas.
16. Producto de programa informático según la reivindicación 12, operativo para hacer que se visualice el segundo subconjunto (13) en una disposición que recubre al menos parcialmente el primer subconjunto (12).
17. Producto de programa informático según la reivindicación 12, para su uso en un dispositivo electrónico de mano.
ES03752872T 2002-05-21 2003-04-23 Entrada de objeto en un dispositivo electronico. Expired - Lifetime ES2328921T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP02076985 2002-05-21
EP02076985 2002-05-21

Publications (1)

Publication Number Publication Date
ES2328921T3 true ES2328921T3 (es) 2009-11-19

Family

ID=29433166

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03752872T Expired - Lifetime ES2328921T3 (es) 2002-05-21 2003-04-23 Entrada de objeto en un dispositivo electronico.

Country Status (10)

Country Link
US (1) US7424683B2 (es)
EP (1) EP1509832B1 (es)
JP (1) JP4429898B2 (es)
KR (1) KR100941948B1 (es)
CN (1) CN1308803C (es)
AT (1) ATE436048T1 (es)
AU (1) AU2003225484A1 (es)
DE (1) DE60328284D1 (es)
ES (1) ES2328921T3 (es)
WO (1) WO2003098417A2 (es)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
WO2005081894A2 (en) 2004-02-23 2005-09-09 Hillcrest Laboratories, Inc. Keyboardless text entry
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
KR100672362B1 (ko) * 2005-02-16 2007-01-24 엘지전자 주식회사 이동통신 단말기의 문자 입력 방법
US20080098331A1 (en) * 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
KR100772580B1 (ko) * 2006-02-28 2007-11-02 삼성전자주식회사 휴대단말기의 특수문자 관리방법
US10521022B2 (en) * 2006-03-17 2019-12-31 Conversant Wireless Licensing S.a.r.l. Mobile communication terminal and method therefor
GB0605386D0 (en) * 2006-03-17 2006-04-26 Malvern Scient Solutions Ltd Character input method
KR100755360B1 (ko) * 2006-09-26 2007-09-04 삼성전자주식회사 휴대 단말기 및 메뉴 표시 방법
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
EP1959238B1 (en) * 2007-02-13 2018-05-23 Harman Becker Automotive Systems GmbH Method for inputting a destination in a navigation unit and nagivation system therefor
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5207699B2 (ja) * 2007-09-28 2013-06-12 京セラ株式会社 文字入力装置、文字入力方法および文字入力プログラム
US8839123B2 (en) * 2007-11-19 2014-09-16 Red Hat, Inc. Generating a visual user interface
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
JP2009169456A (ja) * 2008-01-10 2009-07-30 Nec Corp 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置
US8667413B2 (en) * 2008-02-14 2014-03-04 Creative Technology Ltd Apparatus and method for information input in an electronic device with display
US8570279B2 (en) 2008-06-27 2013-10-29 Apple Inc. Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
JP2010033254A (ja) * 2008-07-28 2010-02-12 Speedscript Ltd アジア言語の高速入力システム
US20100110002A1 (en) * 2008-11-06 2010-05-06 Sony Ericsson Mobile Communications Ab Communication device with combined input and display device
US8605039B2 (en) * 2009-03-06 2013-12-10 Zimpl Ab Text input
US20100333014A1 (en) * 2009-06-24 2010-12-30 Research In Motion Limited Method and system for rendering data records
US8806362B2 (en) 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
CN102193641B (zh) * 2010-03-09 2014-06-18 阿里巴巴集团控股有限公司 字符输入过程中的待选字符显示方法及装置
US8686955B2 (en) * 2010-03-11 2014-04-01 Apple Inc. Device, method, and graphical user interface for performing character entry
EP2367118A1 (en) * 2010-03-15 2011-09-21 GMC Software AG Method and devices for generating two-dimensional visual objects
JP6115867B2 (ja) * 2010-05-24 2017-04-26 テンプル,ウィル,ジョン 1つ以上の多方向ボタンを介して電子機器と相互作用できるようにする方法およびコンピューティングデバイス
US8487877B2 (en) 2010-06-10 2013-07-16 Michael William Murphy Character specification system and method that uses a limited number of selection keys
KR20120033918A (ko) * 2010-09-30 2012-04-09 삼성전자주식회사 터치스크린을 구비한 휴대용 단말기의 입력 방법 및 장치
CN102455853B (zh) * 2010-11-01 2016-08-03 纬创资通股份有限公司 输入方法、输入装置及计算机***
US20120124472A1 (en) * 2010-11-15 2012-05-17 Opera Software Asa System and method for providing interactive feedback for mouse gestures
JP2012123461A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 電子機器
US20120162086A1 (en) * 2010-12-27 2012-06-28 Samsung Electronics Co., Ltd. Character input method and apparatus of terminal
US8704789B2 (en) * 2011-02-11 2014-04-22 Sony Corporation Information input apparatus
CN102281352B (zh) * 2011-07-29 2014-02-26 华为技术有限公司 联系人列表显示方法及终端
CN104160361A (zh) 2012-02-06 2014-11-19 迈克尔·K·科尔比 字符串完成
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US8701050B1 (en) * 2013-03-08 2014-04-15 Google Inc. Gesture completion path display for gesture-based keyboards
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
JP6112968B2 (ja) 2013-05-23 2017-04-12 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation コマンド生成方法、装置及びプログラム
JP2015130207A (ja) * 2015-04-15 2015-07-16 スピードスクリプト リミテッド アジア言語の高速入力システム
US10452264B2 (en) 2015-04-30 2019-10-22 Michael William Murphy Systems and methods for word identification that use button press type error analysis
KR101678094B1 (ko) * 2015-07-03 2016-11-23 현대자동차주식회사 차량, 및 그 제어방법
US10546053B2 (en) * 2016-05-18 2020-01-28 Citrix Systems, Inc. Semi-automated field placement for electronic forms
US10365823B2 (en) 2017-03-02 2019-07-30 International Business Machines Corporation Simplified text entry user interface for touch devices
US10671181B2 (en) * 2017-04-03 2020-06-02 Microsoft Technology Licensing, Llc Text entry interface
BR112019024245A2 (pt) 2017-05-19 2020-06-02 William Murphy Michael Interface de seleção de caracteres entrelaçados
JP6482622B2 (ja) * 2017-09-14 2019-03-13 スピードスクリプト リミテッド アジア言語の高速入力システム
US11922007B2 (en) 2018-11-29 2024-03-05 Michael William Murphy Apparatus, method and system for inputting characters to an electronic device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5940076A (en) * 1997-12-01 1999-08-17 Motorola, Inc. Graphical user interface for an electronic device and method therefor
GB2332293A (en) * 1997-12-11 1999-06-16 British Telecomm An Input Device
US6011542A (en) 1998-02-13 2000-01-04 Sony Corporation Graphical text entry wheel
DE60003177T2 (de) * 1999-03-18 2004-05-06 602531 British Columbia Ltd., Vancouver Dateneingabe für personalrechnergeräte
EP1081583A3 (en) * 1999-08-31 2005-07-06 Sony Corporation Menu display system
GB2364493B (en) * 2000-06-30 2004-11-10 Nokia Mobile Phones Ltd Improved data input
US6907581B2 (en) * 2001-04-03 2005-06-14 Ramot At Tel Aviv University Ltd. Method and system for implicitly resolving pointing ambiguities in human-computer interaction (HCI)

Also Published As

Publication number Publication date
EP1509832B1 (en) 2009-07-08
DE60328284D1 (de) 2009-08-20
JP4429898B2 (ja) 2010-03-10
US20060095844A1 (en) 2006-05-04
ATE436048T1 (de) 2009-07-15
WO2003098417A2 (en) 2003-11-27
US7424683B2 (en) 2008-09-09
KR20040111642A (ko) 2004-12-31
EP1509832A2 (en) 2005-03-02
CN1666168A (zh) 2005-09-07
WO2003098417A3 (en) 2004-11-11
JP2005526321A (ja) 2005-09-02
KR100941948B1 (ko) 2010-02-11
CN1308803C (zh) 2007-04-04
AU2003225484A8 (en) 2003-12-02
AU2003225484A1 (en) 2003-12-02

Similar Documents

Publication Publication Date Title
ES2328921T3 (es) Entrada de objeto en un dispositivo electronico.
US8151209B2 (en) User input for an electronic device employing a touch-sensor
ES2202070T3 (es) Entrada de datos para dispositivos informaticos personales.
US6744427B2 (en) Character input interface for compact electronic devices
US7487147B2 (en) Predictive user interface
US6104317A (en) Data entry device and method
US7075519B2 (en) Method for entering a character sequence into an electronic device as well as an electronic device for performing said method
US6011542A (en) Graphical text entry wheel
JP4863211B2 (ja) 文字データ入力装置
US8605039B2 (en) Text input
US9140572B2 (en) Methods for controlling a navigation system
KR101718881B1 (ko) 다단계 메뉴 선택을 위한 방법 및 그 방법을 수행하는 전자 기기
JP2005235188A (ja) データ入力装置
JP2001265500A (ja) 情報処理装置、文字入力方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
US20030128241A1 (en) Information terminal device
JP2002278694A (ja) ストローク運動に基づくデータ入力装置とグラフィカルインターフェイス方式
KR101313287B1 (ko) 문자 입력을 제공하는 방법, 단말기 및 기록매체
US9996240B2 (en) Device associated with a vehicle and having a spelling system with a delete button and/or list selection button
JP3841590B2 (ja) ソフトウェアキーボード装置
EP0810513A1 (en) Data processing entry system provided with soft keyboard that has an ergonomic layout based on preferred positions of certain characters
US10539426B2 (en) Device associated with a vehicle and having a spelling system with a completion indication
JP2004310543A (ja) キャラクター入力装置、キャラクター入力方法、キャラクター入力プログラム、およびコンピュータ読み取り可能な記録媒体
JP4317634B2 (ja) 文字入力装置及び方法並びにこれに利用される記憶媒体
KR100909592B1 (ko) 커서를 이용한 휴대단말기의 문자 입력 방법
JP2011034281A (ja) 電子機器、文字受付方法、および文字受付プログラム