ES2258972T3 - Procedimiento y terminal para entrar instrucciones. - Google Patents

Procedimiento y terminal para entrar instrucciones.

Info

Publication number
ES2258972T3
ES2258972T3 ES00922406T ES00922406T ES2258972T3 ES 2258972 T3 ES2258972 T3 ES 2258972T3 ES 00922406 T ES00922406 T ES 00922406T ES 00922406 T ES00922406 T ES 00922406T ES 2258972 T3 ES2258972 T3 ES 2258972T3
Authority
ES
Spain
Prior art keywords
sequence
user
procedure according
eye
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00922406T
Other languages
English (en)
Inventor
Eric Lauper
Adriano Huber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Swisscom Mobile AG
Original Assignee
Swisscom Mobile AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Swisscom Mobile AG filed Critical Swisscom Mobile AG
Application granted granted Critical
Publication of ES2258972T3 publication Critical patent/ES2258972T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • Calculators And Similar Devices (AREA)

Abstract

Procedimiento con el que usuarios (1) introducen instrucciones, introduciéndose dichas instrucciones con secuencias de varios movimientos voluntarios de partes del ojo, siendo introducida la secuencia individual que se necesita para la introducción de una instrucción determinada por un usuario en una fase de aprendizaje mediante varios movimientos voluntarios de partes del ojo y siendo repetida por el usuario la secuencia individualmente definida para la introducción de la instrucción determinada.

Description

Procedimiento y terminal para entrar instrucciones.
Campo técnico
La presente invención se refiere a un procedimiento y a un terminal para la introducción de instrucciones, en particular, para la introducción de instrucciones controlada por los ojos en un sistema de procesamiento de datos y en un servidor remoto en una red de comunicación con una base de datos.
Estado de la técnica
Ya se conocen sistemas que permiten el control de un equipo con los ojos. Los sistemas de este tipo se usan, entre otras cosas, cuando resulta imposible o poco práctico un control manual o como canal de introducción rápido adicional para controlar dispositivos.
El documento GB-A-2 281 838 describe un dispositivo que reacciona a un parpadeo del usuario. También en el modelo de utilidad alemán DE-U1-29610766 está descrito un sistema para el control del entorno con ayuda del ojo humano. El documento EP-A2-0 816 984 describe un sistema que determina la dirección visual en una pantalla, para determinar las partes de la imagen por las que se interesa el observador.
El documento US-A-5,844,544 describe un dispositivo controlado por los ojos en el que el usuario debe seguir un protocolo especial para seleccionar caracteres con los ojos. El dispositivo se calibra para adaptarlo a cada usuario. El protocolo es el mismo para todos los usuarios.
El documento EP-A1-0 677 801 describe un procedimiento para introducir contraseñas, en el que el usuario toca partes de una imagen en una secuencia individual o las selecciona con un puntero.
El artículo "Method for access control via gestural verification", IBM Technical Disclosure Bulletin 09B, Vol. 36, pág. 487-488) describe un procedimiento para introducir instrucciones con movimientos voluntarios del cuerpo. De esta forma, el usuario puede introducir contraseñas.
Los movimientos del ojo son a veces difíciles de controlar; el ojo también realiza movimientos involuntarios, entre otros, sácadas, que pueden interpretarse en ciertas circunstancias como instrucción para el dispositivo controlado. Por lo tanto, estos procedimientos apenas son adecuados para introducir instrucciones críticas en cuanto a la seguridad.
En muchos casos, el no rechazo de la instrucción es un criterio de seguridad importante. Sobre todo en procedimientos de transacción es importante que la transacción no pueda negarse posteriormente.
Además, se conocen sistemas en los que se usan parámetros del ojo como claves biométricas para permitir el acceso a sistemas o servicios. Entre otras cosas se ha propuesto usar los patrones del iris o de la retina para autenticar el observador o incluso para identificarlo.
Descripción de la invención
El objetivo de esta invención es ofrecer un procedimiento nuevo y mejor, con el que puedan introducirse instrucciones con los ojos.
Otro objetivo es ofrecer un sistema nuevo y mejor, con el que se introduzcan las instrucciones de tal forma que no pueda negarse la intención de la persona que da las instrucciones (no rechazo).
Otro objetivo es ofrecer un sistema nuevo y mejor, con el que las instrucciones sólo puedan ser introducidas por el usuario autorizado.
Según la presente invención, estos objetivos se consiguen, en particular, mediante los elementos de las reivindicaciones independientes. Otras realizaciones ventajosas resultan además de las reivindicaciones subordinadas y de la descripción.
Estos objetivos se consiguen, en particular, porque las instrucciones se introducen con secuencias de movimientos voluntarios de partes del ojo, siendo individual la secuencia necesaria para la introducción de una instrucción determinada para cada usuario.
Esto tiene la ventaja de que las instrucciones no sólo se introducen con un movimiento sencillo del ojo que podría haberse hecho de forma involuntaria, sino con una secuencia de varios movimientos de partes del ojo que sólo pueden hacerse de forma voluntaria. Por lo tanto, queda garantizado el no rechazo de la instrucción. Puesto que la secuencia para la introducción de una instrucción es individual para cada usuario, también puede usarse para autenticar al
usuario.
De esta forma pueden introducirse, por lo tanto, también instrucciones críticas en cuanto a la seguridad (por ejemplo, instrucciones para transacciones electrónicas), que no pueden ser negadas y para las que es importante una autenticación segura del usuario.
Además del procedimiento de transacción según la invención, la presente invención se refiere, en particular, también a un terminal y a un servidor para la realización del procedimiento.
Breve descripción de los dibujos
A continuación, se describirá una realización de la presente invención con ayuda de un ejemplo. El ejemplo de la realización se ilustra mediante las siguientes figuras adjuntas:
La fig. 1, muestra un diagrama de bloques en el que se muestra de forma esquemática un terminal según la invención y un servidor según la invención que está conectado con este terminal mediante una red de comunicación.
La fig. 2, muestra un ejemplo de una imagen con un teclado que se proyecta en la retina del usuario.
La fig. 3, muestra un ejemplo de una imagen tridimensional con un teclado que se proyecta en la retina del usuario.
La fig. 4, muestra un diagrama de flujo de datos en el que están representadas de forma esquemática las posibles etapas del procedimiento para la captación de la secuencia para una instrucción en un ejemplo de realización de la invención, y
la fig. 5, muestra un diagrama de flujo de datos en el que están representadas de forma esquemática las posibles etapas del procedimiento para la introducción de un comando en un ejemplo de realización de la invención.
Posibilidades para la realización de la invención
En la figura 1, la cifra de referencia 1 se refiere al usuario de un terminal 2, con el que pueden introducirse instrucciones para un servidor remoto 4, que pueden emitirse mediante una red de comunicación 3. El terminal 2 es preferiblemente portátil y puede ser, en una variante preferible, un teléfono móvil, un ordenador de mano (palmtop), un ordenador portátil (laptop), un asistente digital personal (PDA, Personal Digital Assistent), un asistente móvil o una combinación de distintos componentes conectados entre sí, pudiendo realizarse la conexión mediante una interfaz con contacto, por ejemplo, según tarjeta PC o preferiblemente mediante una interfaz sin contacto, por ejemplo según IrDA o Bluetooth. En una variante preferible, el terminal 2 incluye una tarjeta chip no representada, por ejemplo, una tarjeta SIM (Subscriber Identification Module), en la que están depositados datos específicos del usuario.
El terminal 2 contiene un módulo 20 para la determinación de movimientos de partes del ojo. El módulo 20 está formado, por ejemplo, por un módulo para determinar la dirección visual del ojo (eye tracker), que puede determinar la dirección visual actual basada en la posición de la pupila y/o de la cabeza del usuario 1. Los módulos de determinación de ojos de este tipo se han descrito, entre otros documentos, en la solicitud de patente WO94/09472. En una variante, el módulo 20 también puede determinar otros tipos de movimientos voluntarios de partes del ojo, por ejemplo, parpadeo, como está descrito en la solicitud de patente GB-A-2 281 838 arriba indicada, enfoque, etc. Según la variante, pueden determinarse los movimientos de un solo ojo o de los dos ojos; en el caso indicado en último lugar, también pueden determinarse movimientos bizcos de los ojos.
Si se usa un módulo de determinación de la dirección del ojo sencillo, que no detecta la posición de la cabeza, no puede determinarse la dirección visual absoluta. En este caso se registran preferiblemente movimientos diferenciales del ojo, por ejemplo, arriba lado izquierdo - arriba lado derecho - centro - arriba lado derecho.
Para que el terminal 2 sólo reaccione a movimientos de seres vivos y no pueda ser engañado, por ejemplo, por la presentación de imágenes animadas, el módulo 20 determina preferiblemente reacciones del cuerpo. En una variante preferible, se mide un parámetro que depende de la temperatura del cuerpo, por ejemplo, la reacción de la retina a un calentamiento provocado por el terminal 2. En otra variante, se determina la reacción del iris a variaciones de luz provocadas por el terminal 2. De esta forma puede comprobarse si la imagen determinada del ojo pertenece realmente a un ser humano.
El terminal 2 comprende, además, medios de reproducción de imágenes 21, que pueden reproducir imágenes visibles para el usuario 1. En una primera variante, los medios de reproducción de imágenes 21 están formados por una visualización convencional, por ejemplo, una visualización CRT, de cristal líquido o de plasma. En una variante preferible, están formados por una llamada micropantalla con un sistema de lentes adecuado, preferiblemente por un dispositivo de visualización virtual en la retina (VRD, Virtual Retinal Display), que proyecta la imagen representada directamente en la retina de uno o de los dos ojos del usuario 1.
Los dispositivos de visualización virtuales en la retina están descritos, por ejemplo, en las solicitudes de patente WO-A1-94/09472, WO-A1-97/37339 y WO-A1-98/13720, por lo que ya no es necesario describirlos. El dispositivo VRD es controlado desde un controlador de vídeo 22, para proyectar señales vídeo que corresponden a una imagen bidimensional o tridimensional en la fóvea del ojo del usuario.
El terminal 2 es controlado por medios de procesamiento de datos 23, por ejemplo, en forma de un procesador con un área de memoria no representada. El procesador controla, en particular, el controlador de vídeo 22 y procesa los datos del módulo de determinación de los movimientos de partes del ojo 20. Un módulo software y/o hardware (módulo de seguridad 230) dispuesto en el procesador o conectado con este procesador se encarga del aseguramiento de la transmisión de datos con dispositivos externos 4, estableciéndose, por ejemplo, un canal de comunicación seguro, como se explicará más adelante.
El experto entenderá que los medios de procesamiento de datos 23 y el módulo de seguridad 230 pueden estar hechos de un solo chip o de múltiples componentes conectados mediante conexión lógica entre sí. En una variante preferible, en la que el terminal 2 es un teléfono móvil, los medios de procesamiento de datos 23 comprenden preferiblemente componentes en el teléfono móvil, así como componentes en la tarjeta chip retirable (tarjeta SIM), que está conectada con este teléfono móvil. En una variante preferible, en particular los componentes críticos en cuanto a la seguridad usados por el módulo de seguridad 230 se encuentran en la tarjeta chip.
El terminal comprende, además, una parte de comunicación 24, con la que puede conectarse con una red de comunicación 3. La parte de comunicación 24 está formada, preferiblemente, por un parte de comunicación GSM o UMTS, o por un módem, o por una interfaz sin contacto de corto alcance, por ejemplo, según IrDA, Bluetooth, HomeRF o DECT.
La red de comunicación 3 es, por ejemplo, una red de telefonía móvil, por ejemplo, según GSM o UMTS, aunque también podría ser Internet o podría estar formada por varias redes. Mediante la red de comunicación 3, el terminal puede conectarse con un servidor remoto 4, por ejemplo, un servidor http o WAP, que es administrado por el explotador de la red de comunicación 3 y/o por un proveedor de servicios. La transmisión de datos entre el terminal 2 y el servidor remoto 4 se asegura preferiblemente de extremo a extremo, por ejemplo, con el protocolo SSL (Secure Sockets Layer), TLS (Transport Layer Security) y/o WTLS (Wireless Transport Layer Security). Los datos que son enviados del terminal 2 al servidor remoto 4 preferiblemente son firmados electrónicamente por el módulo de seguridad 230, preferiblemente con una clave electrónica privada, que está depositada en un certificado electrónico en la tarjeta SIM o en el módulo de seguridad 230.
El terminal 2 comprende preferiblemente medios de introducción de datos adicionales no representados, por ejemplo, un teclado, un ratón, un elemento rodante, un micrófono, etc., con el que puede controlarse la aplicación en el procesador 23.
El usuario 1 puede establecer una sesión con el servidor remoto 4 introduciendo la dirección URL o el número de teléfono correspondiente en su terminal 2. Una sesión puede establecerse, por ejemplo, para realizar una transacción entre el usuario 1 y el proveedor de servicios, que explota el servidor remoto 4, por ejemplo, para pedir y/o pagar un producto o un servicio del proveedor de servicios.
Durante una sesión se transmiten, por regla general, datos de imágenes del servidor remoto 4 (por ejemplo, páginas HTML o tarjetas WAP con un contenido de imágenes) al terminal 2 y se reproducen para el usuario 1. Al menos determinados datos de imágenes contienen preferiblemente objetos GUI (Graphical User Interface), por ejemplo, hiperenlaces, casillas de control, botones de radio, etc. que pueden ser seleccionados o activados por el usuario 1 para introducir una instrucción determinada, por ejemplo, para cargar otra página o para confirmar una transa-
cción.
Al menos determinados objetos GUI pueden seleccionarse o activarse con los ojos, para introducir una instrucción (por ejemplo, dirigiéndose al menos un ojo durante al menos un tiempo predefinido en esta dirección). Preferiblemente se emite una reacción visual y/o acústica, en cuanto el objeto haya sido seleccionado.
El servidor remoto 4 del proveedor de servicios comprende una base de datos de perfiles de usuarios 40, en la que están registrados datos de perfil para cada usuario 1. Los datos de perfil depositados comprenden, entre otras cosas, para cada usuario 1 las secuencias de movimientos del ojo específicas del usuario.
La figura 2 muestra esquemáticamente un usuario 1 con una variante de realización del terminal según la invención, que está integrado aquí en unas gafas. Las gafas contienen una parte de telefonía móvil como parte de comunicación 24, un dispositivo de visualización VRD como medio de reproducción de imágenes 21, que puede proyectar imágenes en la retina del usuario 1, y un sistema de seguimiento de ojos. El signo de referencia 5 muestra la imagen proyectada. En el ejemplo representado, esta imagen comprende múltiples objetos GUI, que corresponden aquí a las teclas 50 de un teclado numérico virtual. Una tecla "C" permite la corrección de los datos registrados, mientras que la tecla "OK" permite la confirmación.
Según la invención, se introducen al menos determinadas instrucciones con secuencias de movimientos voluntarios de partes del ojo, siendo individual para cada usuario la secuencia que se necesita para la introducción de una instrucción determinada. En el ejemplo representado, se introducen instrucciones determinadas mediante selección de una secuencia de teclas 50 específica para cada usuario mediante los ojos.
La figura 4 muestra un diagrama de flujo de datos, en el que están representadas de forma esquemática las posibles etapas de procedimiento para la captación 100 de la secuencia específica del usuario para una instrucción en la fase de aprendizaje. En una primera etapa 101, el usuario selecciona la instrucción, que se introduce con una secuencia de movimientos del ojo. Si pueden codificarse varias instrucciones para una aplicación determinada, la instrucción deseada puede seleccionarse, por ejemplo, de una lista proporcionada por el servidor remoto 4.
En la etapa 102, el usuario introduce la secuencia de movimientos del ojo que debe asociarse a la instrucción seleccionada. La secuencia puede comprender, por ejemplo, los siguientes tipos de movimientos de partes del ojo:
\sqbullet Direcciones visuales predefinidas, preferiblemente en la dirección de objetos GUI, por ejemplo, teclas 50 virtuales. De esta forma puede introducirse un código numérico simplemente mediante observación de las teclas correspondientes.
\sqbullet Movimientos de parpadeo de un ojo determinado o de los dos ojos.
\sqbullet Movimientos bizcos voluntarios de los ojos.
\sqbullet Enfoque del ojo a una distancia determinada. Con esto es posible, por ejemplo, seleccionar distintos objetos GUI dispuestos a distancias diferentes. En la figura 3, está representado como ejemplo un teclado virtual tridimensional, que puede ser reproducido para el usuario; el usuario puede seleccionar una tecla 50 mediante adaptación de la dirección visual y del enfoque.
\sqbullet etc.
Durante esta fase de aprendizaje, el procesador confirma preferiblemente cada movimiento individual del ojo detectado como tal. El final de la secuencia es determinado preferiblemente por el usuario mediante la selección de la tecla visual "ok" o mediante un movimiento especial, predefinido del ojo. Toda la secuencia se confirma preferiblemente una segunda vez (etapa 103) o las veces que sea necesario hasta que se cumplan los criterios predefinidos respecto a la calidad de repetición.
En la etapa 104, la confirmación se compara con la primera secuencia. Si las dos secuencias son distintas, se solicita al usuario repetir todo el proceso (flecha 105). Según los requisitos de seguridad, puede exigirse al usuario introducir un número mínimo de movimientos del ojo por secuencia o al menos dos tipos distintos de movimientos del ojo. Si, por lo contrario, se acepta la secuencia, es codificada por los medios de procesamiento de datos 23, por ejemplo, simplemente como secuencia numérica, se empaqueta en un comprobante, que preferiblemente se firma y codifica con ayuda del módulo de seguridad 230 (etapa 106). En la etapa del procedimiento 107, este comprobante es transmitido por la red de comunicación 3 y recibido y descodificado por el servidor remoto 4 del proveedor de servicios. En la etapa de procedimiento 108, la secuencia descodificada se vincula preferiblemente con el usuario 1 y con la instrucción seleccionada y se deposita en la base de datos de perfiles de usuarios 40.
En una variante, la secuencia registrada también puede depositarse en el terminal 2 en lugar de en el servidor remoto 4.
La firma en la etapa 106 sirve sobre todo para autenticar el usuario 1 de forma fiable. En una variante, el comprobante se firma electrónicamente con la clave electrónica privada del usuario; el servidor remoto 4 dispone de la clave de usuario pública correspondiente, con la que puede comprobarse la firma recibida. En otra variante, el comprobante se vincula con parámetros biométricos del usuario 1, por ejemplo, una imagen de la retina y/o del iris del usuario 1 (captada por una unidad de captación de la imagen de la retina no representada), que también se envían al servidor remoto 4 y con los que puede comprobarse de forma fiable la identidad del usuario. También es posible usar al mismo tiempo los dos procedimientos de firma.
Como ya se ha mencionado anteriormente, puede determinarse, además, un parámetro que depende de la temperatura corporal que puede vincularse con el comprobante, para poder comprobar si el terminal 2 realmente es manejado por una persona y no por una secuencia de imágenes reproducida.
La figura 5 muestra un diagrama de flujo de datos, en el que están representadas de forma esquemática las etapas de procedimiento para la introducción 109 de una instrucción con una secuencia de movimientos voluntarios del ojo. La secuencia de los movimientos del ojo que es necesaria para una instrucción determinada es introducida por el usuario 1 en la etapa 110 y confirmada en la etapa 111, por ejemplo, mediante un parpadeo u otro movimiento específico del ojo. La secuencia introducida se codifica en la etapa 112, se firma electrónicamente con ayuda del módulo de seguridad 230 y preferiblemente se cifra, pudiendo contener la firma también características biométricas del usuario. La secuencia firmada se transmite en la etapa 113 mediante la red de comunicación 3 al servidor remoto 4, donde se descifra y donde se comprueba la firma. Si la firma es correcta, se comprueba en la etapa 114 en la base de datos 40 si la secuencia recibida corresponde a una secuencia depositada del usuario (matching).
Si no se encuentra ninguna instrucción en la base de datos que corresponda a la secuencia recibida, se solicita al usuario 1 en la etapa de procedimiento 115 introducir una nueva secuencia (flecha 116). Si por lo contrario se encuentra un match, la instrucción definida por el usuario puede extraerse de la base de datos (etapa 117) y, según la instrucción o según la variante, puede ser ejecutada por el servidor remoto 4 o transmitida al terminal 2.
En la variante en la que la secuencia captada durante la fase de aprendizaje sólo se ha depositado en el terminal 2, la secuencia introducida en la fase de uso se compara con todas las secuencias depositadas en el terminal 2.
El experto entenderá que pueden introducirse las instrucciones más diversas, según la aplicación. El procedimiento según la invención es especialmente adecuado para introducir secretos (por ejemplo, contraseñas o números PIN). No obstante, con este procedimiento también pueden introducirse otras instrucciones (entre otras, confirmaciones de transacciones con "SÍ" o "NO" o consultas más complejas, que pueden contener también texto y/o números como variables).
En esta variante de realización descrita, se comprueba la secuencia introducida por el usuario en el servidor remoto 4 de un proveedor de servicios. En una variante de la invención, la secuencia de movimientos del ojo se comprueba en el terminal 2 o en la red de comunicación 3. En este caso, podría depositarse la secuencia de comprobación individual en el terminal 2 o preferiblemente en la tarjeta de identificación en este terminal 2. También es posible permitir con el mismo sistema según la aplicación la comprobación en el terminal 2 o en un servidor remoto 4.
Lista de signos de referencia
1 Usuario
2 Terminal
20 Módulo para la determinación de movimientos de partes del ojo
21 Medios de reproducción de imágenes
22 Controlador de vídeo
23 Medios de procesamiento de datos
230 Módulo de seguridad
24 Parte de comunicación
3 Red de comunicación
4 Servidor remoto
40 Base de datos de perfiles de los usuarios
5 Imagen
50 Tecla
100 a 117 Etapas del procedimiento

Claims (25)

1. Procedimiento con el que usuarios (1) introducen instrucciones, introduciéndose dichas instrucciones con secuencias de varios movimientos voluntarios de partes del ojo, siendo introducida la secuencia individual que se necesita para la introducción de una instrucción determinada por un usuario en una fase de aprendizaje mediante varios movimientos voluntarios de partes del ojo y siendo repetida por el usuario la secuencia individualmente definida para la introducción de la instrucción determinada.
2. Procedimiento según la reivindicación precedente, en el que dicha secuencia comprende múltiples direcciones visuales.
3. Procedimiento según la reivindicación precedente, en el que se reproduce una imagen (5) para dicho usuario y en el que dichas direcciones visuales corresponden a partes predefinidas de la imagen (50).
4. Procedimiento según la reivindicación precedente, en el que dicha imagen (5) es tridimensional.
5. Procedimiento según una de las reivindicaciones 3 ó 4, en el que dichas partes de la imagen corresponden a un teclado virtual.
6. Procedimiento según una de las reivindicaciones 3 a 5, en el que dicha imagen (5) está representada en una pantalla.
7. Procedimiento según una de las reivindicaciones 3 a 5, en el que dicha imagen (5) se reproduce con un dispositivo VRD.
8. Procedimiento según una de las reivindicaciones precedentes, en el que dicha secuencia comprende distintas distancias de enfoque.
9. Procedimiento según una de las reivindicaciones precedentes, en el que dicha secuencia comprende al menos un parpadeo.
10. Procedimiento según una de las reivindicaciones precedentes, en el que dicha secuencia comprende al menos un movimiento bizco voluntario de los ojos.
11. Procedimiento según una de las reivindicaciones precedentes, en el que dicha secuencia se convierte en un código numérico.
12. Procedimiento según la reivindicación precedente, en el que dicho código numérico se firma electrónicamente.
13. Procedimiento según la reivindicación precedente, en el que dicho código se firma electrónicamente con la clave privada de dicho usuario (1).
14. Procedimiento según la reivindicación 12, en el que dicho código se firma con características biométricas del usuario (1).
15. Procedimiento según la reivindicación precedente, en el que dichas características biométricas del usuario comprenden características del ojo.
16. Procedimiento según la reivindicación precedente, en el que dichas características biométricas del usuario (1) comprenden características de ojo de partes de ojo de los dos ojos.
17. Procedimiento según una de las reivindicaciones precedentes, en el que se mide un parámetro que depende de la temperatura corporal y se vincula con dicha secuencia.
18. Procedimiento según una de las reivindicaciones precedentes, en el que se mide un parámetro que depende del calentamiento de la retina y se vincula con dicha secuencia.
19. Procedimiento según una de las reivindicaciones precedentes, en el que se mide la reacción del iris a variaciones de la luz y se vincula como parámetro con dicha secuencia.
20. Procedimiento según una de las reivindicaciones precedentes, en el que se determina dicha secuencia mediante un terminal portátil (2), transmitiéndose dicha secuencia mediante una parte de radiotelefonía (24) en dicho terminal mediante una red de radiotelefonía (3) a un servidor remoto (4).
21. Procedimiento según la reivindicación precedente, en el que dicho servidor remoto (4) es administrado por un proveedor de servicios y en el que se cifra de extremo a extremo la conexión entre dicha parte de radiotelefonía (24) y dicho servidor remoto (4).
22. Procedimiento según la reivindicación precedente, en el que dicha secuencia se compara en dicho servidor remoto (4) con una secuencia previamente depositada por el usuario (1) y en el que dicha instrucción no se ejecuta hasta que coincidan la secuencia introducida y depositada.
23. Procedimiento según una de las reivindicaciones precedentes, en el que están previstas múltiples secuencias individuales diferentes para cada usuario (1), correspondiendo cada secuencia a otra instrucción.
24. Procedimiento según una de las reivindicaciones precedentes, en el que dicha secuencia se determina mediante un terminal portátil (2) y se compara con una secuencia depositada en este terminal (2).
25. Servidor remoto (4) en una red de comunicación (3) con una base de datos (40), en el que están contenidas múltiples secuencias individuales de movimientos voluntarios de partes del ojo que se han introducido durante la fase de aprendizaje de las reivindicaciones 1 a 24, estando asignada cada secuencia a una instrucción determinada de un usuario (1) determinado y pudiendo ser introducidas las instrucciones y llamadas del servidor remoto (4) con un procedimiento según las reivindicaciones 1 a 24.
ES00922406T 2000-05-16 2000-05-16 Procedimiento y terminal para entrar instrucciones. Expired - Lifetime ES2258972T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2000/000269 WO2001088680A1 (de) 2000-05-16 2000-05-16 Verfahren und terminal zur eingabe von instruktionen

Publications (1)

Publication Number Publication Date
ES2258972T3 true ES2258972T3 (es) 2006-09-16

Family

ID=4358076

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00922406T Expired - Lifetime ES2258972T3 (es) 2000-05-16 2000-05-16 Procedimiento y terminal para entrar instrucciones.

Country Status (7)

Country Link
US (1) US7113170B2 (es)
EP (1) EP1285326B1 (es)
JP (1) JP4693329B2 (es)
AU (1) AU2000242834A1 (es)
DE (1) DE50012364D1 (es)
ES (1) ES2258972T3 (es)
WO (1) WO2001088680A1 (es)

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7821503B2 (en) 2003-04-09 2010-10-26 Tegic Communications, Inc. Touch screen and graphical user interface
US7286115B2 (en) 2000-05-26 2007-10-23 Tegic Communications, Inc. Directional input system with automatic correction
US7030863B2 (en) * 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US7750891B2 (en) 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
GB0302263D0 (en) * 2003-01-31 2003-03-05 Roke Manor Research Secure network browsing
US7682024B2 (en) * 2003-03-13 2010-03-23 Plant Charles P Saccadic motion sensing
US7546158B2 (en) * 2003-06-05 2009-06-09 The Regents Of The University Of California Communication methods based on brain computer interfaces
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US7761453B2 (en) * 2005-01-26 2010-07-20 Honeywell International Inc. Method and system for indexing and searching an iris image database
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8442276B2 (en) * 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US7933507B2 (en) * 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
CN1740951A (zh) * 2004-08-25 2006-03-01 西门子公司 用于利用人眼进行设备控制的装置
KR100594117B1 (ko) * 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
US7331929B2 (en) * 2004-10-01 2008-02-19 General Electric Company Method and apparatus for surgical operating room information display gaze detection and user prioritization for control
US20070270122A1 (en) 2005-05-10 2007-11-22 Ewell Robert C Jr Apparatus, system, and method for disabling a mobile communicator
US8437729B2 (en) * 2005-05-10 2013-05-07 Mobile Communication Technologies, Llc Apparatus for and system for enabling a mobile communicator
US8385880B2 (en) * 2005-05-10 2013-02-26 Mobile Communication Technologies, Llc Apparatus for and system for enabling a mobile communicator
US20070052672A1 (en) 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
JP5510951B2 (ja) * 2006-02-01 2014-06-04 トビー テクノロジー アーベー コンピュータシステムにおけるグラフィカルフィードバックの生成
JP2009529197A (ja) 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド モジュールバイオメトリクス収集システムアーキテクチャ
KR101299074B1 (ko) 2006-03-03 2013-08-30 허니웰 인터내셔널 인코포레이티드 홍채 인코딩 시스템
WO2008016724A2 (en) 2006-03-03 2008-02-07 Honeywell International, Inc. An iris recognition system having image quality metrics
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US7877706B2 (en) * 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US7801332B2 (en) * 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US8201087B2 (en) 2007-02-01 2012-06-12 Tegic Communications, Inc. Spell-check for a keyboard system with automatic correction
US8225203B2 (en) 2007-02-01 2012-07-17 Nuance Communications, Inc. Spell-check for a keyboard system with automatic correction
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
WO2009073584A1 (en) * 2007-11-29 2009-06-11 Oculis Labs, Inc. Method and apparatus for display of secure visual content
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US10528130B2 (en) * 2010-07-23 2020-01-07 Telepatheye Inc. Unitized eye-tracking wireless eyeglasses system
US9916006B2 (en) * 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
US9977496B2 (en) * 2010-07-23 2018-05-22 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
EP2503479B1 (en) * 2011-03-21 2015-08-05 BlackBerry Limited Login method based on direction of gaze
US8625847B2 (en) 2011-03-21 2014-01-07 Blackberry Limited Login method based on direction of gaze
US10139900B2 (en) 2011-04-12 2018-11-27 Mobile Communication Technologies, Llc Mobile communicator device including user attentiveness detector
US9026779B2 (en) 2011-04-12 2015-05-05 Mobile Communication Technologies, Llc Mobile communicator device including user attentiveness detector
US9026780B2 (en) 2011-04-12 2015-05-05 Mobile Communication Technologies, Llc Mobile communicator device including user attentiveness detector
US8995945B2 (en) 2011-08-30 2015-03-31 Mobile Communication Technologies, Llc Mobile communicator and system
US9519768B2 (en) 2011-12-23 2016-12-13 Intel Corporation Eye movement based knowledge demonstration
US20150097772A1 (en) * 2012-01-06 2015-04-09 Thad Eugene Starner Gaze Signal Based on Physical Characteristics of the Eye
US9390256B2 (en) * 2012-03-06 2016-07-12 Paypal, Inc. System and methods for secure entry of a personal identification number (PIN)
US9083532B2 (en) 2012-03-06 2015-07-14 Ebay Inc. Physiological response PIN entry
HK1160574A2 (en) * 2012-04-13 2012-07-13 King Hei Francis Kwong Secure electronic payment system and process
KR101850035B1 (ko) * 2012-05-02 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9164580B2 (en) 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
WO2014051961A2 (en) * 2012-09-27 2014-04-03 Ebay Inc. System and methods for secure entry of a personal identification number (pin)
US20140118243A1 (en) * 2012-10-25 2014-05-01 University Of Seoul Industry Cooperation Foundation Display section determination
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9092600B2 (en) 2012-11-05 2015-07-28 Microsoft Technology Licensing, Llc User authentication on augmented reality display device
KR101354321B1 (ko) * 2012-11-27 2014-02-05 현대자동차주식회사 눈동자의 움직임을 이용한 명령 입력 장치 및 그 방법
KR101417433B1 (ko) * 2012-11-27 2014-07-08 현대자동차주식회사 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
ES2731560T3 (es) 2013-03-01 2019-11-15 Tobii Ab Interacción de mirada con deformación retardada
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
TW201518979A (zh) * 2013-11-15 2015-05-16 Utechzone Co Ltd 手持式眼控接目裝置、及密碼輸入裝置、方法以及電腦可讀取記錄媒體及電腦程式產品
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
JP6272688B2 (ja) * 2013-12-18 2018-01-31 マイクロソフト テクノロジー ライセンシング,エルエルシー 表示デバイスでのユーザー認証
EP2887253A1 (en) * 2013-12-18 2015-06-24 Microsoft Technology Licensing, LLC User authentication via graphical augmented reality password
US20160011657A1 (en) * 2014-07-14 2016-01-14 Futurewei Technologies, Inc. System and Method for Display Enhancement
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
US10594974B2 (en) 2016-04-07 2020-03-17 Tobii Ab Image sensor for vision based on human computer interaction
US9871774B1 (en) 2016-09-29 2018-01-16 International Business Machines Corporation Secured file transfer management on augmented reality (AR) and virtual reality (VR) devices
US9824206B1 (en) * 2016-09-29 2017-11-21 International Business Machines Corporation Eye gazing passcode generation crossing augmented reality (AR) and virtual reality (VR) devices
US10540491B1 (en) * 2016-10-25 2020-01-21 Wells Fargo Bank, N.A. Virtual and augmented reality signatures
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10928895B2 (en) 2017-09-21 2021-02-23 Tobii Ab Systems and methods for interacting with a computing device using gaze information
US10678116B1 (en) 2017-11-09 2020-06-09 Facebook Technologies, Llc Active multi-color PBP elements
US20190253700A1 (en) 2018-02-15 2019-08-15 Tobii Ab Systems and methods for calibrating image sensors in wearable apparatuses
US10558895B2 (en) 2018-03-30 2020-02-11 Tobii Ab Deep learning for three dimensional (3D) gaze prediction
US10671890B2 (en) 2018-03-30 2020-06-02 Tobii Ab Training of a neural network for three dimensional (3D) gaze prediction
US10534982B2 (en) 2018-03-30 2020-01-14 Tobii Ab Neural network training for three dimensional (3D) gaze prediction with calibration parameters
WO2019190561A1 (en) 2018-03-30 2019-10-03 Tobii Ab Deep learning for three dimensional (3d) gaze prediction
US10528131B2 (en) 2018-05-16 2020-01-07 Tobii Ab Method to reliably detect correlations between gaze and stimuli
WO2019221724A1 (en) 2018-05-16 2019-11-21 Tobii Ab Method to reliably detect correlations between gaze and stimuli
WO2019221654A1 (en) 2018-05-17 2019-11-21 Tobii Ab Autoencoding generative adversarial network for augmenting training data usable to train predictive models
WO2020141344A2 (en) 2018-07-20 2020-07-09 Tobii Ab Distributed foveated rendering based on user gaze
US11353952B2 (en) 2018-11-26 2022-06-07 Tobii Ab Controlling illuminators for optimal glints
SE542553C2 (en) * 2018-12-17 2020-06-02 Tobii Ab Gaze tracking via tracing of light paths
US11503998B1 (en) 2021-05-05 2022-11-22 Innodem Neurosciences Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases
IT202100011753A1 (it) * 2021-05-07 2022-11-07 Foolfarm S P A Metodo e sistema elettronico per autenticare un soggetto per mezzo dell’ausilio degli occhi
WO2024043468A1 (ko) * 2022-08-26 2024-02-29 삼성전자주식회사 객체들을 이용하여 인증 패턴을 등록 및 해제하는 장치 및 방법
CN116225209A (zh) * 2022-11-03 2023-06-06 溥畅(杭州)智能科技有限公司 一种基于眼动追踪的人机交互方法及***

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4595990A (en) * 1980-12-31 1986-06-17 International Business Machines Corporation Eye controlled information transfer
US4950069A (en) * 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
TW299410B (es) * 1994-04-04 1997-03-01 At & T Corp
CA2126142A1 (en) * 1994-06-17 1995-12-18 David Alexander Kahn Visual communications apparatus
US6083270A (en) * 1995-03-24 2000-07-04 The Board Of Trustees Of The Leland Stanford Junior University Devices and methods for interfacing human users with electronic devices
US5689619A (en) * 1996-08-09 1997-11-18 The United States Of America As Represented By The Secretary Of The Army Eyetracker control of heads-up displays
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
JP2000163196A (ja) * 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
US6282553B1 (en) * 1998-11-04 2001-08-28 International Business Machines Corporation Gaze-based secure keypad entry system
US6577329B1 (en) * 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US6712468B1 (en) * 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data

Also Published As

Publication number Publication date
JP4693329B2 (ja) 2011-06-01
DE50012364D1 (de) 2006-05-04
AU2000242834A1 (en) 2001-11-26
US20030076300A1 (en) 2003-04-24
EP1285326A1 (de) 2003-02-26
JP2003533816A (ja) 2003-11-11
EP1285326B1 (de) 2006-03-08
WO2001088680A1 (de) 2001-11-22
US7113170B2 (en) 2006-09-26

Similar Documents

Publication Publication Date Title
ES2258972T3 (es) Procedimiento y terminal para entrar instrucciones.
JP7274532B2 (ja) 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法
US11874910B2 (en) Facial recognition authentication system including path parameters
US20240061919A1 (en) Method and apparatus for user verification
ES2241598T3 (es) Procedimiento biometrico de identificacion y autenticacion.
US8840020B2 (en) Biometric terminals
US20060039686A1 (en) Line-of-sight-based authentication apparatus and method
JP2017526079A (ja) 眼信号を識別するためのシステムおよび方法、ならびに連続バイオメトリック認証
US20120138693A1 (en) Data transmission to optical terminals
US20230073410A1 (en) Facial recognition and/or authentication system with monitored and/or controlled camera cycling
JP2022189048A (ja) 認証システム、認証装置、認証方法、及びプログラム
TWI827155B (zh) 運用擴增實境的解鎖方法
WO2015093221A1 (ja) 電子機器及びプログラム
KR20200050939A (ko) 단말기의 패드워드 입력 장치 및 그 방법