ES2258972T3 - Procedimiento y terminal para entrar instrucciones. - Google Patents
Procedimiento y terminal para entrar instrucciones.Info
- Publication number
- ES2258972T3 ES2258972T3 ES00922406T ES00922406T ES2258972T3 ES 2258972 T3 ES2258972 T3 ES 2258972T3 ES 00922406 T ES00922406 T ES 00922406T ES 00922406 T ES00922406 T ES 00922406T ES 2258972 T3 ES2258972 T3 ES 2258972T3
- Authority
- ES
- Spain
- Prior art keywords
- sequence
- user
- procedure according
- eye
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/36—User authentication by graphic or iconic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
- Calculators And Similar Devices (AREA)
Abstract
Procedimiento con el que usuarios (1) introducen instrucciones, introduciéndose dichas instrucciones con secuencias de varios movimientos voluntarios de partes del ojo, siendo introducida la secuencia individual que se necesita para la introducción de una instrucción determinada por un usuario en una fase de aprendizaje mediante varios movimientos voluntarios de partes del ojo y siendo repetida por el usuario la secuencia individualmente definida para la introducción de la instrucción determinada.
Description
Procedimiento y terminal para entrar
instrucciones.
La presente invención se refiere a un
procedimiento y a un terminal para la introducción de instrucciones,
en particular, para la introducción de instrucciones controlada por
los ojos en un sistema de procesamiento de datos y en un servidor
remoto en una red de comunicación con una base de datos.
Ya se conocen sistemas que permiten el control
de un equipo con los ojos. Los sistemas de este tipo se usan, entre
otras cosas, cuando resulta imposible o poco práctico un control
manual o como canal de introducción rápido adicional para controlar
dispositivos.
El documento
GB-A-2 281 838 describe un
dispositivo que reacciona a un parpadeo del usuario. También en el
modelo de utilidad alemán
DE-U1-29610766 está descrito un
sistema para el control del entorno con ayuda del ojo humano. El
documento EP-A2-0 816 984 describe
un sistema que determina la dirección visual en una pantalla, para
determinar las partes de la imagen por las que se interesa el
observador.
El documento
US-A-5,844,544 describe un
dispositivo controlado por los ojos en el que el usuario debe seguir
un protocolo especial para seleccionar caracteres con los ojos. El
dispositivo se calibra para adaptarlo a cada usuario. El protocolo
es el mismo para todos los usuarios.
El documento
EP-A1-0 677 801 describe un
procedimiento para introducir contraseñas, en el que el usuario toca
partes de una imagen en una secuencia individual o las selecciona
con un puntero.
El artículo "Method for access control via
gestural verification", IBM Technical Disclosure Bulletin 09B,
Vol. 36, pág. 487-488) describe un procedimiento
para introducir instrucciones con movimientos voluntarios del
cuerpo. De esta forma, el usuario puede introducir contraseñas.
Los movimientos del ojo son a veces difíciles de
controlar; el ojo también realiza movimientos involuntarios, entre
otros, sácadas, que pueden interpretarse en ciertas circunstancias
como instrucción para el dispositivo controlado. Por lo tanto, estos
procedimientos apenas son adecuados para introducir instrucciones
críticas en cuanto a la seguridad.
En muchos casos, el no rechazo de la instrucción
es un criterio de seguridad importante. Sobre todo en procedimientos
de transacción es importante que la transacción no pueda negarse
posteriormente.
Además, se conocen sistemas en los que se usan
parámetros del ojo como claves biométricas para permitir el acceso
a sistemas o servicios. Entre otras cosas se ha propuesto usar los
patrones del iris o de la retina para autenticar el observador o
incluso para identificarlo.
El objetivo de esta invención es ofrecer un
procedimiento nuevo y mejor, con el que puedan introducirse
instrucciones con los ojos.
Otro objetivo es ofrecer un sistema nuevo y
mejor, con el que se introduzcan las instrucciones de tal forma que
no pueda negarse la intención de la persona que da las instrucciones
(no rechazo).
Otro objetivo es ofrecer un sistema nuevo y
mejor, con el que las instrucciones sólo puedan ser introducidas por
el usuario autorizado.
Según la presente invención, estos objetivos se
consiguen, en particular, mediante los elementos de las
reivindicaciones independientes. Otras realizaciones ventajosas
resultan además de las reivindicaciones subordinadas y de la
descripción.
Estos objetivos se consiguen, en particular,
porque las instrucciones se introducen con secuencias de movimientos
voluntarios de partes del ojo, siendo individual la secuencia
necesaria para la introducción de una instrucción determinada para
cada usuario.
Esto tiene la ventaja de que las instrucciones
no sólo se introducen con un movimiento sencillo del ojo que podría
haberse hecho de forma involuntaria, sino con una secuencia de
varios movimientos de partes del ojo que sólo pueden hacerse de
forma voluntaria. Por lo tanto, queda garantizado el no rechazo de
la instrucción. Puesto que la secuencia para la introducción de una
instrucción es individual para cada usuario, también puede usarse
para autenticar al
usuario.
usuario.
De esta forma pueden introducirse, por lo tanto,
también instrucciones críticas en cuanto a la seguridad (por
ejemplo, instrucciones para transacciones electrónicas), que no
pueden ser negadas y para las que es importante una autenticación
segura del usuario.
Además del procedimiento de transacción según la
invención, la presente invención se refiere, en particular, también
a un terminal y a un servidor para la realización del
procedimiento.
A continuación, se describirá una realización de
la presente invención con ayuda de un ejemplo. El ejemplo de la
realización se ilustra mediante las siguientes figuras adjuntas:
La fig. 1, muestra un diagrama de bloques en
el que se muestra de forma esquemática un terminal según la
invención y un servidor según la invención que está conectado con
este terminal mediante una red de comunicación.
La fig. 2, muestra un ejemplo de una imagen
con un teclado que se proyecta en la retina del usuario.
La fig. 3, muestra un ejemplo de una imagen
tridimensional con un teclado que se proyecta en la retina del
usuario.
La fig. 4, muestra un diagrama de flujo de
datos en el que están representadas de forma esquemática las
posibles etapas del procedimiento para la captación de la secuencia
para una instrucción en un ejemplo de realización de la invención,
y
la fig. 5, muestra un diagrama de flujo de
datos en el que están representadas de forma esquemática las
posibles etapas del procedimiento para la introducción de un comando
en un ejemplo de realización de la invención.
En la figura 1, la cifra de referencia 1 se
refiere al usuario de un terminal 2, con el que pueden introducirse
instrucciones para un servidor remoto 4, que pueden emitirse
mediante una red de comunicación 3. El terminal 2 es preferiblemente
portátil y puede ser, en una variante preferible, un teléfono móvil,
un ordenador de mano (palmtop), un ordenador portátil (laptop), un
asistente digital personal (PDA, Personal Digital Assistent), un
asistente móvil o una combinación de distintos componentes
conectados entre sí, pudiendo realizarse la conexión mediante una
interfaz con contacto, por ejemplo, según tarjeta PC o
preferiblemente mediante una interfaz sin contacto, por ejemplo
según IrDA o Bluetooth. En una variante preferible, el terminal 2
incluye una tarjeta chip no representada, por ejemplo, una tarjeta
SIM (Subscriber Identification Module), en la que están depositados
datos específicos del usuario.
El terminal 2 contiene un módulo 20 para la
determinación de movimientos de partes del ojo. El módulo 20 está
formado, por ejemplo, por un módulo para determinar la dirección
visual del ojo (eye tracker), que puede determinar la dirección
visual actual basada en la posición de la pupila y/o de la cabeza
del usuario 1. Los módulos de determinación de ojos de este tipo se
han descrito, entre otros documentos, en la solicitud de patente
WO94/09472. En una variante, el módulo 20 también puede determinar
otros tipos de movimientos voluntarios de partes del ojo, por
ejemplo, parpadeo, como está descrito en la solicitud de patente
GB-A-2 281 838 arriba indicada,
enfoque, etc. Según la variante, pueden determinarse los movimientos
de un solo ojo o de los dos ojos; en el caso indicado en último
lugar, también pueden determinarse movimientos bizcos de los
ojos.
Si se usa un módulo de determinación de la
dirección del ojo sencillo, que no detecta la posición de la cabeza,
no puede determinarse la dirección visual absoluta. En este caso se
registran preferiblemente movimientos diferenciales del ojo, por
ejemplo, arriba lado izquierdo - arriba lado derecho - centro -
arriba lado derecho.
Para que el terminal 2 sólo reaccione a
movimientos de seres vivos y no pueda ser engañado, por ejemplo, por
la presentación de imágenes animadas, el módulo 20 determina
preferiblemente reacciones del cuerpo. En una variante preferible,
se mide un parámetro que depende de la temperatura del cuerpo, por
ejemplo, la reacción de la retina a un calentamiento provocado por
el terminal 2. En otra variante, se determina la reacción del iris a
variaciones de luz provocadas por el terminal 2. De esta forma puede
comprobarse si la imagen determinada del ojo pertenece realmente a
un ser humano.
El terminal 2 comprende, además, medios de
reproducción de imágenes 21, que pueden reproducir imágenes visibles
para el usuario 1. En una primera variante, los medios de
reproducción de imágenes 21 están formados por una visualización
convencional, por ejemplo, una visualización CRT, de cristal líquido
o de plasma. En una variante preferible, están formados por una
llamada micropantalla con un sistema de lentes adecuado,
preferiblemente por un dispositivo de visualización virtual en la
retina (VRD, Virtual Retinal Display), que proyecta la imagen
representada directamente en la retina de uno o de los dos ojos del
usuario 1.
Los dispositivos de visualización virtuales en
la retina están descritos, por ejemplo, en las solicitudes de
patente WO-A1-94/09472,
WO-A1-97/37339 y
WO-A1-98/13720, por lo que ya no es
necesario describirlos. El dispositivo VRD es controlado desde un
controlador de vídeo 22, para proyectar señales vídeo que
corresponden a una imagen bidimensional o tridimensional en la fóvea
del ojo del usuario.
El terminal 2 es controlado por medios de
procesamiento de datos 23, por ejemplo, en forma de un procesador
con un área de memoria no representada. El procesador controla, en
particular, el controlador de vídeo 22 y procesa los datos del
módulo de determinación de los movimientos de partes del ojo 20. Un
módulo software y/o hardware (módulo de seguridad 230) dispuesto en
el procesador o conectado con este procesador se encarga del
aseguramiento de la transmisión de datos con dispositivos externos
4, estableciéndose, por ejemplo, un canal de comunicación seguro,
como se explicará más adelante.
El experto entenderá que los medios de
procesamiento de datos 23 y el módulo de seguridad 230 pueden estar
hechos de un solo chip o de múltiples componentes conectados
mediante conexión lógica entre sí. En una variante preferible, en la
que el terminal 2 es un teléfono móvil, los medios de procesamiento
de datos 23 comprenden preferiblemente componentes en el teléfono
móvil, así como componentes en la tarjeta chip retirable (tarjeta
SIM), que está conectada con este teléfono móvil. En una variante
preferible, en particular los componentes críticos en cuanto a la
seguridad usados por el módulo de seguridad 230 se encuentran en la
tarjeta chip.
El terminal comprende, además, una parte de
comunicación 24, con la que puede conectarse con una red de
comunicación 3. La parte de comunicación 24 está formada,
preferiblemente, por un parte de comunicación GSM o UMTS, o por un
módem, o por una interfaz sin contacto de corto alcance, por
ejemplo, según IrDA, Bluetooth, HomeRF o DECT.
La red de comunicación 3 es, por ejemplo, una
red de telefonía móvil, por ejemplo, según GSM o UMTS, aunque
también podría ser Internet o podría estar formada por varias redes.
Mediante la red de comunicación 3, el terminal puede conectarse con
un servidor remoto 4, por ejemplo, un servidor http o WAP, que es
administrado por el explotador de la red de comunicación 3 y/o por
un proveedor de servicios. La transmisión de datos entre el
terminal 2 y el servidor remoto 4 se asegura preferiblemente de
extremo a extremo, por ejemplo, con el protocolo SSL (Secure Sockets
Layer), TLS (Transport Layer Security) y/o WTLS (Wireless Transport
Layer Security). Los datos que son enviados del terminal 2 al
servidor remoto 4 preferiblemente son firmados electrónicamente por
el módulo de seguridad 230, preferiblemente con una clave
electrónica privada, que está depositada en un certificado
electrónico en la tarjeta SIM o en el módulo de seguridad 230.
El terminal 2 comprende preferiblemente medios
de introducción de datos adicionales no representados, por ejemplo,
un teclado, un ratón, un elemento rodante, un micrófono, etc., con
el que puede controlarse la aplicación en el procesador 23.
El usuario 1 puede establecer una sesión con el
servidor remoto 4 introduciendo la dirección URL o el número de
teléfono correspondiente en su terminal 2. Una sesión puede
establecerse, por ejemplo, para realizar una transacción entre el
usuario 1 y el proveedor de servicios, que explota el servidor
remoto 4, por ejemplo, para pedir y/o pagar un producto o un
servicio del proveedor de servicios.
Durante una sesión se transmiten, por regla
general, datos de imágenes del servidor remoto 4 (por ejemplo,
páginas HTML o tarjetas WAP con un contenido de imágenes) al
terminal 2 y se reproducen para el usuario 1. Al menos determinados
datos de imágenes contienen preferiblemente objetos GUI (Graphical
User Interface), por ejemplo, hiperenlaces, casillas de control,
botones de radio, etc. que pueden ser seleccionados o activados por
el usuario 1 para introducir una instrucción determinada, por
ejemplo, para cargar otra página o para confirmar una
transa-
cción.
cción.
Al menos determinados objetos GUI pueden
seleccionarse o activarse con los ojos, para introducir una
instrucción (por ejemplo, dirigiéndose al menos un ojo durante al
menos un tiempo predefinido en esta dirección). Preferiblemente se
emite una reacción visual y/o acústica, en cuanto el objeto haya
sido seleccionado.
El servidor remoto 4 del proveedor de servicios
comprende una base de datos de perfiles de usuarios 40, en la que
están registrados datos de perfil para cada usuario 1. Los datos de
perfil depositados comprenden, entre otras cosas, para cada usuario
1 las secuencias de movimientos del ojo específicas del usuario.
La figura 2 muestra esquemáticamente un usuario
1 con una variante de realización del terminal según la invención,
que está integrado aquí en unas gafas. Las gafas contienen una parte
de telefonía móvil como parte de comunicación 24, un dispositivo de
visualización VRD como medio de reproducción de imágenes 21, que
puede proyectar imágenes en la retina del usuario 1, y un sistema de
seguimiento de ojos. El signo de referencia 5 muestra la imagen
proyectada. En el ejemplo representado, esta imagen comprende
múltiples objetos GUI, que corresponden aquí a las teclas 50 de un
teclado numérico virtual. Una tecla "C" permite la corrección
de los datos registrados, mientras que la tecla "OK" permite la
confirmación.
Según la invención, se introducen al menos
determinadas instrucciones con secuencias de movimientos voluntarios
de partes del ojo, siendo individual para cada usuario la secuencia
que se necesita para la introducción de una instrucción
determinada. En el ejemplo representado, se introducen instrucciones
determinadas mediante selección de una secuencia de teclas 50
específica para cada usuario mediante los ojos.
La figura 4 muestra un diagrama de flujo de
datos, en el que están representadas de forma esquemática las
posibles etapas de procedimiento para la captación 100 de la
secuencia específica del usuario para una instrucción en la fase de
aprendizaje. En una primera etapa 101, el usuario selecciona la
instrucción, que se introduce con una secuencia de movimientos del
ojo. Si pueden codificarse varias instrucciones para una aplicación
determinada, la instrucción deseada puede seleccionarse, por
ejemplo, de una lista proporcionada por el servidor remoto 4.
En la etapa 102, el usuario introduce la
secuencia de movimientos del ojo que debe asociarse a la instrucción
seleccionada. La secuencia puede comprender, por ejemplo, los
siguientes tipos de movimientos de partes del ojo:
\sqbullet Direcciones visuales predefinidas,
preferiblemente en la dirección de objetos GUI, por ejemplo, teclas
50 virtuales. De esta forma puede introducirse un código numérico
simplemente mediante observación de las teclas correspondientes.
\sqbullet Movimientos de parpadeo de un ojo
determinado o de los dos ojos.
\sqbullet Movimientos bizcos voluntarios de
los ojos.
\sqbullet Enfoque del ojo a una distancia
determinada. Con esto es posible, por ejemplo, seleccionar distintos
objetos GUI dispuestos a distancias diferentes. En la figura 3, está
representado como ejemplo un teclado virtual tridimensional, que
puede ser reproducido para el usuario; el usuario puede seleccionar
una tecla 50 mediante adaptación de la dirección visual y del
enfoque.
\sqbullet etc.
Durante esta fase de aprendizaje, el procesador
confirma preferiblemente cada movimiento individual del ojo
detectado como tal. El final de la secuencia es determinado
preferiblemente por el usuario mediante la selección de la tecla
visual "ok" o mediante un movimiento especial, predefinido del
ojo. Toda la secuencia se confirma preferiblemente una segunda vez
(etapa 103) o las veces que sea necesario hasta que se cumplan los
criterios predefinidos respecto a la calidad de repetición.
En la etapa 104, la confirmación se compara con
la primera secuencia. Si las dos secuencias son distintas, se
solicita al usuario repetir todo el proceso (flecha 105). Según los
requisitos de seguridad, puede exigirse al usuario introducir un
número mínimo de movimientos del ojo por secuencia o al menos dos
tipos distintos de movimientos del ojo. Si, por lo contrario, se
acepta la secuencia, es codificada por los medios de procesamiento
de datos 23, por ejemplo, simplemente como secuencia numérica, se
empaqueta en un comprobante, que preferiblemente se firma y codifica
con ayuda del módulo de seguridad 230 (etapa 106). En la etapa del
procedimiento 107, este comprobante es transmitido por la red de
comunicación 3 y recibido y descodificado por el servidor remoto 4
del proveedor de servicios. En la etapa de procedimiento 108, la
secuencia descodificada se vincula preferiblemente con el usuario 1
y con la instrucción seleccionada y se deposita en la base de datos
de perfiles de usuarios 40.
En una variante, la secuencia registrada también
puede depositarse en el terminal 2 en lugar de en el servidor remoto
4.
La firma en la etapa 106 sirve sobre todo para
autenticar el usuario 1 de forma fiable. En una variante, el
comprobante se firma electrónicamente con la clave electrónica
privada del usuario; el servidor remoto 4 dispone de la clave de
usuario pública correspondiente, con la que puede comprobarse la
firma recibida. En otra variante, el comprobante se vincula con
parámetros biométricos del usuario 1, por ejemplo, una imagen de la
retina y/o del iris del usuario 1 (captada por una unidad de
captación de la imagen de la retina no representada), que también
se envían al servidor remoto 4 y con los que puede comprobarse de
forma fiable la identidad del usuario. También es posible usar al
mismo tiempo los dos procedimientos de firma.
Como ya se ha mencionado anteriormente, puede
determinarse, además, un parámetro que depende de la temperatura
corporal que puede vincularse con el comprobante, para poder
comprobar si el terminal 2 realmente es manejado por una persona y
no por una secuencia de imágenes reproducida.
La figura 5 muestra un diagrama de flujo de
datos, en el que están representadas de forma esquemática las
etapas de procedimiento para la introducción 109 de una instrucción
con una secuencia de movimientos voluntarios del ojo. La secuencia
de los movimientos del ojo que es necesaria para una instrucción
determinada es introducida por el usuario 1 en la etapa 110 y
confirmada en la etapa 111, por ejemplo, mediante un parpadeo u otro
movimiento específico del ojo. La secuencia introducida se codifica
en la etapa 112, se firma electrónicamente con ayuda del módulo de
seguridad 230 y preferiblemente se cifra, pudiendo contener la firma
también características biométricas del usuario. La secuencia
firmada se transmite en la etapa 113 mediante la red de comunicación
3 al servidor remoto 4, donde se descifra y donde se comprueba la
firma. Si la firma es correcta, se comprueba en la etapa 114 en la
base de datos 40 si la secuencia recibida corresponde a una
secuencia depositada del usuario (matching).
Si no se encuentra ninguna instrucción en la
base de datos que corresponda a la secuencia recibida, se solicita
al usuario 1 en la etapa de procedimiento 115 introducir una nueva
secuencia (flecha 116). Si por lo contrario se encuentra un match,
la instrucción definida por el usuario puede extraerse de la base de
datos (etapa 117) y, según la instrucción o según la variante,
puede ser ejecutada por el servidor remoto 4 o transmitida al
terminal 2.
En la variante en la que la secuencia captada
durante la fase de aprendizaje sólo se ha depositado en el terminal
2, la secuencia introducida en la fase de uso se compara con todas
las secuencias depositadas en el terminal 2.
El experto entenderá que pueden introducirse las
instrucciones más diversas, según la aplicación. El procedimiento
según la invención es especialmente adecuado para introducir
secretos (por ejemplo, contraseñas o números PIN). No obstante, con
este procedimiento también pueden introducirse otras instrucciones
(entre otras, confirmaciones de transacciones con "SÍ" o
"NO" o consultas más complejas, que pueden contener también
texto y/o números como variables).
En esta variante de realización descrita, se
comprueba la secuencia introducida por el usuario en el servidor
remoto 4 de un proveedor de servicios. En una variante de la
invención, la secuencia de movimientos del ojo se comprueba en el
terminal 2 o en la red de comunicación 3. En este caso, podría
depositarse la secuencia de comprobación individual en el terminal 2
o preferiblemente en la tarjeta de identificación en este terminal
2. También es posible permitir con el mismo sistema según la
aplicación la comprobación en el terminal 2 o en un servidor remoto
4.
1 | Usuario |
2 | Terminal |
20 | Módulo para la determinación de movimientos de partes del ojo |
21 | Medios de reproducción de imágenes |
22 | Controlador de vídeo |
23 | Medios de procesamiento de datos |
230 | Módulo de seguridad |
24 | Parte de comunicación |
3 | Red de comunicación |
4 | Servidor remoto |
40 | Base de datos de perfiles de los usuarios |
5 | Imagen |
50 | Tecla |
100 a 117 | Etapas del procedimiento |
Claims (25)
1. Procedimiento con el que usuarios (1)
introducen instrucciones, introduciéndose dichas instrucciones con
secuencias de varios movimientos voluntarios de partes del ojo,
siendo introducida la secuencia individual que se necesita para la
introducción de una instrucción determinada por un usuario en una
fase de aprendizaje mediante varios movimientos voluntarios de
partes del ojo y siendo repetida por el usuario la secuencia
individualmente definida para la introducción de la instrucción
determinada.
2. Procedimiento según la reivindicación
precedente, en el que dicha secuencia comprende múltiples
direcciones visuales.
3. Procedimiento según la reivindicación
precedente, en el que se reproduce una imagen (5) para dicho usuario
y en el que dichas direcciones visuales corresponden a partes
predefinidas de la imagen (50).
4. Procedimiento según la reivindicación
precedente, en el que dicha imagen (5) es tridimensional.
5. Procedimiento según una de las
reivindicaciones 3 ó 4, en el que dichas partes de la imagen
corresponden a un teclado virtual.
6. Procedimiento según una de las
reivindicaciones 3 a 5, en el que dicha imagen (5) está representada
en una pantalla.
7. Procedimiento según una de las
reivindicaciones 3 a 5, en el que dicha imagen (5) se reproduce con
un dispositivo VRD.
8. Procedimiento según una de las
reivindicaciones precedentes, en el que dicha secuencia comprende
distintas distancias de enfoque.
9. Procedimiento según una de las
reivindicaciones precedentes, en el que dicha secuencia comprende al
menos un parpadeo.
10. Procedimiento según una de las
reivindicaciones precedentes, en el que dicha secuencia comprende al
menos un movimiento bizco voluntario de los ojos.
11. Procedimiento según una de las
reivindicaciones precedentes, en el que dicha secuencia se convierte
en un código numérico.
12. Procedimiento según la reivindicación
precedente, en el que dicho código numérico se firma
electrónicamente.
13. Procedimiento según la reivindicación
precedente, en el que dicho código se firma electrónicamente con la
clave privada de dicho usuario (1).
14. Procedimiento según la reivindicación
12, en el que dicho código se firma con características biométricas
del usuario (1).
15. Procedimiento según la reivindicación
precedente, en el que dichas características biométricas del
usuario comprenden características del ojo.
16. Procedimiento según la reivindicación
precedente, en el que dichas características biométricas del
usuario (1) comprenden características de ojo de partes de ojo de
los dos ojos.
17. Procedimiento según una de las
reivindicaciones precedentes, en el que se mide un parámetro que
depende de la temperatura corporal y se vincula con dicha
secuencia.
18. Procedimiento según una de las
reivindicaciones precedentes, en el que se mide un parámetro que
depende del calentamiento de la retina y se vincula con dicha
secuencia.
19. Procedimiento según una de las
reivindicaciones precedentes, en el que se mide la reacción del iris
a variaciones de la luz y se vincula como parámetro con dicha
secuencia.
20. Procedimiento según una de las
reivindicaciones precedentes, en el que se determina dicha secuencia
mediante un terminal portátil (2), transmitiéndose dicha secuencia
mediante una parte de radiotelefonía (24) en dicho terminal
mediante una red de radiotelefonía (3) a un servidor remoto (4).
21. Procedimiento según la reivindicación
precedente, en el que dicho servidor remoto (4) es administrado por
un proveedor de servicios y en el que se cifra de extremo a extremo
la conexión entre dicha parte de radiotelefonía (24) y dicho
servidor remoto (4).
22. Procedimiento según la reivindicación
precedente, en el que dicha secuencia se compara en dicho servidor
remoto (4) con una secuencia previamente depositada por el usuario
(1) y en el que dicha instrucción no se ejecuta hasta que coincidan
la secuencia introducida y depositada.
23. Procedimiento según una de las
reivindicaciones precedentes, en el que están previstas múltiples
secuencias individuales diferentes para cada usuario (1),
correspondiendo cada secuencia a otra instrucción.
24. Procedimiento según una de las
reivindicaciones precedentes, en el que dicha secuencia se determina
mediante un terminal portátil (2) y se compara con una secuencia
depositada en este terminal (2).
25. Servidor remoto (4) en una red de
comunicación (3) con una base de datos (40), en el que están
contenidas múltiples secuencias individuales de movimientos
voluntarios de partes del ojo que se han introducido durante la fase
de aprendizaje de las reivindicaciones 1 a 24, estando asignada cada
secuencia a una instrucción determinada de un usuario (1)
determinado y pudiendo ser introducidas las instrucciones y llamadas
del servidor remoto (4) con un procedimiento según las
reivindicaciones 1 a 24.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CH2000/000269 WO2001088680A1 (de) | 2000-05-16 | 2000-05-16 | Verfahren und terminal zur eingabe von instruktionen |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2258972T3 true ES2258972T3 (es) | 2006-09-16 |
Family
ID=4358076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00922406T Expired - Lifetime ES2258972T3 (es) | 2000-05-16 | 2000-05-16 | Procedimiento y terminal para entrar instrucciones. |
Country Status (7)
Country | Link |
---|---|
US (1) | US7113170B2 (es) |
EP (1) | EP1285326B1 (es) |
JP (1) | JP4693329B2 (es) |
AU (1) | AU2000242834A1 (es) |
DE (1) | DE50012364D1 (es) |
ES (1) | ES2258972T3 (es) |
WO (1) | WO2001088680A1 (es) |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7821503B2 (en) | 2003-04-09 | 2010-10-26 | Tegic Communications, Inc. | Touch screen and graphical user interface |
US7286115B2 (en) | 2000-05-26 | 2007-10-23 | Tegic Communications, Inc. | Directional input system with automatic correction |
US7030863B2 (en) * | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
US7750891B2 (en) | 2003-04-09 | 2010-07-06 | Tegic Communications, Inc. | Selective input system based on tracking of motion parameters of an input device |
GB0302263D0 (en) * | 2003-01-31 | 2003-03-05 | Roke Manor Research | Secure network browsing |
US7682024B2 (en) * | 2003-03-13 | 2010-03-23 | Plant Charles P | Saccadic motion sensing |
US7546158B2 (en) * | 2003-06-05 | 2009-06-09 | The Regents Of The University Of California | Communication methods based on brain computer interfaces |
US7593550B2 (en) | 2005-01-26 | 2009-09-22 | Honeywell International Inc. | Distance iris recognition |
US8090157B2 (en) | 2005-01-26 | 2012-01-03 | Honeywell International Inc. | Approaches and apparatus for eye detection in a digital image |
US7761453B2 (en) * | 2005-01-26 | 2010-07-20 | Honeywell International Inc. | Method and system for indexing and searching an iris image database |
US8049812B2 (en) | 2006-03-03 | 2011-11-01 | Honeywell International Inc. | Camera with auto focus capability |
US8442276B2 (en) * | 2006-03-03 | 2013-05-14 | Honeywell International Inc. | Invariant radial iris segmentation |
US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
US8064647B2 (en) | 2006-03-03 | 2011-11-22 | Honeywell International Inc. | System for iris detection tracking and recognition at a distance |
US7933507B2 (en) * | 2006-03-03 | 2011-04-26 | Honeywell International Inc. | Single lens splitter camera |
US8705808B2 (en) | 2003-09-05 | 2014-04-22 | Honeywell International Inc. | Combined face and iris recognition system |
CN1740951A (zh) * | 2004-08-25 | 2006-03-01 | 西门子公司 | 用于利用人眼进行设备控制的装置 |
KR100594117B1 (ko) * | 2004-09-20 | 2006-06-28 | 삼성전자주식회사 | Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법 |
US7331929B2 (en) * | 2004-10-01 | 2008-02-19 | General Electric Company | Method and apparatus for surgical operating room information display gaze detection and user prioritization for control |
US20070270122A1 (en) | 2005-05-10 | 2007-11-22 | Ewell Robert C Jr | Apparatus, system, and method for disabling a mobile communicator |
US8437729B2 (en) * | 2005-05-10 | 2013-05-07 | Mobile Communication Technologies, Llc | Apparatus for and system for enabling a mobile communicator |
US8385880B2 (en) * | 2005-05-10 | 2013-02-26 | Mobile Communication Technologies, Llc | Apparatus for and system for enabling a mobile communicator |
US20070052672A1 (en) | 2005-09-08 | 2007-03-08 | Swisscom Mobile Ag | Communication device, system and method |
JP5510951B2 (ja) * | 2006-02-01 | 2014-06-04 | トビー テクノロジー アーベー | コンピュータシステムにおけるグラフィカルフィードバックの生成 |
JP2009529197A (ja) | 2006-03-03 | 2009-08-13 | ハネウェル・インターナショナル・インコーポレーテッド | モジュールバイオメトリクス収集システムアーキテクチャ |
KR101299074B1 (ko) | 2006-03-03 | 2013-08-30 | 허니웰 인터내셔널 인코포레이티드 | 홍채 인코딩 시스템 |
WO2008016724A2 (en) | 2006-03-03 | 2008-02-07 | Honeywell International, Inc. | An iris recognition system having image quality metrics |
US7725547B2 (en) * | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
US8295542B2 (en) | 2007-01-12 | 2012-10-23 | International Business Machines Corporation | Adjusting a consumer experience based on a 3D captured image stream of a consumer response |
US8588464B2 (en) * | 2007-01-12 | 2013-11-19 | International Business Machines Corporation | Assisting a vision-impaired user with navigation based on a 3D captured image stream |
US7877706B2 (en) * | 2007-01-12 | 2011-01-25 | International Business Machines Corporation | Controlling a document based on user behavioral signals detected from a 3D captured image stream |
US7792328B2 (en) * | 2007-01-12 | 2010-09-07 | International Business Machines Corporation | Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream |
US7801332B2 (en) * | 2007-01-12 | 2010-09-21 | International Business Machines Corporation | Controlling a system based on user behavioral signals detected from a 3D captured image stream |
US7840031B2 (en) * | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
US8269834B2 (en) * | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
US8201087B2 (en) | 2007-02-01 | 2012-06-12 | Tegic Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US8225203B2 (en) | 2007-02-01 | 2012-07-17 | Nuance Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US8063889B2 (en) | 2007-04-25 | 2011-11-22 | Honeywell International Inc. | Biometric data collection system |
WO2009073584A1 (en) * | 2007-11-29 | 2009-06-11 | Oculis Labs, Inc. | Method and apparatus for display of secure visual content |
US8436907B2 (en) | 2008-05-09 | 2013-05-07 | Honeywell International Inc. | Heterogeneous video capturing system |
US8213782B2 (en) | 2008-08-07 | 2012-07-03 | Honeywell International Inc. | Predictive autofocusing system |
US8090246B2 (en) | 2008-08-08 | 2012-01-03 | Honeywell International Inc. | Image acquisition system |
US8280119B2 (en) | 2008-12-05 | 2012-10-02 | Honeywell International Inc. | Iris recognition system using quality metrics |
US8630464B2 (en) | 2009-06-15 | 2014-01-14 | Honeywell International Inc. | Adaptive iris matching using database indexing |
US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
WO2011106797A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US10528130B2 (en) * | 2010-07-23 | 2020-01-07 | Telepatheye Inc. | Unitized eye-tracking wireless eyeglasses system |
US9916006B2 (en) * | 2010-07-23 | 2018-03-13 | Telepatheye Inc. | Eye-wearable device user interface and method |
US9977496B2 (en) * | 2010-07-23 | 2018-05-22 | Telepatheye Inc. | Eye-wearable device user interface and augmented reality method |
US8742887B2 (en) | 2010-09-03 | 2014-06-03 | Honeywell International Inc. | Biometric visitor check system |
EP2503479B1 (en) * | 2011-03-21 | 2015-08-05 | BlackBerry Limited | Login method based on direction of gaze |
US8625847B2 (en) | 2011-03-21 | 2014-01-07 | Blackberry Limited | Login method based on direction of gaze |
US10139900B2 (en) | 2011-04-12 | 2018-11-27 | Mobile Communication Technologies, Llc | Mobile communicator device including user attentiveness detector |
US9026779B2 (en) | 2011-04-12 | 2015-05-05 | Mobile Communication Technologies, Llc | Mobile communicator device including user attentiveness detector |
US9026780B2 (en) | 2011-04-12 | 2015-05-05 | Mobile Communication Technologies, Llc | Mobile communicator device including user attentiveness detector |
US8995945B2 (en) | 2011-08-30 | 2015-03-31 | Mobile Communication Technologies, Llc | Mobile communicator and system |
US9519768B2 (en) | 2011-12-23 | 2016-12-13 | Intel Corporation | Eye movement based knowledge demonstration |
US20150097772A1 (en) * | 2012-01-06 | 2015-04-09 | Thad Eugene Starner | Gaze Signal Based on Physical Characteristics of the Eye |
US9390256B2 (en) * | 2012-03-06 | 2016-07-12 | Paypal, Inc. | System and methods for secure entry of a personal identification number (PIN) |
US9083532B2 (en) | 2012-03-06 | 2015-07-14 | Ebay Inc. | Physiological response PIN entry |
HK1160574A2 (en) * | 2012-04-13 | 2012-07-13 | King Hei Francis Kwong | Secure electronic payment system and process |
KR101850035B1 (ko) * | 2012-05-02 | 2018-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US9164580B2 (en) | 2012-08-24 | 2015-10-20 | Microsoft Technology Licensing, Llc | Calibration of eye tracking system |
WO2014051961A2 (en) * | 2012-09-27 | 2014-04-03 | Ebay Inc. | System and methods for secure entry of a personal identification number (pin) |
US20140118243A1 (en) * | 2012-10-25 | 2014-05-01 | University Of Seoul Industry Cooperation Foundation | Display section determination |
JP2014092940A (ja) * | 2012-11-02 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
US9092600B2 (en) | 2012-11-05 | 2015-07-28 | Microsoft Technology Licensing, Llc | User authentication on augmented reality display device |
KR101354321B1 (ko) * | 2012-11-27 | 2014-02-05 | 현대자동차주식회사 | 눈동자의 움직임을 이용한 명령 입력 장치 및 그 방법 |
KR101417433B1 (ko) * | 2012-11-27 | 2014-07-08 | 현대자동차주식회사 | 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법 |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
ES2731560T3 (es) | 2013-03-01 | 2019-11-15 | Tobii Ab | Interacción de mirada con deformación retardada |
US9864498B2 (en) | 2013-03-13 | 2018-01-09 | Tobii Ab | Automatic scrolling based on gaze detection |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
TW201518979A (zh) * | 2013-11-15 | 2015-05-16 | Utechzone Co Ltd | 手持式眼控接目裝置、及密碼輸入裝置、方法以及電腦可讀取記錄媒體及電腦程式產品 |
US10558262B2 (en) | 2013-11-18 | 2020-02-11 | Tobii Ab | Component determination and gaze provoked interaction |
US10317995B2 (en) | 2013-11-18 | 2019-06-11 | Tobii Ab | Component determination and gaze provoked interaction |
JP6272688B2 (ja) * | 2013-12-18 | 2018-01-31 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 表示デバイスでのユーザー認証 |
EP2887253A1 (en) * | 2013-12-18 | 2015-06-24 | Microsoft Technology Licensing, LLC | User authentication via graphical augmented reality password |
US20160011657A1 (en) * | 2014-07-14 | 2016-01-14 | Futurewei Technologies, Inc. | System and Method for Display Enhancement |
US9952883B2 (en) | 2014-08-05 | 2018-04-24 | Tobii Ab | Dynamic determination of hardware |
US10594974B2 (en) | 2016-04-07 | 2020-03-17 | Tobii Ab | Image sensor for vision based on human computer interaction |
US9871774B1 (en) | 2016-09-29 | 2018-01-16 | International Business Machines Corporation | Secured file transfer management on augmented reality (AR) and virtual reality (VR) devices |
US9824206B1 (en) * | 2016-09-29 | 2017-11-21 | International Business Machines Corporation | Eye gazing passcode generation crossing augmented reality (AR) and virtual reality (VR) devices |
US10540491B1 (en) * | 2016-10-25 | 2020-01-21 | Wells Fargo Bank, N.A. | Virtual and augmented reality signatures |
US11099716B2 (en) | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US10437070B2 (en) | 2016-12-23 | 2019-10-08 | Realwear, Inc. | Interchangeable optics for a head-mounted display |
US10393312B2 (en) | 2016-12-23 | 2019-08-27 | Realwear, Inc. | Articulating components for a head-mounted display |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US10928895B2 (en) | 2017-09-21 | 2021-02-23 | Tobii Ab | Systems and methods for interacting with a computing device using gaze information |
US10678116B1 (en) | 2017-11-09 | 2020-06-09 | Facebook Technologies, Llc | Active multi-color PBP elements |
US20190253700A1 (en) | 2018-02-15 | 2019-08-15 | Tobii Ab | Systems and methods for calibrating image sensors in wearable apparatuses |
US10558895B2 (en) | 2018-03-30 | 2020-02-11 | Tobii Ab | Deep learning for three dimensional (3D) gaze prediction |
US10671890B2 (en) | 2018-03-30 | 2020-06-02 | Tobii Ab | Training of a neural network for three dimensional (3D) gaze prediction |
US10534982B2 (en) | 2018-03-30 | 2020-01-14 | Tobii Ab | Neural network training for three dimensional (3D) gaze prediction with calibration parameters |
WO2019190561A1 (en) | 2018-03-30 | 2019-10-03 | Tobii Ab | Deep learning for three dimensional (3d) gaze prediction |
US10528131B2 (en) | 2018-05-16 | 2020-01-07 | Tobii Ab | Method to reliably detect correlations between gaze and stimuli |
WO2019221724A1 (en) | 2018-05-16 | 2019-11-21 | Tobii Ab | Method to reliably detect correlations between gaze and stimuli |
WO2019221654A1 (en) | 2018-05-17 | 2019-11-21 | Tobii Ab | Autoencoding generative adversarial network for augmenting training data usable to train predictive models |
WO2020141344A2 (en) | 2018-07-20 | 2020-07-09 | Tobii Ab | Distributed foveated rendering based on user gaze |
US11353952B2 (en) | 2018-11-26 | 2022-06-07 | Tobii Ab | Controlling illuminators for optimal glints |
SE542553C2 (en) * | 2018-12-17 | 2020-06-02 | Tobii Ab | Gaze tracking via tracing of light paths |
US11503998B1 (en) | 2021-05-05 | 2022-11-22 | Innodem Neurosciences | Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases |
IT202100011753A1 (it) * | 2021-05-07 | 2022-11-07 | Foolfarm S P A | Metodo e sistema elettronico per autenticare un soggetto per mezzo dell’ausilio degli occhi |
WO2024043468A1 (ko) * | 2022-08-26 | 2024-02-29 | 삼성전자주식회사 | 객체들을 이용하여 인증 패턴을 등록 및 해제하는 장치 및 방법 |
CN116225209A (zh) * | 2022-11-03 | 2023-06-06 | 溥畅(杭州)智能科技有限公司 | 一种基于眼动追踪的人机交互方法及*** |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4595990A (en) * | 1980-12-31 | 1986-06-17 | International Business Machines Corporation | Eye controlled information transfer |
US4950069A (en) * | 1988-11-04 | 1990-08-21 | University Of Virginia | Eye movement detector with improved calibration and speed |
TW299410B (es) * | 1994-04-04 | 1997-03-01 | At & T Corp | |
CA2126142A1 (en) * | 1994-06-17 | 1995-12-18 | David Alexander Kahn | Visual communications apparatus |
US6083270A (en) * | 1995-03-24 | 2000-07-04 | The Board Of Trustees Of The Leland Stanford Junior University | Devices and methods for interfacing human users with electronic devices |
US5689619A (en) * | 1996-08-09 | 1997-11-18 | The United States Of America As Represented By The Secretary Of The Army | Eyetracker control of heads-up displays |
US6747632B2 (en) * | 1997-03-06 | 2004-06-08 | Harmonic Research, Inc. | Wireless control device |
JP2000163196A (ja) * | 1998-09-25 | 2000-06-16 | Sanyo Electric Co Ltd | ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置 |
US6282553B1 (en) * | 1998-11-04 | 2001-08-28 | International Business Machines Corporation | Gaze-based secure keypad entry system |
US6577329B1 (en) * | 1999-02-25 | 2003-06-10 | International Business Machines Corporation | Method and system for relevance feedback through gaze tracking and ticker interfaces |
US6456262B1 (en) * | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
US6712468B1 (en) * | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
-
2000
- 2000-05-16 ES ES00922406T patent/ES2258972T3/es not_active Expired - Lifetime
- 2000-05-16 DE DE50012364T patent/DE50012364D1/de not_active Expired - Lifetime
- 2000-05-16 WO PCT/CH2000/000269 patent/WO2001088680A1/de active IP Right Grant
- 2000-05-16 EP EP00922406A patent/EP1285326B1/de not_active Expired - Lifetime
- 2000-05-16 AU AU2000242834A patent/AU2000242834A1/en not_active Abandoned
- 2000-05-16 JP JP2001585010A patent/JP4693329B2/ja not_active Expired - Fee Related
-
2002
- 2002-11-08 US US10/290,916 patent/US7113170B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP4693329B2 (ja) | 2011-06-01 |
DE50012364D1 (de) | 2006-05-04 |
AU2000242834A1 (en) | 2001-11-26 |
US20030076300A1 (en) | 2003-04-24 |
EP1285326A1 (de) | 2003-02-26 |
JP2003533816A (ja) | 2003-11-11 |
EP1285326B1 (de) | 2006-03-08 |
WO2001088680A1 (de) | 2001-11-22 |
US7113170B2 (en) | 2006-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2258972T3 (es) | Procedimiento y terminal para entrar instrucciones. | |
JP7274532B2 (ja) | 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法 | |
US11874910B2 (en) | Facial recognition authentication system including path parameters | |
US20240061919A1 (en) | Method and apparatus for user verification | |
ES2241598T3 (es) | Procedimiento biometrico de identificacion y autenticacion. | |
US8840020B2 (en) | Biometric terminals | |
US20060039686A1 (en) | Line-of-sight-based authentication apparatus and method | |
JP2017526079A (ja) | 眼信号を識別するためのシステムおよび方法、ならびに連続バイオメトリック認証 | |
US20120138693A1 (en) | Data transmission to optical terminals | |
US20230073410A1 (en) | Facial recognition and/or authentication system with monitored and/or controlled camera cycling | |
JP2022189048A (ja) | 認証システム、認証装置、認証方法、及びプログラム | |
TWI827155B (zh) | 運用擴增實境的解鎖方法 | |
WO2015093221A1 (ja) | 電子機器及びプログラム | |
KR20200050939A (ko) | 단말기의 패드워드 입력 장치 및 그 방법 |