ES2661554T3 - Método y aparato para usar aplicaciones de software genéricas por medio de un control ocular y métodos adecuados de interacción - Google Patents

Método y aparato para usar aplicaciones de software genéricas por medio de un control ocular y métodos adecuados de interacción Download PDF

Info

Publication number
ES2661554T3
ES2661554T3 ES10787877.9T ES10787877T ES2661554T3 ES 2661554 T3 ES2661554 T3 ES 2661554T3 ES 10787877 T ES10787877 T ES 10787877T ES 2661554 T3 ES2661554 T3 ES 2661554T3
Authority
ES
Spain
Prior art keywords
user
interactors
coordinates
eye
operating system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10787877.9T
Other languages
English (en)
Inventor
Paolo Invernizzi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SR Labs Srl
Original Assignee
SR Labs Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SR Labs Srl filed Critical SR Labs Srl
Application granted granted Critical
Publication of ES2661554T3 publication Critical patent/ES2661554T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Prostheses (AREA)
  • Stored Programmes (AREA)
  • Position Input By Displaying (AREA)

Abstract

Método para usar aplicaciones de software genéricas por medio de un control ocular que comprende las siguientes etapas: a) visualizar (20) en un medio de visualización adecuado dado asociado a un medio de procesamiento de datos adecuado una interfaz de usuario de control para permitir que un usuario controle un sistema operativo y los programas de aplicación asociados de dicho medio de procesamiento de datos; b) detectar (21) por medio de un dispositivo de seguimiento ocular o un rastreador ocular, comprendido en un medio de interfaz de usuario adecuado asociado a dicho medio de procesamiento de datos, las coordenadas de la mirada del usuario en la forma de datos en bruto, concretamente de unas muestras relacionadas con las coordenadas de la mirada de cada ojo del usuario; c) filtrar (22) dichos datos en bruto con el fin de hacerlos estables y adecuados para proporcionar indicaciones sobre las fijaciones del usuario, concretamente sobre el número de miradas del usuario dentro de ciertos alrededores; d) enviar (23) los datos filtrados, expresados en coordenadas x, y de un punto fijo, a un módulo de control de sistema operativo/aplicaciones (11) procesándolos mediante la definición de una acción a realizar y los cambios a introducir en dicha interfaz de usuario de control; comprendiendo dicho módulo de control de sistema operativo/aplicaciones (11) un conjunto de instrucciones para controlar el sistema operativo y las aplicaciones relacionadas y para gestionar la interfaz gráfica de la aplicación en ejecución que contiene la información sobre los interactores presentes en una vista de pantalla y para realizar una acción nativa asociada con un interactor fijado por el usuario en ese momento; e) realizar la acción determinada por la etapa anterior y, en el caso de que sea necesario, modificar de manera adecuada dicha interfaz de usuario de control de acuerdo con la acción; f) repetir la secuencia a partir de la etapa b) hasta que el usuario decida abandonar el programa de aplicación que está usando, en el que dicha etapa d) comprende además las etapas de detectar qué interactores están presentes alrededor de la mirada del usuario, modificar dichos interactores y mostrar dichos interactores modificados en un panel lateral en dicha interfaz de usuario de control, dimensionándose, separándose y adaptándose adecuadamente dichos interactores modificados para poder seleccionarse de manera eficaz por la mirada del usuario.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCIÓN
Método y aparato para usar aplicaciones de software genéricas por medio de un control ocular y métodos adecuados de interacción
Campo de la invención
[0001] La presente invención se refiere al campo de los sistemas y métodos para el control de las aplicaciones de software genéricas por medio de dispositivos de seguimiento ocular, es decir, usando movimientos oculares.
[0002] Al no tener la oportunidad de usar el ratón para acceder a las aplicaciones de software, el usuario debería aprovechar las técnicas que le permiten realizar, por medio de movimientos oculares, las mismas operaciones que pueden realizarse con el ratón. Con este fin, se han desarrollado técnicas y artilugios que permiten al usuario disminuir significativamente el esfuerzo cognitivo a realizar.
Estado de la técnica
[0003] El seguimiento de los movimientos oculares ofrece potencialmente al usuario la posibilidad de controlar el software de un ordenador personal con solo mirar la pantalla del mismo.
[0004] En el documento “A system for web browsing by eyegaze input” por Kiyohiko Abe et. al. (DOI: 10.1002/ECJ.10110) se describe un sistema de entrada por mirada ocular, para personas con discapacidades físicas severas, que usa un PC y una cámara de video doméstica para detectar la mirada ocular y que se basa en la emulación del puntero del ratón en la pantalla.
[0005] Sin embargo, hay problemas que frustran al usuario durante el uso de los sistemas de seguimiento de los movimientos oculares - o sistemas de seguimiento ocular - para controlar el software de un ordenador personal, del tipo descrito en el documento anterior. En particular, los ojos deberían comportarse simultáneamente como dispositivos de entrada y salida, es decir, deberían explorar y realizar acciones reales. De nuevo, los dispositivos de seguimiento ocular sufren problemas intrínsecos de precisión al medir la posición de la mirada en la pantalla. Por lo tanto, la precisión del sensor siempre se ve afectada por un error (la diferencia entre la posición actual del cursor en la pantalla en comparación con la posición del cursor deseada por el usuario) y esto no facilita el control de la mayoría de las aplicaciones de software, ya que muchos programas de software requieren una precisión de algunos milímetros, y otros también requieren una precisión evaluable en términos de píxeles.
[0006] Por lo tanto, el uso de sistemas de seguimiento ocular se limita en general al software hecho específicamente para los usuarios con discapacidad en los que se requiere una precisión de puntero baja. De hecho, el usuario debería hacer su selección a partir de una lista de celdas relativamente grandes en las que el efecto del error de precisión es pequeño.
[0007] En cambio, en el campo de las aplicaciones de software de uso común, el empleo de los sistemas de seguimiento ocular para controlar la aplicación, por ejemplo, por medio del movimiento del cursor que se actualiza muchas veces por segundo, siguiendo la dirección de la mirada, el error de precisión hace que la tarea del usuario sea muy difícil, a quien se requiere un esfuerzo significativo de concentración, que muy pronto genera fatiga.
[0008] Cualquier intento por parte del usuario para corregir el error redirigiendo su mirada hacia la posición donde el cursor debería colocarse no hace nada más que hacer el uso del cursor cada vez más problemático y agotador.
[0009] Algunas de las soluciones en uso en el estado de la técnica proporcionan la solución del problema mencionado anteriormente por medio de la ampliación de una parte de la pantalla del ordenador personal, con el fin de mejorar la precisión en el posicionamiento del cursor. Se proporciona un ejemplo en la publicación de solicitud de patente europea EP 1 679 577 A1, que describe una solución para mostrar información en una pantalla de un ordenador basándose en una señal de datos de seguimiento ocular, que describe una matriz de objetos manipulables mostrados en la pantalla. Cada uno de estos objetos se extiende a lo largo de una región inactiva respectiva y representa gráficamente un componente GUI que puede controlarse en respuesta a la señal de datos de seguimiento ocular. La pantalla también muestra una zona de modificación que muestra una representación modificada gráficamente de al menos uno de los objetos de la matriz. Cada representación en la zona se extiende sobre una región activa respectiva, que es más grande que la región inactiva.
[0010] Sin embargo, este enfoque es insuficiente debido a que el error de compensación también permanece en estos casos, continuando de este modo con la frustración del usuario, y por otra parte implica un aumento de la complejidad de la interfaz que puede crear confusión y distracción.
[0011] Otras soluciones disponibles actualmente implican la aparición de menús “fuera de la pantalla” que permiten al usuario seleccionar la acción a realizar emulando las diferentes operaciones que pueden realizarse con el ratón (un clic, doble clic, clic derecho, arrastrar y soltar).
5
10
15
20
25
30
35
40
45
50
55
60
65
[0012] Una vez más, en algunos casos, las funciones deseadas pueden activarse apuntando la mirada sobre iconos dispuestos en tiras de cartón recubierto de plástico que se colocan en el perímetro vertical del monitor: de este modo el ojo seleccionaría las funciones externas al mismo antes de activarlos en el icono o en la función deseada y a continuación mover el cursor que se dirigirá por la mirada hacia los íconos o las aplicaciones deseadas.
[0013] En otros casos adicionales, también es posible dirigir un segundo PC, conectado con el sistema de seguimiento ocular, cuyo monitor se instalaría al lado del monitor del rastreador ocular para dar al usuario la oportunidad de observar fácilmente el control del ratón sobre las aplicaciones.
[0014] Las direcciones del puntero del ratón se activan con la mirada en la vista de pantalla en el monitor del dispositivo de seguimiento ocular y una vez que se selecciona la dirección, el efecto se observa en el otro PC; tan pronto como se quita la mirada del PC que se quiere controlar, el puntero se detiene y pueden seleccionarse las órdenes deseadas. De este modo, el segundo PC conectado puede dirigirse con el sistema de seguimiento ocular, por medio de la emulación del ratón.
[0015] En principio, se puede afirmar que, contrariamente a lo que se ha implementado hasta la fecha, sería deseable disponer de una pantalla en la que los elementos representados no interfieran demasiado con el uso normal del software por las siguientes razones: la atención del usuario disminuye exponencialmente con el aumento del número de elementos representados en la pantalla, el usuario normalmente tiene poca familiaridad con los dispositivos de seguimiento ocular y además puede verse afectado por discapacidades cognitivas tales como el uso de un dispositivo de seguimiento ocular prohibitivo.
[0016] Por las razones mencionadas anteriormente, el objeto de la presente invención es proporcionar un método para controlar un ordenador personal por medio de un sistema de seguimiento ocular que supere los inconvenientes mencionados anteriormente.
[0017] Uno de los principales requisitos sigue siendo el de minimizar el esfuerzo cognitivo necesario para manipular el software, garantizando que la interfaz acepta entradas “naturales” y responde “de manera natural” y es fácilmente comprensible.
[0018] Por esta razón será necesario desarrollar una interfaz que use técnicas de interacción que no sean estresantes para el usuario. Ya que muchas de las entradas son involuntarias, el sistema debería interpretarlas correctamente sin producir respuestas no solicitadas provocadas por las acciones involuntarias. Por lo tanto, tal sistema debería ser capaz de distinguir entre la verdadera voluntad del usuario mientras le permite observar la interfaz pacíficamente si no es su intención dar una orden; por otro lado, el usuario debería ser capaz de evaluar cuál es el estado actual del sistema, con el fin de darse cuenta de si sus intenciones se han interpretado adecuadamente, para evitar la ejecución de órdenes involuntarias.
[0019] Debería destacarse también que mientras que los sistemas del estado de los sistemas operativos de control de la técnica por medio de la emulación del ratón a través del control ocular (conversión del movimiento de la mirada en el movimiento del cursor), el objeto de la presente invención proporciona un remapeo de los interactores nativos “originales” del sistema operativo del ordenador personal (iconos, etc.) en nuevos interactores modificados y adaptados al modo de selección por medio del control ocular.
[0020] Por lo tanto, la presente invención establece un tipo de “canal directo”, a medida que se supera la emulación del cursor por el hecho de que los interactores nativos se sustituyen por los modificados y adaptados a la necesidad de usar la mirada como sistema de entrada.
[0021] Además, el uso de una máquina virtual, que permite gestionar y crear un entorno virtual para realizar un sistema operativo adicional con las aplicaciones de software relacionadas y que el usuario puede usar simultáneamente con el iniciado, puede proporcionar ventajas adicionales. Una de las mismas es la seguridad: una máquina virtual está completamente aislada y es independiente y un bloqueo repentino de la máquina virtual no implica que se bloquee el sistema operativo de alojamiento; por lo tanto, no es necesario reiniciar el ordenador, sino solo finalizar la máquina virtual y volver a iniciarla, mientras que se evita dañar, por ejemplo, el sistema de archivos.
[0022] Como el método de acuerdo con la presente invención puede estar integrado en una suite de comunicación, usando la máquina virtual es posible moverse de manera sencilla, rápida y segura (por medio de la suspensión de la máquina virtual) mediante el uso de las aplicaciones clásicas de PC, por medio de las técnicas de control descritas a continuación, al conjunto de comunicación diseñado específicamente para usarse mediante el control ocular, superando de este modo los problemas de los sistemas en el estado de la técnica que proporcionan procedimientos bastante complicados para moverse de un modo a otro.
[0023] Al mismo tiempo, el usuario puede elegir directamente, mediante atajos adecuados, ejecutar algunas aplicaciones predefinidas en el interior de la suite de comunicación superando de este modo el problema de la posible ejecución directa desde el sistema operativo.
5
10
15
20
25
30
35
40
45
50
55
60
65
Breve descripción de las figuras
[0024]
La figura 1 muestra el diagrama de bloques de la arquitectura del método de acuerdo con la presente invención. La figura 2 muestra el diagrama de flujo del método de acuerdo con la presente invención.
La figura 3 muestra el diagrama de flujo del módulo relacionado con el filtrado de los datos en bruto procedentes del dispositivo de seguimiento ocular.
La figura 4 muestra el diagrama de flujo relacionado con el módulo de control de aplicación.
La figura 5 muestra el diagrama de flujo relacionado con el módulo de mapeo de coordenadas.
La figura 6 muestra el diagrama de flujo relacionado con las estrategias de recuperación de datos relacionadas con los interactores en las vistas de pantalla.
Las figuras 7 - 10 muestran, por medio de un ejemplo no limitativo, una posible implementación de la interfaz gráfica del objeto de aplicación de la presente invención.
Sumario de la invención
[0025] El objeto de la presente invención consiste en un método y un programa informático correspondiente para el uso de aplicaciones de software genéricas por medio del control ocular, de acuerdo con las reivindicaciones 1 y 6, respectivamente. Las reivindicaciones dependientes definen además las realizaciones preferidas. Las reivindicaciones forman una parte integral de la presente descripción.
[0026] El método objeto de la presente invención, representa por lo tanto, una implementación posible de una tecnología de asistencia, extremadamente innovadora en términos de control de aplicaciones de software genéricas, basándose en el uso de entradas alternativas y naturales, tales como la mirada.
Descripción detallada de la invención
[0027] En una realización preferida de la presente invención, el aparato objeto de la presente invención comprende unos medios electrónicos de procesamiento de datos e información, medios para memorizar dichos datos e información y medios de interfaz de usuario.
[0028] Dichos medios electrónicos de procesamiento de datos e información comprenden una sección de control adecuada, basada preferentemente en al menos un microprocesador, y pueden, por ejemplo, proporcionarse mediante un ordenador personal.
[0029] Dichos medios de memorización comprenden, preferentemente, discos duros y dispositivos de almacenamiento de tipo flash. Dichos medios de interfaz de usuario comprenden preferentemente medios de visualización de datos, tales como, por ejemplo, pantallas, monitores o unidades de salida externas análogas y dispositivos de seguimiento ocular adaptados para interpretar la dirección de la mirada del usuario.
[0030] Dicho microprocesador está equipado preferentemente con un sistema operativo, con un entorno virtual adecuado por medio del uso de una máquina virtual y por un programa de software adecuado que implementa un método cuya arquitectura, descrita en la figura 1, comprende los siguientes módulos, que a su vez comprenden una serie de instrucciones adaptadas para realizar una tarea específica: un módulo de filtrado 10 en el que se procesan las coordenadas de la mirada del usuario con el fin de hacer que los datos en bruto procedentes del dispositivo de seguimiento ocular usado sean más estables; un módulo, concretamente un control de sistema operativo/ aplicaciones 11, responsable de controlar el sistema operativo y las aplicaciones asociadas con el mismo y ejecutar las interfaces gráficas de aplicación en desarrollo, que contienen la información sobre los interactores en la vista de pantalla y realizar la acción nativa asociada con el interactor fijado por el usuario en ese momento, siendo dichos interactores los elementos activables en la interfaz: los iconos, los menús desplegables, las casillas de verificación, etc., adaptados para hacer que el usuario realice acciones en el programa de aplicaciones a controlar.
[0031] Dicho módulo de control de sistema operativo/aplicaciones 11 está formado por dos sub-módulos de componentes: un módulo de controlador 12 y un módulo de cliente 13.
[0032] Dicho módulo controlador 12 está a cargo de gestionar la presentación de los interactores y de definir la acción nativa asociada con cada uno de los mismos y, que a su vez comprende tres módulos adicionales que interactúan entre sí:
un módulo de mapeo de coordenadas 12A que se encarga de realizar el remapeo de las coordenadas relacionadas con las vistas de pantalla y a los interactores en las mismas (diferentes entre el cliente y el controlador);
un módulo de gestión de interactores 12B que se encarga de realizar la comparación con la mirada entrante para definir qué interactores se fijan por el usuario y los presenta, de manera adecuada y posiblemente modificada, en la interfaz, por ejemplo, en un panel lateral;
5
10
15
20
25
30
35
40
45
50
55
60
65
un módulo de definición de acción nativa 12C que se encarga de definir la acción nativa asociada con cada interactor del sistema operativo y de enviarlo a dicho módulo de cliente 13, estando de este modo disponible para un procesamiento sucesivo.
[0033] Dicho módulo de mapeo de coordenadas 12A se compone a su vez de dos sub-módulos que interactúan entre sí: un submódulo de traslación de coordenadas 14 que realiza una traslación de las coordenadas relacionadas con las vistas de pantalla y los interactores y un submódulo de calibración adaptativa 15 que realiza un reajuste adicional de las coordenadas por medio de la deformación geométrica del plano obtenido comparando la información sobre los interactores que el usuario puede seleccionar y las coordenadas de la mirada procedentes del rastreador ocular, los resultados de las acciones combinadas de estos dos módulos es la descrita anteriormente en relación con el módulo de mapeo de coordenadas 12A.
[0034] Dicho módulo de cliente 13 está adaptado para definir la posición y la función de los interactores en la vista de pantalla y a su vez comprende dos módulos adicionales que interactúan entre sí: el módulo de gestión de interfaz 13A que se encarga de analizar las vistas de pantalla y enviar la información relacionada con las mismas y con los interactores presentes, detectados por medio de diferentes métodos de búsqueda, al módulo de controlador 12; el módulo de gestión de acciones nativas 13B que está a cargo de recibir la información relacionada con la acción nativa asociada y de realizarla como una acción en dicho sistema operativo.
[0035] En referencia a la figura 2, se muestra un diagrama que representa el funcionamiento de los módulos mencionados anteriormente y las interconexiones entre sí mediante la ilustración de las etapas del método de acuerdo con la presente invención:
a) En dichos medios de visualización de datos asociados con dichos medios de procesamiento de datos, se visualizan 20 una interfaz de usuario de control adaptada para permitir que el usuario controle el sistema operativo y los programas de aplicación asociados con la misma de dichos medios de procesamiento electrónico.
b) Las coordenadas de la mirada del usuario en la forma de datos en bruto, es decir, de las muestras relacionadas con las coordenadas de la mirada de los dos ojos separados, que están sujetos a fuertes oscilaciones, se detectan por el dispositivo de seguimiento ocular 21, comprendido en dicho medio de interfaz de usuario. Estas oscilaciones en general ocurren alrededor de una cierta posición, pero también hay algunas miradas que son totalmente erróneas y deberían eliminarse mediante una operación de filtrado.
c) Dichos datos en bruto se filtran 22 con el fin de hacerlos estables y adecuados para proporcionar indicaciones sobre las fijaciones del usuario, es decir, sobre el número de miradas del usuario dentro de ciertos alrededores.
d) Los datos filtrados expresados en coordenadas x, y del punto fijo se envían 23 al módulo de control de sistema operativo/aplicaciones 11 que los procesa definiendo la acción a realizar y las modificaciones a hacer en dicha interfaz de usuario.
e) La acción a realizar determinada por la etapa anterior se realiza 23 y, posiblemente, dicha interfaz de usuario de control se modifica adecuadamente siguiendo la propia acción.
f) La secuencia se repite a partir de la etapa b) hasta que el usuario decida abandonar el programa de aplicación que está usando.
[0036] El procedimiento de filtrado de los datos en bruto de acuerdo con la etapa c) se realiza de acuerdo con la secuencia indicada a continuación y se ilustra en la figura 3:
g) Se realiza un prefiltrado 30 de los datos en bruto y las muestras no válidas se detectan y se eliminan usando, por ejemplo, criterios estadísticos.
h) Las coordenadas de la mirada del ojo derecho y del ojo izquierdo se combinan 31 en un punto que se considera probable de ser el fijado por el usuario.
i) El promedio y la desviación estándar se calculan 32 con respecto al número de muestras deseadas (definidas en función del número de muestras que se decidieron tener en cuenta a priori).
j) Las tolerancias se definen 33 para las evaluaciones.
k) Los datos aceptables se discriminan 34 con respecto a los rechazados basándose en lo establecido en las etapas anteriores i) y j).
[0037] Los datos filtrados enviados al módulo de control de sistema operativo/aplicaciones 11 se procesan de acuerdo con la secuencia indicada a continuación y se ilustran en la figura 4:
l) El módulo de gestión de interfaz 13A analiza las vistas de pantalla y envía 40 la información relacionada con las vistas de pantalla y con los interactores en la interfaz de usuario actual al módulo de mapeo de coordenadas 12A.
m) El módulo de mapeo de coordenadas 12A realiza el remapeo de las coordenadas relacionadas con las vistas de pantalla y con los interactores y realiza una comparación con los datos relacionados con la mirada que procede del rastreador ocular. Dicho remapeo permite que se definan las coordenadas procedentes del módulo de cliente 13 relacionadas con la posición de los interactores en las vistas de pantalla a definir con respecto a otro sistema de ejes que tenga un origen diferente al basado en las coordenadas de las miradas procedentes del dispositivo de seguimiento ocular. Una vez que se ha realizado esta operación, la comparación permite
5
10
15
20
25
30
35
40
45
50
55
60
65
comprender qué interactor está fijado por el usuario.
n) El módulo de gestión de interacción 12B dibuja de nuevo 42 los interactores presentes en los alrededores de las miradas detectadas mostrándolas adecuadamente (por ejemplo, en un panel lateral de la interfaz de usuario específica del programa) usando técnicas heurísticas para decidir el orden de aparición determinando qué interactor se seleccionará más probablemente. Esto permite mostrar cada interactor de una manera “ponderada”, desde el más probable al menos probable. A continuación, el módulo de gestión de interactor 12B espera los datos relacionados con las miradas procedentes del rastreador ocular y la selección de uno de los interactores en el panel lateral.
o) El módulo de definición de acción nativa 12C define 43 la acción nativa del sistema operativo asociado con cada interactor (es decir, eventos que se simulan por el módulo de cliente 13 y corresponden a las inserciones de los controles procedentes del teclado, un solo clic, arrastrar y soltar, etc.) y lo envía al módulo de gestión de acción nativa 13B.
p) El módulo de gestión de acción nativa 13B recibe la información relacionada con la acción nativa asociada con el interactor seleccionado y la realiza 44 como una acción en el sistema operativo (por ejemplo, enviar un carácter, un movimiento de ratón en una posición específica, etc.).
[0038] El proceso de mapear las coordenadas de nuevo de acuerdo con la etapa m) de la secuencia ilustrada en la figura 4 se produce de acuerdo con la secuencia indicada a continuación e ilustrada en la figura 5:
q) El módulo de traslación de coordenadas 14 realiza 50 una traslación de las coordenadas relacionadas con las vistas de pantalla y con las interactores entrantes y envía estos datos al módulo de calibración adaptativa 15.
r) El módulo de calibración adaptativa 15 realiza un reajuste adicional de las coordenadas, por medio de la deformación geométrica del plano obtenido comparando la información sobre los interactores que el usuario puede seleccionar y las coordenadas de la mirada que provienen del rastreador ocular, y envía la información para actualizar el mapeo al módulo de traslación de coordenadas 14.
[0039] El módulo de gestión de interfaz realiza la búsqueda de los interactores en las pantallas de visualización de manera continua durante todo el proceso descrito anteriormente, por medio del uso de las etapas descritas a continuación e ilustradas en la figura 6:
s) El módulo de gestión de interfaz 13A consulta 60 la API (Interfaces de programación de aplicaciones) de las funciones de accesibilidad para rastrear la posición y las funciones de los diferentes interactores en la página.
t) El módulo de gestión de interfaz 13A implementa 61 un algoritmo de cruce recursivo del diagrama de ventanas en la página mientras que trata de extraer información adicional (con el fin de superar el obstáculo representado por información insuficiente obtenida por medio de la API de accesibilidad).
u) El módulo de gestión de interfaz 13A consulta 62 una base de datos preformada de aplicaciones soportadas a partir de la cual obtiene las estrategias para usar diversas aplicaciones. La base de datos contiene información general relacionada con cómo se realizan las diversas aplicaciones y los diversos programas de aplicación y se obtienen heurísticamente indicaciones de la misma de cómo pueden realizarse otros de los que no se conoce nada.
[0040] El método descrito permite, por ejemplo, que un usuario con discapacidad use un ordenador personal equipado, por ejemplo, con un sistema operativo y con programas de aplicación tales como Windows® y el paquete de Microsoft® Office®.
[0041] Las acciones realizadas por el usuario se describen a continuación en detalle:
El usuario se coloca delante del rastreador ocular conectado a un monitor en el que se visualiza la vista de pantalla del sistema operativo/aplicación que se desea controlar por medio de movimientos oculares.
[0042] El usuario fija, por ejemplo, el icono de Inicio en la barra de aplicaciones Windows® cerca del cual está el icono de la aplicación Word® y la barra de Windows®: la mirada se mueve en los alrededores específicos de las características intrínsecas del rastreador ocular. Debido a esto y al error posible e intrínseco de la precisión del dispositivo de seguimiento ocular, no puede decirse con certeza en que se está fijando el usuario y cuál es su intención. Para evitar este problema, todos los interactores en los alrededores de la mirada (por ejemplo, el botón de inicio, el icono del programa Word®, la barra de Windows®) se muestran en un panel lateral, de manera adecuada para la selección por medio del control ocular (bien separados y con tamaños adecuados). Tales interactores se detectan por medio de estrategias de recuperación de datos adecuadas (tipo, posición, etc.) relacionadas con los interactores en la vista de pantalla (consulta de API de accesibilidad, cruce recursivo del diagrama de ventanas, base de datos de aplicaciones predefinidas) y se muestran de una manera “ponderada” de acuerdo con el orden obtenido por medio de técnicas heurísticas (desde el más probable al menos probable).
[0043] El usuario fija el interactor de interés en el panel lateral y como los botones están bien separados y son de tamaños adecuados, no hay ambigüedad con respecto a la elección del usuario. Por lo tanto, se selecciona el botón y se realiza la acción consiguiente.
[0044] En mayor detalle y en referencia a las figuras adjuntas 7-10, el usuario, en primer lugar, se coloca en frente del rastreador ocular conectado a un monitor en el que se visualiza la vista de pantalla 70 del sistema operativo/aplicación deseada a controlar por medio de movimientos oculares (figura 7).
5 [0045] El usuario fija, por ejemplo, el icono de Inicio en la barra de aplicaciones de Windows® cerca del cual está el
icono de la aplicación Word® y la barra de Windows®: la mirada 71 se mueve en los alrededores específicos de las características intrínsecas del rastreador ocular. Debido a esto y al error posible e intrínseco de precisión del dispositivo de seguimiento ocular, no puede decirse con certeza en que se está fijando el usuario y cuál es su intención (figura 7).
10
[0046] Todos los interactores en los alrededores de la mirada 71 (por ejemplo, el botón de inicio, el icono de Word®, la barra de Windows®) se muestran en un panel lateral 72, de manera adecuada para la selección por medio del control ocular (bien separados y de tamaños adecuados) Tales interactores se detectan por medio de estrategias de recuperación de datos adecuadas (tipo, posición, etc.) relacionadas con los interactores en la vista de pantalla
15 (consulta de API de accesibilidad, cruce recursivo del diagrama de ventanas, base de datos de aplicaciones
predefinidas) y se muestran de una manera “ponderada” de acuerdo con el orden obtenido por medio de técnicas heurísticas (desde el más probable al menos probable) (figura 8).
[0047] El usuario fija el interactor de interés 73 en el panel lateral 72: ya que los botones están bien separados y son
20 de tamaños adecuados, no hay ambigüedad con respecto a la elección del usuario (figura 9). Por lo tanto, se
selecciona el botón y se realiza la acción consiguiente.
[0048] Después de la selección del botón de inicio en el panel de interactores, la acción se realiza en consecuencia (figura 10), o se abre la ventana 74 relacionada con la solicitud. El panel de interactores 72 se vacía mientras que se
25 espera a que se llene nuevamente con nuevos interactores siguiendo las miradas sucesivas del usuario.

Claims (6)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. Método para usar aplicaciones de software genéricas por medio de un control ocular que comprende las siguientes etapas:
    a) visualizar (20) en un medio de visualización adecuado dado asociado a un medio de procesamiento de datos adecuado una interfaz de usuario de control para permitir que un usuario controle un sistema operativo y los programas de aplicación asociados de dicho medio de procesamiento de datos;
    b) detectar (21) por medio de un dispositivo de seguimiento ocular o un rastreador ocular, comprendido en un medio de interfaz de usuario adecuado asociado a dicho medio de procesamiento de datos, las coordenadas de la mirada del usuario en la forma de datos en bruto, concretamente de unas muestras relacionadas con las coordenadas de la mirada de cada ojo del usuario;
    c) filtrar (22) dichos datos en bruto con el fin de hacerlos estables y adecuados para proporcionar indicaciones sobre las fijaciones del usuario, concretamente sobre el número de miradas del usuario dentro de ciertos alrededores;
    d) enviar (23) los datos filtrados, expresados en coordenadas x, y de un punto fijo, a un módulo de control de sistema operativo/aplicaciones (11) procesándolos mediante la definición de una acción a realizar y los cambios a introducir en dicha interfaz de usuario de control; comprendiendo dicho módulo de control de sistema operativo/aplicaciones (11) un conjunto de instrucciones para controlar el sistema operativo y las aplicaciones relacionadas y para gestionar la interfaz gráfica de la aplicación en ejecución que contiene la información sobre los interactores presentes en una vista de pantalla y para realizar una acción nativa asociada con un interactor fijado por el usuario en ese momento;
    e) realizar la acción determinada por la etapa anterior y, en el caso de que sea necesario, modificar de manera adecuada dicha interfaz de usuario de control de acuerdo con la acción;
    f) repetir la secuencia a partir de la etapa b) hasta que el usuario decida abandonar el programa de aplicación que está usando,
    en el que dicha etapa d) comprende además las etapas de detectar qué interactores están presentes alrededor de la mirada del usuario, modificar dichos interactores y mostrar dichos interactores modificados en un panel lateral en dicha interfaz de usuario de control, dimensionándose, separándose y adaptándose adecuadamente dichos interactores modificados para poder seleccionarse de manera eficaz por la mirada del usuario.
  2. 2. Método de acuerdo con la reivindicación 1, en el que el procedimiento de filtrado de los datos en bruto de acuerdo con la etapa c) anterior se realiza por medio de las siguientes etapas:
    g) prefiltrar (30) dichos datos en bruto detectando y eliminando las muestras no válidas usando criterios estadísticos;
    h) combinar (31) las coordenadas de la mirada del ojo derecho y del ojo izquierdo en un punto que probablemente sea el fijado por el usuario;
    i) calcular (32) el promedio y la desviación estándar con respecto al número deseado de muestras, definidos de acuerdo con el número de muestras que a priori se ha decidido tomar en consideración;
    j) definir (33) las tolerancias para las evaluaciones;
    k) seleccionar (34) los datos aceptables que se discriminan con respecto a los que se rechazarán de acuerdo con lo establecido en las etapas anteriores i) y j).
  3. 3. Método de acuerdo con la reivindicación 1 o 2, en el que el procesamiento de los datos recibidos desde dicho módulo de control de sistema operativo/aplicaciones (11) de acuerdo con la etapa d) se realiza de acuerdo con la siguiente secuencia de etapas:
    l) analizar, por medio de un módulo de gestión de interfaz (13A), las vistas de pantalla del programa de aplicación o del sistema operativo que el usuario desea controlar mediante un control ocular y enviar (40) un módulo de mapeo de coordenadas (12A) de la información relacionada con las vistas de pantalla y los interactores presentes en la interfaz de usuario real; comprendiendo dicho módulo de gestión de interfaz (13A) un conjunto de instrucciones capaces de analizar las vistas de pantalla y de detectar la información relacionada con las mismas y los interactores relacionados; comprendiendo dicho módulo de mapeo de coordenadas (12A) un conjunto de instrucciones capaces de realizar un nuevo mapeo de las coordenadas relacionadas con las vistas de pantalla y los interactores relacionados;
    m) remapear (41) las coordenadas relacionadas con las vistas de pantalla y los interactores relacionados por medio de dicho módulo de mapeo de coordenadas (12A) por medio de una comparación con los datos relacionados con la mirada del usuario procedentes del rastreador ocular, permitiendo dicho remapeo definir las coordenadas procedentes de un módulo de cliente (13) relacionadas con la posición de los interactores en las vistas de pantalla, teniendo con respecto a otro sistema de ejes un origen diferente del que definen las coordenadas de las miradas procedentes del rastreador ocular; comprendiendo dicho módulo cliente (13) un conjunto de instrucciones capaces de definir la posición y la función de los interactores presentes en la vista de pantalla real;
    n) un módulo de gestión de interactor (12B) que comprende un conjunto de instrucciones capaces de realizar el
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    control de las “miradas” entrantes con el fin de definir qué interactores se fijan por el usuario y de mostrar adecuadamente dichos interactores en la interfaz, tal como se define en reivindicación 1, dibujando nuevamente (42) los interactores presentes en los alrededores de las miradas detectadas mostrándolos adecuadamente, posiblemente modificados en la interfaz, usando técnicas heurísticas para decidir el orden de aparición determinando qué interactor se seleccionará más probablemente, en el que dicho módulo de gestión de interactor (12B) espera entonces los datos relacionados con las miradas procedentes del rastreador ocular y para selecionar uno de los interactores presentes en el panel lateral;
    o) un módulo de definición de acción nativa (12C), que comprende un conjunto de instrucciones capaces de definir la acción nativa asociada a cada interactor del sistema operativo y hacer que esté disponible para el procesamiento sucesivo, definir (43) la acción nativa del sistema operativo asociado con cada interactor (concretamente unos eventos correspondientes a la inserción de controles desde el teclado, un simple clic, arrastrar y soltar, etc.) y enviarla al módulo de gestión de acción nativa (13B) que comprende un conjunto de instrucciones capaces de recibir la información relacionada con la acción nativa asociada con el interactor seleccionado y ejecutarla como una acción en dicho sistema operativo;
    p) dicho módulo de gestión de acción nativa (13B) recibe la información relacionada con la acción nativa asociada al interactor seleccionado y ejecuta la acción (44) como una acción en el sistema operativo.
  4. 4. Método de acuerdo con la reivindicación 3, en el que el proceso de remapeo de coordenadas de acuerdo con la etapa m) se realiza de acuerdo con la siguiente secuencia de etapas:
    q) realizar (50) una traslación de las coordenadas relacionadas con la información relacionada con las vistas de pantalla y con los interactores entrantes y enviar estos datos a un módulo de calibración adaptativa (15) mediante un módulo de traslación de coordenadas (14), que comprende un conjunto de instrucciones capaces de realizar una traslación de las coordenadas relacionadas con las vistas de pantalla y los interactores;
    r) reajustar (51) las coordenadas y enviar la información para actualizar el mapeo al módulo de traslación de coordenadas (14) mediante dicho módulo de calibración adaptativa (15), que comprende un conjunto de instrucciones capaces de realizar un reajuste adicional de las coordenadas por medio de una deformación geométrica del plano obtenido comparando la información sobre los interactores que el usuario puede seleccionar y las coordenadas de la mirada procedentes del rastreador ocular.
  5. 5. Método de acuerdo con cualquiera de las reivindicaciones 1-4, en el que dicho módulo de gestión de interfaz (13A) realiza una búsqueda de los interactores presentes en las vistas de pantalla, de una manera continua, por medio de la siguiente secuencia de etapas:
    s) dicho módulo de gestión de interfaz (13A) pregunta (60) a las interfaces de programación de aplicaciones de accesibilidad (API) para rastrear la posición y las funciones de los diferentes interactores presentes en la vista de pantalla;
    t) dicho módulo de gestión de interfaz (13A) implementa (61) un algoritmo de cruce recursivo de un diagrama de ventanas presente en la vista de pantalla tratando de extraer información adicional con el fin de superar un obstáculo representado por la información posiblemente insuficiente obtenida por medio de las interfaces de programación de aplicaciones de accesibilidad;
    u) el módulo de gestión de interfaz (13A) consulta (62) una base de datos preformada de aplicaciones soportadas a partir de la que obtiene las estrategias para usar diversas aplicaciones, conteniendo dicha base de datos información general relacionada con, cómo se realizan dichas aplicaciones y dichos programas de aplicación.
  6. 6. Programa informático que comprende unas instrucciones que, cuando el programa se ejecuta por un ordenador, hace que el ordenador, en cooperación con un rastreador ocular, realice las etapas del método de acuerdo con cualquiera de las reivindicaciones 1-5.
ES10787877.9T 2009-09-11 2010-09-13 Método y aparato para usar aplicaciones de software genéricas por medio de un control ocular y métodos adecuados de interacción Active ES2661554T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITFI20090198 2009-09-11
ITFI2009A000198A IT1399456B1 (it) 2009-09-11 2009-09-11 Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione.
PCT/IB2010/002271 WO2011030212A1 (en) 2009-09-11 2010-09-13 Method and apparatus for using generic software applications by means of ocular control and suitable methods of interaction

Publications (1)

Publication Number Publication Date
ES2661554T3 true ES2661554T3 (es) 2018-04-02

Family

ID=42102373

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10787877.9T Active ES2661554T3 (es) 2009-09-11 2010-09-13 Método y aparato para usar aplicaciones de software genéricas por medio de un control ocular y métodos adecuados de interacción

Country Status (10)

Country Link
US (1) US9372605B2 (es)
EP (1) EP2476043B1 (es)
CN (1) CN102483650A (es)
CA (1) CA2773636C (es)
DK (1) DK2476043T3 (es)
ES (1) ES2661554T3 (es)
IT (1) IT1399456B1 (es)
NO (1) NO2476043T3 (es)
PT (1) PT2476043T (es)
WO (1) WO2011030212A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
EP2877909B1 (en) * 2012-07-27 2018-12-26 Nokia Technologies Oy Multimodal interaction with near-to-eye display
ITFI20120165A1 (it) * 2012-08-08 2014-02-09 Sr Labs S R L Sistema multimediale interattivo a controllo oculare per il tracciamento attivo e passivo
US20140049462A1 (en) * 2012-08-20 2014-02-20 Google Inc. User interface element focus based on user's gaze
CN103870097A (zh) * 2012-12-12 2014-06-18 联想(北京)有限公司 信息处理的方法及电子设备
US9342145B2 (en) * 2013-01-22 2016-05-17 Kabushiki Kaisha Toshiba Cursor control
CN104007909B (zh) * 2013-02-25 2019-03-01 腾讯科技(深圳)有限公司 页面自动调整方法和装置
JP2016529635A (ja) 2013-08-27 2016-09-23 オークランド ユニサービシズ リミテッド 凝視制御インターフェース方法およびシステム
JP6115418B2 (ja) * 2013-09-11 2017-04-19 富士通株式会社 情報処理装置、方法及びプログラム
US9310886B2 (en) * 2014-02-13 2016-04-12 Lenovo (Singapore) Pte. Ltd. Transient message display control
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
WO2015164467A1 (en) * 2014-04-23 2015-10-29 Abbott Medical Optics Inc. Medical device data filtering for real time display
US11430414B2 (en) * 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
DE102022110291B3 (de) 2022-04-27 2023-11-02 Universität Stuttgart, Körperschaft Des Öffentlichen Rechts Computerimplementiertes Verfahren und System zur freihändigen Auswahl eines Bedienelements auf einem Bildschirm
CN115122342B (zh) * 2022-09-02 2022-12-09 北京壹点灵动科技有限公司 用于控制机器人的软件***和机器人的控制方法
CN117369649B (zh) * 2023-12-05 2024-03-26 山东大学 基于本体感觉的虚拟现实交互***及方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4950069A (en) * 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
GB9518477D0 (en) * 1995-09-09 1995-11-08 Strachan John S Point of observation tracking system
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5886683A (en) * 1996-06-25 1999-03-23 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven information retrieval
US5898423A (en) * 1996-06-25 1999-04-27 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven captioning
US5638176A (en) * 1996-06-25 1997-06-10 International Business Machines Corporation Inexpensive interferometric eye tracking system
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
GB9823977D0 (en) * 1998-11-02 1998-12-30 Scient Generics Ltd Eye tracking method and apparatus
US6577329B1 (en) * 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
GB2348520B (en) * 1999-03-31 2003-11-12 Ibm Assisting user selection of graphical user interface elements
US6724402B1 (en) * 2000-01-27 2004-04-20 David R. Baquero Method of launching computer programs within a graphical user interface
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6601021B2 (en) * 2000-12-08 2003-07-29 Xerox Corporation System and method for analyzing eyetracker data
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6886137B2 (en) * 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
US7913183B2 (en) * 2002-10-08 2011-03-22 Microsoft Corporation System and method for managing software applications in a graphical user interface
US7281248B2 (en) * 2002-11-19 2007-10-09 Microsoft Corporation Virtualized and realized user interface controls
US7206022B2 (en) * 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7365738B2 (en) * 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
PT1607840E (pt) * 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
ITFI20040223A1 (it) * 2004-10-29 2005-01-29 Sr Labs S R L Metodo e sistema di visualizzazione,elaborazione ed analisi integrata di immagini mediche
EP1679577A1 (en) * 2005-01-10 2006-07-12 Tobii Technology AB Adaptive display of eye controllable objects
ITFI20050176A1 (it) * 2005-08-10 2007-02-11 Sr Labs S R L Metodo e apparato per l'inserimento sicuro di un codice di accesso tramite l'uso di un dispositivo a controllo oculare
EP2002322B1 (en) * 2006-03-23 2009-07-15 Koninklijke Philips Electronics N.V. Hotspots for eye track control of image manipulation
US8225229B2 (en) * 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
US20080270910A1 (en) * 2007-04-30 2008-10-30 Lukasik Derek J User selection of a remote session
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
ITFI20080049A1 (it) * 2008-03-12 2009-09-13 Sr Labs Srl Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System

Also Published As

Publication number Publication date
BR112012005342A2 (pt) 2021-11-03
CA2773636A1 (en) 2011-03-17
CA2773636C (en) 2022-08-02
DK2476043T3 (en) 2018-03-05
PT2476043T (pt) 2018-03-16
US20120173999A1 (en) 2012-07-05
CN102483650A (zh) 2012-05-30
EP2476043A1 (en) 2012-07-18
NO2476043T3 (es) 2018-05-05
ITFI20090198A1 (it) 2011-03-12
US9372605B2 (en) 2016-06-21
WO2011030212A1 (en) 2011-03-17
IT1399456B1 (it) 2013-04-19
EP2476043B1 (en) 2017-12-06

Similar Documents

Publication Publication Date Title
ES2661554T3 (es) Método y aparato para usar aplicaciones de software genéricas por medio de un control ocular y métodos adecuados de interacción
ES2568506T3 (es) Control ocular de aparato computador
US20220253199A1 (en) Near interaction mode for far virtual object
ES2702718T3 (es) Interacción basada en superposición con contenido representado
US9971401B2 (en) Gaze-assisted computer interface
KR20190092006A (ko) 제스쳐를 이용하여 화면을 제어하기 위한 폴더블 전자 장치 및 방법
WO2015030607A9 (en) Gaze-controlled interface method and system
US8205165B2 (en) Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor
US11474659B2 (en) System and methods for device interaction using a pointing device and attention sensing device
US11989571B2 (en) Generating user interface containers
CN108459702B (zh) 基于手势识别与视觉反馈的人机交互方法与***
JP2019028563A (ja) 表示プログラム、情報処理装置、及び表示方法
CN110178108A (zh) 移动界面控件
JPH09204287A (ja) 処理選択方法及び装置
BR112012005342B1 (pt) Método para controlar a operação de um sistema operacional e programa de aplicativos associados
JP2018073310A (ja) 表示システム、表示プログラム
JPWO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
DE112020007543T5 (de) Initiieren eines Computergerät-Interaktionsmodus unter Nutzung der Erkennung von Gesten außerhalb des Bildschirms