PT2476043T - Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados - Google Patents

Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados Download PDF

Info

Publication number
PT2476043T
PT2476043T PT107878779T PT10787877T PT2476043T PT 2476043 T PT2476043 T PT 2476043T PT 107878779 T PT107878779 T PT 107878779T PT 10787877 T PT10787877 T PT 10787877T PT 2476043 T PT2476043 T PT 2476043T
Authority
PT
Portugal
Prior art keywords
interactive
module
user
eye
coordinates
Prior art date
Application number
PT107878779T
Other languages
English (en)
Inventor
Invernizzi Paolo
Original Assignee
Sr Labs S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sr Labs S R L filed Critical Sr Labs S R L
Publication of PT2476043T publication Critical patent/PT2476043T/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Prostheses (AREA)
  • Stored Programmes (AREA)
  • Position Input By Displaying (AREA)

Description

documento acima. Era particular, os olhos devem ae comportar s .1. rrral t an earner t e como dispositivos de entrada a saida? ou seja, devem. explorar e xealizar ações verdadeiras, Novamente, os dispositivos de rastreamento de olhos sofrem problemas intrínsecos de precisão na medição da posição do olhar na tela. Portanto, a precisão do sensor sempre é afetada por um erro (a diferença entre a posição ||||||||||:Í||Í^líÍs iiiÉiiof he ebrÉ. em ã:Jpdil,çã||did: hdhidlllllllllls::,. desojada pelo utíiisatíor) e isso não faz com qua o controlo da maioria dos aplicativos de software seja fácil, dado que muitos programas de software erigem uma precisão de alguns milímetros e outros também, exigem uma precisão avaliável em termos de pixels.
Assim, o uso de sistemas de rastre&mento ocular geralmente é limitado a software feito especificamente para utilizadores com deficiência em que ê necessária uma precisão apontadora baixa. Na verdade, o utilizador deve fazer a sua seleção a partir de uma lista de células re1ativamente grandes nas quais o efeito do erro G&0 Jp 2Γ0 CjL S 0 O 0 v
Sm vez disso, no campo das aplicações de software de uso comum, o emprego de. sistemas de rastreamento de olho para controlar a aplicação, por exemplo, por meio do movimento do cursor que é atualizado muitas vezes por segundo seguindo a direção do olhar, o erro de precisão torna a tarefa do utilizador muito difícil, para quem é necessário um esforço significativo de concentração, o que logo gera fadiga.
Qualquer tentativa do utilizador de corrigir o erro ao redirígir o seu olhar para a posição onde o cursor deve ser posicionado não faz mais do que tornar o uso do cursor cada vez mais problemático e cansativo. llpglpiá polIlideS'' em u|b|jhp:. l§|ád§|' ;dã. :;artÍÍfiiriéqÍÃ á | do problema acima mencionado por meio da ampliação de uma parte da exibição do computador pessoal, de modo a melhorar a precisão no posicionamento do cursor. Dm exemplo é dado na publicação do pedido de patente europeia EP 167957? Ά.1, àbiúçid páii: iéiibill .:inf;Étll$:i:©illlÉÊlllÍIÍfe exibição de um computador com base em um sinal de dados de rastreamento ocular, que descreve uma série de objetos manipuláveis exibidos no visor, Cada um desses objetos estendendo-se sobre uma respetiva região ociosa e representando graficamente um componente GUI que é controlável em resposta ao sinal de dados de rastreamento ocular. A exibição também mostra uma zona de modificação exibindo uma representação graficamente modificada de, pelo monos, um dos objetos na matriz. Cada representação na zona se estende sobre uma região ativa respetiva, que é maior do que a região ociosa.
No entanto, esta abordagem é insuficiente porque o erro de compensação também permanece nesses casos, continuando a frustrar o utilizador e, além disso, implica uma maior complexidade da interface que pode criar confusão e distração.
Outras soluções atualmente disponíveis implicam a aparência de .menus "off-screen" que permitem ao utilizador selecionar qual ação executar, emulando as diferentes operações que podem ser realizadas com o rato (dique único, duplo clique, dique direito, arrastar e soltar) ,
Novamente, em alguns casos, as funções desejadas podem ser ativadas apontando o olhar em ícones dispostos em tiras de papelão revestido de plástico fino que estão posicionadas no perímetro vertical do monitor; asaira, o olho deve selecionar as funções externas ao mesmo antes de ativá-las no ícone ou na função desejada e, em seguida, mover o cursor que será orientado pelo olhar para os ícones ou aplicativos desejados,
Sm outros casos, também é possível dirigir um segundo PC, conectado com o sistema de rastreamento ocular, cujo monitor !!!! .i:lS:ÍJÍ;I;s|Í|^ :i:|i l;i;#pllÍ|;i: :ÍipÉÉ|;^!Í|pSi |||||Ρ:||ϊ| | para dar ao utilizador a oportunidade de observar facilmente o controlo do rato sobre os aplicativos.
As direções do ponteiro do rato são ativadas com o olhar na tela exibida no monitor do dispositivo de rastreamento d.e olho e, uma ver que a direção é selecionadar o efeito ê observado no outro PC; assim que o olhar for removido do PC a ser controlado, o ponteiro para e os comandos desejados podem ser selecionados. Assim,· o segundo PC conectado pode ser orientado com o sistema de rastreamento ocular, por meie da emulação do rato.
Em principio, podemos afirmar que., ao contrário do que foi implementado até à data, seria desejável ter um ecrã em que os elementos representados nâo interferissem demais com o uso normal do software pelas seguintes razoes: a atenção de o utilizador declina ex.ponenc.1 a Imante com o crescente número de elementos representados na tela, o utilizador normalmente tem pouca familiaridade com os dispositivos de rastreamento ocular e, além disso, pode ser afetado por deficiências cognitivas, de modo a tornar proibido o uso de um dispositivo de rastreamento ocular..
Feias razões acima mencionadas, é o objetivo da presente invenção proporcionar um método para controlar um computador pessoal por meio de um sistema de rastreamento de olho que supera as desvantagens listadas acima,
Um dos principais requisitos é o de minimizar o esforço cognitivo necessário para manipular o software, assegurando que a interface aceita entradas "naturais” e responde ”naturalmenfcew e é facilmente compreensível.
Por este motivo, será necessário desenvolver uma interface que utilize técnicas de interação que nâo sejam stressentes para o utilizador. Dado que muitas das entradas não são intencionais, o sistema deve interpretá-las cerretamente sem produzir respostas não solicitadas causadas por ações involuntárias. Ease sistema, portanto, deve ser capaz de distinguir entre a verdadeira vontade do utilizador, deixando-o observar a interface de forma pacifica se não for sua intenção de dar um comando; por outro lado, o utilizador deve ser capaz de avaliar qual o status atual do sistema, de modo a pe.rce.ber se as suas intenções foram interpretadas corretarcente, para evitar a execução de comandos involuntários.
Taiabém deve ser sublinhado que enquanto os sistemas do estado da técnica controlam os sistemas operacionais por meio da emulação do rato através do controlo ocular (conversão do movimento do olhar em movimento do cursor), o objeto da presente invenção fornece um remapeamento dos interativos "originais" 3o sistema operacional do computador pessoal (ícones, etc.) em novos interativos modificados e adaptados ao modo de seleção por meio de controlo ocular.
Portanto, a presente invenção estabelece uma espécie de "canal direto", uma vez que a emulação do cursor é superada pelo facto de que os interativos nativos são substituídos por aqueles modificados e adaptados à necessidade de usar o olhar como. sistema de entrada.
Além disso, o uso de uma Máquina Virtual, que permite gerir e criar um ambiente virtual para realisar um sistema operacional adicional com aplicativos de software relacionados e que o utilizador pode usar simultaneamente com o iniciado, pode oferecer maia vantagens. Um deles é de segurança: uma máquina virtual é completamente isolada e independente e uma queda repentina da máquina virtual não envolve a quebra do sistema operacional de hospedagem; portanto, reiniciar o computador não é necessário, mas apenas encerrar a máquina virtual e iniciá-
Io novamente, evitando danos f por exemplo, do sis tersa de arquivos.
Como o método de acordo com a presente invenção pode ser integrado num conjunto de comunicação, usando a máquina virtual, é possível mover de forma simples, rápida e segura (por meio da suspensão da máquina virtual) a utiliração das aplicações clássicas de PC, por meio das técnicas de controlo descritas abaixo, para o conjunto de comunicação projetado espeoificamente para ser usado através do controlo ocular,, superando os problemas dos sistemas no estado da arte, que fornecem procedimentos bastante complicados para se deslocar de um modo para o outro.
Ao mesmo tempo, o utilizador pode escolher diretamente, por mero de atalhos adequados, realizar algumas aplicações predefinídas dentro do conjunto de comunicação, superando assim o problema da. possível execução direta do sistema ''
Breve descrição das figuras A Fig* 1 mostra o diagrama de blocos da arquitetura do método de acordo com a presente invenção♦ A Fig, 2 mostra o diagrama de fluxo do método de acordo com •a presente invenção. A Fig« 3 mostra o diagrama de fluxo do módulo relativo à filtragem dos dados aproximados provenientes do dispositivo d© rastreamento de olho. A Fig. 4 mostra o diagrama de fluxo relativo ao Módulo de
llíGbilidld: dt III A Fig, 5 mostra o diagrama de fluxo relativo ao Móduxo de Mapeamerito de Coordenadas. A Fig. 6 mostra o diagrama de fluxo relativo às estratégias de recuperação de dado® relacionadas aos interativos nas visoaiilações da bela *
As Figs. 7 - 10 mostra, a título de exemplo não limitativo, uma possível implementação da interface gráfica, do objeto de apMeagã© da presente invenção,:
Sumário da invenção 0 objeto da presente invenção consiste num método © num programa informático correspondente para o uso de aplicações genéricas de software por meio de controlo ocular, de acordo com as reivindicações 1 e 6, respetivamente, As reivindicações dependentes definem ainda formas de realização preferidas. As reivindicações fazem parte integrante da presente descrição. 0 método objeto da presente invenção descreve, portanto, uma possível implementação de uma tecnologia assistida, extremamente inovadora em termos de controlo de aplicações genéricas de software, com base no uso de entradas a1ternativos e naturei s, como o o1har.
Descrição detalhada da invenção j|||||Íi||||I ::ίθ:ϊ|||1||:|ΐ da préiiphie dhvéhffib.r oilllf aparelho objeto da presente invenção compreende meios eletrónicos de dados e de processamento de informação, meios para memorizar os referidos dados e informações e meios de !!!!!!!!!ii!!;r^
Os referidos meios de processamento de dados e dados eletrónicos compreendem, urna secção de controlo adequada, de preferência com base em, peio menos, um microprocessador, e pode, por exemplo, ser fornecida por um computador pessoal.
Os referidos maios de memorização preferencialmente compreendem discos rígidos e dispositivos de armazenamento de tip© flash. Os rei:erido3""msios da interface de utilizador preferenci a Imen te compreendem meies de visual izgção de dados» tais como# por exemplo# ecrãs# monitores ou unidades de saída externa análogas e dispositivos de rastreamento de olhos adaptados para interpretar a direção do olhar do utilizador, 0 referido microprocessador ê de preferência equipado com um si.eterna ppèrh:ÉiÍ:Ía.i:if^ ilif&amp;a, 'virtual·. :íseio; da utrlltalili: âi|||tpã· e por p||l|i:ipgra|ia,.ill?' de software adequado que implementa um método cuja arquitetura# descrita na Figura 1# compreende os seguintes módulos# em turno compreendendo uma série de instruções adaptadas para executar uma tarefa específica; um módulo de filtragem 10 em que as coordenadas do olhar do utilizador são processadas de modo a tornar mais estáveis os dados aproximados provenientes do dispositivo de rastreamento de olho usado; um módulo, ou seja# um Sistema Operacional/ Controlo de Aplicações 11# responsável pelo controlo do sistema operacional e os aplicativos associados e para o desenvolvimento das interfaces gráficas de aplicativos em desenvolvimento# que contém as informações sobre os interativos na tela e executa a ação nativa associada ao interativo fixada pelo utilizador naquele momento, os ditos interativos são os elementos ativáveis na interface; os .ícones, os menus pop-dawn, as caixas de verificação etc,# adaptadas para que o utilizador realize ações no programa de aplicativos a ser controlado, 0 referido Módulo de Controlo do Sistema Operacional/ Aplicações 11 é formado por dois snb-módulos de componentes; um Módulo de Controlo 12 e um Módulo de Cliente 13. 0 referido Módulo de Controlo 12 é responsável pela gestão da aprese n t a ç a o dos interativos e pela definição da ação nativa associada a cada. ara deles e, por saa vez, compreende três módulos adicionais que interagem, uns com. os outros; - um. Módulo de Mapeamento de Coordenada.» Í2A que se encarrega de realizar o remapeamento das coordenadas relativas às visualizações de tela e aos interativos no mesmo (diferentes entre Cliente e Controlador5; - um Módulo de Gestão Interativo 12B que é responsável por realizar a comparação com o olhar entrante para definir quais os interativos são fixados pelo utilizador e apresenta-os, adequadamente e possivelmente modificados, na interface, por exemplo, em um painel lateralí - um Módulo de definição de ação nativa 12C que é responsável por definir a ação nativa associada a cada interativo do sistema operacional e enviá-lo ao referido módulo de cliente 13, tornando-o dispo.ni.vel para o processamento sucessivo „ 0 referido Módulo de Mapeamento de Coordenadas 12A, por sua vez, consiste em dois sub-módulos que interagem uns com os lltblii ujtj|li|at“|||duio|l liliiiiipio <||! ίίϊ||||^·· realiza uma tradução das coordenadas relativas a !!!!!!!!!i&amp;:í$|§ill tti!!; telalllil Éltitáfivodl! e :
Calibração Adaptativa 15 que carrega um novo ajuste das coordenadas por meio de deformação geométrica do plano obtido comparando a informação sobre os interativos que o utilizador pode selecionar 8 as coordenadas do olhar provenientes do olho-rastreador, os resultados das ações combinadas de esses 2 módulos são os descritos acima no Módulo de Mapeamento de Coordenadas 12A. 0 referido Módulo de Cliente 13 está adaptado para definir a posição e a função dos .interativos na vista de tela ef por sua vez, compreende dois módulos adicionais que interagem 1 ii^dnliellliilt 11 'Jiiul©:: Ip: .Glitllllliiiil responsável por analisar as visualizações de tela e enviar as informações relacionadas e aos atuais interativos., detetados por meio de diferentes métodos de busca, ao Module Controlador 12; o Módulo de Gestão de Ação Nativa 13B, que é responsável por receber as informações relativas â ação nativa associada e por executa-ias como ação no referido g i stema operaclona1.
Em referência à Figura 2, é mostrado um diagrama que representa a operação dos módulos mencionados acima e as intercone.xões entre si ilustrando as etapas do método de acordo com a presente invenção; a) Nos referidos meios de visualização de dados associados aos referidos meios de processamento de dados, uma interface de utilizador de controlo adaptada para permitir ao utilizador controlar o sistema operacional e são visualizados os programas de aplicação associados aos mesmos dos meios eletrónicos de processamento 20, : 1111111¾ :ã||!ibiifdénill:!: 'do·; piMar- :|db |bbdíéiiÍÍÍi|Íll;|N ihfffá. :§|||Éãdç® illllllpro^lliliós::,,· bllll bbga* #| 1 ã|f|§ii|||ii ib coordenadas do olhar dos dois olhos separados, que estão sujeitos a fortes oscilações, são detetados pelo dispositivo de rastreamento de olho 21, composto dos ditos meios de interface de utilizador. Essas oscilações geralmente ocorrem sobre uma determinada posição, mas também há alguns olhares que são totalmente erróneos e devem ser eliminados por meio de uma operação de filtragem. c) Os dados difundidos são filtrados 22 de modo a torná-los estáveis e adequados para fornecer indicações sobre as fixações do utilizador, cu seja? sobre o número de olhares do utilizador em certos ambientes. d) Os dados filtrados expressos em coordenadas x, y do ponto fixo são enviados para o Módulo de Sistema Operacional 23/ Controlo oe Aplicações 11 que os processa definindo a ação a ser realizada e as modificações a serem feitas na referida interface d© utilizador, e) A. ação a ser realizada determinada pelo passo anterior é realizada 23 ef possivelmente, a referida interface de utilizador de controlo é adequadamente modificada após a 1111111 açld: lift! I Iff £> A sequência é repetida a partir da etapa b) até o utilizador decidir deixar o programa de aplicação que ele/ ela esta a usar, 0 procedimento de filtragem de dados aproximados de acordo com. o passo e) é realizado de acordo com a sequência indicada i !ÍÍp:ÍXÍS: IP i g) Uma pré-filtragem 30 dos dados em bruto ê realizada e as amostras não validas são detetadas e eliminadas asando# por exemplo, critérios estatísticos, h) As coordenadas do olhar do olho direito e do olho esquerdo são combinadas 3.1 em um ponto considerado provável de aer o fixado pelo utilizador, i> A média e o desvio padrão são calculados 3.2 em relação ao número de amostras desejadas (definido com base no número de amostras que foram decididas a priori para levar em "iillllll li ||| j) As tolerâncias são definidas para as avaliações 33, ,k) Os dados aceitáveis são discriminados 34 em relação aos que serão rejeitados com base no que foi estabelecido nas etapas anteriores i) e j).
Os dados filtrados enviados para o Sistema Operacional/ Módulo de Controlo de Aplicativos 11 são processados de acordo com a sequência indicada abaixo e ilustrada na Figura 111^ 11! 1> Q Módulo de Gestão de Interface 13&amp; analisa s visualizações da tela e envia 40 as informações relativas às visualizações de tela e aos interativos na interface de utilizador atual ao Módulo de Mapeamenta de Coordenadas 12A< m) 0 Módulo de Mapeamento de Coordenadas 12Ά realiza o remapeamento das coordenadas relativas às visualizações da tela e aos interativos e realiza uma comparação com os dados relatives ao olhar que vem do rastreador de olho. O referido remapeamento permite que as coordenadas provenientes do Módulo Cliente 13 relativas à posição dos interativos nas vistas de tela a serem definidas era relação a outro sistema de eixos com origem diferente do que ê baseado em que as coordenadas dos olhares provenientes do olho ~ o dispositivo de trilho é definido. Uma vez realizada esta operação, a comparação permite entender qual interativo é fixado pelo n) 0 Módulo de Gestão do Interativo 12B desenha novamente 42 os interativos presentes nos arredores dos olhares detetados mostrando-os adequadamente (por exemplo, em: um painel lateral da interface de utilizador especifica do programa) usando técnicas heurísticas para decidir a ordem de aparência determinando qual interativo será provavelmente selecionado. Isso permite mostrar cada. interação de maneira "ponderada”, do mais ao menos provável. 0 Módulo de Gestão do Interativo 12B aguarda os dados relativos aos olhares provenientes do olho-rastreador e para a seleção de um dos interativos no painel lateral. ο) Ο Módulo de definição de ação nat-iva 12C define 43 a ação nativa do sistema operacional associada a cada. interativo (oc. seja, eventos que sto simulados pelo Módulo do Cliente 13 e correspondem a inserções de controlos do teclado, clique simples, arrastar e soltar, etc.) e o envia para o Módulo de Gestão de Ação Nativa 13B. p) 0 Módulo de Gestão de Ação nativa 23B recebe: as informações relativas à ação nativa associada ao interativo selecionado e o realiza 44 como ação no Sistema Operacional (por exemplo, enviar caracteres, mover o rato na posição especifica, etc«. }. 0 processo de /rape ament o das coordenadas d.e novo de acordo com. o passo m) da sequência ilustrada, na Figura 4 ocorre de acordo com a sequência indicada abaixo e ilustrada na Figura 3?·* < q) 0 Módulo de Tradução de Coordenadas 14 realiza 50 uma tradução das coordenadas relativas a visualizações de tela e interações de entrada e envia esses dados para o Módulo de Calibração Adaptaiiva 15. r) 0 Módulo de Calibração Adaptativa 15 executa 51 um novo ajuste das coordenadas, por meio de deformação geométrica do plano obtido comparando a informação sobre os .interativos que o utilizador pode selecionar e as coordenadas do olhar provenientes do olho-rastreador, e envia as informações para atualizar o mapeamento para o Módulo de Tradução de Coordenadas 14. 0 Módulo de Gestão de Interface realiza continuamente a huaca dos interativos .nas telas de visualização durante todo o processo descrito acima, por meio do uso das etapas descritas abaixo e ilustradas na Figura 6; s) 0 Móclulo de Gestão de Interface Í3A consulta 60 a API (Interfaces de Programação de Aplicação) das funções de acessibilidade pars xastrear a posição e as funções dos diferentes interativos na página. t) 0 Módulo de Gestão de Interface 13Ά implementei .61 um algoritmo de cruzamento recursivo do diagrama de janelas na página enquanto tenta extrair informações adicionais (para superar o obstáculo representado pela informação insuficiente obtida através da. API de acessibilidade) .
uO método descrito permite, por exemplo, um utilizador desativado usar um computador pessoal equipado, por exemplo, com um sistema operacional e com programas de aplicativos como o Windows® e o pacote Microsoft® Office®.
As ações realizadas pelo utilizador são descritas abaixo em detalhes : ~ 0 utilizador é organizado na frente do clho-rastreador conectado a um monitor no qual á visualizada a tela do sistema operacional/aplicatívo desejado para ser controlado II ;pir'|||ddd. ||lilmsvlm®iil:ls: póuflÉef lllllll 0 utilizador fixa, por exemplo, o icone Iniciar na barra de :lá|l|iaflvlllid Wlndilipis^. çlidiid ::dâ ápliíiáÇf^
Word® e da barra do Windows®: o olhar move-se em. ambientes específicos para as característieae intrínsecas do rastreador de olho. Devido a isso e ao possível © intrínseco erro de precisão do dispositivo de rastreamento ocular, o que o utilizador está fixando s qual é a intenção dele pode não ser dito cora -certeza. Para evitar este problema, todos OS interaqent.es no entorno do olhar (por exemplo, botão Iniciar., ícone do programa Word®, Windows®) sào mostrados em um painel lateral, adequadamente para seleção por meio de controlo ocular (tamanhos bem espaçados e adequados). Esses interativos são detetados por meio de estratégias adequadas d. e recuperação de dados (tipo, posição, etc.) relacionadas aos interativos na tela (consulta de API de acessibilidade, 0 utilizador fixa o interativo de interesse no painel lateral e, como os botões estão .bem espaçados e de tamanho© adequados, não há ambiguidade em relação à escolha do utilizador. 0 botão é, portanto, selecionado e a ação consequente é realizada.
Em maior detalhe e em referência às figuras anexas 7-10, o utilizador, em primeiro lugar, organiza-se na frente do olbo-rastreador conectado a um monitor no qual ê visualizada a visão de tela 70 do sistema de operação/aplicativo desejado
para piipldôntroladà. pipilieip de :mdviitéhli:Il!Íid|Étds II O utilizador fixa, por exemplo, o ícone Iniciar na barra de aplicativos do Windows®, perto do qual é o ícone para a ||||||||||||lil:|ij|:|:|l^ ;bâ;r||l|o-' 'WíudowsiiílIlO olhar li ambientes específicos para as características intrínsecas do rastreador de olho. Devido a. isso e ao possível e intrínseco erro de precisão do dispositivo de rastreamento ocular, o que o utilizador está fixando e qual é a intenção dele pode não ser dito com certeza (Figura 7},
Todos os interativos ao redor do botão 71 (por exemplo, botão Iniciar, Ícone Word®, Windows®)) são mostrados em um painel lateral 72, adequadamente para seleção por meio de controlo ocular {bem espaçados e de tamanhos adequados)» Esses interativos são detetados por mexo de estratégias adequadas de recuperação de dados (tipo,, posição, etc.) relacionadas aos interativos na visualização de tela (consulta de API de acessibilidade, cruzamento recursivo do diagrama de janelas, banco de dados de aplicativos predefiràdos) e são mostrados em uma "ponderada" "de acordo com a ordem obtida por melo de técnicas heurísticas (do mais provável ao menos provável) jí ................. 0 utilizador fixa o interativo de interesse 73 no painel lateral 72s como os botões estão bem espaçados e de tamanhos adequados, não há ambíguidade em relação à escolha do utilizador (Figura 3} . 0 botão ê selecionado e a ação consequente é realizada.
Após a. seleção do botão Iniciar do painel de interações, a ação ê realizada (Figura 10), ou a janela é aberta 74 em relação à solicitação. O painel de interações 72 é esvaziado enquanto espera ser preenchido novamente com novos interativos seguindo os olhares sucessivos do utilizador.
REIVINDICAÇÕES 1. Método para o uso de aplicações de soft.ware genéricas por meio de controlo ocular compreendendo as seguintes etapas; a) visualise.::: {10) em meios de visualização fornecidos adequados associados a meio de processamento de dados adequado uma interface de utilizador de controlo para pérmit;l:||li:' ίΙΙΙϊίϊίϊίΙ^^ ç©nfcr@l®· um s;i;sté|Í|:: operacional e o programas de aplicação associados dos referidos meios de processamento de dados; b.) detetar (2,1} por meio de um dispositivo de rssfcreamento, de olho ou r&amp;stre&amp;dor de olho, compreendido em meios de interface de utilizador adequados associados aos ditos meios de processamento de dados, as coordenadas do olhar do utilizador na forma de dados aproximados, nomeadaxaente de amostras referentes às coordenadas do olhar do olho de ..................................diid 'çtixida^^ os filtragem (223 dos ditos dados aproximados para torná-los estáveis e adequados para fornecer indicações sobre as fixações do utilizador, nomeadamente sobre o número de olhais do utilizador dentro de certos ambientes; d) enviar (23) os dados filtrados, expressos em coordenadas x, y de um ponto fixo, para um Módulo de Sistema operation al /Con tro Io de Aplicativos (11),: processando-os definindo uma ação a ser realizada e as mudanças a serem introduzidas no referido controlo interface de utilizador; o Sistema de Operaeâo/Modulo de Controlo de Aplicativos (11) que inclui um conjunto de idtirúççip lpi:iilllddutróid;r' p|||i;i.a:|:e|Ba: ;jj aplicativos relacionados e para gerenciar a interface lllllllllllllliilíidá; dil|á|3i:i:dã;|lilip. :éilii;|illig|í|: ddiiití m lilirÉdilill sobre os interativos pre j>v3 Π S 6ΓΠ Χ)ΪΓί<3. tela e para realizar

Claims (6)

  1. uma ação nativa associada a um interativo· fixado pelo utilizador ne ss e mosses t o ? e) realizar a ação determinada pelo passo, anterior e, no caso de ser necessáriof modificar adequadamente a referida interface de utilizador de controlo de acordo 1111 diillll!á|l|:i || £} repetir a sequência a partir do passo b) até que o utilizador decida deixar o programa de aplicação que ele está usando, em que c dito passo d) compreende ainda as etapas de detetar quais interativos estáo presentes em torno do olhar do utilizador, modificando os referidos interativos e exibindo os referidos ints.rsgent.es modificados em um. painel lateral na referida interface de ilililililip cdiiiipiOi, aeíiip. -|:·Ε'^·ίκ·!οΐ^ιαί^'; modificados adequadamente dimensionados e espaçados e adaptados para serem selecionados de maneira eficiente
  2. 2, Método de acordo com a reivindicação 1, em que © procedimento de filtragem de dados aproximados de acordo com o passo anterior c) é realizado por meio das seguintes etapas; «g) pré-filtragem (30) dos referidos dados aproximados, detetando e eliminando amostras não válidas que utilizam critérios1 estatísticos; h) combinar (31) as coordenadas do olhar do olho direito e do olho esquerdo em um ponto que ê provavelmente o fixado pelo utilizador; i) calcular (32) a média e o desvio padrão em relação ao número desejado de amostras, definido de acordo com o lllllllllliilpd liéilllliiatrasl ^ailliiifiifíl d|||i!|:i|jl. ^idiidiáb: si:ll%:çsiáiilll em consideração; 15 definir (33) as tolerâncias para as avaliações; k) selecionar (34) os dados aceitáveis que são discriminados em relação àquelas a serem rejeitadas de acordo com. o que se refere nos passos anteriores i) e j! - : |!!l
  3. 3. Método de acordo com a reivindicação 1 -ou 2,- em que o processamento de dados recebidos do referido Módulo de Controlo de Sistemas Operacionais/Controlo de Aplicações (115 de acordo com a etapa d) é realizado de acordo com a seguinte aequência: da etapas: 1} análise, por melo de um Módulo de Gestão de Interface (13&amp;) as visual!rações de tela do programa aplicativo ou do sistema operacional que o utilizador deseja controlar por controlo ocular e enviar (40) um Módulo de Mapeamento de Coordenadas (12A) das informações relativas às visualizações de tela e ao &amp; interativos presentes na interface de utilizador real; o referido Módulo de Gestão de Interface (13A) que compreende um conjunto de instruções capazes de analisar as visualizações da tela e detetar as informações a respeito delas a os interativos relativos; o referido Módulo de Mapeamento de Coordenadas U.2&amp;) que compreende um conjunto de instruções capazes de realizar um novo mapeamento das coordenadas relativas às visualizações de tela e aos interativos relativos; llllllllll mi |!!!!!||:!^i||::||!|!|!|| codriiliiilailll" rdiaMililllllÉs. visualizações de tela e aos interativos por meio do referido Módulo de Mapeamento de Coordenadas Γ12Ά) por 1||||||||pip deã:i;||ma $||§||^^ utilizador que vem do ra streader de olho, o dito remapeamento permite definir as coordenadas provenientes :®dul:|:|||||||i|i lldl :^|i||lpi.d:|id|i| :i:|i|si:í|:|pí ddllli interativos nas visualizações de tela,, em relação a outro sistema de eixos com. uma origem diferente da que define as coordenadas dos olhares vindos do olho-rastreador; o referido Módulo Cliente (13) que compreende um conjunto de instruções capares de definir a posição e a função dos presentes interagentes na visualização de teia real; n) um Módulo de Gestão de Interativos C12B} que compreende um conjunto de instruções capazes de realizar o controlo dos ‘'olhares" recebidos para definir quais os interativos são fixados pelo utilizador e para mostrar adequadamente os referidos interativos na interface, conforme definido em reivindicação: 1, desenhando novamente (:4:2:): os interativos presentes nos arredores dos olhais detetados, mostrando-os adaquadamente, possivelmente modificados na interface, usando técnicas heurísticas para decidir a ordem da aparência, determinando qual o interativa que provavelmente será selecionado, em que o referido Modulo de Gestão de 'Interativos (12B) aguarda então os dados relativas aos olhais provenientes do rastreador de olho e para a seleção de um dos interativos presentes no painel lãilfiit o) um Módulo de Definição de Ação Nativa (12C), que inclui um conjunto de instruções capazes de definir a ação nativa associada a cada interativo do Sistema Operacional e para tí,i spon ifeili z â~Io pa ra o proces samento suce s siνα, def ine (43) a ação nativa do Sistema Operacional associado a cada interação (ou seja, eventos correspondentes à inserção de controlos do teclado, clique simples, arrastar e soltar, etc.) a o envia para o Módulo de Gestão de Ação Nativa (13B), que inclui um conjunto de instruções capazes de receber as informações relativas a para a. ação nativa associada ao interativo selecionado e executá-lo como ação no referido sistema operacional:^ p) o Módulo de Gestão de Ação Nativa (13B) recebe a informação relativa á ação nativa associada ao interativo selecionado e executa a ação (4 4) corso ação no Sistema Operativo,
  4. 4, Método de acordo com a reivindicação .3, em que o procosao de remapsarnento de coordenadas de acordo com a etapa m) é realizado de acordo com a. seguinte sequência de etapas; q) um Módulo de tradução de coordenadas (14), que compreende um conjunto de instruções capares de realizar uma tradução das coordenadas relativas às visualizações de tela e aos interativosf realiza (50) uma tradução das coordenadas relativas às informações relativas às visualizações da teia e aos interativos que se aproximam e envia esses dados para um Módulo de Califoração x) O referido Modulo de Calibraçào Adaptativa (15), que compreende um conjunto de instruções capazes de realizar um novo ajuste das coordenadas por meio de deformação geométrica do plano obtido comparando a informação sobre os interativos que o utilizador pode selecionar e a coordenadas do olhar que vem do olho-rastreadorq reajusta (51) as coordenadas e envia as informações para atualizar o mapeamento para o referido Módulo de T redução de SdirdèiÉilp llilllll!
  5. 5. Método de acordo com qualquer uma das Reivindicações 1~ 4, em que o referido Módulo de Gestão de Interface (13A) realiza uma busca dos interativos presentes nas visualizações de tela, de forma continua, por meio da seguinte sequência de passos; s) o dito Módulo de Gestão de Interface (13A) questiona (SO) a acessibilidade da Interfaces de Programação de Aplicação - API ~ para rastrear a posição e as funções do.» diferentes interativos presentes na tela; ΐ,} ο referido Modulo de Gestão de Interface (13A) implementa (61) um algoritmo de cruzamento recursivo de um diagrama de janelas presente na teia? tentando extrair informações adicionais para superar um obstáculo representado por informações possivelmente insuficientes obtidas por meio da acessibilidade das Interfaces de programação de aplicativosι u) o Módulo de Gestão de Interface (13A) consulta (62) um banco de dados preformado de aplicativos suportados a partir do qual obtêm as estratégias para o uso de várias aplicações, o referido banco de dados contendo informações gerais sobre como as referidas aplicações e os referidos programas d.e aplicativos são feitos.
  6. 6, Programa de computador que compreende instruções que, quando o programa é executado por um computador, fazem com que 0 eomputa-dor,. em cooperação com um rastreader ocular, execute as etapas do método de acordo com qualquer uma das reivindicações 1--5 >
PT107878779T 2009-09-11 2010-09-13 Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados PT2476043T (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITFI2009A000198A IT1399456B1 (it) 2009-09-11 2009-09-11 Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione.

Publications (1)

Publication Number Publication Date
PT2476043T true PT2476043T (pt) 2018-03-16

Family

ID=42102373

Family Applications (1)

Application Number Title Priority Date Filing Date
PT107878779T PT2476043T (pt) 2009-09-11 2010-09-13 Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados

Country Status (10)

Country Link
US (1) US9372605B2 (pt)
EP (1) EP2476043B1 (pt)
CN (1) CN102483650A (pt)
CA (1) CA2773636C (pt)
DK (1) DK2476043T3 (pt)
ES (1) ES2661554T3 (pt)
IT (1) IT1399456B1 (pt)
NO (1) NO2476043T3 (pt)
PT (1) PT2476043T (pt)
WO (1) WO2011030212A1 (pt)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
EP2877909B1 (en) * 2012-07-27 2018-12-26 Nokia Technologies Oy Multimodal interaction with near-to-eye display
ITFI20120165A1 (it) * 2012-08-08 2014-02-09 Sr Labs S R L Sistema multimediale interattivo a controllo oculare per il tracciamento attivo e passivo
US20140049462A1 (en) * 2012-08-20 2014-02-20 Google Inc. User interface element focus based on user's gaze
CN103870097A (zh) * 2012-12-12 2014-06-18 联想(北京)有限公司 信息处理的方法及电子设备
US9342145B2 (en) * 2013-01-22 2016-05-17 Kabushiki Kaisha Toshiba Cursor control
CN104007909B (zh) * 2013-02-25 2019-03-01 腾讯科技(深圳)有限公司 页面自动调整方法和装置
JP2016529635A (ja) 2013-08-27 2016-09-23 オークランド ユニサービシズ リミテッド 凝視制御インターフェース方法およびシステム
JP6115418B2 (ja) * 2013-09-11 2017-04-19 富士通株式会社 情報処理装置、方法及びプログラム
US9310886B2 (en) * 2014-02-13 2016-04-12 Lenovo (Singapore) Pte. Ltd. Transient message display control
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
WO2015164467A1 (en) * 2014-04-23 2015-10-29 Abbott Medical Optics Inc. Medical device data filtering for real time display
US11430414B2 (en) * 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
DE102022110291B3 (de) 2022-04-27 2023-11-02 Universität Stuttgart, Körperschaft Des Öffentlichen Rechts Computerimplementiertes Verfahren und System zur freihändigen Auswahl eines Bedienelements auf einem Bildschirm
CN115122342B (zh) * 2022-09-02 2022-12-09 北京壹点灵动科技有限公司 用于控制机器人的软件***和机器人的控制方法
CN117369649B (zh) * 2023-12-05 2024-03-26 山东大学 基于本体感觉的虚拟现实交互***及方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4950069A (en) * 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5471542A (en) * 1993-09-27 1995-11-28 Ragland; Richard R. Point-of-gaze tracker
GB9518477D0 (en) * 1995-09-09 1995-11-08 Strachan John S Point of observation tracking system
JPH09114543A (ja) * 1995-10-02 1997-05-02 Xybernaut Corp ハンドフリーコンピュータ装置
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
US5886683A (en) * 1996-06-25 1999-03-23 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven information retrieval
US5898423A (en) * 1996-06-25 1999-04-27 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven captioning
US5638176A (en) * 1996-06-25 1997-06-10 International Business Machines Corporation Inexpensive interferometric eye tracking system
US5731805A (en) * 1996-06-25 1998-03-24 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven text enlargement
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
GB9823977D0 (en) * 1998-11-02 1998-12-30 Scient Generics Ltd Eye tracking method and apparatus
US6577329B1 (en) * 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
GB2348520B (en) * 1999-03-31 2003-11-12 Ibm Assisting user selection of graphical user interface elements
US6724402B1 (en) * 2000-01-27 2004-04-20 David R. Baquero Method of launching computer programs within a graphical user interface
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6601021B2 (en) * 2000-12-08 2003-07-29 Xerox Corporation System and method for analyzing eyetracker data
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US6886137B2 (en) * 2001-05-29 2005-04-26 International Business Machines Corporation Eye gaze control of dynamic information presentation
US7913183B2 (en) * 2002-10-08 2011-03-22 Microsoft Corporation System and method for managing software applications in a graphical user interface
US7281248B2 (en) * 2002-11-19 2007-10-09 Microsoft Corporation Virtualized and realized user interface controls
US7206022B2 (en) * 2002-11-25 2007-04-17 Eastman Kodak Company Camera system with eye monitoring
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7365738B2 (en) * 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
PT1607840E (pt) * 2004-06-18 2015-05-20 Tobii Ab Controlo ocular de um computador
ITFI20040223A1 (it) * 2004-10-29 2005-01-29 Sr Labs S R L Metodo e sistema di visualizzazione,elaborazione ed analisi integrata di immagini mediche
EP1679577A1 (en) * 2005-01-10 2006-07-12 Tobii Technology AB Adaptive display of eye controllable objects
ITFI20050176A1 (it) * 2005-08-10 2007-02-11 Sr Labs S R L Metodo e apparato per l'inserimento sicuro di un codice di accesso tramite l'uso di un dispositivo a controllo oculare
EP2002322B1 (en) * 2006-03-23 2009-07-15 Koninklijke Philips Electronics N.V. Hotspots for eye track control of image manipulation
US8225229B2 (en) * 2006-11-09 2012-07-17 Sony Mobile Communications Ab Adjusting display brightness and/or refresh rates based on eye tracking
US20080270910A1 (en) * 2007-04-30 2008-10-30 Lukasik Derek J User selection of a remote session
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
ITFI20080049A1 (it) * 2008-03-12 2009-09-13 Sr Labs Srl Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore.
US20100182232A1 (en) * 2009-01-22 2010-07-22 Alcatel-Lucent Usa Inc. Electronic Data Input System

Also Published As

Publication number Publication date
BR112012005342A2 (pt) 2021-11-03
CA2773636A1 (en) 2011-03-17
CA2773636C (en) 2022-08-02
DK2476043T3 (en) 2018-03-05
ES2661554T3 (es) 2018-04-02
US20120173999A1 (en) 2012-07-05
CN102483650A (zh) 2012-05-30
EP2476043A1 (en) 2012-07-18
NO2476043T3 (pt) 2018-05-05
ITFI20090198A1 (it) 2011-03-12
US9372605B2 (en) 2016-06-21
WO2011030212A1 (en) 2011-03-17
IT1399456B1 (it) 2013-04-19
EP2476043B1 (en) 2017-12-06

Similar Documents

Publication Publication Date Title
PT2476043T (pt) Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados
ES2568506T3 (es) Control ocular de aparato computador
US20080115081A1 (en) Enhanced windows management feature
US7360168B2 (en) Automatically scaling the information and controls in navigation tabs per available window area
US8205165B2 (en) Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor
CN105659221A (zh) 具有用于连接组件的增强工具的图形用户界面
US10754452B2 (en) Unified input and invoke handling
AU2018211268A1 (en) Systems and methods for intelligent generation of inclusive system designs
WO2020168790A1 (zh) 应用窗口的焦点刷新方法、装置、存储介质及终端
US11989571B2 (en) Generating user interface containers
US20140173508A1 (en) Interactive and dynamic medical visualization interface tools
US20210325960A1 (en) Gaze-based control
US20200348805A1 (en) Adaptable user input interface
US20110179375A1 (en) Popping and Ghosting Tabs from Tabbed Groups in Graphical User Interfaces
BR112012005342B1 (pt) Método para controlar a operação de um sistema operacional e programa de aplicativos associados
Bacher Web2cHMI. A multi-modal native user interface implementation for accelerator operations and maintenance applications
LaStrange swm: An X Window Manager Shell.
CN101866284A (zh) 计算机***
JP2005149240A (ja) 情報処理装置および表示制御用プログラム