PT2476043T - Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados - Google Patents
Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados Download PDFInfo
- Publication number
- PT2476043T PT2476043T PT107878779T PT10787877T PT2476043T PT 2476043 T PT2476043 T PT 2476043T PT 107878779 T PT107878779 T PT 107878779T PT 10787877 T PT10787877 T PT 10787877T PT 2476043 T PT2476043 T PT 2476043T
- Authority
- PT
- Portugal
- Prior art keywords
- interactive
- module
- user
- eye
- coordinates
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Prostheses (AREA)
- Stored Programmes (AREA)
- Position Input By Displaying (AREA)
Description
documento acima. Era particular, os olhos devem ae comportar s .1. rrral t an earner t e como dispositivos de entrada a saida? ou seja, devem. explorar e xealizar ações verdadeiras, Novamente, os dispositivos de rastreamento de olhos sofrem problemas intrínsecos de precisão na medição da posição do olhar na tela. Portanto, a precisão do sensor sempre é afetada por um erro (a diferença entre a posição ||||||||||:Í||Í^líÍs iiiÉiiof he ebrÉ. em ã:Jpdil,çã||did: hdhidlllllllllls::,. desojada pelo utíiisatíor) e isso não faz com qua o controlo da maioria dos aplicativos de software seja fácil, dado que muitos programas de software erigem uma precisão de alguns milímetros e outros também, exigem uma precisão avaliável em termos de pixels.
Assim, o uso de sistemas de rastre&mento ocular geralmente é limitado a software feito especificamente para utilizadores com deficiência em que ê necessária uma precisão apontadora baixa. Na verdade, o utilizador deve fazer a sua seleção a partir de uma lista de células re1ativamente grandes nas quais o efeito do erro G&0 Jp 2Γ0 CjL S 0 O 0 v
Sm vez disso, no campo das aplicações de software de uso comum, o emprego de. sistemas de rastreamento de olho para controlar a aplicação, por exemplo, por meio do movimento do cursor que é atualizado muitas vezes por segundo seguindo a direção do olhar, o erro de precisão torna a tarefa do utilizador muito difícil, para quem é necessário um esforço significativo de concentração, o que logo gera fadiga.
Qualquer tentativa do utilizador de corrigir o erro ao redirígir o seu olhar para a posição onde o cursor deve ser posicionado não faz mais do que tornar o uso do cursor cada vez mais problemático e cansativo. llpglpiá polIlideS'' em u|b|jhp:. l§|ád§|' ;dã. :;artÍÍfiiriéqÍÃ á | do problema acima mencionado por meio da ampliação de uma parte da exibição do computador pessoal, de modo a melhorar a precisão no posicionamento do cursor. Dm exemplo é dado na publicação do pedido de patente europeia EP 167957? Ά.1, àbiúçid páii: iéiibill .:inf;Étll$:i:©illlÉÊlllÍIÍfe exibição de um computador com base em um sinal de dados de rastreamento ocular, que descreve uma série de objetos manipuláveis exibidos no visor, Cada um desses objetos estendendo-se sobre uma respetiva região ociosa e representando graficamente um componente GUI que é controlável em resposta ao sinal de dados de rastreamento ocular. A exibição também mostra uma zona de modificação exibindo uma representação graficamente modificada de, pelo monos, um dos objetos na matriz. Cada representação na zona se estende sobre uma região ativa respetiva, que é maior do que a região ociosa.
No entanto, esta abordagem é insuficiente porque o erro de compensação também permanece nesses casos, continuando a frustrar o utilizador e, além disso, implica uma maior complexidade da interface que pode criar confusão e distração.
Outras soluções atualmente disponíveis implicam a aparência de .menus "off-screen" que permitem ao utilizador selecionar qual ação executar, emulando as diferentes operações que podem ser realizadas com o rato (dique único, duplo clique, dique direito, arrastar e soltar) ,
Novamente, em alguns casos, as funções desejadas podem ser ativadas apontando o olhar em ícones dispostos em tiras de papelão revestido de plástico fino que estão posicionadas no perímetro vertical do monitor; asaira, o olho deve selecionar as funções externas ao mesmo antes de ativá-las no ícone ou na função desejada e, em seguida, mover o cursor que será orientado pelo olhar para os ícones ou aplicativos desejados,
Sm outros casos, também é possível dirigir um segundo PC, conectado com o sistema de rastreamento ocular, cujo monitor !!!! .i:lS:ÍJÍ;I;s|Í|^ :i:|i l;i;#pllÍ|;i: :ÍipÉÉ|;^!Í|pSi |||||Ρ:||ϊ| | para dar ao utilizador a oportunidade de observar facilmente o controlo do rato sobre os aplicativos.
As direções do ponteiro do rato são ativadas com o olhar na tela exibida no monitor do dispositivo de rastreamento d.e olho e, uma ver que a direção é selecionadar o efeito ê observado no outro PC; assim que o olhar for removido do PC a ser controlado, o ponteiro para e os comandos desejados podem ser selecionados. Assim,· o segundo PC conectado pode ser orientado com o sistema de rastreamento ocular, por meie da emulação do rato.
Em principio, podemos afirmar que., ao contrário do que foi implementado até à data, seria desejável ter um ecrã em que os elementos representados nâo interferissem demais com o uso normal do software pelas seguintes razoes: a atenção de o utilizador declina ex.ponenc.1 a Imante com o crescente número de elementos representados na tela, o utilizador normalmente tem pouca familiaridade com os dispositivos de rastreamento ocular e, além disso, pode ser afetado por deficiências cognitivas, de modo a tornar proibido o uso de um dispositivo de rastreamento ocular..
Feias razões acima mencionadas, é o objetivo da presente invenção proporcionar um método para controlar um computador pessoal por meio de um sistema de rastreamento de olho que supera as desvantagens listadas acima,
Um dos principais requisitos é o de minimizar o esforço cognitivo necessário para manipular o software, assegurando que a interface aceita entradas "naturais” e responde ”naturalmenfcew e é facilmente compreensível.
Por este motivo, será necessário desenvolver uma interface que utilize técnicas de interação que nâo sejam stressentes para o utilizador. Dado que muitas das entradas não são intencionais, o sistema deve interpretá-las cerretamente sem produzir respostas não solicitadas causadas por ações involuntárias. Ease sistema, portanto, deve ser capaz de distinguir entre a verdadeira vontade do utilizador, deixando-o observar a interface de forma pacifica se não for sua intenção de dar um comando; por outro lado, o utilizador deve ser capaz de avaliar qual o status atual do sistema, de modo a pe.rce.ber se as suas intenções foram interpretadas corretarcente, para evitar a execução de comandos involuntários.
Taiabém deve ser sublinhado que enquanto os sistemas do estado da técnica controlam os sistemas operacionais por meio da emulação do rato através do controlo ocular (conversão do movimento do olhar em movimento do cursor), o objeto da presente invenção fornece um remapeamento dos interativos "originais" 3o sistema operacional do computador pessoal (ícones, etc.) em novos interativos modificados e adaptados ao modo de seleção por meio de controlo ocular.
Portanto, a presente invenção estabelece uma espécie de "canal direto", uma vez que a emulação do cursor é superada pelo facto de que os interativos nativos são substituídos por aqueles modificados e adaptados à necessidade de usar o olhar como. sistema de entrada.
Além disso, o uso de uma Máquina Virtual, que permite gerir e criar um ambiente virtual para realisar um sistema operacional adicional com aplicativos de software relacionados e que o utilizador pode usar simultaneamente com o iniciado, pode oferecer maia vantagens. Um deles é de segurança: uma máquina virtual é completamente isolada e independente e uma queda repentina da máquina virtual não envolve a quebra do sistema operacional de hospedagem; portanto, reiniciar o computador não é necessário, mas apenas encerrar a máquina virtual e iniciá-
Io novamente, evitando danos f por exemplo, do sis tersa de arquivos.
Como o método de acordo com a presente invenção pode ser integrado num conjunto de comunicação, usando a máquina virtual, é possível mover de forma simples, rápida e segura (por meio da suspensão da máquina virtual) a utiliração das aplicações clássicas de PC, por meio das técnicas de controlo descritas abaixo, para o conjunto de comunicação projetado espeoificamente para ser usado através do controlo ocular,, superando os problemas dos sistemas no estado da arte, que fornecem procedimentos bastante complicados para se deslocar de um modo para o outro.
Ao mesmo tempo, o utilizador pode escolher diretamente, por mero de atalhos adequados, realizar algumas aplicações predefinídas dentro do conjunto de comunicação, superando assim o problema da. possível execução direta do sistema ''
Breve descrição das figuras A Fig* 1 mostra o diagrama de blocos da arquitetura do método de acordo com a presente invenção♦ A Fig, 2 mostra o diagrama de fluxo do método de acordo com •a presente invenção. A Fig« 3 mostra o diagrama de fluxo do módulo relativo à filtragem dos dados aproximados provenientes do dispositivo d© rastreamento de olho. A Fig. 4 mostra o diagrama de fluxo relativo ao Módulo de
llíGbilidld: dt III A Fig, 5 mostra o diagrama de fluxo relativo ao Móduxo de Mapeamerito de Coordenadas. A Fig. 6 mostra o diagrama de fluxo relativo às estratégias de recuperação de dado® relacionadas aos interativos nas visoaiilações da bela *
As Figs. 7 - 10 mostra, a título de exemplo não limitativo, uma possível implementação da interface gráfica, do objeto de apMeagã© da presente invenção,:
Sumário da invenção 0 objeto da presente invenção consiste num método © num programa informático correspondente para o uso de aplicações genéricas de software por meio de controlo ocular, de acordo com as reivindicações 1 e 6, respetivamente, As reivindicações dependentes definem ainda formas de realização preferidas. As reivindicações fazem parte integrante da presente descrição. 0 método objeto da presente invenção descreve, portanto, uma possível implementação de uma tecnologia assistida, extremamente inovadora em termos de controlo de aplicações genéricas de software, com base no uso de entradas a1ternativos e naturei s, como o o1har.
Descrição detalhada da invenção j|||||Íi||||I ::ίθ:ϊ|||1||:|ΐ da préiiphie dhvéhffib.r oilllf aparelho objeto da presente invenção compreende meios eletrónicos de dados e de processamento de informação, meios para memorizar os referidos dados e informações e meios de !!!!!!!!!ii!!;r^
Os referidos meios de processamento de dados e dados eletrónicos compreendem, urna secção de controlo adequada, de preferência com base em, peio menos, um microprocessador, e pode, por exemplo, ser fornecida por um computador pessoal.
Os referidos maios de memorização preferencialmente compreendem discos rígidos e dispositivos de armazenamento de tip© flash. Os rei:erido3""msios da interface de utilizador preferenci a Imen te compreendem meies de visual izgção de dados» tais como# por exemplo# ecrãs# monitores ou unidades de saída externa análogas e dispositivos de rastreamento de olhos adaptados para interpretar a direção do olhar do utilizador, 0 referido microprocessador ê de preferência equipado com um si.eterna ppèrh:ÉiÍ:Ía.i:if^ ilif&a, 'virtual·. :íseio; da utrlltalili: âi|||tpã· e por p||l|i:ipgra|ia,.ill?' de software adequado que implementa um método cuja arquitetura# descrita na Figura 1# compreende os seguintes módulos# em turno compreendendo uma série de instruções adaptadas para executar uma tarefa específica; um módulo de filtragem 10 em que as coordenadas do olhar do utilizador são processadas de modo a tornar mais estáveis os dados aproximados provenientes do dispositivo de rastreamento de olho usado; um módulo, ou seja# um Sistema Operacional/ Controlo de Aplicações 11# responsável pelo controlo do sistema operacional e os aplicativos associados e para o desenvolvimento das interfaces gráficas de aplicativos em desenvolvimento# que contém as informações sobre os interativos na tela e executa a ação nativa associada ao interativo fixada pelo utilizador naquele momento, os ditos interativos são os elementos ativáveis na interface; os .ícones, os menus pop-dawn, as caixas de verificação etc,# adaptadas para que o utilizador realize ações no programa de aplicativos a ser controlado, 0 referido Módulo de Controlo do Sistema Operacional/ Aplicações 11 é formado por dois snb-módulos de componentes; um Módulo de Controlo 12 e um Módulo de Cliente 13. 0 referido Módulo de Controlo 12 é responsável pela gestão da aprese n t a ç a o dos interativos e pela definição da ação nativa associada a cada. ara deles e, por saa vez, compreende três módulos adicionais que interagem, uns com. os outros; - um. Módulo de Mapeamento de Coordenada.» Í2A que se encarrega de realizar o remapeamento das coordenadas relativas às visualizações de tela e aos interativos no mesmo (diferentes entre Cliente e Controlador5; - um Módulo de Gestão Interativo 12B que é responsável por realizar a comparação com o olhar entrante para definir quais os interativos são fixados pelo utilizador e apresenta-os, adequadamente e possivelmente modificados, na interface, por exemplo, em um painel lateralí - um Módulo de definição de ação nativa 12C que é responsável por definir a ação nativa associada a cada interativo do sistema operacional e enviá-lo ao referido módulo de cliente 13, tornando-o dispo.ni.vel para o processamento sucessivo „ 0 referido Módulo de Mapeamento de Coordenadas 12A, por sua vez, consiste em dois sub-módulos que interagem uns com os lltblii ujtj|li|at“|||duio|l liliiiiipio <||! ίίϊ||||^·· realiza uma tradução das coordenadas relativas a !!!!!!!!!i&:í$|§ill tti!!; telalllil Éltitáfivodl! e :
Calibração Adaptativa 15 que carrega um novo ajuste das coordenadas por meio de deformação geométrica do plano obtido comparando a informação sobre os interativos que o utilizador pode selecionar 8 as coordenadas do olhar provenientes do olho-rastreador, os resultados das ações combinadas de esses 2 módulos são os descritos acima no Módulo de Mapeamento de Coordenadas 12A. 0 referido Módulo de Cliente 13 está adaptado para definir a posição e a função dos .interativos na vista de tela ef por sua vez, compreende dois módulos adicionais que interagem 1 ii^dnliellliilt 11 'Jiiul©:: Ip: .Glitllllliiiil responsável por analisar as visualizações de tela e enviar as informações relacionadas e aos atuais interativos., detetados por meio de diferentes métodos de busca, ao Module Controlador 12; o Módulo de Gestão de Ação Nativa 13B, que é responsável por receber as informações relativas â ação nativa associada e por executa-ias como ação no referido g i stema operaclona1.
Em referência à Figura 2, é mostrado um diagrama que representa a operação dos módulos mencionados acima e as intercone.xões entre si ilustrando as etapas do método de acordo com a presente invenção; a) Nos referidos meios de visualização de dados associados aos referidos meios de processamento de dados, uma interface de utilizador de controlo adaptada para permitir ao utilizador controlar o sistema operacional e são visualizados os programas de aplicação associados aos mesmos dos meios eletrónicos de processamento 20, : 1111111¾ :ã||!ibiifdénill:!: 'do·; piMar- :|db |bbdíéiiÍÍÍi|Íll;|N ihfffá. :§|||Éãdç® illllllpro^lliliós::,,· bllll bbga* #| 1 ã|f|§ii|||ii ib coordenadas do olhar dos dois olhos separados, que estão sujeitos a fortes oscilações, são detetados pelo dispositivo de rastreamento de olho 21, composto dos ditos meios de interface de utilizador. Essas oscilações geralmente ocorrem sobre uma determinada posição, mas também há alguns olhares que são totalmente erróneos e devem ser eliminados por meio de uma operação de filtragem. c) Os dados difundidos são filtrados 22 de modo a torná-los estáveis e adequados para fornecer indicações sobre as fixações do utilizador, cu seja? sobre o número de olhares do utilizador em certos ambientes. d) Os dados filtrados expressos em coordenadas x, y do ponto fixo são enviados para o Módulo de Sistema Operacional 23/ Controlo oe Aplicações 11 que os processa definindo a ação a ser realizada e as modificações a serem feitas na referida interface d© utilizador, e) A. ação a ser realizada determinada pelo passo anterior é realizada 23 ef possivelmente, a referida interface de utilizador de controlo é adequadamente modificada após a 1111111 açld: lift! I Iff £> A sequência é repetida a partir da etapa b) até o utilizador decidir deixar o programa de aplicação que ele/ ela esta a usar, 0 procedimento de filtragem de dados aproximados de acordo com. o passo e) é realizado de acordo com a sequência indicada i !ÍÍp:ÍXÍS: IP i g) Uma pré-filtragem 30 dos dados em bruto ê realizada e as amostras não validas são detetadas e eliminadas asando# por exemplo, critérios estatísticos, h) As coordenadas do olhar do olho direito e do olho esquerdo são combinadas 3.1 em um ponto considerado provável de aer o fixado pelo utilizador, i> A média e o desvio padrão são calculados 3.2 em relação ao número de amostras desejadas (definido com base no número de amostras que foram decididas a priori para levar em "iillllll li ||| j) As tolerâncias são definidas para as avaliações 33, ,k) Os dados aceitáveis são discriminados 34 em relação aos que serão rejeitados com base no que foi estabelecido nas etapas anteriores i) e j).
Os dados filtrados enviados para o Sistema Operacional/ Módulo de Controlo de Aplicativos 11 são processados de acordo com a sequência indicada abaixo e ilustrada na Figura 111^ 11! 1> Q Módulo de Gestão de Interface 13& analisa s visualizações da tela e envia 40 as informações relativas às visualizações de tela e aos interativos na interface de utilizador atual ao Módulo de Mapeamenta de Coordenadas 12A< m) 0 Módulo de Mapeamento de Coordenadas 12Ά realiza o remapeamento das coordenadas relativas às visualizações da tela e aos interativos e realiza uma comparação com os dados relatives ao olhar que vem do rastreador de olho. O referido remapeamento permite que as coordenadas provenientes do Módulo Cliente 13 relativas à posição dos interativos nas vistas de tela a serem definidas era relação a outro sistema de eixos com origem diferente do que ê baseado em que as coordenadas dos olhares provenientes do olho ~ o dispositivo de trilho é definido. Uma vez realizada esta operação, a comparação permite entender qual interativo é fixado pelo n) 0 Módulo de Gestão do Interativo 12B desenha novamente 42 os interativos presentes nos arredores dos olhares detetados mostrando-os adequadamente (por exemplo, em: um painel lateral da interface de utilizador especifica do programa) usando técnicas heurísticas para decidir a ordem de aparência determinando qual interativo será provavelmente selecionado. Isso permite mostrar cada. interação de maneira "ponderada”, do mais ao menos provável. 0 Módulo de Gestão do Interativo 12B aguarda os dados relativos aos olhares provenientes do olho-rastreador e para a seleção de um dos interativos no painel lateral. ο) Ο Módulo de definição de ação nat-iva 12C define 43 a ação nativa do sistema operacional associada a cada. interativo (oc. seja, eventos que sto simulados pelo Módulo do Cliente 13 e correspondem a inserções de controlos do teclado, clique simples, arrastar e soltar, etc.) e o envia para o Módulo de Gestão de Ação Nativa 13B. p) 0 Módulo de Gestão de Ação nativa 23B recebe: as informações relativas à ação nativa associada ao interativo selecionado e o realiza 44 como ação no Sistema Operacional (por exemplo, enviar caracteres, mover o rato na posição especifica, etc«. }. 0 processo de /rape ament o das coordenadas d.e novo de acordo com. o passo m) da sequência ilustrada, na Figura 4 ocorre de acordo com a sequência indicada abaixo e ilustrada na Figura 3?·* < q) 0 Módulo de Tradução de Coordenadas 14 realiza 50 uma tradução das coordenadas relativas a visualizações de tela e interações de entrada e envia esses dados para o Módulo de Calibração Adaptaiiva 15. r) 0 Módulo de Calibração Adaptativa 15 executa 51 um novo ajuste das coordenadas, por meio de deformação geométrica do plano obtido comparando a informação sobre os .interativos que o utilizador pode selecionar e as coordenadas do olhar provenientes do olho-rastreador, e envia as informações para atualizar o mapeamento para o Módulo de Tradução de Coordenadas 14. 0 Módulo de Gestão de Interface realiza continuamente a huaca dos interativos .nas telas de visualização durante todo o processo descrito acima, por meio do uso das etapas descritas abaixo e ilustradas na Figura 6; s) 0 Móclulo de Gestão de Interface Í3A consulta 60 a API (Interfaces de Programação de Aplicação) das funções de acessibilidade pars xastrear a posição e as funções dos diferentes interativos na página. t) 0 Módulo de Gestão de Interface 13Ά implementei .61 um algoritmo de cruzamento recursivo do diagrama de janelas na página enquanto tenta extrair informações adicionais (para superar o obstáculo representado pela informação insuficiente obtida através da. API de acessibilidade) .
uO método descrito permite, por exemplo, um utilizador desativado usar um computador pessoal equipado, por exemplo, com um sistema operacional e com programas de aplicativos como o Windows® e o pacote Microsoft® Office®.
As ações realizadas pelo utilizador são descritas abaixo em detalhes : ~ 0 utilizador é organizado na frente do clho-rastreador conectado a um monitor no qual á visualizada a tela do sistema operacional/aplicatívo desejado para ser controlado II ;pir'|||ddd. ||lilmsvlm®iil:ls: póuflÉef lllllll 0 utilizador fixa, por exemplo, o icone Iniciar na barra de :lá|l|iaflvlllid Wlndilipis^. çlidiid ::dâ ápliíiáÇf^
Word® e da barra do Windows®: o olhar move-se em. ambientes específicos para as característieae intrínsecas do rastreador de olho. Devido a isso e ao possível © intrínseco erro de precisão do dispositivo de rastreamento ocular, o que o utilizador está fixando s qual é a intenção dele pode não ser dito cora -certeza. Para evitar este problema, todos OS interaqent.es no entorno do olhar (por exemplo, botão Iniciar., ícone do programa Word®, Windows®) sào mostrados em um painel lateral, adequadamente para seleção por meio de controlo ocular (tamanhos bem espaçados e adequados). Esses interativos são detetados por meio de estratégias adequadas d. e recuperação de dados (tipo, posição, etc.) relacionadas aos interativos na tela (consulta de API de acessibilidade, 0 utilizador fixa o interativo de interesse no painel lateral e, como os botões estão .bem espaçados e de tamanho© adequados, não há ambiguidade em relação à escolha do utilizador. 0 botão é, portanto, selecionado e a ação consequente é realizada.
Em maior detalhe e em referência às figuras anexas 7-10, o utilizador, em primeiro lugar, organiza-se na frente do olbo-rastreador conectado a um monitor no qual ê visualizada a visão de tela 70 do sistema de operação/aplicativo desejado
para piipldôntroladà. pipilieip de :mdviitéhli:Il!Íid|Étds II O utilizador fixa, por exemplo, o ícone Iniciar na barra de aplicativos do Windows®, perto do qual é o ícone para a ||||||||||||lil:|ij|:|:|l^ ;bâ;r||l|o-' 'WíudowsiiílIlO olhar li ambientes específicos para as características intrínsecas do rastreador de olho. Devido a. isso e ao possível e intrínseco erro de precisão do dispositivo de rastreamento ocular, o que o utilizador está fixando e qual é a intenção dele pode não ser dito com certeza (Figura 7},
Todos os interativos ao redor do botão 71 (por exemplo, botão Iniciar, Ícone Word®, Windows®)) são mostrados em um painel lateral 72, adequadamente para seleção por meio de controlo ocular {bem espaçados e de tamanhos adequados)» Esses interativos são detetados por mexo de estratégias adequadas de recuperação de dados (tipo,, posição, etc.) relacionadas aos interativos na visualização de tela (consulta de API de acessibilidade, cruzamento recursivo do diagrama de janelas, banco de dados de aplicativos predefiràdos) e são mostrados em uma "ponderada" "de acordo com a ordem obtida por melo de técnicas heurísticas (do mais provável ao menos provável) jí ................. 0 utilizador fixa o interativo de interesse 73 no painel lateral 72s como os botões estão bem espaçados e de tamanhos adequados, não há ambíguidade em relação à escolha do utilizador (Figura 3} . 0 botão ê selecionado e a ação consequente é realizada.
Após a. seleção do botão Iniciar do painel de interações, a ação ê realizada (Figura 10), ou a janela é aberta 74 em relação à solicitação. O painel de interações 72 é esvaziado enquanto espera ser preenchido novamente com novos interativos seguindo os olhares sucessivos do utilizador.
REIVINDICAÇÕES 1. Método para o uso de aplicações de soft.ware genéricas por meio de controlo ocular compreendendo as seguintes etapas; a) visualise.::: {10) em meios de visualização fornecidos adequados associados a meio de processamento de dados adequado uma interface de utilizador de controlo para pérmit;l:||li:' ίΙΙΙϊίϊίϊίΙ^^ ç©nfcr@l®· um s;i;sté|Í|:: operacional e o programas de aplicação associados dos referidos meios de processamento de dados; b.) detetar (2,1} por meio de um dispositivo de rssfcreamento, de olho ou r&stre&dor de olho, compreendido em meios de interface de utilizador adequados associados aos ditos meios de processamento de dados, as coordenadas do olhar do utilizador na forma de dados aproximados, nomeadaxaente de amostras referentes às coordenadas do olhar do olho de ..................................diid 'çtixida^^ os filtragem (223 dos ditos dados aproximados para torná-los estáveis e adequados para fornecer indicações sobre as fixações do utilizador, nomeadamente sobre o número de olhais do utilizador dentro de certos ambientes; d) enviar (23) os dados filtrados, expressos em coordenadas x, y de um ponto fixo, para um Módulo de Sistema operation al /Con tro Io de Aplicativos (11),: processando-os definindo uma ação a ser realizada e as mudanças a serem introduzidas no referido controlo interface de utilizador; o Sistema de Operaeâo/Modulo de Controlo de Aplicativos (11) que inclui um conjunto de idtirúççip lpi:iilllddutróid;r' p|||i;i.a:|:e|Ba: ;jj aplicativos relacionados e para gerenciar a interface lllllllllllllliilíidá; dil|á|3i:i:dã;|lilip. :éilii;|illig|í|: ddiiití m lilirÉdilill sobre os interativos pre j>v3 Π S 6ΓΠ Χ)ΪΓί<3. tela e para realizar
Claims (6)
- uma ação nativa associada a um interativo· fixado pelo utilizador ne ss e mosses t o ? e) realizar a ação determinada pelo passo, anterior e, no caso de ser necessáriof modificar adequadamente a referida interface de utilizador de controlo de acordo 1111 diillll!á|l|:i || £} repetir a sequência a partir do passo b) até que o utilizador decida deixar o programa de aplicação que ele está usando, em que c dito passo d) compreende ainda as etapas de detetar quais interativos estáo presentes em torno do olhar do utilizador, modificando os referidos interativos e exibindo os referidos ints.rsgent.es modificados em um. painel lateral na referida interface de ilililililip cdiiiipiOi, aeíiip. -|:·Ε'^·ίκ·!οΐ^ιαί^'; modificados adequadamente dimensionados e espaçados e adaptados para serem selecionados de maneira eficiente
- 2, Método de acordo com a reivindicação 1, em que © procedimento de filtragem de dados aproximados de acordo com o passo anterior c) é realizado por meio das seguintes etapas; «g) pré-filtragem (30) dos referidos dados aproximados, detetando e eliminando amostras não válidas que utilizam critérios1 estatísticos; h) combinar (31) as coordenadas do olhar do olho direito e do olho esquerdo em um ponto que ê provavelmente o fixado pelo utilizador; i) calcular (32) a média e o desvio padrão em relação ao número desejado de amostras, definido de acordo com o lllllllllliilpd liéilllliiatrasl ^ailliiifiifíl d|||i!|:i|jl. ^idiidiáb: si:ll%:çsiáiilll em consideração; 15 definir (33) as tolerâncias para as avaliações; k) selecionar (34) os dados aceitáveis que são discriminados em relação àquelas a serem rejeitadas de acordo com. o que se refere nos passos anteriores i) e j! - : |!!l
- 3. Método de acordo com a reivindicação 1 -ou 2,- em que o processamento de dados recebidos do referido Módulo de Controlo de Sistemas Operacionais/Controlo de Aplicações (115 de acordo com a etapa d) é realizado de acordo com a seguinte aequência: da etapas: 1} análise, por melo de um Módulo de Gestão de Interface (13&) as visual!rações de tela do programa aplicativo ou do sistema operacional que o utilizador deseja controlar por controlo ocular e enviar (40) um Módulo de Mapeamento de Coordenadas (12A) das informações relativas às visualizações de tela e ao & interativos presentes na interface de utilizador real; o referido Módulo de Gestão de Interface (13A) que compreende um conjunto de instruções capazes de analisar as visualizações da tela e detetar as informações a respeito delas a os interativos relativos; o referido Módulo de Mapeamento de Coordenadas U.2&) que compreende um conjunto de instruções capazes de realizar um novo mapeamento das coordenadas relativas às visualizações de tela e aos interativos relativos; llllllllll mi |!!!!!||:!^i||::||!|!|!|| codriiliiilailll" rdiaMililllllÉs. visualizações de tela e aos interativos por meio do referido Módulo de Mapeamento de Coordenadas Γ12Ά) por 1||||||||pip deã:i;||ma $||§||^^ utilizador que vem do ra streader de olho, o dito remapeamento permite definir as coordenadas provenientes :®dul:|:|||||||i|i lldl :^|i||lpi.d:|id|i| :i:|i|si:í|:|pí ddllli interativos nas visualizações de tela,, em relação a outro sistema de eixos com. uma origem diferente da que define as coordenadas dos olhares vindos do olho-rastreador; o referido Módulo Cliente (13) que compreende um conjunto de instruções capares de definir a posição e a função dos presentes interagentes na visualização de teia real; n) um Módulo de Gestão de Interativos C12B} que compreende um conjunto de instruções capazes de realizar o controlo dos ‘'olhares" recebidos para definir quais os interativos são fixados pelo utilizador e para mostrar adequadamente os referidos interativos na interface, conforme definido em reivindicação: 1, desenhando novamente (:4:2:): os interativos presentes nos arredores dos olhais detetados, mostrando-os adaquadamente, possivelmente modificados na interface, usando técnicas heurísticas para decidir a ordem da aparência, determinando qual o interativa que provavelmente será selecionado, em que o referido Modulo de Gestão de 'Interativos (12B) aguarda então os dados relativas aos olhais provenientes do rastreador de olho e para a seleção de um dos interativos presentes no painel lãilfiit o) um Módulo de Definição de Ação Nativa (12C), que inclui um conjunto de instruções capazes de definir a ação nativa associada a cada interativo do Sistema Operacional e para tí,i spon ifeili z â~Io pa ra o proces samento suce s siνα, def ine (43) a ação nativa do Sistema Operacional associado a cada interação (ou seja, eventos correspondentes à inserção de controlos do teclado, clique simples, arrastar e soltar, etc.) a o envia para o Módulo de Gestão de Ação Nativa (13B), que inclui um conjunto de instruções capazes de receber as informações relativas a para a. ação nativa associada ao interativo selecionado e executá-lo como ação no referido sistema operacional:^ p) o Módulo de Gestão de Ação Nativa (13B) recebe a informação relativa á ação nativa associada ao interativo selecionado e executa a ação (4 4) corso ação no Sistema Operativo,
- 4, Método de acordo com a reivindicação .3, em que o procosao de remapsarnento de coordenadas de acordo com a etapa m) é realizado de acordo com a. seguinte sequência de etapas; q) um Módulo de tradução de coordenadas (14), que compreende um conjunto de instruções capares de realizar uma tradução das coordenadas relativas às visualizações de tela e aos interativosf realiza (50) uma tradução das coordenadas relativas às informações relativas às visualizações da teia e aos interativos que se aproximam e envia esses dados para um Módulo de Califoração x) O referido Modulo de Calibraçào Adaptativa (15), que compreende um conjunto de instruções capazes de realizar um novo ajuste das coordenadas por meio de deformação geométrica do plano obtido comparando a informação sobre os interativos que o utilizador pode selecionar e a coordenadas do olhar que vem do olho-rastreadorq reajusta (51) as coordenadas e envia as informações para atualizar o mapeamento para o referido Módulo de T redução de SdirdèiÉilp llilllll!
- 5. Método de acordo com qualquer uma das Reivindicações 1~ 4, em que o referido Módulo de Gestão de Interface (13A) realiza uma busca dos interativos presentes nas visualizações de tela, de forma continua, por meio da seguinte sequência de passos; s) o dito Módulo de Gestão de Interface (13A) questiona (SO) a acessibilidade da Interfaces de Programação de Aplicação - API ~ para rastrear a posição e as funções do.» diferentes interativos presentes na tela; ΐ,} ο referido Modulo de Gestão de Interface (13A) implementa (61) um algoritmo de cruzamento recursivo de um diagrama de janelas presente na teia? tentando extrair informações adicionais para superar um obstáculo representado por informações possivelmente insuficientes obtidas por meio da acessibilidade das Interfaces de programação de aplicativosι u) o Módulo de Gestão de Interface (13A) consulta (62) um banco de dados preformado de aplicativos suportados a partir do qual obtêm as estratégias para o uso de várias aplicações, o referido banco de dados contendo informações gerais sobre como as referidas aplicações e os referidos programas d.e aplicativos são feitos.
- 6, Programa de computador que compreende instruções que, quando o programa é executado por um computador, fazem com que 0 eomputa-dor,. em cooperação com um rastreader ocular, execute as etapas do método de acordo com qualquer uma das reivindicações 1--5 >
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ITFI2009A000198A IT1399456B1 (it) | 2009-09-11 | 2009-09-11 | Metodo e apparato per l'utilizzo di generiche applicazioni software attraverso controllo oculare e opportune metodologie di interazione. |
Publications (1)
Publication Number | Publication Date |
---|---|
PT2476043T true PT2476043T (pt) | 2018-03-16 |
Family
ID=42102373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PT107878779T PT2476043T (pt) | 2009-09-11 | 2010-09-13 | Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados |
Country Status (10)
Country | Link |
---|---|
US (1) | US9372605B2 (pt) |
EP (1) | EP2476043B1 (pt) |
CN (1) | CN102483650A (pt) |
CA (1) | CA2773636C (pt) |
DK (1) | DK2476043T3 (pt) |
ES (1) | ES2661554T3 (pt) |
IT (1) | IT1399456B1 (pt) |
NO (1) | NO2476043T3 (pt) |
PT (1) | PT2476043T (pt) |
WO (1) | WO2011030212A1 (pt) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9823742B2 (en) * | 2012-05-18 | 2017-11-21 | Microsoft Technology Licensing, Llc | Interaction and management of devices using gaze detection |
EP2877909B1 (en) * | 2012-07-27 | 2018-12-26 | Nokia Technologies Oy | Multimodal interaction with near-to-eye display |
ITFI20120165A1 (it) * | 2012-08-08 | 2014-02-09 | Sr Labs S R L | Sistema multimediale interattivo a controllo oculare per il tracciamento attivo e passivo |
US20140049462A1 (en) * | 2012-08-20 | 2014-02-20 | Google Inc. | User interface element focus based on user's gaze |
CN103870097A (zh) * | 2012-12-12 | 2014-06-18 | 联想(北京)有限公司 | 信息处理的方法及电子设备 |
US9342145B2 (en) * | 2013-01-22 | 2016-05-17 | Kabushiki Kaisha Toshiba | Cursor control |
CN104007909B (zh) * | 2013-02-25 | 2019-03-01 | 腾讯科技(深圳)有限公司 | 页面自动调整方法和装置 |
JP2016529635A (ja) | 2013-08-27 | 2016-09-23 | オークランド ユニサービシズ リミテッド | 凝視制御インターフェース方法およびシステム |
JP6115418B2 (ja) * | 2013-09-11 | 2017-04-19 | 富士通株式会社 | 情報処理装置、方法及びプログラム |
US9310886B2 (en) * | 2014-02-13 | 2016-04-12 | Lenovo (Singapore) Pte. Ltd. | Transient message display control |
US9804753B2 (en) * | 2014-03-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Selection using eye gaze evaluation over time |
WO2015164467A1 (en) * | 2014-04-23 | 2015-10-29 | Abbott Medical Optics Inc. | Medical device data filtering for real time display |
US11430414B2 (en) * | 2019-10-17 | 2022-08-30 | Microsoft Technology Licensing, Llc | Eye gaze control of magnification user interface |
DE102022110291B3 (de) | 2022-04-27 | 2023-11-02 | Universität Stuttgart, Körperschaft Des Öffentlichen Rechts | Computerimplementiertes Verfahren und System zur freihändigen Auswahl eines Bedienelements auf einem Bildschirm |
CN115122342B (zh) * | 2022-09-02 | 2022-12-09 | 北京壹点灵动科技有限公司 | 用于控制机器人的软件***和机器人的控制方法 |
CN117369649B (zh) * | 2023-12-05 | 2024-03-26 | 山东大学 | 基于本体感觉的虚拟现实交互***及方法 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4950069A (en) * | 1988-11-04 | 1990-08-21 | University Of Virginia | Eye movement detector with improved calibration and speed |
US5471542A (en) * | 1993-09-27 | 1995-11-28 | Ragland; Richard R. | Point-of-gaze tracker |
GB9518477D0 (en) * | 1995-09-09 | 1995-11-08 | Strachan John S | Point of observation tracking system |
JPH09114543A (ja) * | 1995-10-02 | 1997-05-02 | Xybernaut Corp | ハンドフリーコンピュータ装置 |
US5912721A (en) * | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
US6373961B1 (en) * | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
US5886683A (en) * | 1996-06-25 | 1999-03-23 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven information retrieval |
US5898423A (en) * | 1996-06-25 | 1999-04-27 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven captioning |
US5638176A (en) * | 1996-06-25 | 1997-06-10 | International Business Machines Corporation | Inexpensive interferometric eye tracking system |
US5731805A (en) * | 1996-06-25 | 1998-03-24 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven text enlargement |
US5850211A (en) * | 1996-06-26 | 1998-12-15 | Sun Microsystems, Inc. | Eyetrack-driven scrolling |
US6152563A (en) * | 1998-02-20 | 2000-11-28 | Hutchinson; Thomas E. | Eye gaze direction tracker |
US6204828B1 (en) * | 1998-03-31 | 2001-03-20 | International Business Machines Corporation | Integrated gaze/manual cursor positioning system |
GB9823977D0 (en) * | 1998-11-02 | 1998-12-30 | Scient Generics Ltd | Eye tracking method and apparatus |
US6577329B1 (en) * | 1999-02-25 | 2003-06-10 | International Business Machines Corporation | Method and system for relevance feedback through gaze tracking and ticker interfaces |
GB2348520B (en) * | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US6724402B1 (en) * | 2000-01-27 | 2004-04-20 | David R. Baquero | Method of launching computer programs within a graphical user interface |
US6456262B1 (en) * | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
US6603491B2 (en) * | 2000-05-26 | 2003-08-05 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
US6601021B2 (en) * | 2000-12-08 | 2003-07-29 | Xerox Corporation | System and method for analyzing eyetracker data |
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US6886137B2 (en) * | 2001-05-29 | 2005-04-26 | International Business Machines Corporation | Eye gaze control of dynamic information presentation |
US7913183B2 (en) * | 2002-10-08 | 2011-03-22 | Microsoft Corporation | System and method for managing software applications in a graphical user interface |
US7281248B2 (en) * | 2002-11-19 | 2007-10-09 | Microsoft Corporation | Virtualized and realized user interface controls |
US7206022B2 (en) * | 2002-11-25 | 2007-04-17 | Eastman Kodak Company | Camera system with eye monitoring |
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
US7365738B2 (en) * | 2003-12-02 | 2008-04-29 | International Business Machines Corporation | Guides and indicators for eye movement monitoring systems |
PT1607840E (pt) * | 2004-06-18 | 2015-05-20 | Tobii Ab | Controlo ocular de um computador |
ITFI20040223A1 (it) * | 2004-10-29 | 2005-01-29 | Sr Labs S R L | Metodo e sistema di visualizzazione,elaborazione ed analisi integrata di immagini mediche |
EP1679577A1 (en) * | 2005-01-10 | 2006-07-12 | Tobii Technology AB | Adaptive display of eye controllable objects |
ITFI20050176A1 (it) * | 2005-08-10 | 2007-02-11 | Sr Labs S R L | Metodo e apparato per l'inserimento sicuro di un codice di accesso tramite l'uso di un dispositivo a controllo oculare |
EP2002322B1 (en) * | 2006-03-23 | 2009-07-15 | Koninklijke Philips Electronics N.V. | Hotspots for eye track control of image manipulation |
US8225229B2 (en) * | 2006-11-09 | 2012-07-17 | Sony Mobile Communications Ab | Adjusting display brightness and/or refresh rates based on eye tracking |
US20080270910A1 (en) * | 2007-04-30 | 2008-10-30 | Lukasik Derek J | User selection of a remote session |
US7556377B2 (en) * | 2007-09-28 | 2009-07-07 | International Business Machines Corporation | System and method of detecting eye fixations using adaptive thresholds |
ITFI20080049A1 (it) * | 2008-03-12 | 2009-09-13 | Sr Labs Srl | Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. |
US20100182232A1 (en) * | 2009-01-22 | 2010-07-22 | Alcatel-Lucent Usa Inc. | Electronic Data Input System |
-
2009
- 2009-09-11 IT ITFI2009A000198A patent/IT1399456B1/it active
-
2010
- 2010-09-13 PT PT107878779T patent/PT2476043T/pt unknown
- 2010-09-13 US US13/395,014 patent/US9372605B2/en active Active
- 2010-09-13 CA CA2773636A patent/CA2773636C/en active Active
- 2010-09-13 DK DK10787877.9T patent/DK2476043T3/en active
- 2010-09-13 NO NO10787877A patent/NO2476043T3/no unknown
- 2010-09-13 CN CN2010800394075A patent/CN102483650A/zh active Pending
- 2010-09-13 EP EP10787877.9A patent/EP2476043B1/en active Active
- 2010-09-13 WO PCT/IB2010/002271 patent/WO2011030212A1/en active Application Filing
- 2010-09-13 ES ES10787877.9T patent/ES2661554T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
BR112012005342A2 (pt) | 2021-11-03 |
CA2773636A1 (en) | 2011-03-17 |
CA2773636C (en) | 2022-08-02 |
DK2476043T3 (en) | 2018-03-05 |
ES2661554T3 (es) | 2018-04-02 |
US20120173999A1 (en) | 2012-07-05 |
CN102483650A (zh) | 2012-05-30 |
EP2476043A1 (en) | 2012-07-18 |
NO2476043T3 (pt) | 2018-05-05 |
ITFI20090198A1 (it) | 2011-03-12 |
US9372605B2 (en) | 2016-06-21 |
WO2011030212A1 (en) | 2011-03-17 |
IT1399456B1 (it) | 2013-04-19 |
EP2476043B1 (en) | 2017-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
PT2476043T (pt) | Método e aparelho para utilização de aplicações de software genérico através de controlo ocular e métodos de interação adequados | |
ES2568506T3 (es) | Control ocular de aparato computador | |
US20080115081A1 (en) | Enhanced windows management feature | |
US7360168B2 (en) | Automatically scaling the information and controls in navigation tabs per available window area | |
US8205165B2 (en) | Apparatus to create, save and format text documents using gaze control and method associated based on the optimized positioning of cursor | |
CN105659221A (zh) | 具有用于连接组件的增强工具的图形用户界面 | |
US10754452B2 (en) | Unified input and invoke handling | |
AU2018211268A1 (en) | Systems and methods for intelligent generation of inclusive system designs | |
WO2020168790A1 (zh) | 应用窗口的焦点刷新方法、装置、存储介质及终端 | |
US11989571B2 (en) | Generating user interface containers | |
US20140173508A1 (en) | Interactive and dynamic medical visualization interface tools | |
US20210325960A1 (en) | Gaze-based control | |
US20200348805A1 (en) | Adaptable user input interface | |
US20110179375A1 (en) | Popping and Ghosting Tabs from Tabbed Groups in Graphical User Interfaces | |
BR112012005342B1 (pt) | Método para controlar a operação de um sistema operacional e programa de aplicativos associados | |
Bacher | Web2cHMI. A multi-modal native user interface implementation for accelerator operations and maintenance applications | |
LaStrange | swm: An X Window Manager Shell. | |
CN101866284A (zh) | 计算机*** | |
JP2005149240A (ja) | 情報処理装置および表示制御用プログラム |