ITMN20090001A1 - Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel - Google Patents

Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel Download PDF

Info

Publication number
ITMN20090001A1
ITMN20090001A1 IT000001A ITMN20090001A ITMN20090001A1 IT MN20090001 A1 ITMN20090001 A1 IT MN20090001A1 IT 000001 A IT000001 A IT 000001A IT MN20090001 A ITMN20090001 A IT MN20090001A IT MN20090001 A1 ITMN20090001 A1 IT MN20090001A1
Authority
IT
Italy
Prior art keywords
screen
respect
pointer
image
pixel grid
Prior art date
Application number
IT000001A
Other languages
English (en)
Inventor
Matteo Mode
Original Assignee
Matteo Mode
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matteo Mode filed Critical Matteo Mode
Priority to ITMN2009A000001A priority Critical patent/IT1396229B1/it
Priority to US13/140,975 priority patent/US20110254813A1/en
Priority to CN201080004864.0A priority patent/CN102282530A/zh
Priority to PCT/IT2010/000005 priority patent/WO2010082226A1/en
Publication of ITMN20090001A1 publication Critical patent/ITMN20090001A1/it
Application granted granted Critical
Publication of IT1396229B1 publication Critical patent/IT1396229B1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

DESCRIZIONE
“Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel†,
INDICE DEI DISEGNI SCHEMA 1: rappresentazione generale dell’invenzione e delle relazioni con l’esterno.
SCHEMA 2: rappresentazione complessiva di una generica struttura del dispositivo hardware.
SCHEMA 3: rappresentazione di una geometria del dispositivo e delle variabili dipendenti dai modi d’uso dello stesso.
SCHEMA 4: esempio di ambiguità del risultato di posizione.
TECNICA ANTERIORE
Un dispositivo di puntamento à ̈ un componente hardware che consente di generare e comunicare informazioni spaziali associate a comandi ad un computer. Nei sistemi ad interfaccia grafica (sistema che rende disponibile dei comandi attraverso la manipolazione di oggetti grafici visualizzati) essi permettono di correlare informazioni spaziali reali con quelle necessarie ad agire nello spazio virtuale o ambiente grafico prodotto a schermo. Lo spazio virtuale à ̈ uno spazio attivo, nel quale cioà ̈ ad un area o ad un punto sono associate le possibilità di attivare una, nessuna o più funzioni. I dispositivi di puntamento oltre a fornire informazioni spaziali sono in grado di generare informazioni per la loro attivazione, generalmente attraverso l’impiego anche combinato di pulsanti posti sul dispositivo e di sue movimentazioni.
I dispositivi di puntamento si dividono in due macrocategorie ovvero in dispositivi di movimento ed in dispositivi di posizione. I dispositivi di movimento associano movimenti nello spazio reale a movimenti nello spazio virtuale o ambiente grafico indipendentemente dal corrispondente punto di origine. I dispositivi di posizione sono invece in grado di associare univocamente ad un punto dello spazio virtuale un punto di uno spazio reale definito. In questo caso, quindi, esiste una corrispondenza precisa tra l’ambiente grafico e lo spazio reale definito, ed i movimenti sono associati ad uno specifico punto di origine. La corrispondenza à ̈ uno a uno quando le dimensioni dello spazio reale corrispondono alle dimensioni del supporto che visualizza l’ambiente grafico (esempi: schermo, piano di proiezione).
I dispositivi di posizione si dividono in dispositivi che riconoscono la posizione di un puntatore (generalmente uno stilo) in uno spazio reale diverso dal supporto che visualizza l’ambiente grafico (esempi: superficie capacitiva, griglia infrarossa, campo magnetico, campi di luminosità, campo di triangolazione, campo di vista di videocamere esterne, …) ed in dispositivi che riconoscono direttamente il supporto che visualizza l’ambiente grafico e/o l’immagine dell’ambiente grafico prodotta. Tra questi ultimi possiamo distinguere quelli che richiedono particolari caratteristiche del supporto o del sistema di visualizzazione per l’individuazione di uno o più riferimenti assoluti (pattern speciali, luminosità variabili, led, beacon, …) a cui agganciare la determinazione della posizione assoluta e quelli che non richiedono alcuna particolarità al supporto o al sistema di visualizzazione rispetto a quelli oggi in commercio e largamente diffusi. Fanno parte di quest’ultima categoria la penna ottica per schermi CRT e la penna ottica per schermi a griglia di pixel quali LCD, plasma, … (domanda di brevetto italiano MN2008A9).
PROBLEMA TECNICO
I dispositivi di puntamento permettono esclusivamente di “manipolare†l’ambiente virtuale prodotto da un sistema ad interfaccia grafica e pertanto l’efficacia del loro impiego à ̈ direttamente legata al livello di iterazione spaziale che implementano. Ad esempio un dispositivo di movimento implementa un livello di manipolazione notevolmente inferiore rispetto ad un dispositivo di posizione poiché richiede che sia l’utilizzatore a chiudere la retroazione valutando la correttezza della posizione di un cursore a video.
Il grado di interazione che si realizza tra l’uomo (utilizzatore) ed un sistema ad interfacciamento grafico dipende quindi dal livello di interazione spaziale che il dispositivo di puntamento implementa.
L’invenzione vuole dare risposta al problema di aumentare il livello di interazione tra uomo e sistema ad interfaccia grafica, tra uomo e più sistemi ad interfaccia grafica e tra uomo e rete di sistemi ad interfaccia grafica reso disponibile da un singolo dispositivo di puntamento tradizionale.
In particolare l’invenzione si pone l’obiettivo di migliorare la portabilità dei contenuti digitali tra sistemi ad interfaccia grafica indipendenti, di favorire la digitalizzazione di contenuti materiali trasferibili (es.: biglietti, volantini, banconote, monete, flyers, annuci cartacei, avvisi cartacei, giornali, riviste, libri, …) e contemporaneamente di garantire un alto se non migliore livello di sicurezza, di garanzia della privacy e dei diritti d’autore.
Ad esempio, ad oggi, volendo trasferire un’informazione dalla memoria di un sistema con schermo a griglia di pixel alla memoria di uno analogo à ̈ necessario collegare i due sistemi, leggere attraverso uno la memoria dell’altro, dare il comando di trasferimento, scollegare i due sistemi al termine del trasferimento, impegnando l’utilizzatore in un significativo numero di operazioni e realizzando una interazione tra due sistemi affetta da palesi rischi di sicurezza e privacy. Ci si chiede se sia possibile ridurre al minimo l’impegno richiesto all’utilizzatore attraverso una nuova generazione di dispositivi di interazione uomo – computer e contemporaneamente se sia possibile garantire un trasferimento sicuro.
La smaterializzazione di informazioni materiali trasferibili à ̈ favorita da una generazione di dispositivi in grado di realizzare un alto livello di interazione con i sistemi informatici ad interfaccia grafica associato ad un alto livello di sicurezza.
Ad esempio, si pensi alla possibilità di trasferire un annuncio visualizzato su uno schermo piatto a griglia di pixel su un dispositivo portatile anch’esso dotato di schermo a griglia di pixel, interagendo semplicemente con i due schermi attraverso l’uso di una nuova generazione di dispositivo di puntamento come quello dell’invenzione.
Risulta quindi evidente come per un dispositivo che risponda a tali questioni la caratterizzazione “di puntamento†sia limitata e scorretta date le notevoli capacità interattive oltre a quelle di tipo spaziale.
DESCRIZIONE GENERALE
Struttura generale dell’invenzione e relazioni esterne Lo “schema 1†(vedi sezione disegni) rappresenta un esempio delle possibilità di interazione dell’invenzione con più sistemi ad interfaccia grafica ciascuno formato da un computer e da uno o più schermi a griglia di pixel. L’invenzione permette l’interazione esclusiva tra un sistema e il dispositivo (ad esempio (D1) con (S1)), l’interazione contemporanea di un dispositivo con diversi sistemi (ad esempio (D2) con (S1) e (S2)) e ad un sistema di supportare contemporaneamente più dispositivi (ad esempio (S1) con (D1) e (D2)).
Lo “schema 1†rappresenta in dettaglio un singolo rapporto di integrazione dell’invenzione (3)+(4) con un unico sistema ad interfaccia grafica con schermo a griglia di pixel (1)+(2), evidenziando le relazioni o i segnali che li legano.
Il blocco (1) rappresenta il computer del sistema.
Il blocco (2) à ̈ lo schermo a griglia di pixel utilizzato dal computer per visualizzare l’ambiente grafico. Dello schermo si distinguono gli elementi statici ovvero quelli che producono un’immagine costante nel tempo (ad esempio i bordi e matrice di righe dei pixel) e gli elementi dinamici ovvero quelli che producono un’immagine variabile nel tempo (ad esempio i pixel).
Il blocco (3), denominato dispositivo hardware, rappresenta la parte fisica dell’invenzione mentre il blocco (4), detto dispositivo software, ne rappresenta la parte di processo e algoritmica.
Il software in quanto componente astratta implementata da supporti fisici (hardware), può essere condivisa per nulla o in parte tra il dispositivo fisico e i componenti hardware esterni ad esso (computer). Di conseguenza la struttura dell’elaboratore interno al dispositivo hardware sarà influenzata dalla scelta della distribuzione dei carichi computazionali. Il software può quindi essere supportato dal solo dispositivo hardware o dal solo computer o da una combinazione di essi.
Il blocco (0) rappresenta l’ambiente esterno al sistema fisico in cui si integra l’invenzione, individuabile come lo spazio reale o concreto i cui à ̈ posizionato il blocco (2).
Il segnale (A) va dal blocco (1) al blocco (2) e rappresenta la codifica dell’ambiente grafico su cui à ̈ implementata l’interfaccia grafica per l’accesso alle funzioni.
Il segnale (B) va dal blocco (2) al blocco (3) e rappresenta l’immagine rilevabile dal dispositivo. In esso si possono riconoscere tre contributi dati dai segnali (B1), (B2) e (B3).
Il segnale (B1) rappresenta l’immagine prodotta dalla matrice di pixel che compongono lo schermo. (B1) à ̈ l’immagine visibile corrispondente ad (A) ed à ̈ quindi caratterizzato da dinamicità rispetto al tempo.
Il segnale (B2) rappresenta l’immagine prodotta dai componenti strutturali dello schermo quali ad esempio la cornice laterale e la matrice di righe di separazione dei pixel (“griglia fra pixel†). Questo segnale à ̈ statico nel tempo in quanto associato all’hardware dello schermo.
Il segnale (B3) à ̈ la componente restante di (B) tolti (B1) e (B2) e rappresenta l’immagine dell’ambiente esterno (0). Per sua natura la componente (B3) à ̈ imprevedibile.
Il segnale (C) rappresenta la pressione subita dal dispositivo per interazione con una superficie ad opera dell’utilizzatore.
Il segnale (F) rappresenta l’attivazione di eventuali pulsanti o interruttori o rotelle da parte dell’utilizzatore.
I segnali (B), (C) e (F) formano l’informazione utile all’invenzione per generare informazioni spaziali associate a comandi per l’interazione con l’interfaccia grafica.
Il segnale (N) rappresenta l’inserimento o l’estrazione di una scheda di memoria. Il segnale à ̈ presente solo se il dispositivo implementa una scheda di memoria estraibile. Il segnale (P) rappresenta l’inserimento o l’estrazione di una scheda per la firma digitale. Il segnale à ̈ presente solo se il dispositivo implementa una scheda di firma digitale.
Il segnale (Q) rappresenta la trasmissione delle informazioni di autenticazione dell’utilizzatore del dispositivo qualora tale processo sia previsto.
Il segnale (V) rappresenta la trasmissione per il sistema di ricarica della batteria interna al dispositivo.
I segnali (D) ed (E) sono di tipo elettrico o elettromagnetico a seconda della tecnologia impiegata per la comunicazione tra dispositivo hardware e computer. Il loro contenuto informativo dipende anche da come à ̈ progettata la distribuzione dei processi di elaborazione tra dispositivo hardware e computer. Il segnale (D) va dal blocco (1) al (3) e il segnale (E) va dal blocco (3) al (1).
Struttura fisica e aspetto geometrico del dispositivo hardware
Il dispositivo hardware geometricamente (riferimento allo “schema 3†della sezione disegni) si caratterizza alla vista dell’utilizzatore per la presenza di una parte convergente verso un punto come ad esempio una parte a tronco di cono. In essa si concentra il nucleo ottico dell’invenzione. Definiamo questa parte punta (h) del dispositivo. Definiamo puntatore (t) del dispositivo il punto di convergenza della punta ovvero il punto destinato all’interazione con lo schermo. Definiamo asse principale (q) del dispositivo l’asse ottico cioà ̈ l’asse normale all’immagine prodotta dal gruppo ottico passante per il puntatore.
Il nucleo ottico (gruppo ottico sensore di immagine) forma corpo unico con il dispositivo hardware. Esiste pertanto un rapporto di posizione fisso tra puntatore e nucleo ottico.
Materiale e geometria del puntatore sono pensate per minimizzare il suo deterioramento e quello dello schermo e per facilitare lo scorrimento durante le interazioni a contatto.
Modo d’uso del dispositivo hardware
L’uso caratteristico dell’invenzione prevede l’interazione tra il dispositivo hardware e la superficie di visualizzazione dello schermo. Il dispositivo hardware interagisce con lo schermo quando il puntatore del dispositivo à ̈ rivolto verso di esso e si trova con esso a contatto od in prossimità.
L’utilizzatore impugna il dispositivo hardware e attraverso l’utilizzo di eventuali pulsanti, il contatto meccanico tra il puntatore e la superficie dello schermo, la movimentazione del dispositivo o di una combinazione dei precedenti interagisce con l’immagine da essa prodotta.
Il contatto può essere più o meno intenso, continuato o intermittente nel tempo, combinato con l’utilizzo di eventuali pulsanti o con particolari movimenti.
I moti che l’utilizzatore può imprimere al dispositivo durante la fase di interazione tra dispositivo e schermo sono: l’avvicinamento o l’allontanamento del puntatore dal piano dello schermo, la traslazione rispetto al piano dello schermo, la rotazione sull’asse principale e la rotazione dell’asse principale rispetto al puntatore anche detta inclinazione dell’asse principale rispetto al piano dello schermo. La variabilità sia in termini di limiti di variazione che di velocità della variazione di questi moti à ̈ definita in un intervallo legato alla natura umana e ai vincoli tecnologici.
Nello “schema 3†(vedi sezione disegni) la posizione del puntatore (t) del dispositivo rispetto allo schermo à ̈ espressa dalle coordinate (xt,yt,zt), la traslazione del puntatore rispetto al piano dello schermo à ̈ rappresentata da una variazione delle coordinate (xt,yt), la prossimità à ̈ rappresentata dalla variabile (p) pari a (zt), la rotazione del dispositivo sul proprio asse à ̈ rappresentata dall’angolo gamma (γ) e l’inclinazione dell’asse principale del dispositivo rispetto al piano dello schermo à ̈ rappresentata dalla coppia di angoli alfa (α) e beta (β).
Il valore di (p) si ricava con le formule trigonometriche applicate al triangolo rettangolo dai valori di (p’) e dell’angolo di inclinazione definito dalla coppia (α) e (β).
Il punto di coordinate (xt’,yt’,zt’=0) rappresenta il punto i cui à ̈ centrata la vista del gruppo ottico del dispositivo (punto di intersezione tra l’asse principale del dispositivo e il piano dello schermo). Le coordinate (xt,yt) si ricavano con le formule trigonometriche da (xt’,yt’), (α), (β) e (p) o (p’).
I punti (xt’,yt’, 0) e (xt,yt,zt) coincidono quando il puntatore à ̈ ha contatto con lo schermo (prossimità minima).
I valori di (xt,yt), di rotazione sull’asse ottico (γ), di inclinazione centrata in (xt,yt,zt) rispetto allo schermo (α e β) e di prossimità (p) sono tra loro indipendenti. I valori di (xt’,yt’), di rotazione sull’asse ottico (γ), di inclinazione centrata in (xt’,yt’,0) rispetto allo schermo (α e β) e di prossimità (p’) sono anch’essi tra loro indipendenti.
Nelle condizioni in cui il puntatore si trova in prossimità e non ha contatto con lo schermo e si voglia determinare una posizione sul piano dello schermo, questa potrebbe essere (xt,yt,0) o (xt’,yt’,0) così come ogni altro valore (x,y,0) poiché a priori non à ̈ ad esempio possibile stabilire che traiettoria eventualmente percorrerà il puntatore per arrivare a toccare lo schermo ma soprattutto in quale punto eventualmente lo toccherà. Quando il puntatore ha coordinate (xt,yt,zt>0) à ̈ quindi possibile fissare arbitrariamente un valore (x,y,0) sul piano dello schermo che comunque ragionevolmente potrebbe essere compreso nell’intorno del punto (xt,yt,0).
Funzionalità dell’invenzione
L’invenzione implementa diverse funzioni per rispondere alle necessità e agli obiettivi descritti nell’illustrazione del problema tecnico. Evidentemente non sono le uniche e non tutte sono indispensabili. Di seguito à ̈ proposto un elenco delle principali che, quindi, non vuole essere ne esaustivo e ne vincolante.
<>La parte “dispositivo hardware†si presta ad essere utilizzata mediante una mano.
<>La parte “puntatore del dispositivo hardware†non si deteriora.
<>Non rovina la superficie dello schermo.
<>Riconosce il contatto tra puntatore e una superficie.<>Riconosce l’attivazione di eventuali pulsanti, interruttori, rotelle.
<>Comunica con i computer.
<>Riconosce le caratteristiche strutturali di uno schermo a griglia di pixel e l’immagine da esso prodotta quando il puntatore del dispositivo hardware à ̈ a contatto o in prossimità con la superficie di visualizzazione dello stesso. Riconosce quindi di trovarsi in contatto o in prossimità con la superficie di visualizzazione di uno schermo a griglia di pixel.
Quando il puntatore del dispositivo hardware à ̈ a contatto o in prossimità con la superficie di visualizzazione dello schermo a griglia di pixel lo identifica come quello appartenente al sistema in cui si integra.
Determina la posizione del puntatore del dispositivo hardware rispetto alla superficie di visualizzazione dello schermo a griglia di pixel quando le due parti si trovano a contatto o in prossimità.
Determina direzione e intensità degli spostamenti del puntatore del dispositivo hardware sulla superficie di visualizzazione dello schermo a griglia di pixel quando le due parti si trovano a contatto o in prossimità.
Associa la posizione e gli spostamenti del puntatore a contatto o in prossimità della superficie di visualizzazione dello schermo con posizioni e spostamenti virtuali sull’immagine di interfacciamento grafico.
Associa all’utilizzo di eventuali pulsanti, ai tipi di interazione tra dispositivo e superficie di visualizzazione dello schermo o ad una loro combinazione i comandi e le funzioni rese disponibili dal computer attraverso l’ambiente grafico visualizzato. Nota: all’attivazione di comandi attraverso l’ambiente grafico possono corrispondere anche comandi o istruzioni di funzionamento destinati all’invenzione.
Riceve comandi e informazioni di funzionamento, anche attraverso il riconoscimento di oggetti grafici prefissati dell’ambiente grafico visualizzato.
Permette all’utilizzatore di modificare i parametri che descrivono i tipi di utilizzo di eventuali pulsanti, i tipi di interazione dispositivo/schermo e i tipi di combinazione tra loro.
Permette all’utilizzatore di modificare l’associazione tra i segnali di input per la “manipolazione†dell’interfaccia grafica e i tipi di utilizzo di eventuali pulsanti, i tipi di interazione puntatore/schermo e i tipi di combinazione tra loro. Permette al dispositivo di interagire contemporaneamente con più sistemi ad interfaccia grafica con schermo a griglia di pixel.
Permette ad un sistema ad interfaccia grafica con schermo a griglia di pixel di interagire contemporaneamente con più dispositivi.
<>Consente l’autenticazione dell’utilizzatore sia rispetto al dispositivo che rispetto al sistema o ai sistemi di interazione.
<>Permette di firmare digitalmente i contenuti informatici.
<>Permette la memorizzazione all’interno del dispositivo hardware di contenuti informatici.
<>Permette il trasferimento di contenuti informatici da un sistema ad interfaccia grafica con schermo a griglia di pixel al dispositivo hardware e viceversa.<>Facilita le operazioni per il trasferimento diretto di contenuti informatici da un sistema ad interfaccia grafica con schermo a griglia di pixel ad un altro analogo.
<>Gli effetti dell’interazione tra puntatore del dispositivo hardware e schermo sono prodotti sull’interfaccia grafica in tempi di durata sufficiente a non costituire ritardi percepibili dall’utilizzatore (uomo).
Struttura del dispositivo hardware
Lo schema a blocchi “Schema 2†(vedi sezione disegni) descrive una struttura generale, non l’unica possibile, del dispositivo hardware (3). Si tratta di una suddivisione di natura funzionale, legata cioà ̈ alle classi di processi che i blocchi fisici realizzano. Il dispositivo si compone di un gruppo ottico (3.1), di un sensore di immagine (3.2), di un sensore di pressione (3.3), di uno o più pulsanti (3.6), di una memoria (3.7), di una struttura di supporto per la firma digitale (3.8), di una struttura di supporto per l’autenticazione dell’utilizzatore (3.9), di un controllore e/o elaboratore (3.4), di un trasmettitore/ricevitore (3.5), di un sistema di ricarica della batteria (3.10) e da una batteria (3.11).
Evidentemente sono possibili diversi assetti includendo o escludendo alcune delle parti rappresentate. Ad ogni assetto corrisponderà una diversa capacità di realizzare alcune delle funzionalità precedentemente descritte.
Il blocco (3.1) à ̈ un sistema ottico che realizza una visione omnidirezionale progettata per permettere di catturare l’immagine della struttura e l’immagine prodotta dalla superficie di visualizzazione dello schermo a griglia di pixel (immagine statica e dinamica) quando il puntatore à ̈ con essa a contatto o in prossimità e nel rispetto degli usi previsti. Inoltre il blocco (3.1) produce un’immagine dell’intorno del puntatore adatta ad essere risoluta dal blocco (3.2) distinguendo le righe di separazione dei pixel dello schermo (“griglia fra pixel†). Il comportamento ingresso uscita del blocco (3.1), tenuto conto della risoluzione del sensore, deve permettere a quest’ultimo di produrre risultati con il grado di discretizzazione necessario.
Ad esempio, il gruppo ottico può essere un sistema multimmagine, catadriottico, a riflessione interna, a combinazione di specchi, ecc…
Il blocco (3.1) realizzando una visione “laterale†generalmente produce in uscita un’immagine deformata rispetto a quella ottenuta da una vista “frontale†(con obbiettivo distante). La caratteristica di trasferimento ingresso-uscita à ̈ nota.
Il sensore di immagine (3.2) à ̈ un componente optoelettronico che converte un’immagine visiva in un segnale elettrico che la descrive secondo una codifica stabilita. Costituiscono un esempio i sensori CCD, CMOS, FOVEON.
In generale, la risoluzione del sensore (spaziale, di intensità, di colore), tenuto conto del comportamento ingresso uscita del gruppo ottico, deve essere tale da permettere, in ogni condizione d’uso prevista, il rilevamento dell’immagine delle caratteristiche statiche o dinamiche utilizzate, con un grado di campionamento che dipende dagli algoritmi usati. Il grado di risoluzione dipende poi dal livello di precisione che si vuole ottenere per i risultati prodotti dai processi di elaborazione.
In generale, il frame rate del sensore d’immagine à ̈ dimensionato al valore massimo tra il valore necessario per consentire, durante l’uso previsto, all’invenzione di produrre risultati che appaiano istantanei all’utilizzatore (uomo); il valore necessario per consentire, durante l’uso previsto, un sufficiente campionamento temporale dei movimenti del dispositivo ed il valore necessario per il rilevamento di eventuali informazioni di funzionamento trasmesse attraverso lo schermo (per quest’ultimo valore si deve considerare, al massimo, la massima frequenza di refresh degli schermi in commercio – al massimo perché un’informazioni di funzionamento trasmessa attraverso lo schermo potrebbe rimanere visualizzata anche per più di un frame).
Evidentemente, la necessità di ottenere un’ampia adattabilità dell’invenzione agli schermi esistenti impone che nel dimensionamento del nucleo ottico (gruppo ottico e sensore) si prendano a riferimento l’intervallo di variazione in cui rientrano le dimensioni della griglia fra pixel degli schermi in commercio e l’intervallo di variazione in cui rientrano le dimensioni di questi ultimi Il blocco (3.3) sensore di pressione converte una sollecitazione meccanica in una variazione elettrica codificata. Tuttavia à ̈ possibile rilevare la pressione in ingresso al dispositivo (3) otticamente, ad esempio rilevando rispetto ad un riferimento i movimenti di un componente meccanico da essa indotti. In questo caso si avrà una sovrapposizione tra i blocchi (3.1), (3.3) e (3.3).
Il blocco (3.6) à ̈ un pulsante o un interruttore o una rotella o un qualsiasi dispositivo di commutazione. I dispositivi di commutazione possono essere più d’uno. L’informazione generata attraverso un dispositivo di commutazione può essere destinata all’attivazione di funzioni del computer o del dispositivo (ad esempio: accensione/spegnimento).
Il controllore e/o elaboratore (3.4) à ̈ un componente elettronico di controllo del dispositivo e di elaborazione dati. Le caratteristiche del blocco (3.4) dipendono dal carico computazionale richiesto per l’elaborazione dei dati rilevati e per la gestione e il controllo dei componenti interni e dei rapporti con i sistemi esterni. Il blocco (3.5) à ̈ un componente elettronico per l’interfacciamento fisico della comunicazione con il computer. Preferibilmente si tratta di un sistema senza fili.
Il blocco (3.7) supporta una memoria non volatile, eventualmente estraibile, destinata alla memorizzazione di contenuti informativi di dimensioni importanti. Il blocco (3.7) non va confuso con la memoria non volatile eventualmente presente nel blocco (3.4). Il blocco (3.7) preferibilmente à ̈ una memoria di tipo flash in virtù della capacità di conservare i dati senza necessità di alimentazione, della robustezza, della resistenza agli urti e alle sollecitazioni e delle piccole dimensioni.
Il blocco (3.8) rappresenta la struttura necessaria per consentire il processo di firma digitale quando ad esempio si necessita dell’utilizzo di una smart card. La presenza di un processo di firma digitale non dipende dalla presenza del blocco (3.8). Ad esempio può essere realizzato impiegando una “smart card virtuale†ovvero l’equivalente di una smart card memorizzata come file.
Il blocco (3.9) rappresenta la struttura eventualmente necessaria per ricevere gli input per il processo di autenticazione dell’utilizzatore. Il blocco (3.9) può essere sovrapposto ai blocchi (3.1) e (3.2) qualora ad esempio l’autenticazione avvenga attraverso il rilevamento ottico di caratteristiche biometriche.
La struttura per ricevere gli input per i processi di firma digitale o codifica e di autenticazione potrebbe anche essere in parte sovrapposta.
Il segnale (Z) va dal blocco (3.1) al blocco (3.2), à ̈ di tipo ottico e rappresenta un adattamento o trasformazione dell’immagine reale (B).
Il segnale (W) va dal blocco (3.2) al blocco (3.4), à ̈ di tipo elettrico e rappresenta l’immagine reale adattata (Z) discretizzata.
Il segnale (X) Ã ̈ di natura elettrica, rappresenta la discretizzazione di (C) e va dal blocco (3.3) al blocco (3.4).
Il segnale (J) va dal blocco (3.6) al blocco (3.4), Ã ̈ di natura elettrica e rappresenta lo stato del blocco (3.6).
Il segnale (Y) à ̈ bidirezionale tra i blocchi (3.4) e (3.5). Il suo contenuto informativo dipende da come à ̈ progettata la distribuzione dei processi di elaborazione tra dispositivo hardware (3) e computer (1).
Il segnale (M) Ã ̈ bidirezionale tra i blocchi (3.4) e (3.7) e rappresenta il canale attraverso cui si effettuano i processi di trasferimento alla o dalla memoria.
Il segnale (S) Ã ̈ bidirezionale tra i blocchi (3.4) e (3.8) e rappresenta lo scambio di informazioni per la realizzazione del processo di firma digitale.
Il segnale (O) Ã ̈ bidirezionale tra i blocchi (3.4) e (3.9) e rappresenta lo scambio di informazioni per la realizzazione del processo di autenticazione.
Il segnale (T) Ã ̈ bidirezionale tra i blocchi (3.4) e (3.10) e rappresenta lo scambio di informazioni per la gestione dei processi di ricarica della batteria.
La batteria (3.11) fornisce alimentazione a tutte le componenti interne al dispositivo hardware (3).
Criteri di progettazione del gruppo ottico (Blocco 3.1 -Schema 2)
Il gruppo ottico à ̈ progettato per realizzare una visione omnidirezionale con un campo visuale di ingresso dimensionato per consentire al gruppo ottico di produrre in uscita l’immagine di una superficie limitata, in particolare di uno schermo a griglia di pixel, in ogni condizione di impiego. Le condizioni di impiego sono variabili, all’interno di determinati intervalli limitati, per:
1) prossimità tra gruppo ottico e superficie dello schermo;
2) inclinazione dell’asse ottico rispetto alla superficie dello schermo;
3) posizione cartesiana del gruppo ottico rispetto alla superficie dello schermo.
Per ogni intervallo di variabilità esiste un valore critico su cui basare il dimensionamento del campo visuale di ingresso. Il valore critico à ̈ il valore dell’intervallo per il quale la dimensione del campo per ottenere la visione della superficie limitata à ̈ maggiore.
Alle tre variabili sopra descritte che descrivono le condizioni di impiego ne va aggiunta una quarta:
4) rotazione del gruppo ottico sul proprio asse (asse ottico o asse principale).
L’intervallo di variabilità à ̈ tipicamente l’intero angolo giro. Questa variabile non presenta un valore critico sul quale dimensionare il campo visuale di ingresso ma impone che quest’ultimo sia simmetrico rispetto all’asse ottico. Infine il gruppo ottico deve essere progettato per permettere al sensore, caratterizzato da una certa risoluzione, di distinguere la griglia fra pixel dello schermo a griglia di pixel nella zona intorno al puntatore del dispositivo hardware. Questa caratteristica del gruppo ottico deve essere verificata per ogni condizione di utilizzo prevista. Il dimensionamento avviene quindi tenendo conto degli intervalli e dei relativi punti critici come precedentemente descritto.
DESCRIZIONE DETTAGLIATA
L’invenzione rileva ciclicamente attraverso il sensore l’immagine prodotta dal proprio gruppo ottico.
L’immagine digitale ottenuta viene analizzata per determinare se il puntatore del dispositivo si trovi in prossimità o a contatto con la superficie di visualizzazione di uno schermo a griglia di pixel.
Distinguiamo due componenti che formano l’immagine complessiva dello schermo a griglia di pixel: la componente statica prodotta dagli elementi passivi che formano lo schermo a griglia di pixel (ad esempio: griglia fra pixel e bordi) e la componente dinamica prodotta dagli elementi attivi che corrisponde all’immagine reale dell’ambiente grafico virtuale.
L’analisi si basa sulla ricerca nell’immagine di elementi caratteristici dello schermo noti a priori. Sono “elementi caratteristici†o “caratteristiche†quegli elementi che producono un’immagine distinguibile da quella del loro contorno spaziale o temporale. La composizione di più caratteristiche à ̈ una caratteristica.
Sono elementi caratteristici o caratteristiche rispettivamente “noti†o “note†quelli o quelle di cui à ̈ possibile conoscere una rispettiva descrizione prima o al tempo del rilevamento della rispettiva immagine.
Ad esempio, sono “caratteristiche statiche note†il bordo, la griglia fra pixel e la luminosità dello schermo, mentre sono “caratteristiche dinamiche note†gli oggetti grafici contenuti nell’ambiente grafico visualizzato.
Una caratteristica può essere nota perché à ̈ consolidata in generale (esempio: la griglia fra pixel à ̈ formata da rette ortogonali), perché precedentemente rilevata (esempio: misura dei bordi dello schermo in una fase di inizializzazione), perché à ̈ ottenuta da uno scambio di informazioni con il sistema che la genera (esempio: frame dell’ambiente grafico), perché à ̈ legata ad altre informazioni catalogate (esempio: il bordo à ̈ così dimensionato perché lo schermo à ̈ di tali marca e modello) o perché sono generate dall’invenzione (esempio: visualizzazione di un opportuno cursore sullo schermo). Le caratteristiche scelte per l’attività di riconoscimento sono ricercate nell’immagine rilevata nella forma che assumerebbero in essa in conseguenza del comportamento ingresso uscita del gruppo ottico nelle condizioni di impiego previste.
I sistemi ottici omnidirezionali producono un’immagine frutto di infinite “viste laterali†contigue per ognuna delle infinite direzioni di vista. A parità di oggetto, l’immagine prodotta da questi sistemi risulta pertanto molto diversa dall’immagine che produrrebbe un sistema monodirezionale a visione frontale.
Le condizioni di impiego variano per livello di prossimità tra gruppo ottico e superficie, per inclinazione dell’asse ottico rispetto alla superficie, per rotazione del gruppo ottico sul proprio asse e per posizione cartesiana del gruppo ottico rispetto ai riferimenti della superficie. Va osservato che dette variabili ed i relativi effetti sono tra loro indipendenti.
Generalmente i sistemi ottici (con comportamento simmetrico rispetto al proprio asse) producono immagini diverse al variare dei suddetti valori: il livello di prossimità determina il rapporto di ingrandimento; l’inclinazione dell’asse ottico rispetto alla superficie (oggetto) determina un rapporto di ingrandimento variabile spostandosi lungo la superficie non essendo le parti di questa equidistanti dal gruppo ottico; la rotazione del gruppo ottico (e quindi anche del sensore ad esso vincolato) sul proprio asse determina l’orientamento dell’immagine digitale prodotta dal sensore; la posizione cartesiana del gruppo ottico rispetto alla superficie determina la posizione che gli oggetti assumono nell’immagine rilevata.
La variabilità delle condizioni di impiego determina di conseguenza un numero elevato di possibili immagini rilevate attese a parità di oggetto in ingresso al dispositivo. Per l’individuazione delle caratteristiche ricercate nell’immagine rilevata risultano quindi molto utili le informazioni di natura geometrica o sui rapporti di forma.
È possibile trasformare sia otticamente che informaticamente l’immagine rilevata nell’immagine che si otterrebbe con un diverso sistema ottico e/o con diversi valori delle condizioni di impiego ed eseguire su questa immagine l’attività di riconoscimento. Una opportuna trasformazione può facilitare l’attività di riconoscimento ma la sua realizzazione attraverso un sistema ottico può risultare difficile o impossibile e quella informatica computazionalmente ampia e pesante.
Evitare un processo di trasformazione dell’immagine significa evidentemente ottenere un significativo risparmio di risorse o migliori performance sia in termini realizzativi che di funzionamento.
La scelta delle caratteristiche note da ricercare nell’immagine rilevata per il riconoscimento di uno schermo griglia di pixel si fonda sui seguenti criteri: esistenza delle caratteristiche, rilevabilità delle caratteristiche, livello distintivo o di univocità delle caratteristiche e semplicità di utilizzo delle caratteristiche.
L’esistenza delle caratteristiche à ̈ garantita per quelle statiche in quanto legate a elementi strutturali e quindi non eliminabili. L’esistenza di caratteristiche dinamiche non à ̈ invece garantita poiché non à ̈ certo che negli ambienti grafici visualizzati siano presenti. Si pensi ad esempio ai casi di ambienti grafici omogenei o formati dalla ripetizione di una uguale unità elementare (geometrie modulari). In questi casi à ̈ possibile creare delle opportune caratteristiche dinamiche da visualizzare, che pertanto sono note, a patto che siano rilevabili, distintive e semplici da utilizzare.
La rilevabilità di una caratteristica dipende dalle capacità del gruppo ottico, del sensore e dello schermo a griglia di pixel anche in relazione alle condizioni di utilizzo previste.
Per il gruppo ottico e per il sensore à ̈ necessario considerare il potere risolutivo sia spaziale che di intensità. In particolare per il gruppo ottico va osservato che per distinguere due punti vicini appartenenti a un piano si necessita di un maggior potere risolutivo da una vista laterale rispetto ad una frontale poiché raggi paralleli rilevati nel primo caso appaiono meno distanti tra loro rispetto al secondo in cui sono ortogonali al piano di proiezione. Pertanto l’immagine di caratteristiche poste a distanza dal gruppo ottico potrebbe essere meno rilevabile di quella di quelle poste a breve distanza.
Gli schermi sono caratterizzati da un determinato angolo di proiezione che per gli schermi a griglia di pixel dipende dall’angolo di proiezione delle unità elementari che producono l’immagine dell’ambiente grafico e cioà ̈ dei pixel. Tipicamente i pixel di uno schermo possiedono un angolo di proiezione inferiore all’angolo piano e di conseguenza una visione laterale in prossimità o a contatto della superficie di visualizzazione (come quella prevista) non consente di rilevare ottimamente l’immagine prodotta da pixel distanti.
Le rilevabilità di caratteristiche distanti dal gruppo ottico potrebbe, pertanto, essere compromessa con una conseguente complicazione nella scelta delle caratteristiche da ricercare nell’immagine rilevata. Infatti, non conoscendo a priori la posizione del dispositivo rispetto allo schermo (questo à ̈ infatti un obiettivo/risultato dell’invenzione) non à ̈ possibile determinare quali caratteristiche siano vicine e quindi potenzialmente rilevabili.
Il problema à ̈ risolvibile individuando caratteristiche per ogni regione dello schermo, però ammesso che esistano. Tuttavia se l’esistenza di caratteristiche dinamiche era incerta in riferimento all’intero schermo, à ̈, a maggior ragione, più probabile che localmente esse non esistano. Le caratteristiche statiche con particolare riferimento ai bordi e alla griglia fra pixel, in quanto legate ad elementi strutturali passivi, presentano specificità fisse quali la loro posizione rispetto allo schermo e la differenza di intensità luminosa rispetto agli elementi attivi, e pertanto possono essere sfruttate per il dimensionamento di un gruppo ottico e un sensore in grado di rilevarle per ogni condizione di utilizzo prevista. L’utilizzo della griglia fra pixel come caratteristica statica nota da ricercare nell’immagine rilevata à ̈ molto vantaggioso poiché presentandosi distribuita uniformemente su tutta la superficie dello schermo à ̈ sempre localmente potenzialmente rilevabile.
La differenza di luminosità tra le caratteristiche statiche e quelle dinamiche permette di rilevare le prime anche quando l’immagine dinamica à ̈ del loro stesso colore. La risoluzione in termini di intensità e colore del sensore deve quindi essere tale da permettere di individuare tale differenza.
Un’ulteriore aspetto da considerare che facilita il rilevamento e il riconoscimento del bordo di uno schermo à ̈ il suo frequente rialzo rispetto alla superficie di proiezione.
Il livello distintivo o di univocità di una caratteristica indica la frequenza con cui detto elemento esiste nei diversi contesti in cui l’invenzione potrebbe trovarsi a tentare di operare. Minore à ̈ la frequenza e maggiore à ̈ il livello distintivo. Il livello distintivo à ̈ fondamentale per effettuare riconoscimenti corretti, ad esempio, per non confondere uno schermo a griglia di pixel con un’altra superficie o con un altro schermo a griglia di pixel.
In quanto associate ad elementi strutturali le caratteristiche statiche possiedono un alto valore distintivo rispetto a superfici diverse da uno schermo a griglia di pixel, ma un basso valore rispetto ad altri schermi a griglia di pixel. Infatti, ad esempio, l’immagine di una superficie luminosa circondata da un bordo molto meno luminoso e caratterizzata da una griglia anch’essa molto meno luminosa, di piccole dimensioni e soprattutto geometricamente rigidamente definita (ad esempio ripetitività modulare, ortogonalità, quadrati, …) à ̈ associabile ad uno schermo a griglia di pixel con un elevato grado di sicurezza. Tuttavia la stessa immagine con le stesse caratteristiche non permette di distinguere fra due schermi a griglia di pixel soprattutto se strutturalmente uguali.
Le caratteristiche statiche trovano utilità per la distinzione tra schermi strutturalmente diversi qualora siano note le caratteristiche dello schermo che si vuole riconoscere o quelle di eventuali altri schermi che l’invenzione sa essere presenti ma che non sono quello da riconoscere.
Le caratteristiche dinamiche, soprattutto se numerose, hanno un elevato valore distintivo rispetto a superfici diverse da uno schermo. Per distinguere due schermi anche strutturalmente diversi utilizzando le caratteristiche dinamiche à ̈ necessario considerarne molte data l’elevata standardizzazione degli ambienti grafici oggi in uso. È possibile individuare caratteristiche dinamiche univoche per distinguere due schermi a griglia di pixel se esiste la possibilità di interazione (scambiare informazioni) con entrambi i sistemi che li comprendono.
Evidentemente maggiore à ̈ il dettaglio della descrizione delle caratteristiche e maggiore à ̈ il loro livello distintivo. Ad esempio à ̈ notevolmente diverso ricercare l’immagine di una griglia fra pixel formata da moduli uguali e ripetitivi di dimensioni entro un certo intervallo dal ricercare l’immagine di una griglia fra pixel formata da moduli uguali e ripetitivi e con una ben precisa dimensione.
La semplicità di utilizzo à ̈ una misura dell’efficienza dell’utilizzo delle caratteristiche che considera variabili quali, ad esempio, l’onerosità computazionale, la necessità di scambio di informazioni, la rilevabilità ottica, la riconoscibilità in affezione di distorsioni, ecc..
Le caratteristiche dinamiche per loro natura possono trovarsi in posizioni diverse, avere forme diverse, cambiare velocemente e per questi motivi richiedono un continuo e consistente scambio di informazioni con i sistemi che le producono oltre ad una significativa elaborazione anche solo per la scelta di quelle da considerare per la ricerca nell’immagine rilevata. Tuttavia, sempre per loro natura, possono essere governate ed eventualmente opportunamente prodotte.
Le caratteristiche statiche, per specificità opposte, si presentano monotonamente e pertanto sono utilizzabili con basso consumo di risorse. Per questo stesso motivo à ̈ possibile utilizzare le caratteristiche statiche per distinguere due schermi strutturalmente diversi (diversa finezza della griglia fra pixel, diverse dimensioni dello schermo, diversa luminosità ecc.) memorizzandole in associazione all’identificazione del relativo sistema (nome o indirizzo o codice del sistema) in una fase di inizializzazione. Ulteriori possibilità per ottenere le informazioni sulla struttura dello schermo sono quella di riceverle direttamente dal sistema che lo utilizza o quella di ottenere l’identificativo del modello dello schermo dal sistema che lo utilizza per poi interpellare una specifica banca dati.
Valutando la semplicità di utilizzo bisogna considerare le condizioni di impiego previste per il dispositivo, che come noto, al loro variare, a parità di oggetto in ingresso, concorrono a produrre immagini diverse o diversamente deformate. Pertanto se a variare à ̈ anche l’oggetto (à ̈ il caso delle caratteristiche dinamiche) il consumo di risorse per il riconoscimento à ̈ sicuramente maggiore.
Per le caratteristiche statiche à ̈ quindi meno dispendioso realizzare un processo di riconoscimento delle stesse anche quando affette da distorsioni.
L’utilizzo di caratteristiche nel processo di riconoscimento utili anche per processi successivi migliora l’efficienza del funzionamento.
L’utilizzo di caratteristiche dinamiche non preclude quello di caratteristiche statiche e viceversa.
Vale la considerazione generale che maggiori sono le caratteristiche ricercate e il loro grado distintivo, maggiore sarà la probabilità di effettuare riconoscimenti corretti. Tuttavia un numero troppo elevato di caratteristiche comporta un inutile consumo di risorse computazionali rispetto al vantaggio incrementale ottenuto.
In conclusione, generalmente, si può affermare che le caratteristiche statiche a differenza di quelle dinamiche esistono sempre, sono potenzialmente sempre rilevabili, offrono un elevato valore distintivo (in particolare la griglia fra pixel) soprattutto nei confronti di superfici diverse da schermi a griglia di pixel e sono semplici da utilizzare. Le caratteristiche dinamiche offrono i vantaggi di poter essere governate e di un maggiore potere distintivo tra schermi a griglia di pixel, a patto che esistano e siano rilevabili.
In caso di utilizzo corretto del dispositivo e in frequenti contesti ambientali l’individuazione di caratteristiche ad alto valore distintivo à ̈ sufficiente per ottenere un riconoscimento univoco dello schermo di interesse operativo per l’utilizzatore.
Non essendovi garanzie di assoluta certezza per il riconoscimento univoco di uno schermo a griglia di pixel si introduce un apposito processo che per maggiore chiarezza à ̈ spiegato in seguito.
Terminato il processo di riconoscimento, se ha esito positivo, può avere inizio il processo finalizzato alla determinazione della posizione assoluta del dispositivo rispetto allo schermo a griglia di pixel.
La posizione del puntatore del dispositivo rispetto allo schermo à ̈ determinata per transitività dei riferimenti.
La posizione del puntatore rispetto al sensore e quindi rispetto all’immagine digitale da esso prodotta à ̈ nota (per progetto). Determinando la posizione di date caratteristiche note nell’immagine rilevata, si ricava la posizione del puntatore rispetto ad esse. Nota la posizione rispetto allo schermo di dette caratteristiche note si determinata la posizione del puntatore rispetto ad esso. La posizione delle caratteristiche note (statiche o dinamiche) rispetto allo schermo à ̈ nota poiché sono da esso prodotte. La determinazione della posizione si risolve quindi con il calcolo della distanza vettoriale, nell’immagine rilevata dal sensore, tra puntatore e almeno una caratteristica nota.
La misura si effettua contando il numero di pixel (del sensore) orizzontali e verticali dell’immagine rilevata necessari per collegare ogni caratteristica considerata al punto associato al puntatore.
Noto il comportamento ingresso-uscita del gruppo ottico si traduce la misura effettuata nella distanza vettoriale reale fra il puntatore e la caratteristica.
Nel caso si considerino più caratteristiche il risultato finale à ̈ il frutto di una mediazione. Maggiore à ̈ il numero di caratteristiche e maggiore à ̈ la qualità del risultato ottenuto. Tuttavia un numero troppo elevato di caratteristiche comporta un inutile consumo di risorse computazionali rispetto al vantaggio incrementale ottenuto.
A parità di distanza tra due punti dell’immagine prodotta dal gruppo ottico la distanza misurata in pixel dipende dalla risoluzione del sensore.
La distanza tra due punti dell’immagine in uscita al gruppo ottico dipende dalla distanza da quest’ultimo dei due punti corrispondenti dell’oggetto in ingresso. Il comportamento ingresso uscita del gruppo ottico e le condizioni di impiego determinano quindi la posizione dell’immagine degli oggetti reali nell’immagine rilevata. Infatti, ad esempio, a parità di posizione cartesiana sul piano dello schermo, a differenti livelli di prossimità generalmente corrispondono ingrandimenti diversi e a differenti valori di inclinazione corrispondono deformazioni diverse, e di conseguenza varia la misura in pixel (del sensore) della stessa distanza reale.
Si rende quindi necessario rilevare i livelli di prossimità e inclinazione per valutare il comportamento ingresso-uscita del gruppo ottico al fine di poter ponderare la misura in pixel del sensore e risalire alla distanza reale.
Le misure della prossimità e dell’inclinazione avvengono in base agli effetti prodotti su caratteristiche di cui sono noti i rapporti di forma e le posizioni reciproche.
Molto efficace a questo scopo à ̈ l’utilizzo della griglia fra pixel che si presenta distribuita uniformemente su tutta la superficie di visualizzazione dello schermo (posizione nota) secondo una geometria rigidamente definita (modularità, ortogonalità) in tutte le direzioni e che consente pertanto di evidenziare per ognuna di esse gli effetti introdotti sull’immagine rilevata dai livelli di prossimità e inclinazione.
La griglia fra pixel, grazie all’ortogonalità delle rette che la descrivono, permette di valutare efficacemente anche la rotazione, sul proprio asse, del gruppo ottico e del sensore ad esso vincolato.
Data la geometria simmetrica della griglia fra pixel, la rotazione calcolabile mediante il solo suo utilizzo non à ̈ riferibile ad un preciso orientamento reciproco tra assi di riferimento della griglia e assi di riferimento del sensore e, nel caso di griglia quadrata, à ̈ variabile tra 0 e 45 gradi.
Tuttavia, nell’ipotesi di schermo rettangolare, la determinazione della rotazione così ottenuta à ̈ sufficiente per indicare la direzione, nell’immagine rilevata, in cui ricercare i bordi dello schermo che, infatti, sappiamo essere presenti su tutto il perimetro della griglia fra pixel e generalmente ortogonali alle rette che la formano (determinate le direzioni i bordi si ricercano in entrambi i versi di ciascuna) .
La rotazione in termini assoluti à ̈ determinabile se à ̈ possibile definire l’orientamento dei riferimenti fissati per lo schermo. Ciò à ̈ realizzabile se à ̈ possibile rilevare una caratteristica che abbia un orientamento univoco noto rispetto ai riferimenti dello schermo.
In particolare risulta molto vantaggioso al fine di riconoscere i riferimenti fissati per lo schermo l’utilizzo dell’immagine della griglia dei subpixel. Infatti le sequenze di subpixel costituiscono combinazioni che hanno un orientamento rispetto allo schermo distinguibile e noto.
Utilizzando questa informazione à ̈ possibile definire una origine per la misura della rotazione eventualmente effettuata sulla base della griglia fra pixel o comunque sulla base di altre caratteristiche che non siano sufficienti per definire un orientamento.
Ad esempio, le combinazioni orientate univocamente possono essere presenti perché i subpixel sono di forma chiaramente orientata (es. triangolo) o perché i subpixel sono disposti secondo figure geometriche chiaramente orientate (es. triangoli) o perché i subpixel sono disposti per formare figure con sequenze di colore che ne delinea un chiaro orientamento.
La misura in termini assoluti della rotazione o comunque il riconoscimento dei riferimenti fissati per lo schermo risulta molto utile, come meglio sarà spiegato in seguito, per evitare la generazione di potenziali ambiguità del risultato di posizione.
Un singolo subpixel può tuttavia essere non rilevabile nel caso sia spento. Un singolo subpixel spento non pregiudica la possibilità di individuare una sequenza orientata. Evidentemente qualora più sub pixel consecutivi siano spenti il processo proposto potrebbe non essere realizzabile.
Si sottolinea che la matrice di subpixel à ̈ una matrice di pixel e pertanto che à ̈ soggetta alle stesse attitudini e agli stessi criteri che alla seconda sono associati.
La misura assoluta della prossimità non à ̈ fondamentale, in presenza di più caratteristiche, per determinare la posizione sul piano dello schermo ((x,y,0) - riferimento allo “schema 3†) poiché generalmente l’effetto da essa introdotto à ̈ uniforme e proporzionale su tutta l’immagine. Se il puntatore dista X dalla caratteristica A e Y dalla caratteristica B, nell’immagine rilevata disterà, indipendentemente dall’inclinazione, rispettivamente M*X e M*Y, dove M indica l’ingrandimento associato al livello di prossimità. Al variare del livello di prossimità varierà M ma il rapporto tra distanze dalle caratteristiche di riferimento rimarrà costante: X/Y= M*X /M*Y. In presenza di più caratteristiche la posizione assoluta à ̈ esprimibile quindi in termini relativi rispetto ad esse (esempio: “il puntatore si trova a 1⁄2 tra A e B†, “il puntatore à ̈ a Y/2 da A†,…).
Di conseguenza, utilizzando i bordi dello schermo come caratteristiche di riferimento, non si necessita di conoscere le dimensioni dello schermo.
Rilevando la griglia fra pixel dello schermo à ̈ quindi possibile esprimere la distanza direttamente nell’unità di misura “pixel dello schermo†, indipendentemente dal sapere quanto effettivamente misura un pixel dello schermo (esempio: “il puntatore dista x pixel orizzontali e y pixel verticali da A†).
La misura assoluta della prossimità permette di agganciare il calcolo della posizione assoluta alla misura della distanza anche da una sola caratteristica nota. Di conseguenza il rilevamento e l’utilizzo dell’immagine della griglia tra pixel permette di agganciarsi anche ad una sola caratteristica, di esprimere la distanza da essa in termini relativi di “pixel dello schermo†, evitando quindi la necessità di conoscere le dimensioni di un pixel della griglia, e nel caso essa sia, ad esempio, un angolo dello schermo di determinare direttamente la posizione assoluta del puntatore sul piano dello schermo a prescindere dalla notorietà delle dimensioni di quest’ultimo.
La misura assoluta della prossimità à ̈ fondamentale per determinare la distanza dallo schermo, quindi per determinare la posizione in tre dimensioni del puntatore ((xt,yt,zt>0) – riferimento allo “schema 3†) e per individuare lo stato di contatto tra puntatore e schermo (prossimità minima) soprattutto in assenza di sensore di pressione.
La misura delle variazioni nel tempo (analisi temporale di frame consecutivi catturati dal sensore) di prossimità e inclinazione à ̈ fondamentale per determinare i movimenti del puntatore nello spazio tridimensionale prossimo allo schermo e per eventualmente poter associare ad essi dei comandi.
In riferimento allo “schema 3†(vedi sezione disegni), dati i vincoli di progettazione che impongono al gruppo ottico la capacità di permettere di rilevare l’immagine della griglia fra pixel nell’intorno del puntatore e data la simmetricità del comportamento del gruppo ottico à ̈ preferibile riferire le misure all’immagine del punto in cui à ̈ centrato il campo di vista del sistema ottico, ovvero al punto (xt’,yt’,0). Il punto dell’immagine rilevata associato al puntatore à ̈ quindi l’immagine del punto (xt’,yt’,0), individuata dall’intersezione dell’asse ottico con il sensore. Dalla determinazione di (p’), (α) e (β) si ricavano facilmente sia (xt,yt,zt=p) che (xt,yt,0). Localmente à ̈ possibile effettuare una misura assoluta di distanza tra una caratteristica e il puntatore a prescindere dalla condizione di prossimità o inclinazione del dispositivo distinguendo la griglia fra pixel dello schermo e contando il numero di pixel orizzontali e quello di pixel verticali (pixel dello schermo) necessari per collegare, nell’immagine rilevata, la caratteristica al punto associato alla posizione del puntatore.
La condizione di località esclude la possibilità che la griglia fra pixel dello schermo non sia rilevabile a causa del potere risolutivo del gruppo ottico e dell’angolo di proiezione dello schermo associati a distanze “grandi†. La misura assoluta così svolta prescinde da prossimità e inclinazione poiché i diversi gradi di ingrandimento e le deformazioni introdotte modificano la rappresentazione della griglia fra pixel dello schermo ma non compromettono la distinzione dei singoli pixel.
Il livello di accuratezza della misura assoluta à ̈ superiore ma il vincolo di località per la sua realizzazione ne impedisce un utilizzo generale in quanto non si hanno garanzie a priori sull’esistenza di caratteristiche statiche o dinamiche riconoscibili nelle vicinanze.
Per la scelta delle caratteristiche da utilizzare nel processo di determinazione della posizione valgono le considerazioni fatte precedentemente per il processo di riconoscimento ad eccezione di quelle sul livello distintivo. Tuttavia l’utilizzo di caratteristiche ad alto livello distintivo permette intrinsecamente al processo di determinazione della posizione di effettuare anche un processo di riconoscimento.
Vale la pena evidenziare che nel caso di caratteristiche statiche la loro posizione rispetto allo schermo non cambia mentre nel caso di caratteristiche dinamiche la loro posizione cambia con esse ad ogni loro nuova determinazione.
Un metodo per caratteristiche richiede la loro individuazione. L’utilizzo delle stesse caratteristiche impiegate nella fase di riconoscimento consente di non ripetere l’operazione.
L’impiego dei bordi dello schermo come riferimento offre alcuni vantaggi oltre a quelli legati all’essere una caratteristica statica: permette di esprimere la posizione rispetto a caratteristiche perimetrali evitando un passaggio tra riferimenti ed à ̈ presente in tutte le direzioni di vista.
Le distorsioni introdotte dall’ottica impiegata, gli effetti dell’inclinazione, il rilevamento discreto dell’immagine, l’elaborazione discreta/digitale, il grado di accuratezza nell’individuazione delle caratteristiche nell’immagine rilevata sono alcuni fattori sistematici che possono contribuire a formare un errore sul calcolo della posizione del puntatore rispetto allo schermo maggiore della precisione desiderata.
Oltre a prevenirne la possibilità intervenendo sulle cause migliorando l’efficacia del sistema à ̈ possibile introdurre un processo di controllo in retroazione per la correzione del risultato.
Si visualizza un cursore a video (si inserisce volontariamente una caratteristica distinguibile nota) nella posizione calcolata. Nell’ipotesi di errore piccolo si ricerca l’elemento visualizzato nell’immagine rilevata nell’intorno del punto corrispondente al puntatore. Dopo averlo individuato si rileva la correzione al fine di ottenere un risultato esatto.
Minore à ̈ l’errore e minore à ̈ l’area nell’intorno del punto dell’immagine rilevata associato puntatore in cui si effettua la ricerca.
La misura della correzione può essere svolta con entrambi i metodi illustrati precedentemente per la determinazione della posizione rispetto ad una caratteristica.
La correzione in termini assoluti à ̈ però più rapida e certamente non affetta da errori, nonostante gli errori attesi prodotti dal metodo di misura ponderato in base agli effetti siano sicuramente minori per brevi distanze. Localmente à ̈ possibile effettuare una misura assoluta in qualsiasi condizione di utilizzo prevista, distinguendo la griglia fra pixel dello schermo e contando il numero di pixel orizzontali e quello di pixel verticali necessari per collegare un punto dell’elemento visualizzato al punto associato alla posizione del puntatore. L’errore da correggere à ̈ piccolo se garantisce per ogni suo possibile valore il rispetto della condizione di località. Segue che la condizione di località à ̈ sempre soddisfatta nell’ipotesi di errore piccolo e pertanto il metodo di misura assoluta sempre applicabile.
La visualizzazione del cursore può essere resa rilevabile dalla sola invenzione e non dall’uomo se avviene in tempi brevi e se il cursore à ̈ di piccole dimensioni (ad esempio quanto un singolo pixel dello schermo) e di colore simile allo sfondo a cui si sovrappone. La visualizzazione per un brevissimo periodo del cursore ne permette un facile rilevamento per confronto con l’immagine dell’istante precedente, nell’ipotesi che il tempo trascorso sia stato sufficientemente breve per il verificarsi di ulteriori mutamenti nell’immagine. Inoltre se l’errore à ̈ piccolo à ̈ probabile che il dispositivo copra alla vista dell’utilizzatore il cursore visualizzato.
Potremmo considerare il cursore come l’estensione nello spazio virtuale o ambiente grafico del puntatore del dispositivo.
Nel caso che non esistano o che per scelta non vengano utilizzate caratteristiche rilevabili sufficienti a determinare un'unica soluzione di posizione, ma comunque un insieme finito à ̈ necessario svolgere un processo di eliminazione delle ambiguità.
Ciò accade, ad esempio, quando esistono caratteristiche rilevabili ma non distinguibili tra loro come nel caso in cui la determinazione della posizione avviene basandosi solo sugli angoli del bordo di uno schermo rettangolare (può avvenire per scelta di algoritmo o ad esempio in caso di sfondo monocolore). In questo caso non à ̈ possibile determinare un'unica soluzione, ma una coppia poiché non à ̈ possibile distinguere un angolo dal suo opposto (quello non coniugato interno, quello formato da entrambi lati diversi) se non vi à ̈ almeno un elemento per distinguere almeno un lato della cornice dal suo opposto (che equivale ad utilizzare una caratteristica ulteriore agli angoli che permette di definirne un ordine).
L’esempio appena descritto à ̈ illustrato nello “schema 4†(vedi sezione disegni) in cui si evidenzia come il dispositivo, posto in due posizioni diverse e in una ruotato sul proprio asse di 180° rispetto all’altra, generi la stessa immagine delle caratteristiche considerate. Nello schema si rappresentano solo le caratteristiche considerate e si ipotizza per semplicità che il gruppo ottico non distorga.
Nel caso non si determini direttamente una soluzione univoca ma comunque un numero finito di soluzioni ammissibili, l’individuazione dell’unica soluzione avviene per retroazione verificando le varie posizioni ammissibili attraverso la visualizzazione e il riconoscimento di un oggetto o cursore. Questa operazione può essere svolta simultaneamente (in un unico ciclo di refresh dello schermo) visualizzando oggetti diversi, ognuno associato ad una diversa soluzione ammissibile. La verifica simultanea, quando l’ambiguità à ̈ legata ad effetti della rotazione del gruppo ottico sul proprio asse, come nel caso illustrato, può avvenire anche visualizzando oggetti uguali ma con un individuabile orientamento fisso rispetto allo schermo in tutte le posizioni ammissibili.
L’operazione di retroazione può anche essere svolta in sequenza purchà ̈ i cicli di refresh necessari permettano di rispettare tempi totali di risposta che devono essere compatibili con l’uso e quindi anche non osservabili dall’uomo.
Nel caso sia necessaria una retroazione per la correzione dell’errore di posizione i due processi sono combinabili in un unico feedback.
Valgono le considerazioni fatte precedentemente in merito al rendere gli oggetti della retroazione non rilevabili dall’uomo. Da aggiungere che le retroazioni associate a soluzioni ammissibili non corrette sono meno rilevabili dall’utilizzatore se si ipotizza, come à ̈ ragionevole, che questi stia concentrando il proprio sguardo nella posizione associata alla soluzione corretta.
Nel caso di ambiguità generate sistematicamente à ̈ possibile implementare un registro statistico per determinare se esiste una soluzione che à ̈ più probabilmente corretta rispetto alle altre al fine di definire una classifica da seguire per fissare l’ordine delle posizioni in cui visualizzare i cursore.
La forma del case e la disposizione di eventuali pulsanti possono essere progettati per indurre l’utilizzatore ad impugnare il dispositivo in un solo modo ottimale. Questo consente di fissare un grado di rotazione del dispositivo sul proprio asse rispetto allo schermo più probabile (grado che per il mancino e diverso dal destrorso). Di conseguenza il processo di eliminazione delle ambiguità può essere configurato visualizzando il cursore prima nella posizione più probabile (quella relativa alla rotazione più probabile) e solo nel caso di riscontro negativo visualizzare il cursore nelle altre posizioni. Evidentemente imponendo, come condizione di utilizzo del dispositivo, un solo grado di rotazione ammesso per l’impugnatura del dispositivo, l’invenzione agirà senza considerare le ambiguità (qualora possano esistere per i motivi già descritti) che si potrebbero generare altrimenti, considerando sempre e solo la soluzione legata all’utilizzo corretto (previsto). In questo caso per evitare che a seguito dell’utilizzo scorretto si attivino funzioni associate al punto determinato (infatti questi à ̈ diverso da quello realmente selezionato) à ̈ possibile verificare il risultato di posizione calcolato con la visualizzazione di un cursore e solamente dopo il riconoscimento trasmettere i comandi per l’attivazione delle funzioni.
Nell’ambito di ambiguità generate per il contributo degli effetti di rotazione del dispositivo sul proprio asse, evidentemente, queste sono immediatamente risolvibili, poiché non vengono generate, potendo misurare il grado di rotazione/orientamento assoluto del dispositivo rispetto allo schermo. In riferimento all’esempio fatto, questo si realizza, potendo individuare una caratteristica che permetta di fissare un ordine per gli angoli del bordo. In generale si realizza potendo riconoscere caratteristiche che permettano di determinare univocamente gli “assi di riferimento†spaziali dello schermo.
L’utilizzo dell’immagine della griglia di subpixel che forma lo schermo à ̈ molto efficace poiché questi ultimi formano terne univocamente orientate rispetto allo schermo. Ad esempio, applicando il caso descritto ad uno schermo LCD formato da subpixel ordinati in rettangoli, da sinistra verso destra, secondo il modulo “R→G→B†, in una posizione si rileverà un’immagine dei subpixel, letta da sinistra verso destra rispetto al riferimenti del sensore, ordinata secondo la sequenza “…RGBRGBR…†, mentre nell’altra posizione si avrà la sequenza “…BGRBGRB…†. Essendo noto l’orientamento dei subpixel rispetto allo schermo si rileva univocamente la posizione corretta senza generare potenziali ambiguità. Valgono le considerazioni già fatte nell’ambito della descrizione del processo di misura assoluta della rotazione del dispositivo sul proprio asse riguardo ai contesti di applicabilità.
Una complicazione ai processi di riconoscimento dello schermo e di determinazione della posizione del puntatore rispetto ad esso à ̈ ammettere la possibilità che la mano dell’utilizzatore o un altro oggetto copra in parte la visuale del gruppo ottico (ad esempio se l’utilizzatore tiene la mano con cui impugna il dispositivo appoggiata allo schermo). Di conseguenza aumenta la probabilità che le caratteristiche ricercate non siano rilevabili e la probabilità che non sia possibile determinare una soluzione univoca (le caratteristiche rese non rilevabili potrebbero essere le uniche o ad alto valore distintivo). Il primo aspetto à ̈ risolvibile scegliendo, se possibile, caratteristiche in tutto lo spazio dello schermo. Da osservare che almeno un angolo del bordo rettangolare dello schermo à ̈ sempre visibile se la visuale non coperta à ̈ almeno pari all’angolo piano.
L’aumento delle ambiguità à ̈ risolvibile nei modi precedentemente descritti.
Inoltre, nel caso il gruppo ottico sia concentrato nella punta del dispositivo, rilevando l’immagine dello schermo in condizioni di prossimità, si ha un campo di vista maggiore e quindi una maggiore possibilità di individuare caratteristiche sino a pochi istanti prima del massimo restringimento di visuale.
Per interazioni continuate nel tempo, di contatto o di anche prossimità, tra dispositivo hardware e schermo la determinazione della posizione successiva può avvenire reiterando l’elaborazione effettuata per la determinazione della prima posizione o rilevando lo spostamento.
Lo spostamento può essere calcolato rispettando la condizione di località, utilizzando quindi una misura assoluta che prescinde dagli effetti prodotti dal gruppo ottico a causa dei suoi livelli di prossimità e inclinazione rispetto allo schermo. La condizione di località à ̈ infatti sempre soddisfatta, nell’ipotesi di un breve intervallo di tempo tra due rilevamenti consecutivi, se si visualizza un cursore nella posizione precedente e se ne misura la distanza rispetto alla nuova posizione. Una frequenza di rilevamento dell’immagine sufficientemente elevata garantisce infatti che il cursore visualizzato si trovi nell’intorno della nuova posizione. In queste condizioni l’intorno della nuova posizione in cui à ̈ possibile ritrovare l’elemento visualizzato associato a quella precedente à ̈ molto ristretto (qualche pixel dello schermo) e quindi velocemente rilevabile. Inoltre essendo l’elemento visualizzato molto prossimo alla nuova posizione si confonde con essa allo sguardo dell’utilizzatore (uomo). Valgono le considerazioni fatte precedentemente in merito al rendere il cursore non rilevabile dall’uomo. Da osservare inoltre che per applicazioni di disegno o scrittura corsiva esiste sempre una caratteristica nei pressi della nuova posizione: l’ultimo tratto disegnato ovvero precedentemente visualizzato.
Lo spostamento può essere misurato analizzando il flusso di immagini rilevate, sfruttando tra l’altro anche la griglia fra pixel dello schermo. Tuttavia questo metodo richiede la correzione degli effetti introdotti da variazioni di prossimità, inclinazione e rotazione che avvengono lungo gli spostamenti.
Evidentemente durante la misura dello spostamento non à ̈ necessario effettuare il processo di riconoscimento dello schermo per ogni frame catturato dal sensore. Tra l’altro, la misura dello spostamento, coinvolgendo il rilevamento della griglia fra pixel, svolge intrinsecamente un processo di riconoscimento almeno ad alto valore distintivo.
Precedentemente si à ̈ detto come non vi fosse assoluta garanzia di poter sempre effettuare sulla base di caratteristiche un riconoscimento univoco e come quindi fosse necessario un processo sempre in grado di realizzarlo.
Il riconoscimento non può essere fatto solo attraverso l’accoppiamento univoco a livello di comunicazione tra dispositivo e sistema. Si pensi infatti al caso in cui il dispositivo sia accoppiato, a livello di comunicazione, univocamente ad un sistema ma operi su uno schermo a griglia di pixel di un altro sistema: potrebbe trasmettere informazioni spaziali al sistema sbagliato.
Il processo di riconoscimento univoco dello schermo a griglia di pixel del sistema ad interfaccia grafica con cui l’utilizzatore intende interagire permette di effettuare riconoscimenti corretti con sicurezza assoluta e con ridotto impiego di risorse computazionali, in ogni contesto operativo (presenza di schermi strutturalmente uguali, presenza di fogli con micropattern, numero limitato di caratteristiche rilevate per scelta di algoritmo, ecc.) e a prescindere dalla possibilità, in dati contesti, di riconoscere univocamente lo schermo attraverso l’utilizzo di caratteristiche note.
Il processo prevede una prima fase di riconoscimento attraverso l’individuazione nell’immagine rilevata di caratteristiche note ad alto valore distintivo quale in particolare la griglia fra pixel al fine di escludere la maggior parte delle superfici non accettabili. Se la prima fase ha esito positivo si procede alla determinazione della posizione e si visualizza, nel punto corrispondente, un cursore predefinito. All’acquisizione successiva dell’immagine se il dispositivo riconosce il cursore si realizza il riconoscimento univoco. Infatti, l’informazione di posizione à ̈ trasmessa all’unico sistema con cui il dispositivo à ̈ accoppiato a livello di comunicazione, di conseguenza solo tale sistema produrrà a video il cursore predefinito e solo se il dispositivo à ̈ realmente in contatto o in prossimità con esso si avrà il riconoscimento.
Solo successivamente all’esito positivo di questa fase l’invenzione abilita, convalidandoli, la comunicazione dei comandi generati durante e dopo tale fase.
Se le interazioni con lo schermo sono continuate o interrotte brevemente nel tempo il processo di riconoscimento univoco non viene ripetuto ma viene effettuato solo quello basato su elementi ad alto valore distintivo, che tra l’altro, à ̈ intrinsecamente svolto dai processi di determinazione della posizione o dello spostamento quando coinvolgano l’individuazione della griglia fra pixel. Una breve interruzione à ̈ un’interruzione tale da non permettere all’utilizzatore (uomo) di cambiare superficie di interazione.
Tale processo può essere integrato, in un unico ciclo di refresh dello schermo, qual’ora siano necessari, con i processi di correzione della posizione o di eliminazione delle ambiguità.
Ovviamente valgono le considerazioni già fatte per eliminare la possibilità che l’utilizzatore noti il cursore.
Evidentemente questo processo può essere utilizzato per qualsiasi contesto o solo nel caso non sia possibile effettuare un riconoscimento univoco attraverso l’utilizzo delle caratteristiche note selezionate.
Si osservi che trattandosi di un processo di convalida del primo risultato di posizione basato sul riconoscimento di una caratteristica opportunamente creata à ̈ possibile realizzare una procedura analoga che faccia uso di caratteristiche dinamiche già presenti. In questo caso la scelta delle caratteristiche dinamiche à ̈ posteriore alla determinazione del risultato di posizione e pertanto à ̈ possibile risolvere il problema legato alla loro rilevabilità locale. Tuttavia permangono problemi di carico computazionale maggiormente svantaggioso e di garanzia di esistenza di caratteristiche.
L’invenzione sino ad ora presentata consente allo stesso sistema a schermo unico di supportare più dispositivi poiché, se le comunicazioni sono distinte, ad ogni canale di comunicazione à ̈ associato un dispositivo e ad ogni dato trasmesso attraverso un dato canale à ̈ associabile a un dato dispositivo. Tuttavia l’invenzione permette, con garanzia assoluta, allo stesso dispositivo di interagire con un solo sistema a schermo unico alla volta, sia esso mono o multi utente. Questo evidenzia un grosso limite rispetto alla realizzazione di un’ampia interfacciabilità con i sistemi e di un elevato livello di portabilità dei contenuti.
Ad esempio, non à ̈ possibile, accoppiare lo stesso dispositivo contemporaneamente a due sistemi a schermo unico se per qualsiasi motivo (scelta di algoritmo per semplificare la richiesta di elaborazione, schermi strutturalmente uguali, ecc.) non à ̈ possibile per l’invenzione distinguere i due schermi. Di conseguenza non à ̈ possibile trasferire un file mediante il dispositivo tra i due sistemi se il dispositivo non viene prima disconnesso dal sistema di origine del file e poi riconnesso a quello di destinazione. Infatti, accoppiando lo stesso dispositivo a livello di comunicazione con due sistemi, non à ̈ possibile sapere rispetto a quale schermo di quale sistema à ̈ stata determinata la posizione e quindi a quale sistema comunicare i risultato.
Ad esempio, nel caso di un solo dispositivo e di un solo sistema a più schermi e multiutente potrebbe non essere sempre possibile, come nel caso precedente, stabilire con quale schermo e quindi con quale ambiente grafico stia interagendo il dispositivo. Infatti à ̈ possibile sapere che a una data comunicazione sono legati un dato dispositivo e una data posizione ma non à ̈ possibile sapere rispetto a quale schermo sia espressa quest’ultima.
Il processo di creazione e gestione di accoppiamenti univoci in presenza di connessioni contemporanee con più sistemi con schermo a griglia di pixel permette di risolvere le ambiguità legate al riconoscimento del sistema.
Il metodo prevede, in fase di setup delle connessioni, di assegnare, almeno ad ogni utenza messa a disposizione su schermo diverso da uno o più sistemi e accoppiabile con il dispositivo, un cursore diverso (ad esempio per colore). In questo modo si avranno un canale di comunicazione distinto per ogni dispositivo che consente al sistema di riconoscere i dispositivi e un cursore diverso per ogni utenza su schermo diverso che consente al dispositivo di riconoscere gli schermi, le utenze e quindi i sistemi.
Tale assegnazione può avvenire solo nel caso le informazioni note non siano sufficienti per distinguere gli schermi dei sistemi accoppiati a livello comunicativo e solo per i sistemi che implementano gli schermi non distinguibili. Infatti, se ad esempio in un contesto con due sistemi ad unico schermo à ̈ noto, per accoppiamenti storici di cui sono state mantenute le informazioni, che implementano schermi strutturalmente diversi, l’assegnazione di un cursore diverso non à ̈ necessaria. Se rispetto all’esempio precedente inseriamo un terzo sistema a schermo unico storicamente ignoto oppure noto ma con caratteristiche strutturali uguali ad uno degli altri due allora l’assegnazione di un cursore diverso sarebbe necessaria solo per il nuovo sistema.
Un sistema à ̈ accoppiabile con un dispositivo se non ha raggiunto il numero massimo di dispositivi accoppiati, se il sistema à ̈ aperto rispetto al dispositivo, se la relativa utenza à ̈ aperta rispetto all’utilizzatore del dispositivo (autenticazione) e se à ̈ nel campo del sistema wireless.
Il processo à ̈ uguale a quello di riconoscimento univoco già descritto con la differenza che prevede la comunicazione del primo risultato di posizione ottenuto almeno a tutti i sistemi accoppiati di cui non sono stati riconosciuti i relativi schermi. Tali sistemi provvedono a produrre a video il cursore ad essi relativo. Il dispositivo riconoscerà il cursore e quindi il sistema con cui interagisce.
Il processo di riconoscimento dello schermo può essere effettuato una sola volta ad ogni inizio di interazione con lo schermo dopo un “lungo†periodo di inattività.
Il processo può essere utilizzato solo se non à ̈ possibile distinguere gli schermi attraverso le caratteristiche o le informazioni note.
Il dispositivo provvede nei periodi di “lunga†inattività a ricercare nel campo di comunicazione se sono presenti nuovi sistemi accoppiabili rispetto ai precedenti e se possibile ad accoppiarsi con essi fissando se necessari i parametri per il riconoscimento univoco. Il sistema provvede periodicamente a verificare l’esistenza delle connessioni stabilite. Il tutto in modo da realizzare un efficiente processo di gestione degli accoppiamenti “in nascita†e “morti†.
Evidentemente la condizione di assegnare, ad ogni utenza messa a disposizione su schermo diverso da uno o più sistemi e accoppiabile con il dispositivo, un cursore diverso à ̈ valida anche nel caso si proceda ad assegnare un cursore diverso per ogni dispositivo o canale di comunicazione (maggiore varietà). In questo caso sarebbe possibile fissare uno standard che ad esempio associ ad ogni codice di comunicazione uno specifico cursore e realizzare, in fase di setup della connessione tra sistema e dispositivo, un processo di scelta del codice sulla base di quelli già fissati per gli altri dispositivi eventualmente connessi al sistema.
L’utilizzo di un cursore da visualizzare come retroazione al risultato di posizione permette, a prescindere dalle necessità di riconoscimento, di correzione del risultato, di eliminazione delle ambiguità e di misura dello spostamento, la verifica oltre ogni possibilità del corretto funzionamento dell’invenzione, ovvero impone che l’invenzione possa agire solo e unicamente in accordo con le intenzioni, compatibili con gli usi previsti, dell’utilizzatore.
Contemporaneamente alla determinazione della posizione o dello spostamento avviene il rilevamento della pressione di contatto tra puntatore e schermo e il rilevamento dell’attivazione di eventuali pulsanti.
Nel caso non siano note a priori informazioni sulle dimensioni della griglia fra pixel dello schermo nell’immagine rilevata in condizioni di contatto, il sensore di pressione à ̈ fondamentale per rilevare il contatto. Il contatto con lo schermo à ̈ riconosciuto come tale solo se à ̈ riconosciuto lo schermo.
Il livello di pressione di contatto (nullo in caso di prossimità) e l’attivazione dei pulsanti vengono associati al risultato di posizione.
La generazione di comandi attraverso il sensore, pulsanti, movimenti del dispositivo à ̈ gestita, quando abilitata, anche in contesti di non interazione con lo schermo del sistema di riferimento.
L’invenzione ciclicamente riconosce lo schermo ed elabora un risultato che rappresenta la posizione, la pressione di contatto e l’attivazione di pulsanti.
L’invenzione elabora in continuazione la sequenza temporale dei risultati recenti per produrre secondo le impostazioni preimpostate dall’utente l’attivazione dei comandi resi disponibili dall’interfaccia grafica.
I parametri che descrivono i tipi di utilizzo di eventuali pulsanti, i tipi di interazione puntatore/schermo e i tipi di combinazione tra loro sono modificabili dall’utente attraverso l’interfaccia grafica.
L’associazione tra i segnali di input per la “manipolazione†dell’interfaccia grafica e i tipi di utilizzo di eventuali pulsanti, i tipi di interazione puntatore/schermo e i tipi di combinazione tra loro à ̈ modificabile dall’utente attraverso l’interfaccia grafica.
La memoria interna permette di trasferire al dispositivo le informazioni contenute nel sistema che implementa l’interfaccia grafica attraverso la semplice interazione dispositivo-schermo associata ad un comando. L’invenzione determina la posizione, la posizione à ̈ associata ad un oggetto grafico, l’oggetto grafico à ̈ associato ad un contenuto memorizzato, l’utilizzo di un comando generato ad esempio attraverso un pulsante attiva il trasferimento del contenuto nella memoria interna al dispositivo.
Il processo inverso permette di trasferire dal dispositivo ad una directory del sistema (alla cui finestra grafica à ̈ associata una posizione sullo schermo). In questo processo à ̈ necessario visualizzare una finestra che mostri i contenuti salvati nella memoria del dispositivo oppure visualizzare in cascata, ad ogni impulso di comando, un’icona temporanea associata al contenuto in memoria di volta in volta selezionato.
Il trasferimento di un contenuto da un sistema ad una altro può essere realizzato memorizzando nel dispositivo un file di indirizzo dell’origine del contenuto che una volta scaricato nel sistema di destinazione permette a questi di prelevarlo da quello di origine.
Un ulteriore possibilità nel caso i sistemi di origine e di destinazione siano in comunicazione e condividano informazioni sulle reciproche attività à ̈ quella di realizzare il trasferimento attivando la funzione “copia†sul sistema di origine e poi quella di “incolla†su quello di destinazione. Questo à ̈ appunto realizzabile solo se il sistema di destinazione à ̈ ha conoscenza che nel sistema di origine à ̈ stato selezionato il comando “copia†e viceversa.
La comunicazione wireless migliora la maneggevolezza del dispositivo, consente un rapido e indipendente, rispetto all’utilizzatore, accoppiamento con il sistema e permette l’accoppiamento del dispositivo con più sistemi contemporaneamente. Il sistema wireless à ̈ pensato per comunicazioni a breve distanza. Si realizza così anche un basso consumo energetico.
Nel caso nel dispositivo sia presente una memoria per il salvataggio ed il trasferimento di informazioni di significative dimensioni il sistema wireless à ̈ pensato con una opportuna larghezza di banda per consentire un rapido trasferimento.
Il dispositivo dotato di un processo di firma digitale permette di autenticare i documenti digitali. Il processo di firma può riguardare documenti presenti nel sistema di interazione o presenti nella memoria interna al dispositivo. I documenti firmati possono essere memorizzati nella memoria interna al dispositivo o trasmessi. L’implementazione del processo di firma all’interno del dispositivo permette di ridurre se non di eliminare le vulnerabilità legate alla possibilità che la firma sia applicata a determinati documenti senza che l’utente ne sia consapevole. Il processo di firma digitale generalmente richiede uno slot per l’inserimento di una smart card.
Il dispositivo dotato di processo di riconoscimento o autenticazione dell’utilizzatore garantisce la riservatezza dei contenuti salvati nella memoria interna se presente, permette l’utilizzo esclusivo da parte del proprietario del processo di firma digitale se presente (i dati di autenticazione devono essere presenti nella smart card o ad essa esclusivamente associati in fase di setup), consente di utilizzare il dispositivo come chiave per l’accesso autenticato ai sistemi con cui si interagisce. In particolare risulta molto vantaggioso utilizzare un processo di autenticazione biometrico, sfruttando il sistema ottico del dispositivo. Ad esempio, à ̈ possibile fondare il processo sul rilevamento dell’impronta digitale ottenuto attraverso il semplice passaggio del puntatore del dispositivo sul dito dell’utilizzatore. Le informazioni biometriche associate all’utilizzatore possono inoltre essere utilizzate per codificare/firmare i contenuti digitali nei modi descritti nel precedente paragrafo.
Il dispositivo esegue, il più possibile, al proprio interno tutti i processi di elaborazione: riconoscimento dello schermo e del sistema a questi associato, determinazione della posizione assoluta, determinazione dei movimenti, rilevamento e gestione dei comandi, memorizzazione, firma digitale, autenticazione dell’utilizzatore, ecc. al fine di essere indipendente dal sistema con cui interagisce.
Il dispositivo dotato di sistema di ricarica senza fili della batteria interna à ̈ pensato, in linea con la filosofia generale dell’invenzione, per ridurre al minimo e facilitare i compiti dell’utilizzatore.
Il gruppo ottico concentrato nella punta del dispositivo hardware garantisce che vi sia sempre una connessione tra l’immagine dell’oggetto da rilevare (schermo a griglia di pixel), il puntatore e il rilevatore. Inoltre offre il vantaggio di avere il puntatore sempre nel campo visuale di ingresso, di distinguere con più facilità la griglia fra pixel dello schermo, di ridurre la copertura del campo di vista generata dalla mano dell’utilizzatore e di permettere il rilevamento dei cursori visualizzati nell’intorno del punto in cui si trova il puntatore.

Claims (1)

  1. RIVENDICAZIONI [1] Dispositivo di interazione con sistemi con schermo/i a griglia di pixel che comprende: a) gruppo ottico omnidirezionale definito per catturate l’immagine di una superficie limitata e in particolare di uno schermo a griglia di pixel, in ogni condizione di impiego variabile per: prossimità tra gruppo ottico e superficie dello schermo, inclinazione dell’asse ottico rispetto alla superficie dello schermo, rotazione del gruppo ottico sul proprio asse e posizione del gruppo ottico rispetto alla superficie dello schermo; b) gruppo ottico e sensore video dimensionati con risoluzione tale da permettere di distinguere la griglia fra pixel di uno schermo a griglia di pixel nell’intorno del puntatore del dispositivo hardware, in ogni condizione di impiego variabile per: prossimità tra gruppo ottico e superficie dello schermo, inclinazione dell’asse ottico rispetto alla superficie dello schermo, rotazione del gruppo ottico sul proprio asse e posizione del gruppo ottico rispetto alla superficie dello schermo; c) gruppo ottico concentrato nella punta del dispositivo ovvero nella parte a cui appartiene il puntatore, cioà ̈ il punto del dispositivo a cui à ̈ associata la posizione dello stesso rispetto alla superficie limitata; d) processo di determinazione della posizione assoluta del puntatore del dispositivo hardware rispetto alla superficie dello schermo a griglia di pixel basato sulla misura della distanza vettoriale tra le posizioni, nell’immagine rilevata dal sensore, del puntatore del dispositivo hardware e di almeno una caratteristica (statica o dinamica) di cui à ̈ nota la posizione rispetto allo schermo e da quest’ultimo prodotta, quale in particolare il bordo dello schermo; e) processo di misura della distanza tra le posizioni del puntatore del dispositivo hardware e di una caratteristica (statica o dinamica) di cui à ̈ nota la posizione rispetto allo schermo e da quest’ultimo prodotta basato sul conteggio, ponderato in base alla caratteristica ingresso uscita del gruppo ottico e ai livelli di prossimità e inclinazione calcolati, dei pixel verticali e orizzontali (pixel del sensore) che separano i due oggetti nell’immagine rilevata; f) processo di determinazione dei livelli di prossimità e inclinazione del gruppo ottico rispetto alla superficie dello schermo a griglia di pixel basato sull’analisi degli effetti da essi prodotti nell’immagine rilevata della griglia fra pixel. g) processo di riconoscimento univoco di uno schermo a griglia di pixel rispetto ad altri schermi a griglia di pixel o ad altre superfici basato sul rilevamento e il riconoscimento di caratteristiche statiche o dinamiche ad alto valore distintivo, quale in particolare la griglia fra pixel, od uniche, eventualmente opportunamente stabilite e visualizzate; [2] Dispositivo secondo la rivendicazione 1 caratterizzato processo di creazione, riconoscimento e gestione di accoppiamenti univoci in contesti con connessioni contemporanee con più sistemi ad interfaccia grafica con schermi a griglia di pixel. [3] Dispositivo di puntamento secondo la rivendicazione 1, caratterizzato da processo di misura della distanza tra le posizioni del puntatore del dispositivo hardware e di una caratteristica (statica o dinamica) di cui à ̈ nota la posizione rispetto allo schermo e da quest’ultimo prodotta basato sul riconoscimento e il conteggio dei pixel verticali e orizzontali dello schermo che separano i due oggetti nell’immagine rilevata. [4] Dispositivo secondo la rivendicazione 1 caratterizzato da processo di correzione per retroazione della misura di posizione del puntatore del dispositivo hardware rispetto allo schermo a griglia di pixel di riferimento, in cui la retroazione avviene misurando la distanza tra un elemento grafico visualizzato nel punto corrispondente al risultato di posizione ottenuto e il puntatore del dispositivo hardware. [5] Dispositivo secondo la rivendicazione 1 caratterizzato da processo di eliminazione per retroazione delle ambiguità del risultato di posizione del puntatore del dispositivo hardware rispetto schermo a griglia di pixel di riferimento: la retroazione avviene visualizzando nei punti dello schermo corrispondenti ai possibili risultati di posizione elementi grafici tra loro univocamente distinguibili temporalmente o graficamente e verificando quale tra essi à ̈ rilevato dal dispositivo. [6] Dispositivo secondo la rivendicazione 1 caratterizzato da gruppo ottico e sensore in grado di rilevare l’immagine dei subpixel in ogni condizione di utilizzo prevista e da processo di determinazione dell’orientamento (dovuto alla rotazione sull’asse ottico) del dispositivo hardware rispetto allo schermo basato sulla determinazione dell’orientamento dell’immagine delle sequenze di subpixel rispetto ai riferimenti del sensore. [7] Dispositivo secondo la rivendicazione 1 caratterizzato da memoria interna non volatile per la memorizzazione delle informazioni. [8] Dispositivo secondo la rivendicazione 1 che implementa la struttura e il processo per la firma digitale delle informazioni. [9] Dispositivo secondo la rivendicazione 1 che implementa la struttura e il processo per il riconoscimento/autenticazione univoco dell’utilizzatore sia verso l’invenzione che verso l’esterno. [10] Dispositivo secondo la rivendicazione 1 caratterizzato da sistema di comunicazione wireless. [11] Dispositivo secondo la rivendicazione 1 caratterizzato da sistema wireless di alimentazione o ricarica della batteria.
ITMN2009A000001A 2009-01-14 2009-01-14 Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel IT1396229B1 (it)

Priority Applications (4)

Application Number Priority Date Filing Date Title
ITMN2009A000001A IT1396229B1 (it) 2009-01-14 2009-01-14 Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel
US13/140,975 US20110254813A1 (en) 2009-01-14 2010-01-13 Pointing device, graphic interface and process implementing the said device
CN201080004864.0A CN102282530A (zh) 2009-01-14 2010-01-13 指示设备,运行该设备的图形界面和方法
PCT/IT2010/000005 WO2010082226A1 (en) 2009-01-14 2010-01-13 Pointing device, graphic interface and process implementing the said device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITMN2009A000001A IT1396229B1 (it) 2009-01-14 2009-01-14 Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel

Publications (2)

Publication Number Publication Date
ITMN20090001A1 true ITMN20090001A1 (it) 2010-07-15
IT1396229B1 IT1396229B1 (it) 2012-11-16

Family

ID=40902653

Family Applications (1)

Application Number Title Priority Date Filing Date
ITMN2009A000001A IT1396229B1 (it) 2009-01-14 2009-01-14 Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel

Country Status (4)

Country Link
US (1) US20110254813A1 (it)
CN (1) CN102282530A (it)
IT (1) IT1396229B1 (it)
WO (1) WO2010082226A1 (it)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9055162B2 (en) * 2011-02-15 2015-06-09 Lg Electronics Inc. Method of transmitting and receiving data, display device and mobile terminal using the same
KR20130006165A (ko) * 2011-07-08 2013-01-16 삼성전자주식회사 터치 인식 방법 및 이를 적용한 디스플레이 시스템
CN104246673A (zh) * 2012-04-26 2014-12-24 松下电器产业株式会社 显示控制***、显示装置以及显示面板
GB201300031D0 (en) 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
CN105706027B (zh) * 2013-10-24 2019-02-05 朱春生 掌控输入装置
CN106796462B (zh) * 2014-08-05 2020-09-04 惠普发展公司,有限责任合伙企业 确定输入对象的位置
CN104571864A (zh) * 2015-01-06 2015-04-29 上海卓悠网络科技有限公司 一种关闭应用的方法及终端
CN107450882B (zh) * 2017-07-17 2020-11-20 深圳中泰智丰物联网科技有限公司 一种调节声音响度的方法、装置及存储介质
CN111507811A (zh) * 2020-06-14 2020-08-07 支付宝(杭州)信息技术有限公司 基于区块链的租赁处理方法、装置、设备及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006135241A1 (en) * 2004-11-12 2006-12-21 New Index As Visual system
GB2440921A (en) * 2006-07-31 2008-02-20 Hewlett Packard Development Co A digital pen incorporating an orientation and position sensor and a display projector
WO2008065601A2 (en) * 2006-11-27 2008-06-05 Koninklijke Philips Electronics N.V. 3d control of data processing through handheld pointing device
WO2008118085A2 (en) * 2007-03-28 2008-10-02 Anoto Ab Optical component for a camera pen
EP1983406A1 (de) * 2007-04-20 2008-10-22 Enwemedia GMBH Verfahren und Vorrichtung zur Eingabe von Daten in eine Datenverarbeitungsanlage

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3775406B2 (ja) * 2003-09-22 2006-05-17 ブラザー工業株式会社 記録装置および往復記録位置調整方法
US20050162384A1 (en) * 2004-01-28 2005-07-28 Fujinon Corporation Pointing device, method for displaying point image, and program therefor
US8203530B2 (en) * 2007-04-24 2012-06-19 Kuo-Ching Chiang Method of controlling virtual object by user's figure or finger motion for electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006135241A1 (en) * 2004-11-12 2006-12-21 New Index As Visual system
GB2440921A (en) * 2006-07-31 2008-02-20 Hewlett Packard Development Co A digital pen incorporating an orientation and position sensor and a display projector
WO2008065601A2 (en) * 2006-11-27 2008-06-05 Koninklijke Philips Electronics N.V. 3d control of data processing through handheld pointing device
WO2008118085A2 (en) * 2007-03-28 2008-10-02 Anoto Ab Optical component for a camera pen
EP1983406A1 (de) * 2007-04-20 2008-10-22 Enwemedia GMBH Verfahren und Vorrichtung zur Eingabe von Daten in eine Datenverarbeitungsanlage

Also Published As

Publication number Publication date
CN102282530A (zh) 2011-12-14
WO2010082226A1 (en) 2010-07-22
US20110254813A1 (en) 2011-10-20
IT1396229B1 (it) 2012-11-16

Similar Documents

Publication Publication Date Title
ITMN20090001A1 (it) Dispositivo ottico di interazione con sistemi ad interfaccia grafica con schermo a griglia di pixel
CN102799318B (zh) 一种基于双目立体视觉的人机交互方法及***
JP6027328B2 (ja) ディスプレイ装置及びそのオブジェクト表示方法
TWI454993B (zh) 以成像元件為主之觸控系統
US20150244911A1 (en) System and method for human computer interaction
CN102163108B (zh) 多触摸点识别方法及装置
TW202009653A (zh) 指向判斷系統以及指向判斷方法
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
US9582127B2 (en) Large feature biometrics using capacitive touchscreens
CN104081307A (zh) 图像处理装置、图像处理方法和程序
KR101944459B1 (ko) 정보 처리 시스템 및 프로그램, 서버, 단말, 그리고 매체
US20130285957A1 (en) Display device and method using a plurality of display panels
CN102184056B (zh) 多触摸点识别方法及装置
CN105408845A (zh) 用于与电子和/或计算机设备无接触式交互的装置、以及配备有该装置的设备
CN103460165A (zh) 使用位于两个面对侧的红外装置阵列的红外触摸屏装置
CN206363280U (zh) 具有指纹识别功能的显示屏及终端
CN103905865A (zh) 一种可触控的智能电视及其实现触控的方法
CN102622140B (zh) 一种摄像式多点触摸***
CN102184054B (zh) 多触摸点识别方法及装置
CN105074634B (zh) 电子设备和信息处理***
CN112912931A (zh) 对使用近红外照明器的多个相机的自动校准
KR101137003B1 (ko) 카메라 센서를 장착한 터치 스크린의 터치 동작 방법
CN103064603B (zh) 电子装置及控制其解除锁定状态的方法
CN101907955B (zh) 光学式触控面板
CN104516184A (zh) 触控投影***及其方法