ITRM20070526A1 - PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES - Google Patents

PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES Download PDF

Info

Publication number
ITRM20070526A1
ITRM20070526A1 IT000526A ITRM20070526A ITRM20070526A1 IT RM20070526 A1 ITRM20070526 A1 IT RM20070526A1 IT 000526 A IT000526 A IT 000526A IT RM20070526 A ITRM20070526 A IT RM20070526A IT RM20070526 A1 ITRM20070526 A1 IT RM20070526A1
Authority
IT
Italy
Prior art keywords
image
point
eye
observer
cameras
Prior art date
Application number
IT000526A
Other languages
Italian (it)
Inventor
Anna Belardinelli
Andrea Carbone
Ardizzone Fiora Pirri
Original Assignee
Univ Roma
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Roma filed Critical Univ Roma
Priority to IT000526A priority Critical patent/ITRM20070526A1/en
Priority to PCT/EP2008/063277 priority patent/WO2009043927A1/en
Publication of ITRM20070526A1 publication Critical patent/ITRM20070526A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Description

DESCRIZIONE DESCRIPTION

dell’invenzione industriale dal titolo: “Apparato di acquisizione ed elaborazione delle informazioni relative ad attività oculari umane” of the industrial invention entitled: "Apparatus for acquiring and processing information relating to human eye activities"

Campo dell’invenzione Field of the invention

La presente invenzione si riferisce al campo degli apparati per il tracciamento delle attività attentive dell’uomo ai fini dell’addestramento di robot. The present invention refers to the field of equipment for tracking human attentional activities for the purpose of training robots.

Stato della tecnica State of the art

Si conoscono sistemi per lo studio dei comportamenti visivi in ambienti reali e per il tracciamento dello sguardo. Systems are known for the study of visual behaviors in real environments and for gaze tracking.

Alcuni si avvalgono di dati di profondità, altri degli angoli di rotazione della testa, altri si limitano a tracciare i movimenti oculari, solitamente per movimenti limitati e con soggetti seduti e/o posizionati davanti a schermi, per cui non è necessaria un’informazione di distanza. Some use depth data, others the angles of rotation of the head, others limit themselves to tracking eye movements, usually for limited movements and with subjects seated and / or positioned in front of screens, for which no specific information is required. distance.

La scena viene normalmente ripresa tramite una o più telecamere, solidali con il capo dell’osservatore. The scene is normally filmed through one or more cameras, in solidarity with the observer's head.

E’ necessario, sempre e comunque, includere i movimenti della testa per tenere conto dei meccanismi attentivi originati da fattori non inclusi nel campo di vista dell’osservatore e/o della eventuale telecamera, come eventuali stimoli acustici. It is always necessary to include head movements to take into account the attentional mechanisms originating from factors not included in the field of view of the observer and / or any camera, such as any acoustic stimuli.

Alcuni sistemi noti posizionano la telecamera il più vicino possibile all’occhio, cioè al suo campo di vista, per rendere il punto di ripresa coincidente con quello di vista dell’osservatore. Some known systems position the camera as close as possible to the eye, i.e. its field of view, to make the point of view coincide with that of the observer.

E’ noto apparato dotato di una telecamera che punta ad un solo occhio, illuminato da uno o più LED a infrarossi (IR), di un computer portatile per l’elaborazione dei dati immagine, e di un display esterno, fissato o meno al casco che sorregge i sensori. Manca, dunque, il tracciamento dei movimenti della testa e la presenza di una telecamera atta ad acquisire una visione della scena osservata e il tracciamento anche del secondo occhio. Tale apparato prevede una procedura di calibrazione basata su tecniche di “image processing” con le quali, estratta la regione della pupilla, ne viene calcolato il centro per poi riproiettarlo su un display posto davanti ad uno degli occhi dell’utente. Tale procedura di calibrazione, alla base del mapping tra le coordinate immagine dei frame dell’occhio e le coordinate sullo schermo, è basata sul calcolo dei coefficienti di due funzioni polinomiali del terzo ordine fissando N punti a locazioni fissate su uno schermo. Apparatus equipped with a camera that points to one eye only, illuminated by one or more infrared (IR) LEDs, a laptop for processing image data, and an external display, whether or not fixed to the helmet, is known. that holds the sensors. Therefore, the tracking of the movements of the head and the presence of a camera capable of acquiring a vision of the observed scene and the tracking of the second eye are missing. This device provides a calibration procedure based on "image processing" techniques with which, after extracting the pupil region, its center is calculated and then reprojected on a display placed in front of one of the user's eyes. This calibration procedure, at the basis of the mapping between the image coordinates of the eye frames and the coordinates on the screen, is based on the calculation of the coefficients of two third-order polynomial functions by fixing N points at fixed locations on a screen.

Un altro apparato noto è formato da due telecamere rivolte alla scena e quindi può determinare effettivamente il punto di fissazione. Questo è però ottenuto con un complesso sistema motorizzato formato da giunti cardanici (gimbal) che fanno girare le telecamere ai lati degli occhi in modo da renderle parallele all’asse ottico di ciascun occhio. La direzione dell’asse degli occhi, illuminati da LED IR, è riflessa su specchi dicroici ripresi da altre due telecamere, per l’asservimento delle telecamere sulla scena. La complessità di tale apparato si riflette negativamente sul peso dello stesso che lo rende ingombrante e scomodo per l’osservatore. Another known apparatus consists of two cameras aimed at the scene and therefore can actually determine the fixation point. However, this is achieved with a complex motorized system consisting of cardan joints (gimbals) that make the cameras turn on the sides of the eyes so as to make them parallel to the optical axis of each eye. The direction of the axis of the eyes, illuminated by IR LEDs, is reflected on dichroic mirrors filmed by two other cameras, for the enslavement of the cameras on the scene. The complexity of this apparatus negatively affects its weight which makes it bulky and uncomfortable for the observer.

Un altro apparato, ancora, si basa anch’esso su un sistema indossabile per il tracciamento dello sguardo. Esso comprende una microcamera CCD dedicata alla ripresa delle immagini dell’occhio mentre una è rivolta alla scena. Le coordinate del centro della pupilla vengono estratte tramite un programma di riconoscimento di immagini. Il metodo su cui si basa prevede una calibrazione su fissazione di punti predeterminati in numero compreso tra 25 e 100 e determina automaticamente la funzione di mapping tra le due camere come una funzione di correlazione adattata tramite regressione quadratica. Una forma di compressione e classificazione delle sequenze viene svolta categorizzando i punti di fissazione. Yet another device is also based on a wearable gaze tracking system. It includes a CCD micro camera dedicated to taking images of the eye while one is aimed at the scene. The coordinates of the pupil center are extracted by an image recognition program. The method on which it is based foresees a calibration on the fixation of predetermined points in number between 25 and 100 and automatically determines the mapping function between the two cameras as a correlation function adapted through quadratic regression. A form of compression and classification of sequences is done by categorizing the fixation points.

Dunque, risulta alquanto laboriosa la calibrazione e modesta la precisione nella determinazione del punto guardato anche se l’occhio non sta fissando, denominato anche “point of regard”. Therefore, the calibration is somewhat laborious and the accuracy in determining the point looked at is modest even if the eye is not staring, also called "point of regard".

Altri apparati ancora, rilevano i movimenti della testa a mezzo di trasponder magnetici fissi, oppure riprendendo con una telecamera l’osservatore, rendendo vincolante per lo stesso l’ambito di operatività. Still other devices detect the movements of the head by means of fixed magnetic transponders, or by filming the observer with a camera, making the scope of operation binding for the same.

Quindi, gli apparati forniti dalla tecnica nota non sono in grado di tracciare contemporaneamente i movimenti oculari e della testa dell’osservatore e utilizzano architetture, spesso, ingombranti e complesse. Therefore, the apparatuses provided by the known art are not able to simultaneously track the eye and head movements of the observer and use often bulky and complex architectures.

Sommario dell’invenzione Summary of the invention

Scopo della presente invenzione è di risolvere i problemi suesposti fornendo un apparato, denominato di seguito per brevità “gaze machine”, per lo studio della dinamica di puntamento dello sguardo, che automaticamente acquisisce, processa e memorizza dati relativi ai movimenti di occhi e testa di un osservatore, pur restando leggero, preciso e affidabile. The purpose of the present invention is to solve the aforementioned problems by providing an apparatus, hereinafter referred to as "gaze machine", for the study of the gaze pointing dynamics, which automatically acquires, processes and stores data relating to the movements of the eyes and head of an observer, while remaining light, precise and reliable.

La presente invenzione, pertanto, si propone di raggiungere gli scopi sopra discussi realizzando un apparato di acquisizione ed elaborazione delle informazioni relative ad attività oculari umane, conformemente alla rivendicazione 1, e comprendente: The present invention, therefore, aims to achieve the objects discussed above by realizing an apparatus for acquiring and processing information relating to human eye activities, in accordance with claim 1, and comprising:

- una o più telecamere atte a riprendere in stereoscopia la medesima scena osservata da un osservatore; - one or more cameras suitable for recording the same scene observed by an observer in stereoscopy;

- una o più microcamere atte a riprendere gli occhi dell’osservatore; - one or more micro-cameras designed to capture the observer's eyes;

- almeno un led IR illuminante ciascun occhio; - at least one IR LED illuminating each eye;

- una piattaforma inerziale; - an inertial platform;

- una imbracatura atta ad aggrapparsi stabilmente al capo dell’osservatore, su cui sono montate stabilmente detta una o più telecamere, detta una o più microcamere e detta piattaforma inerziale; - a harness designed to cling stably to the observer's head, on which one or more cameras, one or more micro-cameras and said inertial platform are stably mounted;

- mezzi di elaborazione di dati atti a realizzare strutture di dati contenenti le informazioni generate da detta una o più microcamere, da detta una o più telecamere e da detta piattaforma inerziale; - data processing means suitable for creating data structures containing the information generated by said one or more micro-cameras, by said one or more cameras and by said inertial platform;

- mezzi di rice-trasmissione di detti dati. - means for receiving-transmission of said data.

Secondo un altro aspetto dell’invenzione detto apparato trova applicazione quando i dati da esso ottenuti vengono utilizzati da una piattaforma robotica in modo da replicare l’attività di osservazione di un osservatore per imitazione. Vantaggiosamente, l’apparato oggetto del presente trovato, consente di rilevare sia la velocità dello sguardo nella scena, sia la profondità del punto di fissazione osservato, e tracciare i movimenti operati dagli occhi mentre l’osservatore svolge altre attività senso-motorie, ad esempio camminando, manipolando oggetti, e comunque in ambienti dinamici. According to another aspect of the invention, said apparatus finds application when the data obtained from it are used by a robotic platform in order to replicate the observation activity of an observer by imitation. Advantageously, the apparatus of the present invention allows to detect both the speed of the gaze in the scene and the depth of the observed fixation point, and to trace the movements operated by the eyes while the observer carries out other sensorimotor activities, for example walking, manipulating objects, and in any case in dynamic environments.

In particolare, il tracciamento dei movimenti della testa è svolta tramite sensoristica inerziale che, data la leggerezza, consente libertà di movimento e precisione dei dati, così da evitare di riprendere l’osservatore con una microcamera esterna o di disporre di un transponder magnetico fisso per stimare l’orientazione della testa. In particular, the tracking of the movements of the head is carried out through inertial sensors which, given the lightness, allows freedom of movement and precision of the data, so as to avoid filming the observer with an external micro-camera or having a fixed magnetic transponder for estimate the orientation of the head.

Le rivendicazioni dipendenti descrivono realizzazioni preferite dell’invenzione. Breve descrizione delle Figure The dependent claims describe preferred embodiments of the invention. Brief description of the Figures

Ulteriori caratteristiche e vantaggi dell’invenzione risulteranno maggiormente evidenti alla luce della descrizione dettagliata di una forma di realizzazione preferita, ma non esclusiva, di un apparato di acquisizione ed elaborazione delle attività oculari umane, illustrato a titolo esemplificativo e non limitativo, con l’ausilio delle unite tavole di disegno in cui: Further characteristics and advantages of the invention will become more evident in the light of the detailed description of a preferred but not exclusive embodiment of an apparatus for the acquisition and processing of human ocular activities, illustrated by way of non-limiting example, with the aid of the joined drawing tables in which:

la Fig.1 raffigura una vista laterale di una gaze machine secondo l’invenzione; la Fig.2 raffigura una vista frontale relativa alla precedente; Fig.1 depicts a side view of a gaze machine according to the invention; Fig.2 shows a front view relative to the previous one;

la Fig. 3 raffigura una pupilla illuminata con la proiezione di un’immagine di Purkinje; Fig. 3 depicts an illuminated pupil with the projection of an image of Purkinje;

la Fig.4a raffigura la rappresentazione semplificata dell’occhio di Le Grand e la Fig. 4b raffigura i possibili casi di riflessioni delle immagini di Purkinje; Fig.4a depicts the simplified representation of Le Grand's eye and Fig. 4b depicts the possible cases of reflections of the Purkinje images;

la Fig. 5 rappresenta la successione di elaborazioni compiute sull’immagine dell’occhio al fine di individuarne la pupilla; Fig. 5 represents the succession of processing carried out on the image of the eye in order to identify the pupil;

la Fig. 6 illustra il calcolo del centro della pupilla CPt, in una sequenza di due frame. Nella sequenza, la figura inferiore illustra l'immagine dell'occhio filtrata, e quella superiore indica l'immagine saturata. Nell'immagine superiore si apprezzano, oltre al centro della pupilla i vettori che corrispondono alla linea di vista e alla congiungente l'immagine Purkinje e la linea di vista; Fig. 6 illustrates the calculation of the pupil center CPt, in a sequence of two frames. In the sequence, the lower figure illustrates the filtered eye image, and the upper one indicates the saturated image. In the upper image, in addition to the center of the pupil, the vectors corresponding to the line of sight and to the line joining the Purkinje image and the line of sight are appreciated;

la Fig. 7 rappresenta un modello di calibrazione utile all’individuazione di una funzione di corrispondenza tra le coordinate dei centri delle pupille, così come viste in più frame da una microcamera che inquadra gli occhi, e quelle delle corrispondenti immagini-scena riprese da una coppia di telecamere; Fig. 7 represents a calibration model useful for identifying a function of correspondence between the coordinates of the centers of the pupils, as well as views in several frames from a micro camera that frames the eyes, and those of the corresponding scene-images taken from a pair of cameras;

la Fig.8 rappresenta le trasformazioni che devono essere effettuate per ottenere la proiezione di un punto della scena sull’occhio e sulla camera che lo inquadra; Fig.8 represents the transformations that must be carried out to obtain the projection of a point of the scene on the eye and on the camera that frames it;

la Fig. 9 illustra schematicamente, la visione di un punto da parte di un osservatore, condiviso da una piattaforma robotica; Fig. 9 schematically illustrates the vision of a point by an observer, shared by a robotic platform;

la Fig.10 rappresenta uno schema di una composizione vettoriale propedeutica alla predisposizione delle trasformazioni tra il sistema di riferimento dell’apparato e il sistema di riferimento di una piattaforma robotica istruenda; la Fig. 11 riporta un diagramma di flusso riferito ad un metodo di elaborazione delle informazioni acquisite dalla gaze machine; Fig. 10 represents a diagram of a vector composition preparatory to the preparation of the transformations between the reference system of the apparatus and the reference system of a robotic platform instruenda; Fig. 11 shows a flow diagram referring to a method of processing the information acquired by the gaze machine;

la Fig. 12 riporta una realizzazione preferita di dispositivo munito di una microcamera per ciascun occhio. Fig. 12 shows a preferred embodiment of a device equipped with a micro-camera for each eye.

Descrizione in dettaglio di una forma di realizzazione preferita dell’invenzione Una realizzazione preferita dell’apparato comprende una gaze machine ed una piattaforma robotica atta ad ricevere i dati trasmessi da detta gaze machine allo scopo di allinearsi sul medesimo punto di osservazione dell’osservatore a fini addestrativi della medesima piattaforma robotica. Detailed description of a preferred embodiment of the invention A preferred embodiment of the apparatus comprises a gaze machine and a robotic platform suitable for receiving the data transmitted by said gaze machine in order to align itself on the same observation point of the observer for purposes training of the same robotic platform.

In particolare una realizzazione preferita della gaze machine comprende un casco munito di piattaforma inerziale 9, due telecamere 8, almeno una microcamera 6, due led 7 ad infrarossi, uno per ciascun occhio, mezzi di elaborazione e di trasmissione dei dati. In particular, a preferred embodiment of the gaze machine comprises a helmet equipped with an inertial platform 9, two cameras 8, at least one micro-camera 6, two infrared LEDs 7, one for each eye, data processing and transmission means.

Inoltre, detto casco definente l’imbracatura del capo dell’osservatore è munito di mezzi di regolazione per meglio adattarsi ad esso. Furthermore, said helmet defining the harness of the observer's head is equipped with adjustment means to better adapt to it.

In particolare, tali mezzi comprendono una ghiera 4 e cuscinetti 5 posizionati in corrispondenza della nuca. In particular, these means comprise a ring nut 4 and bearings 5 positioned at the nape of the neck.

Al casco 1 è connesso un braccetto 2 orientabile a mezzo di snodi 3, atto a sorreggere la/le microcamere. Si preferisce tale braccetto in carbonio, per essere rigido e leggero al tempo stesso. Connected to the helmet 1 is an arm 2 which can be rotated by means of joints 3, suitable for supporting the micro camera (s). This carbon arm is preferred, to be rigid and light at the same time.

Detta almeno una microcamera 6 è in tecnologia CMOS e montata su un sostegno rigido 5. Said at least one micro-camera 6 is in CMOS technology and mounted on a rigid support 5.

Poiché la tecnologia CMOS è sensibile agli infrarossi sono presenti ai lati della microcamera, sorretti da altrettanti supporti 5, almeno una coppia di led ad infrarossi 7, atti ad illuminare gli occhi dell’osservatore. Since CMOS technology is sensitive to infrared, there are at least one pair of infrared LEDs 7 on the sides of the micro-camera, supported by as many supports 5, designed to illuminate the observer's eyes.

L’uso di detti led ad infrarossi 7 consente di aumentare il contrasto fra la pupilla, zona centrale dell’iride e la sclera. In particolare, l’asse ottico della microcamera e l’asse di emissione dei led ad infrarossi 7 sono volutamente non allineati in modo da favorire la manifestazione dell’effetto, denominato black-pupil, secondo cui la pupilla appare di un colore nero intenso, aumentando il contrasto rispetto alla regione circostante all’iride. The use of said infrared LEDs 7 allows to increase the contrast between the pupil, the central area of the iris and the sclera. In particular, the optical axis of the micro-camera and the emission axis of the infrared LEDs 7 are deliberately not aligned in order to favor the manifestation of the effect, called black-pupil, according to which the pupil appears of an intense black color, increasing the contrast with respect to the region surrounding the iris.

In una realizzazione preferita viene usata una microcamera 6 ed un led ad infrarossi 7 per ciascun occhio. In a preferred embodiment, a micro-camera 6 and an infrared LED 7 are used for each eye.

In un’altra realizzazione preferita, l’unica microcamera è posizionata centralmente in modo da riprendere entrambi gli occhi contemporaneamente. Questa soluzione, ad unica microcamera, consente di determinare con precisione la vergenza delle pupille, in un’unica immagine, e il punto esatto su cui converge lo sguardo. Questo perché il punto di osservazione delle telecamere sulla scena non può mai essere esattamente sovrapposto a quello dell’utente, quindi la proiezione di un solo occhio determina una linea di possibili punti di fissazione, come illustrato più dettagliatamente nel seguito. In another preferred embodiment, the single micro camera is centrally positioned so as to record both eyes at the same time. This solution, with a single micro camera, allows you to accurately determine the vergence of the pupils, in a single image, and the exact point on which the gaze converges. This is because the observation point of the cameras on the scene can never be exactly superimposed on that of the user, so the projection of a single eye determines a line of possible fixation points, as illustrated in more detail below.

La piattaforma inerziale 9 è un cosiddetto motion tracker, che permette di rilevare gli angoli assoluti di rotazione della testa su almeno 3 gradi di libertà. Detta piattaforma inerziale 9 è solidale con detto casco 1 a mezzo di un supporto 10. The inertial platform 9 is a so-called motion tracker, which makes it possible to detect the absolute angles of rotation of the head over at least 3 degrees of freedom. Said inertial platform 9 is integral with said helmet 1 by means of a support 10.

Si preferisce l’utilizzo di una coppia di telecamere 8 atte a realizzare una ripresa stereoscopica della medesima scena fissata dall’osservatore. We prefer to use a pair of cameras 8 designed to create a stereoscopic shot of the same scene fixed by the observer.

Il metodo di acquisizione ed elaborazione delle informazioni viene esplicitato con l’aiuto della figura 11, comprendente i seguenti passi: The method of acquiring and processing information is explained with the help of Figure 11, including the following steps:

- acquisizione dell’immagine della scena e dell’immagine degli occhi; - acquisition of the image of the scene and the image of the eyes;

- identificazione della pupilla ed identificazione del suo centro; - identification of the pupil and identification of its center;

- proiezione del punto di fissazione degli occhi sull’immagine della scena; - memorizzazione in un’unica struttura di dati delle immagini ricavate al passo precedente insieme alle informazioni riguardanti la posizione della testa; - trasmissione e ricezione di detti dati e trasformazione del punto osservato nelle coordinate di una piattaforma robot istruenda; - projection of the eye fixation point on the image of the scene; - storage in a single data structure of the images obtained in the previous step together with information regarding the position of the head; - transmission and reception of said data and transformation of the observed point into the coordinates of a robot platform;

- convergenza della testa definente detta piattaforma robotica sul punto di fissazione dell’osservatore. - convergence of the head defining said robotic platform on the observer's fixation point.

In particolare, le telecamere 8 della gaze machine, rivolte alla scena, consentono l’acquisizione di immagini RGB e range, tramite calcolo della disparità tra le due ottiche. Per ogni pixel di ogni frame sono pertanto disponibili i valori di intensità sui tre canali di colore e le coordinate mondo [X Y Z]<T>rispetto al punto di osservazione corrente. In particular, the cameras 8 of the gaze machine, aimed at the scene, allow the acquisition of RGB and range images, by calculating the disparity between the two optics. Therefore, for each pixel of each frame, the intensity values on the three color channels and the world coordinates [X Y Z] <T> with respect to the current observation point are available.

Al termine di ogni registrazione l’apparato, grazie a detti mezzi di elaborazione, genera vettori di strutture di dati, etichettate in relazione all’istante di acquisizione, comprendenti: At the end of each recording, the device, thanks to said processing means, generates vectors of data structures, labeled in relation to the time of acquisition, including:

- frame RGB relativi alla scena ripresa dalle telecamere; - RGB frames related to the scene shot by the cameras;

- la posizione del punto osservato proiettato sul frame espresso in coordinate di immagine (pixel); - the position of the observed point projected on the frame expressed in image coordinates (pixels);

- l’immagine di profondità corrispondente all’immagine a colori; - the depth image corresponding to the color image;

- l’orientamento della testa espresso in angoli di Eulero. - the orientation of the head expressed in Euler angles.

Quando la gaze machine viene adoperata da un osservatore fermo, per es., seduto, le posizioni dello sguardo lungo i frame della sequenza sono riferite ad un medesimo punto di vista, per cui possono essere ad composte in un unico sistema di riferimento globale, coincidente col sistema di riferimento solidale con la posizione dell’osservatore. In questo caso, è possibile determinare a mezzo di procedure note la direzione e velocità delle saccadi operate dall’osservatore rispetto alle coordinate globali riferite al sistema di riferimento con origine nella posizione dell’osservatore. When the gaze machine is used by a stationary observer, for example, seated, the positions of the gaze along the frames of the sequence refer to the same point of view, so they can be composed in a single, coincident global reference system. with the reference system integral with the observer's position. In this case, it is possible to determine by means of known procedures the direction and speed of the saccades operated by the observer with respect to the global coordinates referred to the reference system with origin in the observer's position.

I dati restituiti dalla gaze machine vengono trasmessi ad una piattaforma robotica, nota in sé, e da questa ulteriormente elaborati e utilizzati. The data returned by the gaze machine are transmitted to a robotic platform, known in itself, and further processed and used by it.

Una piattaforma robotica preferita è dotata di una camera stereoscopica ed equipaggiata con un’unità pan-tilt atta a replicare la postura della testa in termini di angoli di beccheggio e imbardata (pitch e yaw), acquisendo i dati forniti dalla gaze machine attraverso mezzi propri di rice-trasmissione di dati ed elaborandoli attraverso mezzi propri di elaborazione, atti ad operare trasformazioni rototraslazionali, dal sistema di riferimento dell’osservatore, definito globale, a quello proprio della piattaforma robotica, in modo che la piattaforma può replicare, in tempo reale, il processo di acquisizione operato dall’osservatore/tutor, condividendone il punto osservato. A preferred robotic platform is equipped with a stereoscopic camera and equipped with a pan-tilt unit designed to replicate the posture of the head in terms of pitch and yaw angles, acquiring the data provided by the gaze machine through its own means of receiving-transmission of data and processing them through its own processing means, able to operate rototranslational transformations, from the observer's reference system, defined as global, to that of the robotic platform, so that the platform can replicate, in real time, the acquisition process operated by the observer / tutor, sharing the point observed.

La trasmissione dei dati dall’apparato di acquisizione alla testa robotica è realizzata a mezzo di una connessione wireless, realizzata grazie a detti mezzi di comunicazione connessi con il computer, definente detti mezzi di elaborazione. I dati sono resi disponibili dalla gaze machine in tempo reale in modo che possono essere adoperati anche da più piattaforme robotiche e/o ulteriori sistemi di elaborazione. The transmission of data from the acquisition apparatus to the robotic head is carried out by means of a wireless connection, made thanks to said means of communication connected with the computer, defining said processing means. The data are made available by the gaze machine in real time so that they can also be used by multiple robotic platforms and / or further processing systems.

Di seguito viene illustrato un metodo, pure oggetto della presente invenzione, di identificazione della pupilla. A method, also object of the present invention, for identifying the pupil is illustrated below.

La pupilla, in ambienti dinamici, con condizioni di luce variabile, non presenta le classiche condizioni di distinzione dell’iride e della sclera come in ambienti interni in condizioni di luce stabile, come si vede dalla figura 3, in cui la pupilla è cancellata dal riflesso del cielo. The pupil, in dynamic environments, with variable light conditions, does not present the classic conditions of distinction of the iris and the sclera as in indoor environments in stable light conditions, as can be seen from figure 3, in which the pupil is canceled by the reflection of the sky.

Per risolvere il problema di identificazione della pupilla si ricorre al riflesso del led sull’occhio e alle immagini Purkinje che si generano per effetto di esso. Fra le quattro immagini Purkinje, come si vede dalla figura 4, soltanto la prima ha intensità massima quindi valori tra 245 e 255 in qualunque immagine, sia interna che esterna. To solve the problem of identifying the pupil, the reflection of the LED on the eye and the Purkinje images that are generated as a result of it are used. Among the four Purkinje images, as can be seen from figure 4, only the first has maximum intensity, therefore values between 245 and 255 in any image, both internal and external.

I led ad infrarossi sono posizionati a circa 15 cm dall’occhio nel sistema riferimento microcamera, posti lungo gli assi x e y, in modo da garantire che l’immagine Purkinje si posiziona entro il cerchio limbale dell’iride, anche per rotazioni dell’asse ottico fino a 30 gradi. The infrared LEDs are positioned about 15 cm from the eye in the micro-camera reference system, placed along the x and y axes, so as to ensure that the Purkinje image is positioned within the limbal circle of the iris, even for rotations of the optical axis up to 30 degrees.

Si denomina Lc il punto rappresentativo, sul piano immagine, della posizione di ciascun led ad infrarossi, cioè dove mantiene le caratteristiche di distinzione, come si vede nella figura 3. Lc is the representative point, on the image plane, of the position of each infrared LED, i.e. where it maintains the distinguishing characteristics, as seen in figure 3.

Per l’identificazione del centro della pupilla si identifica, quindi, principalmente l’immagine Purkinje I e quindi si calcolano le opportune trasformazioni come indicato in seguito. Non è necessaria la calibrazione del led, è solo necessario che nell’immagine dell’occhio, centrato rispetto alla microcamera, cioè che guarda nella direzione dell’obiettivo, l’immagine Purkinje I appare internamente alla pupilla, come si vede nel primo tipo di riflessione dell’immagine di Purkinje, vedi figura 4. For the identification of the center of the pupil, therefore, mainly the Purkinje I image is identified and then the appropriate transformations are calculated as indicated below. It is not necessary to calibrate the LED, it is only necessary that in the image of the eye, centered with respect to the micro-camera, that is, which looks in the direction of the lens, the Purkinje I image appears inside the pupil, as seen in the first type of reflection of the Purkinje image, see figure 4.

Il riflesso degli almeno 2 led tramite le immagini Purkinje dipende dalla posizione della microcamera CMOS rispetto agli occhi, che cambia ogni volta che si indossa la gaze machine, dalla curvatura della cornea e della fascia limbale tipica di ciascun individuo. The reflection of the at least 2 LEDs through the Purkinje images depends on the position of the CMOS microcamera with respect to the eyes, which changes every time the gaze machine is worn, on the curvature of the cornea and the limbal fascia typical of each individual.

Per individuare una funzione di corrispondenza tra le coordinate dei centri delle pupille, così come viste da una microcamera che inquadra gli occhi, e quelle dell’immagine-scena si fa ricorso ad una procedura di calibrazione che necessita di un certo numero di immagini di ciascun occhio in altrettante specifiche posizioni. To identify a function of correspondence between the coordinates of the centers of the pupils, as seen by a micro camera that frames the eyes, and those of the image-scene, a calibration procedure is used which requires a certain number of images of each eye in as many specific positions.

Al termine della procedura il metodo preferito di identificazione della pupilla comprende i seguenti passi: At the end of the procedure, the preferred method of pupil identification includes the following steps:

Macropasso 1: L’immagine dell’occhio inquadrata dalla microcamera, di dimensioni 130×220, viene tagliata ad un’immagine 130×130 pixel. L’immagine viene quindi saturata, si veda figura 5a, e filtrata, si veda figura 5b, con la derivata di un filtro Gaussiano di dimensioni 3 × 3 e varianza 0.28. Accade che se Ix rappresenta l’immagine trasformata, allora l’immagine Purkinje I é identificata dalla regione massimale di Ix che contiene punti minimali. Sia Pk la regione identificata. Macro-step 1: The image of the eye framed by the micro camera, with dimensions of 130 × 220, is cut to a 130 × 130 pixel image. The image is then saturated, see Figure 5a, and filtered, see Figure 5b, with the derivative of a Gaussian filter with dimensions 3 × 3 and variance 0.28. It happens that if Ix represents the transformed image, then the Purkinje image I is identified by the maximal region of Ix which contains minimal points. Let Pk be the identified region.

Macropasso 2: date M immagini dell’occhio che identificano rotazioni estremali lungo gli assi di rotazione come indicato in figura 5c, con M ≥ 8, si risolve il sistema Macro-step 2: given M images of the eye that identify extremal rotations along the rotation axes as indicated in Figure 5c, with M ≥ 8, the system is solved

x = [A<T>A]<−1>A<T>b x = [A <T> A] <−1> A <T> b

dove la matrice A è una matrice M×8 i cui elementi normalizzati sono: where matrix A is an M × 8 matrix whose normalized elements are:

- la posizione di Pktnell’immagine al frame t e la posizione Pkt+1nell’immagine al frame t 1, - the position of Pkt in the image at frame t and the position Pkt + 1 in the image at frame t 1,

- la posizione del centro della pupilla Cptnell’immagine al frame t; - the position of the center of the pupil Cpt in the image at frame t;

- la posizione del punto di intersezione fra la retta L1, che passa per Lc e Pkt; - la retta normale alla x dell’immagine e che passa per il centro della pupilla Cpt, denominato punto nodale N. - the position of the point of intersection between the straight line L1, which passes through Lc and Pkt; - the line normal to the x of the image and passing through the center of the pupil Cpt, called nodal point N.

Il vettore b, di dimensione M × 2, è costituito dai centri delle pupille Cpt+1nei frame t+1. Il vettore bidimensionale x, di dimensione 8 × 2, è il vettore dei coeffienti, l’mse (mean squared error) ottenuto dalla regressione stimata è inferiore a 20. The vector b, of dimension M × 2, is constituted by the centers of the pupils Cpt + 1 in the frame t + 1. The two-dimensional vector x, of size 8 × 2, is the vector of the coefficients, the mse (mean squared error) obtained from the estimated regression is less than 20.

Macropasso 3: dato il vettore dei coefficienti x, a ciascun passo di computazione si calcolano, per l’immagine corrente, i valori indicati in un’osservazione della matrice A, e si ottiene il vettore T i cui elementi sono appunto quelli di una osservazione della matrice A. Il prodotto interno [T] [x] restituisce una approssimazione del centro della pupilla, come si vede dalla figura 6 in cui la pupilla è in condizioni estremali e in fase saccadica. Macro-step 3: given the vector of the coefficients x, at each computation step, the values indicated in an observation of the matrix A are calculated for the current image, and the vector T is obtained, whose elements are precisely those of an observation of matrix A. The inner product [T] [x] gives an approximation of the center of the pupil, as seen from figure 6 in which the pupil is in extremal conditions and in the saccadic phase.

Le posizioni correnti Cpt+1, calcolate con Tx, e i valori Nt+1(punto nodale), e Pkt+1(immagine Purkinje del frame successivo), calcolati come indicato nel passo 2, vengono assegnate alle posizioni corrispondenti per il successivo passo di computazione. The current positions Cpt + 1, calculated with Tx, and the values Nt + 1 (nodal point), and Pkt + 1 (Purkinje image of the next frame), calculated as indicated in step 2, are assigned to the corresponding positions for the next step of computation.

Ad ogni ciclo, definito da detti tre passi di computazione, l’algoritmo fornisce, la posizione del centro della pupilla, la direzione e l’ampiezza dello spostamento rispetto all’immagine precedente. At each cycle, defined by these three computation steps, the algorithm provides the position of the center of the pupil, the direction and amplitude of the displacement with respect to the previous image.

Di seguito viene illustrata una procedura di calibrazione funzionale ad una procedura di identificazione della pupilla. A calibration procedure functional to a pupil identification procedure is illustrated below.

Il processo di calibrazione viene ripetuto ogni volta che un osservatore indossa la gaze machine in quanto la posizione relativa della gaze-machine rispetto agli occhi dell’osservatore influenza l’esito della procedura. The calibration process is repeated every time an observer wears the gaze machine as the relative position of the gaze-machine with respect to the observer's eyes influences the outcome of the procedure.

L’osservatore che indossa la gaze machine deve osservare una sequenza di punti distinguibili nello spazio, come quelli in figura 7. E’ necessario che ciascun punto sia visibile nella telecamera che inquadra la scena. A tal fine è necessario allestire un pattern di riferimento specifico per effettuare la calibrazione. Il pattern consiste in una griglia contenente un numero minimo di 7 riferimenti planari e non. Gli istanti che corrispondono a ciascuna fissazione sono selezionati direttamente dall’osservatore tramite un qualunque mezzo di interfaccia uomo/elaboratore, per es., a mezzo del tasto di una tastiera. The observer wearing the gaze machine must observe a sequence of points distinguishable in space, such as those in figure 7. Each point must be visible in the camera that frames the scene. For this purpose it is necessary to set up a specific reference pattern to perform the calibration. The pattern consists of a grid containing a minimum number of 7 planar and non-planar references. The instants that correspond to each fixation are selected directly by the observer through any human / computer interface means, for example, by means of a keyboard key.

Per ogni fissazione così eseguita, vengono salvate: For each fixation performed in this way, the following are saved:

a) le immagini dalle telecamere che inquadrano la scena; a) the images from the cameras framing the scene;

b) le immagine dei due occhi che stanno fissando il singolo riferimento. b) the images of the two eyes that are staring at the single reference.

Una volta collezionate le coppie riferimento/occhi, queste devono subire una serie le operazioni elencati di seguito, per effettuarsi la trasposizione del punto di osservazione sulla scena osservata: Once the reference / eye pairs have been collected, they must undergo a series of the operations listed below, to carry out the transposition of the observation point on the observed scene:

a) estrazione delle coordinate del centro della pupilla per ciascun occhio e coordinate del riferimento nell’immagine di scena corrispondente; a) extraction of the coordinates of the center of the pupil for each eye and coordinates of the reference in the corresponding scene image;

b) stima della funzione di mappatura del punto di fissazione tramite calcolo del tensore trifocale. b) estimation of the mapping function of the fixation point by calculating the trifocal tensor.

Dunque, riassumendo, la procedura di calibrazione preferita comprende i seguenti passi: So, in summary, the preferred calibration procedure includes the following steps:

- si allestisce un modello di riferimento con un numero n > 7 di riferimenti planari e non; - a reference model is prepared with a number n> 7 of planar and non-planar references;

- in un numero n di istanti l’osservatore fissa un riferimento e lo rileva a mezzo di una interfaccia; - in a number n of instants the observer sets a reference and detects it by means of an interface;

- si effettua l’estrazione delle coordinate del centro della pupilla per ciascun occhio e coordinate del riferimento nell’immagine di scena corrispondente; - the coordinates of the center of the pupil are extracted for each eye and the coordinates of the reference in the corresponding scene image;

- si stima la funzione di mappatura del punto di fissazione tramite calcolo di una matrice denominata tensore trifocale T. - the mapping function of the fixation point is estimated by calculating a matrix called trifocal tensor T.

Procedura di rototraslazione dal sistema di riferimento globale al sistema di riferimento della microcamera. Rototranslation procedure from the global reference system to the micro camera reference system.

Consideriamo due sistemi di riferimento: il sistema di riferimento dell’occhio, che si assume coincidente con il sistema di riferimento globale e il sistema di riferimento della microcamera che lo inquadra. Essi sono legati da una trasformazione rigida (R, t) in cui R è una matrice di rotazione 3x3 e t un vettore di traslazione (si veda la figura 8 per la calibrazione tra i due sistemi di riferimento). Le equazioni di proiezione di un punto P = (x, y, z) sull’occhio sono date da: Let's consider two reference systems: the eye reference system, which is assumed to coincide with the global reference system and the reference system of the micro camera that frames it. They are linked by a rigid transformation (R, t) in which R is a 3x3 rotation matrix and t a translation vector (see Figure 8 for the calibration between the two reference systems). The projection equations of a point P = (x, y, z) on the eye are given by:

dove viene fatta l’assunzione che il punto Pe, proiezione di P, si trova nella regione limbale dell’occhio, assunta planare, e coincide con il centro della pupilla. Le coordinate del punto Pc, proiezione di Pe sulla microcamera, sono determi nabili nel modo seguente: where the assumption is made that the point Pe, projection of P, is located in the limbal region of the eye, assumed to be planar, and coincides with the center of the pupil. The coordinates of the point Pc, projection of Pe on the micro camera, can be determined as follows:

Quindi esiste una matrice proiettiva che lega direttamente i punti della scena con i punti dell’immagine della microcamera che inquadra l’occhio. So there is a projective matrix that directly links the points of the scene with the points of the image of the micro camera that frames the eye.

Effettuando un’analoga procedura per il secondo occhio otteniamo tre piani immagine, quelli dei due occhi e quello della microcamera che inquadra la scena, le cui coordinate delle proiezioni di un punto della scena, sono tra loro legate da una matrice T, denominata tensore trifocale. Di seguito viene illustrato un metodo preferito di calcolo di detto tensore trifocale e, successivamente, come calcolare a partire da T e dalla proiezione di un punto su due immagini, la proiezione del punto sulla terza immagine. By carrying out a similar procedure for the second eye, we obtain three image planes, those of the two eyes and that of the micro camera that frames the scene, whose coordinates of the projections of a point of the scene, are linked together by a matrix T, called trifocal tensor . A preferred method of calculating said trifocal tensor is illustrated below and, subsequently, how to calculate, starting from T and the projection of a point on two images, the projection of the point on the third image.

Metodo di individuazione del tensore trifocale. Method of identification of the trifocal tensor.

Dati n > 7 punti in corrispondenza tra le tre immagini l’algoritmo di calcolo del tensore trifocale procede attraverso i seguenti passi: Given n> 7 points in correspondence between the three images, the algorithm for calculating the trifocal tensor proceeds through the following steps:

- si trovano tre matrici di trasformazione H, H’ e H’’ da applicare alle tre immagini; - there are three transformation matrices H, H 'and H' to be applied to the three images;

- ciascun punto x<i>dell’immagine i-esima viene trasformato nel punto - each point x <i> of the i-th image is transformed into the point

al fine di operare una normalizzazione; in order to carry out a normalization;

- si calcola T linearmente in termini dei punti trasformati risolvendo l’insieme di equazioni della forma At = 0, utilizzando la pseudoinversa e il metodo dei minimi quadrati. La matrice A è una matrice di 27 righe tali che per ciascuna equazione del tipo si hanno nove equazioni, una per ogni scelta di s e t. - T is calculated linearly in terms of the transformed points by solving the set of equations of the form At = 0, using the pseudo-inverse and the least squares method. The matrix A is a matrix of 27 rows such that for each equation of the type there are nine equations, one for each choice of s and t.

Nella predetta equazione εjqse εqrtsono i tensori definiti per r, s, t = 1, 2, 3 nel seguente modo: In the aforementioned equation εjqse εqrt are the tensors defined for r, s, t = 1, 2, 3 as follows:

e 0stè anch’esso un tensore. and it is also a tensor.

- Si calcola il tensore trifocale applicando la trasformazione inversa di denormalizzazione per ottenere il tensore originale: - The trifocal tensor is calculated by applying the inverse denormalization transformation to obtain the original tensor:

Procedura di trasferimento di corrispondenze da una coppia di viste ad una terza. Procedure for transferring matches from one pair of views to a third one.

La proiezione del punto di fissazione degli occhi sull’immagine della scena, al fine di rendere possibile la convergenza di detta testa robotica con il punto di osservazione dell’osservatore, viene realizzata a mezzo di una rototraslazione che dapprima converte il sistema di riferimento associato a detta microcamera 6 nel sistema di riferimento degli occhi e successivamente nel sistema di riferimento di detta telecamera 8 riprendente la scena osservata dal soggetto. The projection of the point of fixation of the eyes on the image of the scene, in order to make possible the convergence of said robotic head with the observer's point of observation, is carried out by means of a roto-translation which first converts the reference system associated to said micro-camera 6 in the reference system of the eyes and subsequently in the reference system of said camera 8 which records the scene observed by the subject.

Per cui, siano x -> x’ una corrispondenza esatta tra la prima e la seconda vista calcolate nel modo usuale. Sia F21la matrice fondamentale che lega le prime due viste, determinabile a partire dal tensore trifocale T. Per ottenere la corrispondenza nella terza vista è sufficiente seguire i seguenti passi: So, let x -> x ’an exact correspondence between the first and second view calculated in the usual way. Let F21 be the fundamental matrix that links the first two views, which can be determined starting from the trifocal tensor T. To obtain the correspondence in the third view, simply follow the following steps:

- si calcola la linea l ' che passa attraverso x’, perpendicolare ad - the line l 'passing through x' is calculated, perpendicular to

- si determinano le coordinate del punto trasferito - the coordinates of the transferred point are determined

Dunque, il presente apparato permette di realizzare un’interfaccia uomo-robot utilizzabile per diversi compiti di apprendimento automatico applicato alla visio ne artificiale, semplificando l’acquisizione di dati e di pattern di scansione. Questi possono essere utilizzati non solo nell’ambito della robotica cognitiva ma anche in sistemi di sorveglianza, per sistemi teleoperati per disabili o per applicazioni di informatica grafica e realtà virtuale. In altri ambiti è pensabile l’utilizzo per indagini di marketing, analisi di usabilità di sistemi ed interfacce, studi sull’attenzione umana di vario genere, scopi terapeutici per soggetti affetti da disfunzioni cognitive legate alla visione ed in generale qualunque applicazione in cui interessa conoscere cosa osserva un utente. Therefore, this apparatus allows for the creation of a human-robot interface that can be used for various automatic learning tasks applied to computer vision, simplifying the acquisition of data and scan patterns. These can be used not only in the field of cognitive robotics but also in surveillance systems, for teleoperated systems for the disabled or for computer graphics and virtual reality applications. In other areas it is conceivable to use it for marketing surveys, usability analysis of systems and interfaces, studies on human attention of various kinds, therapeutic purposes for subjects suffering from cognitive dysfunctions related to vision and in general any application in which it is interesting to know what a user observes.

I modi particolari di realizzazione qui descritti non limitano il contenuto di questa domanda che copre tutte le varianti dell’invenzione definite dalle rivendicazioni. The particular embodiments described here do not limit the content of this application which covers all the variants of the invention defined by the claims.

Claims (14)

RIVENDICAZIONI 1. Apparato di acquisizione ed elaborazione di informazioni relative ad attività oculari umane attuate da un osservatore comprendente: - una o più telecamere (8) atte a riprendere in stereoscopia una medesima scena osservata dall’osservatore; - una o più microcamere (6) atte a riprendere occhi dell’osservatore; - almeno un led IR (7) illuminante ciascuno di detti occhi; - una piattaforma inerziale (9); - una imbracatura (1) atta a fissarsi stabilmente ad una testa dell’osservatore, su cui sono montate stabilmente detta una o più telecamere, detta una o più microcamere e detta piattaforma inerziale; - mezzi di elaborazione di dati atti a realizzare strutture di dati contenenti le informazioni generate da detta una o più microcamere, da detta una o più telecamere e da detta piattaforma inerziale; - mezzi di rice-trasmissione di detti dati; essendo detti dati ricevuti da una piattaforma robotica atta a ricavarne da essi i punti di una scena osservati dall’osservatore in modo da addestrare la piattaforma robotica. CLAIMS 1. Apparatus for acquiring and processing information relating to human eye activities carried out by an observer comprising: - one or more cameras (8) designed to record the same scene observed by the observer in stereoscopy; - one or more micro-cameras (6) designed to capture the observer's eyes; - at least one IR LED (7) illuminating each of said eyes; - an inertial platform (9); - a harness (1) designed to be stably fixed to an observer's head, on which said one or more cameras, said one or more micro-cameras and said inertial platform are stably mounted; - data processing means suitable for creating data structures containing the information generated by said one or more micro-cameras, by said one or more cameras and by said inertial platform; - means for receiving-transmission of said data; said data being received by a robotic platform capable of obtaining from them the points of a scene observed by the observer in order to train the robotic platform. 2. Apparato di acquisizione secondo la rivendicazione 1, in cui detta imbracatura definisce un casco (1) munito di mezzi di regolazione per meglio adattarsi alla testa dell’osservatore. 2. Acquisition apparatus according to claim 1, in which said harness defines a helmet (1) equipped with adjustment means to better adapt to the observer's head. 3. Apparato di acquisizione secondo la rivendicazione 2, in cui detto casco è munito di un braccetto (2) orientabile a mezzo di snodi (3), atto a sorreggere dette una o più microcamere (6) ed un led (7) per ciascun occhio. 3. Acquisition apparatus according to claim 2, in which said helmet is equipped with an arm (2) that can be oriented by means of joints (3), able to support said one or more micro-cameras (6) and a led (7) for each eye. 4. Apparato di acquisizione secondo la rivendicazione 1, in cui dette una o più microcamere (6) sono in tecnologia CMOS. 4. Acquisition apparatus according to claim 1, in which said one or more micro-cameras (6) are in CMOS technology. 5.Apparato di acquisizione secondo la rivendicazione 1, in cui detta piattaforma inerziale (9) è un motion tracker, atto a rilevare angoli assoluti di rotazione della testa dell’osservatore su almeno 3 gradi di libertà. 5. Acquisition apparatus according to claim 1, in which said inertial platform (9) is a motion tracker, able to detect absolute angles of rotation of the observer's head on at least 3 degrees of freedom. 6. Apparato di acquisizione secondo la rivendicazione 1, in cui dette telecamere (8) sono atte ad acquisire immagini RGB e range tramite un calcolo della disparità tra due ottiche di dette telecamere. 6. Acquisition apparatus according to claim 1, wherein said cameras (8) are suitable for acquiring RGB and range images by calculating the disparity between two optics of said cameras. 7. Apparato di acquisizione secondo la rivendicazione 1, in cui detti mezzi di elaborazione, al termine di ogni registrazione sono atti a generare vettori di strutture di dati etichettate in relazione all’istante di acquisizione, comprendenti: - fotogrammi RGB relativi alla scena ripresa dalle telecamere; - la posizione del punto osservato proiettato sui fotogrammi RGB espresso in coordinate di immagine (pixel); - l’immagine di profondità corrispondente all’immagine a colori; - l’orientamento della testa espresso in angoli di Eulero. 7. Acquisition apparatus according to claim 1, in which said processing means, at the end of each recording, are adapted to generate vectors of data structures labeled in relation to the instant of acquisition, comprising: - RGB frames relating to the scene shot by cameras; - the position of the observed point projected on the RGB frames expressed in image coordinates (pixels); - the depth image corresponding to the color image; - the orientation of the head expressed in Euler angles. 8. Metodo di acquisizione ed elaborazione delle informazioni, mediante l’apparato della rivendicazione 1, comprendente i seguenti passi: - acquisizione di una immagine di una scena e di una immagine di occhi; - identificazione di una pupilla di detti occhi ed identificazione del suo centro; - proiezione di un punto di fissazione degli occhi su detta immagine della scena; - memorizzazione in un’unica struttura di dati dell’immagine ricavata al passo precedente insieme alle informazioni riguardanti una posizione di una testa di osservatore; - trasmissione e ricezione di detti dati e trasformazione del punto di fissazione nelle coordinate di una piattaforma robot istruenda; - convergenza della testa definente detta piattaforma robotica sul punto di fissazione dell’osservatore. 8. Method of acquiring and processing information, using the apparatus of claim 1, comprising the following steps: - acquisition of an image of a scene and an image of eyes; - identification of a pupil of said eyes and identification of its center; - projection of a point of fixation of the eyes on said image of the scene; - storage in a single data structure of the image obtained in the previous step together with information regarding a position of an observer's head; - transmission and reception of said data and transformation of the fixation point into the coordinates of a robot platform; - convergence of the head defining said robotic platform on the observer's fixation point. 9. Metodo secondo la rivendicazione 8, in cui detta fase di identificazione della pupilla comprendente i seguenti macropassi: Macropasso 1: - si ottiene una immagine dell’occhio inquadrata da una microcamera, di dimensioni 130×220; - viene ritagliata da detta immagine un’altra immagine di 130×130 pixel; - quest’ultima immagine viene saturata e filtrata con la derivata di un filtro Gaussiano di dimensioni 3 × 3 e varianza 0,28, così che si rende possibile ottenere l’immagine Purkinje I identificando una regione massimale della immagine ottenuta, contenente punti minimali; - allora si contrassegna col simbolo Pk la regione identificata; Macropasso 2: - rilevate un numero M ≥ 8 di immagini dell’occhio che identificano rotazioni estremali lungo gli assi di rotazione, si risolve il sistema x = [A<T>A]<−1>A<T>b dove la matrice A è una matrice M × 8 i cui elementi normalizzati sono: - posizione della regione identificata Pktnell’immagine al fotogramma t e una posizione Pkt+1identificata nell’immagine al fotogramma t 1, - posizione del centro della pupilla Cptnell’immagine al fotogramma t; - la posizione del punto di intersezione fra la retta L1, che passa per Lc e Pkt; - la retta normale alla x dell’immagine e che passa per il centro della pupilla Cpt, punto nodale N; essendo il vettore b, di dimensione M × 2, è costituito dai centri delle pupille Cpt+1nei fotogrammi t+1; essendo il vettore bidimensionale x, di dimensione 8 × 2, è il vettore dei coefficienti, così che l’mse, cioè il cosiddetto “mean squared error”, ottenuto dalla regressione stimata risulta inferiore a 20; Macropasso 3: - dato il vettore dei coefficienti x, a ciascun passo di computazione si calcolano, per l’immagine corrente, i valori indicati in un’osservazione della matrice A, e si ottiene il vettore T i cui elementi sono appunto quelli di una osservazione della matrice A; sicché il prodotto interno [T] *[x] restituisce una approssimazione del centro della pupilla, in condizioni estremali e in fase saccadica; - dunque, le posizioni correnti Cpt+1, calcolate con Tx, e i valori Nt+1, e Pkt+1, calcolati come indicato nel macropasso 2, vengono assegnate alle posizioni corrispondenti per il successivo passo di computazione; dunque, rendendosi possibile, ad ogni ciclo, definito da detti tre macropassi di computazione, la posizione del centro della pupilla, la direzione e l’ampiezza dello spostamento rispetto all’immagine precedente. Method according to claim 8, wherein said pupil identification step comprising the following macro steps: Macro step 1: - you get an image of the eye framed by a micro camera, 130 × 220 in size; - another image of 130 × 130 pixels is cropped from said image; - this last image is saturated and filtered with the derivative of a Gaussian filter of size 3 × 3 and variance 0.28, so that it is possible to obtain the Purkinje I image by identifying a maximal region of the image obtained, containing minimal points; - then the identified region is marked with the symbol Pk; Macro step 2: - having detected a number M ≥ 8 of images of the eye that identify extremal rotations along the rotation axes, we solve the system x = [A <T> A] <−1> A <T> b where the matrix A is a M × 8 matrix whose normalized elements are: - position of the region identified Pkt in the image at frame t and a position Pkt + 1 identified in the image at frame t 1, - position of the center of the pupil Cpt in the image at frame t; - the position of the point of intersection between the straight line L1, which passes through Lc and Pkt; - the line normal to the x of the image and passing through the center of the pupil Cpt, nodal point N; being the vector b, of dimension M × 2, it is constituted by the centers of the pupils Cpt + 1 in the frames t + 1; since the two-dimensional vector x, of size 8 × 2, is the vector of the coefficients, so that the mse, ie the so-called "mean squared error", obtained from the estimated regression is less than 20; Macro step 3: - given the vector of the coefficients x, at each computation step the values indicated in an observation of the matrix A are calculated for the current image, and the vector T is obtained, whose elements are precisely those of an observation of the matrix TO; so that the inner product [T] * [x] returns an approximation of the center of the pupil, in extremal conditions and in the saccadic phase; - therefore, the current positions Cpt + 1, calculated with Tx, and the values Nt + 1, and Pkt + 1, calculated as indicated in macro-step 2, are assigned to the corresponding positions for the next computation step; therefore, making it possible, at each cycle, defined by said three macro-steps of computation, the position of the center of the pupil, the direction and amplitude of the displacement with respect to the previous image. 10. Metodo secondo la rivendicazione 8, comprendente una ulteriore e preventiva procedura di calibrazione comprendente le seguenti fasi: - si allestisce un modello di riferimento con un numero n > 7 di riferimenti planari e non; - in un numero n di istanti l’osservatore fissa un riferimento e lo rileva a mezzo di una interfaccia; - si effettua l’estrazione delle coordinate del centro della pupilla per ciascun occhio e coordinate del riferimento nell’immagine di scena corrispondente; - si stima la funzione di mappatura del punto di fissazione tramite calcolo di una matrice denominata tensore trifocale T. Method according to claim 8, comprising a further and preventive calibration procedure comprising the following steps: - a reference model is prepared with a number n> 7 of planar and non-planar references; - in a number n of instants the observer sets a reference and detects it by means of an interface; - the coordinates of the center of the pupil are extracted for each eye and the coordinates of the reference in the corresponding scene image; - the mapping function of the fixation point is estimated by calculating a matrix called trifocal tensor T. 11. Metodo secondo la rivendicazione 10, in cui il calcolo di detto tensore trifocale nella procedura di calibrazione , comprendente i seguenti passi: - si legano un sistema di riferimento di un primo occhio ed un sistema di riferimento di una microcamera che lo inquadra con una trasformazione rigida (R, t) in cui R è una matrice di rotazione 3 x 3 e t un vettore di traslazione, sicché le equazioni di proiezione di un punto P = (x, y, z) sull’occhio sono date da: Method according to claim 10, wherein the calculation of said trifocal tensor in the calibration procedure, comprising the following steps: - a reference system of a first eye and a reference system of a microcamera are linked which frames it with a rigid transformation (R, t) in which R is a rotation matrix 3 x 3 and t a translation vector, so that the projection equations of a point P = (x, y, z) on the eye are given by: dove viene fatta l’assunzione che un punto Pe, corrispondente alla proiezione di P, si trova nella regione limbale dell’occhio, assunta planare, e coincidente con il centro di una pupilla dell’occhio; - si ricavano le coordinate di un punto Pc, corrispondente alla proiezione di Pe sulla microcamera a mezzo della seguente equazione matriciale: where the assumption is made that a point Pe, corresponding to the projection of P, is located in the limbal region of the eye, assumed to be planar, and coinciding with the center of a pupil of the eye; - the coordinates of a point Pc, corresponding to the projection of Pe on the microcamera, are obtained by means of the following matrix equation: - si effettua un’analoga procedura per un secondo occhio; - si ottengono tre piani immagine, quelli dei primo e secondo occhi e quello della microcamera che inquadra la scena, le cui coordinate delle proiezioni di un punto della scena, sono tra loro legate da detta matrice T. - a similar procedure is performed for a second eye; - three image planes are obtained, those of the first and second eyes and that of the micro camera that frames the scene, whose coordinates of the projections of a point of the scene, are linked together by said matrix T. 12. Metodo secondo la rivendicazione 11, in cui detta trasformazione dal sistema di riferimento di detto primo occhio al sistema di riferimento della microcamera. comprendente i seguenti passi: - si individua un numero n > 7 punti in corrispondenza tra detti tre piani immagine; - si definiscono tre matrici di trasformazione H, H’ e H’’ da applicare ai tre piani immagini; - ciascun punto x<i>di un’immagine i-esima viene trasformato nel punto al fine di operare una normalizzazione; - si calcola detto tensore trifocale T linearmente in termini dei punti trasformati risolvendo l’insieme di equazioni nella forma At = 0, utilizzando la pseudoinversa e il metodo dei minimi quadrati; essendo A una matrice di 27 righe tali che per ciascuna equazione del tipo si hanno nove equazioni, una per ogni scelta di s e t, ove εjqse εqrtsono i tensori definiti per r, s, t = 1, 2, 3 nel seguente modo: Method according to claim 11, wherein said transformation from the reference system of said first eye to the reference system of the microcamera. comprising the following steps: - a number n> 7 points is identified in correspondence between said three image planes; - three transformation matrices H, H 'and H' 'are defined to be applied to the three image planes; - each point x <i> of an i-th image is transformed into the point in order to perform a normalization; - said trifocal tensor T is calculated linearly in terms of the transformed points by solving the set of equations in the form At = 0, using the pseudo-inverse and the least squares method; since A is a matrix of 27 rows such that for each equation of the type there are nine equations, one for each choice of s and t, where εjqs and εqrt are the tensors defined for r, s, t = 1, 2, 3 as follows: e 0stè anch’esso un tensore. - si calcola il tensore trifocale T applicando la trasformazione inversa di denormalizzazione per ottenere il tensore originale a mezzo della seguente equazione: and it is also a tensor. - the trifocal tensor T is calculated by applying the inverse denormalization transformation to obtain the original tensor by means of the following equation: 13. Metodo secondo la rivendicazione 8, in cui detta proiezione del punto di fissazione degli occhi su detta immagine della scena, al fine di rendere possibile la convergenza di detta testa robotica con il punto di osservazione dell’osservatore, viene realizzato a mezzo di una rototraslazione che dapprima converte un sistema di riferimento associato a mezzi atti ad acquisire dette immagini degli occhi e poi a convertirlo in un sistema di riferimento associato a mezzi atti ad acquisire dette immagini della scena. 13. Method according to claim 8, wherein said projection of the point of fixation of the eyes on said image of the scene, in order to make possible the convergence of said robotic head with the observation point of the observer, is achieved by means of a roto-translation which first converts a reference system associated with means able to acquire said images of the eyes and then to convert it into a reference system associated with means able to acquire said images of the scene. 14. Metodo secondo le rivendicazioni 9 e 13, in cui detta rototraslazione è ottenuta a mezzo di una funzione del tipo x -> x’, che è una corrispondenza esatta tra un punto in un primo sistema di riferimento ed in un secondo sistema di riferimento, allora, data F21, una matrice fondamentale che lega i due sistemi di riferimento, determinabile a partire da detto tensore trifocale T, per ottenere la trasformazione in un terzo sistema di riferimento, si eseguono i seguenti passi: - si calcola una linea l ' che passa attraverso x’, perpendicolare a mezzo della seguente equazione l'e= F21x =(l1l2l3) T ; - si determinano le coordinate di un punto trasferito a mezzo della seguente equazione x''k =x il 'jT .14. Method according to claims 9 and 13, wherein said roto-translation is obtained by means of a function of the type x -> x ', which is an exact correspondence between a point in a first reference system and in a second reference system , then, given F21, a fundamental matrix that binds the two reference systems, which can be determined starting from said trifocal tensor T, to obtain the transformation into a third reference system, the following steps are carried out: - a line l 'is calculated which passes through x ', perpendicular by means of the following equation e = F21x = (l1l2l3) T; - the coordinates of a transferred point are determined by means of the following equation x''k = x il 'jT.
IT000526A 2007-10-05 2007-10-05 PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES ITRM20070526A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
IT000526A ITRM20070526A1 (en) 2007-10-05 2007-10-05 PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES
PCT/EP2008/063277 WO2009043927A1 (en) 2007-10-05 2008-10-03 Apparatus for acquiring and processing information relating to human eye movements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000526A ITRM20070526A1 (en) 2007-10-05 2007-10-05 PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES

Publications (1)

Publication Number Publication Date
ITRM20070526A1 true ITRM20070526A1 (en) 2009-04-06

Family

ID=40174804

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000526A ITRM20070526A1 (en) 2007-10-05 2007-10-05 PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES

Country Status (2)

Country Link
IT (1) ITRM20070526A1 (en)
WO (1) WO2009043927A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201004346D0 (en) * 2010-03-16 2010-04-28 Qinetiq Ltd Eye tracking apparatus
FR2958528B1 (en) 2010-04-09 2015-12-18 E Ye Brain OPTICAL SYSTEM FOR MONITORING OCULAR MOVEMENTS AND ASSOCIATED SUPPORT DEVICE
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US10453355B2 (en) 2012-09-28 2019-10-22 Nokia Technologies Oy Method and apparatus for determining the attentional focus of individuals within a group
CN104055478B (en) * 2014-07-08 2016-02-03 金纯� Based on the medical endoscope control system that Eye-controlling focus controls
EP3241488A1 (en) * 2016-05-06 2017-11-08 Aura Innovative Robotics, S.L Device for synchronized measurement of ocular and cephalic movement
JP6881755B2 (en) * 2017-11-29 2021-06-02 国立研究開発法人産業技術総合研究所 Line-of-sight detection calibration methods, systems, and computer programs
EP3750028B1 (en) 2018-02-09 2022-10-19 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2020147948A1 (en) 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0655203B2 (en) * 1992-07-09 1994-07-27 株式会社エイ・ティ・アール視聴覚機構研究所 Medical diagnostic device using line-of-sight detection
US6997556B2 (en) * 2001-10-01 2006-02-14 Ernst Pfleger Method for detecting, evaluating, and analyzing look sequences
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration

Also Published As

Publication number Publication date
WO2009043927A1 (en) 2009-04-09

Similar Documents

Publication Publication Date Title
ITRM20070526A1 (en) PROCUREMENT AND PROCESSING OF INFORMATION RELATING TO HUMAN EYE ACTIVITIES
US9779512B2 (en) Automatic generation of virtual materials from real-world materials
JP6860488B2 (en) Mixed reality system
WO2020042345A1 (en) Method and system for acquiring line-of-sight direction of human eyes by means of single camera
EP3552077B1 (en) Systems and methods for tracking motion and gesture of heads and eyes
CN103443742B (en) For staring the system and method with gesture interface
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
US20170357332A1 (en) Six dof mixed reality input by fusing inertial handheld controller with hand tracking
JP6852355B2 (en) Program, head-mounted display device
US20170285337A1 (en) Gaze detection system, gaze point detection method, and gaze point detection program
KR20180101496A (en) Head-mounted display for virtual and mixed reality with inside-out location, user body and environment tracking
CN110398830A (en) Microscopic system and method for operating microscopic system
JP2013219541A (en) Photographing system and photographing method
CN105809654A (en) Target object tracking method and device, and stereo display equipment and method
CN112416125A (en) VR head-mounted all-in-one machine
CN113808160A (en) Sight direction tracking method and device
Reale et al. Viewing direction estimation based on 3D eyeball construction for HRI
JP6701694B2 (en) Head-mounted display and computer program
US11656471B2 (en) Eyewear including a push-pull lens set
JP2017012264A (en) Rehabilitation assist implement and rehabilitation apparatus
JP2012513604A5 (en)
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
US10992928B1 (en) Calibration system for concurrent calibration of device sensors
US11579449B2 (en) Systems and methods for providing mixed-reality experiences under low light conditions
CN105828021A (en) Specialized robot image acquisition control method and system based on augmented reality technology