ES2745501T3 - Dispositivo de proyección ocular de fotorrefracciones - Google Patents

Dispositivo de proyección ocular de fotorrefracciones Download PDF

Info

Publication number
ES2745501T3
ES2745501T3 ES12747420T ES12747420T ES2745501T3 ES 2745501 T3 ES2745501 T3 ES 2745501T3 ES 12747420 T ES12747420 T ES 12747420T ES 12747420 T ES12747420 T ES 12747420T ES 2745501 T3 ES2745501 T3 ES 2745501T3
Authority
ES
Spain
Prior art keywords
pupil
type
image
led
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12747420T
Other languages
English (en)
Inventor
Richard Mowrey
Martin Rivers
Rejean Munger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Welch Allyn Inc
Original Assignee
Welch Allyn Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Welch Allyn Inc filed Critical Welch Allyn Inc
Application granted granted Critical
Publication of ES2745501T3 publication Critical patent/ES2745501T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/156Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for blocking
    • A61B3/158Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for blocking of corneal reflection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/0005Adaptation of holography to specific applications
    • G03H2001/0033Adaptation of holography to specific applications in hologrammetry for measuring or analysing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Networks & Wireless Communication (AREA)

Abstract

Un dispositivo de proyección ocular de fotorrefracciones, que comprende un componente de captura de imágenes (104) acoplado a un componente de lente (102), una matriz de iluminación (106), comprendiendo dicha matriz de iluminación una pluralidad de fuentes de irradiación de un primer tipo (106a) y una pluralidad de fuentes de irradiación de un segundo tipo, donde dicha pluralidad de fuentes de irradiación de dicho primer tipo (106a) emiten luz en un espectro de luz visible y comprenden LED de diferentes colores, y dicha pluralidad de fuentes de irradiación de dicho segundo tipo (106b) emiten luz en un espectro de luz cercana a infrarroja, y un divisor de haz para dirigir la luz emitida desde dicha pluralidad de fuentes de irradiación de dicho primer tipo y dicha pluralidad de fuentes de irradiación de dicho segundo tipo, estando dispuesta dicha pluralidad de fuentes de irradiación de dicho primer tipo (106a) en tres anillos concéntricos, caracterizado por que cada uno de los tres anillos concéntricos está compuesto por más de un LED de diferentes colores separados en un patrón aleatorio.

Description

DESCRIPCIÓN
Dispositivo de proyección ocular de fotorrefracciones
Referencia cruzada a solicitudes relacionadas
Campo técnico
La presente invención se refiere en general al campo del examen ocular. Más particularmente, la presente invención está dirigida a un dispositivo de proyección ocular de fotorrefracciones que emplea nuevos métodos de detección de pupilas y análisis de errores de refracción para evaluar la visión y los trastornos correspondientes asociados con el sistema ocular humano.
Antecedentes
La función básica de un dispositivo fotorrefractivo es recoger y analizar las respuestas oculares a los estímulos de luz. La luz desde una fuente externa ingresa al ojo a través de la pupila y se enfoca para crear un pequeño punto iluminado en la retina. Parte de la luz de este punto retiniano se devuelve del ojo a través de la pupila después de la interacción con diferentes capas de la retina. El patrón de luz que sale de la pupila está determinado por la óptica del ojo y está dominado por el error de refracción del examinado (errores de enfoque del ojo).
A diferencia de la fotografía del fondo, donde una amplia zona de la retina se ilumina y una cámara está enfocada en la retina a los detalles de imagen de su anatomía, la fotorrefracción no toma directamente la imagen de la retina o cualquier otra estructura en el segmento posterior del ojo. En la fotorrefracción, las imágenes se obtienen al enfocarse en la pupila para obtener el patrón de luz que sale de la pupila, es decir, las imágenes se analizan en el plano de la pupila.
En los métodos conocidos anteriores de fotorrefracción, típicamente se utiliza una única iluminación excéntrica (es decir, luces dispuestas fuera de una abertura de la lente de un sistema de proyección ocular). Este enfoque tiene limitaciones y a menudo puede dar lugar a determinaciones de errores de refracción que son inexactos o ambiguos, particularmente porque los ojos con diferentes errores de refracción pueden tener respuestas similares bajo una iluminación dada. La fotorrefracción clásica que usa solo iluminación excéntrica genera un reflejo "en forma de media luna" en el plano de la pupila, cuyos bordes y dominios deben determinarse para correlacionar la respuesta de la pupila con un error de refracción. Cuando se usa solo iluminación excéntrica o descentrada, la determinación del límite creciente es una tarea difícil. Además, la determinación del tamaño y la ubicación de la pupila a menudo se ve comprometida por no tener suficientes datos del borde de la pupila (debido a los bordes oscuros) para un ajuste preciso del círculo de la pupila.
Por consiguiente, existe la necesidad de proporcionar métodos mejorados para realizar exámenes oculares basados en fotorrefracciones.
El documento US 2009/079937 divulga un dispositivo de proyección ocular de fotorrefracciones, que comprende un componente de captura de imágenes acoplado a un componente de lente, una matriz de iluminación, comprendiendo dicho conjunto de iluminación una pluralidad de fuentes de irradiación de un primer tipo y una pluralidad de fuentes de irradiación de un segundo tipo, donde dicha pluralidad de fuentes de irradiación de dicho primer tipo emiten luz en un espectro de luz visible y dicha pluralidad de fuentes de irradiación de dicho segundo tipo emiten luz en un espectro de luz infrarrojo cercano, y un divisor de haz para dirigir la luz emitida desde dicho pluralidad de fuentes de irradiación de dicho primer tipo y dicha pluralidad de fuentes de irradiación de dicho segundo tipo.
La invención proporciona un dispositivo de este tipo donde dicha pluralidad de fuentes de irradiación de dicho primer tipo están dispuestas en tres anillos concéntricos, con fuentes de irradiación adyacentes dentro de cada uno de los tres anillos concéntricos separados entre sí en un patrón aleatorio.
Breve descripción de los dibujos
Los objetivos y ventajas de la presente invención se harán evidentes al considerar la siguiente descripción detallada, tomada en conjunción con los dibujos adjuntos, donde caracteres de referencia similares se refieren siempre a partes similares, y donde:
Las figuras 1A y 1B ilustran vistas en sección transversal de un dispositivo de proyección ocular de fotorrefracciones ejemplar, de acuerdo con realizaciones de la presente invención.
Las figuras 2A y 2B ilustran una matriz de LED con respecto a la apertura limitante de un componente de lente acoplado a un componente de captura de imágenes del dispositivo de proyección ocular de fotorrefracciones, no de acuerdo con las realizaciones de la presente invención.
Las figuras 3A y 3B ilustran una comparación de reflejos en el plano de la pupila, respectivamente, a partir de iluminación excéntrica solamente e iluminación descentrada más coaxial, de acuerdo con realizaciones de la presente invención.
La figura 4A ilustra tres meridianos primarios de eje-conjugado, y las figuras 4B-4D proporcionan tablas que ilustran estímulos LED emparejados que pueden seleccionarse en uno de los tres meridianos primarios en diversos grados de descentraciones, no de acuerdo con las realizaciones de la presente invención.
La figura 5A ilustra dos meridianos suplementarios, y la figura 5B proporciona una tabla que ilustra los estímulos LED emparejados que pueden seleccionarse en uno de los dos meridianos suplementarios en diversos grados de descentraciones, no de acuerdo con las realizaciones de la presente invención.
La figura 6 ilustra la selección de un estímulo LED coaxial sin emparejamiento con un estímulo LED descentrado, no de acuerdo con las realizaciones de la presente invención.
La figura 7A ilustra trayectorias de luz emitidas y refractadas entre un examinado y el dispositivo de proyección ocular de fotorrefracciones, y la figura 7B ilustra las dimensiones de fotograma completo de una captura de imágenes recibida en el dispositivo de proyección ocular de fotorrefracciones, de acuerdo con realizaciones de la presente invención.
La figura 8A es un diagrama de flujo que ilustra una visión general de un proceso de adquisición y análisis de imágenes realizado por el dispositivo de proyección ocular de fotorrefracciones durante un examen ocular, y las correspondientes figuras 8B-8D son diagramas de flujo que ilustran subprocesos asociados con tres fases ejecutadas durante la adquisición de imágenes en el proceso de la figura 8A de acuerdo con realizaciones de la presente invención.
La figura 9 es un diagrama de flujo que ilustra un proceso aplicado por el dispositivo de proyección ocular de fotorrefracciones asociado con la adquisición de la pupila, que distingue las operaciones de fotograma completo y las operaciones de candidato a pupila, de acuerdo con realizaciones de la presente invención.
La figura 10 ilustra un núcleo de filtrado de pupila optimizado, de acuerdo con realizaciones de la presente invención.
La figura 11A ilustra un enfoque de método dual para binarizar una pupila candidata para identificar los píxeles del borde de la pupila, la figura 11B es un diagrama de flujo que ilustra un proceso aplicado por el dispositivo de proyección ocular de fotorrefracciones utilizando el enfoque de binarización de método dual de la figura 11A, y las correspondientes figuras 11C-11E ilustran aspectos específicos del enfoque de binarización de método dual que comprende un método de intensidad de píxeles y un método de pseudo-gradiente, de acuerdo con realizaciones de la presente invención.
La figura 12 es un diagrama de flujo que ilustra un proceso aplicado por el dispositivo de proyección ocular de fotorrefracciones para determinar el error de refracción a lo largo de un meridiano, de acuerdo con realizaciones de la presente invención.
La figura 13 ilustra un área de interpolación de reflejo, de acuerdo con realizaciones de la presente invención. La figura 14 ilustra la rotación de una región de extracción de píxeles, de acuerdo con realizaciones de la presente invención.
La figura 15 ilustra una porción de una imagen de la pupila, de acuerdo con realizaciones de la presente invención.
Las figuras 16A-16C ilustran, respectivamente, el cálculo de una relación eje-conjugado, la generación de una pendiente de perfil y la generación de un vector de datos PCA, de acuerdo con realizaciones de la presente invención.
La figura 17A proporciona una tabla de excentricidades asociadas con estímulos en cada uno de los meridianos, y las figuras 17B-17C son, respectivamente, curvas de calibración ejemplares para cada una de las excentricidades y una curva de error de calibración agregada correspondiente para determinar el error de refracción, de acuerdo con realizaciones de la presente invención.
Descripción detallada
La presente invención está dirigida a un dispositivo de proyección ocular de fotorrefracciones que emplea métodos para determinar un error de refracción de un examinado. Con fines de claridad, y no a modo de limitación, se describen vistas ilustrativas y flujos de proceso de los métodos empleados en la presente invención con referencias hechas a las figuras de dibujos identificadas anteriormente. Se considera que varias modificaciones obvias para un experto en la materia están dentro del espíritu y del alcance de la presente invención.
Las figuras 1A y 1B ilustran una vista en sección transversal de una realización ejemplar de un dispositivo de proyección ocular de fotorrefracciones 100 para realizar un examen ocular en un examinado. Los componentes del dispositivo de proyección ocular de fotorefracción 100 se identifican y describen con referencia a la figura 1A, mientras que la figura 1B ilustra además un marco 140 encerrado dentro de un cuerpo de carcasa 150 del dispositivo 100 para soportar los componentes anteriores identificados en la figura 1A.
Con referencia a la figura 1A, el dispositivo 100 comprende componentes ópticos y no ópticos. Los componentes ópticos pueden incluir un componente de lente 102 acoplado a un componente de captura de imágenes 104, una matriz de diodos emisores de luz (LED) 106 que tiene LED visibles 106a y un LED cercano a infrarrojo 106b, un difusor holográfico 108 y un divisor de haz 110. Los componentes no ópticos pueden incluir un altavoz 105, un buscador de alcance 112, una pantalla de visualización del operador 114 y una ventana frontal 116. Debe observarse que el dispositivo 100 no se limita a los componentes enumerados anteriormente y puede incorporar componentes adicionales, según se considere necesario, para avanzar en los procesos de la invención descritos en este documento.
El dispositivo 100 está configurado preferiblemente para movilidad, pero también puede ser adecuado para aplicaciones estacionarias. Además, el dispositivo 100 puede habilitarse de forma inalámbrica para permitir que la recopilación y el análisis de datos de imágenes se transmitan a una ubicación remota para imprimir un informe o para permitir una evaluación adicional de la respuesta ocular de un examinado. Por ejemplo, al realizar un examen ocular utilizando el dispositivo 100, los datos de imágenes recopilados y los resultados correspondientes pueden transmitirse y almacenarse de forma inalámbrica en una base de datos remota de pacientes configurada para que los profesionales médicos e instituciones autorizadas puedan acceder a los mismos.
La funcionalidad del dispositivo 100 está accionada por una pluralidad de procesos configurados para evaluar los aspectos oculares de un examinado que incluyen, entre otros, presentar estímulos para llamar la atención al examinado, controlar una disposición de LED para irradiar las pupilas del examinado, ubicar las pupilas del examinado en imágenes capturadas, mostrar imágenes capturadas a un operador y analizar datos de imágenes de alumnos para determinar errores de refracción y realizar evaluaciones relacionadas. Estos procesos pueden realizarse procesando lógica (no mostrada) bajo el control del programa de ordenador en el dispositivo 100, que puede estar compuesto por hardware (por ejemplo, circuitos, lógica dedicada, lógica programable, microcódigo, etc.), software (tal como instrucciones ejecutadas en un dispositivo de procesamiento), firmware o una combinación de los mismos.
Estímulos para llamar la atención
La proyección ocular efectiva de examinador que cooperan (adultos) y que no cooperan (niños o animales) se puede lograr a través del uso del dispositivo 100. El dispositivo 100 puede configurarse para presentar estímulos de captación de atención a un examinado. La presentación de estímulos para captar la atención puede ser necesaria, particularmente cuando se examinan los examinados que no cooperan, para atraer la dirección de la mirada de los examinados. Para una exploración ocular adecuada, la dirección de la mirada debe estar en la dirección del componente de lente 102 acoplado al componente de captura de imágenes 104 proporcionado en el dispositivo 100.
Pueden ser utilizados varios tipos de estímulos para llamar la atención. En una realización, se puede usar un estímulo auditivo. El estímulo auditivo puede ser una pista de sonido grabada digitalmente bajo el control de un programa de ordenador en el dispositivo 100 y puede presentarse, por ejemplo, a través del altavoz 105. En otra realización, se puede usar un estímulo visual dinámico de tiempo no enfocado, minimizando una respuesta acomodaticia de los examinados. El estímulo visual puede presentarse mediante el uso de LED de colores proporcionados, por ejemplo, por una matriz de LED 106.
El estímulo visual comprende una disposición de LED de diferentes colores. La disposición de los LED de colores tiene preferiblemente longitudes de onda inferiores a 600 nanómetros para evitar la contaminación del estímulo LED cercano a infrarrojo (NIR), que preferiblemente tiene una longitud de onda central de 850 nanómetros y se utilizan para capturar imágenes de pupilas para realizar un examen ocular. Esta configuración permite que el estímulo visual se presente para atraer la atención, pero que no se vea en las imágenes grabadas. El estímulo LED visible es independiente del estímulo LED NIR y no se utiliza en el análisis de datos asociado con la determinación del error de refracción o la dirección de la mirada. Una disposición óptima de la matriz de LED 106 comprende LED visibles 106a que se colocan entre y son coplanares con los LED NIR 106b. La luz emitida por los LED visibles 106a puede pasar a través del difusor holográfico 108, creando estímulos difusos, y es reflejada hacia el examinado por el divisor de haz 110.
Al igual que con el estímulo auditivo, LED visibles 106a también pueden estar bajo control del programa de ordenador en el dispositivo 100. Más específicamente, los parámetros de control tales como la intensidad, la duración, el patrón y el tiempo de ciclo asociados con los LED visibles 106a pueden estar bajo el control del programa de ordenador. Con respecto a la intensidad, los LED visibles 106a deben regularse para que sean lo suficientemente brillantes como para atraer la dirección de un examinado, al mismo tiempo que tienen un brillo limitado para evitar la constricción pupilar estimulante. La duración del tiempo en que los LED visibles 106a se encienden antes de apagarse se mide en milisegundos y puede regularse en función del brillo de los LED visibles 106a percibidos por el examinado. Los LED visibles 106a pueden estar dispuestos en un patrón que aparece como tres anillos concéntricos. En esta disposición, los tres anillos concéntricos aparecerían para el examinado como centrados en el componente 104 de captura de imágenes del dispositivo 100. Cada uno de los anillos concéntricos puede estar compuesto por más de un color de LED espaciado en un patrón aleatorio. Se puede presentar una pluralidad de combinaciones de patrones a un examinado en orden aleatorio. El número de marcos de datos recopilados antes de realizar un cambio en un patrón también puede regularse.
El objetivo subyacente de los parámetros de control asociados con LED visibles 106a es presentar patrones de luz visible difusos, aleatorios y que cambian rápidamente a un examinado. Dichos patrones están destinados a reducir, y en algunos casos pueden inhibir, la acomodación de los ojos del examinado a una distancia focal que se establece preferiblemente a un (1) metro del componente 104 de captura de imágenes del dispositivo 100. La distancia focal se puede determinar usando el buscador de rango 112 del dispositivo 100. Si los ojos del examinado son capaces de acomodarse completamente a un estímulo presentado a una distancia de 1 metro, parecerán emmetrópicos (es decir, no necesitan corrección óptica) al dispositivo 100. Una ventaja de la implementación descrita en el presente documento es que, a diferencia de otras implementaciones, la acomodación por hipermetropía a la distancia de 1 metro del componente 104 de captura de imágenes del dispositivo 100 disminuye, haciendo que las determinaciones de error de refracción para estos examinados sean más precisas.
La presentación de un estímulo visual no necesita limitarse al uso de LED visibles 106a dispuestos en la matriz de LED 106. En realizaciones alternativas, el estímulo visual puede proporcionarse por una fuente de irradiación externa independiente del dispositivo 100, una fuente externa acoplada y bajo el control del programa de ordenador del dispositivo 100 u otras combinaciones adecuadas del mismo. Independientemente del mecanismo de captación de atención empleado, un estímulo de captación de atención se presenta preferiblemente de forma continua durante un examen ocular.
Estímulos LED NIR
Los estímulos LED NIR tienen preferiblemente una longitud de onda central de 850 nanómetros y están dirigidos a un examinado a los efectos de la captura de imágenes de la pupila para la realización de un examen ocular. En una realización, con referencia a las figuras 2A y 2B, la matriz de LED 106 puede estar compuesta por cincuenta y tres (53) LED NIR 106b dispuestos en una configuración hexagonal alrededor de un LED NIR central 25, que se coloca para alinearse con el eje óptico del componente de lente 102 acoplado a componente de captura de imágenes 104 del dispositivo 100. Cuando se emite luz desde los LED NIR 106b, se refleja desde el divisor de haz 110 y se transmite en una dirección 202a hacia los ojos de un examinado 200. El uso del divisor de haz 110 en el dispositivo 100 permite que la luz emitida por los LED NIR 106b se dirija a lo largo del eje óptico sin oscurecer el componente de lente 102. En una realización alternativa, se prevé que también se pueda usar una disposición de LED visibles en lugar de los LED NIR 106b para realizar un examen ocular.
La disposición de LED NIR 106b en la matriz LED 106 permite la flexibilidad en los patrones de iluminación que pueden presentarse a los ojos del examinando 200. Usando los LED NIR 106b dispuestos en la matriz de LED 106, están disponibles tres tipos de iluminación. Los tipos de iluminación pueden incluir una iluminación en el eje (coaxial) del LED NIR central 25, una iluminación fuera del eje (descentrada) de cualquiera de los LED NIR 106b (excluyendo el LED NIR central 25) dispuestos dentro de un espacio de abertura de limitación 204 asociado con componente de lente 102, y una iluminación fuera del eje (descentrada) de cualquiera de los LED NIR 106b dispuestos fuera del espacio de abertura de limitación 204. Los LED NIR 106b pueden caracterizarse en términos de su descentración desde el eje óptico central (cero está en el LED NIR central 25) y su ángulo en un plano perpendicular al eje óptico. Por ejemplo, en referencia a la matriz de LED 106 ilustrada en la figura 2B, el LED NIR 31 es un LED dispuesto dentro del espacio de abertura de limitación 204. El LED NIR 31 se identifica con una distancia de descentración de 6,35 mm desde el eje óptico, que está alineado con el LED NIR central 25, con un ángulo de 60° desde el eje horizontal.
La respuesta ocular de un ojo de cualquier error de refracción dado dependerá del patrón de iluminación seleccionado. Por ejemplo, los LED menos descentrados ofrecen una mejor resolución para pequeños errores de refracción, mientras que los LED más descentrados amplían el rango de error de refracción que se puede detectar. Al comparar la respuesta de los ojos de un examinado bajo diferentes patrones de iluminación, como se describe en el presente documento, se pueden abordar las ambigüedades comúnmente asociadas con las determinaciones de error de refracción en la fotorreflexión clásica.
Mediante la integración de la utilización de LED descentrados dentro del espacio de abertura 204, se pone a disposición un rango más amplio de respuestas oculares. Además, con el uso del LED NIR central 25, se habilita una dimensión adicional, que proporciona una respuesta de fotorreflexión coaxial. Una comparación ejemplar de reflejos asociados con diferentes enfoques para iluminar una pupila se ilustra en las figuras 3a y 3B. En la figura 3A, se muestra el reflejo creciente producido por una iluminación excéntrica solamente. En la figura 3B, se muestra un reflejo producido a partir de una iluminación descentrada (es decir, uno de los LED NIR 106b) emparejado con una iluminación coaxial (es decir, LED NIR 25). Como se puede ver a partir de una comparación de las figuras 3A y 3B, el límite de la pupila representada es más perceptible en el último enfoque que utiliza una iluminación coaxial junto con una iluminación descentrada. Las dos señales de iluminación son aditivas, produciendo así una pupila bien iluminada que tiene límites de pupila fácilmente detectables.
En las disposiciones de iluminación descritas en el presente documento, todos los estímulos presentados a un examinado consisten en LED NIR central coaxial 25 combinado con una cualquiera de los LED NIR descentrados 106b, seleccionándose los LED NIR descentrados 106b a diferentes distancias de descentrado desde el eje óptico central dispuesto dentro de y fuera del espacio de abertura de limitación 204. Además de usar estímulos emparejados, las disposiciones de iluminación descritas en el presente documento también comprenden presentar un estímulo a un examinado que consisto solo de un LED NIR central coaxial 25. El uso del LED NIR central 25 en todas las disposiciones de iluminación de estímulos asegura que la pupila esté siempre suficientemente iluminada, lo que le permite ser adquirida y medida de manera fiable. A diferencia de otras implementaciones conocidas de fotorrefracción, proporcionar una iluminación descentralizada combinada con una iluminación coaxial, utilizando las fuentes de irradiación de LED en la matriz de LED 106, no da como resultado un reflejo que tenga medias lunas, lo que permite omitir la geometría de una media luna del proceso para determinar el error de refracción.
Cuando iluminar una pupila para los propósitos de llevar a cabo un examen ocular, estímulos específicos deben ser seleccionados para asegurar una buena formación de imágenes de la pupila y la determinación exacta de errores de refracción. Además, los estímulos específicos seleccionados deben servir para permitir la determinación de la asimetría (astigmatismo o error de refracción del cilindro) en una potencia de refracción del ojo. Los criterios anteriores se cumplen mediante el uso de emparejamiento de LED descentralizado y coaxial, donde los patrones de iluminación seleccionados para servir como estímulos dependen no solo de la distancia de los LED NIR 106b desde el eje óptico central del componente de lente 102, sino también su orientación con respecto al eje del cilindro del examinado.
El emparejamiento de descentricidad se ilustra en los gráficos de las figuras 4B-4D usando los tres meridianos primarios de eje-conjugado ilustrados en la figura 4A. Una referencia hecha aquí a una línea de eje es el ángulo de una línea, en el plano del conjunto de LED 106, que se extiende hacia fuera desde el LED NIR central 25. Una referencia hecha aquí a una línea conjugada (también llamada "explementaria") es el ángulo de una línea, en el plano de la matriz de LED 106, definida sumando o restando 180° al ángulo correspondiente a la línea del eje. Así, por ejemplo, la línea conjugada de una línea de eje de 120° es 300°. Una línea extendida que comprende ambas líneas que definen la línea del eje y su línea conjugada, como se ilustra en la figura 4A, se denomina colectivamente meridiano y se identifica aquí por el ángulo correspondiente a la línea del eje, que es menor o igual a 180°. Así, por ejemplo, la combinación de la línea del eje de 120° y su línea conjugada de 300° se identifica como el meridiano de 120°.
El inicio de la recogida de datos de imagen se lleva a cabo utilizando parejas de descentricidad a lo largo de los tres meridianos eje-conjugado primarios ilustrados en la figura 4A. Los estímulos emparejados pueden seleccionarse en tres posiciones de descentración que se extienden a lo largo de la línea del eje y en tres posiciones de descentración que se extienden a lo largo de la línea conjugada correspondiente de un meridiano seleccionado. Los pares de descentricidad para el meridiano de 0° se ilustran en el gráfico de la figura 4B. En el meridiano de 0°, el LED NIR central 25 se combina con un LED NIR 106b en las posiciones de descentración de 6,35 mm, 12,70 mm y 19,05 mm a lo largo del meridiano de 0°. Dado que el emparejamiento de descentricidad se realiza para el meridiano de 0° tanto en la línea del eje como en su línea conjugada correspondiente, se proporcionan un total de seis emparejamientos de descentricidad diferentes para el meridiano de 0°. Por ejemplo, como se ilustra en el diagrama de la figura 4B, una posición de descentración de 6,35 mm a lo largo de la línea del eje en el meridiano de 0° utiliza estímulos emparejados compuestos por el LED NIR central 25 y un LED NIR descentrado 32, mientras que la misma posición de descentración en su línea conjugada correspondiente está compuesta por el LED NIR central 25 y un LED NIR 18 descentrado.
Como el emparejamiento de descentricidad también se repite para los meridianos de 60° y 120°, como se ilustra respectivamente en los diagramas de las figuras 4C y 4D, también se obtienen seis descentraciones diferentes para cada uno de esos meridianos. Por ejemplo, como se ilustra en el diagrama de la figura 4C, una posición de descentración de 6,35 mm a lo largo de la línea del eje en el meridiano de 60° utiliza estímulos emparejados compuestos por el LED NIR central 25 y un LED NIR descentrado 31, mientras que la misma posición de descentración en su línea conjugada correspondiente está compuesta por el LED NIR central 25 y un LED NIR 26 descentrado. De manera similar, como se ilustra en el gráfico de la figura 4D, una posición de descentración de 6,35 mm a lo largo de la línea del eje en el meridiano de 120° utiliza estímulos emparejados compuestos por el LED NIR central 25 y un LED NIR descentrado 24, mientras que la misma posición de descentración en su línea conjugada correspondiente está compuesta por el LED NIR central 25 y un LED NIR 33 descentrado. Colectivamente, se puede obtener un total de dieciocho (18) respuestas oculares mediante el uso de pares de descentricidad en los tres meridianos primarios de eje-conjugado (seis pares de descentricidad para cada uno de los meridianos de 0°, 60° y 120°).
Además de los estímulos descentrados en los tres meridianos primarios de eje-conjugado, los estímulos descentrados en los rincones alejados de la matriz de LED 106 también pueden utilizarse. Los ángulos que definen el eje y las líneas conjugadas correspondientes asociadas con estos estímulos descentrados se denominan aquí meridianos suplementarios. El emparejamiento de la descentricidad de los estímulos en los meridianos suplementarios puede usarse para desambiguar la interpretación de los reflejos oculares obtenidos en los tres meridianos primarios de eje-conjugado. Los meridianos suplementarios se definen a lo largo del eje conjugado de 36,59° - 216,59° y 143,41° - 323,41°, como se ilustra en la figura 5A, y se mencionan aquí, respectivamente, como los meridianos 36,59° y 143,41°.
Como en los tres meridianos primarios, estímulos emparejados en los meridianos suplementarios son identificados por una posición de descentramiento a lo largo de la línea del eje y la línea de conjugado correspondiente para cada uno de los meridianos de 36,59° y de 143,41°. Los pares de descentricidad para los meridianos de 36,59° y 143,41° se ilustran en el gráfico de la figura 5B. En el meridiano de 36,59°, el LED NID central 25 está emparejado con un LED NIR 106b en una posición de descentración a 27,68 mm del LED NIR central 25. Dado que el emparejamiento de descentricidad se realiza tanto en la línea del eje como en su línea conjugada correspondiente, se proporcionan un total de dos emparejamientos de descentricidad diferentes para el meridiano de 36,59°. Por ejemplo, como se ilustra en la figura 5B, una posición de descentración de 27,68 mm en la línea del eje del meridiano de 36,59° utiliza estímulos emparejados compuestos por el LED NIR central 25 y un LED NIR descentrado 50, mientras que su línea conjugada correspondiente está compuesta por el LED NIR central 25 y un LED NIR descentrado 7. Se realiza un emparejamiento de descentricidad similar, en el eje y sus líneas conjugadas correspondientes, para el meridiano de 143,41°. El emparejamiento de descentricidad de los estímulos en los meridianos suplementarios proporciona cuatro (4) estímulos adicionales a los dieciocho (18) estímulos proporcionados por los tres meridianos primarios, proporcionando así un total de veintidós (22) respuestas oculares que pueden usarse al determinar el error de refracción para un examinado.
Además de la utilización de estímulos emparejados en los tres meridianos primarios y los dos meridianos suplementarios, un único estímulo coaxial puede también utilizarse para obtener una respuesta ocular. El estímulo coaxial es el LED NIR central 25, como se ilustra en la figura 6. El propósito de este estímulo es asegurar que no haya problemas relacionados con la reflectividad de un ojo y que la iluminación proporcionada por el dispositivo 100 funcione de acuerdo con las especificaciones. Con el emparejamiento de descentricidad de estímulos en los tres meridianos primarios, el emparejamiento de descentricidad de estímulos en los dos meridianos suplementarios y el estímulo coaxial único, se pueden capturar un total de veintitrés (23) respuestas oculares para su uso en la determinación del error de refracción de un examinado. La presentación de estos 23 estímulos, y la colección de imágenes de pupilas correspondientes capturadas en respuesta a cada uno, se denomina protocolo de examen, que se describe adicionalmente en este documento con referencia al proceso 860 de la figura 8d .
Captura de imagen y adquisición de pupila
La detección de características de imágenes digitales y el filtrado se utiliza para la adquisición de la pupila en imágenes capturadas por el componente de captura de imágenes 104. La implementación de la detección y el filtrado de la función de imagen digital puede depender de la resolución del sensor del componente de captura de imágenes 104, la distancia de la pupila de un examinado desde el componente de captura de imágenes 104 y el campo de visión determinado por la óptica del componente de lente 102 acoplado a la imagen componente de captura 104. Las constantes fisiológicas básicas (por ejemplo, el tamaño promedio de la pupila) también pueden entrar en el proceso de filtrado, junto con los máximos y mínimos aceptables del diámetro de la pupila.
Una relación de distancia ejemplar entre el dispositivo 100 y el examinado se ilustra en la figura 7A, donde el componente de lente 102 se selecciona y ajusta para tener un enfoque óptimo a una distancia focal de los ojos del examinado 200. La distancia focal entre el dispositivo 100 y los ojos del examinado 200 puede cambiarse sin afectar el proceso de captura de imágenes si la resolución del sensor del componente de captura de imágenes 104, el campo de visión y la calibración de los errores de refracción se ajustan en consecuencia. Como se ilustra en la figura 7A, la luz emitida desde el conjunto de LED 106 se refleja y transmite en una dirección 202a a lo largo del eje óptico hacia los ojos del examinado 200. La luz reflejada hacia atrás y que sale de los ojos del examinado 200 se devuelve en una dirección 202b y se recibe en el componente de captura de imágenes 104 del dispositivo 100.
Usando un (1) metro como la distancia focal entre el dispositivo 100 y los ojos del examinado 200, la resolución del sensor del componente de captura de imágenes 104 se puede establecer en 752 (horizontal) por 480 píxeles (vertical), como se ilustra en la figura 7B. A una distancia de 1 metro, el componente de captura de imágenes 104 puede proporcionar un campo de visión de 120 mm (horizontal) por 76,6 mm (vertical) dado un componente de lente seleccionado 102. Con estas mediciones, se puede establecer un factor de conversión de 6,267 píxeles/mm. El factor de conversión establecido puede usarse como una constante de calibración para formular los parámetros necesarios para el filtrado digital. Debe observarse que esto es simplemente una realización ejemplar y se prevén realizaciones alternativas, en las que se usa una lente o sensor diferente o se ajusta la distancia focal, pero donde el principio operativo de la presente invención sigue siendo el mismo.
La figura 8A ilustra un diagrama de flujo que proporciona una visión general de un proceso de adquisición y análisis de datos de imágenes 800 ejecutado mediante lógica de procesamiento bajo el control del programa de ordenador en el dispositivo 100. El proceso 800 puede iniciarse tras la activación de la matriz de LED l06, en la etapa 802, y la presentación de estímulos para captar la atención a un examinado. Las imágenes capturadas en respuesta a los estímulos visuales presentados al examinado se procesan a lo largo de dos rutas separadas en el proceso 800, una primera ruta que proporciona una imagen de visualización del operador y una segunda ruta que proporciona información clínicamente relevante para el análisis de imágenes capturadas.
En la prestación de una imagen de pantalla, una copia de los datos en bruto recibidos en el componente de captura de imágenes 104 puede tener un contraste mejorado y transformarse en un formato de visualización estándar para la presentación y la retroalimentación a un operador del dispositivo 100. Por ejemplo, la imagen de visualización puede presentarse en la pantalla de visualización del operador 114 del dispositivo 100. La imagen proporcionada en la pantalla de visualización del operador 114 puede superponerse con información tal como, por ejemplo, la distancia del examinado desde el dispositivo 100, la calidad del enfoque, el progreso del examen, otra información relevante para el operador o combinaciones de los mismos.
Hay tres fases distintas en el proceso 800 asociadas con la trayectoria destinada a proporcionar información clínicamente relevante. Más específicamente, la lógica de procesamiento bajo el control del programa de ordenador en el dispositivo 100 puede ejecutar en las etapas 804, 806 y 808, una fase de calibración, una fase de enfoque y una fase de protocolo de examen, respectivamente, para adquirir datos de imagen de la pupila para el análisis de error de refracción. Los datos de imagen sin procesar adquiridos en cada una de estas fases pueden estar disponibles para su visualización a un operador, en la etapa 814, en la pantalla de visualización del operador 114 del dispositivo 100.
La intensidad de un reflejo de una pupila puede variar ampliamente entre los examinados debido principalmente al error de refracción y al tamaño de la pupila. Dado que el rango dinámico del sensor en el componente de captura de imágenes 104 es limitado, se debe encontrar un tiempo de exposición óptimo para asegurar que el reflejo de un examinado sea detectable y no saturado. Para lograr esto, se proporciona un proceso de calibración 820 usando un rango de tiempos de exposición (por ejemplo, 6, 12 y 18 milisegundos), que puede seleccionarse para muestrear el rango de tiempos de exposición utilizables derivados empíricamente dada una iluminación de lente, sensor y LED seleccionada. El proceso de calibración 820 puede ejecutarse, en la etapa 804, para habilitar la fase de calibración del proceso 800. Las etapas que comprenden el proceso de calibración 820 se describen con referencia al diagrama de flujo ilustrado en la figura 8b .
Con referencia a la figura 8B, el proceso de calibración 820 puede iniciarse seleccionando y configurando, en la etapa 822, un patrón de LED adecuado para la fase de calibración. En una realización preferida, los LED NIR 18, 25 y 32 pueden estar iluminados para proporcionar más luz de la que sería entregada por cualquier estímulo de emparejamiento de descentricidad. Esto asegura que un tiempo de exposición correctamente calibrado no saturará el sensor cuando se entregue un estímulo de emparejamiento de descentricidad seleccionado. Después de configurar el patrón de LED, se pueden seleccionar y establecer tiempos de exposición, en la etapa 824, para la prueba. Usando el tiempo de exposición seleccionado, se puede adquirir una imagen capturada, en la etapa 826, y se puede determinar, en la etapa 828, si se detectan pupilas en la imagen capturada. Si no se detectan las pupilas en la imagen capturada, el proceso 820 puede volver a seleccionar y configurar, en la etapa 824, un tiempo de exposición diferente. Usando el tiempo de exposición recientemente seleccionado, se adquiere nuevamente una imagen capturada, en la etapa 826, y se puede determinar, en la etapa 828, si se detectan pupilas en la imagen capturada. Si se detectan pupilas, la viabilidad del tiempo de exposición seleccionado se prueba adicionalmente mediante una segunda determinación, en la etapa 830, para evaluar si las pupilas pasan criterios de aceptación predeterminados.
Varios criterios de aceptación pueden ser utilizados para la segunda determinación, en la etapa 830, para evaluar la idoneidad de imágenes de la pupila detectadas para su uso en la determinación de un tiempo de exposición óptimo. Estos incluyen, pero no se limitan a, una presencia adecuada de pupilas necesarias para realizar la calibración, un tamaño de pupila aceptable que tenga un diámetro medible que oscila entre 1,5 y 10 mm, una distancia aceptable entre los centros de las pupilas, una distancia aceptable del examinado desde el dispositivo 100, un nivel de saturación pupilar aceptable o combinaciones de los mismos.
Si se realiza una determinación, en la etapa 830, esas upilas detectadas que no satisfacen uno o más criterios de aceptación predefinidos, entonces el proceso 820 de nuevo puede volver a la selección y ajuste, en la etapa 824, otro tiempo de exposición para la prueba. El proceso 820 puede repetirse para determinar cuál de los tiempos de exposición proporciona resultados óptimos, es decir, pupilas detectadas sin saturación. La saturación puede definirse como que más del 10 % de los píxeles en la pupila tienen un valor de intensidad superior al 98 % del valor máximo asociado con el sensor en el componente de captura de imágenes 104. Cuando se detecta la imagen de la pupila deseada, se puede calcular el tiempo de exposición óptimo, en la etapa 832.
El tiempo de exposición del sensor óptimo se puede establecer en el 75 % del rango de sensor completo. Una vez que se encuentran las pupilas, se mide el brillo de una tira central de 25 x 11 píxeles. La medida del brillo se toma como la intensidad media de la pupila en esta tira. Dado el valor de intensidad media, el tiempo de exposición óptimo se calcula de la siguiente manera:
767,25* Exp i 'm
ExPTm^ m ¡ntensidadPupilaMedia
Cuando se incluyen ambas pupilas en un examen, la pupila con el valor de intensidad media más brillante se puede usar en el cálculo.
Después de que se ha calculado un tiempo de exposición óptimo, un proceso de enfoque 840 puede ser ejecutado, en la etapa 806, para permitir que la fase de enfoque del proceso 800. Es necesario un buen enfoque de la imagen de la pupila para capturar con precisión las imágenes de la pupila. En particular, si el brillo desde la superficie corneal no está bien enfocado, su posición no se puede determinar con precisión y la dirección de la mirada puede no ser medible. Además, si la imagen de brillo es muy difusa y se superpone significativamente con el reflejo, esto probablemente dará como resultado una estimación pobre del error de refracción. Las etapas que comprenden el proceso de enfoque 840 se describen con referencia al diagrama de flujo ilustrado en la figura 8C.
Similar a la fase de calibración descrita en el proceso 820, la fase de enfoque en el proceso 840 evalúa la idoneidad de las imágenes capturadas. Haciendo referencia a la figura 8C, el proceso de enfoque 840 se inicia seleccionando y configurando, en la etapa 842, un patrón de LED adecuado para la fase de enfoque. En una realización preferida, los LED NIR 18, 25 y 32 pueden iluminarse para garantizar que la pupila refleje suficiente luz reflejada. Después de establecer el patrón de l Ed , se puede adquirir una imagen capturada, en la etapa 844, y se puede determinar, en la etapa 846, si se detectan pupilas en la imagen capturada. Si no se detectan pupilas en la imagen capturada, entonces el proceso 840 puede volver al proceso 820 para reiniciar la fase de calibración. Si se detectan pupilas, las imágenes de las pupilas pueden estar sujetas a determinaciones suplementarias, en las etapas 848 y 850, para evaluar si los alumnos pasan un primer conjunto y un segundo conjunto, respectivamente, de criterios de aceptación.
El primer conjunto de criterios de aceptación utilizados en proceso 840 puede ser similar a los criterios de aceptación utilizados en proceso 820 - es decir, la presencia adecuada de las pupilas, tamaño de la pupila aceptable y distancia entre pupilas aceptable. Si se realiza una determinación, en la etapa 848, que las pupilas detectadas no satisfacen el primer conjunto de criterios de aceptación, entonces el proceso 840 puede volver nuevamente al proceso 820 para reiniciar la fase de calibración. Si las pupilas detectadas satisfacen el primer conjunto de criterios de aceptación, entonces la pupila detectada puede probarse, en la etapa 850, contra el segundo conjunto de criterios de aceptación. El segundo conjunto de criterios de aceptación se utiliza para evaluar el brillo y la dirección de la mirada. Si se determina, en la etapa 850, que las imágenes de la pupila no producen la presencia del brillo o una dirección de mirada aceptable, entonces el proceso 840 puede adquirir, en la etapa 842, una nueva imagen capturada.
Cuando la determinación, en la etapa 850, llega a la conclusión de que el segundo conjunto de criterios de aceptación se satisface, las fases de calibración y enfoque se completan y el proceso 800 puede entonces proceder a la ejecución, en la etapa 808, del proceso de protocolo de examen 860. En el proceso 860, los criterios para determinar la idoneidad de la imagen son más estrictos que en las fases de calibración y enfoque asociadas, respectivamente, con el proceso 820 y el proceso 840. Además de las medidas de imagen estándar, se pueden realizar cambios en algunas medidas de imágenes para reducir la posibilidad de desenfoque en las imágenes. Los cambios en las medidas de la imagen se realizan preferiblemente entre una imagen actual y una imagen de referencia, que es típicamente la imagen que precede a la imagen actual. Las etapas que comprenden el proceso de protocolo de examen 860 se describen con referencia al diagrama de flujo ilustrado en la figura 8D.
Con referencia a la figura 8D, el proceso del protocolo de examen 860 se inicia seleccionando y configurando, en la etapa 862, uno de los 23 patrones de LED de estímulo. Usando el patrón de LED seleccionado, se adquiere la imagen capturada correspondiente, en la etapa 864. Al adquirir la imagen capturada, se realiza una determinación inicial, en la etapa 866, para verificar nuevamente que se han detectado pupilas en la imagen capturada. Si no se detectan pupilas en la imagen capturada, entonces el proceso 860 puede volver al proceso 820 para reiniciar la fase de calibración. Si se detectan las pupilas, las imágenes de las pupilas se someten a una segunda determinación, en la etapa 868, para evaluar si las pupilas detectadas pasan los criterios de aceptación, como se describió anteriormente en el proceso 840 utilizado para establecer el enfoque. Como en el proceso 840, si se determina que uno o más criterios de aceptación en el proceso 860 no cumplen, el proceso 860 puede volver a la fase de calibración del proceso 820.
En una realización preferida, en función de la insuficiencia criterios detectados, el proceso 860 puede determinar si es necesario para volver a la fase de calibración del proceso 820 o solo a la fase de enfoque del proceso 840. Los fallos de los criterios que resultan en un retorno a la fase de calibración del proceso 820 pueden incluir, pero no se limitan a, ausencia de pupilas en la imagen actual, tamaño(s) inaceptable(s) en las imágenes actuales o de referencia, cambio inaceptable en el tamaño de la pupila entre imágenes actuales y de referencia, distancia inaceptable entre pupilas en la imagen actual, cambio inaceptable en la distancia entre pupilas entre imágenes actuales y de referencia, o dirección inaceptable de la mirada en las imágenes actuales y de referencia. Los fallos de los criterios que dan como resultado un retorno solo a la fase de enfoque del proceso 840 pueden incluir, pero no se limitan a, ausencia de pupilas en la imagen de referencia, cambio inaceptable en la posición de la pupila entre las imágenes actuales y de referencia, distancia inaceptable entre pupilas en la referencia imagen, posiciones de brillo inaceptables en las imágenes actuales y de referencia, cambios inaceptables en las posiciones de brillo entre las imágenes actuales y de referencia, o cambios inaceptables en la dirección de la mirada entre las imágenes actuales y de referencia.
Cuando los criterios asociados con la determinación, en la etapa 868, se satisfacen, la imagen adquirida puede ser almacenada, en la etapa 870, para ser utilizada en el análisis de errores de refracción. Después de almacenar la imagen adquirida, en la etapa 870, se puede hacer una determinación adicional, en la etapa 872, para identificar si las imágenes asociadas con cualquiera de los 23 patrones LED de estímulo quedan por capturar. El proceso 860 puede repetirse hasta que cada uno de los 23 patrones de LED de estímulo, y la imagen adquirida correspondiente para cada uno, satisfaga los criterios de aceptación y se almacene. Una vez que se hayan adquirido y almacenado las 23 imágenes, el proceso 800 puede continuar con la ejecución, en la etapa 812, de un análisis de las respuestas oculares asociadas con cada una de las imágenes guardadas con el fin de realizar el error de refracción y los análisis de la mirada.
La adquisición de imágenes de pupila se produce a lo largo de un examen ocular hasta que todas las imágenes asociadas con la fase del protocolo de examen (es decir, la presentación de los 23 estímulos y la recopilación de las respuestas oculares correspondientes) se capturan con éxito. Como tal, debe emplearse un método fiable para detectar pupilas. El método empleado por el dispositivo 100 se describe con referencia al diagrama de flujo ilustrado en la figura 9, que representa un proceso de adquisición de pupilas 900 altamente fiable.
El proceso de adquisición de pupilas 900 puede estar compuesto de dos operaciones básicas, las operaciones de pantalla completa (etapas 902-908) y las operaciones de candidatos de pupilas (etapas 910-918). Para iniciar el proceso de adquisición de pupila 900, se captura una imagen de alta resolución, en la etapa 902, por el componente de captura de imágenes 104 al presentar estímulos cercanos a infrarrojo a un examinado. Como se describió anteriormente, el componente de captura de imágenes 104 puede establecerse en 752 (horizontal) por 480 píxeles (vertical), como se ilustra en la figura 7B, para proporcionar una captura de imágenes de alta resolución. Al adquirir la captura de imágenes de alta resolución, la imagen puede diezmarse o submuestrearse, en la etapa 904, para reducir el tiempo de cálculo para el aislamiento preliminar de las pupilas candidatas. Por ejemplo, al diezmar la imagen de alta resolución, cada cuarto de píxel puede ser copiado en una matriz de submuestreada, proporcionando de este modo una imagen que es 1/16 de la imagen de alta resolución (es decir, 188 x 120 píxeles).
Una vez que la imagen de alta resolución ha sido diezmada, un filtro de pupila se puede aplicar, en la etapa 906, utilizando un procedimiento de dos etapas configurado para mejorar pixeles probables que se encuentra dentro de las pupilas. Cada pase puede aplicar un núcleo optimizado, basado en una plantilla de pupila - no pupilar, escaneando qué tan bien los píxeles circundantes se ajustan a la plantilla. La aplicación del núcleo puede optimizarse para la velocidad considerando solo un número limitado de píxeles circundantes simétricamente espaciados en lugar de una matriz completa de puntos posibles. Un ejemplo de núcleo de filtrado de pupila optimizado se ilustra en la figura 10.
Con referencia a la figura 10, un píxel designado con una marca de referencia "x" corresponde al píxel central de la plantilla del núcleo, los píxeles designados con una marca de referencia "-" se consideran píxeles ubicados en una región pupilar de la plantilla del núcleo, y los píxeles designados con una marca de referencia "/" se consideran píxeles ubicados en una región no pupilar de la plantilla del núcleo. Las secciones restantes de la plantilla del núcleo, situadas entre la pupila designada y las regiones no pupilares, no se examinan ni se utilizan, lo que permite que la plantilla del núcleo acomode los tamaños de pupila variables. Todos los demás píxeles, sin marcar en la figura 10, igualmente no se examinan.
El uso de la plantilla núcleo de filtrado de la pupila de la figura 10, la salida máxima se logra cuando los píxeles en la región de pupila designada de la plantilla tienen una alta intensidad y los píxeles en la región designada no pupilar de la plantilla tienen una intensidad baja. Inicialmente, la salida puede ser la diferencia entre la pupila promedio y las intensidades de píxeles no pupilares promedio. La salida puede reducirse aún más cuando los valores de intensidad no pupilar son similares al fondo (intensidad de imagen promedio) y cuando aumenta la varianza de los anillos de píxeles internos y externos no pupilares.
Después de la aplicación del núcleo de filtrado de la pupila, la imagen mejorada resultante puede guardarse, en la etapa 908, en una lista de candidatos de pupila. Se puede generar un mapa de pupilas candidatas utilizando un procedimiento combinado de umbral y conectividad de píxeles. El umbral puede determinarse empíricamente a partir de la salida filtrada y puede calcularse de la siguiente manera:
Figure imgf000011_0001
Donde un valor de fondo medio es representativo de la intensidad de píxel promedio de una imagen de salida filtrada completa y donde un valor de salida máximo es representativo de la intensidad más alta en la imagen de salida filtrada. La conectividad de píxeles puede basarse en un algoritmo de relleno de inundación, donde a los píxeles conectados se les asigna un identificador candidato. En muchos casos, múltiples candidatos estarán presentes en cada mapa de candidatos.
Al término de las operaciones de marco completo, una transición puede entonces hacerse a las operaciones candidatos de pupila del proceso 900. Las operaciones de los candidatos de pupila se realizan en cada imagen almacenada, en la etapa 908, en la lista de candidatos de pupila. Se puede recuperar a un candidato de pupila, en la etapa 910, para iniciar las operaciones del candidato de pupila. Para cada candidato de pupila recuperado, se proporciona un rectángulo delimitador que abarca el candidato de pupila. Las dimensiones que definen los lados del rectángulo delimitador pueden determinarse por los números de columna de píxeles de la izquierda y la derecha de un candidato de pupila, y las filas de píxeles de la parte superior e inferior del candidato de pupila. Los candidatos de pupila que tengan rectángulos delimitadores con un ancho o alto que comprenda menos de dos (2) píxeles son rechazados inmediatamente. Si se retiene un candidato de pupila, el centro del rectángulo delimitador se puede ajustar para que coincida con la posición equivalente en una imagen de alta resolución correspondiente del candidato de pupila, generando un cuadrado delimitador inicial (65 x 65 píxeles) para identificar, en la etapa 912, una región de interés (ROI) en la imagen de alta resolución. Todas las operaciones a partir de este momento pueden realizarse en la versión de alta resolución de la subimagen de ROI.
La ROI para un candidato de pupila se puede binarizar, en la etapa 914, para identificar los píxeles del borde de la pupila. Un enfoque de método dual que comprende un método de intensidad de píxeles y un método de pseudo gradiente, como se ilustra en la figura 11A, puede usarse para binarizar la ROI, cada método produce un mapa binario de píxeles de borde de la pupila. El enfoque de método dual se describe con referencia al diagrama de flujo ilustrado en la figura 11B, que proporciona un proceso de identificación del borde de la pupila 1100 que emplea tanto el método de intensidad de píxel como el método de pseudogradiente. El proceso 1100 se inicia obteniendo, en la etapa 1102, la ROI para un candidato de pupila seleccionado. Al obtener la ROI para el candidato de pupila, se pueden aplicar tanto la intensidad de píxel como los métodos de pseudogradiente del proceso 1100.
En el método de intensidad de los píxeles del proceso 1100, la identificación de píxeles pupila dentro de la ROI de un candidato de pupila se realiza a través de binarización. La ROI del candidato de pupila se somete a una binarización, en la etapa 1104, para ayudar a distinguir los píxeles pupilares de los píxeles no pupilares dentro de la ROI. Se utiliza un valor umbral durante la binarización y se puede determinar a partir de un histograma de intensidad (es decir, brillo) de la ROI. En la ROI, las intensidades del borde de la pupila se mezclarán con píxeles no pupilares, y los píxeles no pupilares serán más oscuros que los píxeles pupilares. El recuento de píxeles no pupilares en la parte de baja intensidad del histograma será mayor que el de los píxeles pupilares, como se ilustra en el histograma de intensidad de la figura 11C.
Para aislar la distribución de puntos de la pupila, la intensidad con el punto más alto en la distribución de número de píxeles en la más baja aproximada del 40 % del histograma se pueden encontrar primero y se registró como la intensidad mediana (fondo) para el área alrededor de la pupila. A continuación, se puede examinar la distribución de los puntos de la pupila a intensidades por debajo del valor medio y se supone que la simetría en el lado alto del valor medio construye una distribución asociada con los puntos no pupilares solamente. La distribución de los puntos no pupilares se puede restar de la distribución total para aislar solo la distribución de los puntos pupilares. Cualquier recuento negativo de píxeles resultante de la resta se establece en recuentos de píxeles cero, al igual que todas las intensidades iguales o menores que la mediana. El histograma resultante será una estimación conservadora de las intensidades en la pupila dentro de la ROI.
Usando el histograma resultante, un valor medio de intensidad pupilar se calcula y el umbral se puede establecer en un valor punto medio entre el valor de intensidad mediana no pupilar y el valor medio de intensidad de pupilar. Este valor umbral se utiliza para generar una imagen binaria de la ROI, donde los valores de intensidad de la pupila por debajo del valor de umbral se establecen en cero y los valores de intensidad de la pupila por encima o igual al valor de umbral se establecen en uno. Luego se detectan los bordes de la pupila, en la etapa 1105, buscando en todas las filas y columnas de la imagen binaria generada, avanzando hacia fuera desde un punto central especificado (cx, cy) hasta que se encuentra un píxel no pupilar (valor cero). Al escanear cada fila/columna, si un píxel de pupila no tiene un píxel de pupila adyacente (valor distinto de cero) en la siguiente fila/columna, entonces se supone que se encuentra el borde de la pupila y se termina la exploración en esa dirección.
Después de generar un mapa binario de puntos de borde utilizando el método de intensidad de los píxeles, se emplea el método de pseudogradiente del proceso 1100 para generar un segundo mapa binario de puntos de borde para un candidato de pupila. En el método de pseudogradiente, los píxeles del borde de la pupila se detectan usando una tasa de cambio de intensidad a través de una imagen calculando, en la etapa 1106, un pseudogradiente en cada píxel. Con referencia a la rejilla de píxeles ilustrada en la figura 11D, el pseudogradiente en un píxel se calcula de la siguiente manera:
Figure imgf000012_0001
El cálculo de pseudogradiente es tan efectivo como un cálculo de gradiente estándar, que se calcula de la siguiente manera:
Figure imgf000012_0002
Sin embargo, el uso de un cálculo de pseudogradiente elimina la necesidad de un cálculo de raíz cuadrada computacionalmente costoso en cada píxel.
Después de que el pseudogradiente se calcula en cada pixel, la imagen resultante está sujeta a binarización, en la etapa 1107, usando un valor umbral. Aquí, la determinación del valor umbral para propósitos de binarización depende de un resultado obtenido por el método de intensidad de pupila, específicamente, el número de píxeles de borde encontrados en la aplicación del método de intensidad de píxel. El número de píxeles de borde producidos por el método de intensidad de píxeles se puede escalar en cuatro (4), un valor seleccionado empíricamente, y se supone que es el número máximo de píxeles de borde que se puede encontrar usando el método de pseudogradiente. La escala es necesaria, ya que el borde de la pupila cedido por un método de pseudogradiente no será un borde limpio de un píxel de espesor, como se ilustra en la figura 11E. Dado este número máximo de píxeles de borde, se puede realizar una búsqueda de arriba hacia abajo a través de un histograma de pseudogradiente hasta que se haya acumulado el número máximo de píxeles de borde. La intensidad de píxel donde esto se produce puede tomarse como el valor umbral para propósitos de binarización de la imagen de pseudogradiente.
Los mapas binarios producidos por la intensidad de los píxeles y los métodos pseudogradiente se pueden combinar, en la etapa 1108, para generar un mapa de los píxeles del borde de la pupila comunes. Entonces se puede aplicar un filtro al mapa, en la etapa 1110, usando un conjunto de criterios predefinidos para identificar elementos de píxeles indeseables. Se puede ejecutar una primera determinación, en la etapa 1112, para identificar si están presentes píxeles de borde aislados. Un píxel de borde aislado puede ser un píxel que no está conectado a ningún otro píxel de borde o puede ser un píxel no emparejado con otro píxel de borde en su fila/columna. Se puede ejecutar una segunda determinación, en la etapa 1114, para identificar si los píxeles internos del borde están presentes. Un píxel de borde interno puede ser un píxel que se encuentra entre otros dos píxeles en su fila/columna (por ejemplo, 3 píxeles en una fila o columna). Si se determina que están presentes píxeles de borde aislados o internos, se eliminan, en la etapa 1116, y se genera un mapa final de píxeles de borde de pupila, en la etapa 1118.
Después de que el mapa final se identifica, los correspondientes píxeles de borde pupila pueden ser almacenados, en la etapa 916, y un círculo de mejor ajuste se pueden aplicar, en la etapa 918, utilizando un método de mínimos cuadrados. La aplicación del círculo de mejor ajuste, utilizando los píxeles finales del borde de la pupila, identifica la posición y el tamaño de la pupila. Se pueden usar varios criterios para evaluar y rechazar candidatos a pupilas indeseables en función de los parámetros de círculo de mejor ajuste. Los candidatos de pupila pueden ser rechazados, por ejemplo, si se determina que el centro de una pupila se encuentra fuera del cuadrado delimitador del candidato, si se determina que el diámetro de una pupila es menor de 2 mm o mayor de 10 mm, si el 12,5 % de los puntos de borde filtrados están a más de 1/3 mm del perímetro del círculo, si el 50 % de los puntos de borde sin filtrar están a más de 1/3 mm del perímetro del círculo, se seleccionan combinaciones de los mismos o cualquier otro criterio aplicable para determinar la idoneidad de un candidato de pupila para someterse a análisis de error de refracción.
Una vez que un candidato de pupila ha sido objeto de las operaciones de candidatos de pupila, se toma una determinación, en la etapa 920 del proceso 900, si permanece alguno de los candidatos de pupila. Si es así, las operaciones del candidato de pupila vuelven al principio y recuperan, en la etapa 910, el próximo candidato de pupila para la binarización y una aplicación de círculo de mejor ajuste. Una vez que todos los candidatos de pupila han sido sometidos a las operaciones de candidatos de pupila, se puede ejecutar un proceso de análisis de error de refracción 1200 procesando la lógica bajo el control del programa de ordenador en el dispositivo 100.
Análisis de error de refracción
El error de refracción se define como la corrección óptica que proporcionaría una buena visión. En oftalmología y optometría, las correcciones ópticas se describen casi universalmente utilizando tres valores: una potencia esférica (sph), una potencia cilíndrica (cil) y una orientación (eje) para el cilindro. Dado un estado general de refracción del ojo, la esfera, el cilindro y la orientación se pueden usar para calcular el error de refracción a lo largo de cualquier meridiano del ojo. En el dispositivo de proyección ocular de fotorrefracciones 100, se emplea un método inverso donde, dado el error de refracción a lo largo de los meridianos 0°, 60°, 120° del ojo, estos errores de refracción meridional se pueden combinar para determinar el estado refractivo global del ojo. El cálculo se compone de un proceso de dos etapas, donde las variables intermedias A, B y D se determinan de la siguiente manera:
Figure imgf000013_0001
Con valores para A, B y D, el error de refracción general se determina usando:
sph = A - ^ ( B 2 D 2)
cyl = 2 * ^ ( B 2 D 2)
Figure imgf000013_0002
Una vez que se ha calculado el eje, se puede agregar un ángulo de rotación de inclinación de la cabeza para producir el error de refracción final.
El patrón de luz en una pupila debido a la reflexión retinal, o reflejo, de un ojo en respuesta a un estímulo de LED NIR es dependiente del estado refractivo del ojo. En la aplicación de los LED NIR 106b dispuestos en la matriz de LED 106, los factores que influyen en el reflejo incluyen la posición angular (es decir, los meridianos) de los LED NIR 106b y la distancia perpendicular (es decir, la descentración) de los LED NIR 106b desde el eje óptico central del componente de captura de imágenes 104. Para una descentración dada, los marcos de imagen capturados se analizan para determinar los reflejos de los patrones de iluminación proporcionados a lo largo de las líneas de eje 0°, 60°, 120° y, respectivamente, a lo largo de sus líneas conjugadas 180°, 240° y 300° correspondientes. Los resultados de los dos marcos de imagen del eje y las líneas conjugadas a lo largo del mismo meridiano se pueden combinar para determinar una potencia de refracción a lo largo de ese meridiano.
Se describe un proceso 1200 para determinar la potencia refractiva a lo largo de un meridiano con referencia al diagrama de flujo ilustrado en la figura 12. El proceso 1200 puede iniciarse mediante la eliminación, en la etapa 1202, de brillos corneales de las regiones de la pupila en el eje y las imágenes de conjugados correspondientes. El brillo, que también se conoce comúnmente como la primera imagen de Perkinje o el reflejo de Hirschberg, es un reflejo especular brillante de los LED NIR desde la superficie externa de la córnea. Debido a la curvatura de la córnea, esta reflexión tiene un pequeño dominio espacial en una imagen bien enfocada. Para realizar con precisión una determinación de error de refracción, el brillo debe eliminarse del reflejo pupilar. Sin embargo, la ubicación del brillo en relación con el centro de la pupila se retiene para calcular el eje de fijación de la mirada.
Si el eje de fijación (también llamado la línea de visión) está a lo largo del eje que atraviesa el centro de la pupila y el centro de la córnea (es decir, el eje óptico), el brillo parecerá estar en el centro de la pupila. Si el eje de fijación se desvía del eje óptico, el brillo aparecerá descentrado. Se puede calcular, para una buena aproximación, el eje de fijación por la simple relación que establece que el ojo gira aproximadamente 11,5° por milímetro de descentración (los números pueden variar en la literatura). Debido a la anatomía del ojo, está bien establecido que en una posición de mirada normal, el eje de fijación no está a lo largo del eje óptico, sino que se desvía aproximadamente de 2° a 5° horizontalmente y de 1° a 2° verticalmente.
Para determinar el eje de fijación, el momento de cambio de la mirada, la duración de la fijación y secuenciales selecciones de los objetos hacia el cual se dirige la mirada no son de interés. El único propósito de monitorizar la dirección de la mirada es garantizar que un examinado esté mirando el estímulo visible para captar la atención (es decir, la dirección de la mirada es hacia el componente de captura de imágenes 104 del dispositivo de proyección ocular de fotorreflexión 100) y detectar anormalidades en el eje de fijación en uno o ambos ojos, lo que puede indicar problemas de alineación ocular (por ejemplo, estrabismo). Cualquier marco de imagen capturado en el que la dirección de la mirada no se dirige al componente de captura de imágenes 104 (por ejemplo, la mirada se dirige a la cara del operador del dispositivo) se rechaza y no se considera más. Todas las mediciones dependen de la adquisición de imágenes de la pupila que evidencian una dirección de la mirada hacia el componente de captura de imágenes 104 dentro de una tolerancia especificada y que permite anormalidades.
Para determinar la posición del brillo, un cuadrado de 65 x 65 pixeles se puede extraer de alrededor del centro de la pupila. Se puede aplicar un filtro de paso bajo a esta subimagen, en donde la subimagen filtrada se puede restar de la subimagen en bruto. La ubicación de la diferencia máxima resultante de la resta de las dos imágenes se toma como el centro del brillo. Una vez que se identifica el centro del brillo, se pueden calcular nuevos valores de intensidad para los píxeles que rodean el centro del brillo. Un área de píxeles circundante de 9 x 91302 puede estar centrada en un área de píxel de brillo 1304, como se ilustra en la figura 13. Se pueden calcular nuevos valores de intensidad utilizando un promedio ponderado de cada píxel en el área 1302 que rodea el área 1304 para la interpolación de brillo. La ponderación para cada píxel en el área 1302 puede basarse en la distancia del píxel desde el píxel que se está interpolando.
Después de la eliminación de los reflejos corneales, en la etapa 1202, un filtro de paso bajo se puede aplicar, en la etapa 1204, a la región de pupila en cada imagen para eliminar el ruido de alta frecuencia a partir de los datos reflejados. Una vez que se elimina el ruido de las imágenes, el proceso 1200 puede proceder a ejecutar una rotación, en la etapa 1206, de las imágenes de la pupila para alinear los ángulos de estímulo con el meridiano horizontal. Por ejemplo, un conjunto de LED 106 proporciona un emparejamiento de descentricidad de estímulos que comprende el lEd NIR central 25 y el LED NIR 36, a lo largo de la línea del eje del meridiano de 60°, como se ilustra en la imagen (a) de la figura 14. En una realización preferida, la imagen de la pupila resultante de este estímulo se puede girar en sentido antihorario 120° centrada en el centro de la pupila para llevar el meridiano de interés a lo largo del meridiano horizontal, como se ilustra en la imagen (b) de la figura 14. Esto requiere la capacidad de interpolar entre píxeles para crear una imagen girada con el mismo espacio entre píxeles para todos los ejes. Una vez que se ha girado la imagen, se puede extraer una tira de 25 x 11 píxeles, en la etapa 1208, para su posterior procesamiento. Una sección resaltada 1402, como se ilustra en la imagen (c) de la figura 14, indica la tira de píxeles de 25 x 11 que se puede usar en los análisis. Este proceso de rotación y extracción se realiza en imágenes de pupila en respuesta a estímulos proporcionados tanto en la línea del eje como en la línea conjugada correspondiente para la misma descentración en un meridiano seleccionado.
La relación de imagen (división) es una técnica para la mejora de características que usa dos vistas del mismo objeto y puede expresarse matemáticamente como:
Figure imgf000014_0001
Donde (i, j) son coordenadas de píxeles de las imágenes de entrada y salida (es decir, división píxel por píxel). La relación de imágenes es útil para enfatizar las diferencias entre dos imágenes, mientras se suprimen las similitudes. A diferencia de la simple sustracción de imágenes, la relación también cancela los factores multiplicativos (por ejemplo, ganancia del sensor de imagen, tiempo de exposición y aumento debido a pequeños errores de distancia) comunes a ambas imágenes.
Un enfoque de relación único se implementa la lógica de procesamiento bajo control de programa de ordenador en el dispositivo 100. En el proceso 1200, el eje y las imágenes conjugadas correspondientes se usan como imágenes de entrada, donde se calcula la relación de valores de intensidad de píxeles para el eje y las tiras de píxeles conjugadas correspondientes, en la etapa 1210. Un ejemplo de la relación de imagen de pupila en el proceso 1200 se ilustra en la figura 15, donde las imágenes (a) y (b) son, respectivamente, imágenes de entrada de eje y conjugadas generadas en respuesta a un estímulo presentado a lo largo del meridiano de 0° en descentraciones de 12,70 mm desde el LED NIR central 25 (ver la figura 4B). El resultado de la relación, como se ilustra en la imagen (c) de la figura 15, puede mejorar el contraste. Una representación de pseudocolor, como se ilustra en la imagen (d) de la figura 15, de la relación resultante, como se ilustra en la imagen (c) de la figura 15, también se puede proporcionar, donde un rectángulo interno 1502 es representativo de la tira de píxeles de 25 x 11 utilizada en el análisis de error de refracción.
Como se ilustra en la figura 16A, solo los pares de tiras de 25 x 11 píxeles rotados y extraídos del centro de la pupila se someten a una relación. La tira de píxeles de relación 25 x 11 resultante se analiza, en la etapa 1212, para generar una medida que se correlaciona con el error de refracción. El análisis en la etapa 1212 puede utilizar uno de los dos correlatos de error de refracción que comprenden un correlato de pendiente de perfil y un correlato de coeficiente de análisis de componentes principales (PCA).
En la generación de la correlación pendiente del perfil, las once (11) líneas de exploración de la tira de pixel relación pueden promediarse, como se ilustra en la figura 16B, para producir un solo vector de perfil que tiene elementos de 25 píxeles. La pendiente del vector de perfil se calcula donde los valores y son los valores de perfil y los valores x varían de -12 a 12 (25 píxeles). Al generar el correlato del coeficiente PCA, se usan tres (3) vectores en su cálculo que comprenden un vector de datos de imagen, un vector de componente PCA y un vector medio PCA. Tanto el componente PCA como los vectores medios pueden estar predeterminados y codificados, o se pueden cargar, desde uno o más archivos de datos almacenados accesibles por la lógica de procesamiento bajo el control del programa de ordenador en el dispositivo 100. En la correlación del coeficiente PCA, para facilitar el cálculo, la tira de datos de píxeles bidimensionales se convierte en un vector unidimensional. Transformando la rejilla de datos de imagen en un vector, como se ilustra en la figura 16C, se crea un vector de 275 píxeles de longitud, donde los primeros 25 píxeles están determinados por la primera fila de datos, los siguientes 25 píxeles están determinados por la segunda fila de datos, y así sucesivamente hasta que las once líneas de escaneado de la tira de píxeles de proporción estén incorporadas en el vector.
Para calcular el coeficiente de PCA, el factor medio de PCA primero se resta del vector de datos de imagen, de la siguiente manera:
Datos ' = Datos ¡ - Media ¡
Después de obtener la diferencia, las sumas intermedias se calculan de la siguiente manera:
275
4 ™ ^ V , Componente ,
275
^ suma = X C°mP°nente i*
Habiendo calculado las sumas intermedias, el coeficiente se calcula de la siguiente manera:
Figure imgf000015_0001
La conversión de una medida correlacionada a r(0), un error de refracción en un ángulo meridiano de estímulo se puede realizar mediante comparación con un conjunto de curvas de calibración de descentricidad. Hay un total de cuatro (4) curvas, D1 a D4, una para cada descentricidad única. Las descentricidades asociadas con cada meridiano de estímulo se ilustran en la figura 17A, mientras que las curvas de calibración de muestra para cada una de las cuatro descentricidades se ilustran en la figura 17B. Las curvas de calibración se pueden definir en 1/16 etapas de dioptrías entre -8 y 8 dioptrías, resultando en 257 elementos de cada curva. Se puede calcular una curva de error agregado sobre este rango de dioptrías, de la siguiente manera:
Figure imgf000015_0002
a n 1 a n o 0D3
donde es el valor de error agregado; S , S y S son los valores correlacionados a lo largo de uno de los tres meridianos de estímulo primario 0 en las descentricidades D1, D2 y D3, respectivamente; SD4 es el promedio de los valores correlacionados a lo largo de los meridianos de estímulo de 36,59° y 143,41° en la descentricidad D4; t D 2
Figure imgf000015_0003
y son los elementos de las curvas de calibración para las descentricidades D1, D2 y D3, respectivamente; y son los elementos de la curva de calibración para la descentricidad D4. Una muestra de la curva de error de calibración agregada se ilustra en la figura 17C. Para determinar el error de refracción, en la etapa 1214, el valor de error mínimo se encuentra en la curva agregada y se selecciona su error de refracción asociado. Aunque la descripción detallada anterior ilustra realizaciones principales de la invención, se apreciará que diversas modificaciones pueden realizarse por aquellos expertos en la técnica sin apartarse de la invención descrita en el presente documento.

Claims (6)

REIVINDICACIONES
1. Un dispositivo de proyección ocular de fotorrefracciones, que comprende un componente de captura de imágenes (104) acoplado a un componente de lente (102), una matriz de iluminación (106), comprendiendo dicha matriz de iluminación una pluralidad de fuentes de irradiación de un primer tipo (106a) y una pluralidad de fuentes de irradiación de un segundo tipo, donde dicha pluralidad de fuentes de irradiación de dicho primer tipo (106a) emiten luz en un espectro de luz visible y comprenden LED de diferentes colores, y dicha pluralidad de fuentes de irradiación de dicho segundo tipo (106b) emiten luz en un espectro de luz cercana a infrarroja, y un divisor de haz para dirigir la luz emitida desde dicha pluralidad de fuentes de irradiación de dicho primer tipo y dicha pluralidad de fuentes de irradiación de dicho segundo tipo, estando dispuesta dicha pluralidad de fuentes de irradiación de dicho primer tipo (106a) en tres anillos concéntricos, caracterizado por que cada uno de los tres anillos concéntricos está compuesto por más de un LED de diferentes colores separados en un patrón aleatorio.
2. El dispositivo de la reivindicación 1, donde una posición central de dicha matriz de iluminación (106) está alineada con un eje óptico de dicho componente de captura de imágenes (104).
3. El dispositivo de la reivindicación 1, donde dicha pluralidad de fuentes de irradiación de dicho primer tipo está compuesta por diodos emisores de luz (106a) de diferentes colores a longitudes de onda inferiores a 600 nanómetros.
4. El dispositivo de la reivindicación 1, donde dicha pluralidad de fuentes de irradiación de dicho segundo tipo están compuestas por diodos emisores de luz (106b) a una longitud de onda central de 850 nanómetros.
5. El dispositivo de la reivindicación 1, donde dicha pluralidad de fuentes de irradiación de dicho primer tipo (106a) se colocan entre dicha pluralidad de fuentes de iluminación de dicho segundo tipo (106b).
6. El dispositivo de la reivindicación 1, que comprende además un difusor (108) colocado cerca de dicha matriz de iluminación.
ES12747420T 2011-02-17 2012-02-17 Dispositivo de proyección ocular de fotorrefracciones Active ES2745501T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161443871P 2011-02-17 2011-02-17
PCT/US2012/025665 WO2012112901A2 (en) 2011-02-17 2012-02-17 Photorefraction ocular screening device and methods

Publications (1)

Publication Number Publication Date
ES2745501T3 true ES2745501T3 (es) 2020-03-02

Family

ID=46652402

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12747420T Active ES2745501T3 (es) 2011-02-17 2012-02-17 Dispositivo de proyección ocular de fotorrefracciones

Country Status (7)

Country Link
US (5) US9237846B2 (es)
EP (2) EP3566638A1 (es)
CN (1) CN103930015B (es)
AU (2) AU2012219362B2 (es)
BR (1) BR112013021153A2 (es)
ES (1) ES2745501T3 (es)
WO (1) WO2012112901A2 (es)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014118111A1 (en) 2013-01-29 2014-08-07 Sanofi-Aventis Deutschland Gmbh Electronic module and drug delivery device
WO2014169148A1 (en) 2013-04-10 2014-10-16 Eyenetra, Inc. Methods and apparatus for refractive condition assessment
PT3003121T (pt) 2013-06-06 2021-09-06 6 OVER 6 VISION Ltd Sistema de medição de erro refrativo de um olho com base na medição de distância subjetiva
US9420950B2 (en) * 2013-09-17 2016-08-23 Pixart Imaging Inc. Retro-reflectivity array for enabling pupil tracking
FR3014674B1 (fr) * 2013-12-17 2016-02-05 Essilor Int Dispositif et procede de mesure de la refraction subjective
CL2014000594A1 (es) 2014-03-12 2014-09-12 Eyecare S A Sistema y metodo para el diagnóstico preliminar de enfermedades oculares donde se captura una pluralidad de imágenes de los ojos de un individuo y se obtiene una imagen final corregida mediante el procesamiento de dichas imágenes por una aplicación computacional, el sistema comprende un dispositivo de captura de imagenes, un dispositivo generador de luz o flash, una pantalla para visualizar, una memoria y un procesador acoplado a la camara, al flash, pantalla y memoria.
KR20160025316A (ko) * 2014-08-27 2016-03-08 현대자동차주식회사 동공 검출 시스템 및 그 방법
DE102014116665A1 (de) 2014-09-22 2016-03-24 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
US9532709B2 (en) 2015-06-05 2017-01-03 Jand, Inc. System and method for determining distances from an object
US9770165B2 (en) 2015-08-13 2017-09-26 Jand, Inc. Systems and methods for displaying objects on a screen at a desired visual angle
EP3340856A4 (en) * 2015-08-24 2019-05-22 The Board of Trustees of the University of Illionis PIXELIZED FIELD MULTIPROTOCOL STIMULUS SOURCE APPARATUS, METHOD AND SYSTEM FOR PROBE OF VISUAL PATH FUNCTION
US10506165B2 (en) * 2015-10-29 2019-12-10 Welch Allyn, Inc. Concussion screening system
US20170196496A1 (en) * 2016-01-13 2017-07-13 REBIScan, Inc. Method and apparatus for fixation, alignment, and/or saccadic measurements to identify and/or track brain function
EP3192431A3 (de) * 2016-01-14 2017-08-23 Oculus Optikgeräte GmbH Sehprüfsystem und verfahren zum überprüfen der augen
US11200698B2 (en) 2017-06-01 2021-12-14 Germaine Laboratories, Inc. Devices and systems for data-based analysis of objects
US10275681B2 (en) * 2017-06-01 2019-04-30 Germaine Laboratories, Inc. Devices and systems for image-based analysis of test media
CN111164643A (zh) * 2017-08-14 2020-05-15 雷神公司 用于肿瘤检测的减法算法
JP6392963B2 (ja) * 2017-09-28 2018-09-19 株式会社トプコン 眼科装置
US10949969B1 (en) * 2018-03-20 2021-03-16 Welch Allyn, Inc. Pupil edge region removal in digital imaging
US10713483B2 (en) * 2018-03-20 2020-07-14 Welch Allyn, Inc. Pupil edge detection in digital imaging
US10702147B2 (en) 2018-04-16 2020-07-07 Welch Allyn, Inc. Method and apparatus for controlling accommodation and pupil size during an eye examination
US11406257B2 (en) 2018-07-27 2022-08-09 Welch Allyn, Inc. Vision screening device and methods
CN112867433A (zh) * 2018-09-28 2021-05-28 卡尔蔡司医疗技术公司 具有用于对准辅助的集成瞳孔相机的低成本眼底成像器
CA3121396A1 (en) * 2018-12-07 2020-06-11 Ocular Mobile Innovations Inc. Portable device for visual function testing
JP7361362B2 (ja) * 2019-06-10 2023-10-16 株式会社トーメーコーポレーション 網膜電位測定装置
US11471042B2 (en) 2019-07-18 2022-10-18 Welch Allyn, Inc. Vision screening apparatus with a visual acuity protocol compliance feature and an associated method of vision screening
US11475558B2 (en) 2019-11-13 2022-10-18 Raytheon Company Organ isolation in scan data
CN111103975B (zh) * 2019-11-30 2022-09-23 华为技术有限公司 显示方法、电子设备及***
US11282209B2 (en) 2020-01-10 2022-03-22 Raytheon Company System and method for generating contours
US20210390692A1 (en) 2020-06-16 2021-12-16 Welch Allyn, Inc. Detecting and tracking macular degeneration
US20210386287A1 (en) * 2020-06-16 2021-12-16 Welch Allyn, Inc. Determining refraction using eccentricity in a vision screening system
US20210393120A1 (en) * 2020-06-19 2021-12-23 Welch Allyn, Inc. Vision screening systems and methods
US11950848B2 (en) 2020-08-10 2024-04-09 Welch Allyn, Inc. Fundus imaging for microvascular assessment
US20220039654A1 (en) 2020-08-10 2022-02-10 Welch Allyn, Inc. Eye imaging devices
US11562512B2 (en) 2020-12-09 2023-01-24 Raytheon Company System and method for generating and displaying contours
US11893745B2 (en) 2020-12-09 2024-02-06 Raytheon Company System and method for generating and displaying contours
US20220248954A1 (en) * 2021-02-10 2022-08-11 Welch Allyn, Inc. Eye accommodation control
EP4133992A1 (en) 2021-08-13 2023-02-15 Welch Allyn, Inc. Determining color vision ability using a vision screening device
US20230107167A1 (en) * 2021-10-04 2023-04-06 Axiom Innova, Inc. Vision screening device, vision impairment screening system, improved vision screening process, method of assessment, and method of use
EP4238486A1 (en) 2022-01-21 2023-09-06 Welch Allyn, Inc. Vision screening device including color imaging
US11877831B2 (en) 2022-03-14 2024-01-23 O/D Vision Inc. Systems and methods for artificial intelligence based blood pressure computation based on images of the outer eye
WO2024075064A1 (en) 2022-10-05 2024-04-11 Eyecare Spa Methods and apparatus for detection of optical diseases

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1337728A (en) * 1918-09-17 1920-04-20 M E Green Mfg Company Cabinet for exhibiting eye-testing devices
US2466958A (en) * 1945-08-21 1949-04-12 Welch Allyn Inc Portable vision test chart illuminator
US2893288A (en) * 1955-07-01 1959-07-07 John W Sheridan Portable eye-testing apparatus
US3602580A (en) 1970-01-05 1971-08-31 Zuritsky Joseph S Method and optical system for refracting eyes
US3879113A (en) 1973-05-07 1975-04-22 Howard C Howland Photo-refractometer and methods for ophthalmic testing of young children
FI61992C (fi) 1981-05-19 1982-11-10 Kaakinen Kari A Foerfarande och anordning foer befinning och registrering av oegas fel
NZ202116A (en) 1982-10-08 1986-09-10 A C B Molteno Photographic testing of eye focussing defects
US4669836A (en) 1984-09-28 1987-06-02 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Photorefractor ocular screening system
US4834528A (en) 1986-08-15 1989-05-30 Cornell Research Foundation, Inc. Infrared photoretinoscope
US4758080A (en) 1986-12-18 1988-07-19 Cornell Research Foundation, Inc. Pointspread retinoscope
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US4989968A (en) 1989-07-31 1991-02-05 Freedman Howard L Photoscreening camera system
US5214456A (en) 1991-10-09 1993-05-25 Computed Anatomy Incorporated Mapping of corneal topography with display of pupil perimeter
US5329322A (en) * 1992-05-26 1994-07-12 Yancey Don R Palm size autorefractor and fundus topographical mapping instrument
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US5355895A (en) 1993-07-20 1994-10-18 Hay S Hutson Ocular disease detection apparatus
US5632282A (en) 1993-07-20 1997-05-27 Hay; S. Hutson Ocular disease detection apparatus
US6325765B1 (en) 1993-07-20 2001-12-04 S. Hutson Hay Methods for analyzing eye
US6419638B1 (en) 1993-07-20 2002-07-16 Sam H. Hay Optical recognition methods for locating eyes
US5502520A (en) 1993-12-03 1996-03-26 Cibis; Gerhard W. Method and apparatus for detecting eye disorders
DE29616443U1 (de) * 1996-09-20 1997-01-09 Oculus Optikgeräte GmbH, 35582 Wetzlar Sehtestgerät
US5790235A (en) 1997-03-26 1998-08-04 Carl Zeiss, Inc. Method and apparatus to measure pupil size and position
US5859686A (en) 1997-05-19 1999-01-12 Northrop Grumman Corporation Eye finding and tracking system
US6027216A (en) 1997-10-21 2000-02-22 The Johns University School Of Medicine Eye fixation monitor and tracker
US6089715A (en) 1998-10-15 2000-07-18 Eyedx, Inc. Automated photorefractive screening
US5989194A (en) 1998-02-09 1999-11-23 Vision Partners, L.P. Method and apparatus for detecting ocular disease and abnormalities
US6007204A (en) 1998-06-03 1999-12-28 Welch Allyn, Inc. Compact ocular measuring system
AU4614999A (en) 1998-06-23 2000-01-10 Virtual-Eye-Com, Inc. Device for examining ocular motility
AU2001294271A1 (en) * 2000-10-18 2002-04-29 Kabushiki Kaisha Topcon Optical characteristics measuring device
US6523954B1 (en) 2000-11-21 2003-02-25 Iscreen, Llc System and method for eye screening
US6663242B1 (en) 2001-03-12 2003-12-16 Wayne Davenport Simultaneous, wavelength multiplexed vision screener
US6616277B1 (en) 2001-07-02 2003-09-09 Vision Research Corporation Sequential eye screening method and apparatus
DE10153397A1 (de) 2001-11-01 2003-05-15 Plusoptix Ag Vorrichtung und Verfahren zur Messung der Refraktion
US7110582B1 (en) 2001-11-09 2006-09-19 Hay Sam H Method for determining binocular balance and disorders of binocularity of an individual or clinical groups of individuals
US6761454B2 (en) 2002-02-13 2004-07-13 Ophthonix, Inc. Apparatus and method for determining objective refraction using wavefront sensing
US20050174535A1 (en) 2003-02-13 2005-08-11 Lai Shui T. Apparatus and method for determining subjective responses using objective characterization of vision based on wavefront sensing
GB0230223D0 (en) 2002-12-24 2003-02-05 Newcastle Upon Tyne Hospitals A pupilometer
US7052134B2 (en) * 2003-05-29 2006-05-30 Nidek Co., Ltd. Fundus camera
ES2574004T3 (es) * 2003-09-04 2016-06-14 The Uab Research Foundation Procedimiento y aparato para la detección del deterioro en la adaptación a la oscuridad
JP4492858B2 (ja) 2004-07-20 2010-06-30 株式会社ニデック 眼科装置及び眼内屈折力分布算出プログラム
JP2007029726A (ja) * 2005-07-22 2007-02-08 Carl Zeiss Meditec Ag リング・ライト眼底カメラ
US8919960B2 (en) * 2005-12-20 2014-12-30 James Waller Lambuth Lewis Adaptive infrared retinoscopic device for detecting ocular aberrations
US7427135B2 (en) 2006-01-24 2008-09-23 University Of Tennessee Research Foundation Adaptive photoscreening system
US7878652B2 (en) * 2006-01-24 2011-02-01 University Of Tennessee Research Foundation Adaptive photoscreening system
US20080084541A1 (en) * 2006-10-06 2008-04-10 Ming Lai Ophthalmic system and method
US7963654B2 (en) 2006-10-16 2011-06-21 Karan Aggarwala Apparatus and method for subjective determination of the refractive error of the eye
JP5031405B2 (ja) * 2007-03-02 2012-09-19 キヤノン株式会社 眼科撮影装置、眼科撮影装置の制御方法およびプログラム
US7677727B2 (en) 2007-09-03 2010-03-16 Nidek, Co., Ltd. Eye refractive power measurement apparatus
US7614745B2 (en) 2007-11-02 2009-11-10 Visionetx, Inc. System for analyzing eye responses to automatically determine impairment of a subject
US7798643B2 (en) 2007-11-02 2010-09-21 Visionetx, Inc. System for analyzing eye responses to automatically track size, location, and movement of the pupil
TW200938176A (en) 2008-03-05 2009-09-16 Coretronic Corp Eyeball locating method and system
JP5049855B2 (ja) * 2008-04-10 2012-10-17 興和株式会社 眼光刺激装置
US20100245765A1 (en) * 2008-10-28 2010-09-30 Dyer Holdings, Llc Video infrared ophthalmoscope
JP5268583B2 (ja) * 2008-11-17 2013-08-21 キヤノン株式会社 眼科撮影装置
TWI392858B (zh) 2008-12-12 2013-04-11 Inst Information Industry Pupil position acquisition system, method and computer program products
US20100271595A1 (en) 2009-04-23 2010-10-28 Vasyl Molebny Device for and method of ray tracing wave front conjugated aberrometry

Also Published As

Publication number Publication date
US9237846B2 (en) 2016-01-19
US9402538B2 (en) 2016-08-02
EP2676441A4 (en) 2017-07-05
AU2016204944B2 (en) 2018-03-01
US20160081543A1 (en) 2016-03-24
US20170027440A1 (en) 2017-02-02
AU2012219362B2 (en) 2016-05-19
WO2012112901A2 (en) 2012-08-23
AU2012219362A1 (en) 2013-08-15
EP2676441B1 (en) 2019-06-19
CN103930015A (zh) 2014-07-16
CN103930015B (zh) 2017-10-20
US20160089021A1 (en) 2016-03-31
EP2676441A2 (en) 2013-12-25
WO2012112901A3 (en) 2014-04-24
US20120212598A1 (en) 2012-08-23
US9408535B2 (en) 2016-08-09
EP3566638A1 (en) 2019-11-13
US20210161378A1 (en) 2021-06-03
BR112013021153A2 (pt) 2019-09-24
AU2016204944A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
ES2745501T3 (es) Dispositivo de proyección ocular de fotorrefracciones
JP5026741B2 (ja) 眼科用検査装置の操作方法
ES2601886T3 (es) Aparato y método para obtener imágenes de un ojo
ES2629514T3 (es) Aparato oftalmológico
US9427152B2 (en) Adaptive infrared retinoscopic device for detecting ocular aberrations
ES2946253T3 (es) Aparato oftalmológico
JP6098061B2 (ja) 眼底撮影装置
BRPI0711977A2 (pt) cámera digital com varredura a laser com ótica simplificada e potencial para multiplicar formação de imagem de luz dispersa
EP3636138A2 (en) Ophthalmic apparatus, controlling method thereof, and recording medium
ES2960343T3 (es) Medidor de Purkinje y método para su evaluación automática
EP3449810A1 (en) Ophthalmological image processing program
JPWO2017135278A1 (ja) 断層画像撮影装置
CN115334953A (zh) 多模态视网膜成像平台
JP2019155003A (ja) 眼科装置、及びその制御方法
JP6901264B2 (ja) 眼科装置
JP6637743B2 (ja) 眼科装置
JP2022027987A (ja) 眼科装置
WO2021256132A1 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
ES2688769B2 (es) Método para medir la difusión intraocular que afecta a diferentes medios oculares del ojo y productos de programa de ordenador del mismo
Williams et al. Disc analysis
JP2020162914A (ja) 眼科装置、その制御方法、眼科情報処理装置、その制御方法、プログラム、及び記録媒体
JPWO2020075656A1 (ja) 眼科装置、および眼科装置制御プログラム
JP2021137322A (ja) 眼科装置、その制御方法、プログラム、及び記録媒体