MX2013006722A - Visualizador colimante con lentes de pixel. - Google Patents

Visualizador colimante con lentes de pixel.

Info

Publication number
MX2013006722A
MX2013006722A MX2013006722A MX2013006722A MX2013006722A MX 2013006722 A MX2013006722 A MX 2013006722A MX 2013006722 A MX2013006722 A MX 2013006722A MX 2013006722 A MX2013006722 A MX 2013006722A MX 2013006722 A MX2013006722 A MX 2013006722A
Authority
MX
Mexico
Prior art keywords
pixel
light emitting
light
user
distribution
Prior art date
Application number
MX2013006722A
Other languages
English (en)
Inventor
David Alan Smith
Gregory A Harrison
Original Assignee
Lockheed Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lockheed Corp filed Critical Lockheed Corp
Publication of MX2013006722A publication Critical patent/MX2013006722A/es

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1335Structural association of cells with optical devices, e.g. polarisers or reflectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Nonlinear Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)

Abstract

Un montaje (515) de visualización incluye: (a) un sistema (10) de visualización de imagen y el cual incluye una distribución de pixeles (120) y (b) una distribución de lentes (115) de pixeles. La distribución de lentes de pixeles tiene cada lente colocado para colimar o colimar sustancialmente luz de un pixel único correspondiente de la distribución de pixeles. El montaje (515) de visualización se utiliza en un aparato (500) de visualización que se coloca en la cabeza el cual incluye un armazón (510) para soportar el montaje (515) de visualizador a una distancia deseada de los ojos del usuario. El aparato de visualización que se coloca en la cabeza también puede incluir un divisor (520) de haz para reflejar imágenes del montaje (515) de visualización a los ojos del usuario. El aparato de visualización que se coloca en la cabeza puede proporcionar un campo de visión amplio al usuario y puede ser del tipo de realidad aumentada o de inmersión.

Description

VISUALIZADOR COLIMANTE CON LENTES DE PIXEL DESCRIPCIÓN DE LA INVENCIÓN CAMPO DE LA INVENCIÓN Esta descripción se relaciona con un aparato de visuali zación que se coloca en la cabeza y, en particular, con un aparato de visualización que se coloca en la cabeza que utiliza una distribución de lentes para colimar o colimar parcialmente luz emitida desde el sistema de visualización de imagen pixelizada (los lentes de la distribución se denominan en la presente como "lentes de pixel"). En algunas modalidades, el aparato utiliza también una o más superficies ópticas reflejantes, por ejemplo, una o más superficies ópticas reflejantes de ángulo ultra amplio de espacio libre (a continuación abreviadas como "superficies FS/UWA/RO"). En algunas modalidades, el sistema óptico general es un sistema que no se forma en la pupila, es decir, la abertura de control (detención de abertura) del sistema completo es en la pupila del ojo del usuario .
Los lentes de pixel y, cuando se utilizan, una o más superficies reflejantes (por ejemplo, una o más superficies FS/UWA/RO) se utilizan para visualizar conjunto de imágenes a partir de un sistema de visualización emisor de luz que se mantiene en proximidad cercana a los ojos de un usuario.
ANTECEDENTES Un aparato de visualización que se coloca en la cabeza tal como un aparato de visualización que se monta en un casco o un aparato de visualización que se coloca en unos anteojos (abreviado en la presente como un "HMD") es un dispositivo de visualización que se coloca en la cabeza de un individuo que tiene uno o más dispositivos de visualización pequeños que se localizan cerca de un ojo o, de manera más habitual, sobre ambos ojos del usuario.
Algunos aparatos de visualización HMD únicamente simulan imágenes (generadas por computadora) en oposición a imágenes del mundo real, y en consecuencia con frecuencia se les denomina como HMD de "realidad virtual" o de inmersión. Otros HMD superponen (combinan) una imagen simulada sobre una imagen del mundo real, no simulada. La combinación de imágenes no simuladas y simuladas permite al usuario del HMD observar el mundo, por ejemplo, a través de un visor u ocular sobre el cual los datos adicionales relevantes para la tarea que se va a realizar se superponen sobre el campo de visión (FOV) del usuario. La superposición algunas veces se denomina como "realidad aumentada" o "realidad mezclada".
La combinación de una vista del mundo real, no simulada con una imagen simulada puede llevarse a cabo utilizando una superficie óptica parcialmente reflejante/parcialmente transmisora (un "divisor de haces") en donde la reflectividad de la superficie se utiliza para mostrar la imagen simulada como una imagen virtual (en el sentido óptico) y la transmisividad de la superficie se utiliza para permitir al usuario observar directamente el mundo real (denominado como un "sistema óptico transparente"). La combinación de una vista del mundo real con una imagen simulada también se puede realizar electrónicamente al aceptar un video de la vista del mundo real desde una cámara y mezclarlo electrónicamente con una imagen simulada utilizando un combinador (denominado como un "sistema transparente de video"). La imagen combinada después se puede presentar al usuario como una imagen virtual (en el sentido óptico) por medio de una superficie óptica reflejante la cual en este caso no necesita tener propiedades transmisoras.
De lo anterior, se puede observar que las superficies ópticas reflejantes pueden ser utilizadas en los HMD los cuales proporcionan al usuario con: (i) una combinación de una imagen simulada y una imagen no simulada del mundo real, (ii) una combinación de una imagen simulada y una imagen de video del mundo real, o (iii) imágenes completamente simuladas (el último caso con frecuencia se denomina como un sistema "de inmersión") . En cada uno de estos casos, la superficie óptica reflejante produce una imagen virtual (en el sentido óptico) que es observado por el usuario. Históricamente, estas superficies ópticas reflejantes han sido parte de sistemas ópticos cuya pupila de salida tiene campo de visión disponible para el usuario sustancialmente limitado no solo del campo dinámico sino también del campo de visión estático. Específicamente, para observar la imagen producida por el sistema óptico, el usuario necesita alinear su ojo con la pupila de salida del sistema óptico y mantenerlo alineado de esta manera e incluso entonces, la imagen visible para el usuario no abarca la totalidad de todo el campo de visión estático del usuario, es decir, los sistemas ópticos previos utilizados en los HMD que han utilizado superficies ópticas reflejantes han sido parte de sistemas formadores de pupila y por lo tanto, han estado limitados por la pupila de salida .
El motivo por el que los sistemas han estado tan limitados es el hecho fundamental de que el campo de visión de los humanos es notablemente grande. De esta manera, el campo de visión estático de un ojo humano, incluyendo tanto la visión foveal como periférica del ojo, es del orden de -150° en la dirección horizontal y en el orden de -130° en la dirección vertical (para propósitos de esta descripción, se utilizarán 150° como el campo de visión estático al frente recto de un ojo humano nominal) . Los sistemas ópticos bien corregidos tienen pupilas de salida capaces de albergar este campo de visión estático grande y los pocos que hasta ahora han existido son costosos y voluminosos.
Además, el campo de visión operacional del ojo humano (campo de visión dinámico) es incluso más grande puesto que el ojo puede girar alrededor de su centro de rotación, es decir, el cerebro humano puede dirigir los campos de visión foveal+periférico del ojo humano en diferentes direcciones al cambiar la dirección de observación del ojo. Para un ojo nominal, el alcance vertical de movimiento está en el orden de -40° hacia arriba y ~60° hacia abajo y el alcance horizontal de movimiento está en el orden de ±50° a partir de lo que se observa hacia el frente. Para una pupila de salida del tamaño producido por los tipos de sistemas ópticos utilizados previamente en los HMD, incluso a una rotación pequeña del ojo reduce sustancialmente la superposición que existia entre el campo de visión estático del ojo y la pupila de salida y rotaciones más grandes pueden hacer que la imagen desaparezca por completo. Aunque teóricamente es posible, una pupila de salida que se mueve en sincronía con el ojo del usuario no es práctica y sería prohibitivamente costosa .
En vista de estas propiedades del ojo humano, existen tres campos de visión los cuales son relevantes en términos de suministrar un sistema óptico que permita al usuario observar una imagen generada por un sistema de visualización de imagen de la misma manera a como la persona observaría el mundo natural. El más pequeño de los tres campos de visión es el que se define por la capacidad del usuario para hacer girar sus ojos y por lo tanto explorar su fovea sobre el mundo exterior. La rotación máxima es del orden de ±50° a partir de lo que se observa directamente al frente de manera que este campo de visión (el campo de visión dinámico foveal) es de aproximadamente 100°. La parte media de los tres campos de visión es el campo de visión estático que se ve directamente al frente e incluye tanto la visión foveal como la periférica del usuario. Como se describe en lo anterior, este campo de visión (el campo de visión estático foveal+periférico) es del orden de 150°, por ejemplo, -168°. El más grande de los tres campos de visión es el definido por la capacidad del usuario para hacer girar sus ojos y por lo tanto explorar su visión foveal más la periférica sobre el mundo exterior. En base en una rotación máxima del orden de ±50° y un campo de visión estático foveal+periférico del orden de 150°, este campo de visión más grande (campo de visión dinámico foveal+periférico) es del orden de 200 grados. Esto incrementa la escala de campos de visión de por lo menos 100 grados a por lo menos 150 grados y después de por lo menos 200 grados proporciona beneficios correspondientes al usuario en términos de su capacidad para observar imágenes generadas por un sistema de visualización de imágenes de una manera intuitiva y natural.
Con el fin de que el ojo humano enfoque con facilidad una pantalla está a una distancia inferior a 25 cm (10 pulgadas) del ojo, necesita aplicarse una forma de colimación a los rayos de luz que surgen de la pantalla. La colimación sirve para hacer que los rayos de luz aparezcan como si se originaran de una distancia mayor que la distancia real entre el ojo y la pantalla. A su vez, esta distancia aparente mayor permite que el ojo se enfoque fácilmente en una imagen de la pantalla. Algunos equipos de visualización que se colocan en la cabeza utilizan espejos de nivel grueso, lentes o prismas en un intento de colimar luz desde el equipo de visualización. Estos enfoques agregan volumen y peso lo que vuelve a tales equipos de visualización se colocan en la cabeza más problemáticos y pesados que lo que se desea. Además, debido a que los enfoques buscan colimar la luz de la totalidad de los pixeles como un grupo, carecen de la capacidad de control de colimación en una base pixel por pixel y tienden a introducir aberraciones ópticas en el haz de luz colimado resultante.
Por lo tanto, existe la necesidad de aparatos de visualización que se colocan en la cabeza que sean compatibles con la capacidad de enfoque así como con por lo menos el campo de visión dinámico foveal del ojo humano. La presente descripción se relaciona con estas necesidades y proporciona aparatos de visualización que se colocan en la cabeza para producir luz colimada (o sustancialmente colimada) sobre un campo de visión amplio.
DEFINICIONES En el resto de esta descripción y en las reivindicaciones, se utiliza la frase "imagen virtual" en su sentido óptico, es decir, una imagen virtual es una imagen que se percibe que proviene de un lugar particular en donde de hecho la luz que es percibida no se origina en ése lugar.
En esta descripción, las siguientes frases y términos tendrán los siguientes significados/alcance: (1) La frase "una superficie óptica reflejante" (también denominada en la presente como una "superficie reflejante" o un "reflector") incluirá una superficie (ya sea plana, curva, continua o constituida de porciones separadas espacialmente) que es únicamente reflejante asi como una superficie que es tanto reflejante como transmisora. En cualquier caso, la reflectividad únicamente puede ser parcial, es decir, parte de la luz incidente puede ser transmitida a través de la superficie. De igual manera cuando la superficie es tanto reflejante como transmisora, la reflectividad y/o transmisividad puede ser parcial. Como se describe más adelante, en algunas modalidades, una superficie óptica reflejante única se puede utilizar para ambos ojos o cada ojo puede tener su propia superficie óptica reflejante individual. Otras variaciones incluyen el uso de superficies ópticas reflejantes múltiples para cualquiera de ambos ojos o individualmente para cada ojo. Las combinaciones de mezclado y coincidencia también se pueden utilizar, por ejemplo, una superficie óptica reflejante única se puede utilizar para un ojo y superficies ópticas reflejantes múltiples para el otro ojo. Como una alternativa adicional, una o múltiples superficies ópticas reflejantes se pueden proporcionar para únicamente uno de los ojos del usuario. Las reivindicaciones que se establecen en lo siguiente se pretende que abarquen estas y otras configuraciones de superficie óptica reflejante. En particular, cada reivindicación que hace mención de una superficie óptica reflejante se pretende que abarque un aparato de visualización que se coloca en la cabeza que incluye a por lo menos una de estas superficies. (2) La frase "un sistema de visualización de imagen que tiene una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz" (denominada en la presente también como un "sistema de visualización de imagen" o un "sistema de visualización" ) se utiliza en general para incluir cualquier sistema que tenga una superficie pixelizada (ya sea plana, curva, continua o constituida de porciones separadas espacialmente ) la cual emita luz para formar una imagen susceptible de ser percibida por los humanos por transmisión de luz a través de la superficie, generación de luz en la superficie (por ejemplo, por una distribución de los LED) , reflexión fuera de la superficie de luz desde otra fuente o similar. El sistema puede utilizar dispositivos de visualización de imagen únicos o múltiples, por ejemplo, únicos o múltiples LED, OLED y/o distribuciones de LCD. Al igual que las superficies ópticas reflejantes, un sistema de visualización de una imagen única se puede utilizar para ambos ojos o cada ojo puede tener su propio sistema de visualización de imagen individual. Otras variaciones incluyen el uso de sistemas de visualización de imágenes múltiples para cualquiera o ambos ojos o individualmente para cada ojo. Las combinaciones de mezclado y coincidencia también se pueden utilizar, por ejemplo, un sistema de visualización de imagen única se puede utilizar para un ojo y sistemas de visualización de imágenes múltiples para el otro ojo. Como una alternativa adicional, sistemas de visualización de imagen única o múltiple se pueden proporcionar para solo uno de los ojos del usuario. Las reivindicaciones que se establecen en lo siguiente se pretende que abarquen estas y otras configuraciones de sistema de visualización de imagen. En particular, cada reivindicación que menciona un sistema de visualización de imagen que tiene una superficie emisora de luz la cual comprende un arreglo de pixeles emisores de luz que están destinados para cubrir un aparato de visualización que se coloca en la cabeza que incluye por lo menos uno de estos sistemas. (3) La frase "montaje de visualización" se refiere a la combinación de un sistema de visualización de imágenes y un arreglo de lentes de pixeles sobre el lado emisor de luz del sistema de visualización de imagen. (4) La frase "observador binocular" significa un aparato que incluye por lo menos un elemento óptico separado (por ejemplo, un dispositivo de visualización y/o una superficie óptica reflejante) para cada ojo. (5) La frase "campo de visión" y su abreviatura, FOV, se refieren al campo de visión "aparente" en el espacio de imagen (ojo) en oposición al campo de observación "real" en el espacio del objeto (es decir, visualización) . (6) La frase "sustancialraente colimado" depende de la aplicación particular de la tecnología descrita en la presente pero en términos generales, la luz de un pixel emisor de luz está "sustancialmente colimada" si su vergencia en el ojo del usuario es mayor de -1.0 dioptrías. Como referencia, una fuente puntual a 25 metros tiene una vergencia de -0.04 dioptrías y por lo tanto, si un lente de pixel o una combinación de un lente de pixel y una superficie óptica reflejante curvada (cuando ¦ se use) provoca que la luz de un pixel aparezca ante un usuario que proviene de una distancia de 25 metros, esta luz puede tener una vergencia en el ojo del usuario de -0.04 dioptrías lo cual es mayor de -1.0, es decir, menos negativo que -1.0 y por lo tanto esta luz se podría considerar sustancialmente colimada. Para una referencia adicional, la luz emitida desde el sistema de visualización de imágenes sin colimación alguna puede tener una vergencia de aproximadamente 3 cm en el orden de -33 dioptrías.
DESCRIPCION BREVE DE LA INVENCION De acuerdo con un primer aspecto, se describe un aparato de visualización que se coloca en la cabeza, el cual incluye: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; (II) un sistema de visualización de imagen que tiene una superficie emisora de luz la cual comprende un arreglo de pixeles emisores de luz, el sistema de visualización de imagen está soportado por el armazón (por ejemplo, el armazón soporta al sistema de visualización de imagen en una ubicación fija la cual, durante el uso de HMD, está fuera del campo de visión del usuario) ; y (III) una superficie óptica reflejante soportada por el armazón (por ejemplo, la superficie óptica reflejante puede ser una superficie continua que no es rotacionalmente simétrica (no es una superficie de revolución) alrededor de cualquier eje de coordenadas de un sistema de coordenadas cartesiano tridimensional, por ejemplo, la superficie óptica reflejante puede ser una superficie óptica reflejante de ángulo ultra amplio, de espacio libre, la cual no es rotacionalmente simétrica alrededor de los ejes x, y o z de un sistema de coordenadas cartesiano tridimensional que tenga un origen arbitrario) ; en donde : (a) el aparato incluye un arreglo de lentes de pixel localizados entre el arreglo de pixeles emisores de luz y la superficie óptica reflejante, uno de los lentes de pixel para cada uno de los pixeles emisores de luz, un lente de pixel se alinea con, y recibe luz de su pixel emisor de luz asociado durante el uso del aparato; y (b) el arreglo de lentes de pixeles ya sea solos o en combinación con la superficie óptica reflejante colima o colima sustancialmente la luz emitida desde el arreglo de pixeles emisores de luz durante el uso del aparato.
De acuerdo con un segundo aspecto, se describe un aparato de visualización que se coloca en la cabeza, el cual incluye: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; (II) un sistema de visualización de imagen que tiene una superficie emisora de luz la cual comprende un distribución de pixeles emisores de luz, el sistema de visualización de imagen está soportado por el armazón; y (III) una superficie óptica reflejante, de ángulo ultra amplio, de espacio libre, soportada por el armazón; en donde: (a) el aparato incluye un arreglo de lentes de pixeles localizados entre el arreglo de pixeles emisores de luz y la superficie óptica reflejante, de ángulo ultra amplio, de espacio libre, uno de los lentes de pixeles para cada uno de los pixeles emisores de luz, un lente de pixel está alineado con y recibe la luz de su pixel emisor de luz asociado durante el uso del aparato; y (b) durante el uso del aparato, la superficie óptica reflejante de ángulo ultra amplio de espacio y la distribución de los lentes de pixeles producen imágenes virtuales separadas espacialmente de porciones separadas espacialmente de la superficie emisora de luz, por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por al menos 100 grados (en algunas modalidades, por lo menos 150 grados y, en otras modalidades, por lo menos 200 grados), la separación angular se mide desde el centro de rotación del ojo de un usuario nominal.
De acuerdo con un tercer aspecto, se describe un aparato de visualizacion que se coloca en la cabeza, el cual incluye: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; y (II) un montaje de visualizacion soportado por el armazón, el montaje de visualizacion incluye: (a) un sistema de visualizacion de imágenes que tiene una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz; y (b) una distribución de lentes de pixeles, un lente de pixel para cada uno de los pixeles emisores de luz, uno de los lentes de pixel está alineado con y recibe la luz de su pixel emisor de luz asociado durante el uso del aparato; en donde, durante el uso del aparato, el arreglo de lentes de pixel es el único componente del aparato con potencia óptica entre la superficie emisora de luz y el ojo de un usuario.
De acuerdo con un cuarto aspecto, se describe un aparato de visualización que se coloca en la cabeza, el cual incluye: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; y (II) un sistema de visualización de imagen soportado por el armazón; en donde (a) el sistema de visualización de imagen comprende una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz; (b) el aparato incluye una distribución de lentes de pixel de forma esférica, uno de los lentes de pixel de forma esférica para cada uno de los pixeles emisores de luz, la distribución de lentes de pixel de forma esférica se localizan entre la distribución de pixeles emisores de luz y el ojo de un usuario durante el uso del aparato.
De acuerdo con un quinto aspecto, se describe un método que incluye las etapas de: generar una imagen de un sistema de visualización de imágenes que tiene una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz; independientemente colimar o colimar sustancialmente la luz de cada uno de los pixeles emisores de luz respectivos de la distribución de pixeles emisores de luz por uno respectivo de los lentes de pixel de una distribución de lentes de pixel alineados con la distribución de pixeles emisores de luz; proporcionar la luz colimada o sustancialmente colimada de la distribución de lentes de pixeles a un reflector colocado en relación a un ojo de un usuario; y reflejar la luz colimada o sustancialmente colimada del reflector al ojo del usuario.
De acuerdo con un sexto aspecto, se describe un método que incluye las etapas de: (a) producir luz a partir de una distribución de pixeles emisores de luz; (b) recibir la luz producida por la distribución de pixeles emisores de luz en una distribución de lentes de pixel colocados de manera que la luz desde cada pixel emisor de luz es colimada o sustancialmente colimada por un lente de pixel correspondiente en la distribución de lentes de pixel; y (c) proporcionar la luz colimada o sustancialmente colimada directamente (es decir, sin que pase la luz a través del lente del campo u otro componente óptico que tenga potencia óptica) a un ojo de un usuario.
En diversas modalidades, los aparatos y métodos se caracterizan porque: (i) la superficie óptica reflejante (cuando se utiliza) y la distribución de lente de pixel produce imágenes virtuales separadas espacialmente de porciones separadas espacialmente de la superficie emisora de luz, por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente en por lo menos 100 grados (en algunas modalidades por lo menos 150 grados y, en otras modalidades, por lo menos 200 grados) , la separación angular se mide desde el centro de rotación del ojo de un usuario nominal; y (ii) por lo menos un punto de la superficie óptica reflejante está separada angularmente de por lo menos otro punto de la superficie óptica reflejante en por lo menos 100 grados (en algunas modalidades, por lo menos 150 grados y, en otras modalidades, por lo menos 200 grados) , la separación angular se mide desde el centro de rotación del ojo de un usuario nominal. Para estas modalidades, durante el uso, por lo menos una de las imágenes virtuales separadas espacialmente se puede colocar a lo largo de una dirección de observación la cual pasa a través de por lo menos un punto de la superficie óptica reflejante y por lo menos otra de las imágenes virtuales separadas espacialmente se localizan a lo largo de una dirección de observación la cual pasa a través de por lo menos otro punto de la superficie óptica reflejante.
En diversas modalidades, una distribución separada de lentes de pixel, un sistema de visualización de imagen separada y/o una superficie óptica reflejante separada (cuando se utiliza) se emplean para cada uno de los ojos de un usuario. En otras modalidades, la superficie óptica reflejante (cuando se utiliza) contribuye a la colimación (o colimación sustancial) de la luz desde el sistema de visualización de imagen proporcionado por la distribución de lentes de pixel, esta contribución a la colimación (o colimación sustancial) se obtiene a través de los radios de curvatura locales de la superficie.
En varias modalidades, el aparato HMD puede ser un sistema no formador de pupila, binocular, en el cual el ojo es libre de moverse alrededor de su centro de giro a través de sus extensiones angulares asequibles normalmente sin estar limitado a observar a través de una pupila externa. Los dispositivos HMD previos afirman que tienen o que pueden proporcionar un campo de visión amplio, pero estos dispositivos tienen incluida una pupila externa que a través de la cual debe observar el ojo. Aunque existe una cantidad amplia de información proporcionada al ojo, si el ojo voltea, la información se pierde. Este es el problema fundamental con los sistemas formadores de pupila los cuales se evitan en las modalidades de la presente descripción la cual utiliza superficies reflejantes y, en particular, superficies FS/UWA/RO.
Debe entenderse que tanto la descripción general precedente como la siguiente descripción detallada son únicamente ejemplares de la invención y se pretende que proporcionen una generalidad de la infraestructura para la comprensión de la naturaleza y carácter de la invención. Los rasgos y ventajas adicionales de la invención se establecen en la descripción detallada que sigue, y en particular serán evidentes con facilidad para aquellos expertos en el ámbito a partir de la descripción o serán reconocidos por la práctica de la invención como se ejemplifica por la descripción de la presente. Las figuras anexas se incluyen para proporcionar una comprensión adicional de la invención y se incorporan y constituyen parte de esta especificación. Debe entenderse que los diversos rasgos de la invención descritos en esta especificación y en las figuras se pueden utilizar en cualquiera y en la totalidad de combinaciones. De modo similar, las diversas limitaciones de las reivindicaciones se pueden utilizar en cualquiera y en otras las combinaciones.
DESCRIPCION BREVE DE LAS FIGURAS La figura 1 es una representación en bloques parcial del montaje de visualización que incluye lentes de pixel colimantes para cada pixel, de acuerdo con una modalidad ejemplar.
La figura 2 es una representación en bloques de un montaje de visualización que incluye un lente de pixel colimante para cada pixel, de acuerdo con una modalidad ej emplar .
La figura 3 es una vista en perspectiva de un montaje de visualización que incluye un lente de pixel colimante para cada pixel de acuerdo con una modalidad ej emplar .
La figura 4 es un diagrama de rayos de la luz que es colimada por un lente de pixel de acuerdo con una modalidad ejemplar.
La figura 5 es un diagrama de rayos de luz que es colimada por un lente de pixel alternativo de acuerdo con una modalidad ejemplar.
La figura 6 es una vista lateral de un aparato de visualización que se coloca en la cabeza, de realidad aumentada que tiene lentes de pixel de acuerdo con una modalidad ejemplar.
La figura 7 es una vista frontal de un usuario que porta el aparato de visualización que se coloca en la cabeza de realidad aumentada de la figura 6.
La figura 8 es un diagrama que ilustra trayectorias de luz para el aparato de visualización que se coloca en la cabeza de realidad aumentada de la figura 6 y la figura 7.
La figura 9 es un diagrama de rayos que ilustra los rayos de luz para un aparato de visualización que se coloca en la cabeza de realidad aumentada que tiene lentes de pixel de acuerdo con una modalidad ejemplar.
La figura 10 es un diagrama de rayos que ilustra rayos de luz que entran en el globo ocular de acuerdo con una modalidad ejemplar.
La figura 11 es una vista superior del aparato de visualización que se coloca en la cabeza que ilustra el uso de dos superficies ópticas reflejantes curvadas que corresponden a los dos ojos de un usuario de acuerdo con una modalidad ejemplar.
La figura 12 es un diagrama esquemático que ilustra el campo de visión estático de un ojo humano nominal para una dirección de observación directa al frente .
La figura 13 es un diagrama esquemático que ilustra la interacción entre el campo de visión estático de la figura 12 con una superficie FS/U A/RO de acuerdo con una modalidad ejemplar. Las flechas en la figura 13 ilustran direcciones de propagación de luz.
La figura 14 es un diagrama de rayos que ilustra una trayectoria de luz para un pixel dado sobre una pantalla conforme es reflejada hacia un ojo, de acuerdo con una modalidad ejemplar.
La figura 15 es un diagrama esquemático que ilustra la geometría para calcular una normal local a una superficie reflejante de acuerdo con una modalidad ejemplar.
La figura 16 es un diagrama de rayos que ilustra trayectorias de luz de dos pixeles sobre una pantalla conforme son reflejados hacia un ojo, de acuerdo con una modalidad ejemplar.
La figura 17 es un diagrama que ilustra variables utilizadas en la selección de la dirección 1 de la normal local de un reflector de acuerdo con una modalidad ej emplar .
La figura 18 es una representación de un reflector curvado junto con trayectorias de luz de acuerdo con una modalidad ejemplar.
La figura 19 es una vista lateral de un aparato de visualización que se coloca en la cabeza de realidad aumentada alternativo que tiene lentes de pixel de acuerdo con una modalidad ejemplar.
La figura 20 es una vista lateral de un aparato de visualización que se coloca en la cabeza de inmersión que tiene lentes de pixel de acuerdo con una modalidad e emplar .
La figura 21 es un diagrama de rayos que ilustra trayectorias de rayos para un aparato de visualización que se coloca en la cabeza, de inmersión, que tiene lentes de pixel de acuerdo con una modalidad ejemplar.
La figura 22 es un diagrama que ilustra trayectorias de luz para un aparato de visualización que se coloca en la cabeza, de inmersión, que tiene lentes de pixel de acuerdo con una modalidad ejemplar.
DESCRIPCION DETALLADA I . Introducción Como se describe en lo anterior, la presente descripción se relaciona con los HMD los cuales proporcionan a un usuario con una imagen colimada (o sustancialmente colimada) mediante el uso de lentes de pixel. Los lentes de pixel pueden ser la única fuente de colimación en el sistema óptico o, en modalidades que utilizan una superficie óptica reflejante curvada, por ejemplo, una superficie FS/UWA/RO, la colimación proporcionada por los lentes de pixel se puede combinar con la colimación contribuida por la superficie óptica reflejante curvada.
En términos generales, en algunas modalidades, el sistema de visualización de imagen de HMD se coloca directamente frente al ojo para uso como un dispositivo de visualización de inmersión. En otras modalidades, el HMD incluye un divisor de haz plano o curvado para reflejar la iluminación del sistema de visualización de imagen para producir un dispositivo de visualización de realidad aumentada. Si se desea, las modalidades reflejantes se pueden utilizar para producir un dispositivo de visualización de la inmersión al elaborar la superficie reflejante, no transmisora.
La siguiente discusión comienza con una descripción de ejemplos no limitantes de modalidades de lentes de pixel que se pueden utilizar en los HMD que aquí se describen (Sección II) y después se procede a una discusión de los HMD que utiliza por lo menos una superficie óptica reflejante curvada, que incluye los HMD que utilizan por lo menos una superficie FS/UWA/RO (Sección III) · La sección III también incluye una discusión del proceso de diseño para una superficie FS/UWA/RO que se utiliza en un sistema óptico que incluye lentes de pixel. Después de la sección III, las modalidades que utilizan una superficie óptica reflejante que no es una superficie curvada se discuten (Sección IV) seguido por modalidades en las cuales un sistema de visualización de imagen es observado directamente sin el uso de una superficie reflejante (Sección V) . Finalmente se presenta una discusión general aplicable a las diversas modalidades que aquí se describen (Sección VI) .
Deberá entenderse que las discusiones de los diversos componentes de los HMD que aparecen en secciones particulares de la presentación no se limitan a las modalidades de esa sección sino que generalmente son aplicables a la totalidad de las modalidades que aquí se describen. Como un ejemplo, las descripciones de los tipos de lentes de pixel y sistemas de visualización de imagen que se pueden utilizar en un HMD el cual aparece en las secciones II y III son aplicables a la totalidad de las modalidades que aquí se describen.
II. LENTES DE PIXEL Como se describe en lo anterior y con más detalle en lo siguiente, los lentes de pixel realizan colimación (o colimación parcial) de la luz emitida por un sistema de visualización de imagen de manera que permite la observación del sistema cuando se localiza cerca del ojo de un usuario sin introducir volumen o peso sustancial en el HMD. Teniendo un lente único por pixel se reduce el tamaño del sistema óptico de visualización que se requiere y se elimina la distorsión que podría resultar de realizar colimación con solo un único espejo grande o lentes. En particular, los lentes de pixel no provocan aberraciones de campo amplio en las imágenes producidas por el aparato de visualización debido a que procesa solo un pixel a la vez. Además, se puede proporcionar una distribución grande de lentes de pixel para permitir un campo de visión tan amplio como se desee para el usuario. En particular, en algunas modalidades, la tecnología de lentes de pixel permite la observación de una pantalla de visualización tal como una pantalla similar a un sistema de visualización de teléfono celular en proximidad cercana pero alejado a través de una superficie reflejante. Si se desea, cada lente de pixel puede variar independientemente en base en la ubicación de un pixel asociado con respecto a los ojos de un usuario.
La figura 1 es un diagrama de bloques parcial de un sistema 10 de visualización de imagen y su distribución asociada de lentes 15 de pixel de acuerdo con una modalidad ejemplar. El sistema 10 de visualización de imagen comprende una salida de computadora o superficie 25 de proyección y, en esta modalidad, un montaje 40 de proyección de imagen. La superficie 25 incluye una pluralidad de distribución de pixeles emisores de luz (por ejemplo, los pixeles 120 de la figura 2 y de la figura 3) . El sistema 10 de visualización de imagen produce texto, gráficos o imágenes de video (a continuación denominados como una "imagen") susceptible de ser percibida por el ojo humano. La pluralidad o la distribución de pixeles emisores de luz y el montaje 40 de proyección de imagen se pueden fabricar utilizando tecnología de visualización de cristal líquido (LCD) , tecnología de diodo emisor de luz (LED) , tecnología de diodo emisor de luz orgánico (OLED) , tecnología de plasma de gas, tecnología de conjunto de fibra óptica u otra tecnología de proyección de imagen conocida ahora o desarrollada subsecuentemente. Asociado con el sistema 10 de visualización de imagen se encuentra una pluralidad o una distribución de lentes 15 de pixel sobre o dentro de un sustrato 30. Cada lente 15 de pixel es de un tamaño pequeño, por ejemplo en un intervalo de micrómetros (µp?) y está configurado para ser alineado con un pixel emisor de luz único del sistema de visualización de imagen de manera que la luz que emana del pixel es colimada o colimada parcialmente para facilitar la observación de las imágenes formadas por el sistema de visualización de imagen en un alcance cercano.
Dependiendo de las particularidades del sistema 10 de visualización de imagen, el sistema generalmente incluirá capas múltiples, películas y/o sustratos con filtros, emisores, etc. para producir una imagen visualizada de la superficie emisora de luz del sistema (la pantalla del sistema) para observación por un usuario, como ha sido bien establecido. En una modalidad, cada pixel emisor de luz es controlado por información de control de pixel tal como datos de rojo, verde y azul (RGB) que corresponden a las intensidades de un pixel particular. El sistema 10 de visualización de imagen puede recibir datos de entrada RGB u otra información de imagen a partir de una fuente de gráficos (por ejemplo la cámara 540 de la figura 6) . Los datos RGB se utilizan para activar circuitos impulsores de fila y de columna u otros medios para controlar los pixeles para mostrar la imagen de manera observable por el ojo humano. En una modalidad, el sistema 10 de visualización de imagen puede incluir una pantalla de visualización de panel plano. En otras modalidades, el sistema de visualización de imagen puede incluir una pantalla de visualización curvada.
En operación, el sistema de visualización de imagen se construye para controlar luz a nivel de pixel. En particular, la intensidad de cada pixel emisor de luz se puede hacer variar independientemente en base en su ubicación con respecto al ojo y/o su . lente de pixel asociada. De esta manera, la imagen producida por el sistema de visualización puede tener una intensidad sustancialmente uniforme a través del campo de observación durante la observación cercana al ojo.
En algunas modalidades, el uso de los lentes de pixel puede simplificar otras ópticas simplificadas en un aparato de visualización que se coloca en la cabeza. Por ejemplo, en algunas modalidades, las construcciones de lentes o de espejos que de otra manera pueden ser utilizadas para colimación ya no son necesarias. Todas las ópticas remanentes después pueden únicamente relacionarse con distribución de los haces de pixel colimados disponibles a través de un campo de visión apropiado para proporcionar un campo de visión deseado al usuario, si cualquiera de las ópticas adicionales se necesita de modo alguno. Pueden necesitarse más ópticas en el caso de realidad aumentada, pero en este caso, pueden no necesitarse para proporcionar colimación, solo distribución de los haces de luz. En todos los casos, se encuentra muy reducida o se anula la aberración cromática que podría surgir de tener que pasar la luz desde el aparato de visualización a través de un lente de reflexión grueso que maneje todos los pixeles en un lente, y la aberración cromática no se produce en un reflector.
La figura 2 y la figura 3 muestran una representación parcial de un montaje 100 de visualización que incluye un lente 115 de pixel para cada pixel 120 de un sistema de visualización de imagen. Al ajustar la colimación de un pixel único a la vez, un conjunto de haces de luz colimados o parcialmente colimados se proporciona por el montaje 10 de visualización que después puede ser manipulado con una transmisión de luz diferente y/o dispositivos de reflexión sin tener que ajustar las dioptrías o propiedades de colimación (o con menos ajuste a dioptrías o propiedades de colimación que de otra manera se necesitarian) , y por lo tanto facilita la construcción de un sistema de visualización cerca del ojo. El sistema de visualización cerca del ojo se puede montar a partir de 25 mm (1 pulgada), 51 mm (2 pulgadas) o 76 mm (3 pulgadas) del ojo, o la imagen visualizada por el sistema se puede reflejar desde una superficie la cual está a 25 mm (1 pulgada) , 51 mm (2 pulgadas) o 76 mm (3 pulgadas) del ojo, como se describirá con mayor detalle en lo siguiente. Cada lente 115 de pixel se construye para proporcionar una cantidad de corrección de colimación apropiada respecto a qué tan cerca el montaje 100 de visualización está destinado a colocarse respecto al ojo. La conglomeración de todos los lentes de pixeles se vuelve una distribución de lentes de pixel, un lente por pixel emisor de luz, que combina de manera conjunta para formar una imagen cuando se toman juntas como una distribución. La distribución generalmente tendrá muchos más lentes de pixel que los mostrados desde la figura 1 hasta la figura 3, tales como cientos o miles o millones de lentes de pixel.
En la modalidad ilustrada en la figura 2 y en la figura 3, los pixeles 120 están soportados sobre un sustrato 125. Los lentes 115 de pixel pueden estar soportados o conformados en un sustrato 130 que permite que la luz pase a través de por lo menos en las áreas que soportan los lentes 115 de pixel. El sustrato 130 y los lentes 115 de pixel correspondientes están soportados a una distancia fija del sustrato 125 y los pixeles 120 en una modalidad. En la figura 2, se utilizan separadores 121 para obtener la separación deseada entre los lentes de pixel y los pixeles. La figura 3 muestra una modalidad alternativa en la cual el sustrato 130 se forma integral con el sustrato 125 y es suficientemente grueso para proporcionar la separación deseada de los pixeles 120 y los lentes 115 de pixel .
Aunque se muestra como plana en la figura 1 a la figura 3, el montaje de visualización puede estar curvado. Por ejemplo, en el caso de un HMD de observación directa, el montaje de visualización puede ser cóncavo hacia el ojo del usuario. Como otro ejemplo, en el caso de un HMD que utiliza una superficie reflejante, el montaje de visualización puede ser convexo, por ejemplo, cilindrico hacia la superficie reflejante para dispersar los haces de pixel individuales en un arreglo más amplio y por lo tanto proporcionar un campo de visión más amplio.
Cuando la luz es colimada completamente por un lente 115 de pixel, la radiación de fotones desde el pixel 120 se desplazará al ojo en un lápiz de luz estrecho de aproximadamente el mismo diámetro que el pixel 120. Esto reduce la iluminación parásita interna al observador, vuelve a la imagen más brillante y facilita observar la luz desde el sistema de visualización de imagen o transmitido desde el mundo exterior. Específicamente, en una modalidad, el aparato de visualización que se coloca en la cabeza utiliza lentes de pixeles, el centro de giro del ojo es una ubicación fija particular con respecto a un pixel 120 dado, y mediante el uso de los lentes de pixel, el pixel 120 puede emitir su luz en una dirección, satisfaciendo las necesidades del ojo para observar directamente en el pixel 120 y absorber la iluminación del pixel como parte de un campo de visión más amplio cuando el ojo está apuntando en una dirección diferente. De otra manera, debido a que la luz de cada pixel 120 está colimada o sustancialmente colimada, la cantidad de energía necesaria para visualizar la misma cantidad de luz al usuario se reduce en comparación a la necesidad en el caso en donde el sistema no utiliza lentes de pixel. En el caso de un sistema que no utiliza lentes de pixel, los pixeles generan luz la cual es dispersada en muchas direcciones de manera que no entra al ojo del usuario y, a menos que se observa la luz parásita, se vuelve un "ruido de luz" interno que interfiere con el ambiente óptico dentro del aparato de visualización que se coloca en la cabeza. Así, resumiendo, los lentes de pixel están configurados para enfocar la luz en un conjunto de haces estrechos colimados (o sustancialmente colimados) reduciendo emanaciones parásitas y por lo tanto sin que se requiera energía adicional necesaria para generar emanaciones extrañas no usadas.
En algunas modalidades, no se necesita relación fija con los ojos, especialmente en donde los lentes 115 de pixel se ajustan para colimar completamente con la luz que surge de los pixeles emisores de luz, en cuyo caso, los pixeles y los lentes de pixel pueden colocarse en cualquier parte en donde el ojo pueda verlos. Los sistemas colimados parcialmente se pueden desplazar alejándose del ojo en una cantidad que permita al usuario observar la imagen visualizada, texto, video u otra información gráfica enfocada con o sin acomodo sustancial del ojo del usuario. Por ejemplo, al tener la imagen a una distancia finita, por ejemplo, de 30 metros, en oposición al infinito, el ojo puede estar más relajado (se acomoda menos), cuando observa imágenes .
En una modalidad, el sistema de visualización de estilo de televisión se puede proporcionar al usuario quien después puede observar las imágenes de video como si las imágenes provinieran de una distancia puesto que las ondas están colimadas y, por ejemplo, puede caminar a través del paisaje sin tener que volver a enfocar sus ojos. El sistema de visualización de televisión se puede colocar en cualquier parte en el campo de visión del usuario. Si, por ejemplo, la pantalla cubre la totalidad del campo de visión del usuario, por ejemplo, debido a que se encuentra muy cercana al ojo del usuario, entonces la pantalla controla lo que observa el usuario y se pueden realizar que los objetos aparezcan más cercanos, más alejados o entre estas distancias. En otras modalidades, si el sistema de visualización se utiliza en un sistema de visión de realidad aumentada, el sistema de visualización debe colocarse con el fin de tener imágenes que aparezcan en la realidad en donde el sistema de realidad aumentado está diseñado para hacer que aparezcan.
En algunas modalidades, no hay distorsión, paraxial de la imagen como se produce con los dispositivos previos que procesan luz desde una pantalla a través de una construcción de lentes que albergan todos los pixeles. Puesto que los pixeles de antemano se han vuelto discontinuos a la unidad de visualización más pequeña que la que se presentará al usuario, la aplicación de lentes correctores de dioptrías (es decir, un lente 115 de pixel) a la unidad más pequeña sola, evitan cualquier aberración no paraxial y distorsiones que de otra manera se asocian con el uso de lentes. Además, puesto que la luz está colimada, la trayectoria de luz puede ser plegada fácilmente y dirigida con montajes de espejo puesto que el espejo ya no se necesitan para realizar también funciones de colimación.
En una modalidad, la prescripción de dioptrías de cada lente 115 de pixel se puede ajustar a un nivel adaptado. En otras modalidades, el montaje 100 de visualización se puede construir de una manera curvada, con la salida de cada lente 115 de pixel enfocada para reflejar en direcciones específicas cuando está en contacto con un espejo. El uso de un lente 115 de pixel único que corresponde exactamente a un pixel 120 permite la creación de visualizaciones en miniatura que pueden ser colocadas justo frente al ojo y pueden ser observadas con claridad. Los lentes 115 de pixel funcionan directamente con los pixeles 120 para corregir las dioptrías de cada pixel 120.
La figura 4 muestra rayos 310 que tienen una vergencia grande que surge de un pixel 315 y entran a los lentes 320 de pixel cuyo sustrato 130 de soporte está situado a una distancia DI del pixel, en donde la distancia DI es, por ejemplo, aproximadamente 8 µ?t?. Los lentes 320 de pixel generalmente tienen un perfil en forma de domo el cual es sólido. En otras palabras, la superficie de salida de los lentes 320 de pixel está curvada y la superficie de entrada es esencialmente plana e integral con el sustrato 130. El lado plano de los lentes 320 de pixel tiene un diámetro D2, en donde D2 es, por ejemplo, aproximadamente 8 ym. En esta modalidad, el radio de curvatura de la porción curvada de los lentes 320 puede ser, por ejemplo, de 5.45 µp?. La salida de los lentes 320 de la superficie de salida curvada son ondas 325 colimadas, adecuadas para observación en acercamiento por el ojo humano. En modalidades adicionales, la distancia DI del sustrato 130 a los pixeles 315 y los tamaños de los lentes 320 y los pixeles 315 se puede hacer variar junto con las curvaturas correspondientes de los lentes para proporcionar la colimación de luz deseada. Las dimensiones y curvatura de los lentes de pixel se pueden determinar de diversas maneras, un enfoque conveniente es utilizar un programa de modelado óptico tal como ZEMAX y ajustar los parámetros hasta que se obtiene el nivel deseado de colimación.
La figura 5 es un diagrama de rayos de luz que es colimada por un lente 420 de pixel alternativo de acuerdo con una modalidad ejemplar. Los rayos 410 que surgen de un pixel 415, que tienen una vergencia grande a esa distancia, entran al lente 420 de pixel en forma esférica que está situado a una distancia D3 la cual es, por ejemplo, de aproximadamente 3.3 pm del pixel 415. En este caso, el diámetro D4 de los lentes 420 puede ser, por ejemplo, de aproximadamente 8.7 pm. La salida de los lentes 420 son ondas 425 colimadas, adecuadas para observación en acercamiento. El montaje de visualización en una modalidad está constituido de una distribución de estos pixeles 415 y lentes 420 de forma esférica. Los lentes 420 de pixel normalmente serán en esencia sólidos. Estos lentes pueden ser más fáciles de fabricar en algunas modalidades, por ejemplo, como una unidad integral con un sustrato. En una modalidad, los lentes 420 tienen un centro en la parte media del plano medio 401 el cual está alineado con el pixel 415 de manera que los lentes 420 están colocados simétricamente en la trayectoria de los rayos 410 que surgen del pixel. Un arreglo de estos lentes en forma esférica se puede conformar, con un lente junto al otro y cada lente tiene un centro C alineado con un pixel respectivo. Respecto a los lentes de pixel de la figura 4, los lentes de pixel de la figura 5 se pueden diseñar de diversas maneras, un enfoque conveniente es utilizar un programa de software óptico y hacer variar uno o más parámetros del montaje de visualización, por ejemplo, la ubicación de los lentes con forma esférica en relación al pixel 415 hasta que se obtiene el nivel deseado de colimación .
La figura 4 y la figura 5 ilustran dos lentes de pixel ejemplares que se pueden utilizar. En modalidades adicionales, los parámetros de estos lentes se pueden hacer variar de modo significativo y las distancias desde los pixeles se ajustan en consecuencia. La densidad de los pixeles y los lentes correspondientes también puede hacerse variar de modo significativo dependiendo de la resolución deseada del aparato de visualización .
Los arreglos de lentes de pixel se pueden producir en una variedad de manera tal como, mediante el uso de diversas técnicas de nanomanufactura y micromanufactura . Los lentes pueden ser grabados directamente en un medio transparente o pueden ser creados con máquinas de nanopulido. En algunas modalidades se puede utilizar microencapsulación a través de grabado en caliente. Métodos similares incluyen moldeado por microinyección, microtermoconformación y nanoimpresión . Se pueden utilizar en algunas modalidades tecnologías de película delgada para fabricar los lentes. Por ejemplo, los lentes de pixel se pueden elaborar a partir de material ópticamente transparente depositado ' por semiconductor que es controlado y aplicado utilizando una tecnología semiconductora de película delgada, entre otros medios. En modalidades adicionales se puede utilizar el moldeado por inyección. El grabado químico-óptico directo como se realiza para semiconductores se puede utilizar. Se pueden utilizar pulidores de lentes de nanomáquina para crear cada uno de los lentes de la distribución. Las especificaciones de pulido adaptadas se pueden aplicar a grupos de lentes de pixeles y/o lentes individuales. En términos generales, los lentes de pixel se pueden formar utilizando los mismos tipos de métodos de fabricación a los utilizados para la creación de dispositivos de visualizacion, por ejemplo, métodos de fabricación del tipo utilizado para la fabricación de pantallas de cristal líquidos (las LCD) , diodos emisores de luz (los LED) , diodos emisores de luz orgánicos (los OLED) u otros dispositivos de proyección de imagen. Utilizando estas técnicas, se puede ajustar la densidad de los lentes para pantallas de visualizacion de alta definición o pantallas de visualizacion de resolución más baja, según se desee.
El plástico acrílico (plexiglás) para las partes prototipo torneadas al diamante se pueden utilizar en una modalidad. Para partes moldeadas se pueden utilizar, como un ejemplo, materiales de acrílico o de policarbonato . En términos generales, los lentes de pixel pequeños se pueden elaborar de los mismos tipos de materiales que son utilizados para producir lentes Fresnel que tienen rasgos de tamaño similar.
Como se ilustra en las siguientes secciones, en diversas modalidades, la combinación de una distribución de lentes de pixel y una distribución de pixeles emisores de luz se puede integrar en un aparato de visualizacion que se coloca en la cabeza en forma, por ejemplo, de lentes, goggles u otras formas adecuadas para mantener el aparato de visualizacion en una relación fija con uno o ambos ojos de un usuario.
III. HMD que utilizan una superficie óptica reflejante curvada Como se ha indicado en lo anterior, los HMD que utilizan una superficie óptica reflejante y, en particular, una superficie óptica reflejante curvada pueden ser, por ejemplo, del tipo de realidad aumentada. En estas modalidades, la superficie óptica reflejante funcionará como un sistema de lentes divisores de haz que reflejan una imaqen formada por un sistema de visualización de imagen en el ojo de un usuario mientras que también permiten que la luz del mundo externo entre al ojo. Las dos imágenes se alinean mediante el uso de equipos de localización apropiado y software de manipulación de conjunto de imágenes generados por computadora para permitir que las imágenes virtuales aparentemente estén colocadas dentro del ambiente externo para que el usuario las vea.
En una modalidad, el sistema de lentes divisor de haz tiene un mapa controlado de ubicaciones sobre el sistema de lentes divisor de haz con direcciones a los objetos en un ambiente externo. Esta elaboración de mapas se lleva a cabo a través de los pixeles y se elabora para estar alineado y en coincidencia con el ambiente externo a una alta tasa de velocidad. Por lo tanto, el movimiento de la cabeza de un usuario a orientaciones diferentes con respecto al ambiente externo provocará que el conjunto de imágenes que sea generado y exhibido con aumentos correctamente del ambiente externo en donde el conjunto de imágenes es mostrado en la ubicación aparente correcta en el ambiente por iluminación de las ubicaciones reflejantes correctas sobre el sistema de lentes divisores de haz.
La superficie y curvatura del sistema de visualización con respecto al desplazamiento de dioptrías proporcionado por los lentes de pixel se puede manipular con el fin de obtener aproximadamente 0 dioptrías en todas direcciones para conjunto de imágenes que entren al ojo desde el dispositivo de visualización. La cantidad de cambio de dioptría en cada lente de pixel y en el reflector del sistema de lentes divisor de haz también se puede ajustar según sea apropiado para soportar el diseño de visualización que se coloca en la cabeza. Un reflector plano no tendrá cambio de dioptrías excepto con respecto a la distancia desde la pantalla del sistema de visualización y el ojo el cual cambia dioptrías debido a la sustancia únicamente. Es decir, cuanto mayor sea la distancia desde una fuente de luz, menos divergencia efectiva de la fuente de luz y por lo tanto la distancia únicamente puede cambiar la dioptría efectiva de la luz que surge de una pantalla de visualización. De esta manera, las distancias desde el reflector del ojo y el sistema de visualización también se pueden ajustar para optimizar la claridad de la imagen que es visualizada por el dispositivo de visualización que se coloca en la cabeza.
Con referencia ahora a la figura 6 y a la figura 7, estas figuras muestran, respectivamente, una vista lateral y una vista frontal del aparato 500 de visualización que se coloca en la cabeza que se muestra portado por un usuario 505. El aparato de visualización que se coloca en la cabeza utiliza una superficie óptica reflejante curvada, por ejemplo, una superficie 520 FS/UWA/RO.
En una modalidad, el aparato 500 de visualización que se coloca en la cabeza puede ser, por ejemplo, un observador binocular de realidad aumentada transparente óptico. Debido a que un observador binocular de realidad aumentada transparente óptico típicamente es la forma más compleja de un HMD, la presente descripción describirá principalmente modalidades de este tipo, entendiéndose que los principios que aquí se describen son igualmente aplicables a visores monoculares de realidad aumentada transparentes ópticos, visores binoculares y monoculares de realidad aumentada transparentes de video y sistemas de "realidad virtual" binoculares y monoculares.
Como se muestra en la figura 6 y en la figura 7, el aparato 500 de visualización que se coloca en la cabeza incluye un armazón 510 adaptado para ser portado por el usuario y soportado la nariz y las orejas del usuario de una manera similar a como se utilizan los anteojos. En la modalidad de la figura 6 a la figura 7 asi como en las otras modalidades que aquí se describen, el aparato de visualización que se coloca en la cabeza puede tener una diversidad de configuraciones y puede recordar, por ejemplo, goggles convencionales, lentes, cascos y similares. En la figura 6, los elementos 550 y 555 representan diversas formas de soporte las cuales en algunas modalidades se pueden utilizar para mantener el armazón de los HMD en una posición deseada en relación a los ojos del usuario. El soporte pueden ser, por ejemplo, bandas o cuerdas las cuales pueden ser ajustables en algunas modalidades. En términos generales, la superficie exterior del paquete HMD puede adquirir cualquier forma que mantenga el sistema óptico de HMD en la orientación requerida con respecto a los ojos del usuario.
Como se muestra en la figura 6 y en la figura 7, el aparato 500 de visualización que se coloca en la cabeza incluye: (a) por lo menos un montaje 515 de visualización de imagen el cual incluye un sistema de visualización de imagen y un arreglo de lentes de pixel, y (b) en una modalidad, una superficie 520 óptica reflejante de ángulo ultra amplio de espacio libre, es decir, una superficie 520 FS/UWA/RO, la cual por necesidad está curvada. La superficie 520 puede ser puramente reflejante o puede tener propiedades tanto reflejantes como transmisoras en cuyo caso puede considerarse como un tipo de "división de haz".
La superficie 520 se denomina en la presente como una superficie de "espacio libre" debido a que sus posiciones espaciales locales, curvaturas de superficie local y orientaciones de superficie locales no están restringidas a un sustrato particular tal como el plano x-y, más bien, durante el diseño de la superficie se determina el uso de principios ópticos fundamentales (por ejemplo, el principio del mínimo tiempo de Fermat y Hero) aplicado en espacio tridimensional. La superficie 520 se denomina como una superficie "de ángulo ultra amplio" debido a que, durante el uso, como mínimo, no limita el campo de visión foveal dinámico del ojo de un usuario nominal. De esta manera, dependiendo de las propiedades ópticas del montaje de visualización con el cual se utiliza la superficie FS/UWA/RO, el sistema óptico general del HMD puede ser que no se forme en la pupila, es decir, a diferencia de los sistemas ópticos convencionales que tienen una pupila de salida la cual limita el campo de visión del usuario, la pupila operativa para diversas modalidades de los sistemas ópticos que aquí se describen entrará en la pupila del ojo del usuario en oposición a uno asociado con el sistema óptico externo. De manera concomitante, para estas modalidades, el campo de visión proporcionado al usuario será mucho mayor que los sistemas ópticos convencionales en donde incluso una mala alineación pequeña del ojo del usuario con la pupila de salida del sistema óptico externo puede reducir sustancialmente el contenido de información disponible para el usuario y una mala alineación más grande puede provocar que la totalidad de la imagen desaparezca.
La superficie 520 FS/U A/RO puede rodear completamente uno o ambos ojos, asi como el montaje 515 de visualización . En particular, la superficie puede curvarse alrededor de los lados de los ojos y hacia los lados de la cara de manera que expanda el campo de visión horizontal disponible. En una modalidad, la superficie 520 FS/UWA/RO puede extenderse hasta 180° o más (por ejemplo, más de 200°). Como se ilustra en la figura 7, el HMD puede incluir dos superficies separadas FS/UWA/RO 520R y 520L para los dos ojos del usuario los cuales están soportados por separado por el armazón y/o la pieza 710 de puente nasal (véase abajo) . De manera alternativa, el HMD puede utilizar una superficie FS/UWA/RO única que sirve para ambos ojos con una estructura única, algunas porciones de la cual se observan por ambos ojos y otras porciones de las cuales se observan solo por un ojo.
Como se ha indicado inmediatamente en lo anterior y como se ilustra en la figura 7, el aparato 100 de visualizacion que se coloca en la cabeza puede incluir una pieza 710 de puente nasal. La pieza de puente nasal puede ser una barra vertical o una pared la cual proporcione una separación entre dos superficies FS/UWA/RO, una para cada ojo del usuario. La pieza 710 de puente nasal también puede proporcionar una separación entre los campos de visión de los ojos del usuario. De esta manera, el ojo derecho del usuario puede mostrarse una primera representación de realidad física tridimensional en el ambiente para visualizar una primera imagen en el ojo derecho por medio de un primer montaje 515R de visualizacion y una primera superficie' 520R FS/UWA/RO, mientras que el ojo izquierdo del usuario se le muestra una segunda representación de realidad física tridimensional en el ambiente al mostrar una segunda imagen en el ojo izquierdo vía un segundo montaje 515L de visualizacion y una segunda superficie 520L FS/UWA/RO. Una combinación de montaje de visualización/superficie reflejante separada por lo tanto atiende a cada ojo del usuario, en donde cada ojo observa la imagen correcta para su ubicación en relación a la realidad física tridimensional en el ambiente. Al separar los dos ojos del usuario, la pieza 710 de puente permite que la imagen aplicada a cada ojo se optimice independientemente del otro ojo. En una modalidad, la pared vertical de la pieza de puente nasal puede incluir dos reflectores, uno en cada lado, para permitir al usuario observar el conjunto de imágenes conforme voltee sus ojos nasalmente, ya sea a la izquierda o a la derecha. Aunque se ilustre en el contexto de un divisor de haz curvado, una pieza de puente nasal también se puede utilizar con modalidades que utilicen divisores de haz no curvados (planos) .
El por lo menos un montaje 515 de visualización se puede montar dentro de la superficie 520 FS/UWA/RO y puede estar colocado horizontalmente o en un ángulo ligero con respecto al horizonte. De manera alternativa, por lo menos un montaje de visualización puede estar localizado justo fuera de la superficie FS/UWA/RO. El desplazamiento o ángulo del montaje 515 de visualización o, de manera más particular, por lo menos una superficie emisora de luz en general será una función de la ubicación de los pixeles, imágenes y/o piezas de información de visualización que se van a reflejar desde la superficie 520. Cualquiera que sea el ángulo en el que se monta el montaje de visualización, la luz del pixel necesita apuntar hacia el espejo puesto que es un haz apretado y será baja la potencia del haz fuera del centro.
En algunas modalidades, el aparato 500 de visualización que se coloca en la cabeza está configurado para crear una cavidad interior, con la superficie FS/U A/RO que es reflejante hacia adentro, en la cavidad. Para una superficie FS/UWA/RO que tiene propiedades transmisoras, la imagen o información de visualización desde por lo menos un montaje de visualización se refleje en la cavidad y en el ojo del usuario desde la superficie mientras que, simultáneamente, la luz también entra en la cavidad y en el ojo del usuario desde el mundo externo al pasar a través de la superficie reflejante.
El aparato de visualización que se coloca en la cabeza puede incluir un paquete 525 electrónico para controlar las imágenes que se visualizan por al menos un montaje 515 de visualización. En una modalidad, el paquete 525 electrónico incluye acelerómetros y giroscopios que proporcionan información de ubicación, orientación y posesión necesaria para sincronizar imágenes desde por lo menos un montaje 515 de visualización con actividades de usuario. La energía y el video hacia y desde el aparato 500 de visualización que se coloca en la cabeza se puede proporcionar a través de un cable 530 de transmisión acoplado al paquete 525 electrónico. El video y otra información también se puede proporcionar vía un medio inalámbrico en donde el paquete 525 electrónico proporciona un transceptor.
Un conjunto de cámaras 540 puede estar situada en lados opuestos del aparato 500 de visualización que se coloca en la cabeza para proporcionar entrada al paquete electrónico, por ejemplo, al software o firmware dentro del paquete electrónico, para ayudar a controlar la generación de computadora, por ejemplo, de escena de "realidad aumentada". El conjunto de cámaras 540 se puede acoplar al paquete 525 electrónico para recibir energía y señales de control y para proporcionar entrada de video en el software del paquete electrónico.
En operación, el paquete 525 electrónico, incluyendo los acelerómetros y/o giroscopios y opcionalmente un módulo de sistema de ubicación global (GPS) puede proporcionar información de ubicación, orientación y posición para sincronizar imágenes sobre por lo menos un montaje 515 de visualización para las actividades del usuario. La información se utiliza por el paquete 525 electrónico para registrar en donde el armazón 510 del dispositivo está en la realidad física y superponer sus imágenes en la vista exterior. En algunas modalidades, la retroalimentación de las cámaras 540 se puede utilizar por el paquete 525 electrónico para sincronizar las imágenes mostradas por la realidad observada. Esto se puede llevar a cabo al alinear el terreno o al colocar explícitamente objetivos, que se presentan en la realidad como proporcionados por las cámaras 540 con terreno almacenado y posiciones conocidas de imágenes visualizadas con respecto al terreno almacenado. Una vez que los terrenos se alinean, las imágenes se pueden colocar en la pantalla de visualización de manera que se incluyan en el campo de visión y aparezcan en el terreno real según se pretende .
Como se indica en lo anterior, el sistema de visualización de imagen utilizado en el aparato de visualización que se coloca en la cabeza puede adquirir muchas formas, conocidas ahora o desarrolladas subsecuentemente. Por ejemplo, el sistema puede utilizar pantallas de cristal liquido (LCD) de alta resolución pequeñas, pantallas de diodo emisor de luz (LED) y/o pantallas de diodo emisor de luz orgánico (OLED) , que incluyen pantallas OLED flexibles. En particular, el sistema de visualización de imagen puede utilizar un dispositivo de visualización pequeño a partir del factor, de alta definición, con una alta densidad de pixeles, los ejemplos de los cuales se pueden encontrar en la industria de teléfonos celulares. También se puede utilizar un conjunto de fibras ópticas en el sistema de visualización de imagen. En diversas modalidades, el sistema de visualización de imagen se puede considerar que funciona como una pequeña pantalla de televisión. Si el sistema de visualización de imagen produce luz polarizada (por ejemplo, en el caso en donde el sistema de visualización de imagen utiliza una pantalla de cristal liquido en donde todos los colores son polarizados linealmente en la misma dirección) y si la superficie FS/UWA/RO es polarizada ortogonalmente a la luz emitida por el dispositivo de visualización, entonces la luz no se dispersará fuera de la superficie FS/UWA/RO. La información exhibida en la fuente de luz en si misma en consecuencia no será visible fuera del HMD .
La operación general de una modalidad ejemplar de un sistema óptico construido de acuerdo con la presente descripción, específicamente, un sistema óptico para un HMD de "realidad aumentada" se ilustra en los trazos de rayos de la figura 6, específicamente, los rayos de luz 560, 565 y 570. En esta modalidad, la superficie 520 FS/UWA/RO tiene propiedades tanto reflejantes como transmisoras. Utilizando las propiedades transmisoras de la superficie 520, el rayo 570 de luz entra del ambiente a través de la superficie y avanza hacia el ojo del usuario. Desde la misma región de la superficie 520, el rayo 560 de luz se refleja por la superficie (utilizando las propiedades reflejantes de la superficie) y se une al rayo 570 de luz para crear un rayo 565 de luz combinada que entra al ojo del usuario cuando el usuario observa la dirección del punto 580, es decir, cuando la dirección de observación del usuario está en la dirección del punto 580. Mientras observa de esta manera, las capacidades de visión periférica del usuario permiten al usuario ver luz desde otros puntos en el ambiente los cuales pasan a través de la superficie 520, nuevamente utilizando las propiedades transmisoras de la superficie. En particular, las capacidades de visión periférica del usuario permiten al usuario ver luz adicionalmente distante de modo lateral y verticalmente desde solo alrededor del punto 580, a través de la superficie del sistema 520 de lentes divisores de haz.
Como se observa en la figura 8, en donde los números de referencia son los mismos para elementos similares de las figuras 5, 6 y 7, el sistema de visión consiste de tres partes', el montaje 515 de visualización, el sistema 520 de lente divisor de haz y el ojo 810. Con respecto al montaje de visualización, el sistema 520 de lente divisor de haz funciona como un reflector. El ojo 810 tiene un lente 820 interno. El rayo 560 de luz se emite desde un pixel sobre por lo menos un sistema de visualización del montaje 515 y es colimado (o colimado parcialmente) por el lente de pixel asociado del montaje. El rayo 560 de luz aparecerá en un punto en la retina del ojo, después de que es reflejado por el sistema '520 de lente divisor de haz y se ilustra como los rayos de luz 565 y 830. El término rayo de luz en la presente significa una superficie normal al frente de onda de luz que surge de la fuente y que toma la trayectoria óptica más corta desde el emisor al detector, en este caso, la retina. No obstante, lo que observa el ojo es una imagen virtual que aparece en el espacio al frente del mismo a una distancia representada por vectores 840 y 850. Para una imagen virtual en el infinito 860 la distancia del rayo es la suma de los vectores 840 y 850. El sistema 520 de espejo/divisor de haz de los lentes divisores de haz se muestra como curvado en esta representación, pero puede ser plano. Si el espejo está curvado, entonces la corrección de dioptrías proporcionada por el espejo se debe restar de la corrección de dioptrías suministrada por los lentes de pixel con el fin de permitir que el ojo enfoque sobre la imagen.
Un trazo de rayo en la figura 9 ilustra un frente de onda divergente de luz que surge de un pixel de un montaje 905 de visualización que es colimado antes de abandonar el montaje y que se fusiona en la luz 910 de 0 (cero) dioptrías a un espejo reflejante o divisor de haz 915. No hay divergencia, o muy poca en este punto y también en un haz 920 reflejado. El haz de luz también puede avanzar directamente en el ojo 930 y puede ser enfocado sobre el mismo en este punto. En la modalidad que aquí se muestra, el haz 920 reflejado se refleja fuera del espejo reflejante o divisor 915 de haz y se desplaza hacia la pupila del ojo. Esto es equivalente a la luz que proviene de un punto en esencia infinitamente distante representado por la linea 925 y el frente de onda de luz es plano, lo que resulta en una superficie paralela normal al frente de onda, mostrada como un haz 920 reflejado, a través de la entrada a la pupila al ojo 930.
La figura 10 ilustra un haz 920 reflejado paralelo colimado que entra al ojo 930 a través de la pupila 1005 y que es enfocado en un punto 1010 sobre la fovea de la retina 1015 en donde tiene lugar la mayor agudeza de visión. La retina circundante responde a un campo de visión más amplio pero con una agudeza menor. También, entrando al ojo desde esta dirección puede ser luz de un ambiente externo circundante que se une con el conjunto de imágenes aumentados proporcionados por la luz emitida por pixel colimada.
Como se describe en lo anterior, los sistemas ópticos previos utilizados en los HMD que han utilizado superficies ópticas reflejantes han tenido formación de pupila y por lo tanto han tenido áreas de observación limitadas, un campo típico de observaciones -60 grados o menos. Esto ha limitado en gran medida el valor y capacidad de los aparatos de visualización que se colocan en la cabeza previos. En diversas modalidades, los aparatos de visualización que se colocan en la cabeza que aquí se describen tienen campos de visión (FOV) mucho más amplios, y por lo tanto permiten que se proporcione mucha más información óptica al usuario en comparación con los HMD que tienen campos de visión más pequeños. El campo de visión amplio puede ser mayor de 100°, mayor de 150° o mayor de 200°. Además de proporcionar más información, el campo de visión amplio permite que la información adicional sea procesada por el usuario de una manera más natural, lo que permite mejores experiencias de inmersión y de realidad aumentada a través de una mejor coincidencia de las imágenes visualizadas con la realidad física.
Específicamente, en la modalidad ejemplar ilustrada en la figura 11, para una dirección de observación directa al frente el ojo es capaz de captar en su totalidad de área de observación representada en la figura 11 por las superficies curvadas FS/UWA/RO 201 y 202, que corresponden a por lo menos 150 grados de campo de visión (FOV) horizontal para cada ojo (por ejemplo, -168 grados de FOV horizontal) . Este campo de visión está constituido del campo de visión foveal de los ojos y su campo de visión periférico. Además, se permite que los ojos se muevan libremente alrededor de su centro de rotación para dirigir el campo de visión foveal+periférico combinado en diferentes direcciones de observación como lo hace manera natural el ojo cuando observa el mundo físico. Los sistemas ópticos que aquí se describen por lo tanto permiten que el ojo obtenga información a través de una gama de movimiento de la misma manera a como lo hacen los ojos cuando observan el mundo natural.
Examinando la figura 11 con mayor detalle, esta figura es una representación en lineas simplificada de la cabeza 200 de un usuario como se observa desde la parte superior. Muestra las superficies FS/UWA/RO 201 y 202 colocadas frente a los ojos del usuario 203 y 204. Como se describe en lo anterior, las superficies FS/UWA/RO 201 y 202 se pueden apoyar sobre la nariz 205 del usuario cuando se unen en la parte frontal 214 central de la cabeza 200 del usuario. Como se describe con detalle en lo siguiente, las normales locales y las ubicaciones espaciales locales de las superficies 201 y 202 se ajustan de manera que las imágenes producidas por al menos un montaje de visualización (no mostrado en la figura 11) cubre por lo menos 100°, por ejemplo, en algunas modalidades, por lo menos 150° y, en otras modalidades, por lo menos 200° de FOV horizontal para cada ojo en donde, como se describe en lo anterior, los campos de visión de 100°, 150° y 200° corresponden de manera general al campo de visión dinámico foveal de un usuario nominal, campo de visión estático foveal+periférico y campo de visión dinámico foveal+periférico, respectivamente. Como también se describe en lo siguiente, los radios de curvatura locales también se ajustan para proporcionar imágenes virtuales distantes cuando los efectos ópticos de la superficie reflejante combinada curvada se combinan con los efectos ópticos de los lentes de pixeles. Por ejemplo, las normales locales y las ubicaciones espaciales locales se pueden ajusfar para cubrir la totalidad de los -168 grados del usuario, del campo de visión estático, horizontal, directo al frente de cada ojo con los 168 grados que se extienden de borde a borde de las superficies FS/UWA/RO 201 ó 202, como se muestra por las lineas de observación 210, 211 y 212, 213. Las lineas de observación de esta manera corresponden al campo de visión estático amplio ( foveal+periférico) que se proporciona al usuario. Además, el usuario es libre de mover sus ojos alrededor haciendo girar los centros 215 y 216 mientras continúa observando el conjunto de imágenes generado por computadora.
En la figura 11, asi como en la figura 18, las superficies FS/UWA/RO se muestran como parte de esferas para facilidad de presentación. En la práctica las superficies no son esferas sino que tienen configuraciones más complejas de manera que sus normales locales, ubicaciones espaciales locales y radios de curvatura locales proporcionarán los campos de visión estático y dinámico deseados y las distancias deseadas a las imágenes virtuales. Además, en la figura 11, el lado derecho del aparato de visualización que se coloca en la cabeza opera de manera idéntica al lado izquierdo, entendiéndose que ambos lados pueden diferir si se desea para aplicaciones particulares. También con fines de presentación, la figura 11 a la figura 18 no muestran un sistema óptico el cual incluye lentes de pixeles entre por lo menos un sistema de visualización de imágenes y una superficie óptica reflejante, entendiéndose de acuerdo con la presente descripción, estos lentes se utilizan en las modalidades que aquí se describen.
La figura 12 y la figura 13 ilustran adicionalmente los campos de visión estático y dinámico proporcionados por las superficies FS/UWA/RO que aquí se describen. La figura 12 muestra el ojo 71 derecho nominal de un usuario que tiene una dirección de observación 73 directo al frente. El campo de visión foveal+periférico del ojo se muestra por el arco 75, el cual tiene una extensión angular de ~168°. Nótese que para facilidad de presentación, en la figura 12 a la figura 13, el campo de visión se muestra en relación al centro de rotación del ojo del usuario en oposición al centro o los bordes de la pupila del usuario. De hecho, el campo de visión grande (por ejemplo, -168°) obtenido por el ojo humano es un resultado de una extensión angular grande de la retina la cual permite que rayos altamente oblicuos entren a la pupila del usuario y alcancen la retina.
La figura 13 muestra esquemáticamente la interacción del campo de visión de la figura 12 con un HMD que tiene: (a) un sistema de visualización de imágenes el cual por lo menos una superficie 81 emisora de luz tiene una primera región 82 emisora de luz (que se ilustra como un cuadrado) y una segunda región 83 emisora de luz (que se ilustra como un triángulo) y (b) una superficie FS/UWA/RO que tiene una primera región 84 reflejante la cual tiene una primera normal 85 local y una segunda región 86 reflejante la cual tiene una segunda normal 87 local.
Como se indica en lo anterior, la superficie FS/UWA/RO es tanto una superficie de "espacio libre" como una superficie de "ángulo ultra amplio". Además, como se indica en lo anterior y como se describe con mayor detalle en lo siguiente, la superficie puede participar en colimación (o colimación parcial) de la luz que entra al ojo del usuario. Esta colimación provoca que la imagen virtual producida por la superficie FS/UWA/RO y los lentes de pixel aparezcan estar localizados, por ejemplo, a una distancia grande del usuario, por ejemplo, 30 metros o más, lo que permite al usuario enfocar fácilmente sobre la imagen virtual con un ojo relajado.
Los aspectos de "espacio libre" y "ángulo ultra amplio" de la superficie FS/UWA/RO se puede obtener al ajustar las normales locales de la superficie de manera que el ojo del usuario observe las regiones emisoras de luz de por lo menos un sistema de visualización de imagen como proviene de las regiones predeterminadas de la superficie FS/UWA/RO (ubicaciones predeterminadas en la superficie) .
Por ejemplo, en la figura 13, el diseñador del HMD puede decidir que puede ser útil que una imagen 88 virtual del cuadrado que se va a observar por la porción central de la retina del usuario cuando la dirección de observación del usuario es directamente al frente y para una imagen 89 virtual del triángulo que va a ser observada por la porción central de la retina del usuario cuando la dirección de observación es, por ejemplo -50° a la izquierda de lo que se observa directamente al frente. El diseñador después puede configurar que por lo menos un sistema de visualización de imagen, la superficie FS/UWA/RO, los lentes de pixel y cualquier otro de los componentes ópticos del sistema de manera que la imagen virtual del cuadrado pueda estar directamente al frente y la imagen virtual del triángulo puede estar 50° a la izquierda de lo que se observa directamente al frente durante el uso del HMD.
De esta manera, cuando la dirección de observación (linea de visión) del usuario intersecta la superficie FS/UWA/RO recta, la imagen virtual del cuadrado será visible en el centro del ojo del usuario, según se desea y cuando la dirección de observación (linea de visión) del usuario intersecta la superficie FS/UWA/RO a 50° a la izquierda de lo que se observa directamente al frente, la imagen virtual del triángulo será visible en el centro del ojo del usuario, como también se desea. Aunque no se ilustra en la figura 12 y en la figura 13, .los mismos enfoques se utilizan para el campo de visión vertical asi como campos de visión fuera del eje. De manera más general, al diseñar el HMD y cada uno de sus componentes ópticos, el diseñador "elabora un mapa" de por lo menos una superficie emisora de luz del visualizador a la superficie reflejante de manera que las porciones deseadas de la visualización sean visibles al ojo del usuario cuando la observación del ojo está en direcciones particulares. De esta manera, conforme el ojo explora a través del campo de visión, pero horizontal y verticalmente, la superficie FS/UWA/RO brilla en porciones diferentes de por lo menos una superficie emisora de luz del sistema de visualización de imagen dentro del ojo de un usuario. Aunque la descripción anterior ha sido en términos del centro de la retina de un usuario nominal en vez de esto, el proceso puede utilizar, por supuesto, la ubicación de la fovea de un usuario nominal si así se desea.
Debe hacerse notar que en la figura 13, cualquier rotación del ojo del usuario a la derecha provoca que la imagen 89 virtual del triángulo ya no sea visible al usuario. De esta manera, en la figura 13, cualquier dirección de observación que esté directamente al frente o a la izquierda de lo que se observa directamente proporciona al usuario con imágenes virtuales tanto del cuadrado como del triángulo mientras que una dirección de observación a la derecha de lo que se observa directamente al frente proporciona una imagen virtual de solo el cuadrado. La agudeza de las imágenes virtuales, por supuesto, dependerá de si las imágenes virtuales son percibidas por la visión foveal del usuario o la visión periférica del usuario.
Si el diseñador del HMD ha colocado la imagen virtual del cuadrado muy a la derecha en la figura 13 mientras deja la imagen virtual del triángulo alejada a la izquierda, entonces habrá direcciones de observación en donde únicamente la imagen virtual del cuadrado sea visible y otras direcciones de observación en donde únicamente la imagen virtual del triángulo sea visible. De igual manera, en base en los principios que aquí se describen, el diseñador puede distribuir la imagen virtual del cuadrado y la imagen virtual del triángulo de manera que la imagen virtual del triángulo sea siempre visible, con la imagen virtual del cuadrado que es visible para algunas direcciones de observación pero no para otras. Como una variación adicional, el diseñador del HMD puede colocar la imagen virtual del cuadrado y el triángulo en ubicaciones en donde para una o más direcciones de observación, ninguna de las imágenes sea visible para el usuario, por ejemplo, el diseñador puede colocar las imágenes virtuales justo fuera del campo de visión estático del usuario para una dirección de observación directamente al frente. La flexibilidad proporcionada al diseñador de HMD por la presente descripción es evidente por si misma.
En una modalidad, los aspectos de "espacio libre" y "ángulo ultra amplio" de la superficie reflejante se obtienen al utilizar los principios de Fermat y Hero, de conformidad con el cual la luz se desplaza a lo largo de la trayectoria óptica más corta (menor tiempo) . La solicitud de patente de E.U.A. cedida comúnmente y copendiente número 13/211,389, presentada el 17 de agosto del 2011 a los nombres de G. Harrison, D. Smith y G. Wiese, intitulada "Methods and Systems for Creating Free Space Reflective Optical Surfaces" (Métodos y sistemas para crear superficies ópticas reflejantes de espacio libre) e identificada por el número de expediente del abogado IS-00354, el contenido de la cual se incorpora en la presente como referencia, describe una modalidad en la cual se utilizan los principios de Fermat y Hero para el diseño de superficies FS/UWA/RO adecuadas para uso en los HMD. Véase también la solicitud de patente de E.U.A. en cesión común y copendiente número 13/211,372 presentada el 17 de agosto del 2011 a los nombres de G. Harrison, D. Smith y G. Wiese, intitulada "Head-Mounted Display Apparatus Employing One or More Reflective Optical Surfaces" (Aparato de visualización que se coloca en la cabeza que utiliza una o más superficies ópticas reflejantes) e identificada por el número de expediente del abogado IS-00267, el contenido de la cual también se incorpora en la presente como referencia .
Por medio de los principios de mínimo tiempo de Fermat y Hero, cualquier "porción deseada" de por lo menos una superficie emisora de luz de un sistema de visualización de imagen (por ejemplo, cualquier pixel de un sistema de visualización de imagen) se puede utilizar para tener cualquier punto de reflexión deseado en la superficie FS/U A/RO, con la condición de que la trayectoria óptica desde la porción deseada de por lo menos una superficie emisora de luz al punto de reflexión en la superficie FS/UWA/RO y después al centro de rotación del ojo del usuario esté en un punto de inflexión.
Un punto de inflexión en una trayectoria óptica significa que la primera derivada de la longitud de trayectoria óptica ha alcanzado un valor cero, lo que significa un máximo o un mínimo en la longitud de trayectoria óptica. Un punto de inflexión se puede insertar en cualquier punto del campo de visión al crear una región local de la superficie óptica reflejante cuya normal bisecta (a) un vector desde la región local del ojo del usuario (por ejemplo, un vector desde el centro de la región local al centro del ojo del usuario) y (b) un vector desde la región local a la "porción deseada" de la superficie emisora de luz (por ejemplo, un vector desde el centro de la región local al centro de la "porción deseada" de la superficie emisora de luz) . La figura 14 a la figura 16 ilustran el proceso para el caso en donde la "porción deseada" de por lo menos una superficie emisora de luz del sistema de visualización de imágenes es un pixel.
Específicamente, la figura 14 muestra una superficie 1510 emisora de luz de un sistema de visualización de imagen constituido de una distribución generalmente rectangular de pixeles que emanan luz hacia la parte frontal del aparato de visualización que se coloca en la cabeza en la dirección del haz 1515 de luz. El haz 1515 de luz rebota fuera de la superficie 1520 óptica reflejante la cual, para facilidad de presentación se muestra como plana en la figura 14. Ante la reflexión, el haz 1515 de luz se vuelve el haz 1525 de luz que entra al ojo 1530 del usuario .
Para propósitos de determinar la superficie normal del reflector para cada pixel, únicamente es necesario determinar el bisector tridimensional de los vectores correspondientes a los haces de luz 1515 y 1525. En la figura 14, este vector bisector se muestra en forma bidimensional como una linea 1535. El vector 1535 bisectante es normal a la superficie óptica reflejante en el punto de reflexión 1540, la cual es la ubicación sobre la superficie 1520 en donde el pixel 1545 de la superficie 1510 emisora de luz será visible al usuario del HMD.
Específicamente, la operación, el pixel 1545 en la superficie 1510 de visualización emite un haz 1515 de luz que rebota en la superficie 1520 óptica reflejante en un ángulo establecido por la superficie normal correspondiente al vector 1535 bisectante y su plano 1550 perpendicular, lo que proporciona por los principios de Fermat y Hero un pixel reflejado en el punto de reflexión 1540 que se observa por el ojo 1530 a lo largo del haz 1525 de luz. Con el fin de calcular con precisión la superficie normal en el punto de reflexión 1540, el haz 1525 puede pasar a través de aproximadamente el centro 1555 del ojo 1530 del usuario. Los resultados permanecerán aproximadamente estables incluso si el ojo del usuario gira, volviéndose visión periférica hasta que, como se describe en lo anterior en relación con la figura 12 y la figura 13, el ojo gira mucho a aquella región de la visualización que no puede ser observada con ya sea la visión foveal o periférica del usuario.
Para calcular la posición de la normal de superficie se puede emplear el uso del método de cuaterniones , en donde ql = orientación del haz 1515 q2 = orientación del haz 1525 y q3 = la orientación de la normal a la superficie deseada 1535 = (ql + q2)/2 La normal a la superficie también se puede describir en notación de vectores, como se ilustra en la figura 17. En la siguiente ecuación y en la figura 17, el punto N está una unidad alejado del punto M en el centro de la región de interés de la superficie óptica reflejante y está en la dirección de la normal perpendicular al plano tangente de la superficie óptica reflejante en el punto M. El plano tangente de la superficie óptica reflejante en el punto N está controlado para satisfacer la relación expresada en la siguiente ecuación de manera que en el espacio tridimensional, la superficie normal al punto M bisecta la linea desde el punto M al punto P en el centro del pixel de interés y la línea del punto M al punto C .en el centro de giro del ojo del usuario (para referencia, el punto C está aproximadamente 13 mm atrás de la parte frontal del ojo) .
La ecuación que describe el punto N sobre la normal a la superficie en el punto es: en donde todos los puntos N, M, P y C tienen los componentes [x, y, z] que indican suposición en el espacio tridimensional en un sistema arbitrario de coordenadas cartesianas .
El vector normal resultante N-M tiene la longitud de Euclides \N-M\ = \ en donde las dos barras verticales representan la longitud de Euclides, calculada como sigue: \N-M\ = /(½ -½)2 + ( N -yMf +{zN-zM) Como un ejemplo numérico, considérense los siguientes valores M, P y C: M = [xM, YM, zw] = [4, 8, 10] P = [2, 10, 5] C = [6, 10, 5] El punto a lo largo de la normal, N, se calcula como sigue: P-M = [(2-4), (10-8), (5-10) ]=[-2,2,-5] C-M=[ (6-4) , (10-8) , (5-10) ]= [2, 2. -5] (P-M)+(C-M)=[0, 4, -10] ={ [-2, 2, -5] + [2, 2-5] }/10.77032961 3+ [4, 8, 10] =[0, 0.3713806764, -0.928476691 ] + [ , 8 , 10] =[4,8.3713806764, 9.0715233091] La geometría se muestra en la figura 15, en donde el bisector está entre los dos vectores más grandes.
Lo anterior, por supuesto, simplemente es un cálculo representativo que sirve para demostrar el uso de los principios de Fermat y Hero del menor tiempo para determinar las limitaciones angulares de plano tangente local para un campo de puntos que constituye un múltiple de superficie de espacio libre (forma libre) de regiones reflejantes destinadas a presentar una imagen virtual contigua al observador. La única constante real es el centro del ojo del usuario y el campo de visión natural del ojo. Todos los demás componentes pueden actualizarse repetitivamente hasta que se alcance una solución apropiada para un sistema de visualización de imágenes dado y una orientación de superficie óptica reflejante. De otra manera, las ubicaciones de reflexión de imagen de pixel, Mi, M2, Mn, y sus normales y curvaturas asociadas se pueden considerar como una matriz que es "envuelta" (ajustada) de manera que la superficie FS/UWA/RO alcanza el procesamiento de imagen virtual deseado de imágenes generadas por computadora formadas por el sistema de visualización de imagen.
Al aplicar los principios de Fermat y Hero, se debe hacer notar que en algunas modalidades será deseable evitar la situación en donde las normales se ajustan de manera que el usuario busca la misma reflexión de pixel en más de un punto. También debe hacerse notar que en algunas modalidades, las regiones locales de la superficie óptica reflejante pueden ser muy pequeñas e incluso pueden corresponder a un punto en el reflector, con los puntos transformándose en otros puntos para generar una superficie uniforme.
Para facilitar la presentación, los efectos de la presencia de lentes de pixel no se han incluido explícitamente en la discusión anterior del uso de los principios de Fermat y Hero para diseñar una superficie FS/UWA/RO. En la práctica, en la presencia de lentes de pixel se incluye fácilmente en el análisis mediante la utilización como la entrada a los cálculos de Fermat y Hero, las direcciones de propagación de los haces de luz después de que han pasado a través de los lentes de pixel (y cualquier otro elemento óptico utilizado en el sistema óptico general) . Estas direcciones de propagación se pueden determinar, por ejemplo, utilizando técnicas de óptica de Gauss. Si se desea, los cálculos de Fermat y Hero se pueden repetir para diferentes ajustes de vergencia de luz inicial controlada por el cambio de la potencia del conjunto de lentes de los lentes de pixel hasta que se obtengan las imágenes virtuales deseadas.
Con el fin de asegurar que el usuario pueda enfocar fácilmente sobre la imagen virtual de la "porción deseada" de por lo menos una superficie emisora de luz (por ejemplo, la imagen virtual de un pixel) , en algunas modalidades los radios de curvatura de la región que rodea al punto de reflexión (área de reflexión) se controlan de manera que después de pasar a través del lente de pixel y reflejarse desde la superficie FS/UWA/RO, una imagen colimada (o sustancialmente colimada.) llega al usuario. Como se indica en lo anterior, una imagen colimada (o sustancialmente colimada) tiene rayos ópticos que son más paralelos, como si la imagen se hubiera originado a una distancia lejana del usuario, a decenas o cientos de metros, por ejemplo. Con el fin de obtener esta superficie, dependiendo de la potencia de colimación de los lentes de pixel, el radio de curvatura de la región de reflexión de la superficie óptica reflejante que corresponde a la "porción deseada" de por lo menos una superficie emisora de luz (pixel emisor de luz deseado) se puede mantener en un radio en el orden de (pero mayor que) la mitad de la distancia desde- la región de reflexión a la "porción deseada" real de la superficie emisora de luz (pixel real) en el aparato de visualización . Más particularmente, el radio estará en el orden de la mitad de la distancia aparente desde la región de reflexión a la "porción deseada" de la superficie emisora de luz cuando la "porción deseada" es observada a través de su lente de pixel asociado desde la ubicación de la región de reflexión.
Por la tanto, en una modalidad, el vector normal inter-pixel-reflectado del pixel involucrado a los pixeles adyacentes satisface una relación que permite que establezcan un radio de curvatura en el orden de aproximadamente la mitad de la longitud del vector a partir de la ubicación del pixel reflejado sobre la superficie reflejante a la ubicación aparente del pixel de visualización, como se observa a través de su lente de pixel asociado. Los ajustes que afectan este parámetro incluyen el tamaño de por lo menos una superficie emisora de luz y si por lo menos una superficie emisora de luz está curvada.
La figura 16 ilustra esta modalidad. Con el fin de controlar el radio de curvatura de la región que circunda la reflexión de pixel de manera que una imagen colimada (o sustancialmente colimada) llega al usuario, se consideran dos regiones reflejantes de pixel adyacentes, tal como un el punto de reflexión 1540. Se pueden considerar más regiones para un mejor equilibrio pero dos son suficientes. Con referencia a la figura 16, se muestran dos puntos reflejantes de pixel 1540 y 1610 con respecto a dos pixeles, 1545 y 1615, respectivamente sobre la superficie 1510 de visualización . Las normales de superficie en los puntos 1540 y 1610 se calculan junto con el ángulo entre sus direcciones. El radio de curvatura se calcula conociendo estos ángulos y la distancia entre los puntos 1540 y 1610. Específicamente, la configuración de superficie y, si se necesita, la ubicación espacial de la superficie se ajustan hasta que el radio de curvatura está en el orden de aproximadamente la mitad del promedio de las longitudes de haces 1515 y 1620 cuando estas longitudes se ajustan para efectos de los lentes de pixel. De esta manera, se puede proporcionar al ojo de un usuario una luz con dioptría cero o casi cero. Como se indica en lo anterior, esto es equivalente a luz que proviene de un punto en esencia infinitamente distante, y el frente de onda de la luz es plano, lo que resulta en normales de superficie paralela al frente de onda de luz.
Además de controlar los radios de curvatura locales, en algunas modalidades, como 'una solución de punto de primer orden para tener una imagen colimada (o sustancialmente colimada) que entre al ojo, por lo menos una superficie emisora de luz se localiza normalmente a una distancia de una longitud focal alejándose de la superficie FS/UWA/RO, en donde la longitud focal se basa en el valor promedio de los radios de curvatura de las diversas regiones reflejantes que constituyen la superficie FS/UWA/RO.
El resultado de aplicación de los principios de Fermat y Hero es un conjunto de regiones reflejantes que se pueden combinar en una superficie reflejante uniforme. En general, esta superficie no será esférica o simétrica. La figura 18 es una representación bidimensional de esta superficie 1520 FS/UWA/RO. Como se describe en lo anterior, la superficie 1520 se puede construir de manera que los radios de curvatura en los puntos 1710 y 1720 se establezcan en valores los cuales, cuando se combinan con los efectos colimantes de los lentes de pixel, proporcionen una observación relajada de la imagen desde por lo menos una superficie emisora de luz del sistema de visualización de imagen el cual está siendo reflejado por la superficie. De esta manera, al observar en cierta dirección representada por la línea 1730 proporcionará una imagen virtual colimada (o sustancialmente colimada) al ojo 1530, como se observará en una dirección diferente representada por la línea 1740. Para permitir una transición uniforme de observación a través de todo el campo de visión, las regiones de la superficie FS/UWA/RO presentarán una transición uniforme desde un punto de control a otro, lo cual se puede realizar mediante la utilización de tecnología de división B ranurada no uniforme (NURBS) para superficies ranuradas, por lo que se crea una transición uniforme a través de la superficie reflejante. En algunos casos, la superficie FS/UWA/RO puede incluir un número suficiente de regiones de manera que la superficie se vuelva uniforme a un nivel de grano fino. En algunas modalidades, se puede proporcionar ampliaciones diferentes para cada porción de la pantalla (por ejemplo, para cada pixel) utilizando un gradiente gradual para permitir una mejor susceptibilidad de manufactura, realización y calidad de imagen .
De lo anterior, se puede observar que el aparato de visualización que se coloca en la cabeza en general, se puede diseñar utilizando las siguientes etapas ejemplares: determinar un campo de visión deseado, seleccionar un tamaño de superficie de visualización (por ejemplo, dimensiones de anchura y altura), seleccionar una orientación para la superficie de visualización en relación a una superficie reflejante, seleccionar una ubicación candidata para los lentes de pixel entre el aparato de visualización y la superficie reflejante, seleccionar una configuración candidata para los lentes de pixel, catalogar la posición de cada pixel sobre la superficie de visualización como se observa a través de los lentes de pixel y seleccionar una ubicación para visualización de cada pixel desde la superficie de visualización sobre la superficie reflejante. La superficie de visualización y los lentes de pixel se pueden colocar por encima del ojo y se pueden inclinar hacia la superficie reflejante, lo que permite que la curvatura de la superficie reflejante refleje luz al ojo del usuario. En modalidades adicionales, la superficie de visualización y los lentes de pixel se pueden colocar en otras posiciones, por ejemplo respecto al lado del ojo o debajo del ojo, con la posición reflejante y la curvatura seleccionada para reflejar la luz desde la superficie de visualización apropiadamente o para estar inclinada en un grado diferente.
En algunas modalidades, la instanciación tridimensional o la representación matemática de la superficie reflejante se puede crear con, como se describe en lo anterior, cada región de la superficie reflejante colocada en una región local que tenga una normal que bisecte los vectores desde el centro de esa región al centro del ojo del usuario y al centro de un pixel en la superficie de visualización (centro de la posición aparente del pixel que resulta de la presencia de los lentes de pixel asociados con el pixel) . Como también se describe en lo anterior, los radios de curvatura de las regiones que rodean una reflexión de pixel se pueden controlar de manera que en combinación con los efectos colimantes de los lentes de pixel una imagen colimada (o sustancialmente colimada) alcance al usuario a través del campo de visión. A través de repeticiones basadas en computadora, se pueden ajusfar los parámetros que se pueden cambiar (por ejemplo normales locales, curvaturas locales y ubicaciones espaciales locales de la superficie reflejante y las ubicaciones, potencias y estructuras de los lentes de pixel) hasta que se identifique una combinación (conjunto) de parámetros que proporcionen un nivel deseado de desempeño óptico sobre el campo de visión asi como un diseño susceptible de ser fabricado y que sea estéticamente aceptable.
Durante el uso, una superficie FS/UWA/RO no simétrica (la cual, en ciertas modalidades se construye a partir de una superficie ranurada de regiones locales múltiples de focos) en combinación con un lente de pixel forma una imagen virtual de por lo menos una superficie emisora de luz del sistema de visualización de imagen que es tensionado a través de un campo de visión amplio. Se puede considerar a la superficie FS/U A/RO como un espejo progresivo o un divisor de haz curvado progresivo o un espejo o reflector de forma libre. Conforme el ojo explora a través del campo de visión, horizontal y verticalmente, la superficie FS/UWA/RO curvada destella porciones diferentes de por lo menos una superficie emisora de luz del sistema de visualización de imagen en el ojo del usuario. En diversas modalidades, el sistema óptico en general se puede fabricar en grandes cantidades a bajo costo mientras se mantiene una calidad de imagen conmensurada con la resolución visual humana típica.
IV. HMD QUE UTILIZAN UNA SUPERFICIE OPTICA REFLEJANTE NO CURVADA La figura 19 es una vista lateral de un aparato 600 de visualización que se coloca en la cabeza alternativo. El aparato 600 de visualización que se coloca en la cabeza puede ser un par de visores binoculares de realidad aumentada. El aparato 600 de visualización que se coloca en la cabeza incluye un miembro 610 de visor adaptado para proyectar o radiar desde la cara de un usuario cuando es portado por un usuario 605. El miembro 610 de visor está configurado para sostener por lo menos un montaje 615 de visualización por encima de los ojos del usuario 605. Por ejemplo, por lo menos un montaje 615 de visualización puede colocarse horizontalmente o en un ángulo ligero con respecto al horizonte. Por lo menos un montaje 615 de visualización tiene un lente de pixel por pixel emisor de luz inclinado en el montaje. El aparato 600 de visualización que se coloca en la cabeza incluye además un sistema 620 de lente divisor de haz plano orientado en un ángulo ligero con respecto a un plano vertical para reflejar luz colimada o sustancialmente colimada de por lo menos un montaje 615 de visualización a los ojos del usuario 605. El aparato 600 de visualización que se coloca en la cabeza proporciona un campo de visión amplio para una observación cercana. Por lo menos un montaje 615 de visualización en esta modalidad puede tener dimensiones más grandes que en otras modalidades para proporcionar un campo de visión amplio puesto que en esta modalidad no existe curvatura óptica en el divisor 620 de haz.
Un paquete 625 electrónico controla la imagen que se visualiza. El paquete 625 electrónico puede incluir acelerómetros y giroscopios en una modalidad. La potencia y el video hace y desde el aparato 600 de visualización que se coloca en la cabeza se puede proporcionar a través de un cable 630 de transmisión de un medio inalámbrico en donde el paquete 625 electrónico proporciona un transceptor o interconexión cableada.
Un conjunto de cámaras 640 se puede colocar en cada lado del HMD para proporcionar entrada a una funcionalidad tal como un módulo de software o firmware que se ejecuta en el paquete 625 electrónico para controlar la generación por computadora de escenas de realidad aumentada. Los elementos 650, 655, 656 y 657 representan diversas formas de soporte para sujetar el dispositivo 600 en una posición deseada en relación al ojo, tales como bandas o cuerdas las cuales pueden ser ajustables en algunas modalidades.
La operación del sistema de la figura 19 se ilustra por rayos de luz 660, 665 y 670. Como se muestra, los rayos de luz 670 entran del ambiente a través de una superficie exterior del sistema 620 de lente de visor de haz plano, se combinan con la luz desde por lo menos un montaje 615 de visualización que incide en la superficie interior del sistema 620 de lente de visor de haz para crear el rayo de luz 665 combinado que entra al ojo del usuario cuando el usuario observa en la dirección del punto 680. Las capacidades de visión periférica del usuario también permiten al usuario observar luz lateral y verticalmente más distante de justo alrededor del punto 680, a través de la superficie del sistema 620 de lente de visor de haz. Por lo menos un montaje 615 de visualización se puede elaborar para doblarse de una manera cilindrica, curvada, para permitir un mejor acceso a la información de pixel por el sistema óptico del ojo y el sistema 620 divisor de haz.
V. HMD DE OBSERVACION DIRECTA Además de las aplicaciones anteriores, los lentes de pixel también se pueden utilizar para observación directa de un sistema de visualización de imágenes sin una superficie óptica reflejante intermedia. Esta configuración será de inmersión, pero puede incluir información del mundo externo mediante el uso de una o más cámaras de video. Mediante la utilización de los lentes de pixel una imagen de un dispositivo de visualización se puede proyectar en un campo de visión amplio en un espacio compacto.
Mediante el uso de los lentes de pixel, el usuario puede ver la imagen que se produce como si proviniera de una distancia, lo que permite al ojo del usuario enfocar fácilmente sobre la misma. Además un campo de visión no distorsionado máximo se puede obtener con este enfoque. La colimación del haz se realiza en por lo menos un montaje de visualización mismo de manera que no es necesaria colimación adicional. El usuario observa directamente por lo menos una pantalla en proximidad cercana y por lo menos un sistema de visualización de imagen se puede elaborar tan grande como se requiera para permitir para el campo de visión esperado. Los lentes de pixel permiten la observación del sistema de visualización incluso cuando se colocan cercanos al ojo. Se puede realizar optimización al manipular la curvatura del sistema de visualización, el tamaño de pixel, las propiedades del lente de pixel y la distancia de los ojos del usuario para obtener el paquete más útil.
La figura 20 ilustra un aparato 1100 de visualización que se coloca en la cabeza que es portado por un usuario 1105. El aparato 1100 de visualización que se coloca en la cabeza puede ser un par de visores 1110 binoculares de inmersión. Los visores 1110 pueden tomar la forma similar a anteojos o goggles que sostienen por lo menos un montaje 1115 de visualización con un lente de pixel por cada pixel emisor de luz en el montaje. Por lo menos un montaje 1115 de visualización se coloca directamente en el campo de visión del usuario y se ajusta para observación cercana con el conjunto de lentes de pixel. Por lo menos un montaje 1115 de visualización se coloca en las superficies de los goggles o anteojos directamente frente a los ojos del usuario utilizando, por ejemplo, el soporte 1120 y orientado esencialmente vertical de manera que los pixeles que emanen luz directamente en la dirección de los ojos del usuario para una experiencia de mundo virtual de inmersión. Se proporciona un paquete 1125 electrónico que incluye circuitaje de procesamiento, acelerómetros y giroscopios soportados para el armazón en una modalidad para controlar la imagen que se visualiza. La energía y el video hacia y desde los visores 1110 binoculares se puede proporcionar a través de un cable 1130 de transmisión o por un medio inalámbrico. Un conjunto de cámaras 1170 se sitúa en cada lado del HMD y están soportadas por el armazón para proporcionar entrada a un paquete de software por ejemplo un paquete de software el cual es parte del paquete 1125 electrónico para ayudar a controlar la generación por computadora de las escenas de realidad de inmersión.
Como se observa en la figura 21, en donde los números de referencia son iguales para elementos similares de la figura 20, el sistema de visión de esta modalidad consiste de dos partes: (a) por lo menos un montaje 1115 de visualización y (b) el ojo 810, el cual tiene un lente 820 interno. La luz emitida desde un pixel del montaje 1115 de visualización el cual ha pasado a través del lente de pixel asociado al pixel se representa con el número 565. Después de pasar a través del lente 820 del ojo, esta luz aparecerá en un punto en la retina del usuario. No obstante, lo que observa el ojo es una imagen virtual que aparece en el espacio frente al mismo, a una distancia representada por los vectores 840 y 850. Para una imagen virtual en el infinito 860, la distancia de rayo es la suma de los vectores 840 y 850. Por lo menos un montaje 1115 de visualización se muestra como plano en esta representación pero puede ser curvado o plano.
La figura 22 es un diagrama de rayos que ilustra la luz desde un aparato de visualización que se coloca en la cabeza que entra a un ojo 930. La luz se muestra que surge de un montaje 1115 de visualización que tiene una distribución curvada. En particular, la luz se muestra que surge de tres porciones de la superficie 1120 exterior del montaje 1115 de visualización. La totalidad de los lápices de luz desde las tres porciones, tales como 1120 se coliman y son capaces de ser observadas y enfocadas por el ojo 930 como se observan en los puntos 1010 en la retina 1015.
VI. CONSIDERACIONES GENERALES En términos de la estructura general del HMD, la tabla 1 muestra ejemplos no limitantes y representativos de los parámetros los cuales un aparato de visualización HMD construido de acuerdo con la presente invención satisface de manera virtual. Además, el aparato de visualización HMD que aquí se describe típicamente tendrá una distancia interpixel que es suficientemente pequeña para asegurar que la imagen convincente se establece en el plano visual del usuario .
Varias características que se pueden incluir en las pantallas de visualización que se colocan en la cabeza que aquí se describen, incluye, sin limitación las siguientes, algunas de las cuales ya se han mencionado antes : (1) En algunas modalidades la superficie óptica reflejante (cuando se usa) puede ser semi-transparente lo que permite que la luz provenga del ambiente externo. Las imágenes internas generadas por el aparato de visualizacion de esta manera se pueden superponer a la imagen externa. Las dos imágenes se pueden alinear mediante el uso de equipo de localización, tal como giroscopios, cámaras y manipulación de software del conjunto de imágenes generado por computadora de manera que las imágenes virtuales estén en las ubicaciones apropiadas en el ambiente externo. En particular se puede utilizar una cámara, acelerómetro y/o giroscopios para ayudar al aparato a la alineación en donde se encuentra la realidad física y para superponer sus imágenes en la vista exterior. En estas modalidades, el equilibrio entre la transmitancia relativa y la reflejancia de la superficie óptica reflejante se puede seleccionar para proporcionar al usuario con imágenes superpuestas con características de brillantez apropiadas. Utilizando el equilibrio correcto de luz admitida desde el ambiente exterior el HMD puede generar internamente luz que permite que se observe una reflexión en la superficie interior del HMD que parezca estar en el ambiente fuera de los lentes. Además, en estas modalidades, la imagen del mundo real y la imagen generada por computadora pueden aparecer ambas que se encuentran aproximadamente a la misma distancia de manera que el ojo puede enfocar ambas imágenes a la vez. (2) En algunas modalidades, la superficie óptica reflejante (cuando se utiliza) se mantiene tan delgada como se pueda con el fin de minimizar los efectos sobre la posición o foco de la luz externa que pasa a través de la superficie . (3) En algunas modalidades, el aparato de visualizacion que se coloca en la cabeza proporciona un campo de visión a cada ojo de por lo menos 100 grados, por lo menos 150 grados o por lo menos 200 grados. (4) En algunas modalidades, el campo de observación proporcionado por el aparato de visualizacion que se coloca en la cabeza a cada ojo no se superpone a la nariz del usuario por grado grande alguno. (5) En algunas modalidades la superficie óptica reflejante (cuando se utiliza) puede utilizar una transición progresiva de su prescripción óptica a través del campo de observación para mantener foco sobre el área de visualizacion disponible. (6) En algunas modalidades, se puede utilizar trazado de rayos para adaptar los parámetros del aparato para una implementación particular, como entrenamiento militar, simulación de vuelo, juegos u otras aplicaciones comerciales . (7) En algunas modalidades, la superficie óptica reflejante (cuando se utiliza) y/o la superficie de la visualizacion asi como las propiedades de ubicaciones de los lentes de pixel y las distancias entre la visualizacion y la superficie óptica reflejante (cuando se utiliza) y entre la superficie óptica reflejante (cuando se utiliza) y el ojo se puede manipular con respecto a la especificación de Función de Transferencia de Modulación (MTF) en la retina y/o la fovea . (8) En algunas modalidades, los HMD que aquí se describen se pueden implementar en aplicaciones tales como, pero sin limitarse a detección de francotiradores, entrenamiento comercial, entrenamiento y operaciones militares y fabricación CAD. (9) Aunque se muestra como plan en las figuras, el sistema de visualizacion de imágenes también puede tener una superficie emisora de luz curvada.
Una vez diseñada, las superficies ópticas reflejantes que aquí se describen (por ejemplo, las superficies FS/UWA/RO) se pueden producir, por ejemplo, se pueden fabricar en cantidad utilizando una diversidad de técnicas y una diversidad de materiales conocidos ahora o desarrollados subsecuentemente. Por ejemplo, las superficies se pueden elaborar de materiales plásticos los cuales han sido metalizados para que sean reflejantes adecuadamente. También se puede utilizar plástico pulido o materiales de vidrio con la exclusión de recubrimientos antirreflejantes sobre su superficie reflejante. Para aplicaciones de "realidad aumentad" las superficies ópticas reflejantes se pueden construir a partir de un material transmisor con reflectores pequeños incrustados y de esta manera reflejan una porción de un frente de onda incidente mientras permiten la transmisión de luz a través del material .
Para partes prototipo se puede utilizar un plástico acrílico (por ejemplo, plexiglás) con la parte que está formada por torneado al diamante. Para las partes de producción, se puede utilizar ya sea acrilico o policarbonato, por ejemplo, con la parte que está siendo conformada, por ejemplo, mediante técnicas de moldeado por inyección. La superficie óptica reflejante se puede describir como una descripción de dibujo ayudado por computadora (CAD) detallada o como una superficie NURBS no uniforme de división B razonada, la cual se puede convertir en una descripción CAD. Teniendo un archivo CAD se puede permitir que el dispositivo se elabore utilizando impresión tridimensional en donde la descripción CAD resulta en un objeto tridimensional directamente, sin que se requiera maquinado .
Las técnicas matemáticas descritas en lo anterior pueden ser codificadas en diversos ambientes de programación y/o lenguajes de programación, conocidos ahora o desarrollados subsecuentemente. Un ambiente de programación preferido actualmente es el lenguaje Java que funciona en la interfase de programador Eclipse. Otros ambientes de programación tal como Microsoft Visual C# también se pueden utilizar si asi se desea. Los cálculos también se pueden realizar utilizando la plataforma Mathcad comercializada por PTC de Needham, Massachusetts y/o la plataforma Matlab de Math orks , Inc., de Natick, Massachusetts. Los programas resultantes se pueden almacenar en un disco duro, una barra de memoria, CD o dispositivo similar. Los procedimientos se pueden llevar a cabo utilizando equipo de computadora típico de escritorio disponible de una diversidad de vendedores, por ejemplo DELL, HP, TOSHIBA, etc. De manera alternativa, se puede utilizar equipo de cómputo más poderoso que incluye cómputo "en la nube" sí así se desea.
De lo anterior se puede observar que en diversas modalidades se ha proporcionado una alta resolución y visualizacion de un campo de visión amplio (ángulo amplio) en un dispositivo HMD similar a lentes para el sol. El campo de visión amplio puede elaborarse, por ejemplo en cualquier ángulo deseado al tener aparatos de visualizacion más grandes y/o en mayor cantidad. La imagen visualizada puede superponerse a la realidad física observada de un ambiente circundante. El uso de lentes de pixel permite al ojo del usuario estar en proximidad cercana a la pantalla de HMD mientras realiza un enfoque de una escena distante y el conjunto de imágenes de la pantalla también parecen estar distantes. El HMD establece y mantiene una relación fija entre el sistema de visualización de imagen, los lentes de pixel y los ojos del usuario. La intensidad de pixel se puede controlar individualmente en base en la distancia del sistema de visualización de imagen a los ojos del usuario o para modalidades que utilizan un divisor de haz, en base en la distancia del sistema de visualización de imagen de manera que el divisor de haz, la curvatura del divisor de haz y la distancia del divisor de haz respecto al ojo del usuario.
Una diversidad de modificaciones que no se apartan del alcance y espíritu de la invención serán evidentes para las personas habitualmente expertas en el ámbito a partir de la descripción precedente. Las siguientes reivindicaciones se pretende que abarquen las modalidades específicas que se establecen en la presente así como modificaciones, variaciones y equivalentes de estas modalidades.
TABLA 1

Claims (21)

REIVINDICACIONES
1. Aparato de visualización que se coloca en la cabeza, que comprende: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; (II) un sistema de visualización de imágenes que tiene una superficie emisora de luz la cual comprende un distribución de pixeles emisores de luz, el sistema de visualización de imágenes está soportado por el armazón; y (III) una superficie óptica reflejante soportada por el armazón: en donde (a) el aparato comprende una distribución de lentes de pixel localizados entre la distribución de pixeles emisores de luz y la superficie óptica reflejante, un lente de pixel para cada uno de los pixeles emisores de luz, un lente de pixel se alinea con y recibe la luz de su pixel emisor de luz asociado durante el uso del aparato; y (b) la distribución de lentes de pixel ya sea solos o en combinación con la superficie óptica reflejante colima o colima sustancialmente la luz emitida de la distribución de pixeles emisores de luz durante el uso del aparato.
2. Aparato como se describe en la reivindicación 1, en donde la superficie óptica reflejante es plana y la distribución de lentes de pixel solo colima o colima sustancialmente la luz emitida de la distribución de pixeles emisores de luz durante el uso del aparato.
3. Aparato como se describe en la reivindicación 1, en donde la superficie óptica reflejante está curvada y la distribución de lentes de pixel y la superficie óptica reflejante en combinación coliman o coliman sustancialmente la luz emitida de la distribución de pixeles emisores de luz durante el uso del aparato.
4. Aparato como se describe en la reivindicación 1, en donde la superficie óptica reflejante es una superficie continua que no es rotacionalmente simétrica alrededor de eje coordenado alguno de un sistema de coordenadas cartesiano tridimensional.
5. Aparato como se describe en la reivindicación 1, en donde el sistema de visualización de imágenes y la distribución de lentes de pixel forman un montaje de visualización el cual está curvado de manera convexa hacia la superficie óptica reflejante.
6. Aparato como se describe en la reivindicación 1, en donde, durante el uso del aparato: (i) la superficie óptica reflejante y la distribución de lentes de pixel producen imágenes virtuales separadas espacialmente de porciones separadas espacialmente de la superficie emisora de luz, por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por lo menos 100 grados, la separación angular se mide desde el centro de rotación de un ojo de un usuario nominal; y (ii) por lo menos un punto de la superficie óptica reflejante está separada angularmente de por lo menos otro punto de la superficie óptica reflejante por lo menos 100 grados, la separación angular se mide del centro de rotación del ojo de un usuario nominal.
7. Aparato de visualización que se coloca en la cabeza, como se describe en la reivindicación 6, en donde: por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por lo ' menos 150 grados; y por lo menos un punto de la superficie óptica reflejante está separado angularmente de por lo menos otro punto de la superficie óptica reflejante por al menos 150 grados.
8. Aparato de visualización que se coloca en la cabeza, como se describe en la reivindicación 6, en donde: por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por lo menos 200 grados; y por lo menos un punto de la superficie óptica reflejante está separado angularmente de por lo menos otro punto de la superficie óptica reflejante por al menos 200 grados.
9. Aparato de visualizacion que se coloca en la cabeza, como se describe en la reivindicación 1, en donde la superficie óptica reflejante es semitransparente.
10. Aparato de visualizacion que se coloca en la cabeza, que comprende: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; (II) un sistema de visualizacion de imágenes que tiene una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz, el sistema de visualizacion de imágenes está soportado por el armazón; y (III) una superficie óptica reflejante, de ángulo ultra-amplio, de espacio libre soportada por el armazón en donde: (a) el aparato comprende una distribución de lentes de pixel localizados entre la distribución de pixeles emisores de luz y la superficie óptica reflejante de ángulo ultra-amplio de espacio libre, un lente de pixel para cada uno de los pixeles emisores de luz, los lentes de pixel están alineados con y reciben luz de su pixel emisor de luz asociado durante el uso del aparato; y (b) durante el uso del aparato, la superficie óptica reflejante de ángulo ultra-amplio, de espacio libre y la distribución de lentes de pixeles producen imágenes virtuales separadas espacialmente de porciones separadas espacialmente de la superficie emisora de luz, por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por el menos 100 grados, la separación angular se mide desde el centro de rotación del ojo de un usuario nominal.
11. Aparato como se describe en la reivindicación 10, en donde la distribución de lentes de pixel en combinación con la superficie óptica reflejante de ángulo ultra-amplio, de espacio libre colima o colima sustancialmente la luz emitida de la distribución de pixeles emisores de luz durante el uso del aparato.
12. Aparato como se describe en la reivindicación 10, en donde la distribución de lentes de pixel solamente coliman o coliman sustancialmente la luz emitida de la distribución de pixeles emisores de luz durante el uso del aparato.
13. Aparato de visualización que se coloca en la cabeza, como se describe en la reivindicación 10, en donde por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por al menos 150 grados.
14. Aparato de visualización que se coloca en la cabeza, como se describe en la reivindicación 10, en donde por lo menos una de las imágenes virtuales separadas espacialmente está separada angularmente de por lo menos otra de las imágenes virtuales separadas espacialmente por al menos 200 grados.
15. Aparato de visualización que se coloca en la cabeza, como se describe en la reivindicación 10, en donde la superficie óptica reflejante de ángulo ultra-amplio, de espacio libre es semitransparente.
16. Aparato de visualización que se coloca en la cabeza, que comprenden: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; y (II) un montaje de visualización soportado por el armazón, el montaje de visualización comprende: (a) un sistema de visualización de imagen que tiene una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz; y (b) una distribución de lentes de pixel, un lente de pixel para cada uno de los pixeles emisores de luz, uno de los lentes de pixel está alineado con y recibe luz de su pixel emisor de luz asociado durante el uso del aparato; en donde, durante el uso del aparato, la distribución de lentes de pixel es el único componente del aparato con potencia óptica entre la superficie emisora de luz y el ojo de un usuario.
17. Aparato como se describe en la reivindicación 16, en donde el montaje de visualización tiene una superficie cóncava la cual está orientada hacia el ojo del usuario durante el uso del aparato.
18. Aparato de visualización que se coloca en la cabeza, que comprende: (I) un armazón adaptado para ser colocado en la cabeza de un usuario; y (II) un sistema de visualizacion de imágenes soportado por el armazón; en donde: (a) el sistema de visualizacion de imágenes comprende una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz; (b) el aparato comprende una distribución de lentes de pixel de forma esférica, uno de los lentes de pixel de forma esférica para cada uno de los pixeles emisores de luz, los lentes de pixel en forma esférica se localizan entre la distribución de pixeles emisores de luz y el ojo de un usuario durante el uso del aparato.
19. Método que comprende las etapas de: generar una imagen por un sistema de visualizacion de imágenes que tiene una superficie emisora de luz la cual comprende una distribución de pixeles emisores de luz; independientemente colimar o colimar sustancialmente luz desde cada pixel emisor de luz respectivo de la distribución de pixeles emisores de luz por un lente de pixel respectivo de una distribución de lentes de pixel alineados con la distribución de pixeles emisores de luz; proporcionar la luz colimada o sustancialmente colimada de la distribución de lentes de pixel a un reflector colocado en relación a un ojo de un usuario; y reflejar la luz colimada o sustancialmente colimada del reflector al ojo del usuario.
20. Método como se describe en la reivindicación 19, en donde el reflector comprende un divisor de haz y el método comprende además hacer pasar luz externa a través del reflector para proporcionar una vista de un ambiente externo al reflector al ojo de un usuario.
21. Método que comprende las etapas de: (a) producir luz de una distribución de pixeles emisores de luz; (b) recibir luz producida por la distribución de pixeles emisores de luz en una distribución de lentes de pixel colocados de manera que la luz de cada pixel emisor de luz es colimada o sustancialmente colimada por un lente de pixel correspondiente en la distribución de lentes de pixel; y (c) proporcionar la luz colimada o sustancialmente colimada directamente al ojo de un usuario.
MX2013006722A 2010-12-16 2011-12-15 Visualizador colimante con lentes de pixel. MX2013006722A (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US42393410P 2010-12-16 2010-12-16
US201061424162P 2010-12-17 2010-12-17
US201061424166P 2010-12-17 2010-12-17
PCT/US2011/065201 WO2012083042A1 (en) 2010-12-16 2011-12-15 Collimating display with pixel lenses

Publications (1)

Publication Number Publication Date
MX2013006722A true MX2013006722A (es) 2014-01-31

Family

ID=45464901

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013006722A MX2013006722A (es) 2010-12-16 2011-12-15 Visualizador colimante con lentes de pixel.

Country Status (10)

Country Link
US (1) US9720228B2 (es)
EP (1) EP2652542B1 (es)
JP (1) JP6246592B2 (es)
KR (1) KR101883221B1 (es)
CN (1) CN103348278A (es)
AU (1) AU2011343660A1 (es)
BR (1) BR112013014975A2 (es)
CA (1) CA2821401C (es)
MX (1) MX2013006722A (es)
WO (1) WO2012083042A1 (es)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10073264B2 (en) 2007-08-03 2018-09-11 Lumus Ltd. Substrate-guide optical device
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9250444B2 (en) 2009-11-21 2016-02-02 Immy Inc. Head mounted display device
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US8625200B2 (en) * 2010-10-21 2014-01-07 Lockheed Martin Corporation Head-mounted display apparatus employing one or more reflective optical surfaces
US8781794B2 (en) 2010-10-21 2014-07-15 Lockheed Martin Corporation Methods and systems for creating free space reflective optical surfaces
US10359545B2 (en) 2010-10-21 2019-07-23 Lockheed Martin Corporation Fresnel lens with reduced draft facet visibility
CN103261944A (zh) * 2010-12-28 2013-08-21 洛克希德马丁公司 采用一个或多个反射光表面的头戴式显示装置
US8885882B1 (en) 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9454007B1 (en) 2012-05-07 2016-09-27 Lockheed Martin Corporation Free-space lens design and lenses therefrom
US20130322683A1 (en) * 2012-05-30 2013-12-05 Joel Jacobs Customized head-mounted display device
JP2014130218A (ja) * 2012-12-28 2014-07-10 Japan Display Inc 表示装置
US20140267389A1 (en) * 2013-03-14 2014-09-18 Exelis Inc. Night Vision Display Overlaid with Sensor Data
EP2972547A1 (en) 2013-03-15 2016-01-20 Immy Inc. Head mounted display with non-pupil forming optical path
JP6358248B2 (ja) * 2013-04-11 2018-07-18 ソニー株式会社 表示装置
EP2985652A4 (en) * 2013-04-11 2016-12-14 Sony Corp IMAGE DISPLAY DEVICE AND DISPLAY DEVICE
US20140333773A1 (en) * 2013-05-11 2014-11-13 Randy James Davis Portable audio/ video mask
FR3006457B1 (fr) * 2013-05-30 2015-07-03 Commissariat Energie Atomique Dispositif d'affichage d'images en realite augmentee
US20140362110A1 (en) * 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user
US9488837B2 (en) * 2013-06-28 2016-11-08 Microsoft Technology Licensing, Llc Near eye display
EP3023829A4 (en) 2013-07-16 2017-05-10 Sony Corporation Display device
KR102187843B1 (ko) * 2013-08-19 2020-12-07 삼성전자 주식회사 펜을 갖는 사용자 기기의 화면 제공 방법
US20160327798A1 (en) * 2014-01-02 2016-11-10 Empire Technology Development Llc Augmented reality (ar) system
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US10191279B2 (en) * 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9529199B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9811153B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
JP6315240B2 (ja) * 2014-02-03 2018-04-25 株式会社リコー 画像表示装置、移動体及びレンズアレイ
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
CN104469440B (zh) * 2014-04-16 2018-10-30 成都理想境界科技有限公司 视频播放方法、视频播放器及对应的播放设备
IL232197B (en) 2014-04-23 2018-04-30 Lumus Ltd Compact head-up display system
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9595138B2 (en) * 2014-05-29 2017-03-14 Commissariat A L'energie Atomique Et Aux Energies Alternatives Augmented reality display device
CN104253989B (zh) * 2014-06-09 2018-05-18 黄石 全视角图像显示装置
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150362733A1 (en) * 2014-06-13 2015-12-17 Zambala Lllp Wearable head-mounted display and camera system with multiple modes
US10684476B2 (en) 2014-10-17 2020-06-16 Lockheed Martin Corporation Head-wearable ultra-wide field of view display device
IL235642B (en) 2014-11-11 2021-08-31 Lumus Ltd A compact head-up display system is protected by an element with a super-thin structure
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
CN104392706B (zh) * 2014-12-16 2017-03-22 京东方科技集团股份有限公司 曲面显示的矫正方法和矫正装置、曲面显示设备
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
JP6797799B2 (ja) * 2015-01-06 2020-12-09 ビュージックス コーポレーションVuzix Corporation 湾曲した小レンズ配列を有する頭部装着型画像装置
EP3248049B8 (en) * 2015-01-21 2020-12-30 Tesseland LLC Imaging optics adapted to the human eye resolution
JP2016145960A (ja) * 2015-02-04 2016-08-12 パナソニックIpマネジメント株式会社 映像表示装置
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
WO2016141054A1 (en) 2015-03-02 2016-09-09 Lockheed Martin Corporation Wearable display system
WO2016163231A1 (ja) * 2015-04-09 2016-10-13 シャープ株式会社 眼鏡型表示装置
CN104777616B (zh) * 2015-04-27 2018-05-04 塔普翊海(上海)智能科技有限公司 透视头戴式光场显示装置
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
US10268044B1 (en) 2015-05-29 2019-04-23 Lockheed Martin Corporation Three-dimensional (3D) immersive viewer system
US10368059B2 (en) * 2015-10-02 2019-07-30 Atheer, Inc. Method and apparatus for individualized three dimensional display calibration
JP6662599B2 (ja) * 2015-10-05 2020-03-11 ミツミ電機株式会社 表示装置
US10754156B2 (en) * 2015-10-20 2020-08-25 Lockheed Martin Corporation Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system
US10147235B2 (en) 2015-12-10 2018-12-04 Microsoft Technology Licensing, Llc AR display with adjustable stereo overlap zone
WO2017113757A1 (zh) * 2015-12-31 2017-07-06 北京小鸟看看科技有限公司 一种环绕式界面布局方法、三维沉浸式环境下内容切换方法和列表切换方法
CN106959510A (zh) 2016-01-08 2017-07-18 京东方科技集团股份有限公司 一种显示装置和虚拟现实眼镜
JP2019505843A (ja) 2016-01-22 2019-02-28 コーニング インコーポレイテッド 広視野パーソナル表示装置
US9995936B1 (en) 2016-04-29 2018-06-12 Lockheed Martin Corporation Augmented reality systems having a virtual image overlaying an infrared portion of a live scene
US10156723B2 (en) * 2016-05-12 2018-12-18 Google Llc Display pre-distortion methods and apparatus for head-mounted displays
CN107436493B (zh) * 2016-05-25 2023-10-27 万象三维视觉科技(北京)有限公司 一种亮度增强的裸眼3d-led显示装置及其显示方法
US10151927B2 (en) * 2016-05-31 2018-12-11 Falcon's Treehouse, Llc Virtual reality and augmented reality head set for ride vehicle
US9927615B2 (en) 2016-07-25 2018-03-27 Qualcomm Incorporated Compact augmented reality glasses with folded imaging optics
CN106444023A (zh) * 2016-08-29 2017-02-22 北京知境科技有限公司 一种超大视场角的双目立体显示的透射式增强现实***
CA2992213C (en) 2016-10-09 2023-08-29 Yochay Danziger Aperture multiplier using a rectangular waveguide
MX2018007164A (es) 2016-11-08 2019-06-06 Lumus Ltd Dispositivo de guia de luz con borde de corte optico y metodos de produccion correspondientes.
KR102516095B1 (ko) * 2016-11-16 2023-03-29 매직 립, 인코포레이티드 머리-장착 디스플레이 시스템들을 위한 다해상도 디스플레이 어셈블리
CN106504650B (zh) * 2016-11-23 2020-03-06 京东方科技集团股份有限公司 一种光源结构及显示装置
JP6857800B2 (ja) * 2016-12-21 2021-04-14 パナソニックIpマネジメント株式会社 虚像表示装置
WO2018127913A1 (en) * 2017-01-04 2018-07-12 Lumus Ltd. Optical system for near-eye displays
KR20190119093A (ko) * 2017-03-03 2019-10-21 오스텐도 테크놀로지스 인코포레이티드 스플릿 사출 동공 헤드업 디스플레이 시스템 및 방법
CN107490862B (zh) * 2017-03-23 2019-10-25 华为机器有限公司 近眼显示器及近眼显示***
CN108881894B (zh) * 2017-05-08 2020-01-17 华为技术有限公司 Vr多媒体的体验质量确定方法及装置
TWI678644B (zh) * 2017-05-09 2019-12-01 瑞軒科技股份有限公司 用於混合實境之裝置
US10859834B2 (en) 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10338400B2 (en) 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
US10976551B2 (en) 2017-08-30 2021-04-13 Corning Incorporated Wide field personal display device
US10930709B2 (en) 2017-10-03 2021-02-23 Lockheed Martin Corporation Stacked transparent pixel structures for image sensors
TWI679555B (zh) * 2017-10-12 2019-12-11 華碩電腦股份有限公司 擴增實境系統以及提供擴增實境之方法
US10510812B2 (en) 2017-11-09 2019-12-17 Lockheed Martin Corporation Display-integrated infrared emitter and sensor structures
TWI677711B (zh) * 2017-11-13 2019-11-21 財團法人金屬工業研究發展中心 虛實影像整合裝置
US11448799B2 (en) * 2017-11-14 2022-09-20 Forgetspecs.com Pty Ltd Device and method for altering the vergence of light to improve human vision of an electronic display
US10951883B2 (en) 2018-02-07 2021-03-16 Lockheed Martin Corporation Distributed multi-screen array for high density display
US10594951B2 (en) 2018-02-07 2020-03-17 Lockheed Martin Corporation Distributed multi-aperture camera array
US10690910B2 (en) 2018-02-07 2020-06-23 Lockheed Martin Corporation Plenoptic cellular vision correction
US10129984B1 (en) 2018-02-07 2018-11-13 Lockheed Martin Corporation Three-dimensional electronics distribution by geodesic faceting
US10979699B2 (en) 2018-02-07 2021-04-13 Lockheed Martin Corporation Plenoptic cellular imaging system
US10838250B2 (en) 2018-02-07 2020-11-17 Lockheed Martin Corporation Display assemblies with electronically emulated transparency
US10652529B2 (en) 2018-02-07 2020-05-12 Lockheed Martin Corporation In-layer Signal processing
US11616941B2 (en) 2018-02-07 2023-03-28 Lockheed Martin Corporation Direct camera-to-display system
US10678056B2 (en) * 2018-02-26 2020-06-09 Google Llc Augmented reality light field head-mounted displays
EP3762764A4 (en) * 2018-03-05 2022-01-19 Newsight Reality, Inc. OPTICAL CLEAR NEAR-EYE OPTICS MODULE
US10373391B1 (en) 2018-04-23 2019-08-06 AbdurRahman Bin Shahzad Bhatti Augmented reality system for fitness
US10871653B1 (en) 2018-04-24 2020-12-22 Lc-Tec Displays Ab Viewing direction independent single-layer, pixelated light dimming filter
IL259518B2 (en) * 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
US10969586B2 (en) * 2018-07-10 2021-04-06 Darwin Hu Ultra light-weight see-through display glasses
US10778963B2 (en) * 2018-08-10 2020-09-15 Valve Corporation Head-mounted display (HMD) with spatially-varying retarder optics
CN108710210A (zh) * 2018-08-10 2018-10-26 董鸣 一种平视显示器
US10996463B2 (en) 2018-08-10 2021-05-04 Valve Corporation Head-mounted display (HMD) with spatially-varying retarder optics
KR102670698B1 (ko) 2018-09-21 2024-05-30 삼성디스플레이 주식회사 표시 장치와 그의 제조 방법
EP3884336A4 (en) * 2018-11-19 2022-08-03 Pty Ltd Buildvation HEAD-UP DISPLAY DEVICE
CN109298532A (zh) * 2018-11-22 2019-02-01 同方计算机有限公司 一种人机结合的增强视觉显示装置
US10866413B2 (en) 2018-12-03 2020-12-15 Lockheed Martin Corporation Eccentric incident luminance pupil tracking
US10785473B2 (en) * 2019-01-10 2020-09-22 Honeywell International Inc. Virtual window display
US10698201B1 (en) 2019-04-02 2020-06-30 Lockheed Martin Corporation Plenoptic cellular axis redirection
FR3096510B1 (fr) 2019-05-24 2021-05-28 Aledia Dispositif optoélectronique ayant des systèmes optiques déplaçables entre différents pixels et procédé de contrôle
EP4018231A4 (en) 2019-08-21 2022-11-09 Magic Leap, Inc. FLAT SPECTRAL RESPONSE GRATINGS USING HIGH INDEX MATERIALS
WO2021077850A1 (zh) * 2019-10-21 2021-04-29 华为技术有限公司 一种显示器面板、近眼显示光学***及头戴显示设备
EP4042232A4 (en) 2019-12-08 2022-12-28 Lumus Ltd. OPTICAL SYSTEMS WITH COMPACT IMAGE PROJECTOR
CN211857087U (zh) * 2020-02-24 2020-11-03 宁波激智科技股份有限公司 一种减干涉准直膜
KR20220030774A (ko) * 2020-09-03 2022-03-11 삼성전자주식회사 전자 장치 및 사용자의 시선 정보 획득 방법
TWI741796B (zh) * 2020-09-18 2021-10-01 源奇科技股份有限公司 眼球訓練裝置
CN114545622A (zh) * 2020-11-20 2022-05-27 群创光电股份有限公司 光学***以及抬头显示器
CN114973935B (zh) * 2021-02-23 2023-08-18 苏州佳世达电通有限公司 影像显示装置
CN114119380B (zh) * 2021-07-28 2022-11-15 上海华模科技有限公司 一种准直虚像视景***几何变形测量方法
CN114071130B (zh) * 2021-12-31 2022-07-19 中国科学院西安光学精密机械研究所 水下成像镜头成像质量参数检测方法及水下专用平行光管
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction
CN117957487A (zh) * 2022-07-21 2024-04-30 京东方科技集团股份有限公司 显示装置和虚拟现实设备

Family Cites Families (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982343A (en) 1903-11-29 1999-11-09 Olympus Optical Co., Ltd. Visual display apparatus
US3880509A (en) 1974-03-15 1975-04-29 Us Navy Wide-angle on-axis projection system
US4026641A (en) * 1975-12-30 1977-05-31 The United States Of America As Represented By The Secretary Of The Army Toric reflector display
US4176468A (en) 1978-06-22 1979-12-04 Marty William B Jr Cockpit display simulator for electronic countermeasure training
JPS55164801A (en) 1979-06-09 1980-12-22 Kenichi Matsuda Aberrationless fresnel lens system
US4406532A (en) 1980-03-25 1983-09-27 Howlett Eric M Wide angle color photography method and system
JP2789195B2 (ja) 1988-07-21 1998-08-20 大日本印刷株式会社 プラスチックシートの製造方法
FR2662894B1 (fr) * 1990-06-01 1995-11-17 Thomson Csf Dispositif de visualisation d'images simulees pour casque.
US20040130783A1 (en) 2002-12-02 2004-07-08 Solomon Dennis J Visual display with full accommodation
CA2112682C (en) 1991-07-03 2002-04-23 Michael A. Teitel Virtual image display device
EP0539907B1 (en) 1991-11-01 1997-09-03 Kabushiki Kaisha Sega Enterprises Head-mounted image display
DK0725939T3 (da) 1992-03-13 1999-11-15 Kopin Corp Skærmsystem til anbringelse på hovedet
EP0566001B1 (en) 1992-04-07 1999-07-14 Raytheon Company Wide spectral bandwidth virtual image display optical system
US5325386A (en) 1992-04-21 1994-06-28 Bandgap Technology Corporation Vertical-cavity surface emitting laser assay display system
JP3155335B2 (ja) 1992-04-24 2001-04-09 オリンパス光学工業株式会社 視覚表示装置
US5572343A (en) 1992-05-26 1996-11-05 Olympus Optical Co., Ltd. Visual display having see-through function and stacked liquid crystal shutters of opposite viewing angle directions
US5561538A (en) 1992-11-17 1996-10-01 Sharp Kabushiki Kaisha Direct-view display apparatus
US5309169A (en) * 1993-02-01 1994-05-03 Honeywell Inc. Visor display with fiber optic faceplate correction
US5757544A (en) 1993-03-09 1998-05-26 Olympus Optical Co., Ltd. Image display apparatus
US5388990A (en) 1993-04-23 1995-02-14 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Virtual reality flight control display with six-degree-of-freedom controller and spherical orientation overlay
US5347400A (en) 1993-05-06 1994-09-13 Ken Hunter Optical system for virtual reality helmet
US7310072B2 (en) 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
JP3212204B2 (ja) 1993-11-11 2001-09-25 オリンパス光学工業株式会社 視覚表示装置
US6160666A (en) 1994-02-07 2000-12-12 I-O Display Systems Llc Personal visual display system
JP3207036B2 (ja) 1994-02-15 2001-09-10 株式会社小糸製作所 発光素子を使った灯具の光学設計方法
JP3430615B2 (ja) 1994-03-04 2003-07-28 三菱電機株式会社 接眼映像表示装置
US5714967A (en) 1994-05-16 1998-02-03 Olympus Optical Co., Ltd. Head-mounted or face-mounted image display apparatus with an increased exit pupil
US5803738A (en) 1994-06-24 1998-09-08 Cgsd Corporation Apparatus for robotic force simulation
US5483307A (en) 1994-09-29 1996-01-09 Texas Instruments, Inc. Wide field of view head-mounted display
US5581271A (en) 1994-12-05 1996-12-03 Hughes Aircraft Company Head mounted visual display
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
US5798738A (en) 1995-03-25 1998-08-25 Ricoh Company, Ltd. Printing manager system for a copier in a network
JPH08278476A (ja) 1995-04-07 1996-10-22 Omron Corp 液晶表示パネル及びヘッドマウントディスプレイ
JP3599828B2 (ja) 1995-05-18 2004-12-08 オリンパス株式会社 光学装置
JPH09105885A (ja) * 1995-10-12 1997-04-22 Canon Inc 頭部搭載型の立体画像表示装置
JPH09113842A (ja) 1995-10-17 1997-05-02 Olympus Optical Co Ltd 頭部又は顔面装着式映像表示装置
WO1997022964A1 (en) * 1995-12-18 1997-06-26 Bell Communications Research, Inc. Flat virtual displays for virtual reality
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JPH09219832A (ja) 1996-02-13 1997-08-19 Olympus Optical Co Ltd 画像表示装置
JP3761957B2 (ja) 1996-02-15 2006-03-29 キヤノン株式会社 反射型の光学系及びそれを用いた撮像装置
DE69709709D1 (de) * 1996-03-15 2002-02-21 Retinal Display Cayman Ltd Verfahren und vorrichtung zur betrachtung eines bildes
US5701132A (en) 1996-03-29 1997-12-23 University Of Washington Virtual retinal display with expanded exit pupil
US6592222B2 (en) 1996-07-31 2003-07-15 Massengill Family Trust Flicker and frequency doubling in virtual reality
US5834676A (en) 1996-08-12 1998-11-10 Sight Unseen Weapon-mounted location-monitoring apparatus
US6215593B1 (en) * 1996-11-13 2001-04-10 Ian A. Bruce Portable wide-field optical system with microlenses and fiber-optic image transfer element
US5715094A (en) * 1996-12-03 1998-02-03 Hughes Electronics Lensless helmet/head mounted display
JP3943680B2 (ja) 1997-01-06 2007-07-11 オリンパス株式会社 映像表示装置
JPH10206786A (ja) 1997-01-17 1998-08-07 Sanyo Electric Co Ltd 頭部装着型の画像表示装置
JPH1080575A (ja) 1997-05-02 1998-03-31 Sega Enterp Ltd ゲーム装置
JP3716625B2 (ja) 1997-09-18 2005-11-16 コニカミノルタホールディングス株式会社 映像観察装置及びカメラ及び映像観察システム
US6829087B2 (en) 1998-04-15 2004-12-07 Bright View Technologies, Inc. Micro-lens array based light transmitting screen with tunable gain
JP2000047138A (ja) * 1998-07-27 2000-02-18 Mr System Kenkyusho:Kk 画像表示装置
US6140979A (en) 1998-08-05 2000-10-31 Microvision, Inc. Scanned display with pinch, timing, and distortion correction
FR2784201B1 (fr) 1998-10-06 2003-01-31 Sextant Avionique Dispositif optique pour viseur de casque comportant un miroir diffractif
JP2000199853A (ja) 1998-10-26 2000-07-18 Olympus Optical Co Ltd 結像光学系及び観察光学系
US7324081B2 (en) 1999-03-02 2008-01-29 Siemens Aktiengesellschaft Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus
US7158096B1 (en) 1999-06-21 2007-01-02 The Microoptical Corporation Compact, head-mountable display device with suspended eyepiece assembly
US6445362B1 (en) 1999-08-05 2002-09-03 Microvision, Inc. Scanned display with variation compensation
JP4573393B2 (ja) 2000-01-06 2010-11-04 オリンパス株式会社 画像表示装置
US7110013B2 (en) 2000-03-15 2006-09-19 Information Decision Technology Augmented reality display integrated with self-contained breathing apparatus
US20010033401A1 (en) 2000-03-17 2001-10-25 Minolta Co., Ltd. Information display device
US6813085B2 (en) 2000-06-26 2004-11-02 Angus Duncan Richards Virtual reality display device
US20020094189A1 (en) 2000-07-26 2002-07-18 Nassir Navab Method and system for E-commerce video editing
US6611253B1 (en) 2000-09-19 2003-08-26 Harel Cohen Virtual input environment
KR20020025301A (ko) 2000-09-28 2002-04-04 오길록 다중 사용자를 지원하는 파노라믹 이미지를 이용한증강현실 영상의 제공 장치 및 그 방법
JP3406965B2 (ja) 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
US6919866B2 (en) 2001-02-06 2005-07-19 International Business Machines Corporation Vehicular navigation system
JP2002258208A (ja) 2001-03-01 2002-09-11 Mixed Reality Systems Laboratory Inc 光学素子及びそれを用いた複合表示装置
JP2002287077A (ja) 2001-03-23 2002-10-03 Nikon Corp 映像表示装置
US6919867B2 (en) 2001-03-29 2005-07-19 Siemens Corporate Research, Inc. Method and apparatus for augmented reality visualization
US6529331B2 (en) 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US6771423B2 (en) 2001-05-07 2004-08-03 Richard Geist Head-mounted virtual display apparatus with a near-eye light deflecting element in the peripheral field of view
US6731434B1 (en) 2001-05-23 2004-05-04 University Of Central Florida Compact lens assembly for the teleportal augmented reality system
US7009773B2 (en) 2001-05-23 2006-03-07 Research Foundation Of The University Of Central Florida, Inc. Compact microlenslet arrays imager
DE10127367A1 (de) 2001-06-06 2002-12-12 Klaus Dietrich Vorrichtung und Verfahren zur Laserprojektion hochauflösender Bilder auf die Netzhaut des Auges, überlagert mit dem Bildinhalt des Gesichtsfeldes
US20020186179A1 (en) 2001-06-07 2002-12-12 Knowles Gary R. Optical display device
US6522474B2 (en) 2001-06-11 2003-02-18 Eastman Kodak Company Head-mounted optical apparatus for stereoscopic display
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
JP4751534B2 (ja) 2001-07-24 2011-08-17 大日本印刷株式会社 光学系及びそれを用いた装置
US7072096B2 (en) 2001-12-14 2006-07-04 Digital Optics International, Corporation Uniform illumination system
GB2387920B (en) 2002-04-24 2005-11-23 Seos Ltd An eyepiece for viewing a flat image and comprising a cemented doublet of reflecting and refracting optical components
US20040008157A1 (en) 2002-06-26 2004-01-15 Brubaker Curtis M. Cap-mounted monocular video/audio display
JP3755036B2 (ja) 2002-09-02 2006-03-15 国立大学法人大阪大学 広視野角ヘッドマウントディスプレイ装置
JP4287375B2 (ja) 2002-09-24 2009-07-01 健爾 西 画像表示装置及び投影光学系
US7002551B2 (en) 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
KR100484174B1 (ko) 2002-11-06 2005-04-18 삼성전자주식회사 머리장착형 표시장치
KR100477684B1 (ko) 2002-12-05 2005-03-21 삼성전자주식회사 머리장착형 표시장치
US7432879B2 (en) 2003-02-10 2008-10-07 Schonlau William J Personal viewer
US7119965B1 (en) 2003-02-24 2006-10-10 University Of Central Florida Research Foundation, Inc. Head mounted projection display with a wide field of view
US7063256B2 (en) 2003-03-04 2006-06-20 United Parcel Service Of America Item tracking and processing systems and methods
DE10316533A1 (de) 2003-04-10 2004-11-04 Carl Zeiss Hybride HMD-Vorrichtung
JP4532856B2 (ja) 2003-07-08 2010-08-25 キヤノン株式会社 位置姿勢計測方法及び装置
CA2449982A1 (en) 2003-07-16 2005-01-16 Aurora Digital Advertising Inc. Three dimensional display method, system and apparatus
ITTO20030640A1 (it) 2003-08-19 2005-02-20 Luigi Giubbolini Apparato d'interfaccia uomo- macchina mediante
ITTO20030662A1 (it) 2003-08-29 2005-02-28 Fiat Ricerche Disposizione di visualizzazione virtuale per un quadro
IL157838A (en) * 2003-09-10 2013-05-30 Yaakov Amitai High-brightness optical device
IL157837A (en) 2003-09-10 2012-12-31 Yaakov Amitai Substrate-guided optical device particularly for three-dimensional displays
US8884845B2 (en) 2003-10-28 2014-11-11 Semiconductor Energy Laboratory Co., Ltd. Display device and telecommunication system
JP4364002B2 (ja) 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
TWI244318B (en) 2004-05-04 2005-11-21 Universal Vision Biotechnology Focus adjustable head mounted display system and method and device for realizing the system
US7765083B2 (en) 2004-06-10 2010-07-27 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for detecting sources of projectiles
JP4370997B2 (ja) 2004-07-29 2009-11-25 株式会社島津製作所 頭部装着型表示装置
CA2576010C (en) 2004-08-03 2011-07-26 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
US20070020587A1 (en) 2004-08-05 2007-01-25 Seymore Michael Z Interactive motion simulator
WO2006023647A1 (en) 2004-08-18 2006-03-02 Sarnoff Corporation Systeme and method for monitoring training environment
US7545571B2 (en) 2004-09-08 2009-06-09 Concurrent Technologies Corporation Wearable display system
JP2006091477A (ja) 2004-09-24 2006-04-06 Konica Minolta Holdings Inc ホログラフィック反射面を有する広角観察光学系
US7619825B1 (en) 2004-09-27 2009-11-17 Rockwell Collins, Inc. Compact head up display with wide viewing angle
TWI263831B (en) 2004-09-30 2006-10-11 Himax Tech Inc Head mounted display
JP4404738B2 (ja) 2004-10-05 2010-01-27 矢崎総業株式会社 ヘッドアップディスプレイ装置
US20060103590A1 (en) 2004-10-21 2006-05-18 Avner Divon Augmented display system and methods
NZ537849A (en) 2005-01-21 2007-09-28 Peter James Hilton Direct Retinal Display projecting a scanned optical beam via diverging and converging reflectors
US8885139B2 (en) 2005-01-21 2014-11-11 Johnson & Johnson Vision Care Adaptive electro-active lens with variable focal length
WO2006081198A2 (en) 2005-01-25 2006-08-03 The Board Of Trustees Of The University Of Illinois Compact haptic and augmented virtual reality system
JP2008533507A (ja) 2005-02-10 2008-08-21 ラマス リミテッド 特に視力強化光学系のための基板案内光学装置
WO2006087709A1 (en) 2005-02-17 2006-08-24 Lumus Ltd. Personal navigation system
US20070132785A1 (en) 2005-03-29 2007-06-14 Ebersole John F Jr Platform for immersive gaming
JP4752309B2 (ja) 2005-04-07 2011-08-17 ソニー株式会社 画像表示装置および方法
US8040361B2 (en) 2005-04-11 2011-10-18 Systems Technology, Inc. Systems and methods for combining virtual and real-time physical environments
US7766515B2 (en) 2005-04-20 2010-08-03 Dragonfish Technologies, Llc Light source with non-imaging optical distribution apparatus
US7151639B2 (en) 2005-05-11 2006-12-19 Everspring Industry, Co., Ltd. Thin-type spherical lens
US20060281061A1 (en) 2005-06-13 2006-12-14 Tgds, Inc. Sports Training Simulation System and Associated Methods
JP2007086500A (ja) * 2005-09-22 2007-04-05 Sony Corp 表示装置
US7486341B2 (en) 2005-11-03 2009-02-03 University Of Central Florida Research Foundation, Inc. Head mounted display with eye accommodation having 3-D image producing system consisting of, for each eye, one single planar display screen, one single planar tunable focus LC micro-lens array, one single planar black mask and bias lens
EP1946179B1 (en) 2005-11-10 2012-12-05 BAE Systems PLC Method of modifying a display apparatus
US8280405B2 (en) 2005-12-29 2012-10-02 Aechelon Technology, Inc. Location based wireless collaborative environment with a visual user interface
US20070177275A1 (en) 2006-01-04 2007-08-02 Optical Research Associates Personal Display Using an Off-Axis Illuminator
US7732694B2 (en) 2006-02-03 2010-06-08 Outland Research, Llc Portable music player with synchronized transmissive visual overlays
US7499217B2 (en) 2006-03-03 2009-03-03 University Of Central Florida Research Foundation, Inc. Imaging systems for eyeglass-based display devices
IL174170A (en) 2006-03-08 2015-02-26 Abraham Aharoni Device and method for two-eyed tuning
CN100462984C (zh) 2006-03-17 2009-02-18 清华大学 自由曲面反射器设计***及方法
US20070243916A1 (en) 2006-04-14 2007-10-18 Lee Ren E Objective oriented reality horror survival game
EP2013572A4 (en) 2006-04-28 2012-08-08 Nokia Corp CALIBRATION
WO2008060690A2 (en) 2006-05-12 2008-05-22 Irobot Corporation Method and device for controlling a remote vehicle
SE0601216L (sv) 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
US7473020B2 (en) * 2006-07-07 2009-01-06 William Pickering Light emitting diode display system
US7965868B2 (en) 2006-07-20 2011-06-21 Lawrence Livermore National Security, Llc System and method for bullet tracking and shooter localization
KR100809479B1 (ko) 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
JP4835327B2 (ja) 2006-08-30 2011-12-14 コニカミノルタホールディングス株式会社 映像表示装置、及び頭部装着式映像表示装置
US7735998B2 (en) 2006-10-25 2010-06-15 Volk Donald A Multi-layered multifocal lens with blended refractive index
MX2009004327A (es) 2006-10-25 2009-11-13 Donald A Volk Lente multifocal de capas múltiples con índice de refracción combinado.
US7547101B2 (en) 2007-01-02 2009-06-16 Hind-Sight Industries, Inc. Eyeglasses with integrated telescoping video display
US20090040308A1 (en) 2007-01-15 2009-02-12 Igor Temovskiy Image orientation correction method and system
WO2008089417A2 (en) 2007-01-18 2008-07-24 The Arizona Board Of Regents On Behalf Of The University Of Arizona A polarized head-mounted projection display
US20080198459A1 (en) 2007-01-29 2008-08-21 Fergason Patent Properties, Llc Conjugate optics projection display system and method having improved resolution
US20100279255A1 (en) 2007-02-16 2010-11-04 Ohio University Vehicle simulator system
US7762683B2 (en) * 2007-02-23 2010-07-27 Raytheon Company Optical device with tilt and power microlenses
DE102007009828A1 (de) 2007-02-28 2008-09-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sichthilfevorrichtung für manuelle Prozesse an feinstrukturierten oder schwer einsehbaren Objekten
IL183637A (en) 2007-06-04 2013-06-27 Zvi Lapidot Head display system
US20080309586A1 (en) 2007-06-13 2008-12-18 Anthony Vitale Viewing System for Augmented Reality Head Mounted Display
US8051597B1 (en) 2007-06-14 2011-11-08 Cubic Corporation Scout sniper observation scope
US20090002574A1 (en) 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Method and a system for optical design and an imaging device using an optical element with optical aberrations
JP5145832B2 (ja) 2007-09-12 2013-02-20 株式会社島津製作所 頭部装着型表示装置及び頭部装着型表示装置システム
CN101589327B (zh) 2007-09-26 2012-09-26 松下电器产业株式会社 光束扫描式显示装置、显示方法以及集成电路
US20090228251A1 (en) 2007-11-08 2009-09-10 University Of Central Florida Research Foundation, Inc. Systems and Methods for Designing Optical Surfaces
JP2009128565A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
US7696919B2 (en) 2008-01-03 2010-04-13 Lockheed Martin Corporation Bullet approach warning system and method
US8025230B2 (en) 2008-01-04 2011-09-27 Lockheed Martin Corporation System and method for prioritizing visually aimed threats for laser-based countermeasure engagement
WO2009094643A2 (en) 2008-01-26 2009-07-30 Deering Michael F Systems using eye mounted displays
US7928927B1 (en) 2008-03-17 2011-04-19 Rockwell Collins, Inc. Head worn head up display system
JP2009232133A (ja) 2008-03-24 2009-10-08 Nikon Corp 携帯端末器
US20100149073A1 (en) 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
JP2010020065A (ja) * 2008-07-10 2010-01-28 Olympus Corp 画像表示装置
GB2461907A (en) * 2008-07-17 2010-01-20 Sharp Kk Angularly restricted display
US8437223B2 (en) 2008-07-28 2013-05-07 Raytheon Bbn Technologies Corp. System and methods for detecting shooter locations from an aircraft
US7663793B1 (en) 2008-07-31 2010-02-16 Institut National D'optique Wide angle immersive display system
US8868373B2 (en) 2008-08-25 2014-10-21 Universitat Zurich Prorektorat Mnw Adjustable virtual reality system
WO2010047212A1 (ja) 2008-10-20 2010-04-29 コニカミノルタオプト株式会社 映像表示装置
US9480919B2 (en) 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
US9600067B2 (en) 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
US8841535B2 (en) 2008-12-30 2014-09-23 Karen Collins Method and system for visual representation of sound
US20100238161A1 (en) 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US8059342B2 (en) 2009-04-03 2011-11-15 Vuzix Corporation Beam segmentor for enlarging viewing aperture of microdisplay
WO2010123934A1 (en) 2009-04-20 2010-10-28 The Arizona Board Of Regents On Behalf Of The University Of Arizona Optical see-through free-form head-mounted display
US20100277575A1 (en) 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via a media device
JP5402293B2 (ja) 2009-06-22 2014-01-29 ソニー株式会社 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法
GB2474007A (en) 2009-08-27 2011-04-06 Simon R Daniel Communication in and monitoring of a disaster area, optionally including a disaster medical pack
JP2011059444A (ja) 2009-09-10 2011-03-24 Olympus Corp 眼鏡型画像表示装置
US8320217B1 (en) 2009-10-01 2012-11-27 Raytheon Bbn Technologies Corp. Systems and methods for disambiguating shooter locations with shockwave-only location
JP2011133633A (ja) 2009-12-24 2011-07-07 Olympus Corp 視覚表示装置
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
EP2539759A1 (en) 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20110214082A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
GB2478738A (en) 2010-03-16 2011-09-21 Belron Hungary Kft Zug Branch Eye level display in communication with electronic device
US20110250962A1 (en) 2010-04-09 2011-10-13 Feiner Steven K System and method for a 3d computer game with true vector of gravity
US20120050144A1 (en) 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US8781794B2 (en) 2010-10-21 2014-07-15 Lockheed Martin Corporation Methods and systems for creating free space reflective optical surfaces
US8625200B2 (en) 2010-10-21 2014-01-07 Lockheed Martin Corporation Head-mounted display apparatus employing one or more reflective optical surfaces
US8678282B1 (en) 2010-11-29 2014-03-25 Lockheed Martin Corporation Aim assist head-mounted display apparatus
US20120326948A1 (en) 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
JP5370427B2 (ja) 2011-07-24 2013-12-18 株式会社デンソー ヘッドアップディスプレイ装置
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9459457B2 (en) 2011-12-01 2016-10-04 Seebright Inc. Head mounted display with remote control
US8970960B2 (en) 2011-12-22 2015-03-03 Mattel, Inc. Augmented reality head gear
ES2791722T3 (es) 2012-02-02 2020-11-05 Airbus Helicopters Espana Sa Maqueta virtual con ayuda portátil háptica
US9552673B2 (en) 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
EP2887123A1 (en) 2013-12-18 2015-06-24 Thomson Licensing Optical see-through glass type display device and corresponding optical element

Also Published As

Publication number Publication date
WO2012083042A1 (en) 2012-06-21
US9720228B2 (en) 2017-08-01
CA2821401A1 (en) 2012-06-21
CA2821401C (en) 2019-04-30
AU2011343660A1 (en) 2013-07-04
JP2014505271A (ja) 2014-02-27
BR112013014975A2 (pt) 2020-08-11
JP6246592B2 (ja) 2017-12-13
KR20140018209A (ko) 2014-02-12
KR101883221B1 (ko) 2018-08-30
EP2652542A1 (en) 2013-10-23
US20120154920A1 (en) 2012-06-21
EP2652542B1 (en) 2019-12-11
CN103348278A (zh) 2013-10-09

Similar Documents

Publication Publication Date Title
CA2821401C (en) Collimating display with pixel lenses
US10495790B2 (en) Head-mounted display apparatus employing one or more Fresnel lenses
CA2815461C (en) Head-mounted display apparatus employing one or more fresnel lenses
JP6262530B2 (ja) 一つ以上の反射光学表面を使用する頭取付けディスプレイ装置
KR101928764B1 (ko) 하나 이상의 반사 광학 표면이 수반된 헤드 장착 디스플레이 장치
TWI553344B (zh) 使用一或多個菲涅耳透鏡(fresnel lenses)之頭戴式顯示裝置
TWI559034B (zh) 使用一或多個反射光學表面之頭戴式顯示裝置
AU2015249168B2 (en) Collimating display with pixel lenses

Legal Events

Date Code Title Description
FG Grant or registration