ES2939151T3 - Método para hacer funcionar gafas inteligentes en un automóvil y sistema con gafas inteligentes - Google Patents

Método para hacer funcionar gafas inteligentes en un automóvil y sistema con gafas inteligentes Download PDF

Info

Publication number
ES2939151T3
ES2939151T3 ES16720720T ES16720720T ES2939151T3 ES 2939151 T3 ES2939151 T3 ES 2939151T3 ES 16720720 T ES16720720 T ES 16720720T ES 16720720 T ES16720720 T ES 16720720T ES 2939151 T3 ES2939151 T3 ES 2939151T3
Authority
ES
Spain
Prior art keywords
image
smart glasses
night vision
real environment
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16720720T
Other languages
English (en)
Inventor
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Application granted granted Critical
Publication of ES2939151T3 publication Critical patent/ES2939151T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • H04N23/23Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Lock And Its Accessories (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

La invención se refiere a un método para operar una pantalla montada en la cabeza (12) en un vehículo de motor (14). La pantalla montada en la cabeza (12) se usa para mostrar una imagen (22) que se superpone al menos parcialmente sobre un área circundante real (20) de la pantalla montada en la cabeza (12) cuando se ve el área circundante real (20). a través de la pantalla montada en la cabeza (12). La imagen (22) es una imagen (22) del entorno real (20) captada mediante un captador de imágenes de visión nocturna (16a, 16b). La imagen (22) se muestra de manera que un objeto de imagen (22a, 22b, 22c) capturado de un objeto (20a, 20b, 20c) dispuesto en el entorno real (20) se muestra en la imagen (22) para superposición con el objeto (20a, 20b, 20c) en el área circundante real (20). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método para hacer funcionar gafas inteligentes en un automóvil y sistema con gafas inteligentes
[0001] La invención se basa en un método para hacer funcionar gafas inteligentes en un automóvil, donde se muestra una imagen a través de las gafas inteligentes, que está superpuesta al menos parcialmente a un entorno real de las gafas inteligentes cuando el entorno real se ve a través de las gafas inteligentes.
[0002] En este contexto, por gafas inteligentes debe entenderse, en particular, gafas inteligentes electrónicas, como, por ejemplo, gafas de realidad aumentada. Dichas gafas permiten, por un lado, una visión del entorno real y, por otro lado, el solapamiento de contenidos digitales artificiales, que están superpuestos a la visión del entorno real en el punto correspondiente. Esto permite solapar al usuario información adicional en el entorno real.
[0003] Dichas tecnologías también pueden ser particularmente ventajosas en el sector de los automóviles, por ejemplo, para proporcionar al conductor o a los pasajeros de los automóviles información adicional específica. Las gafas de realidad aumentada pueden servir en el futuro como el sistema Head-Up Display (visualización frontal) analógico de contacto de 360° para el conductor y los pasajeros y, por lo tanto, ofrecer un valor añadido que justifique el uso permanente durante la conducción y las ligeras limitaciones de comodidad asociadas.
[0004] La DE 102013 005342 A1 comprende un dispositivo de control de automóviles, una unidad principal y gafas de realidad aumentada con una pantalla. En este caso, las gafas de realidad aumentada están operativamente conectadas a la unidad principal. Además, un sensor de área exterior vinculado a un automóvil, como, por ejemplo, una cámara de visión nocturna, se puede conectar de forma comunicativa a la unidad principal. Además, un contenido de la pantalla predeterminado se envía desde la unidad principal hasta las gafas de realidad aumentada y esto se muestra en la pantalla de las gafas de realidad aumentada, donde el contenido de la pantalla puede ser datos de mapeo del sensor del área exterior. De este modo, la imagen de una cámara de visión nocturna dirigida a la dirección de conducción también se puede superponer a la vista en la dirección de conducción en la oscuridad.
[0005] La EP 1990 674 describe un sistema Head-Mounted Display con una pantalla Head-Mounted Display (montada sobre la cabeza), en la que se puede mostrar información sobre el entorno que fue detectada por sensores ambientales dispuestos en el exterior de un automóvil. En este caso, los sensores también pueden comprender dispositivos de visión nocturna.
[0006] El documento JP 5158063 B2 describe un dispositivo de visualización para vehículos, que tiene una sección de reconocimiento de imágenes. El dispositivo de visualización está diseñado para detectar a un peatón a partir de una imagen de luz infrarroja cercana, que es capturada secuencialmente por una cámara. Una unidad de visualización está configurada para visualizar secuencialmente la imagen de luz infrarroja cercana. Una unidad de señalización está configurada para mostrar un marco de detección de peatones dentro de la imagen de luz infrarroja cercana.
[0007] Por lo tanto, el objeto de la presente invención es proporcionar un método para hacer funcionar gafas inteligentes en un automóvil y un sistema con gafas inteligentes que permitan mejoras, en particular, con respecto a la provisión de funciones de asistencia al conductor.
[0008] Este objetivo se logra mediante un método para hacer funcionar gafas inteligentes en un automóvil y un sistema con gafas inteligentes según las reivindicaciones independientes. Las configuraciones ventajosas de la invención se encuentran en las reivindicaciones dependientes.
[0009] La presente invención está definida por las reivindicaciones independientes. Las formas de realización ventajosas están descritas en las reivindicaciones dependientes, en la siguiente descripción y en los dibujos.
[0010] La invención comprende un método para hacer funcionar gafas inteligentes en un automóvil, donde las gafas inteligentes muestran una imagen que está superpuesta al menos parcialmente a un entorno real de las gafas inteligentes cuando el entorno real se ve a través de las gafas inteligentes. Esto debe entenderse de tal manera que la imagen se muestre superpuesta al entorno real desde el punto de vista de un usuario que lleva las gafas inteligentes, incluso si el entorno real no es visible en absoluto a través de las gafas inteligentes, por ejemplo, debido a la visualización superpuesta de la imagen. Además, la imagen proporciona una imagen del entorno real, que se captura mediante un dispositivo de captura de imágenes de visión nocturna, donde la imagen se muestra de tal manera que un objeto de imagen capturado de un objeto dispuesto en el entorno real se muestre superpuesto con la imagen en el entorno real.
[0011] La invención se basa en el reconocimiento de que las gafas inteligentes, como, por ejemplo, gafas de realidad aumentada, no solo se pueden utilizar para solapar contenido digital artificial a un usuario, sino también para solapar una imagen capturada del propio entorno, es decir, como una captura de visión nocturna o imagen de visión nocturna. Esto permite ventajosamente que el conductor ahora pueda usar las gafas inteligentes para ver el paisaje situado frente a él en un modo de visión nocturna enriquecido con información esencial. En la oscuridad y con poca visibilidad, los peligros potenciales se pueden percibir mucho mejor gracias a la captura de la visión nocturna, que aumenta la seguridad del tráfico, especialmente cuando se conduce de noche. Por lo tanto, la invención permite proporcionar información adicional de asistencia al conductor a través de las gafas inteligentes y, además, aumentar la seguridad vial.
[0012] El método se lleva a cabo preferiblemente de forma repetida, es decir, el dispositivo de captura de imágenes de visión nocturna captura repetidamente, por ejemplo, periódicamente, imágenes del entorno, por ejemplo, en forma de grabación de vídeo y estas se muestran con las gafas inteligentes en el orden en que se capturaron.
[0013] Además, es ventajoso que la imagen capturada se coloque de forma congruente con la imagen real, lo que se realiza según la invención porque el objeto de imagen se muestra en una imagen capturada, que, por lo tanto, corresponde a un objeto real en el entorno real, de manera superpuesta a este, es decir, de nuevo desde la perspectiva del usuario o desde una perspectiva que representa la perspectiva del usuario y, por lo tanto, cuando el entorno real se ve a través de las gafas inteligentes o si el usuario mira a través de las gafas inteligentes o las usa. Para solapar el objeto de imagen en la posición correcta, se puede prever que se asuma y especifique una posición media de los ojos respectiva o una posición promedia de los ojos con respecto a las gafas y que el objeto de imagen se muestre de tal manera que esté sobre una línea de conexión imaginaria entre una de estas posiciones de ojos de un ojo y del objeto real. La imagen capturada también se puede solapar dos veces, una para el ojo derecho y otra para el ojo izquierdo, de modo que el objeto de imagen correspondiente a un ojo de la imagen correspondiente a este ojo se solape a la línea de conexión entre este ojo y el objeto real y que el objeto de imagen correspondiente al otro ojo se muestre en la línea de conexión entre este otro ojo y el objeto real. El dispositivo de captura de imágenes de visión nocturna también puede estar diseñado como un dispositivo de captura de imágenes de visión nocturna 3D y tener, por ejemplo, una cámara estereoscópica o dos cámaras de visión nocturna que capturen una imagen estereoscópica de visión nocturna, de modo que se solape una imagen de visión nocturna 3D al usuario. En este caso, en las dos imágenes capturadas por las cámaras respectivas hay un objeto de imagen que corresponde al objeto real y se capturó desde diferentes perspectivas. Estos se muestran entonces preferiblemente de tal manera que uno se encuentra sobre una línea de conexión imaginaria entre la posición del ojo de un ojo y el objeto real y el otro se encuentra sobre una línea de conexión imaginaria entre la posición del ojo del otro ojo y el objeto real. Mediante una captura 3D y una visualización de la imagen de visión nocturna 3D correspondiente aumenta significativamente el grado de realidad para el usuario. Además, la percepción de profundidad es particularmente relevante cuando se conduce un automóvil, especialmente cuando se trata de reconocer situaciones potencialmente peligrosas de la manera más rápida posible y estimar la distancia a los puntos de peligro potenciales con la mayor precisión posible.
[0014] Como dispositivo de captura de imágenes de visión nocturna se pueden usar, por ejemplo, una o más cámaras de visión nocturna y/o un sistema de visión nocturna, por ejemplo, con una o más cámaras infrarrojas con una sensibilidad a diferentes rangos de longitud de onda infrarroja, por ejemplo, un rango infrarrojo cercano de 780 nm a 3 pM y/o también una cámara termográfica, por ejemplo, con una sensibilidad para el rango infrarrojo medio de 5 pM a 15 pM. De este modo, los objetos que normalmente son difíciles o imposibles de ver en el entorno real del usuario pueden hacerse visibles para el usuario a través de las gafas en la oscuridad. Esto es especialmente ventajoso precisamente en relación con el reconocimiento de personas, como, por ejemplo, peatones, pero también de otros usuarios de la vía pública, como automóviles, señales de tráfico o información de tráfico y similares.
[0015] Además, también puede estar previsto que las gafas inteligentes puedan funcionar en dos modos diferentes, un modo normal y un modo de visión nocturna, donde las imágenes del entorno real capturadas por el dispositivo de captura de imágenes de visión nocturna se muestran superpuestas en el modo de visión nocturna, y estas imágenes no se muestran y/o capturan en el modo normal y el dispositivo de captura de imágenes de visión nocturna no está activo para ahorrar energía. Esto significa que las gafas inteligentes se pueden utilizar de una manera que se adapte especialmente a la situación. También puede estar previsto, por ejemplo, que un usuario pueda activar el modo de visión nocturna por sí mismo, por ejemplo, utilizando un elemento de control en las gafas o en el automóvil y el automóvil envíe el comando de activación o desactivación correspondiente a través de un enlace de comunicación a las gafas inteligentes. De esta manera, las gafas inteligentes pueden funcionar de una manera que se adapte a las necesidades del usuario.
[0016] Alternativa o adicionalmente, también puede estar previsto que las gafas inteligentes cambien automáticamente al modo de visión nocturna cuando la iluminancia esté por debajo de un nivel predeterminado o la luminosidad ambiental y/o vuelvan al modo normal cuando se excedan estos niveles predeterminados de luminosidad ambiental. También se pueden utilizar para ello, por ejemplo, sensores de luminosidad correspondientes, que estén acoplados al menos de forma comunicativa a las gafas inteligentes y/o al automóvil y puedan estar dispuestos en las gafas inteligentes y/o en el automóvil. Esto permite un manejo particularmente cómodo de las gafas inteligentes, ya que no se requiere ninguna interacción por parte del usuario para permitir que las imágenes capturadas con el dispositivo de captura de imágenes de visión nocturna se visualicen de manera adecuada a la situación.
[0017] Además, el dispositivo de captura de imágenes de visión nocturna puede estar dispuesto en las gafas inteligentes, por ejemplo, en una zona de la frente de un usuario que lleva las gafas inteligentes, o entre los ojos o también dos cámaras encima de los ojos respectivos. Estas posiciones son particularmente ventajosas porque la perspectiva de la imagen capturada por el dispositivo de captura de imágenes de visión nocturna difiere solo ligeramente de la perspectiva del usuario, donde esta diferencia es menos significativa cuanto más alejados estén los objetos de las gafas inteligentes o de los ojos del usuario. Esto es particularmente común cuando un conductor conduce un automóvil, ya que el conductor se fija en áreas de su entorno real, por ejemplo, la carretera, los vehículos que circulan delante, etc., que están mucho más lejos que solo 1 o 2 metros. Esto permite, a su vez, que la imagen o las imágenes capturada(s) por el dispositivo de captura de imágenes de visión nocturna se solape(n) directamente y sin cambios a través de las gafas inteligentes y produzca(n) una superposición correspondiente con el entorno real, en particular sin que sea perceptible una diferencia de perspectiva para el usuario.
[0018] En la invención, el objeto de imagen se muestra de tal manera que se superpone al objeto en el entorno, de modo que, cuando el entorno se ve a través de las gafas inteligentes, un límite del objeto de imagen corresponde a un límite del objeto en el entorno al menos hasta una desviación de tolerancia predeterminada. Esto se puede lograr de una manera sencilla mediante las medidas descritas anteriormente. Esta configuración garantiza, a su vez, que un usuario también vea los objetos que se muestran a través de las gafas exactamente en el punto en el que se encuentran realmente los objetos reales. El sistema está diseñado preferiblemente de tal manera que el objeto de imagen cubre al menos una gran parte del objeto real y preferiblemente lo cubre por completo y las desviaciones en los contornos del objeto y los contornos del objeto de imagen también son pequeñas.
[0019] Además, también está previsto que la imagen se visualice con un tiempo de latencia predeterminado en relación con la captura de la imagen, donde al menos el objeto de imagen se escala en función del tiempo de latencia predeterminado, de modo que el objeto de imagen se visualice superpuesto al objeto en el entorno. Además, las propias gafas inteligentes pueden determinar el tiempo de latencia, por ejemplo, actualmente en cada captura de imagen, y la visualización correspondiente de la imagen respectiva, o se puede predeterminar un valor promedio, por ejemplo, basado en valores empíricos o valores medidos. El escalado del objeto de imagen en función de este tiempo de latencia es particularmente ventajoso, ya que permite compensar posibles cambios en el objeto de imagen, por ejemplo, en su tamaño o posición, con respecto al objeto real durante este tiempo de latencia.
[0020] Por lo tanto, según la invención, está previsto que el objeto de imagen se escale en su tamaño y/o una posición de visualización del objeto de imagen. Por ejemplo, si un conductor conduce en línea recta en un automóvil y se captura un objeto real con el dispositivo de captura de imágenes de visión nocturna y se muestra como un objeto de imagen con un retraso, entonces este objeto de imagen parecería más pequeño que el objeto real en el momento de la visualización. La posición del objeto real y del objeto de imagen también se pueden desplazar entre sí, dependiendo de la posición del objeto real en relación con la dirección de conducción. Sin embargo, con tiempos de latencia bajos, dichos cambios serían imperceptibles o apenas perceptibles para un conductor incluso sin escalar el objeto de imagen. Sin embargo, una tal configuración es particularmente ventajosa en el funcionamiento en tiempo no real de las gafas inteligentes.
[0021] En este contexto, en particular, también es ventajoso que se determine una información de situación de las gafas inteligentes en el espacio, en particular, donde la información de situación representa una posición y/o un cambio de posición y/o una orientación y/o un cambio de orientación de las gafas inteligentes en el espacio, en particular en relación con el entorno y/o en relación con el automóvil, donde la imagen se visualiza en función de la información de situación. Esta información de situación puede ser determinada, por ejemplo, por las propias gafas inteligentes, para lo cual puede proporcionarse, por ejemplo, un sistema de sensores adecuado en las gafas inteligentes. Sin embargo, también se puede proporcionar un sistema de sensores correspondiente en el propio automóvil, que determina la posición y orientación de las gafas inteligentes en relación con un sistema de coordenadas predeterminado, por ejemplo, un sistema de coordinadas fijado al automóvil. Además, el automóvil también proporciona información adicional, como la velocidad actual del vehículo y/o el ángulo de dirección, u otros sistemas, por ejemplo, el sistema de navegación, del automóvil también pueden usarse para detectar el movimiento del automóvil en el entorno, de modo que esta información también se puede utilizar para determinar la posición y orientación de las gafas inteligentes en relación con su entorno real, en particular, también el entorno exterior del automóvil. Toda esta información se puede utilizar ventajosamente para escalar un objeto de imagen de manera adecuada, de modo que se visualice superpuesto al objeto real, incluso si existe un desfase temporal entre la captura y la visualización.
[0022] Sin embargo, la determinación de la información de situación de las gafas inteligentes tiene otra gran ventaja, independientemente de la aparición de los tiempos de latencia. Esto también permite no proporcionar el dispositivo de captura de imágenes de visión nocturna o no solo en las gafas inteligentes, sino también, por ejemplo, en el automóvil. Debido a que se conoce la información de situación de las gafas inteligentes, en particular en relación con el automóvil, aun se pueden usar transformaciones matemáticas simples del sistema de coordenadas del automóvil al sistema de coordenadas de las gafas, los objetos de imagen en las imágenes capturadas aun pueden visualizarse en el lugar correcto cuando se visualizan a través de las gafas inteligentes, es decir, de manera superpuesta a los objetos reales.
[0023] En otra configuración ventajosa de la invención, la imagen del entorno se solapa en un campo visual completo de las gafas inteligentes, que se aproxima a un campo visual de un usuario que lleva las gafas inteligentes, de manera superpuesta a la imagen real. En otras palabras, esto significa que todo o casi todo el entorno real que se puede ver a través de las gafas inteligentes está superpuesto a la imagen capturada. Esta superposición también puede ser solo parcialmente transparente, es decir, puede estar previsto que el entorno real siga siendo visible a través de esta imagen visualizada, a pesar de la imagen solapada. Sin embargo, la imagen también se puede solapar de tal manera que las partes del entorno real superpuestas a la imagen ya no sean visibles. Al mostrar la imagen en todo el campo visual de las gafas inteligentes, la información adicional proporcionada por las capturas nocturnas se puede maximizar de una manera particularmente ventajosa y, de este modo, se optimiza completamente la vista del conductor de su entorno real, que ahora es proporcionada por las imágenes de visión nocturna mostradas.
[0024] Además, también puede estar previsto que solo una parte de la imagen se solape con el objeto de imagen en una parte del campo visual de las gafas inteligentes. Por ejemplo, los objetos releventes pueden extraerse o recortarse como objetos de imagen de las imágenes capturadas y entonces solo estos objetos de imagen pueden visualizarse superpuestos a sus objetos reales correspondientes a través de las gafas inteligentes. Por lo tanto, ejemplo, en las capturas de imágenes de visión nocturna se pueden buscar personas, otros usuarios de la vía pública, automóviles, señales de tráfico y similares y entonces solo los objetos de imagen se muestran superpuestos a la imagen real. Esto cambia ventajosamente la visión habitual del conductor de su entorno real lo menos posible, y solo los objetos relevantes, por ejemplo, que pueden representar un posible riesgo potencial, se solapan a través de las gafas inteligentes, lo que a su vez aumenta específicamente la atención del conductor y se fija en los objetos de imagen solapados.
[0025] Además, una configuración particularmente ventajosa de la invención es si la imagen capturada se procesa antes de que se muestre la imagen, de modo que se modifica el aspecto visual del objeto de imagen, en particular donde el objeto de imagen óptico se señaliza y/o destaca ópticamente y/o se destaca un contorno del objeto de imagen. De este modo, la atención del conductor o del usuario puede dirigirse aun más a los objetos de imagen correspondientes para que las situaciones de peligro, en particular, puedan ser detectadas mucho más fácil y rápidamente por un conductor. También debe entenderse que el procesamiento de la imagen capturada significa que los objetos de la imagen se pueden localizar en la imagen y, en correspondencia con estos objetos de imagen, el contenido digital artificial, como, por ejemplo, un marco alrededor del objeto de imagen o un contorno trazado del objeto de imagen también se puede solapar cuando se visualizan estos objetos de imagen. Sin embargo, los propios datos de la imagen también pueden procesarse, de manera que, por ejemplo, los objetos de imagen se coloreen de rojo para proporcionar la señalización óptica de los objetos de imagen.
[0026] La invención también comprende un sistema con gafas inteligentes, que está diseñado para mostrar una imagen, de tal manera que está superpuesta al menos parcialmente a un entorno real de las gafas inteligentes cuando el entorno real de las gafas inteligentes se ve a través de las gafas inteligentes. Además, el sistema tiene un dispositivo de captura de imágenes de visión nocturna, que está diseñado para capturar la imagen como una imagen del entorno real de las gafas inteligentes, es decir, una imagen de visión nocturna del entorno real, donde el sistema está diseñado, además, para mostrar la imagen mediante las gafas inteligentes, de tal manera que un objeto de imagen capturado por un objeto dispuesto en el entorno se visualiza en la imagen superpuesto al objeto en el entorno.
[0027] Las características, combinaciones de características y sus ventajas mencionadas para el método según la invención y sus configuraciones se aplican de la misma manera al sistema según la invención. Además, los pasos del método mencionados en relación con el método según la invención y sus configuraciones permiten el desarrollo adicional del sistema según la invención a través de otras características objetivas.
[0028] Otras ventajas, características y detalles de la invención surgen de la siguiente descripción de ejemplos de realización preferidos y del dibujo. Las características y combinaciones de características mencionadas anteriormente en la descripción y las características y combinaciones de características mencionadas a continuación en la descripción de las figuras y/o mostradas solas en las figuras pueden utilizarse no solo en la combinación especificada en cada caso, sino también en otras combinaciones o por sí solas, sin apartarse del alcance de la invención.
[0029] En este caso se muestran:
Figura 1 una representación esquemática de un sistema con gafas inteligentes y un automóvil, en el que se van a hacer funcionar las gafas inteligentes, según un ejemplo de realización de la invención;
Figura 2 una representación esquemática de un entorno real de las gafas inteligentes en la oscuridad;
Figura 3 una representación esquemática de una imagen del entorno real capturada mediante un dispositivo de captura de imágenes de visión nocturna, que se visualiza mediante las gafas inteligentes de manera superpuesta al entorno real; y
Figura 4 una representación esquemática de la imagen capturada por el dispositivo de captura de imágenes de visión nocturna y visualizada a través de las gafas inteligentes, donde solo los objetos de imagen predeterminados en la imagen capturada se visualizan por medio de las gafas inteligentes de manera superpuesta al entorno real.
[0030] La figura 1 muestra una representación esquemática de un sistema 10 con gafas inteligentes 12 y un automóvil 14, en el que se van a hacer funcionar las gafas inteligentes 12. Las gafas inteligentes 12 tienen una superficie de visualización 12a, que está configurada aquí, por ejemplo, como lentes, pero que también podría estar configurada, por ejemplo, como una pantalla con un grado de transparencia variable o también de otra forma. Cuando un usuario lleva puestas las gafas inteligentes 12, el entorno real de las gafas inteligentes 12 puede, por lo tanto, ser visible para el usuario a través de la superficie de visualización 12a. Además, las gafas inteligentes 12 tienen un dispositivo de control 12b para controlar las gafas inteligentes 12, donde, por ejemplo, también puede estar previsto un módulo de proyección de las gafas inteligentes 12, por medio del cual se pueden solapar imágenes al entorno real mediante proyección a lo largo de la superficie de visualización 12a. Alternativamente, también puede estar previsto que el dispositivo de control 12b controle directamente la superficie de visualización 12a si está configurada, por ejemplo, como una pantalla para mostrar imágenes u objetos de manera superpuesta al entorno real a través de las gafas inteligentes 12.
[0031] Además, el sistema 10 tiene un dispositivo de captura de imágenes de visión nocturna, en particular, en forma de una cámara de visión nocturna 16a, que en este ejemplo está dispuesto en las gafas inteligentes 12. La cámara de visión nocturna 16a puede capturar ventajosamente imágenes de visión nocturna del entorno real y mostrarlas al usuario a lo largo de la superficie de visualización 12a, donde, en particular, las imágenes de visión nocturna capturadas se colocan de manera congruente sobre la imagen real, es decir, la vista del entorno real. En consecuencia, es ventajosamente posible proporcionar a un conductor a través de las gafas 12 el paisaje situado frente a él en el modo de visión nocturna enriquecido con información esencial, lo que permite, en particular, reaccionar más rápida y directamente en caso de peligro. Además, las gafas inteligentes 12 pueden tener un dispositivo de determinación y seguimiento de posición 12c. Este dispositivo de determinación de posición 12c permite determinar y seguir los movimientos de la cabeza de un usuario que lleva las gafas inteligentes 12. En particular, el dispositivo de determinación de posición 12c está diseñado para detectar y evaluar la posición y orientación de las gafas inteligentes 12, así como los cambios de posición y/o cambios de orientación en relación con un sistema de coordenadas predeterminado, por ejemplo, uno fijo en relación con el entorno real. Esto permite que la imagen de visión nocturna se superponga de manera congruente a la imagen real, incluso mientras conduce y cuando el usuario mueve la cabeza, así como posiblemente durante los tiempos de latencia entre la captura de una imagen de visión nocturna respectiva y su visualización. La imagen de visión nocturna se muestra de manera que un objeto de imagen capturado por un objeto dispuesto en el entorno real se muestra en la imagen de visión nocturna superpuesto al objeto en el entorno real.
[0032] Dado que estas gafas inteligentes 12 están previstas para su uso en un automóvil 14, ventajosamente aun es posible que el propio automóvil 14 también proporcione funciones determinadas. Por ejemplo, el dispositivo de captura de imágenes de visión nocturna del sistema 10 puede estar dispuesto en el automóvil 14, por ejemplo, también en forma de una cámara de visión nocturna 16b. Además, el automóvil 14 también puede tener un módulo de control y comunicación 14a, que permite una comunicación con las gafas inteligentes 12, que entonces preferiblemente también tiene un tal dispositivo de comunicación. De este modo, por ejemplo, las imágenes de visión nocturna capturadas por la cámara de visión nocturna 16b en el automóvil pueden transmitirse a las gafas inteligentes 12 y visualizarse en ellas. Además, en el automóvil 14 también puede estar previsto un dispositivo de seguimiento que permita determinar la posición y la orientación de las gafas inteligentes 12 con respecto al automóvil. También se pueden utilizar otros datos del automóvil, como, por ejemplo, la velocidad de conducción o los datos de la imagen capturados por otras cámaras del automóvil para poder determinar la posición, el movimiento y la orientación del automóvil 14 y, por lo tanto, también las gafas inteligentes 12 con respecto al entorno. Todos estos datos se pueden utilizar ventajosamente para mostrar las imágenes de visión nocturna capturadas por la cámara de visión nocturna 16a, 16b en la ubicación correcta a lo largo de la superficie de visualización 12a.
[0033] El traslado de determinadas funcionalidades al automóvil 14 tiene la gran ventaja de que se reducen, de este modo, el peso y el tamaño de las gafas inteligentes 12, lo que aumenta, a su vez, la comodidad de uso. Además, las capacidades de cálculo del automóvil 14 se pueden utilizar de manera específica para funciones específicas que requieren un gran esfuerzo de cálculo. También se pueden utilizar ventajosamente los dispositivos existentes del automóvil 14, como, por ejemplo, cámaras y sistemas de información o sistemas de comunicación.
[0034] La figura 2 muestra una representación esquemática de un entorno real 20, por ejemplo, de noche o al atardecer, visto por un conductor. Los objetos 20a, 20b, 20c en el entorno 20 a veces pueden ser difíciles de ver para un conductor por la noche o cuando hay falta de iluminación, lo que se pretende que quede claro mediante las líneas discontinuas. La captura de imágenes de visión nocturna y su visualización a través de las gafas inteligentes 12 permite ahora ventajosamente hacer precisamente estos objetos 20a, 20b, 20c, como, por ejemplo, personas 20b, otros usuarios de la vía pública, como, por ejemplo, automóviles 20c o señales de tráfico 20a mucho más visibles, que se van a ilustrar con referencia a las figuras 3 y 4.
[0035] La figura 3 muestra en este caso una representación esquemática de una imagen capturada por la cámara de visión nocturna 16a, 16b, que se muestra mediante las gafas inteligentes 12 de manera superpuesta al entorno real 20. La imagen de visión nocturna 22 se solapa en este ejemplo por completo en el campo visual del conductor o de las gafas inteligentes 12. Mucha información sobre el entorno real 20 puede hacerse mucho más visible de este modo para el conductor. En particular, los objetos relevantes 20a, 20b, 20c del entorno real 20 pueden hacerse claramente más visibles mediante la representación de la imagen de visión nocturna correspondiente 22 con los objetos de imagen correspondientes 20a, 20b y 20c.
[0036] La figura 4 muestra en este caso otro ejemplo de realización en el que ahora no se solapa toda la imagen de visión nocturna 22 capturada a través de las gafas inteligentes 12, sino únicamente los objetos de imagen relevantes 22a, 22b y 22c. El conductor o usuario de las gafas inteligentes 12 ve entonces su entorno real 20 sin cambios, en el que las capturas de visión nocturna de determinados objetos 20a, 20b y 20c se solapan ahora como objetos de imagen correspondientes 22a, 22b y 22c. Como resultado, al conductor se le puede informar ventajosamente de objetos relevantes en su entorno real 20. Además, también existe la posibilidad de resaltar ópticamente estos objetos relevantes 22a, 22b y 22c mediante el procesamiento de imágenes correspondiente señalándolos, aumentando los contornos o realzándolos en color para que el conductor sea aun más consciente de posibles peligros.
[0037] Las imágenes de visión nocturna capturadas descritas o sus objetos de imagen 22a, 22b, 22c se solapan preferiblemente en tiempo real mediante las gafas inteligentes 12, en particular como una imagen 2D o también como una imagen 3D, en la posición correcta, es decir, en congruencia con los objetos reales correspondientes 20a, 20b, 20c respectivamente. Además, también puede estar previsto proporcionar diferentes modos de funcionamiento para las gafas inteligentes 12, de modo que las imágenes de visión nocturna 22 solo se solapan cuando las gafas inteligentes 12 están en un modo de visión nocturna. También se pueden proporcionar elementos de control en las gafas inteligentes 12 y/o en el automóvil 14, mediante los cuales se pueden controlar las gafas inteligentes 12 y, en particular, se puede activar y desactivar el modo de visión nocturna. Alternativa o adicionalmente, también se pueden proporcionar sensores, por ejemplo, sensores de luminosidad, para activar automáticamente el modo de visión nocturna cuando está oscuro.
[0038] En general, se proporciona un método para hacer funcionar gafas inteligentes y un sistema con gafas inteligentes, que, al mostrar imágenes de visión nocturna de manera superpuesta a una imagen real de un entorno, permite mejorar la visión nocturna del conductor, proporcionar funciones útiles y de asistencia al conductor y, por lo tanto, principalmente llamar la atención del conductor sobre situaciones potencialmente peligrosas.

Claims (4)

REIVINDICACIONES
1. Método para hacer funcionar gafas inteligentes (12) en un automóvil (14), donde
- se determina una información de situación de las gafas inteligentes (12) en el espacio, donde la información de situación representa una posición y orientación de las gafas inteligentes en el espacio;
- mediante las gafas inteligentes (12) se muestra una imagen (22), que está superpuesta al menos parcialmente a un entorno real (20) de las gafas inteligentes (12) cuando se ve el entorno real (20) a través de las gafas inteligentes (12), donde la imagen (22) representa una imagen (22) del entorno real (20), que se captura mediante un dispositivo de captura de imágenes de visión nocturna (16a, 16b);
- la imagen (22) se muestra de tal manera que un objeto de imagen (22a, 22b, 22c) capturado de un objeto (20a, 20b, 20c) dispuesto en el entorno real (20) se muestra en la imagen (22) de manera superpuesta al objeto (20a, 20b, 20c) en el entorno real (20);
caracterizado por el hecho de que
- la imagen capturada (22) se procesa antes de la visualización de la imagen (22), de modo que se modifica el aspecto visual del objeto de imagen (22a, 22b, 22c), y el objeto de imagen (22a, 22b, 22c) se señaliza ópticamente, donde los propios datos de la imagen se procesan para proporcionar la señalización óptica del objeto de imagen;
- la imagen (22) se muestra con un tiempo de latencia predeterminado con respecto a la captura de la imagen (22), donde al menos el objeto de imagen (22a, 22b, 22c) se escala en función del tiempo de latencia predeterminado;
- el automóvil (14) proporciona información adicional sobre un ángulo de dirección y una velocidad del vehículo;
- al menos el objeto de imagen (22a, 22b, 22c) se escala en función del tiempo de latencia predeterminado, la información de situación determinada y la información adicional;
- el objeto de imagen (22a, 22b, 22c) se escala en su tamaño y/o una posición de visualización del objeto de imagen (22a, 22b, 22c), de modo que el objeto de imagen (22a, 22b, 22c) se muestra superpuesto al objeto (20a, 20b, 20c) en el entorno (20).
2. Método según la reivindicación 1,
caracterizado por el hecho de que
la imagen (22) del entorno (20) se solapa en un campo visual completo de las gafas inteligentes (12), que se aproxima a un campo visual de un usuario que lleva las gafas inteligentes (12), de manera superpuesta al entorno real (20).
3. Método según la reivindicación 1,
caracterizado por el hecho de que
solo una parte de la imagen (22) se solapa con el objeto de imagen (22a, 22b, 22c) solamente en una parte del campo visual de las gafas inteligentes (12).
4. Sistema (10) con gafas inteligentes (12) para su uso en un automóvil (14) y con un dispositivo de captura de imágenes de visión nocturna (16, 16b),
caracterizado por el hecho de que
el sistema (10) está diseñado para llevar a cabo un método según cualquiera de las reivindicaciones anteriores.
ES16720720T 2015-05-21 2016-04-29 Método para hacer funcionar gafas inteligentes en un automóvil y sistema con gafas inteligentes Active ES2939151T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015006612.9A DE102015006612B4 (de) 2015-05-21 2015-05-21 Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille
PCT/EP2016/000704 WO2016184541A1 (de) 2015-05-21 2016-04-29 Verfahren zum betreiben einer datenbrille in einem kraftfahrzeug und system mit einer datenbrille

Publications (1)

Publication Number Publication Date
ES2939151T3 true ES2939151T3 (es) 2023-04-19

Family

ID=55913570

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16720720T Active ES2939151T3 (es) 2015-05-21 2016-04-29 Método para hacer funcionar gafas inteligentes en un automóvil y sistema con gafas inteligentes

Country Status (6)

Country Link
US (1) US10868976B2 (es)
EP (1) EP3298474B1 (es)
CN (1) CN107850944B (es)
DE (1) DE102015006612B4 (es)
ES (1) ES2939151T3 (es)
WO (1) WO2016184541A1 (es)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015006612B4 (de) 2015-05-21 2020-01-23 Audi Ag Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille
CN108349455B (zh) * 2015-10-26 2021-06-15 主动知识有限责任公司 可移动的内部振动吸收能量消散垫
WO2018020661A1 (ja) * 2016-07-29 2018-02-01 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
DE102016225263A1 (de) * 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille in einem Kraftfahrzeug
DE102016225265A1 (de) * 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102016225268A1 (de) * 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102017200733A1 (de) * 2017-01-18 2018-07-19 Audi Ag Unterhaltungssystem für ein Kraftfahrzeug und Verfahren zum Betreiben eines Unterhaltungssystems
CN107065183A (zh) * 2017-03-21 2017-08-18 广东光阵光电科技有限公司 一种夜间行车增强可视度方法及便携眼镜式装置
DE102017205194A1 (de) * 2017-03-28 2018-10-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen von 3D-Bild-Informationen in einem Fahrerassistenzsystem eines Kraftfahrzeugs
DE102017208881A1 (de) * 2017-05-05 2018-11-08 Audi Ag Mobile Sensorvorrichtung für ein in einem Fahrzeug einsetzbares am Kopf tragbares visuelles Ausgabegerät und Verfahren zum Betreiben eines Anzeigesystems
DE102017114914A1 (de) * 2017-07-04 2019-01-10 Atlas Elektronik Gmbh Visuelles Ausgabegerät und Bediensystem
EP3649538A1 (de) 2017-07-04 2020-05-13 ATLAS ELEKTRONIK GmbH Anordnung und verfahren zur kommunikation mittels zweier visueller ausgabegeräte
DE102017216100A1 (de) * 2017-09-12 2019-03-14 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Display-Vorrichtung für ein Kraftfahrzeug
DE102017216240A1 (de) * 2017-09-14 2019-03-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben einer Datenbrille in einem Fahrzeug
CN107945284B (zh) * 2017-12-11 2020-03-06 广州德科投资咨询有限公司 一种用于自动驾驶车辆的场景显示方法及智能眼镜
DE102018218746B4 (de) * 2018-11-01 2022-09-29 Volkswagen Aktiengesellschaft Verfahren zur Vermeidung einer Sichtfeldstörung für eine Bedienperson eines Objektes, Vorrichtung zur Durchführung des Verfahrens sowie Fahrzeug und Computerprogramm
JP2021148506A (ja) 2020-03-17 2021-09-27 本田技研工業株式会社 表示制御装置、表示制御方法およびプログラム
US11823162B2 (en) 2021-06-09 2023-11-21 Bank Of America Corporation Automatic alerting communications systems and methods

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005058018A1 (de) 2005-12-05 2007-06-14 Siemens Ag Head-Up-Display System
EP1990674A1 (en) * 2007-05-09 2008-11-12 Harman Becker Automotive Systems GmbH Head-mounted display system
WO2009116663A1 (ja) 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
JP5158063B2 (ja) * 2009-12-02 2013-03-06 株式会社デンソー 車両用表示装置
JP5716343B2 (ja) * 2010-10-01 2015-05-13 トヨタ自動車株式会社 車両の物体認識システム
WO2013113500A1 (de) * 2012-02-02 2013-08-08 Audi Ag Fahrerassistenzsystem und verfahren zur virtuellen darstellung eines strassenverlaufs bei verdeckung und/oder schlechten sichtverhältnissen
KR101957943B1 (ko) * 2012-08-31 2019-07-04 삼성전자주식회사 정보 제공 방법 및 이를 위한 정보 제공 차량
EP2979446A1 (en) * 2013-03-26 2016-02-03 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
DE102013005342A1 (de) * 2013-03-26 2013-09-19 Daimler Ag Kraftfahrzeug, -bedienvorrichtung, und Bedienverfahren hierfür
DE102013207063A1 (de) * 2013-04-19 2014-10-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille
US9472023B2 (en) * 2014-10-06 2016-10-18 Toyota Jidosha Kabushiki Kaisha Safety system for augmenting roadway objects on a heads-up display
DE102015006612B4 (de) 2015-05-21 2020-01-23 Audi Ag Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille

Also Published As

Publication number Publication date
DE102015006612B4 (de) 2020-01-23
CN107850944B (zh) 2021-08-03
US10868976B2 (en) 2020-12-15
EP3298474B1 (de) 2022-11-30
CN107850944A (zh) 2018-03-27
EP3298474A1 (de) 2018-03-28
WO2016184541A1 (de) 2016-11-24
DE102015006612A1 (de) 2016-11-24
US20180288337A1 (en) 2018-10-04

Similar Documents

Publication Publication Date Title
ES2939151T3 (es) Método para hacer funcionar gafas inteligentes en un automóvil y sistema con gafas inteligentes
US11560092B2 (en) Vehicular vision system
US10061992B2 (en) Image display system
CN111433067B (zh) 平视显示装置及其显示控制方法
JP4533762B2 (ja) 可変透過率ウィンドウシステム
US20190315275A1 (en) Display device and operating method thereof
JP6437532B2 (ja) グレア防止スクリーンを備えるデータ表示眼鏡
CN107438538B (zh) 用于显示车辆的车辆周围环境的方法
KR20120067854A (ko) 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
JP7111582B2 (ja) ヘッドアップディスプレイシステム
WO2017134629A1 (en) Adaptive transparent display system and method for adaptive optical shielding
CN110831840B (zh) 用于在避让障碍物时辅助机动车使用者的方法、驾驶员辅助装置和机动车
ES2704327B2 (es) Método y sistema para mostrar información de realidad virtual en un vehículo
CN204845715U (zh) 穿戴式行车影像辅助装置
JP2017056909A (ja) 車両用画像表示装置
CN107009961A (zh) 汽车和汽车透明座舱***
KR20170065738A (ko) 헤드업 디스플레이 제어 장치 및 방법
KR20150055181A (ko) 헤드업 디스플레이를 이용한 나이트 비전 정보 표시 장치 및 방법
CN111086518B (zh) 显示方法、装置、车载平视显示设备及存储介质
JP2022122936A (ja) 情報表示システム
ES2704350B2 (es) Método y sistema para mostrar información prioritaria en un vehículo
US20190193634A1 (en) Vehicle
US11875530B2 (en) Image display system and image controller
KR20160035687A (ko) 차량의 위험대상정보 제공장치
US11941173B2 (en) Image display system