ES2819239T3 - Sistema de visualización de un vehículo - Google Patents

Sistema de visualización de un vehículo Download PDF

Info

Publication number
ES2819239T3
ES2819239T3 ES15894424T ES15894424T ES2819239T3 ES 2819239 T3 ES2819239 T3 ES 2819239T3 ES 15894424 T ES15894424 T ES 15894424T ES 15894424 T ES15894424 T ES 15894424T ES 2819239 T3 ES2819239 T3 ES 2819239T3
Authority
ES
Spain
Prior art keywords
vehicle
light
electronic display
region
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15894424T
Other languages
English (en)
Inventor
David A Fattal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leia Inc
Original Assignee
Leia Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leia Inc filed Critical Leia Inc
Application granted granted Critical
Publication of ES2819239T3 publication Critical patent/ES2819239T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/30Collimators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/0035Means for improving the coupling-out of light from the light guide provided on the surface of the light guide or in the bulk of it
    • G02B6/0038Linear indentations or grooves, e.g. arc-shaped grooves or meandering grooves, extending over the full length or width of the light guide
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Un sistema de vigilancia de vehículos (100, 300) que comprende: un escáner tridimensional 3D, (110, 310) configurado para escanear una región (102) adyacente a un vehículo, siendo utilizado el escaneo para proporcionar un modelo 3D que incluye una configuración espacial de objetos ubicados dentro de la región escaneada; y una pantalla electrónica (120, 330) configurada para mostrar una parte (108) de la región escaneada usando el modelo 3D y para resaltar visualmente un objeto (104') dentro de la parte mostrada que se encuentra a menos de un umbral de distancia del vehículo, en donde el resaltado visual está configurado para mejorar la percepción del usuario del objeto que está más cerca del vehículo que la distancia de umbral caracterizado porque la pantalla electrónica comprende una pantalla electrónica 3D, la distancia de umbral corresponde a un plano de disparidad cero asociado con la parte de la región escaneada mostrada por la pantalla electrónica 3D, y en donde el resaltado visual del objeto ubicado a menos de la distancia umbral (106) del vehículo es una percepción visual del objeto que está frente al plano de disparidad cero en la pantalla electrónica 3D.

Description

DESCRIPCIÓN
Sistema de visualización de un vehículo
REFERENCIA CRUZADA A APLICACIONES RELACIONADAS
[0001] N/A
DECLARACIÓN CON RESPECTO A INVESTIGACIÓN O DESARROLLO PATROCINADOS FEDERALMENTE
[0002] N/A
ANTECEDENTES
[0003] US 2010/0117812 A1 describe un sistema para la visualización de un vehículo que rodea con un punto de vista ajustable, incluyendo un dispositivo sensor en el vehículo, un procesador y una pantalla. La pantalla está configurada para mostrar el mapa del entorno tridimensional con un punto de vista ajustable en función de una situación de conducción particular. El documento US 2012/0075878 A1 describe un dispositivo de visualización en donde se proyectan patrones de luz codificados espacialmente desde dos proyectores sobre la superficie de un objeto diana. El documento JP 2011/070593 A describe un dispositivo de vigilancia de vehículos configurado para determinar y enfatizar una región en el video de vista área que incluye el obstáculo detectado.
[0004] Los sistemas de control de vehículos se están volviendo cada vez más comunes como un medio para proporcionar conocimiento de la situación y de evitación de colisión. Dichos sistemas de control de vehículos incluyen a menudo una pantalla electrónica para comunicar información a un usuario (por ejemplo, un conductor del vehículo). En particular, la pantalla electrónica puede proporcionar una vista de una región adyacente al vehículo para que el usuario se dé cuenta y le facilite evitar los objetos en la región adyacente.
[0005] Una amplia variedad de pantallas electrónicas pueden usarse en un vehículo de sistema de monitorización, incluyendo, pero no limitado a, pantallas sobre la base de los tubos de rayos catódicos (CRT), pantallas de plasma (PDP), pantallas de cristal líquido (LCD), electroluminiscente (EL), pantallas de diodos emisores de luz orgánicos (OLED) y OLED de matriz activa (AMOLED), pantallas electroforéticas (EP) y varias pantallas que emplean modulación de luz electromecánica o electrofluídica (por ejemplo, dispositivos de microespejos digitales, pantallas de electrowetting, etc.). En general, las pantallas electrónicas se pueden clasificar como pantallas activas (es decir, pantallas que emiten luz) o pantallas pasivas (es decir, pantallas que modulan la luz proporcionada por otra fuente). Entre los ejemplos más evidentes de pantallas activas se encuentran los CRT, PDP y OLED/AMOLED. Las pantallas que normalmente se clasifican como pasivas cuando se considera la luz emitida son las pantallas LCD y EP. Las pantallas pasivas, aunque a menudo exhiben características de rendimiento atractivas que incluyen, pero no se limitan a un consumo de energía inherentemente bajo, pueden encontrar un uso algo limitado en muchas aplicaciones prácticas dada la falta de capacidad para emitir luz.
[0006] Para superar las limitaciones de las pantallas pasivas asociadas con la luz emitida, muchas pantallas pasivas se acoplan a una fuente de luz externa. La fuente de luz acoplada puede permitir que estas pantallas de otro modo pasivas emitan luz y funcionen sustancialmente como una pantalla activa. Ejemplos de tales fuentes de luz acopladas son las luces de fondo. Las luces de fondo son fuentes de luz (a menudo fuentes de luz de panel) que se colocan detrás de una pantalla pasiva para iluminar la pantalla pasiva. Por ejemplo, se puede acoplar una luz de fondo a una pantalla LCD o EP. La luz de fondo emite luz que pasa a través de la pantalla LCD o EP. La luz emitida es modulada por la pantalla LCD o la pantalla EP y la luz modulada se emite, a su vez, desde la pantalla LCD o la pantalla EP. A menudo, las luces de fondo están configuradas para emitir luz blanca. Luego, se utilizan filtros de color para transformar la luz blanca en varios colores utilizados en la pantalla. Los filtros de color se pueden colocar en una salida de la pantalla LCD o EP (menos común) o entre la luz de fondo y la pantalla LCD o EP, por ejemplo.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0007] Varias características de los ejemplos y formas de realización de acuerdo con los principios descritos en este documento pueden entenderse más fácilmente con referencia a la siguiente descripción detallada tomada en conjunción con los que acompañan a los dibujos, donde números de referencia similares designan elementos estructurales similares, y en donde:
Figura 1 ilustra un diagrama de bloques de un sistema de vigilancia de vehículos en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.
Figura 2A ilustra una vista en perspectiva de una región monitoreada usando el sistema de vigilancia de vehículos de la figura 1 en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.
Figura 2B ilustra una vista lateral de la región supervisada de la figura 2B en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.
Figura 3A ilustra una parte visualizada de una región que se escanea en un ejemplo, según una realización consistente con los principios descritos en este documento.
Figura 3B ilustra un objeto resaltado visualmente en la parte 108 mostrada de la figura 3A en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.
Figura 3C ilustra un objeto resaltado visualmente en la parte mostrada de la figura 3A en un ejemplo, de acuerdo con otra realización consistente con los principios aquí descritos.
Figura 4 ilustra una vista en perspectiva de una pantalla electrónica 3D que representa un objeto resaltado visualmente en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento.
Figura 5A ilustra una vista en sección transversal de una pantalla electrónica tridimensional (3D) que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.
Figura 5B ilustra una vista en sección transversal de una pantalla electrónica tridimensional (3D) que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento.
Figura 5C ilustra una vista en perspectiva de una parte de una pantalla electrónica 3D que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.
Figura 6 ilustra un diagrama de bloques de un sistema de monitorización de vehículos tridimensional (3D) en un ejemplo, de acuerdo con una realización de los principios descritos en este documento.
Figura 7 ilustra un diagrama de flujo de un método de control de vehículos en un ejemplo, según una realización consistente con los principios descritos en este documento.
[0008] Ciertos ejemplos y realizaciones tienen otras características que son además de y en lugar de las características ilustradas en las figuras referenciadas anteriormente. Estas y otras características se detallan a continuación con referencia a las figuras mencionadas anteriormente.
DESCRIPCIÓN DETALLADA
[0009] La invención se refiere a un sistema de vigilancia de vehículos de acuerdo con la reivindicación 1 y a un método de vigilancia de vehículo de acuerdo con la reivindicación 11. Otras formas de realización están representadas por las reivindicaciones dependientes. Las realizaciones de acuerdo con los principios descritos en el presente documento proporcionan un sistema de vigilancia de vehículos que emplea información tridimensional (3D). En particular, de acuerdo con algunas realizaciones de los principios descritos en el presente documento, se recopila información 3D que comprende imágenes o escaneos 3D para una región monitorizada adyacente a un vehículo. La región supervisada puede ser una o más de delante, al lado y detrás del vehículo, por ejemplo. La información 3D de la región monitoreada se usa luego para construir un modelo 3D que incluye una configuración espacial de objetos dentro de la región monitoreada. Además, se muestra una parte de la región supervisada basada en el modelo 3D y los objetos dentro de la parte de la pantalla que están a menos de una distancia umbral predeterminada del vehículo son objetos resaltados visualmente. De acuerdo con varias realizaciones, la percepción de los objetos resaltados visualmente por un usuario puede mejorarse. Además, la percepción mejorada de los objetos resaltados visualmente puede facilitar la prevención de colisiones con respecto a los objetos resaltados visualmente que están demasiado cerca del vehículo, por ejemplo.
[0010] De acuerdo con diversas realizaciones, un escáner 3D o cámara 3D se combina con una pantalla electrónica como un sistema de vigilancia de vehículos para vigilar la región adyacente al vehículo. El escáner 3D recopila la información 3D sobre los objetos en la región monitoreada para facilitar la construcción del modelo 3D. La pantalla electrónica proporciona una imagen de la región monitoreada basada en el modelo 3D. Además, la pantalla electrónica proporciona el resaltado visual de los objetos que se consideran demasiado cerca del vehículo (es decir, los objetos que están a menos de la distancia umbral predeterminada del vehículo).
[0011] De acuerdo con algunas formas de realización descritas en este documento, el resaltado visual de los objetos es proporcionado por una pantalla electrónica 3D (uno o ambos de monocromática y color). Además, en diversas realizaciones, la pantalla electrónica 3D puede configurarse para presentar imágenes e información relacionada de una manera denominada 3D "sin gafas" o 3D autoestereoscópico. En particular, en algunas realizaciones, la pantalla electrónica 3D puede emplear una luz de fondo basada en red de difracción o "basada en rejilla" para producir diferentes vistas de las imágenes o información 3D. En una pantalla electrónica 3D que emplea una luz de fondo basada en rejillas, la luz se acopla fuera de la guía de luz utilizando una pluralidad de redes de difracción. La luz acoplada forma una pluralidad de haces de luz que se dirigen en una dirección predefinida (por ejemplo, una dirección de visión). Además, los haces de luz de la pluralidad de haces de luz pueden tener diferentes direcciones angulares principales entre sí para formar o proporcionar un campo de luz en la dirección de visualización de la pantalla electrónica y también pueden representar una pluralidad de colores primarios, en algunas realizaciones. Los haces de luz que tienen las diferentes direcciones angulares principales (también denominados ''haces de luz dirigidos de manera diferente'') y, en algunas realizaciones, que representan colores diferentes, pueden emplearse para mostrar información de forma autosteroscópica, incluida información tridimensional (3D). Por ejemplo, los haces de luz de diferentes colores y dirigidos de manera diferente pueden modularse y servir como píxeles de color o representar una vista diferente de la pantalla electrónica en color 3D "sin gafas".
[0012] En este documento, una “guía de luz” se define como una estructura que guía la de luz dentro de la estructura utilizando la reflexión interna total. En particular, la guía de luz puede incluir un núcleo que es sustancialmente transparente a una longitud de onda operativa de la guía de luz. En varias realizaciones, el término "guía de luz" generalmente se refiere a una guía de ondas óptica dieléctrica que emplea una reflexión interna total para guiar la luz en una interfaz entre un material dieléctrico de la guía de luz y un material o medio que rodea esa guía de luz. Por definición, una condición para la reflexión interna total es que el índice de refracción de la guía de luz sea mayor que el índice de refracción de un medio circundante adyacente a una superficie del material de guía de luz. En algunas realizaciones, la guía de luz puede incluir un recubrimiento además o en lugar de la diferencia de índice de refracción antes mencionada para facilitar aún más la reflexión interna total. El revestimiento puede ser un revestimiento reflectante, por ejemplo. La guía de luz puede ser cualquiera de varias guías de luz que incluyen, pero no se limitan a, una o ambas de una guía de placa o placa y una guía de tira.
[0013] Además, en el presente documento el término “placa” cuando se aplica a una guía de luz como en una “placa de guía de luz” se define como un nivel de pieza o diferencialmente capa plana o lámina, que a veces se hace referencia como una guía “losa”. En particular, una guía de luz de placa se define como una guía de luz configurada para guiar la luz en dos direcciones sustancialmente ortogonales limitadas por una superficie superior y una superficie inferior (es decir, superficies opuestas) de la guía de luz. Además, por definición en el presente documento, las superficies superior e inferior están ambas separadas entre sí y pueden ser sustancialmente paralelas entre sí en al menos un sentido diferencial. Es decir, dentro de cualquier sección diferencialmente pequeña de la guía de luz de la placa, las superficies superior e inferior son sustancialmente paralelas o coplanares.
[0014] En algunas realizaciones, una guía de luz de la placa puede ser sustancialmente plana (es decir, confinada a un plano) y así la placa de guía de luz es una guía de luz planar. En otras realizaciones, la guía de luz de placa puede estar curvada en una o dos dimensiones ortogonales. Por ejemplo, la guía de luz de placa puede estar curvada en una única dimensión para formar una guía de luz de placa de forma cilíndrica. Sin embargo, cualquier curvatura tiene un radio de curvatura suficientemente grande para asegurar que la reflexión interna total se mantenga dentro de la guía de luz de la placa para guiar la luz.
[0015] De acuerdo con diversas realizaciones descritas en el presente documento, una red de difracción (por ejemplo, un patrón de difracción de haces múltiples de rejilla) se puede emplear para la dispersión o acoplar luz de una guía de luz (por ejemplo, una guía de luz de la placa) como un haz de luz. Aquí, una "red de difracción" se define generalmente como una pluralidad de características (es decir, características de difracción) dispuestas para proporcionar difracción de la luz incidente en la red de difracción. En algunas realizaciones, la pluralidad de características puede disponerse de manera periódica o cuasiperiódica. Por ejemplo, la red de difracción puede incluir una pluralidad de características (por ejemplo, una pluralidad de ranuras en una superficie de material) dispuestas en una matriz unidimensional (1D). En otros ejemplos, la red de difracción puede ser una matriz bidimensional (2D) de características. La red de difracción puede ser una matriz bidimensional de protuberancias o agujeros en la superficie de un material, por ejemplo.
[0016] Como tal, y por definición en el presente documento, la 'red de difracción' es una estructura que proporciona la difracción de la luz incidente sobre la red de difracción. Si la luz incide en la red de difracción procedente de una guía de luz, la difracción o la dispersión por difracción proporcionadas pueden dar como resultado, y, por lo tanto, denominarse “acoplamiento difractivo”, ya que la red de difracción puede extraer la luz de la guía de luz por difracción. La red de difracción también redirige o cambia un ángulo de la luz por difracción (es decir, en un ángulo de difracción). En particular, como resultado de la difracción, la luz que sale de la red de difracción (es decir, luz difractada) generalmente tiene una dirección de propagación diferente a la dirección de propagación de la luz incidente en la red de difracción (es decir, luz incidente). El cambio en la dirección de propagación de la luz por difracción se denomina aquí "redireccionamiento difractivo". Por lo tanto, se puede entender que la red de difracción es una estructura que incluye características de difracción que redirigen de manera difractiva la luz incidente en la red de difracción y, si la luz incide desde una guía de luz, la red de difracción también puede acoplar de manera difractiva la luz de la guía de luz.
[0017] Además, por definición en el presente documento, las características de una red de difracción se denominan como 'características de difracción' y pueden ser uno o más de a, en y sobre una superficie (es decir, en donde una 'superficie' se refiere a un límite entre dos materiales). La superficie puede ser la superficie de una placa de guía de luz. Las características de difracción pueden incluir cualquiera de una variedad de estructuras que difractan la luz que incluyen, pero no se limitan a, una o más ranuras, aristas, agujeros y protuberancias, y estas estructuras pueden ser una o más en, dentro y sobre la superficie. Por ejemplo, la red de difracción puede incluir una pluralidad de ranuras paralelas en la superficie de un material. En otro ejemplo, la red de difracción puede incluir una pluralidad de crestas paralelas que se elevan desde la superficie del material. Las características de difracción (ya sean ranuras, crestas, agujeros, protuberancias, etc.) pueden tener cualquiera de una variedad de formas o perfiles de sección transversal que proporcionan difracción que incluyen, entre otros, uno o más de un perfil sinusoidal, un perfil rectangular (por ejemplo, una red de difracción binaria), un perfil triangular y un perfil de diente de sierra (por ejemplo, una rejilla flameada). La invención reivindicada incluye una pantalla electrónica que comprende una pantalla electrónica 3D.
[0018] Por definición en la presente memoria, una red de difracción ‘multihaz’ es una red de difracción que produce acoplado de salida de luz que incluye una pluralidad de haces de luz. Además, los haces de luz de la pluralidad producidos por una red de difracción de haces múltiples tienen diferentes direcciones angulares principales entre sí, por definición aquí. En particular, por definición, un haz de luz de la pluralidad tiene una dirección angular principal predeterminada que es diferente de otro haz de luz de la pluralidad de haces de luz como resultado del acoplamiento difractivo y la redirección difractiva de la luz incidente por la red de difracción de haces múltiples. La pluralidad de haces de luz puede representar un campo de luz. Por ejemplo, la pluralidad de haces de luz puede incluir ocho haces de luz que tienen ocho direcciones angulares principales diferentes. Los ocho haces de luz en combinación (es decir, la pluralidad de haces de luz) pueden representar el campo de luz, por ejemplo. Según diversas realizaciones, las diferentes direcciones angulares principales de los diversos haces de luz se determinan mediante una combinación de un paso o espaciado de rejilla y una orientación o rotación de las características de difracción de la red de difracción de haces múltiples en los puntos de origen de los respectivos haces de luz relativos. a una dirección de propagación de la luz incidente en la red de difracción de haces múltiples.
[0019] De acuerdo con diversas realizaciones descritas en el presente documento, la luz acoplada fuera de la guía de luz por la red de difracción (por ejemplo, una red de difracción de haces múltiples) representa un pixel de una pantalla electrónica. En particular, la guía de luz que tiene una red de difracción de haces múltiples para producir los haces de luz de la pluralidad que tienen diferentes direcciones angulares principales puede ser parte de una luz de fondo o usarse junto con una pantalla electrónica tal como, pero no limitado a una pantalla electrónica tridimensional (3D) "sin gafas" (también denominada pantalla electrónica multivista u "holográfica" o pantalla autoestereoscópica). Como tales, los haces de luz dirigidos de manera diferente producidos acoplando la luz guiada de la guía de luz usando la rejilla difractiva multihaz pueden ser o representar "píxeles" de la pantalla electrónica 3D.
[0020] En la presente memoria un espejo 'colimar' se define como un espejo que tiene una forma curvada que está configurado para colimar la luz reflejada por el espejo de colimación. Por ejemplo, el espejo de colimación puede tener una superficie reflectante caracterizada por una curva o forma parabólica. En otro ejemplo, el espejo colimador puede comprender un espejo parabólico conformado. Por "parabólico conformado" se entiende que una superficie reflectante curvada del espejo parabólico conformado se desvía de una curva parabólica "verdadera" de una manera determinada para lograr una característica de reflexión predeterminada (por ejemplo, un grado de colimación). En algunas realizaciones, el espejo de colimación puede ser un espejo continuo (es decir, que tiene una superficie reflectante continua sustancialmente lisa), mientras que en otras realizaciones el espejo puede comprender un reflector Fresnel o un espejo Fresnel que proporciona colimación de luz. Según diversas realizaciones, la cantidad de colimación proporcionada por el espejo colimador puede variar en un grado o cantidad predeterminados de una realización a otra. Además, el espejo de colimación puede configurarse para proporcionar colimación en una o ambas de las dos direcciones ortogonales (por ejemplo, una dirección vertical y una dirección horizontal). Es decir, el espejo de colimación puede incluir una forma parabólica o forma conformada parabólica en una o ambas de las dos direcciones ortogonales, según varios ejemplos.
[0021] Aquí, el término 'plano de disparidad cero' cuando se usa con respecto a una pantalla electrónica 3D se define como un plano o sección plana de una escena 3D o región que está siendo visualizada o presentada que aparece idéntica (es decir, no tiene disparidad visual) en todas las vistas de la pantalla electrónica 3D. Además, por definición en el presente documento, el plano de disparidad cero aparece, corresponde o coincide con una superficie física de la pantalla electrónica 3D. Es decir, un objeto en la escena o región mostrada ubicada en el plano de disparidad cero dentro de la región 3D parecerá estar colocado con la superficie física de la pantalla electrónica 3D cuando se presente y se vea en la pantalla electrónica 3D. Los objetos que están más lejos que el plano de disparidad cero parecerán estar detrás de la superficie física, mientras que los objetos que están más cerca que el plano de disparidad cero parecerán estar delante de la superficie física.
[0022] En este documento, una 'transformación proyectiva' o equivalentemente 'transformar de manera proyectiva' se define como una transformación (posiblemente no lineal) del espacio 3D que mapea líneas en líneas (o rayos de luz en rayos de luz). Tenga en cuenta que una transformación proyectiva generalmente se puede expresar en términos de una transformación lineal en un espacio de cuatro dimensiones (4D) (es decir, un 'espacio proyectivo') por medio de una matriz de 4x4. En algunas realizaciones del presente documento, la transformación proyectiva puede incluir una transformación óptica configurada para comprimir el contenido de profundidad sustancialmente equivalente para ver una escena a través de una lente divergente (por ejemplo, una lente de ojo de pez). En particular, una transformación proyectiva puede mapear un plano lejano infinito en una distancia deseada 1/h desde el plano de disparidad cero. La transformación proyectiva que proporciona el plano lejano infinito al mapeo de distancia 1/h puede estar dada por la ecuación (1) como
Figure imgf000005_0001
donde (x', y ’, z ’, w') son coordenadas de imagen correspondientes a la transformación proyectiva de las coordenadas (x, y, z, w). Además, por definición aquí, la transformación proyectiva de la ecuación (1) generalmente no comprime la profundidad o el paralaje cerca del plano de disparidad cero en sí. En otras realizaciones, se puede emplear otra transformación óptica (por ejemplo, representada por una matriz 4x4) como la transformación proyectiva en el presente documento. Por ejemplo, la transformación proyectiva puede ser sustancialmente cualquier transformación proyectiva que resalte un objeto o una parte del mismo como se describe a continuación, de acuerdo con algunas realizaciones de los principios descritos en este documento. Además, en el presente documento, la transformación proyectiva puede comprender una transformación lineal o una transformación no lineal, según diversas realizaciones.
[0023] Además, como se utiliza aquí, el artículo 'un' se pretende que tenga su significado normal en las técnicas de patentes, a saber, 'uno o más'. Por ejemplo, "una rejilla" significa una o más rejillas y, como tal, "la rejilla" significa "la(s) rejilla(s)" en el presente documento. Además, cualquier referencia en este documento a 'arriba', 'abajo', 'superior', 'inferior', 'arriba', 'abajo', 'frente', atrás’, ‘primero’, ‘segundo’, ‘izquierda’ o ‘derecho' no pretende ser una limitación en este documento. Aquí, el término 'aproximadamente' cuando se aplica a un valor generalmente significa dentro del rango de tolerancia del equipo usado para producir el valor, o puede significar más o menos 10%, o más o menos 5%, o más o menos 1%, a menos que se especifique expresamente lo contrario. Además, el término "sustancialmente" como se usa en este documento significa una mayoría, o casi todo, o todo, o una cantidad dentro de un rango de aproximadamente 51% a aproximadamente 100%. Además, los ejemplos de la presente están destinados a ser ilustrativos únicamente y se presentan con fines de discusión y no a modo de limitación.
[0024] De acuerdo con algunas realizaciones de los principios descritos en el presente documento, es un sistema de seguimiento de vehículo proporcionado. La figura 1 ilustra un diagrama de bloques de un sistema de vigilancia de vehículos 100 en un ejemplo, según una realización consistente con los principios descritos en este documento. La Figura 2A ilustra una vista en perspectiva de una región 102 monitoreada usando el sistema de vigilancia de vehículos 100 de la figura 1 en un ejemplo, de acuerdo con una realización consistente con los principios descritos aquí. La figura 2B ilustra una vista lateral de la región monitorizada 102 de la figura 2A en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. Por definición en el presente documento, la "región" que es monitoreada por el sistema de vigilancia de vehículos 100 es un área en la vecindad de, adyacente o alrededor de un vehículo (en adelante, la "región" puede denominarse colectivamente como "región adyacente"). Según diversas realizaciones, la región 102 que se supervisa puede incluir una o más de delante del vehículo, detrás del vehículo y a un lado del vehículo.
[0025] Por ejemplo, el sistema de monitorización de vehículos 100 puede usarse para monitorizar una región 102 detrás de un vehículo y así servir como una copia de seguridad o sistema de monitoreo de retrovisores. En particular, el sistema de vigilancia del vehículo 100 puede configurarse como un sistema de vigilancia del vehículo de retrovisor o asistencia de respaldo para ayudar a evitar colisiones cuando el vehículo se está moviendo hacia atrás. En otro ejemplo, la región 102 que se supervisa puede estar delante del vehículo. Como tal, el sistema de vigilancia del vehículo 100 puede servir como un sistema de prevención de colisiones frontal para cuando el vehículo está avanzando, por ejemplo.
[0026] Como se ilustra en la Figura 1, el sistema de vigilancia de vehículos 100 comprende un escáner de tres dimensiones (3D) 110. El escáner 3D 110 está configurado para analizar la región 102 adyacente al vehículo. El escaneo realizado por el escáner 3D se utiliza luego para generar o proporcionar un modelo 3d de la región 102. En particular, el modelo 3D incluye una configuración espacial de objetos 104 ubicados dentro de la región 102 que se escanea. La región 102 que se escanea adyacente al vehículo también puede denominarse en este documento la región 102 'escaneada' o, de manera equivalente, una región 102 de 'imagen'.
[0027] En general, el escáner 110 3D puede comprender cualquiera de una variedad de diferentes sistemas de escaneo o imagen 3D capaces de determinar una distancia a varios objetos 104 en la región escaneada 102. Según algunas realizaciones, el escáner 3D 110 comprende una pluralidad de cámaras desplazadas entre sí. La distancia desde el escáner 3D 110 a un objeto 104 dentro de la región escaneada 102 puede determinarse, por ejemplo, mediante estimación de disparidad usando imágenes separadas capturadas por diferentes cámaras de la pluralidad de cámaras. Por ejemplo, la pluralidad de cámaras puede comprender un par de cámaras binoculares y la distancia al objeto 104 puede determinarse usando la estimación de disparidad binocular dentro de la región 102 que se escanea. Un procesador de imágenes (no ilustrado en las Figuras 1, 2A, 2B) del sistema de vigilancia de vehículos 100 puede realizar la estimación de disparidad y además puede generar o proporcionar el modelo 3D a partir de la distancia determinada de estimación de disparidad a los objetos 104, de acuerdo con algunas realizaciones. El procesador de imágenes puede ser parte del escáner 3D 110, por ejemplo.
[0028] En otra realización, el escáner 3D 110 comprende un sistema de detección de luz y alcance sin escaner (LIDAR), como una cámara de tiempo de vuelo en donde la distancia se determina a partir de un tiempo de propagación de un impulso de luz reflejada por un objeto en la región 102 que se escanea. En particular, la cámara de tiempo de vuelo genera un pulso de luz usando un láser u otra fuente de luz similar. El pulso de luz se usa luego para iluminar la región escaneada 102. Cualquier objeto 104 dentro de la región escaneada 102 refleja el pulso de luz iluminante de regreso a la cámara de tiempo de vuelo. La distancia al objeto 104 se determina a partir de un período de tiempo o 'tiempo de vuelo' que tarda el pulso de luz iluminadora en propagarse al objeto, reflejarse en el objeto y luego regresar a un sensor óptico (por ejemplo, una matriz de plano focal) de la cámara de tiempo de vuelo. La distancia de tiempo de vuelo puede determinarse píxel por píxel usando la cámara de tiempo de vuelo para proporcionar el modelo 3D de la región escaneada 102, por ejemplo.
[0029] En otra realización, el escáner 3D 110 comprende un sensor de distancia configurado para medir una distancia a una pluralidad de puntos dentro de la región 102 que se escanea. La pluralidad de puntos puede incluir el objeto 104, por ejemplo. En algunas realizaciones que incluyen un sensor de distancia, el escáner 3D 110 puede comprender además una cámara configurada para capturar una imagen bidimensional (2D) correspondiente de la región escaneada 102. La distancia medida proporcionada por el sensor de distancia puede usarse para generar una o más de una nube de puntos y una malla de objetos de la región escaneada 102. A su vez, la nube de puntos o la malla de objetos pueden usarse directamente como modelo 3D o emplearse para generar el modelo 3D (por ejemplo, en un procesador de imágenes del sistema de vigilancia del vehículo 100). La imagen 2D capturada por la cámara se puede utilizar para pintar el modelo 3D. Por "pintar" se entiende que la imagen 2D se superpone o se combina con el modelo 3D (por ejemplo, cuando el modelo 3D se representa en una pantalla). Se puede emplear una variedad de sensores de distancia en esta realización del escáner 3D 110 que incluyen, pero no se limitan a un sensor de distancia acústico y un sensor de distancia óptico (por ejemplo, basado en láser de escaneo), por ejemplo.
[0030] En particular, el sensor de distancia del escáner 3D 110 puede comprender un láser configurado para escanear la región 102. Además, el sensor de distancia puede comprender un sensor óptico configurado para medir la distancia a la pluralidad de puntos usando luz láser reflejada desde uno o más objetos 104 en la región 102 que se escanea. Por ejemplo, el escáner 3D 110 puede comprender una cámara 3D Intel RealSense® que combina una cámara 2D, una segunda cámara de infrarrojos y un proyector láser de infrarrojos. La cámara 2D está configurada para capturar una imagen 2D de la región escaneada 102, mientras que el proyector láser infrarrojo y la segunda cámara infrarroja funcionan de manera cooperativa como sensor de distancia para recopilar información de distancia dentro de la región escaneada 102. Intel RealSense® e Intel® son marcas comerciales registradas de Intel Corporation, Santa Clara, CA, EE.UU.
[0031] El sistema de vigilancia de vehículo 100 ilustrado en la Figura 1 comprende además una pantalla electrónica 120. El seguimiento de pantalla electrónica 120 está configurado para mostrar una parte de la región 102 utilizando el modelo 3D. Además, la pantalla electrónica 120 está configurada para resaltar visualmente un objeto 104’ dentro de la parte mostrada que se encuentra a menos de un umbral de distancia desde el vehículo (o equivalentemente, desde el sistema de vigilancia del vehículo 100). El resaltado visual está configurado para mejorar la percepción del usuario del objeto 104' que está más cerca del vehículo que la distancia de umbral, según diversas realizaciones. La percepción mejorada del objeto resaltado visualmente 104’ puede facilitar evitar una colisión entre el objeto 104' y el vehículo, por ejemplo. En las Figuras 2A y 2B, la distancia de umbral, etiquetada dr, se ilustra como una distancia desde el sistema de vigilancia de vehículos 100 a un plano 106, ilustrado como un límite de línea discontinua que se cruza con (por ejemplo, biseca) el objeto 104’, dentro de la región monitorizada 102.
[0032] La Figura 3A ilustra una parte visualizada 108 de la región 102 en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. En particular, la Figura 3A ilustra los diversos objetos 104 en la región 102 que se escanea cuando los objetos 104 pueden aparecer en una pantalla de visualización de la pantalla electrónica 120. Por ejemplo, la pantalla electrónica 120 puede ser una pantalla electrónica bidimensional (2D). la pantalla 120 (por ejemplo, una pantalla LCD) y la parte 108 mostrada de la región escaneada 102 pueden mostrarse o representarse como una imagen 2D en la pantalla electrónica 2D. Además, como se ilustra en la Figura 3A, ninguno de los objetos 104 está resaltado visualmente.
[0033] De acuerdo con algunas formas de realización, el objeto 104' que está más cerca que la distancia umbral puede ser visualmente resaltado en o por la pantalla electrónica 120 usando una máscara aplicada al objeto 104'. Por ejemplo, se puede aplicar una máscara que comprenda sombreado en cruz o sombreado de color al objeto 104’ o una parte del mismo que se está resaltando. Además, la máscara puede comprender un color (por ejemplo, amarillo, rojo, etc.) configurado para llamar la atención sobre el objeto 104’ enmascarado, por ejemplo. En algunos ejemplos, la máscara se puede aplicar a cualquier parte (por ejemplo, cualquier píxel) de la región escaneada 102 que se determina que está a una distancia del vehículo que es menor que la distancia umbral.
[0034] La figura 3B ilustra un objeto 104’ resaltado visualmente en la parte 108 mostrada de la figura 3A en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. En particular, la Figura 3B ilustra la parte mostrada de la región escaneada 102 que incluye el objeto 104’ resaltado visualmente usando una máscara 210. Como se ilustra en la Figura 3B, la máscara 210 comprende un sombreado cruzado que se superpone sobre o en el objeto 104' que está más cerca que la distancia de umbral. El objeto 104’ completo está sustancialmente cubierto por la máscara 210 de sombreado cruzado en este ejemplo. En otros ejemplos (no ilustrados), solo la parte del objeto 104’ que está realmente más cerca que la distancia de umbral está cubierta por la máscara 210 para proporcionar un resaltado visual, mientras que el resto del objeto 104' puede estar sustancialmente sin la máscara 210 (es decir, descubierto por la máscara 210).
[0035] En otro ejemplo, el resaltado visual representado en la pantalla electrónica 120 comprende un contorno que rodea un borde o periferia del objeto que está más cerca que la distancia umbral. El contorno puede comprender un color para llamar la atención específica sobre el objeto tal como, pero no limitado a, amarillo, naranja o rojo, por ejemplo. Además, en algunos ejemplos, el contorno puede proporcionarse alrededor de cualquier parte o partes de la región 102 que se determine que está a menos de la distancia umbral del vehículo. En algunos ejemplos, el contorno se puede usar junto con la máscara (por ejemplo, el objeto enmascarado también se puede delinear).
[0036] En aún otros ejemplos, un icono de alerta puede aparecer en la pantalla electrónica 120 para resaltar el objeto determinado a estar a una distancia del vehículo que es menor que la distancia de umbral. Por ejemplo, el icono de alerta puede mostrarse superpuesto sobre el objeto o, de manera equivalente, la parte de la región escaneada 102 que se encuentra dentro de la distancia umbral. El icono de alerta se puede representar en un color que llame la atención y puede incluir, entre otros, un triángulo, un círculo o un cuadrado, por ejemplo. El triángulo, círculo o cuadrado puede circunscribir un signo de exclamación u otro carácter alfanumérico, en algunos ejemplos, para llamar más la atención sobre el icono de alerta. En algunas realizaciones, el icono de alerta puede usarse junto con una o ambas de la máscara y el contorno (por ejemplo, el icono de alerta puede estar ubicado dentro de la máscara o el contorno).
[0037] La figura 3C ilustra un objeto 104’ resaltado visualmente en la parte 108 mostrada de la figura 3A en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento. En particular, la figura 3C ilustra la parte mostrada de la región escaneada 102 que incluye el objeto 104’ resaltado visualmente usando un contorno 220. Además, en la figura 3C se ilustra un icono de alerta 230. Mientras que el icono de alerta 230 puede estar ubicado generalmente en cualquier lugar de la pantalla mostrada, en la figura 3C el icono de alerta 230 está ubicado dentro del contorno 220 y superpuesto sobre el objeto 104’, a modo de ejemplo.
[0038] Con referencia de nuevo a las figuras 1, la pantalla electrónica 120 del sistema de vigilancia de vehículos 100 puede comprender una pantalla electrónica 3D 120, según algunas realizaciones. Según la invención, la distancia de umbral corresponde a un plano de disparidad cero asociado con la parte de la región 102 que se muestra en la pantalla electrónica 3D 120. Además, el objeto 104’ resaltado visualmente puede ser un objeto percibido como si estuviera frente al plano de disparidad cero de la pantalla electrónica 3D 120, según algunas realizaciones. De acuerdo con la invención, cuando se visualiza o representa, el objeto 104’ ubicado a una distancia menor que la distancia de umbral se representa en la pantalla electrónica 3D 120 frente al plano de disparidad cero. Como tal, el objeto es percibido (por ejemplo, por un espectador) como que sobresale o se proyecta desde o está enfrente de una superficie de visualización física de la pantalla electrónica 3D 120 para resaltar visualmente el objeto 104’, según varias realizaciones.
[0039] La figura 4 ilustra una vista en perspectiva de una pantalla electrónica 3D 120 que representa un objeto 104’ resaltado visualmente en un ejemplo, de acuerdo con otra realización consistente con la invención. En particular, la Figura 4 ilustra una parte 108 visualizada de la región escaneada 102 que incluye el objeto 104’ resaltado visualmente al ser renderizado delante del plano de disparidad cero. El objeto 104’ (por ejemplo, una bicicleta de juguete para niños) aparece en la pantalla electrónica 3D como proyectado fuera de o estando frente a una superficie física 120' de la pantalla electrónica 3D. Otros objetos 104 que están a una distancia que es mayor que la distancia umbral aparecen detrás de la superficie física 120' de la pantalla electrónica en 3D, como se ilustra en la Figura 4.
[0040] En algunas realizaciones, una transformación proyectiva se puede aplicar al modelo 3D antes de que la parte mostrada se represente en la pantalla electrónica 3D 120. En particular, el sistema de vigilancia de vehículos 100 puede comprender además un procesador de imágenes, por ejemplo, como se describe a continuación con respecto a la Figura 6. El procesador de imágenes puede ser parte de la pantalla electrónica 3D 120, por ejemplo. En otros ejemplos, el procesador de imagen es parte del escáner 3D 110 o puede ser otro elemento (por ejemplo, por separado) del sistema de vigilancia de vehículos 100.
[0041] El procesador de imagen puede estar configurado para aplicar la transformación proyectiva al modelo 3D antes para que la parte mostrada se represente en la pantalla electrónica 3D 120. Según varias realizaciones, la transformación proyectiva está configurada para mejorar un tamaño relativo del objeto 104’ resaltado visualmente en comparación con otros objetos 104 en la imagen a una distancia mayor que la distancia umbral correspondiente al plano de disparidad cero. Como resultado, no solo el objeto 104’ resaltado visualmente aparecerá frente a la superficie de visualización física 120' de la pantalla electrónica 3d 120, el objeto 104’ resaltado visualmente se distorsionará espacialmente o aumentará de tamaño como se muestra en la pantalla electrónica 3D 120. El efecto es como si el objeto 104’ resaltado visualmente se magnifica, agranda o infla o expande visualmente en relación con los otros objetos mostrados por la pantalla electrónica 3D 120. Por ejemplo, el objeto 104' ilustrado en la Figura 4 está distorsionado espacialmente por aplicación de la transformación proyectiva. Como tal, la percepción del objeto 104’ resaltado visualmente se mejora aún más por la representación distorsionada por el tamaño resultante de la aplicación de la transformación proyectiva, según diversas realizaciones.
[0042] De acuerdo con diversas realizaciones, la pantalla electrónica 3D 120 puede ser sustancialmente cualquier pantalla electrónica 3D. En particular, en algunas realizaciones, la pantalla electrónica 3D 120 es una pantalla electrónica 3D 120 basada en red de haces múltiples que comprende una luz de fondo basada en red de haces múltiples y una capa de modulación de luz. La figura 5A ilustra una vista en sección transversal de la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. La figura 5B ilustra una vista en sección transversal de la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento. La figura 5C ilustra una vista en perspectiva de una parte de la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. La parte de la pantalla electrónica 3D 120 ilustrada en la Figura 5C puede representar la pantalla electrónica 3D 120 ilustrada en la Figura 5A o la Figura 5B, por ejemplo. Según varias realizaciones, la pantalla electrónica 3D 120 que tiene la luz de fondo basada en red de haces múltiples puede proporcionar una percepción mejorada del objeto resaltado visualmente como se describe anteriormente.
[0043] De acuerdo con diversas realizaciones, la pantalla electrónica 3D 120 ilustrada en las figuras 5A-5C está configurada para producir luz 'direccional' modulada, es decir, luz que comprende haces de luz que tienen diferentes direcciones principales angulares. Por ejemplo, como se ilustra en las Figuras 5A-5C, la pantalla electrónica 3D 120 puede proporcionar o generar una pluralidad de haces de luz ilustrados como flechas dirigidas hacia afuera y lejos de la pantalla electrónica 3D 120 en diferentes direcciones angulares principales predeterminadas (por ejemplo, como un campo de luz). A su vez, los haces de luz de la pluralidad pueden modularse para facilitar la visualización de información que tiene contenido 3D que incluye, pero no se limita al objeto resaltado visualmente. En algunas realizaciones, los haces de luz modulados que tienen diferentes direcciones angulares principales predeterminadas forman una pluralidad de píxeles de la pantalla electrónica 3D 120. Además, la pantalla electrónica 3D 120 es una pantalla electrónica 3D llamada 'sin gafas' (por ejemplo, una visualización de vista múltiple, 'holográfica' o autoestereoscópica) en donde los haces de luz corresponden a los píxeles asociados con diferentes 'vistas' de la pantalla electrónica 3D 120.
[0044] Como se ilustra en las figuras 5A, 5B y 5C, la luz de fondo basada en rejilla de haces múltiples de la pantalla electrónica 3D 120 comprende una guía de luz 122. En particular, la guía de luz 122 puede ser una guía de luz de placa 122, según algunas realizaciones. La guía de luz de placa 122 está configurada para guiar la luz desde una fuente de luz (no ilustrada en las Figuras 5A-5C) como luz guiada (ilustrada como una flecha extendida que se propaga en la guía de luz 122, como se describe más adelante). Por ejemplo, la guía de luz de placa 122 puede incluir un material dieléctrico configurado como guía de ondas óptica. El material dieléctrico puede tener un primer índice de refracción que sea mayor que un segundo índice de refracción de un medio que rodea la guía de ondas óptica dieléctrica. La diferencia en los índices de refracción está configurada para facilitar la reflexión interna total de la luz guiada según uno o más modos guiados de la guía de luz de placa 122, por ejemplo.
[0045] En diversas realizaciones, la luz de la fuente de luz es guiada como un haz de luz a lo largo de una longitud de la placa de guía de luz 122. Además, la guía de luz de la placa 122 puede estar configurada para guiar la luz (es decir, el haz de luz guiado) en un ángulo de propagación distinto de cero. El haz de luz guiado puede ser guiado con un ángulo de propagación distinto de cero dentro de la guía de luz de placa 122 usando la reflexión interna total, por ejemplo. En particular, el haz de luz guiado se propaga reflejándose o 'rebotando' entre la superficie superior y la superficie inferior de la guía de luz de la placa 122 en el ángulo de propagación distinto de cero (por ejemplo, ilustrado por la flecha en ángulo extendida que representa un rayo de luz del haz de luz guiado).
[0046] Tal como se define en el presente documento, el 'ángulo de propagación no cero’ es un ángulo con respecto a una superficie (por ejemplo, una superficie superior o una superficie inferior) de la placa de guía de luz 122. En algunos ejemplos, el ángulo de propagación no cero del haz de luz guiado puede estar entre aproximadamente diez (10) grados y aproximadamente cincuenta (50) grados o, en algunos ejemplos, entre aproximadamente veinte (20) grados y aproximadamente cuarenta (40) grados, o entre aproximadamente veinticinco (25) grados y aproximadamente treinta y cinco (35) grados. Por ejemplo, el ángulo de propagación distinto de cero puede ser de aproximadamente treinta (30) grados. En otros ejemplos, el ángulo de propagación distinto de cero puede ser de aproximadamente 20 grados, o aproximadamente 25 grados, o aproximadamente 35 grados.
[0047] En algunos ejemplos, la luz de una fuente de luz se introduce o se acopla en la guía de luz de la placa 122 en el ángulo de propagación no cero (por ejemplo, unos 30-35 grados). Uno o más de una lente, un espejo o reflector similar (por ejemplo, un reflector de colimación inclinado) y un prisma (no ilustrado) pueden facilitar el acoplamiento de la luz en un extremo de entrada de la guía de luz de la placa 122 como el haz de luz en el ángulo de propagación no cero, por ejemplo. Una vez acoplado a la guía de luz de placa 122, el haz de luz guiado se propaga a lo largo de la guía de luz de placa 122 en una dirección que generalmente está alejada del extremo de entrada (por ejemplo, ilustrado por flechas en negrita que apuntan a lo largo de un eje x en las figuras 5A-5B).
[0048] Además, el haz de luz guiado producido por el acoplamiento de la luz en la guía de luz de la placa 122 puede ser un haz de luz colimado, de acuerdo con algunos ejemplos. En particular, por "haz de luz colimado" se entiende que los rayos de luz dentro del haz de luz guiado son sustancialmente paralelos entre sí dentro del haz de luz guiado. Los rayos de luz que divergen o se dispersan del haz de luz colimado del haz de luz guiado no se consideran parte del haz de luz colimado, por definición aquí. La colimación de la luz para producir el haz de luz guiado colimado puede ser proporcionada por la lente o espejo (por ejemplo, reflector colimador inclinado, etc.) usado para acoplar la luz en la guía de luz de placa 122, por ejemplo.
[0049] En algunos ejemplos, la placa de guía de luz 122 puede ser una losa o placa de guía de ondas óptica que comprende una hoja extendida sustancialmente plana de material ópticamente transparente, dieléctrico. La hoja sustancialmente plana de material dieléctrico está configurada para guiar el haz de luz guiado usando una reflexión interna total. De acuerdo con varios ejemplos, el material ópticamente transparente de la guía de luz de placa 122 puede incluir o estar compuesto por cualquiera de una variedad de materiales dieléctricos que incluyen, pero no se limitan a, uno o más de varios tipos de vidrio (por ejemplo, vidrio de sílice, vidrio alcalino-aluminosilicato, vidrio borosilicato, etc.) y plásticos o polímeros sustancialmente ópticamente transparentes (por ejemplo, poli(metilo metacrilato) o 'vidrio acrílico', policarbonato, etc.). En algunos ejemplos, la guía de luz de placa 122 puede incluir además una capa de revestimiento en al menos una parte de una superficie (por ejemplo, una o ambas de la superficie superior y la superficie inferior) de la guía de luz de placa 122 (no ilustrada). La capa de revestimiento se puede utilizar para facilitar aún más la reflexión interna total, según algunos ejemplos.
[0050] En las figuras 5A, 5B y 5C, la luz de fondo a base de rejilla de haces múltiples de la pantalla electrónica 3D ilustrada 120 comprende, además, un conjunto de redes de difracción de haces múltiples 124. Como se ilustra en las figuras 5A-5B, las redes de difracción de haces múltiples 124 están situadas en una superficie de la guía de luz de placa 122 (por ejemplo, una superficie superior o frontal). En otros ejemplos (no ilustrados), una o más de las redes de difracción de haces múltiples 124 pueden estar ubicadas dentro de la guía de luz de placa 122. En otros ejemplos más (no ilustrados), una o más de las redes de difracción de haces múltiples 124 pueden estar ubicadas sobre o en una superficie inferior o trasera de la guía de luz de placa 122 (es decir, una superficie opuesta a la superficie ilustrada con las redes de difracción de haces múltiples 124). En combinación, la guía de luz de la placa 122 y el conjunto de redes de difracción de haces múltiples 124 proporcionan o sirven como luz de fondo a base de rejilla de haces múltiples de la pantalla electrónica 3D 120.
[0051] De acuerdo con diversas realizaciones, una red de difracción de haces múltiples 124 de la matriz es configurada para dispersar o acoplar difractivamente una parte del haz de luz guiado como una pluralidad de haces de luz que tienen diferentes direcciones angulares principales correspondientes a diferentes vistas de la pantalla electrónica 3D 120. Por ejemplo, la parte del haz de luz guiado puede estar acoplada de forma difractiva a través de la red de difracción de haces múltiples 124 a través de la superficie de la guía de luz de la placa (por ejemplo, a través de la superficie superior de la guía de luz 122 de la placa). Además, la red de difracción de haces múltiples 124 está configurada para acoplar difractivamente la parte del haz de luz guiado como haces de luz acoplados y para redirigir de manera difractiva los haces de luz acoplados lejos de la superficie de la guía de luz de la placa como la pluralidad de haces de luz. Como se discutió anteriormente, cada uno de los haces de luz de la pluralidad tiene una dirección angular principal predeterminada diferente determinada por las características de las características de difracción de la red de difracción de haces múltiples 124.
[0052] De acuerdo con varias realizaciones, las redes de difracción de haces múltiples 124 de la matriz incluyen una pluralidad de características difractivas que proporcionan difracción. La difracción proporcionada es responsable del acoplamiento difractivo de la parte del haz de luz guiado fuera de la guía de luz de placa 122. Por ejemplo, la red de difracción de haces múltiples 124 puede incluir una o ambas ranuras en una superficie de la guía de luz de placa 122 y crestas que sobresalen de la superficie de la guía de luz de la placa que sirven como características de difracción. Las ranuras y crestas pueden estar dispuestas paralelas entre sí y, al menos en algún punto a lo largo de las características de difracción, las ranuras y crestas son perpendiculares a una dirección de propagación del haz de luz guiado que debe ser acoplado por la red de difracción de haces múltiples 124.
[0053] En algunos ejemplos, las ranuras o crestas pueden ser grabadas, molidas o moldeadas en la superficie de guía de luz de placa. Como tal, un material de las redes de difracción de haces múltiples 124 puede incluir el material de la guía de luz de placa 122. Como se ilustra en la Figura 5A, por ejemplo, las redes de difracción de haces múltiples 124 incluyen ranuras sustancialmente paralelas que penetran la superficie de la guía de luz de placa 122. En la figura 5B, las redes de difracción de haces múltiples 124 incluyen crestas sustancialmente paralelas que sobresalen de la superficie de la guía de luz de placa 122. En otros ejemplos (no ilustrados), las redes de difracción de haces múltiples 124 pueden ser una película o capa aplicada o fijada a la superficie de la guía de luz de la placa.
[0054] De acuerdo con algunas realizaciones, la red de difracción de haces múltiples 124 puede ser o comprender una red de difracción chirped. Por definición, la red de difracción chirped es una red de difracción que exhibe o tiene un espaciado de difracción de las características de difracción (es decir, un paso de difracción) que varía en una extensión o longitud de la red de difracción chirped, por ejemplo, como se ilustra en las figuras 5A-5C. Aquí, el espaciado de difracción variable se define y se denomina "chirped". Como resultado del chirped, la parte del haz de luz guiado que está acoplada difractivamente fuera de la guía de luz de placa 122 sale o se emite desde la red de difracción chirped como los haces de luz acoplados en diferentes ángulos de difracción correspondientes a diferentes puntos de origen a través de la red de difracción chirped de la red de difracción de haces múltiples 124. En virtud de un chirped predefinido, la red de difracción chirped es responsable de las direcciones angulares principales predeterminadas y diferentes de los haces de luz acoplados de la pluralidad de haces de luz.
[0055] En algunos ejemplos, la red de difracción chirped de la red de difracción de haces múltiples 124 puede tener o exhibir un chirp de la separación de difracción que varía linealmente con la distancia. Como tal, la red de difracción chirped es una red de difracción de 'chirped lineal’, por definición. Las figuras 5A-5C ilustran la red de difracción de haces múltiples 124 como una red de difracción linealmente chirped, por ejemplo. En particular, como se ilustra, las características de difracción están más juntas en un segundo extremo de la red de difracción de haces múltiples 124 que en un primer extremo. Además, la separación difractiva de las características difractivas ilustradas varía linealmente desde el primer extremo al segundo extremo, como se ilustra a modo de ejemplo y no de limitación.
[0056] En otro ejemplo (no ilustrado), la red de difracción chirped de la red de difracción de haces múltiples 124 puede exhibir un chirp no lineal de la separación de difracción. Varios chirpeds no lineales que pueden usarse para realizar la red de difracción de haces múltiples 124 incluyen, pero no se limitan a, un chirped exponencial, un chirped logarítmico o un chirped que varía de otra manera sustancialmente no uniforme o aleatoria pero aún monótona. También se pueden emplear chirpeds no monótonos tales como, pero sin limitarse a, un chirped sinusoidal o un chirped triangular o de diente de sierra. También se pueden emplear combinaciones de cualquiera de estos tipos de chirpeds.
[0057] De acuerdo con algunas realizaciones, la red de difracción de haces múltiples 124 puede comprender características de difracción que son uno o ambos de curvado y chirped. La figura 5C ilustra una vista en perspectiva de una red de difracción de haces múltiples 124 a, en o sobre una superficie de la guía de luz de placa 122 que está curvada y con chirpeds (es decir, la red de difracción de haces múltiples 124 es una red de difracción chirped curvada). En la figura 5C, el haz de luz guiado tiene una dirección de incidencia con respecto a la red de difracción de haces múltiples 124 ilustrada como una flecha en negrita en un primer extremo de la red de difracción de haces múltiples 124. También se ilustra la pluralidad de haces de luz emitidos o acoplados ilustrados por flechas que apuntan en dirección opuesta a la red de difracción de haces múltiples 124 en la superficie de la guía de luz de placa 122. Como se ilustra, los haces de luz se emiten en una pluralidad de direcciones angulares principales diferentes predeterminadas. En particular, las diferentes direcciones angulares principales predeterminadas de los haces de luz emitidos son diferentes entre sí tanto en azimut como en elevación, como se ilustra. Según varios ejemplos, tanto el chirped predefinido de las características difractivas como la curva de las características difractivas pueden ser responsables de las diferentes direcciones angulares principales predeterminadas de los haces de luz emitidos.
[0058] En particular, en diferentes puntos a lo largo de la curva de las características de difracción, una 'red de difracción subyacente' de la red de difracción de haces múltiples 124 asociada con las características de difracción curvada tiene diferentes ángulos de orientación azimutal yf. Por “red de difracción subyacente" se entiende una red de difracción de una pluralidad de redes de difracción no curvadas que, en superposición, producen las características difractivas curvas de la red de difracción de haces múltiples 124. En un punto dado a lo largo de las características difractivas curvas, la curva tiene un ángulo de orientación azimutal particular y f que generalmente difiere del ángulo de orientación azimutal y f en otro punto a lo largo de las características difractivas curvas. Además, el ángulo de orientación azimutal particular y f da como resultado un componente azimutal correspondiente y de una dirección angular principal {8, y } de un haz de luz emitido desde el punto dado. En algunos ejemplos, la curva de las características de difracción (por ejemplo, surcos, crestas, etc.) puede representar una sección de un círculo. El círculo puede ser coplanar con la superficie de la guía de luz. En otros ejemplos, la curva puede representar una sección de una elipse u otra forma curva, por ejemplo, que es coplanar con la superficie de la guía de luz.
[0059] Con referencia de nuevo a las figuras 5A-5B, la capa de modulación de la pantalla electrónica 3D 120 comprende una válvula de luz de matriz 126. De acuerdo con diversas realizaciones, la matriz de válvula de luz 126 está configurada para modular los haces de luz dirigidos de manera diferente (es decir, la pluralidad de haces de luz que tienen diferentes direcciones angulares principales predeterminadas) correspondientes a las diferentes vistas de la pantalla electrónica 3D 120. En particular, los haces de luz de la pluralidad de haces de luz atraviesan y son modulados por válvulas de luz individuales del conjunto de válvulas de luz 126. Los haces de luz modulados, de diferente manera directa, pueden representar píxeles de la pantalla electrónica 3D 120, según diversas realizaciones. En varios ejemplos, se pueden emplear diferentes tipos de válvulas luminosas en la matriz 126 de válvulas luminosas que incluyen, pero no se limitan a, una o más válvulas luminosas de cristal líquido, válvulas luminosas electroforéticas y válvulas luminosas basadas en electrohumectación.
[0060] De acuerdo con algunos ejemplos de los principios descritos en el presente documento, se proporciona un sistema de vigilancia del vehículo de tres dimensiones (3D). La figura 6 ilustra un diagrama de bloques de un sistema de vigilancia de vehículos tridimensional (3D) 300 en un ejemplo, de acuerdo con una realización de los principios descritos en este documento. En particular, el sistema de vigilancia de vehículos (3D) 300 puede configurarse para evitar colisiones cuando un vehículo se mueve en una dirección supervisada. Por ejemplo, el sistema 300 de monitorización de vehículos en 3D se puede configurar para monitorizar una región detrás del vehículo y así proporcionar asistencia de respaldo a un operador del vehículo.
[0061] Como se ilustra en la Figura 6, el sistema de vigilancia de vehículos 3D 300 comprende una cámara 3D 310. En algunas realizaciones, la cámara 3D 310 es una cámara con orientación hacia atrás 3D 310. La cámara 3D 310 está configurada para capturar una imagen 3D de una región adyacente al vehículo (por ejemplo, detrás del vehículo). Según varias realizaciones, la cámara 3D 310 puede ser sustancialmente similar al escáner 3D 110 descrito anteriormente con respecto al sistema de vigilancia de vehículos 100. En particular, la cámara 3D 310 puede comprender una o más de una pluralidad de cámaras desplazadas entre sí, una cámara de tiempo de vuelo y una combinación de un sensor de distancia basado en láser y una cámara bidimensional (2D) configurada para monitorear la región adyacente al vehículo.
[0062] El sistema de vigilancia de vehículos 3D 300 ilustrado en la Figura 6 comprende además un procesador de imágenes 320. El procesador de imagen 320 está configurado para proporcionar un modelo 3D de la región fotografiada 3D utilizando la imagen en 3D capturada por la cámara 3D 310. Según diversas realizaciones, el modelo 3D incluye una configuración espacial de objetos dentro de la región de imágenes 3D. La región con imágenes 3D y los objetos dentro de la región de 3D fotografiada pueden ser sustancialmente similares a la región 102 y los objetos 104, 104' descritos anteriormente con respecto al sistema de vigilancia de vehículos 100.
[0063] Según la invención, el sistema de vigilancia de vehículos 3D 300 comprende además una pantalla electrónica 3D 330. La pantalla electrónica 3D 330 está configurada para mostrar una parte de la región de imagen 3D usando el modelo 3D. Según algunas realizaciones, cualquier objeto dentro de la parte mostrada ubicado a una distancia del vehículo (por ejemplo, una distancia desde la parte trasera del vehículo) que sea menor que una distancia de umbral puede resaltarse visualmente en la pantalla electrónica 3D 330. En particular, la pantalla electrónica 3D 330 está configurada además para resaltar visualmente el objeto dentro de la parte mostrada que se encuentra a menos de la distancia umbral del vehículo, según algunas realizaciones.
[0064] En algunas realizaciones, la pantalla electrónica 3D 330 es sustancialmente similar a la pantalla electrónica 3D 120 del sistema de vigilancia de vehículos 100, descrito anteriormente. Por ejemplo, la distancia de umbral corresponde según la invención a un plano de disparidad cero asociado con la parte de la región de imagen 3D que se muestra en la pantalla electrónica 3D 330. El objeto visualmente resaltado se percibe como si estuviera delante del plano de disparidad cero (es decir, delante de una superficie física de la pantalla electrónica 3D 330) de acuerdo con la invención. Además, en algunas realizaciones, el procesador de imágenes 320 está configurado además para aplicar una transformación proyectiva al modelo 3D antes de que la parte mostrada se represente en la pantalla electrónica 3D 330. La transformación proyectiva aplicada puede configurarse para mejorar un tamaño relativo del objeto visualmente resaltado en comparación con otros objetos en la parte mostrada ubicada a una distancia que es mayor que la distancia de umbral correspondiente al plano de disparidad cero.
[0065] En algunas realizaciones, la pantalla electrónica 3D 330 puede comprender una pantalla electrónica 3D basada en red de haces múltiples. Por ejemplo, en algunas realizaciones, la pantalla electrónica 3D 330 puede ser sustancialmente similar a la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples y una capa de modulación descrita anteriormente con respecto al sistema de vigilancia del vehículo 100. En particular, la pantalla electrónica 3D 330 puede comprender luz de fondo basada en red de haces múltiples y una capa de modulación. La retroiluminación basada en red de haces múltiples puede comprender una guía de luz para guiar un haz de luz (por ejemplo, un haz de luz colimado) y una matriz de redes de difracción de haces múltiples configuradas para acoplar difractivamente porciones del haz de luz guiado como una pluralidad de haces de luz dirigidos lejos de la guía de luz. La guía de luz y las redes de difracción de haces múltiples pueden ser sustancialmente similares a la guía de luz de placa 122 y las redes de difracción de haces múltiples 124 descritas anteriormente para el sistema de vigilancia de vehículos 100. Además, la capa de modulación puede comprender una matriz de válvulas de luz para modular los haces de luz de dirección diferente. Los haces de luz modulados y dirigidos de manera diferente forman una pluralidad de vistas diferentes de la pantalla electrónica 3D 330, según varias realizaciones. La matriz de válvulas de luz puede ser sustancialmente similar a la matriz de válvulas de luz 126 descrita anteriormente con respecto al sistema de vigilancia del vehículo 100. En particular, los haces de luz modulados y dirigidos de manera diferente tienen diferentes direcciones angulares principales predeterminadas que forman una pluralidad de píxeles asociados con diferentes 'vistas' de la pantalla electrónica 3D 330.
[0066] Según algunas realizaciones (no ilustradas), la pantalla electrónica 3D 330 puede incluir además una fuente de luz. La fuente de luz está configurada para proporcionar luz que se propaga en la guía de luz como haz de luz guiado. En particular, la luz guiada es luz de la fuente de luz que se acopla al borde (o extremo de entrada) de la guía de luz, según algunas realizaciones. Por ejemplo, una lente, un reflector colimador o un dispositivo similar (no ilustrado) puede facilitar el acoplamiento de la luz en la guía de luz en el extremo de entrada o borde de la misma. En varios ejemplos, la fuente de luz puede comprender sustancialmente cualquier fuente de luz que incluye, pero no se limita a, un diodo emisor de luz (LED). En algunos ejemplos, la fuente de luz puede comprender un emisor óptico configurado para producir una luz sustancialmente monocromática que tiene un espectro de banda estrecha indicado por un color particular. En particular, el color de la luz monocromática puede ser un color primario de un espacio de color o modelo de color particular (por ejemplo, un modelo de color rojo-verde-azul (RGB)).
[0067] De acuerdo con algunos ejemplos de los principios descritos en el presente documento, se proporciona un método de vigilancia de vehículos. El método de vigilancia de vehículos se puede utilizar para monitorizar un área o región adyacente a un vehículo. El área o región puede incluir, pero no se limita a, una región delante, a un lado y detrás o en la parte trasera del vehículo, por ejemplo.
[0068] La figura 7 ilustra un diagrama de flujo de un método de vigilancia de vehículos 400 en un ejemplo, según una realización consistente con los principios descritos en el presente documento. Como se ilustra en la figura 7, el método de vigilancia de vehículos 400 comprende capturar 410 un escaneo 3D de una región adyacente a un vehículo usando un escáner 3D. De acuerdo con varias realizaciones, el escáner 3D utilizado en la captura 410 puede ser sustancialmente similar al escáner 3D 110 descrito anteriormente con respecto al sistema de vigilancia de vehículos 100. Por ejemplo, el escáner 3D puede comprender una o más de una pluralidad de cámaras desplazadas desde entre sí (por ejemplo, un par de cámaras binoculares), una cámara de tiempo de vuelo y una combinación de un sensor de distancia basado en láser y una cámara bidimensional (2D). En algunos ejemplos, el escáner 3D puede ser sustancialmente similar a la cámara 3D 310 descrita anteriormente con respecto al sistema de vigilancia de vehículos 3D 300.
[0069] El método de vigilancia de vehículos 400 ilustrado en la figura 7 comprende además la producción de un modelo 3D del escaneado capturado 3D. Según diversas formas de realización, el modelo 3D incluye una configuración espacial de objetos ubicados dentro de la región escaneada. El modelo 3D se puede producir a partir del escaneo 3D usando una o ambas de una nube de puntos y una malla de objetos producida por el escáner 3D, por ejemplo.
[0070] De acuerdo con diversas realizaciones, el método de vigilancia de vehículos 400 comprende además exhibir una parte 430 de la región escaneada utilizando el modelo 3D. Según varias realizaciones, mostrar una parte 430 de la región escaneada comprende resaltar visualmente un objeto dentro de la parte mostrada que está a una distancia del vehículo menor que una distancia de umbral. En algunas realizaciones, mostrar una parte 430 de la región escaneada puede emplear una pantalla electrónica sustancialmente similar a la pantalla electrónica 120 del sistema de vigilancia del vehículo 100, descrito anteriormente. Además, resaltar visualmente el objeto puede ser sustancialmente similar a cualquier forma de resaltar visualmente descrita anteriormente. Por ejemplo, el objeto puede resaltarse visualmente usando una o más de una máscara, un contorno y un icono de alerta. En otro ejemplo, mostrar una parte 430 de la región escaneada comprende usar una pantalla electrónica 3D, por ejemplo, como se describió anteriormente con respecto a la pantalla electrónica 3D 330 del sistema de vigilancia de vehículos 3D 300. Con una pantalla electrónica 3D, el objeto resaltadp visualmente parece estar delante de un plano de disparidad cero de la pantalla electrónica 3D correspondiente a la distancia de umbral.
[0071] De acuerdo con algunas formas de realización, mostrando una parte 430 de la región escaneada utilizando una pantalla electrónica 3D (por ejemplo, una pantalla electrónica 3D que tiene una luz de fondo basada en red de haces múltiples) puede comprender además luz de guía en una placa de guía de luz como un haz de luz en un ángulo de propagación distinto de cero. Mostrar una parte 430 de la región escaneada usando una pantalla electrónica 3D puede comprender además acoplar difractivamente una parte del haz de luz guiado usando una matriz de redes de difracción de haces múltiples en la guía de luz de placa. El acoplamiento difractivo de la parte del haz de luz guiado puede comprender producir una pluralidad de haces de luz acoplados que se dirigen lejos de la guía de luz de la placa en una pluralidad de diferentes direcciones angulares principales correspondientes a diferentes vistas de la pantalla electrónica 3D, por ejemplo. Además, mostrar una parte 430 de la región escaneada usando una pantalla electrónica 3D puede comprender además modular la pluralidad de haces de luz acoplados usando una pluralidad de válvulas de luz, representando los haces de luz modulados píxeles de la pantalla electrónica 3D.
[0072] Además, el método de vigilancia de vehículos 400 puede comprender la aplicación de una transformación proyectiva al modelo 3D antes de mostrar la porción 430 de la región escaneada en la pantalla 3D. En algunas realizaciones, la transformación proyectiva puede incluir una compresión en profundidad de la parte visualizada para mejorar un tamaño relativo del objeto resaltado en comparación con los objetos en la imagen a una distancia mayor que la distancia umbral correspondiente al plano de disparidad cero.
[0073] De este modo, se han descrito ejemplos de un sistema de vigilancia del vehículo, un sistema de vigilancia de vehículos en 3D y un método de vigilancia de vehículo que resaltan visualmente un objeto que está más cerca de un vehículo de una distancia umbral. Debe entenderse que los ejemplos descritos anteriormente son simplemente ilustrativos de algunos de los muchos ejemplos específicos que representan los principios descritos en este documento. Claramente, los expertos en la técnica pueden idear fácilmente otras numerosas disposiciones sin apartarse del alcance de la invención tal como se define en las siguientes reivindicaciones.

Claims (13)

REIVINDICACIONES
1. Un sistema de vigilancia de vehículos (100, 300) que comprende:
un escáner tridimensional 3D, (110, 310) configurado para escanear una región (102) adyacente a un vehículo, siendo utilizado el escaneo para proporcionar un modelo 3D que incluye una configuración espacial de objetos ubicados dentro de la región escaneada; y
una pantalla electrónica (120, 330) configurada para mostrar una parte (108) de la región escaneada usando el modelo 3D y para resaltar visualmente un objeto (104') dentro de la parte mostrada que se encuentra a menos de un umbral de distancia del vehículo,
en donde el resaltado visual está configurado para mejorar la percepción del usuario del objeto que está más cerca del vehículo que la distancia de umbral
caracterizado porque la pantalla electrónica comprende una pantalla electrónica 3D, la distancia de umbral corresponde a un plano de disparidad cero asociado con la parte de la región escaneada mostrada por la pantalla electrónica 3D, y en donde el resaltado visual del objeto ubicado a menos de la distancia umbral (106) del vehículo es una percepción visual del objeto que está frente al plano de disparidad cero en la pantalla electrónica 3D.
2. El sistema de vigilancia de vehículos de la reivindicación 1, en donde el escáner 3D comprende una pluralidad de cámaras desplazadas entre sí, determinándose una distancia desde el escáner 3D mediante estimación de disparidad usando imágenes separadas capturadas por diferentes cámaras de la pluralidad, o
en donde el escáner 3D comprende una cámara de tiempo de vuelo.
3. El sistema de vigilancia de vehículos de la reivindicación 1, en donde el escáner 3D comprende:
un sensor de distancia configurado para medir una distancia a una pluralidad de puntos dentro de la región escaneada desde el sensor de distancia; y
una cámara configurada para capturar una imagen bidimensional (2D) de la región escaneada, la distancia medida se usa para generar una o ambas de una nube de puntos y una malla de objetos para proporcionar el modelo 3D, la imagen 2D se usa para pintar el modelo 3D.
4. El sistema de vigilancia de vehículos de la reivindicación 3, en donde el sensor de distancia comprende:
un láser configurado para escanear la región escaneada; y
un sensor óptico configurado para medir la distancia a la pluralidad de puntos usando luz láser reflejada de objetos en la región escaneada.
5. El sistema de vigilancia de vehículos de la reivindicación 1, en donde el resaltado visual del objeto que está ubicado a menos de un umbral de distancia del vehículo dentro de la parte exhibida comprende una o más de una máscara (210) aplicada al objeto exhibido, un contorno (220) alrededor del objeto mostrado, y un icono de alerta (230) que indica el objeto mostrado por la pantalla electrónica.
6. El sistema de monitorización de vehículos de la reivindicación 1, que comprende además un procesador de imágenes (320) configurado para aplicar una transformación proyectiva al modelo 3D antes de que la parte mostrada se represente en la pantalla electrónica 3D, estando configurada la transformación proyectiva para mejorar un tamaño relativo del objeto resaltado en comparación con los objetos en la parte mostrada a una distancia mayor que la distancia de umbral correspondiente al plano de disparidad cero.
7. El sistema de monitorización de vehículos de la reivindicación 1, en donde la pantalla electrónica 3D comprende:
una guía de luz de placa (122) configurada para guiar un haz de luz en un ángulo de propagación distinto de cero;
un conjunto de redes de difracción de haces múltiples (124), estando configurada una red de difracción de haces múltiples del conjunto para acoplar difractivamente una porción del haz de luz guiado como una pluralidad de haces de luz acoplados que tienen diferentes direcciones angulares principales correspondientes a diferentes vistas de la pantalla electrónica 3D; y
una matriz de válvulas de luz (126) configurada para modular la pluralidad de haces de luz acoplados correspondientes a las diferentes vistas de la pantalla electrónica 3D, representando los haces de luz modulados píxeles de la pantalla electrónica 3D.
8. El sistema de monitorización de vehículos de la reivindicación 7, en donde la red de difracción de haces múltiples comprende una red de difracción chirped lineal, y en donde las características de difracción de la red de difracción de haces múltiples comprenden una o ambas ranuras curvas en una superficie de la guía de luz de placa y crestas curvas en la superficie de la guía de luz de la placa.
9. El sistema de vigilancia de vehículos de la reivindicación 1, en donde el escáner 3D está configurado para escanear una región detrás del vehículo, la percepción mejorada del usuario está configurada para ayudar a evitar colisiones cuando el vehículo se mueve en reversa, siendo el sistema de monitoreo del vehículo un retrovisor, sistema de vigilancia de vehículos de asistencia de respaldo.
10. El sistema de vigilancia de vehículos de la reivindicación 1, en donde el objeto resaltado visualmente está configurado para evitar colisiones cuando el vehículo se mueve en una dirección de la región adyacente.
11. Un método de vigilancia de vehículos, comprendiendo el método:
capturar un escaneo 3D de una región adyacente a un vehículo usando un escáner 3D (410); producir un modelo 3D a partir del escaneo 3D capturado, incluyendo el modelo 3D una configuración espacial de objetos ubicados dentro de la región escaneada (420); y
mostrar una parte de la región escaneada usando el modelo 3D (430), en donde mostrar una parte de la región escaneada comprende resaltar visualmente un objeto dentro de la parte mostrada a una distancia del vehículo que es menor que un umbral de distancia
en donde el objeto resaltado visualmente está configurado para mejorar la percepción del usuario del objeto que está más cerca del vehículo que la distancia de umbral, caracterizado porque
mostrar una parte de la región escaneada comprende además el uso de una pantalla electrónica 3D, el objeto visualmente resaltado parece estar frente a un plano de disparidad cero de la pantalla electrónica 3D correspondiente al umbral de distancia y en donde producir el modelo 3D comprende aplicar una transformación proyectiva al modelo 3D antes de mostrar la parte de la región escaneada en la pantalla electrónica 3D.
12. El método de vigilancia de vehículos de la reivindicación 11, en donde la transformación proyectiva incluye una compresión de profundidad de la parte mostrada para mejorar un tamaño relativo del objeto resaltado visualmente en comparación con los objetos en la región escaneada a una distancia mayor que la distancia umbral correspondiente al plano de disparidad cero.
13. El método de vigilancia de vehículos de la reivindicación 11, en donde visualizar una parte de la región escaneada usando la pantalla electrónica 3D comprende:
luz de guía en una guía de luz de placa como un haz de luz en un ángulo de propagación distinto de cero; acoplar difractivamente una parte del haz de luz guiado usando una matriz de redes de difracción de haces múltiples en la guía de luz de placa, en donde el acoplamiento difractivo de la porción de haz de luz guiado comprende producir una pluralidad de haces de luz acoplados que se dirigen lejos de la luz de placa guiar en una pluralidad de diferentes direcciones angulares principales correspondientes a diferentes vistas de la pantalla electrónica 3D; y
modular la pluralidad de haces de luz acoplados utilizando una pluralidad de válvulas de luz, representando los haces de luz modulados píxeles de la pantalla electrónica 3D para mostrar la parte como una imagen 3D.
ES15894424T 2015-05-30 2015-05-30 Sistema de visualización de un vehículo Active ES2819239T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2015/033432 WO2016195647A1 (en) 2015-05-30 2015-05-30 Vehicle monitoring system

Publications (1)

Publication Number Publication Date
ES2819239T3 true ES2819239T3 (es) 2021-04-15

Family

ID=57440791

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15894424T Active ES2819239T3 (es) 2015-05-30 2015-05-30 Sistema de visualización de un vehículo

Country Status (9)

Country Link
US (2) US10703375B2 (es)
EP (1) EP3303088B1 (es)
JP (1) JP6754425B2 (es)
KR (1) KR102329110B1 (es)
CN (1) CN107771344B (es)
ES (1) ES2819239T3 (es)
HK (1) HK1246955A1 (es)
TW (1) TWI615299B (es)
WO (1) WO2016195647A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200965A1 (de) * 2017-01-20 2018-07-26 Robert Bosch Gmbh Verfahren zur Darstellung einer Umgebung eines Fahrzeuges
KR20180086794A (ko) 2017-01-23 2018-08-01 삼성전자주식회사 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치.
US11422292B1 (en) 2018-06-10 2022-08-23 Apple Inc. Super-blazed diffractive optical elements with sub-wavelength structures
DE102019133642A1 (de) 2018-12-12 2020-06-18 Magna Closures Inc. Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten
US20190141310A1 (en) * 2018-12-28 2019-05-09 Intel Corporation Real-time, three-dimensional vehicle display
CN109760688B (zh) * 2018-12-29 2020-07-28 百度在线网络技术(北京)有限公司 路段信息确定方法、装置、车辆及计算机可读存储介质
US11204417B2 (en) * 2019-05-08 2021-12-21 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
US11137534B2 (en) 2019-06-26 2021-10-05 Synaptics Incorporated Systems and methods for optical imaging based on diffraction gratings
CA3146861A1 (en) * 2019-07-26 2021-02-04 Ours Technology, Llc Focal plane array system for fmcw lidar
TWI706335B (zh) * 2019-10-17 2020-10-01 國立交通大學 物件特徵定位裝置及雷射與攝像整合系統
US11436876B2 (en) * 2019-11-01 2022-09-06 GM Global Technology Operations LLC Systems and methods for diagnosing perception systems of vehicles based on temporal continuity of sensor data
US11754767B1 (en) 2020-03-05 2023-09-12 Apple Inc. Display with overlaid waveguide
CN112698353B (zh) * 2020-12-31 2024-07-16 清华大学苏州汽车研究院(吴江) 一种结构线激光与倾斜双目组合的车载视觉雷达***
DE102021203482A1 (de) 2021-04-08 2022-10-13 Volkswagen Aktiengesellschaft Verfahren und optisches Ausgabesystem für ein Fahrzeug zur optischen Ausgabe eines Merkmals eines in einem Fahrzeugumfeld befindlichen zu erfassenden Fahrzeugs
CN113752832B (zh) * 2021-09-13 2022-03-29 黑龙江天有为电子有限责任公司 一种汽车仪表盘

Family Cites Families (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2269697A (en) 1992-08-11 1994-02-16 Sharp Kk Display device
JP2979951B2 (ja) 1994-04-18 1999-11-22 凸版印刷株式会社 回折格子パターンを有するディスプレイ
JP3528994B2 (ja) 1994-11-08 2004-05-24 大日本印刷株式会社 液晶表示装置用平行光源及びそれを用いた液晶表示装置
JP3778966B2 (ja) 1995-07-31 2006-05-24 凸版印刷株式会社 フルカラー画像表示装置
WO1997008582A1 (en) 1995-08-23 1997-03-06 Philips Electronics N.V. Illumination system for a flat-panel picture display device
JP3336200B2 (ja) 1995-12-12 2002-10-21 シャープ株式会社 要素ホログラムパネルを有する3次元像表示装置
US5721598A (en) 1995-12-26 1998-02-24 Hughes Electronics High efficiency, high color purity, on-axis holographic color filter and full-color liquid crystal display
US7215451B1 (en) 1996-04-15 2007-05-08 Dai Nippon Printing Co., Ltd. Reflection type diffuse hologram, hologram for reflection hologram color filters, etc., and reflection type display device using such holograms
JPH10117340A (ja) * 1996-10-11 1998-05-06 Yazaki Corp 車両周辺監視装置、この装置に用いられる警報表示方法、及びこの表示方法を記憶した媒体
WO1999008257A1 (en) 1997-08-05 1999-02-18 Allan John Davie Liquid crystal controlled display apparatus
JPH11142863A (ja) 1997-11-13 1999-05-28 Nec Corp 液晶表示パネルおよびその製造方法
DE69912759T2 (de) 1998-04-02 2004-09-30 Elop Electro-Optics Industries Ltd. Optische holographische Vorrichtung
CN1213097A (zh) 1998-10-29 1999-04-07 厦门大学 制作医学影像诊断用的断层组合三维全息显示装置
FI106323B (fi) 1998-12-30 2001-01-15 Nokia Mobile Phones Ltd Taustavalaistuksen valonjohdin litteälle näytölle
JP2000267041A (ja) 1999-03-16 2000-09-29 Fuji Xerox Co Ltd 頭部搭載型カラー映像投影装置、カラーホログラム光学素子、およびカラーホログラム光学素子の製造方法
FI107085B (fi) 1999-05-28 2001-05-31 Ics Intelligent Control System Valopaneeli
JP4006918B2 (ja) 2000-02-28 2007-11-14 オムロン株式会社 面光源装置及びその製造方法
JP2002031788A (ja) 2000-07-18 2002-01-31 Sony Corp 光学装置
US6919950B2 (en) 2000-08-29 2005-07-19 Roman S. Dabrowski Liquid crystal device and a liquid crystal material
US6490393B1 (en) 2000-11-27 2002-12-03 Advanced Interfaces, Llc Integrated optical multiplexer and demultiplexer for wavelength division transmission of information
US7301591B2 (en) 2001-09-28 2007-11-27 Citizen Holdings Co., Ltd. Liquid crystal display device wherein the number of light emitting elements activated differs depending on whether display is performed by the first or second liquid crystal panel
US7027671B2 (en) 2002-03-18 2006-04-11 Koninklijke Philips Electronics N.V. Polarized-light-emitting waveguide, illumination arrangement and display device comprising such
GB0210568D0 (en) 2002-05-08 2002-06-19 Screen Technology Ltd Display
JP3742038B2 (ja) 2002-08-01 2006-02-01 Nec液晶テクノロジー株式会社 液晶表示装置およびその製造方法
JP2004077897A (ja) 2002-08-20 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 表示装置
KR100624408B1 (ko) 2003-01-07 2006-09-18 삼성전자주식회사 백라이트 유닛
US7184625B2 (en) 2003-02-11 2007-02-27 Luxtera, Inc Optical waveguide grating coupler incorporating reflective optical elements and anti-reflection elements
JP2004302186A (ja) 2003-03-31 2004-10-28 Mitsubishi Electric Corp 携帯情報端末
TWI257490B (en) 2003-07-09 2006-07-01 Hon Hai Prec Ind Co Ltd A light guide plate and a method of manufacturing the same
JP4043416B2 (ja) * 2003-07-30 2008-02-06 オリンパス株式会社 安全移動支援装置
JP2005062692A (ja) 2003-08-19 2005-03-10 Internatl Business Mach Corp <Ibm> カラー表示装置、光学素子、およびカラー表示装置の製造方法
JP2005075190A (ja) * 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
CN1619373A (zh) 2003-11-17 2005-05-25 鸿富锦精密工业(深圳)有限公司 导光板及背光模组
US7369584B2 (en) 2003-12-31 2008-05-06 Symbol Technologies, Inc. Laser projection display
US8723779B2 (en) 2004-01-26 2014-05-13 Mcmaster University Tiled optical fiber display
TWI254166B (en) 2004-05-25 2006-05-01 Au Optronics Corp 3D display system and method
ATE480105T1 (de) 2004-05-26 2010-09-15 Tibor Balogh Verfahren und vorrichtung zur erzeugung von 3d- bildern
US7903332B2 (en) 2004-10-13 2011-03-08 Koninklijke Philips Electronics N.V. Stereoscopic display apparatus
US7171080B2 (en) 2004-11-15 2007-01-30 Seagate Technology Llc Coupling grating for focusing light within a waveguide for heat assisted magnetic recording
EP1666933A1 (fr) 2004-12-02 2006-06-07 Asulab S.A. Dispositif optique a double fonction d'illumination et de formation d'une image figurative
US7773849B2 (en) 2004-12-14 2010-08-10 Oms Displays Ltd. Device and method for optical resizing and backlighting
EP1696669B1 (en) 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP4687160B2 (ja) * 2005-03-14 2011-05-25 アイシン精機株式会社 周辺監視装置
WO2007043036A1 (en) 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
CN1932602A (zh) 2005-09-14 2007-03-21 鸿富锦精密工业(深圳)有限公司 导光板
WO2007042852A1 (en) 2005-10-13 2007-04-19 Nokia Corporation Illumination method for displaying different graphical layouts
JP2007145158A (ja) 2005-11-28 2007-06-14 Fujitsu Ten Ltd 車載用表示装置及びその表示制御方法
JP2007163294A (ja) 2005-12-14 2007-06-28 Sony Corp 腕時計、腕時計の表示方法、および、プログラム
JP4600269B2 (ja) 2005-12-21 2010-12-15 カシオ計算機株式会社 液晶表示装置
US7778305B2 (en) 2005-12-22 2010-08-17 Université Jean-Monnet Mirror structure and laser device comprising such a mirror structure
WO2007135960A1 (ja) 2006-05-18 2007-11-29 Panasonic Corporation 面状光源装置及び液晶表示装置
US7714368B2 (en) 2006-06-26 2010-05-11 Aptina Imaging Corporation Method and apparatus providing imager pixel array with grating structure and imager device containing the same
CN101501391B (zh) 2006-07-03 2011-10-12 诺基亚公司 在包括用户界面照明的装置中改变图形
JP5157115B2 (ja) 2006-09-28 2013-03-06 凸版印刷株式会社 回折格子から成る表示体およびそれを応用した印刷物
WO2008038058A1 (en) 2006-09-28 2008-04-03 Nokia Corporation Beam expansion with three-dimensional diffractive elements
EP2089849A1 (en) 2006-10-26 2009-08-19 SeeReal Technologies S.A. 3d content generation system
US8958137B2 (en) 2006-10-26 2015-02-17 Seereal Technologies S.A. Holographic display device with 2D encoding
US8717676B2 (en) 2006-10-31 2014-05-06 Modilis Holdings Llc Light outcoupling structure for a lighting device
CN101589326B (zh) 2006-12-28 2011-06-29 诺基亚公司 用于在二维上扩展出射光瞳的设备
WO2008081071A1 (en) 2006-12-28 2008-07-10 Nokia Corporation Light guide plate and a method of manufacturing thereof
JP2008164963A (ja) 2006-12-28 2008-07-17 Citizen Electronics Co Ltd 光学装置および表示装置
KR101086422B1 (ko) * 2007-01-05 2011-11-25 삼성전자주식회사 고효율 2차원/3차원 겸용 영상 표시장치
US20080204873A1 (en) 2007-02-23 2008-08-28 Strategic Patent Acquisitions Llc Techniques for three dimensional displays
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US7507012B2 (en) 2007-05-16 2009-03-24 Rohm And Haas Denmark Finance A/S LCD displays with light redirection
JP5010527B2 (ja) 2007-06-04 2012-08-29 住友化学株式会社 導光板ユニット、面光源装置及び液晶表示装置
EP2158518B1 (en) 2007-06-14 2015-01-14 Nokia Corporation Displays with integrated backlighting
WO2008155770A2 (en) 2007-06-19 2008-12-24 Prime Sense Ltd. Distance-varying illumination and imaging techniques for depth mapping
JP2009053499A (ja) 2007-08-28 2009-03-12 Fuji Xerox Co Ltd 光変調器および光変調モジュール
TWI363900B (en) 2007-10-04 2012-05-11 Ind Tech Res Inst Light guiding film
US8004622B2 (en) * 2007-10-04 2011-08-23 3M Innovative Properties Company Embedded stereoscopic 3D display and 2D display film stack
US8619363B1 (en) 2007-11-06 2013-12-31 Fusion Optix, Inc. Light redirecting element comprising a forward diffracting region and a scattering region
JP2009123553A (ja) 2007-11-15 2009-06-04 Sumitomo Chemical Co Ltd 導光板、面光源装置及び液晶表示装置
US20090290837A1 (en) 2008-05-22 2009-11-26 The Chinese University Of Hong Kong Optical devices for coupling of light
JP2009288718A (ja) 2008-05-30 2009-12-10 Kyoto Institute Of Technology 共振グレーティングカップラ
GB2461294B (en) 2008-06-26 2011-04-06 Light Blue Optics Ltd Holographic image display systems
TWI428645B (zh) 2008-06-30 2014-03-01 Cpt Technology Group Co Ltd 彩色導光板以及液晶顯示裝置
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US20110141395A1 (en) 2008-07-22 2011-06-16 Sharp Kabushiki Kaisha Backlight unit and liquid crystal display device
DE102008034594B4 (de) 2008-07-25 2021-06-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren sowie Informationssystem zur Information eines Insassen eines Fahrzeuges
JP2010102188A (ja) 2008-10-24 2010-05-06 Colcoat Kk 発光表示盤
JP2010108264A (ja) * 2008-10-30 2010-05-13 Honda Motor Co Ltd 車両周辺監視装置
US20120127751A1 (en) 2008-11-10 2012-05-24 Nokia Corporation Diffractive backlight structure
US8044781B2 (en) * 2008-11-10 2011-10-25 Volkswagen Ag System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor
TWI387316B (zh) 2008-11-18 2013-02-21 Ind Tech Res Inst 立體影像顯示裝置與立體影像顯示方法
CN101750664B (zh) 2008-12-12 2012-05-23 比亚迪股份有限公司 一种衍射导光薄膜及其制备方法
JP2012512502A (ja) 2008-12-16 2012-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 光を混合する装置
CN101939703B (zh) 2008-12-25 2011-08-31 深圳市泛彩溢实业有限公司 全息三维图像信息采集装置、方法及还原装置、方法
US8026997B2 (en) 2009-01-28 2011-09-27 Sharp Laboratories Of America, Inc. Area active backlight with steerable light source
JP2010237416A (ja) 2009-03-31 2010-10-21 Sharp Corp 立体表示装置
US8629784B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
EP2419772A2 (en) 2009-04-16 2012-02-22 Koninklijke Philips Electronics N.V. A light guide apparatus
DE102009003069A1 (de) 2009-05-13 2010-11-25 Seereal Technologies S.A. 3D-Anzeigedisplay mit steuerbarer Vorrichtung zum Nachführen von Sichtbarkeitsbereichen
KR20120090772A (ko) 2009-05-29 2012-08-17 퀄컴 엠이엠에스 테크놀로지스, 인크. 조명장치 및 그의 제조방법
US8251563B2 (en) 2009-05-29 2012-08-28 Sharp Kabushiki Kaisha Polarized diffractive backlight
WO2010143600A1 (ja) * 2009-06-08 2010-12-16 国立大学法人名古屋工業大学 3次元情報提示装置
JP2011029161A (ja) 2009-06-26 2011-02-10 Sumitomo Chemical Co Ltd 立体表示装置
CN102472848B (zh) 2009-08-13 2014-08-27 凸版印刷株式会社 图像显示体及带标签的物品
JP2009295598A (ja) 2009-09-18 2009-12-17 Toppan Printing Co Ltd 導光板、それを用いた照明装置および表示装置
JP5240149B2 (ja) * 2009-09-28 2013-07-17 三菱自動車工業株式会社 車両周辺監視装置
CN101739843B (zh) * 2009-12-04 2012-08-29 河海大学常州校区 多视觉信息融合的车辆安全驾驶实时立体感知装置及方法
CN102102829A (zh) 2009-12-21 2011-06-22 富准精密工业(深圳)有限公司 发光二极管灯具
JP2011133677A (ja) 2009-12-24 2011-07-07 Toppan Printing Co Ltd ブランク媒体、画像表示体及び情報媒体
US8964013B2 (en) 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
TW201126204A (en) 2010-01-25 2011-08-01 J Touch Corp Three-dimensional video imaging device
EP2372512A1 (en) * 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Vehicle user interface unit for a vehicle electronic device
TWI424206B (zh) 2010-04-06 2014-01-21 Coretronic Corp 導光板及光源模組
JP5512380B2 (ja) 2010-04-30 2014-06-04 株式会社フジクラ 表示装置
GB201008599D0 (en) 2010-05-24 2010-07-07 Design Led Products Ltd Light guide device
JP2011258532A (ja) 2010-06-11 2011-12-22 Omron Corp 面光源装置及び立体表示装置
KR101680770B1 (ko) 2010-07-09 2016-11-29 삼성전자주식회사 백라이트 유닛 및 이를 구비하는 디스플레이장치
JP5659589B2 (ja) 2010-07-13 2015-01-28 株式会社ニコン 表示装置および制御方法
US8200055B2 (en) 2010-07-19 2012-06-12 Harish Subbaraman Two-dimensional surface normal slow-light photonic crystal waveguide optical phased array
JP4930631B2 (ja) 2010-09-27 2012-05-16 ソニー株式会社 立体表示装置
JP2012108316A (ja) 2010-11-17 2012-06-07 Sony Corp 立体表示装置
JP6166180B2 (ja) 2010-11-19 2017-07-19 リアルディー スパーク エルエルシー 方向性を有する表示装置
WO2012069071A1 (en) 2010-11-24 2012-05-31 Fraunhofer-Gesellschaft zur Föderung der angewandten Forschung e.V. Method for compensating a misalignment between a subpixel array of a display and an optical grating and autostereoscopic display
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
CN102170558B (zh) * 2010-12-30 2012-12-19 财团法人车辆研究测试中心 障碍物侦测警示***及方法
KR101807691B1 (ko) 2011-01-11 2017-12-12 삼성전자주식회사 3차원 디스플레이장치
CN102141707B (zh) 2011-03-30 2013-01-23 昆山龙腾光电有限公司 透光模式切换装置及二维/三维可切换显示设备
TWI476483B (zh) 2011-03-31 2015-03-11 Chi Mei Materials Technology Corp 顯示裝置及液晶顯示裝置
EP2511656A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
CN202126538U (zh) 2011-06-17 2012-01-25 中航华东光电有限公司 一种柱面光栅高清lcd自由立体显示器
JP5861293B2 (ja) * 2011-07-20 2016-02-16 日産自動車株式会社 車輌用映像表示装置
US20130021453A1 (en) 2011-07-22 2013-01-24 Jean-Paul Gignac Autostereoscopic rear-view display system for vehicles
KR20130025767A (ko) 2011-09-02 2013-03-12 엘지디스플레이 주식회사 배리어 패널 및 이를 포함하는 입체영상 표시장치
DE102011082483A1 (de) * 2011-09-12 2013-03-14 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
US9019240B2 (en) 2011-09-29 2015-04-28 Qualcomm Mems Technologies, Inc. Optical touch device with pixilated light-turning features
KR102072124B1 (ko) 2011-11-24 2020-02-04 에스케이텔레콤 주식회사 세밀한 예측 단위를 사용하는 효과적인 부호화/복호화 방법 및 장치
US9389415B2 (en) 2012-04-27 2016-07-12 Leia Inc. Directional pixel for use in a display screen
US9459461B2 (en) 2012-05-31 2016-10-04 Leia Inc. Directional backlight
US9201270B2 (en) 2012-06-01 2015-12-01 Leia Inc. Directional backlight with a modulation layer
US8681423B1 (en) 2013-01-29 2014-03-25 Hewlett-Packard Development Company, L.P. Light modulation employing fluid movement
WO2014120160A1 (en) 2013-01-30 2014-08-07 Hewlett-Packard Development Company, L.P. Directional grating-based backlighting
US9298168B2 (en) 2013-01-31 2016-03-29 Leia Inc. Multiview 3D wrist watch
KR20150128719A (ko) 2013-03-13 2015-11-18 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 콜리메이팅 반사체를 갖는 백라이트
JP6136565B2 (ja) * 2013-05-23 2017-05-31 日産自動車株式会社 車両用表示装置
US20140354684A1 (en) * 2013-05-28 2014-12-04 Honda Motor Co., Ltd. Symbology system and augmented reality heads up display (hud) for communicating safety information
JP5983547B2 (ja) * 2013-07-02 2016-08-31 株式会社デンソー ヘッドアップディスプレイ及びプログラム
PT2938919T (pt) * 2013-07-30 2019-01-21 Leia Inc Retroiluminação à base de rede de difração multifeixe
US9488589B2 (en) * 2013-10-29 2016-11-08 The Boeing Company Mapping damaged regions on objects
US9557466B2 (en) 2014-07-30 2017-01-31 Leia, Inc Multibeam diffraction grating-based color backlighting
DE112015006458B4 (de) * 2015-04-17 2019-05-23 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesystem, Anzeigesteuerverfahren und Anzeigesteuerprogramm

Also Published As

Publication number Publication date
KR20180015608A (ko) 2018-02-13
US20200290622A1 (en) 2020-09-17
TWI615299B (zh) 2018-02-21
CN107771344A (zh) 2018-03-06
US20180072320A1 (en) 2018-03-15
KR102329110B1 (ko) 2021-11-18
EP3303088A1 (en) 2018-04-11
US10703375B2 (en) 2020-07-07
JP6754425B2 (ja) 2020-09-09
US11203346B2 (en) 2021-12-21
CN107771344B (zh) 2021-05-07
JP2018518000A (ja) 2018-07-05
EP3303088B1 (en) 2020-06-24
HK1246955A1 (zh) 2018-09-14
TW201700322A (zh) 2017-01-01
EP3303088A4 (en) 2019-01-23
WO2016195647A1 (en) 2016-12-08

Similar Documents

Publication Publication Date Title
ES2819239T3 (es) Sistema de visualización de un vehículo
ES2907502T3 (es) Pantalla basada en red de difracción multihaz con seguimiento de la cabeza
ES2928663T3 (es) Cámara multivista
ES2961964T3 (es) Pantalla de visualización frontal basada en rejilla de difracción multihaz
CN108028917B (zh) 基于多光束衍射光栅的近眼显示器
ES2950890T3 (es) Pantallas de vista múltiple con estructura de soporte reflectante
KR102309395B1 (ko) 공유 카메라를 구비하는 카메라 서브-어레이들을 갖는 멀티뷰 카메라 어레이, 멀티뷰 시스템, 및 방법
TWI695189B (zh) 交叉渲染多視域攝影機、系統、及方法
TW202014761A (zh) 具有使用者追蹤功能的多視像顯示器、系統和方法
JP2020187762A (ja) 車両監視システム