ES2708274T3 - Sistema y método de enfoque de iluminación de estadio - Google Patents

Sistema y método de enfoque de iluminación de estadio Download PDF

Info

Publication number
ES2708274T3
ES2708274T3 ES15734161T ES15734161T ES2708274T3 ES 2708274 T3 ES2708274 T3 ES 2708274T3 ES 15734161 T ES15734161 T ES 15734161T ES 15734161 T ES15734161 T ES 15734161T ES 2708274 T3 ES2708274 T3 ES 2708274T3
Authority
ES
Spain
Prior art keywords
luminaire
image
information
feature
lighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15734161T
Other languages
English (en)
Inventor
Harry Broers
Ruben Rajagopalan
Wei Pien Lee
Chris Damkat
Bart Andre Salters
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Application granted granted Critical
Publication of ES2708274T3 publication Critical patent/ES2708274T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/125Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using cameras
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V21/00Supporting, suspending, or attaching arrangements for lighting devices; Hand grips
    • F21V21/14Adjustable mountings
    • F21V21/15Adjustable mountings specially adapted for power operation, e.g. by remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2131/00Use or application of lighting devices or systems not provided for in codes F21W2102/00-F21W2121/00
    • F21W2131/10Outdoor lighting
    • F21W2131/105Outdoor lighting of arenas or the like
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Un sistema de enfoque de iluminación para enfocar un sistema de iluminación de grandes áreas, siendo el sistema de iluminación de grandes áreas para iluminar un área a alumbrar, comprendiendo el sistema de enfoque de iluminación: una luminaria (5), teniendo la luminaria una localización de montaje y una orientación y estando configurada para generar un haz de luz a lo largo de un eje óptico; una cámara (1) configurada para capturar una imagen, estando la cámara (1) acoplada a la luminaria y teniendo una relación definida entre un campo de visión de la cámara y el eje óptico; una memoria (33) configurada para almacenar información de iluminación correspondiente a una localización de enfoque deseada de la luminaria dentro del área a alumbrar, y estando la memoria configurada además para almacenar información de características que comprende una localización esperada de al menos una característica dentro del área a alumbrar, que es diferente de la localización de enfoque deseada; y caracterizado por que el sistema de enfoque de iluminación comprende además: un procesador (31) configurado para determinar y emitir información de evaluación de enfoque basándose en la información de características, la información de iluminación y la imagen para permitir determinar si la luminaria está correctamente enfocada mediante el análisis de la imagen para determinar la al menos una característica dentro de la imagen, determinar la posición de la característica dentro de la imagen, y analizar la posición de la característica dentro de la imagen usando la información de iluminación y la información de características para determinar y emitir la información de evaluación de enfoque; comprendiendo la información de evaluación de enfoque un indicador sobre si la luminaria está correctamente enfocada.

Description

DESCRIPCION
Sistema y metodo de enfoque de iluminacion de estadio
Campo de la invencion
La presente invencion se refiere, en general, a un sistema y un metodo de enfoque de iluminacion, y, en particular, un sistema y un metodo de enfoque de iluminacion que son compatibles con sistemas de iluminacion de grandes areas.
Antecedentes de la invencion
En muchas aplicaciones de iluminacion de grandes areas de alta gama, tales como las que utilizan productos Philips Arena Vision, por ejemplo, un gran numero de luminarias se distribuyen alrededor de un area a alumbrar en un intento por crear una intensidad de luz uniforme a traves de dicha area dada. Ejemplos de tales aplicaciones incluyen sistemas de iluminacion de pistas para iluminar pistas deportivas, por ejemplo, iluminacion de campos, canchas o estadios, iluminacion de fachadas, iluminacion de zonas de produccion, iluminacion de aparcamientos, etc.
Un estadio de futbol, por ejemplo, puede tener un plan o diseno de iluminacion donde el sistema de iluminacion contiene mas de 100 luminarias localizadas cada una en el estadio y con una localizacion o punto de enfoque deseado en la cancha para intentar proporcionar un efecto de iluminacion adecuado. Habitualmente, el instalador del sistema de iluminacion recibe un plan de iluminacion que contiene, para cada luminaria, informacion sobre el tipo de luminaria, la localizacion y orientacion de montaje de la luminaria y la localizacion o punto de enfoque (habitualmente en relacion con el centro del campo). Basandose en esta informacion, el instalador monta las luminarias en la infraestructura del estadio. En esta fase, el instalador tambien tiene que dirigir la luminaria hacia la localizacion de enfoque deseada en el campo usando los valores de orientacion del plan de iluminacion.
A partir de la localizacion de luminarias, el instalador tiene una vision clara del campo, pero es muy diffcil determinar con precision la localizacion de enfoque en el campo. Para mejorar la precision del procedimiento de alineacion, el instalador puede usar una cuadncula creada colocando manualmente marcadores visuales en el campo en las coordenadas requeridas y un puntero laser alineado con el eje optico de luminaria. De tal manera, la alineacion es una cuestion de enfocar el punto laser hacia las localizaciones interpoladas visualmente solicitadas en la cuadncula. En este procedimiento, la colocacion de los marcadores visuales en el campo es una tarea compleja y la propia alineacion basada en el punto laser es propensa a errores.
Una manera de superar estas dificultades es pre-enfocar las luminarias montadas en plantillas prefabricadas en pequenos modelos a escala del plan de iluminacion, tal como se expone en la patente de Estados Unidos US8717552. Sin embargo, tales sistemas no pueden adaptarse a ningun cambio en la construccion del estadio. En otras palabras, es diffcil o imposible “afinar” las luminarias de manera eficaz. Ademas, se ha propuesto, tal como se desvela en la solicitud publicada en Estados Unidos US20130268246, unir una camara a la luminaria de manera que el instalador pueda “ver” hacia donde se dirigira la luz de la luminaria produciendo una imagen “recortada” que refleje el patron de luz modelado. A continuacion, esta imagen recortada puede compararse con otra imagen de camara de “gran angular” para determinar la localizacion del haz de luz y el patron en relacion con una imagen de gran angular y asf determinar si la luminaria se dirige en la direccion requerida. La deteccion de camara general se conoce, por ejemplo, a partir del documento US2013/0223625A1.
Sumario de la invencion
El problema anterior se aborda por la invencion, como se define en las reivindicaciones.
De acuerdo con una realizacion de la invencion, se proporciona un sistema de enfoque de iluminacion para enfocar un sistema de iluminacion de grandes areas, iluminando el sistema de iluminacion de grandes areas un area a alumbrar, comprendiendo el sistema de enfoque de iluminacion: una luminaria, teniendo la luminaria una localizacion de montaje y una orientacion y estando configurada para generar un haz de luz a lo largo de un eje optico; una camara configurada para capturar una imagen, estando la camara acoplada a la luminaria y teniendo una relacion definida entre un campo de vision de la camara y el eje optico; una memoria configurada para almacenar una informacion de iluminacion que comprende una localizacion de enfoque deseada de la luminaria dentro del area a alumbrar, y estando la memoria configurada ademas para almacenar una informacion de caractensticas que comprende una localizacion esperada de al menos una caractenstica dentro del area a alumbrar, que es diferente de la localizacion de enfoque deseada; estando el sistema de enfoque de iluminacion caracterizado por que comprende ademas: un procesador configurado para determinar y emitir una informacion de evaluacion de enfoque basandose en la informacion de caractensticas, la informacion de iluminacion y la imagen para permitir determinar si la luminaria esta correctamente enfocada analizando la imagen para determinar la al menos una caractenstica dentro de la imagen, determinar la posicion de la caractenstica dentro de la imagen y analizar la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas para determinar y emitir la informacion de evaluacion de enfoque; comprendiendo la informacion de evaluacion de enfoque un indicador de si la luminaria esta correctamente enfocada. En tales realizaciones, la luminaria puede enfocarse correctamente mediante el uso de una imagen para determinar el enfoque actual de la luminaria y comparar el enfoque actual con un plan de iluminacion almacenado que contiene informacion sobre el enfoque deseado de la luminaria.
La relacion definida entre un campo de vision de la camara y el eje optico puede ser al menos una de entre: una desviacion de orientacion conocida entre el campo de vision de la camara y el eje optico; el campo de vision de la camara incluyendo el eje optico; el campo de vision de la camara centrado en la interseccion del eje optico y una superficie. En tales realizaciones, la camara puede alinearse con el eje optico y, por lo tanto, “ver” el punto de enfoque de la luminaria. O, en algunas situaciones, desviarse en una orientacion conocida con respecto al eje optico de luminaria con el fin de que la camara pueda aplicar un campo de vision estrecho para capturar una imagen que contiene una caractenstica conocida que se localiza fuera del eje optico de la luminaria pero que puede usarse para enfocar la luminaria.
El procesador configurado para determinar y emitir informacion de evaluacion de enfoque puede estar configurado para generar una posicion de imagen basada en un mapeo de la distancia, dentro de un campo de vision de la camara, entre la localizacion de enfoque deseada de la luminaria, desde un punto de vista de la camara, y la localizacion esperada de al menos una caractenstica, desde un punto de vista de la camara, y configurado para generar un indicador grafico en la posicion de imagen a aplicar a la imagen para indicar la localizacion esperada de la al menos una caractenstica dentro de la imagen. En tales realizaciones, el usuario o el instalador pueden ver la diferencia entre el enfoque actual de la luminaria y el enfoque esperado comparando la posicion de la caractenstica dentro de la imagen con el indicador grafico.
Como se ha mencionado anteriormente, el procesador configurado para determinar y emitir informacion de evaluacion de enfoque puede estar configurado para analizar la imagen para determinar la al menos una caractenstica dentro de la imagen, para determinar la posicion de la caractenstica dentro de la imagen, y para analizar la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas para determinar y emitir la informacion de evaluacion de enfoque que comprende un indicador de si la luminaria esta correctamente enfocada. De esta manera, el procesador puede identificar caractensticas dentro de la imagen y, a continuacion, usar estas caractensticas determinadas como parte del analisis. En tales realizaciones, el procesador esta configurado para determinar la geometna detras del enfoque de la luminaria y, por lo tanto, para determinar la localizacion de la luminaria y/o la orientacion de la luminaria comparando las localizaciones de las caractensticas de imagen y la localizacion esperada de la luminaria y/o la orientacion de la luminaria.
La informacion de evaluacion de enfoque puede comprender ademas una senal de ajuste de orientacion de luminaria basada en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas.
El sistema de enfoque de iluminacion puede comprender ademas un motor electronicamente controlable configurado para recibir la senal de ajuste de orientacion de luminaria y para accionar la luminaria basandose en la senal de ajuste de orientacion de luminaria, de tal manera que se reduce la diferencia entre la posicion de enfoque deseada y una posicion de enfoque basada en la localizacion de montaje y la orientacion de la luminaria. En tales situaciones, las luminarias pueden enfocarse y cambiar su enfoque varias veces sin la necesidad de emplear costosos equipos de trabajo de alto nivel.
El sistema de enfoque de iluminacion puede comprender ademas un sensor de inclinacion acoplado a la luminaria, en el que el procesador puede configurarse para determinar si la luminaria esta correctamente enfocada en una primera orientacion, alrededor de un eje horizontal, basada en el analisis de la salida del sensor de inclinacion usando la informacion de iluminacion; y determinar si la luminaria esta correctamente enfocada en una segunda orientacion, alrededor de un eje vertical, basada en la informacion de evaluacion de enfoque. En tales realizaciones, la determinacion y correccion de enfoque de inclinacion puede realizarse usando los sensores de inclinacion y reducir significativamente la complejidad de la determinacion y correccion de enfoque de la panoramica usando la camara y el aparato y los metodos de “vision artificial” como se expone en el presente documento.
El sistema de enfoque de iluminacion puede comprender ademas un sensor de distancia o alcance acoplado a la luminaria, en el que el procesador puede configurarse para determinar si la luminaria esta correctamente enfocada en una primera orientacion, alrededor de un eje horizontal, basada en el analisis de la salida del sensor de distancia o alcance usando la informacion de iluminacion y determinar si la luminaria esta correctamente enfocada en una segunda orientacion, alrededor de un eje vertical, basada en la informacion de evaluacion de enfoque. En tales realizaciones, la determinacion y correccion de enfoque de inclinacion puede realizarse usando los sensores de alcance o distancia y reducir significativamente la complejidad de la determinacion y correccion de enfoque de la panoramica usando la camara y el aparato y los metodos de “vision artificial” como se expone en el presente documento.
El sistema de enfoque de iluminacion puede comprender ademas una pantalla, en el que la pantalla puede configurarse para recibir y visualizar una representacion visual de la informacion relacionada con la informacion de evaluacion de enfoque. De esta manera, puede proporcionarse al usuario un indicador de como ajustar la luminaria y como enfocarla correctamente.
La pantalla puede ser una pantalla de realidad aumentada que muestra una representacion de la localizacion de enfoque de luminaria desde el punto de vista de la pantalla, basandose la localizacion de enfoque de luminaria en la informacion de evaluacion de enfoque.
La al menos una caractenstica puede ser al menos una de entre: al menos una baliza localizada en una o unas localizaciones determinadas, comprendiendo la informacion de caractensticas la o las localizaciones esperadas de la al menos una baliza; y una caractenstica en 2D o 3D intrmseca localizada en una localizacion definida, comprendiendo la informacion de caractensticas la localizacion de la caractenstica en 2D o 3D.
En tales realizaciones, la memoria esta configurada para almacenar una informacion que indica una imagen esperada con la posicion de baliza y usar esto para comparar con la imagen real capturada por la camara dentro de la que se coloca la baliza real. La diferencia entre la posicion de baliza de imagen esperada y la posicion de baliza de imagen real puede usarse a continuacion en algunas realizaciones para determinar un error y una correccion de enfoque. Por ejemplo, la caractenstica intrmseca puede ser una disposicion de gradas de estadio, un poste de portena, un cfrculo central o una marca de punto central en el campo. De tal manera, no es necesario colocar marcadores o balizas adicionales en localizaciones del campo.
De acuerdo con un segundo aspecto, se proporciona un metodo para enfocar un sistema de iluminacion de grandes areas, iluminando el sistema de iluminacion de grandes areas un area a alumbrar, comprendiendo el metodo: localizar una luminaria en una localizacion de montaje con una orientacion, de tal manera que la luminaria esta configurada para generar un haz de luz a lo largo de un eje optico; acoplar una camara a la luminaria con una relacion definida entre un campo de vision de la camara y el eje optico; capturar una imagen con la camara; almacenar una informacion de iluminacion que comprende una posicion de enfoque deseada de la luminaria dentro del area a alumbrar; almacenar una informacion de caractensticas que comprende una localizacion esperada de al menos una caractenstica dentro del area a alumbrar, que es diferente de la localizacion de enfoque deseada; determinar una informacion de evaluacion de enfoque basada en la informacion de caractensticas, la informacion de iluminacion y la imagen; en el que dicha determinacion de la informacion de evaluacion de enfoque comprende: analizar la imagen para determinar la al menos una caractenstica dentro de la imagen; determinar la posicion de la caractenstica dentro de la imagen; analizar la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas; emitir la informacion de evaluacion de enfoque para permitir determinar si la luminaria esta correctamente enfocada generando un indicador de enfoque sobre si la luminaria esta correctamente enfocada basandose en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas.
La relacion definida entre un campo de vision de la camara y el eje optico puede ser al menos una de entre: una desviacion de orientacion conocida entre el campo de vision de la camara y el eje optico; el campo de vision de la camara incluyendo el eje optico; el campo de vision de la camara centrado en la interseccion del eje optico y una superficie. En tales realizaciones, la camara puede alinearse con el eje optico y, por lo tanto, “ver” el punto de enfoque de la luminaria. O, en algunas situaciones, el campo de vision de la camara puede desviarse en una orientacion conocida con respecto al eje optico de luminaria con el fin de que la camara pueda aplicar un campo de vision estrecho para capturar una imagen que contiene una caractenstica conocida que se localiza fuera del eje optico de la luminaria pero que puede usarse para enfocar la luminaria.
La determinacion de la informacion de evaluacion de enfoque puede comprender: generar una posicion de imagen basandose en un mapeo de la distancia, dentro de un campo de vision de la camara, entre la localizacion de enfoque deseada de la luminaria, desde un punto de vista de la camara, y la localizacion esperada de al menos una caractenstica, desde un punto de vista de la camara; generar un indicador grafico en la posicion de imagen; aplicar a la imagen el indicador grafico en la posicion de imagen para indicar la posicion esperada de la al menos una caractenstica dentro de la imagen.
Como se ha mencionado anteriormente, la determinacion de la informacion de evaluacion de enfoque puede comprender: analizar la imagen para determinar la al menos una caractenstica dentro de la imagen; determinar la posicion de la caractenstica dentro de la imagen; analizar la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas; y generar un indicador de enfoque sobre si la luminaria esta correctamente enfocada basandose en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas.
La determinacion de la informacion de evaluacion de enfoque puede comprender, ademas, generar una senal de ajuste de orientacion de luminaria basada en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas, y emitir la informacion de evaluacion de enfoque que comprende emitir la senal de ajuste de orientacion de luminaria.
El metodo puede comprender ademas: recibir en un motor electronicamente controlable la senal de ajuste de orientacion de luminaria; y accionar la luminaria mediante el motor electronicamente controlable basandose en la senal de ajuste de orientacion de luminaria, de tal manera que se reduce la diferencia entre la posicion de enfoque deseada y una posicion de enfoque basada en la posicion de montaje y la orientacion de la luminaria.
El metodo puede comprender: determinar si la luminaria esta correctamente enfocada en una primera orientacion, alrededor de un eje horizontal, basada en el analisis de la salida del sensor de inclinacion usando la informacion de iluminacion y determinar si la luminaria esta correctamente enfocada en una segunda orientacion, alrededor de un eje vertical, basada en la informacion de evaluacion de enfoque.
El metodo puede comprender: determinar si la luminaria esta correctamente enfocada en una primera orientacion, alrededor de un eje horizontal, basada en el analisis de la salida del sensor de alcance o distancia usando la informacion de iluminacion; y determinar si la luminaria esta correctamente enfocada en una segunda orientacion, alrededor de un eje vertical, basada en la informacion de evaluacion de enfoque.
El procedimiento puede comprender recibir y visualizar una representacion visual de una informacion relativa a la informacion de evaluacion de enfoque en una unidad de visualizacion.
La visualizacion de una representacion visual de la informacion puede comprender visualizar a traves de una pantalla de realidad aumentada una representacion de la posicion de enfoque de luminaria desde el punto de vista de la pantalla, basandose la posicion de enfoque de luminaria en la informacion de evaluacion de enfoque.
La al menos una caractenstica puede ser al menos una de entre: al menos una baliza localizada en una o unas localizaciones determinadas, comprendiendo la informacion de caractensticas la o las localizaciones esperadas de la al menos una baliza; y una caractenstica en 2D o 3D intnnseca localizada en una localizacion definida, comprendiendo la informacion de caractensticas la localizacion de la caractenstica en 2D o 3D.
Breve descripcion de los dibujos
Los ejemplos de la invencion se describiran a continuacion en detalle con referencia a los dibujos adjuntos, en los que:
la figura 1 muestra un sistema de enfoque de iluminacion a modo de ejemplo de acuerdo con algunas realizaciones;
la figura 2 muestra un sistema de enfoque de iluminacion a modo de ejemplo en funcionamiento de acuerdo con un primer conjunto de realizaciones;
la figura 3 muestra un sistema de enfoque de iluminacion a modo de ejemplo en funcionamiento de acuerdo con un segundo conjunto de realizaciones;
la figura 4 muestra un sistema de enfoque de iluminacion a modo de ejemplo en funcionamiento que determina al menos una caractenstica en 2D y una en 3D a modo de ejemplo en un estadio de acuerdo con algunas realizaciones;
la figura 5 muestra un sistema de enfoque de iluminacion a modo de ejemplo que usa un sensor de inclinacion adicional de acuerdo con algunas realizaciones;
la figura 6 muestra un sistema de enfoque de iluminacion a modo de ejemplo que usa un sensor de distancia o alcance adicional de acuerdo con algunas realizaciones; y
la figura 7 muestra un diagrama de flujo del funcionamiento del sistema de enfoque de iluminacion de acuerdo con algunas realizaciones.
Descripcion detallada de las realizaciones
Los conceptos que se han descrito con respecto a las realizaciones en el presente documento son para un sistema de enfoque de iluminacion. En particular, para un sistema de enfoque de iluminacion que facilita la direccion de las luminarias de luz de inundacion para mejorar la eficiencia del flujo de trabajo. El sistema de enfoque de iluminacion usa una camara para determinar el enfoque correcto de una luminaria basandose en puntos de referencia o caractensticas visuales extrafdos, localizados en el area a alumbrar (o introducidos o localizados intnnsecamente dentro del area). Ademas, puede obtenerse un error de alineacion mediante el analisis de las caractensticas determinadas (orientacion medida) y con la orientacion requerida de acuerdo con el plan de iluminacion. A continuacion, puede guiarse al instalador, en algunas realizaciones, como se describe en el presente documento, por un medio de audio o visual adecuado hacia la desalineacion medida para dirigir la luminaria. Un enfoque similar tambien puede aplicarse a las luminarias con unidades panoramicas e inclinables motorizadas. Aunque los siguientes ejemplos se han descrito en particular con respecto a estadios o pistas, tales como estadios de futbol, se entendera que los aparatos y metodos descritos en el presente documento podnan aplicarse a diversas aplicaciones de iluminacion a gran escala, tales como iluminacion de fachadas, iluminacion de zonas de produccion, iluminacion de aparcamientos, o incluso grandes areas en las que no es posible colocar marcadores en las localizaciones objetivo, tal como, por ejemplo, la iluminacion de piscinas. El disenador del sistema de iluminacion habitualmente usa un plano virtual para disenar el plan de iluminacion. En los estadios de futbol, como plano virtual suele tomarse normalmente la cancha de futbol. Sin embargo, en las piscinas, el plano virtual es similar al nivel de agua de la piscina. En una piscina vada es diffcil colocar marcadores en la localizacion objetivo en el plano virtual y en una piscina llena, el marcador debe estar flotando (en movimiento). De manera similar, el aparato y los metodos descritos en el presente documento pueden aplicarse a situaciones de iluminacion donde el plano de iluminacion es irregular. Por ejemplo, en los velodromos, donde la pista de ciclismo es peraltada y forma un angulo pronunciado.
Con respecto a la figura 1 se muestra un sistema de enfoque de iluminacion a modo de ejemplo. El sistema de enfoque de iluminacion mostrado en la figura 1 comprende una luminaria 5 que puede ser de cualquier tipo y configuracion de luminaria adecuada. La luminaria 5 puede, como se describe en el presente documento, montarse dentro del estadio a traves de un punto o plantilla de montaje adecuado. El punto o plantilla de montaje puede configurarse para que pueda ajustarse con el fin de cambiar la orientacion de la luminaria. Este ajuste en algunas realizaciones es un ajuste bidimensional. Los ajustes adecuados pueden ser dos o tres cualquiera de los siguientes: una orientacion alrededor de un eje horizontal (un ajuste de inclinacion); una orientacion alrededor de un eje vertical (un ajuste panoramico); y una orientacion alrededor del eje optico de la luminaria (un ajuste de balanceo).
El sistema de enfoque de iluminacion puede comprender una camara 1. En algunas realizaciones, la camara 1 puede acoplarse a la luminaria 5. En algunas realizaciones, la camara 1 puede acoplarse de manera desmontable a la luminaria 5 en una plantilla de fijacion. En algunas realizaciones, la camara 1 puede acoplarse o montarse de manera permanente en la luminaria 5 o formar parte de un conjunto de luminaria integral que comprende una luminaria y una camara. La camara 1 se acopla a la luminaria 5 de tal manera que hay una relacion definida entre un campo de vision de la camara y el eje optico. Por ejemplo, la relacion definida entre el campo de vision de la camara y el eje optico puede ser que el campo de vision de la camara incluya el eje optico de la luminaria. En otras palabras, hay una pequena pero conocida desviacion de orientacion entre el campo de vision de la camara y el eje optico. Preferentemente, el campo de vision de la camara es tal que el centro de una imagen capturada por la camara es la interseccion del eje optico de la luminaria con respecto a la cancha o la superficie del estadio. En otras palabras, preferentemente, el centro de la imagen capturada por la camara es el punto de enfoque de la luminaria. Sin embargo, se entendera que la relacion definida puede ser una desviacion de orientacion conocida entre el campo de vision de la camara y el eje optico. Esta desviacion puede permitir que la camara tenga un campo de vision estrecho para capturar una imagen que contiene una caractenstica conocida que esta localizada fuera del eje optico de la luminaria pero que puede usarse para enfocar la luminaria de la manera descrita en el presente documento.
La camara puede ser cualquier camara o medio de formacion de imagenes adecuado configurado para capturar una imagen y pasar la imagen a un dispositivo de enfoque 3. Por ejemplo, en algunas realizaciones, la camara 1 comprende lentes u opticos para permitir un ajuste del campo de vision de la camara, tal como una operacion de zoom, de tal manera que la camara esta configurada para capturar una primera imagen o conjunto de imagenes en un primer nivel de zoom con un campo de vision mas amplio para permitir un enfoque aproximado, y una segunda imagen o conjunto de imagenes en un segundo nivel de zoom con un campo de vision mas estrecho para permitir un enfoque fino. En la presente solicitud, el termino camara debe interpretarse como cualquier aparato de captura de imagenes que incluya ejemplos de formacion de imagenes pasivos y activos, tales como dispositivos lidar, camaras de infrarrojos, y no debe limitarse a las camaras de longitud de onda visual.
En algunas realizaciones, el sistema de enfoque de iluminacion comprende ademas un aparato de enfoque 3. En algunas realizaciones, el aparato de enfoque 3 esta configurado para recibir la imagen o los datos de imagen de la camara 1 y, basandose en las imagenes, determinar si la luminaria esta correctamente enfocada. En algunas realizaciones, el aparato de enfoque se implementa mediante un ordenador o un aparato de procesamiento adecuado configurado para recibir (y transmitir datos) de manera inalambrica o usando conexiones cableadas o por cable. En algunas realizaciones, el ordenador o dispositivo de procesamiento es un aparato portatil o movil adecuado para transportarse por el instalador o el sistema de luminarias.
En algunas realizaciones, el dispositivo de enfoque 3 comprende, por lo tanto, al menos un procesador 31 configurado para procesar datos de imagen recibidos de la camara 1. El aparato de enfoque 3 comprende, ademas, al menos una memoria 33. En algunas realizaciones, la memoria comprende una parte de memoria asignada para almacenar el codigo del programa o los datos a ejecutar en el procesador 31, tal como la determinacion de caractensticas, la determinacion de la posicion de la caractenstica y las operaciones de determinacion de enfoque descritas en el presente documento. Ademas, en algunas realizaciones, la memoria 33 comprende una parte de la memoria asignada para almacenar los datos a procesar. Por ejemplo, en algunas realizaciones, la memoria 33 esta configurada para almacenar un plan de iluminacion o informacion basada en el plan de iluminacion para permitir que el procesador 31 determine si la luminaria esta correctamente enfocada. En algunas realizaciones, la memoria 33 comprende informacion basada en las orientaciones deseadas o “de enfoque” de la luminaria, la localizacion deseada o “de enfoque” en la cancha, o cualquier informacion adecuada basada en un requisito “de enfoque”. Esta informacion puede determinarse o encontrarse, por ejemplo, a partir del plan de iluminacion que comprende una lista o tabla de las luminarias instaladas o que van a instalarse en el estadio, el tipo de luminaria, la localizacion de montaje o colocacion de las luminarias (en relacion con un dato conocido, tal como el punto central del estadio), la orientacion deseada de la luminaria y el punto de enfoque deseado de la luminaria (en relacion con el dato conocido). Ademas, como se expone en el presente documento en algunas realizaciones, la informacion basada en una localizacion de enfoque deseada de la luminaria puede estar en forma de imagenes generadas simuladas o predeterminadas desde el punto de vista de una camara (luminaria) montada en la localizacion y orientacion deseadas y enfocada a la localizacion o punto de enfoque deseado. En algunas realizaciones, la memoria 33 puede comprender informacion basada en cualquiera de las caractensticas que se usaran en las operaciones de enfoque. Como se describira mas adelante, las caractensticas pueden ser intrmsecas a la arquitectura o estructura dentro de la que se genera el efecto de iluminacion, por ejemplo, las caractensticas dentro del estadio. En algunas realizaciones, las caractensticas son caractensticas de enfoque u objetivo a localizar en localizaciones conocidas o determinadas. Asf, por ejemplo, cualquier parametro asociado con las caractensticas (de enfoque, objetivo o intrmsecas) se almacena en la memoria 33. Pueden ser, por ejemplo, la localizacion, la forma, el tamano, el color o el patron de luz de la caractenstica.
La memoria 33 puede ser cualquier memoria adecuada, tal como una memoria de semiconductores y, en algunas realizaciones, la memoria 33 comprende al menos una parte de memoria volatil y una parte de memoria no volatil. En algunas realizaciones, al menos parte de la memoria se encuentra separada del aparato de enfoque 3. Por ejemplo, en algunas realizaciones, una parte de la memoria, tal como la memoria que comprende el plan de iluminacion o la informacion basada en el plan de iluminacion, esta localizada en un servidor alejado del aparato de enfoque 3 y puede recuperarse por el procesador 33 a traves de una conexion de datos adecuada.
Por lo tanto, el procesador 31 puede configurarse para recibir datos de imagen de la camara 1. En algunas realizaciones, el procesador esta configurado ademas para recibir la informacion de iluminacion y la informacion de caractensticas. A continuacion, el procesador 31 puede analizar los datos de imagen, la informacion de iluminacion y la informacion de caractensticas y determinar y emitir informacion de evaluacion de enfoque basada en el analisis para permitir determinar si la luminaria esta correctamente enfocada. Por ejemplo, en algunas realizaciones, el procesador puede configurarse para generar una posicion de imagen (o una desviacion de imagen a partir de una posicion definida en una imagen) basandose en un mapeo de la distancia entre la localizacion de enfoque deseada de la luminaria y la localizacion esperada de al menos una caractenstica con respecto al punto de vista de la imagen. A continuacion, una vez determinada la posicion de imagen, el procesador puede generar un indicador grafico en la posicion de imagen que se aplicara a la imagen para indicar la posicion esperada de la al menos una caractenstica dentro de la imagen. Aunque se entendera que, en la siguiente descripcion, los terminos localizacion y posicion son intercambiables. Por razones de claridad, el termino localizacion se usa con respecto a una localizacion o posicion ffsica, tal como la localizacion de enfoque o la localizacion de la caractenstica dentro del estadio, y el termino posicion se usa con respecto a una imagen o informacion de camara dentro de la imagen o basada en la imagen. Cuando el indicador grafico esta alineado con la caractenstica, entonces la luminaria esta correctamente enfocada. Ademas, el instalador o el usuario pueden, cuando el indicador grafico no esta alineado con la caractenstica en la imagen, intentar ajustar la luminaria para alinear el indicador grafico con la caractenstica en la imagen.
En algunas realizaciones, el procesador 31 puede configurarse, ademas, para realizar el procesamiento de imagen y analizar la imagen para determinar la al menos una caractenstica dentro de la imagen. Como se describe mas adelante, la caractenstica puede ser, por ejemplo, un marcador o baliza visual colocado en el campo o puede determinarse en funcion de la estructura o configuracion intnnseca del estadio o cancha.
El procesador 31 puede configurarse, ademas, para determinar la posicion de la o las caractensticas dentro de la imagen. Ademas, la posicion se define en algunas realizaciones en relacion con un punto o lugar conocido. Por ejemplo, en algunas realizaciones, la posicion de la o las caractensticas se determina en relacion con el punto central de la imagen, sin embargo, se entendera que en algunas realizaciones la posicion de la o las caractensticas se determina en relacion con una de las esquinas o bordes de la imagen.
A continuacion, una vez determinada la posicion de la o las caractensticas, el procesador 31 puede configurarse para determinar o analizar la posicion de la o las caractensticas dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas. El procesador 31 puede usar este analisis para generar y emitir informacion de evaluacion de enfoque para permitir determinar si la luminaria esta correctamente enfocada o no. Por ejemplo, el procesador 31 puede determinar la posicion de imagen (o una desviacion de imagen a partir de una posicion definida en una imagen) entre la caractenstica en la imagen y una posicion de caractenstica esperada y generar informacion de evaluacion de enfoque o una senal de ajuste de enfoque u orientacion adicional basandose en el analisis.
En algunas realizaciones, el aparato de enfoque comprende, ademas, una unidad de visualizacion 35. La unidad de visualizacion puede ser cualquier tecnologfa de visualizacion adecuada para proporcionar un indicador visual o grafico al instalador o usuario del aparato de enfoque 3. En algunas realizaciones, la unidad de visualizacion es una parte desmontable o separada del aparato de enfoque y configurada para recibir la informacion de evaluacion de enfoque (tal como la senal de ajuste de orientacion) y visualizar una representacion visual de la informacion relacionada con la informacion de evaluacion de enfoque. En algunas realizaciones, la unidad de visualizacion 35 puede recibir la imagen capturada por la camara y superponer la informacion de evaluacion de enfoque, tal como el indicador visual o grafico. En algunas realizaciones, la imagen puede ademas procesarse. Por ejemplo, pueden mejorarse visualmente las caractensticas determinadas.
En algunas realizaciones, la unidad de visualizacion puede implementarse como una aplicacion o programa que opera en una tableta, dispositivo movil o telefono movil. En algunas realizaciones, la tecnologfa de visualizacion es una pantalla de realidad aumentada, tal como, por ejemplo, unas gafas de realidad aumentada.
En algunas realizaciones, la informacion de evaluacion de enfoque puede procesarse por el aparato y emitirse a traves de un aparato de salida audible, tal como un altavoz o un auricular. La salida audible de la informacion de evaluacion de enfoque puede, en algunas realizaciones, complementar la salida visual o grafica y, ademas, indicar al instalador o usuario si la luminaria esta correctamente enfocada. Por ejemplo, un auricular podna intentar producir una senal de fuente de audio espacial que indicara al instalador o usuario una rotacion alrededor del eje vertical. Por lo tanto, una senal espacial izquierda podna indicar un ajuste a la izquierda y una senal espacial derecha indicar un ajuste a la derecha.
En algunas realizaciones, el sistema de enfoque de iluminacion comprende ademas un motor controlable 37 configurado para recibir la senal de ajuste de orientacion. El motor, por ejemplo, un motor paso a paso, puede configurarse para mover o accionar la luminaria 5 para reducir cualquier error de enfoque. En tales realizaciones, la luminaria 5 puede montarse en un cardan inclinable y panoramico que se acciona o se mueve por el motor electronicamente controlado 37. Ademas, en algunas realizaciones, el motor controlable 37 puede mover o accionar la luminaria en una orientacion de balanceo. Aunque la mayona de las luminarias tienen una proyeccion de luz invariante de rotacion con respecto al centro optico y, por lo tanto, no siempre es necesario adaptar el angulo de balanceo mecanico, un movimiento de balanceo puede producir un efecto para los modulos de proyeccion de luz asimetrica. En algunas realizaciones, el balanceo mecanico puede medirse con un dispositivo de inclinacion similar a un acelerometro en el plano perpendicular al eje optico y puede generarse y proyectarse una superposicion de la rejilla de alineacion como parte de la informacion de evaluacion de enfoque sobre la imagen de entrada, de manera que el usuario pueda detectar cualquier desalineacion y corregir el angulo de balanceo en consecuencia.
En algunas realizaciones, el sistema de enfoque de iluminacion comprende ademas unos sensores adicionales 39. Por ejemplo, en algunas realizaciones, el sistema de enfoque de iluminacion comprende un sensor de inclinacion acoplado a la luminaria 5 y configurado para determinar un valor de orientacion (inclinacion) de eje horizontal que puede transmitirse al procesador 31. En tales realizaciones, el procesador 31 puede configurarse para recibir la salida del sensor de inclinacion y determinar si la luminaria esta correctamente enfocada alrededor de una orientacion de eje horizontal mediante el analisis de la salida del sensor de inclinacion usando la informacion almacenada en la memoria 33, tal como comparando el angulo de inclinacion medido y el angulo de inclinacion deseado para la luminaria. Ademas, en tales realizaciones, el procesador 31 puede configurarse para determinar si la luminaria esta correctamente enfocada alrededor de una orientacion de eje vertical (una orientacion panoramica) basandose en el analisis de la imagen y la informacion almacenada en la memoria 33 como se describe en el presente documento. De esta manera, se simplifica el analisis de imagenes, como se expone en el presente documento, ya que la orientacion de inclinacion se determina por separado y no es necesario que se determine a partir del analisis de la imagen usando la informacion almacenada en la memoria. En algunas realizaciones, el uso del sensor de inclinacion puede configurarse para comprobar o calibrar la determinacion de si el enfoque de la luminaria es correcto en funcion del analisis de la imagen, como se expone en el presente documento. Ademas, en algunas realizaciones, el uso del sensor de inclinacion puede combinarse con el analisis de la imagen, como se expone en el presente documento, para determinar con mas precision el enfoque de la luminaria.
De manera similar, en algunas realizaciones, el sistema de iluminacion comprende ademas un sensor de alcance o distancia montado en la luminaria 5 y configurado para determinar una distancia o alcance de la luminaria a la posicion o punto de enfoque. En tales realizaciones, el procesador 31 puede recibir la salida del sensor de distancia o alcance y analizar esto basandose en la informacion de la memoria 33 para determinar la orientacion horizontal o de inclinacion. En tales realizaciones, el procesador 31 puede configurarse para recibir la salida del sensor de alcance o distancia y determinar si la luminaria esta correctamente enfocada alrededor de una orientacion de eje horizontal mediante el analisis de la salida del sensor de alcance o distancia usando la informacion almacenada en la memoria 33, tal como comparando la distancia o alcance medido con una distancia esperada entre la luminaria y la posicion o punto de enfoque. Ademas, en tales realizaciones, el procesador 31 puede configurarse para determinar si la luminaria esta correctamente enfocada alrededor de una orientacion de eje vertical (una orientacion panoramica) basandose en el analisis de la imagen y la informacion almacenada en la memoria 33 como se expone en el presente documento. De esta manera, se simplifica el analisis de imagenes, como se expone en el presente documento, ya que la orientacion de inclinacion se determina por separado y no es necesario que se determine a partir del analisis de la imagen usando la informacion almacenada en la memoria. En algunas realizaciones, el uso del sensor de alcance o distancia puede configurarse para comprobar o calibrar la determinacion de si el enfoque de la luminaria es correcto en funcion del analisis de la imagen como se expone en el presente documento. Ademas, en algunas realizaciones, el uso del sensor de alcance o distancia puede combinarse con el analisis de la imagen, como se expone en el presente documento, para determinar con mas precision el enfoque de la luminaria.
En los siguientes ejemplos, el procesador genera la informacion de evaluacion de enfoque basandose en las realizaciones de procesamiento de imagenes descritas anteriormente. Sin embargo, se entendera que el siguiente aparato puede configurarse para generar la informacion de evaluacion de enfoque en la forma de la posicion de imagen aplicada a la imagen. En otras palabras, generar y emitir la informacion de evaluacion de enfoque generando una posicion de la imagen basada en el mapeo de la distancia entre la localizacion de enfoque deseada de la luminaria y la localizacion esperada de al menos una caractenstica con respecto al punto de vista de la imagen de la manera descrita en el presente documento. A continuacion, una vez determinada la posicion de imagen, se aplica un indicador grafico a la imagen en la posicion de imagen para indicar la posicion esperada de la al menos una caractenstica dentro de la imagen.
En algunas realizaciones, el procesador 31 puede configurarse, ademas, para realizar el procesamiento de imagenes y analizar la imagen para determinar la al menos una caractenstica dentro de la imagen.
Con respecto a la figura 2, se muestra una operacion a modo de ejemplo del sistema de enfoque de iluminacion de acuerdo con el primer conjunto de realizaciones. El estadio esta representado en la figura 2 por un campo de futbol 100 y una luminaria a modo de ejemplo 5 (acoplada a una camara 1) que tiene un eje optico o direccion de enfoque 103 que se interseca con el campo de futbol 100 en una localizacion o punto de enfoque 107 en la superficie del campo. La luminaria 5 en este ejemplo esta localizada en una localizacion de luminaria conocida a priori (x, y, z: X1, Y1, Z1) pero tiene una orientacion horizontal y vertical desconocida o aun no determinada con precision.
Ademas, en el campo hay al menos un marcador visual 101 en una localizacion conocida. En este ejemplo, un solo marcador visual 101 esta localizado en el punto central del campo (x, y, z: 0, 0, 0). El marcador visual puede ser cualquier objeto adecuado, tal como una bola, un reflector o una fuente o baliza de luz activa. Se entendera que una baliza podna definirse como una baliza activa y pasiva. Ademas, los terminos baliza e indicador visual no debenan limitarse al alcance visual humano de las longitudes de onda, sino al alcance de la sensibilidad de un sensor de la camara. En algunas realizaciones, diferentes objetos pueden tener diferentes caractensticas, tales como diferentes colores o formas de marcadores, o fuentes de luz codificadas (pulsadas) con el fin de permitir que los marcadores visuales se distingan entre sf.
La camara 1 acoplada o montada en la luminaria 5 puede configurarse para capturar una imagen, como se describe en el presente documento, y se muestra en la figura 2 como la imagen 110. La imagen 110, en este ejemplo, tiene un centro de imagen que muestra el punto de enfoque 107. La camara puede, en algunas realizaciones, transmitir esta imagen al procesador 31.
A continuacion, el procesador 31 puede configurarse para analizar la imagen 110 para determinar una caractenstica (que en este ejemplo es el marcador visual 101). La determinacion del indicador visual puede basarse en cualquier parametro conocido, tal como el color, la forma, el tamano o el patron de baliza. Por ejemplo, la imagen puede filtrarse por color para identificar el indicador visual que tiene un color espedfico, o puede procesarse la imagen para determinar una forma espedfica. Una vez determinada la caractenstica (marcador visual 101) dentro de la imagen 110, el procesador puede configurarse para determinar la posicion del marcador visual 101 dentro de la imagen 110. En el ejemplo mostrado en el presente documento, la posicion dentro de la imagen 110 se determina en funcion del numero de filas de pfxeles (desviacion vertical) Ar y el numero de columnas de pfxeles (desviacion horizontal) Ac desde el centro de la imagen (que representa el punto de enfoque) 107.
En algunas realizaciones, el procesador 31 puede configurarse para usar la desviacion (el numero de filas de pfxeles y columnas de pfxeles) desde el centro de la imagen para definir una lmea de vector 105 que se origina en la posicion en el plano de imagen a traves del eje optico que termina en la localizacion de marcador en el campo. Este vector 105 puede, en algunas realizaciones, usarse para obtener una estimacion de los angulos de rotacion alrededor de la direccion de fila y de columna con respecto al eje optico, o, en otras palabras, para determinar una estimacion de la o las orientaciones de la luminaria, conociendo las localizaciones relativas de la luminaria, la caractenstica (o marcador visual) y la “distancia” entre el punto de enfoque y la caractenstica.
En tales situaciones, el procesador 31 puede recuperar, ademas, a partir del plan de iluminacion, o la informacion basada en el plan de iluminacion, la o las orientaciones esperadas o deseadas de la luminaria. El procesador puede comparar la o las orientaciones determinadas o medidas con la o las orientaciones esperadas y, por lo tanto, determinar si la luminaria esta correctamente enfocada o no. Ademas, a partir de la diferencia entre la o las orientaciones determinadas o medidas con la o las orientaciones esperadas, el procesador puede generar ademas una senal de ajuste de correccion u orientacion para trasmitir a la unidad de visualizacion o al motor, como se describe en el presente documento.
En algunas realizaciones, al menos algunos de los calculos geometricos pueden realizarse antes de la determinacion de si la luminaria esta correctamente enfocada. Por ejemplo, en algunas realizaciones, el procesador 31 puede, por ejemplo, usar la informacion en funcion de la localizacion de luminaria esperada segun el plan de iluminacion, la o las orientaciones y, potencialmente, el punto de enfoque con respecto al campo, la localizacion del indicador visual y, con el conocimiento del campo visual de la camara, predeterminar una desviacion o posicion de imagen esperada. Ademas, en algunas realizaciones, el plan de iluminacion puede comprender por sf mismo un valor o posicion de desviacion de imagen esperado. A continuacion, en tales realizaciones, el procesador 31 puede comparar los valores o posiciones de desviacion de imagen esperados con los valores o posiciones de desviacion de imagen determinados con el fin de determinar si la luminaria esta correctamente enfocada o no. Ademas, la diferencia entre las desviaciones o posiciones de imagen esperadas y determinadas puede usarse ademas para generar una senal de ajuste de correccion u orientacion para transmitirla a la unidad de visualizacion o al motor como se describe en el presente documento.
En algunas realizaciones adicionales, la desviacion o posicion de imagen esperada puede generarse como una imagen simulada que comprende un marcador visual simulado en la desviacion de imagen o posicion de imagen esperada que puede superponerse con respecto a la imagen capturada y presentarse al usuario de la unidad de visualizacion. El marcador visual simulado visualizado puede usarse para informar al instalador o usuario del aparato de enfoque por medio de una interfaz de usuario grafica adecuada sobre la orientacion correcta de la luminaria.
Con respecto a la figura 3, se muestra un ejemplo del sistema de enfoque de iluminacion de acuerdo con un segundo conjunto de realizaciones. Mientras que en el ejemplo mostrado en la figura 2 habfa un solo indicador visual, en este ejemplo se colocan en el campo multiples marcadores visuales (o balizas) en localizaciones conocidas. Esto se muestra con respecto a la figura 3 por el campo que tiene un segundo marcador visual 201 localizado en una segunda posicion conocida (x, y, z: X2, Y2, Z2).
El procesador 31 puede recibir la imagen 210. La imagen 210 capturada por la camara 1 muestra ambos marcadores visuales 101, 201. A continuacion, el procesador puede determinar, ademas, las “caractensticas” o marcadores visuales 201, 101. A continuacion, el procesador 31 puede determinar la posicion de los marcadores visuales con respecto a la imagen capturada. Esto se muestra una vez mas en la imagen 210, donde el primer marcador visual 101 tiene una desviacion (vertical) de filas de pfxeles Ar y una desviacion (horizontal) de columnas de pfxeles Ac con respecto al centro de la imagen (que representa el punto de enfoque) 107 y el segundo marcador visual 201 tiene una desviacion (vertical) de filas de pfxeles Ar2 y una desviacion (horizontal) de columnas de pfxeles Ac2 con respecto al centro de la imagen (que representa el punto de enfoque) 107. De esta manera, el procesador puede determinar a continuacion los vectores de desplazamiento 105, 205. Ademas, el procesador 31 puede analizar estos vectores 105, 205 para obtener una estimacion de los angulos de rotacion alrededor de la direccion de fila y de columna con respecto al eje optico. En otras palabras, el procesador puede determinar una estimacion de la o las orientaciones de la luminaria, conociendo las localizaciones relativas de la luminaria, la caractenstica (o marcador visual) y la “distancia” entre el punto de enfoque y la localizacion conocida de la caractenstica. El uso de multiples caractensticas es ventajoso, ya que permite determinar una posicion de enfoque promedio con la capacidad de reducir cualquier error presentado por una sola medicion. Ademas, con un numero suficiente de caractensticas o indicadores visuales determinados, el procesador 31 puede ademas obtener otros parametros asociados con la luminaria, tal como la orientacion de rotacion de luminaria (que es util para el enfoque de patrones de luz no simetricos), o estimar la localizacion de la camara dentro del estadio (en otras palabras, la localizacion de la luminaria dentro del estadio). Asf, por ejemplo, con dos caractensticas o marcadores visuales puede estimarse una rotacion alrededor del eje optico, mientras que en el caso de una caractenstica (marcador) se supone que esta rotacion de balanceo es cero y, por lo tanto, se ignora. Para la localizacion de la luminaria se requieren 4 caractensticas (o balizas) en la imagen 2D. Cuando los datos de alcance o distancia estan disponibles para las caractensticas, solo se requieren tres balizas para obtener una localizacion de luminaria. Cuando tambien puede determinarse la orientacion 2D del plano del campo, entonces solo se necesitan 2 caractensticas en la imagen para estimar o extraer la localizacion de la luminaria. En algunas realizaciones, esta informacion puede estimarse o extraerse directamente mediante, por ejemplo, el analisis de una imagen 3D desde un escaner laser 2D.
En algunas realizaciones, el procesador 31 en algunas realizaciones puede usar la localizacion de luminaria estimada para determinar la identidad de la luminaria a partir solo de la imagen. Por lo tanto, en algunas realizaciones, el procesador no necesita conocer la localizacion de la luminaria, sino determinar la localizacion basandose en la imagen y, a partir de esta localizacion, usar el plan de iluminacion o la informacion basada en la localizacion del plan de iluminacion para identificar la luminaria y, a continuacion, determinar a partir del plan de iluminacion o la informacion basada en el plan de iluminacion, la localizacion de enfoque asociada esperada y/o la estimacion de orientacion esperada.
A continuacion, el procesador 31 puede comparar la localizacion de enfoque esperada y/o la o las orientaciones esperadas con la localizacion de enfoque y/o la o las orientaciones determinadas para determinar si la luminaria identificada esta correctamente enfocada. Como se ha descrito anteriormente, este analisis de la posicion de la caractenstica dentro de la imagen usando la informacion basada en el plan de iluminacion para determinar si la luminaria esta correctamente enfocada puede ser, por ejemplo, una comparacion de la o las orientaciones determinadas, o el o los desplazamientos de imagen determinados, o la o las imagenes simuladas de marcadores visuales esperados superpuestos en la imagen capturada.
Aunque el ejemplo mostrado con respecto a las figuras 2 y 3 usa marcadores visuales colocados en localizaciones conocidas del campo, se entendera que en algunas realizaciones la imagen puede analizarse para determinar las caractensticas bidimensionales o tridimensionales inherentes o intnnsecas. Por ejemplo, la figura 4 muestra una imagen filtrada de deteccion de bordes a modo de ejemplo desde una camara. Dentro de esta imagen se muestran dos posibles caractensticas intnnsecas que pueden usarse como caractensticas de referencia con localizaciones conocidas dentro del estadio. La figura 4 muestra una caractenstica bidimensional a modo de ejemplo en la forma de la marca de campo del area de penalti 305. Las marcas en el campo se realizan en localizaciones conocidas y con tamanos conocidos, y la imagen que las incluye puede usarse para determinar un punto en la caractenstica adecuada para generar un vector de desplazamiento de imagen adecuado. Ademas, una caractenstica tridimensional a modo de ejemplo mostrada en la figura 4 es un borde de una grada de estadio con asientos inferior 301. Se entendera que un estadio tiene muchas de estas caractensticas que podnan identificarse con localizaciones conocidas y, a continuacion, determinarse dentro de la imagen. Por ejemplo, las caractensticas intnnsecas tambien podnan ser las propias luminarias de reflector, ya que en el plano de iluminacion se conoce la localizacion de cada luminaria. Por lo tanto, las luminarias observadas podnan usarse como punto de referencia pasivo o activo. Mediante la activacion (luz estatica o codificada) de una luminaria espedfica, puede crearse una baliza para la camara de observacion. En funcion de la localizacion de la luminaria a dirigir, puede activarse una luminaria como una baliza en la localizacion, dando como resultado una mayor precision de enfoque. Por lo tanto, en algunas realizaciones, la herramienta o aparato de enfoque podna indicar la luminaria de baliza, dando como resultado la mas alta precision de enfoque. En tales realizaciones, el uso de las luces de estadio podna dar como resultado que el eje optico de la luminaria y la camara estuvieran no alineados o desviados. La captura de imagenes de las luces de estadio montadas sobre el campo, asf como las localizaciones objetivo en el campo, podna requerir un campo de vision muy grande. Por lo tanto, en tales realizaciones, podna haber una desviacion mecanica definida entre el eje optico de la luminaria y un campo de vision del sistema de camara, de tal manera que la camara podna observar las luminarias independientemente de la localizacion objetivo de luminaria en el campo.
Posteriormente, la luminaria puede activarse manualmente por un operario o automaticamente por el sistema. Se entendera que en algunas realizaciones, como muchas de estas formas han definido lmeas rectas o sustancialmente rectas, puede determinarse y permitirse cualquier efecto de perspectiva optica.
En tales realizaciones el procesador 31 puede configurarse para extraer la caractenstica u objeto con una unica forma bidimensional o tridimensional de acuerdo con cualquier tecnica o metodo conocido.
Con respecto a la figura 5, se muestra un ejemplo adicional del sistema de enfoque de iluminacion de acuerdo con un conjunto adicional de realizaciones. En este ejemplo, el sistema de enfoque comprende un sensor de inclinacion configurado para determinar un angulo de inclinacion 401. El sensor de inclinacion puede, como se describe en el presente documento, usarse como una manera complementaria de determinar el angulo de orientacion de la luminaria. Por ejemplo, el sensor de inclinacion puede usarse en algunas realizaciones para medir la rotacion alrededor del eje horizontal y, por lo tanto, reducir la complejidad del analisis requerido para determinar si la luminaria esta correctamente enfocada con respecto a la imagen.
Con respecto a la figura 6, se muestra un ejemplo adicional del sistema de enfoque de iluminacion donde el sistema de enfoque comprende un sensor de alcance o distancia configurado para determinar un alcance o distancia 501 entre la luminaria o la camara y el punto de enfoque 107. En la siguiente aplicacion, la expresion sensor de alcance o distancia se define como cualquier medio adecuado para determinar el alcance o la distancia desde la luminaria o la camara a una localizacion definida. En algunas realizaciones, el sensor puede medir la distancia directamente. Sin embargo, en algunas realizaciones, el sensor puede medir la distancia indirectamente. La localizacion definida puede ser, por ejemplo, el punto de enfoque de la luminaria o la camara o la caractenstica. Como se describe en el presente documento, la salida del sensor de distancia o alcance puede usarse como una manera complementaria de determinar el angulo de orientacion de la luminaria. Por ejemplo, el sensor de alcance o distancia puede usarse en algunas realizaciones para determinar una distancia a un punto de enfoque y, conociendo la localizacion (o al menos la altura) de la luminaria, determinar la orientacion o rotacion alrededor del eje horizontal usando una simple trigonometna. En tales realizaciones, puede reducirse la complejidad del analisis requerido para determinar si la luminaria esta correctamente enfocada, ya que a continuacion solo se necesita determinar la orientacion alrededor del eje vertical, lo que simplifica la estimacion en una sola dimension. En algunas realizaciones, en lugar de usar un solo elemento para medir la distancia en el eje optico, el sensor de alcance tambien puede ser una matriz de sensores de alcance o distancia. El uso de una disposicion/matriz de elementos de deteccion de alcance tiene la ventaja de que la orientacion de la luminaria con respecto al plano de tierra puede determinarse directamente. El sensor de alcance en algunas realizaciones podna implementarse mediante un escaner laser de escaneo de lmeas que escanea alrededor del eje horizontal. Con un escaner laser bidimensional o una camara de tiempo de vuelo es posible medir la orientacion del plano de tierra ajustando la superficie. Ademas, el sensor de matriz de alcance puede usarse para detectar balizas de acuerdo con sus propiedades de forma 3D y, por lo tanto, usarse para alinear la luminaria con respecto al eje vertical. En otras palabras, en algunas realizaciones, la camara puede reemplazarse por o complementarse con la disposicion/matriz de elementos de deteccion de alcance que operan como un generador de imagenes (donde la imagen generada tiene, ademas, informacion de profundidad o distancia). Ademas, se entendera que en algunas realizaciones, el alcance o la distancia entre la luminaria y una caractenstica, tal como una baliza, puede determinarse indirectamente usando la imagen. Por ejemplo, la caractenstica dentro de la imagen se mide y se compara con su tamano real o conocido (en metros). En tales realizaciones, como se conocen las propiedades del sistema optico, puede obtenerse la distancia a partir de la escala de la baliza (factor de aumento) en la imagen.
Con respecto a la figura 7, se describe un metodo de operacion del sistema de enfoque de iluminacion a modo de ejemplo. Como se describe en el presente documento, la camara 1 puede configurarse para determinar o capturar una imagen que se monta o se acopla en la luminaria y, preferentemente, se localiza de manera tal que el centro del campo de vision refleje el eje optico de la luminaria. En otras palabras, el punto central del haz de luminaria tambien es el punto central de la imagen.
La operacion de capturar una imagen con la camara se muestra en la figura 7 por la etapa 601.
El procesador 31 en algunas realizaciones puede ademas configurarse para recibir la imagen y determinar a partir de la imagen al menos una caractenstica adecuada. Como se expone en el presente documento, en algunas realizaciones, la caractenstica es un marcador visual localizado en posiciones conocidas en el campo y, en algunas realizaciones, es una caractenstica determinada a partir de la estructura o configuracion implfcita o inherente del estadio (tal como las marcas de campo, la arquitectura del estadio, etc.). Aunque en algunas realizaciones se determina una sola caractenstica, se entendera que puede determinarse cualquier numero de caractensticas y que cuantas mas caractensticas se determinen, mas precisa sera la estimacion de la localizacion y la orientacion de la luminaria.
La operacion de determinar al menos una caractenstica a partir de la imagen se muestra en la figura 7 por la etapa 603.
El procesador puede ademas configurarse para determinar la posicion de la o las caractensticas dentro de la imagen. Como se expone en el presente documento, la posicion puede ser relativa al punto central de la imagen o a cualquier lugar adecuado, tal como las esquinas o los bordes de la imagen.
La operacion de determinar la posicion de la o las caractensticas dentro de la imagen se muestra en la figura 7 por la etapa 605.
El procesador, que ha determinado la posicion de la o las caractensticas dentro de la imagen, puede analizar esta informacion usando la informacion basada en el plan de iluminacion (tal como la localizacion, orientacion y/o localizacion de enfoque de luminaria esperada o deseada). En algunas realizaciones, esto puede comprender determinar la geometna de la luminaria (la localizacion, orientacion y/o localizacion de enfoque) en funcion de las localizaciones de caractensticas de imagen y comparar esta localizacion y/u orientacion de luminaria determinada con la localizacion esperada del plan de iluminacion almacenado y/o la informacion de orientacion. En algunas realizaciones, el procesador puede determinar un desplazamiento estimado desde el punto de vista de la luminaria entre un punto de enfoque deseado y la caractenstica (tal como el marcador visual en una posicion conocida) y comparar este desplazamiento estimado con el desplazamiento determinado de la imagen con el fin de determinar si la luminaria se ha enfocado correctamente o no (y, ademas, un posible movimiento de orientacion correctivo). En algunas realizaciones, el procesador puede determinar una imagen simulada o recuperar una imagen simulada a partir de la memoria del punto de vista de una camara basandose en el punto de enfoque deseado para la luminaria. La operacion de recuperar la informacion basada en el plan de iluminacion a partir de la memoria se muestra en la figura 7, etapa 607.
La operacion de analizar la posicion determinada de las caractensticas dentro de la imagen usando la informacion con el fin de determinar si la luminaria esta correctamente enfocada se muestra en la figura 7 por la etapa 609. A continuacion, cuando la luminaria esta correctamente enfocada, puede detenerse la operacion.
La operacion de detener el metodo del sistema de enfoque de iluminacion se muestra en la figura 7 por la etapa 611. Cuando la luminaria no esta correctamente enfocada, entonces, el procesador puede configurarse en algunas realizaciones para generar una senal de ajuste de orientacion o una informacion de evaluacion de enfoque adecuada. En algunas realizaciones, la informacion de evaluacion de enfoque puede ser una senal de interfaz de usuario grafica adecuada, por ejemplo, una superposicion de imagenes para visualizar en una unidad de visualizacion con la imagen capturada desde la camara, una senal de retroalimentacion de audio o una senal (vibracion) de retroalimentacion haptica que se transmite al instalador para su uso. En algunos entornos, como se describe en el presente documento, la senal de orientacion adecuada puede enviarse a un motor para ajustar la orientacion de la luminaria directamente.
La operacion de generar una senal de ajuste de orientacion adecuada se muestra en la figura 7 por la etapa 613. Ademas, en general, las diversas realizaciones pueden implementarse en hardware o circuitos de proposito especial, software, logica o cualquier combinacion de los mismos. Por ejemplo, algunos aspectos pueden implementarse en hardware, mientras que otros pueden implementarse en firmware o software que puede ejecutarse por un controlador, microprocesador u otro dispositivo informatico, aunque estos no son ejemplos limitantes. Aunque los diversos aspectos descritos en el presente documento pueden ilustrarse y describirse como diagramas de bloques, diagramas de flujo o mediante el uso de alguna otra representacion grafica, se entiende bien que estos bloques, aparatos, sistemas, tecnicas o metodos descritos en el presente documento pueden implementarse, como ejemplos no limitantes, en hardware, software, firmware, circuitos o logica de proposito especial, hardware o controlador de proposito general u otros dispositivos informaticos, o alguna combinacion de los mismos.
Las realizaciones descritas en el presente documento pueden implementarse por software informatico ejecutable por un procesador de datos del aparato, tal como en la entidad de procesador, o por hardware, o por una combinacion de software y hardware. Ademas, a este respecto, cabe senalar que cualquier bloque del flujo logico en las figuras puede representar etapas de programa, o circuitos logicos, bloques y funciones interconectados, o una combinacion de etapas de programa y circuitos logicos, bloques y funciones. El software puede almacenarse en medios ffsicos tales como chips de memoria, o bloques de memoria implementados dentro del procesador, medios magneticos, tales como discos duros o disquetes, y medios opticos tales como, por ejemplo, DVD y las variantes de datos del mismo, CD.
La memoria puede ser de cualquier tipo adecuado para el entorno tecnico local y puede implementarse usando cualquier tecnologfa de almacenamiento de datos adecuada, tal como dispositivos de memoria basados en semiconductores, dispositivos y sistemas de memoria magneticos, dispositivos y sistemas de memoria opticos, memoria fija y memoria extrafble. Los procesadores de datos pueden ser de cualquier tipo adecuado para el entorno tecnico local, y pueden incluir uno o mas ordenadores de proposito general, ordenadores de proposito especial, microprocesadores, procesadores de senales digitales (DSP), circuitos integrados de aplicacion espedfica (ASIC), circuitos de nivel de compuerta y procesadores basados en la arquitectura de procesadores multinucleo, como ejemplos no limitantes.
Las realizaciones que se exponen en el presente documento pueden ponerse en practica en diversos componentes, tales como modulos de circuitos integrados. El diseno de circuitos integrados es, en general, un proceso altamente automatizado. Hay herramientas de software complejas y poderosas disponibles para convertir un diseno de nivel logico en un diseno de circuito semiconductor listo para grabarse y formarse en un sustrato semiconductor.

Claims (15)

REIVINDICACIONES
1. Un sistema de enfoque de iluminacion para enfocar un sistema de iluminacion de grandes areas, siendo el sistema de iluminacion de grandes areas para iluminar un area a alumbrar, comprendiendo el sistema de enfoque de iluminacion:
una luminaria (5), teniendo la luminaria una localizacion de montaje y una orientacion y estando configurada para generar un haz de luz a lo largo de un eje optico;
una camara (1) configurada para capturar una imagen, estando la camara (1) acoplada a la luminaria y teniendo una relacion definida entre un campo de vision de la camara y el eje optico;
una memoria (33) configurada para almacenar informacion de iluminacion correspondiente a una localizacion de enfoque deseada de la luminaria dentro del area a alumbrar, y estando la memoria configurada ademas para almacenar informacion de caractensticas que comprende una localizacion esperada de al menos una caractenstica dentro del area a alumbrar, que es diferente de la localizacion de enfoque deseada; y caracterizado por que el sistema de enfoque de iluminacion comprende ademas:
un procesador (31) configurado para determinar y emitir informacion de evaluacion de enfoque basandose en la informacion de caractensticas, la informacion de iluminacion y la imagen para permitir determinar si la luminaria esta correctamente enfocada mediante
el analisis de la imagen para determinar la al menos una caractenstica dentro de la imagen, determinar la posicion de la caractenstica dentro de la imagen, y analizar la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas para determinar y emitir la informacion de evaluacion de enfoque; comprendiendo la informacion de evaluacion de enfoque un indicador sobre si la luminaria esta correctamente enfocada.
2. Un sistema de enfoque de iluminacion de acuerdo con la reivindicacion 1, en el que el sistema de iluminacion es para enfocar uno de entre: un sistema de iluminacion de pistas o estadios, un sistema de iluminacion de fachadas, un sistema de iluminacion de zonas de produccion o un sistema de iluminacion de aparcamientos.
3. El sistema de enfoque de iluminacion de acuerdo con la reivindicacion 1, en el que el procesador (31) configurado para determinar y emitir informacion de evaluacion de enfoque esta configurado para generar una posicion de imagen basada en un mapeo de la distancia dentro de un campo de vision de la camara entre la localizacion de enfoque deseada de la luminaria, desde un punto de vista de la camara, y la localizacion esperada de al menos una caractenstica, desde un punto de vista de la camara, y configurado para generar un indicador grafico en la posicion de imagen a aplicar a la imagen para indicar la posicion esperada de la al menos una caractenstica dentro de la imagen.
4. El sistema de enfoque de iluminacion de acuerdo con las reivindicaciones 1 a 3, en el que la informacion de evaluacion de enfoque comprende ademas una senal de ajuste de orientacion de luminaria basada en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas.
5. El sistema de enfoque de iluminacion de acuerdo con la reivindicacion 4, que comprende ademas un motor electronicamente controlable (37) configurado para recibir la senal de ajuste de orientacion de luminaria y para accionar la luminaria (5) basandose en la senal de ajuste de orientacion de luminaria, de tal manera que se reduce la diferencia entre la localizacion de enfoque deseada y una localizacion de enfoque basada en la localizacion de montaje y la orientacion de la luminaria.
6. El sistema de enfoque de iluminacion de acuerdo con cualquiera de las reivindicaciones 1 a 5, que comprende ademas un sensor de inclinacion acoplado a la luminaria, en el que el procesador esta configurado para determinar si la luminaria esta correctamente enfocada en una primera orientacion, alrededor de un eje horizontal, basada en el analisis de la salida del sensor de inclinacion usando la informacion de iluminacion; y determinar si la luminaria esta correctamente enfocada en una segunda orientacion, alrededor de un eje vertical, basada en la informacion de evaluacion de enfoque.
7. El sistema de enfoque de iluminacion de acuerdo con cualquiera de las reivindicaciones 1 a 6, que comprende ademas un sensor de distancia o alcance acoplado a la luminaria, en el que el procesador esta configurado para determinar si la luminaria esta correctamente enfocada en una primera orientacion, alrededor de un eje horizontal, basada en el analisis de la salida del sensor de distancia o alcance usando la informacion de iluminacion y determinar si la luminaria esta correctamente enfocada en una segunda orientacion, alrededor de un eje vertical, basada en la informacion de evaluacion de enfoque.
8. El sistema de enfoque de iluminacion de acuerdo con cualquiera de las reivindicaciones 1 a 7, que comprende ademas una pantalla (35), en el que la pantalla esta configurada para recibir y visualizar una representacion visual de la informacion relacionada con la informacion de evaluacion de enfoque, por ejemplo, en el que la pantalla (8) es una pantalla de realidad aumentada que muestra una representacion de la localizacion de enfoque de luminaria desde el punto de vista de la pantalla, basandose la localizacion de enfoque de luminaria en la informacion de evaluacion de enfoque.
9. El sistema de enfoque de iluminacion de acuerdo con cualquiera de las reivindicaciones 1 a 8, en el que al menos una caractenstica es al menos una de entre:
al menos una baliza localizada en una o unas localizaciones determinadas, y en el que la informacion de caractensticas comprende la o las localizaciones esperadas de la al menos una baliza; y
una caractenstica en 2D o 3D intnnseca localizada en una localizacion definida, y en el que la informacion de caractensticas comprende la localizacion de la caractenstica en 2D o 3D.
10. El sistema de enfoque de iluminacion de acuerdo con cualquiera de las reivindicaciones 1 a 9, en el que la al menos una caractenstica es un numero de una a cuatro caractensticas.
11. Un metodo para enfocar un sistema de iluminacion de grandes areas, siendo el sistema de iluminacion de grandes areas para iluminar un area a alumbrar, comprendiendo el metodo:
localizar una luminaria (5) en una localizacion de montaje con una orientacion tal que la luminaria esta configurada para generar un haz de luz a lo largo de un eje optico;
acoplar una camara (1) a la luminaria con una relacion definida entre un campo de vision de la camara y el eje optico;
capturar una imagen con la camara (1);
almacenar una informacion de iluminacion que comprende una localizacion de enfoque deseada de la luminaria dentro del area a alumbrar;
almacenar informacion de caractensticas que comprende una localizacion esperada de al menos una caractenstica dentro del area a alumbrar, que es diferente de la localizacion de enfoque deseada;
determinar una informacion de evaluacion de enfoque basada en la informacion de caractensticas, la informacion de iluminacion y la imagen;
en el que dicha determinacion de la informacion de evaluacion de enfoque comprende:
analizar la imagen para determinar la al menos una caractenstica dentro de la imagen;
determinar la posicion de la caractenstica dentro de la imagen;
analizar la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas; y
emitir la informacion de evaluacion de enfoque para permitir determinar si la luminaria esta correctamente enfocada mediante la generacion de un indicador de enfoque sobre si la luminaria esta correctamente enfocada basandose en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas.
12. El metodo de acuerdo con la reivindicacion 11, en el que determinar la informacion de evaluacion de enfoque comprende:
generar una posicion de imagen basandose en un mapeo de la distancia dentro de un campo de vision de la camara entre la localizacion de enfoque deseada de la luminaria, desde un punto de vista de la camara, y la localizacion esperada de al menos una caractenstica, desde un punto de vista de la camara;
generar un indicador grafico en la posicion de imagen;
aplicar a la imagen el indicador grafico en la posicion de imagen para indicar la localizacion esperada de la al menos una caractenstica dentro de la imagen.
13. El metodo de acuerdo con cualquiera de las reivindicaciones 11 a 12, en el que determinar la informacion de evaluacion de enfoque comprende ademas generar una senal de ajuste de orientacion de luminaria basada en el analisis de la posicion de la caractenstica dentro de la imagen usando la informacion de iluminacion y la informacion de caractensticas, y emitir la informacion de evaluacion de enfoque comprende emitir la senal de ajuste de orientacion de luminaria.
14. El metodo de acuerdo con la reivindicacion 13, que comprende ademas:
recibir en un motor electronicamente controlable la senal de ajuste de orientacion de luminaria; y
accionar la luminaria (5) mediante el motor electronicamente controlable basandose en la senal de ajuste de orientacion de luminaria, de tal manera que se reduce la diferencia entre la localizacion de enfoque deseada y una localizacion de enfoque basada en la localizacion de montaje y la orientacion de la luminaria.
15. El metodo de acuerdo con cualquiera de las reivindicaciones 11 a 14, en el que la al menos una caractenstica es un numero de una a cuatro caractensticas.
ES15734161T 2014-07-17 2015-07-06 Sistema y método de enfoque de iluminación de estadio Active ES2708274T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP14177435 2014-07-17
PCT/EP2015/065281 WO2016008746A1 (en) 2014-07-17 2015-07-06 Stadium lighting aiming system and method

Publications (1)

Publication Number Publication Date
ES2708274T3 true ES2708274T3 (es) 2019-04-09

Family

ID=51225292

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15734161T Active ES2708274T3 (es) 2014-07-17 2015-07-06 Sistema y método de enfoque de iluminación de estadio

Country Status (5)

Country Link
US (1) US10234117B2 (es)
EP (1) EP3170367B1 (es)
CN (1) CN106664776B (es)
ES (1) ES2708274T3 (es)
WO (1) WO2016008746A1 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10134064B2 (en) * 2014-06-27 2018-11-20 Ledvance Llc Lighting audit and LED lamp retrofit
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
CN107852799B (zh) * 2015-04-28 2019-11-05 飞利浦照明控股有限公司 区域照明***和方法
CN108353482B (zh) * 2015-08-20 2020-09-04 飞利浦照明控股有限公司 基于灯地点的空间光效果
US10025886B1 (en) * 2015-09-30 2018-07-17 X Development Llc Methods and systems for using projected patterns to facilitate mapping of an environment
US10260712B2 (en) * 2015-10-02 2019-04-16 Pcms Holdings, Inc. Digital lampshade system and method
US10502399B2 (en) 2015-12-28 2019-12-10 Eaton Intelligent Power Limited Method and system for alignment of illumination device
WO2018200685A2 (en) 2017-04-27 2018-11-01 Ecosense Lighting Inc. Methods and systems for an automated design, fulfillment, deployment and operation platform for lighting installations
CA3021546C (en) * 2016-04-22 2021-01-26 Hubbell Incorporated Lighting fixture
WO2017194351A1 (en) * 2016-05-09 2017-11-16 Philips Lighting Holding B.V. Large area lighting aiming
EP3247178B1 (en) * 2016-05-19 2019-03-27 Signify Holding B.V. Pitch illumination
JP2019102907A (ja) * 2017-11-30 2019-06-24 キヤノン株式会社 設定装置、設定方法、及びプログラム
CN108235831B (zh) * 2017-12-27 2019-10-25 深圳迈睿智能科技有限公司 灯具的控制方法和控制***以及电子设备
BE1025876B1 (fr) * 2018-01-05 2019-08-06 Schreder S.A. Système et procédé de positionnement de têtes de luminaire
US11202055B2 (en) * 2018-02-28 2021-12-14 Blackberry Limited Rapid ground-plane discrimination in stereoscopic images
CN108966462B (zh) * 2018-08-14 2020-01-14 深圳市银河风云网络***股份有限公司 灯具物理位置确定方法及装置
WO2023046524A1 (en) * 2021-09-21 2023-03-30 Signify Holding B.V. Augmented reality based aiming of light fixtures

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4450507A (en) 1982-09-15 1984-05-22 Mycro-Group Company Composite photometric method
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
KR20050118691A (ko) * 2003-03-28 2005-12-19 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 할로겐 듀얼 빔 램프
US7600901B2 (en) 2005-01-18 2009-10-13 Musco Corporation Apparatus and method for compensating for cross-arm warpage when pre-aiming lighting fixtures at factory
WO2006078696A2 (en) 2005-01-18 2006-07-27 Musco Corporation Energy efficient, high-intensity lighting fixture and method and system for efficient, effective, and energy saving high-intensity lighting
US7350939B2 (en) 2005-05-20 2008-04-01 Infocus Corporation Alignment structure for use with a light source and/or a light gathering reflector
US8300219B1 (en) * 2008-04-04 2012-10-30 Musco Corporation Apparatus, system, and methods of precision aiming and installation of pre-aimed devices and method of composite lighting on target area
WO2009130644A1 (en) 2008-04-23 2009-10-29 Philips Intellectual Property & Standards Gmbh Illumination device with improved remote control
CN101907773B (zh) * 2010-07-13 2012-04-11 中国科学院长春光学精密机械与物理研究所 一种带自准直瞄准***的高准直太阳模拟器光学***
US9297643B2 (en) * 2011-11-10 2016-03-29 Koninklijke Philips N.V. Distance estimation using split beam luminaire
US8953797B2 (en) * 2012-02-27 2015-02-10 Gvbb Holdings S.A.R.L. Configuring audiovisual systems
US20130268246A1 (en) 2012-04-04 2013-10-10 Musco Corporation Method, system, and apparatus for aiming led lighting
US20150308642A1 (en) * 2014-04-23 2015-10-29 General Led, Inc. Self-Aiming Track Light Fixture System and Method
EP3180961B1 (en) * 2014-08-14 2019-09-11 Signify Holding B.V. A lighting system for a stadium
TWI559068B (zh) * 2015-12-11 2016-11-21 晶睿通訊股份有限公司 照明設備及其視野校準方法
US10502399B2 (en) * 2015-12-28 2019-12-10 Eaton Intelligent Power Limited Method and system for alignment of illumination device
US10767822B2 (en) * 2016-06-24 2020-09-08 Brian Munari Automatic light control for illumination of a feature of interest
CN107665231A (zh) * 2016-07-27 2018-02-06 优屏亚太私人有限公司 定位方法和***

Also Published As

Publication number Publication date
US20170205061A1 (en) 2017-07-20
EP3170367A1 (en) 2017-05-24
CN106664776A (zh) 2017-05-10
WO2016008746A1 (en) 2016-01-21
CN106664776B (zh) 2019-04-30
US10234117B2 (en) 2019-03-19
EP3170367B1 (en) 2018-11-28

Similar Documents

Publication Publication Date Title
ES2708274T3 (es) Sistema y método de enfoque de iluminación de estadio
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9879975B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US10499040B2 (en) Device and method for optically scanning and measuring an environment and a method of control
GB2545145B (en) A device and method for optically scanning and measuring an environment
CN101821578B (zh) 非接触式测量装置和方法
EP2962284B1 (en) Optical navigation & positioning system
KR101498149B1 (ko) 자동 고정밀 타겟 포인트 조준 기능을 가진 측지 측량 장치
US20170188015A1 (en) Calibration plate and method for calibrating a 3d measurement device
ES2616487T3 (es) Procedimiento, dispositivo y programa de ordenador para extraer información acerca de una escalera
Gschwandtner et al. Infrared camera calibration for dense depth map construction
CN108195381B (zh) 室内机器人视觉定位***
ES2717909T4 (es) Dispositivo y procedimiento para determinar la ubicación diferente de una cámara de grabación de imágenes
CN109936691A (zh) 双成像视觉***相机、瞄准仪及其使用方法
US20170252918A1 (en) Measurement and installation data indicating apparatus and measurement and installation data indicating method
JP6433342B2 (ja) 三次元位置計測システム
JP2017527812A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの較正
WO2016040271A1 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US20230045402A1 (en) Laser Leveling Device and Leveling Method
KR100780603B1 (ko) 이동형 사진측량 시스템에서의 라인 레이저를 이용한시설물의 위치 파악 방법
JPH05507795A (ja) 2台の乗物の相対位置を求める光学装置および該装置を用いた位置決め装置
JP5408952B2 (ja) X線撮影装置
CN105823470B (zh) 三维位置计测***
ES2561732B2 (es) Dispositivo de calibración multirresolución para sistemas de visión artificial
WO2017194351A1 (en) Large area lighting aiming