DE102023120123A1 - Verfahren zum erstellen von xyz-fokuspfaden mit einer benutzervorrichtung - Google Patents

Verfahren zum erstellen von xyz-fokuspfaden mit einer benutzervorrichtung Download PDF

Info

Publication number
DE102023120123A1
DE102023120123A1 DE102023120123.9A DE102023120123A DE102023120123A1 DE 102023120123 A1 DE102023120123 A1 DE 102023120123A1 DE 102023120123 A DE102023120123 A DE 102023120123A DE 102023120123 A1 DE102023120123 A1 DE 102023120123A1
Authority
DE
Germany
Prior art keywords
lighting fixture
interaction point
user device
light
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023120123.9A
Other languages
English (en)
Inventor
Matthew Halberstadt
Christopher Mizerak
Dennis Varian
Dan Duffy
Ethan White
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronic Theatre Controls Inc
Original Assignee
Electronic Theatre Controls Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronic Theatre Controls Inc filed Critical Electronic Theatre Controls Inc
Publication of DE102023120123A1 publication Critical patent/DE102023120123A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/19Controlling the light source by remote control via wireless transmission
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V21/00Supporting, suspending, or attaching arrangements for lighting devices; Hand grips
    • F21V21/14Adjustable mountings
    • F21V21/15Adjustable mountings specially adapted for power operation, e.g. by remote control
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/175Controlling the light source by remote control
    • H05B47/196Controlling the light source by remote control characterised by user interface arrangements
    • H05B47/1965Controlling the light source by remote control characterised by user interface arrangements using handheld communication devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2131/00Use or application of lighting devices or systems not provided for in codes F21W2102/00-F21W2121/00
    • F21W2131/40Lighting for industrial, commercial, recreational or military use
    • F21W2131/406Lighting for industrial, commercial, recreational or military use for theatres, stages or film studios
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Fastening Of Light Sources Or Lamp Holders (AREA)

Abstract

Ein Verfahren zum Betätigen eines Beleuchtungskörpers. Das Verfahren umfasst das Positionieren einer Benutzervorrichtung an einem ersten Interaktionspunkt an einem Veranstaltungsort, das Bezeichnen eines ersten Lichtattributs, wobei das erste Lichtattribut mindestens eines von einer ersten Lichtfarbe, einer ersten Lichtintensität und einem ersten Lichtfokus, die dem ersten Interaktionspunkt entsprechen, umfasst, das Bewegen der Benutzervorrichtung zu einem zweiten Interaktionspunkt, und das Bezeichnen eines zweiten Lichtattributs, wobei das zweite Lichtattribut mindestens eines von einer zweiten Lichtfarbe, einer zweiten Lichtintensität und einem zweiten Lichtfokus, die dem zweiten Interaktionspunkt entsprechen, umfasst, wobei das zweite Lichtattribut anders als das erste Lichtattribut ist. Das Verfahren umfasst ferner das Steuern des Beleuchtungskörpers, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken, und das Steuern des Beleuchtungskörpers, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken.

Description

  • GEBIET
  • Die hier beschriebenen Ausführungsformen betreffen das Erstellen von dreidimensionalen Fokuspfaden mit einer Benutzervorrichtung zum Lenken oder Steuern eines Beleuchtungskörpers an einem Veranstaltungsort.
  • KURZDARSTELLUNG
  • Die hier beschriebenen Systeme und Verfahren betreffen das Wiedergeben von Beleuchtungselementen in einer interaktiven Umgebung mit virtueller Realität oder erweiterter Realität, um es einem Benutzer zu erlauben, mit den Beleuchtungselementen (z. B. einem Lichtstrahl, einem Beleuchtungsübergang, einem Verfolgerscheinwerfer usw.), die für einen gegebenen Veranstaltungsort und/oder eine Beleuchtungskörperanordnung verfügbar sind, zu experimentieren und diese zu entdecken. Dreidimensionale Modelle der möglichen Standorte von Beleuchtungsstrahlen für gegebene Beleuchtungskörper werden in der interaktiven Umgebung erstellt und zur Verfügung gestellt. Diese Modelle umfassen dreidimensionale Darstellungen von Beleuchtungsstrahlen und anderen Beleuchtungselementen, oder die Modelle können als ein dreidimensionaler Modellraum, der die möglichen Beleuchtungsstrahlziele für einen gegebenen Beleuchtungskörper in der realen Welt begrenzen, verwendet werden. Bei einigen Ausführungsformen lenkt der Benutzer einen oder mehrere Beleuchtungskörper anhand einer Benutzervorrichtung, indem er einen gewünschten Pfad angibt, den der Beleuchtungskörper befolgen soll, basierend auf bezeichneten Interaktionspunkten.
  • Eine Komponente des richtigen Lenkens des einen oder der mehreren Beleuchtungskörper, damit sie einen gewünschten Pfad befolgen, besteht darin, dreidimensionale Positionsdaten des bezeichneten Interaktionspunktes zu bestimmen. In einigen Situationen kann es sein, dass ein Benutzer einen Pfad, der die Interaktionspunkte umfasst, mit einer handgehaltenen Benutzervorrichtung eintragen und den Pfad dem Beleuchtungskörper mitteilen möchte. Der Beleuchtungskörper kann die Bewegung und Beleuchtung nachbilden, die durch die Interaktionspunkte bezeichnet werden, um dem Pfad oder einem Objekt basierend auf den dreidimensionalen Positionsdaten zu folgen.
  • Derzeit werden dreidimensionale Positionsdaten über Live-Datenströme zu dem Beleuchtungssteuergerät über eine Benutzervorrichtung bereitgestellt. Der Live-Datenstrom wird durch das Beleuchtungssteuergerät interpretiert, um die Bewegung des Beleuchtungskörpers zu steuern. Dies erfordert jedoch komplizierte Live-Verfolgungssysteme und ununterbrochene Ströme von dreidimensionalen Positionsdaten, die zu komplizierten Positionsbestimmungsberechnungen und zu vielen Daten, die von dem Beleuchtungssteuergerät gespeichert werden, führen.
  • Die hier beschriebenen Ausführungsformen beheben die Notwendigkeit von komplizierten Live-Verfolgungssystemen oder Live-Strömen von dreidimensionalen Positionsdaten und ermöglichen das Erlernen der dreidimensionalen Positionsdaten eines Objekts unter Verwendung einer handgehaltenen Benutzervorrichtung in Verbindung mit dem Beleuchtungssteuergerät. Das Beleuchtungssteuergerät kann die Bewegung des Objekts, das sich entlang des Pfades bewegt, an jedem Interaktionspunkt ohne einen Strom von ununterbrochenen Live-Daten wiederholen und die Interaktionspunkte entsprechend beleuchten. Das System kann die Informationen in Echtzeit aufzeichnen und abspielen. Das System kann die Informationen jederzeit ändern oder wiedergeben. Während des Erstellens des Pfades stellt das System auch eine Benutzerschnittstelle bereit, um definierbare Interaktionspunkte mit einem einzigartigen Lichtattribut zu erstellen. Das Lichtattribut kann die Lichtintensität, die Lichtfarbe, den Lichtfokus und andere Parameter, die zur Änderung verfügbar sind, umfassen. Ein erlernter Pfad könnte auch Grenzen oder Zonen für gewisse Interaktionspunkte definieren.
  • Um die obigen Bedenken anzugehen, stellen die hier beschriebenen Ausführungsformen Systeme und Verfahren zum Erstellen von dreidimensionalen Fokuspfaden mit einer Benutzervorrichtung zum Lenken oder Steuern eines Beleuchtungskörpers an einem Veranstaltungsort bereit. Die hier beschriebenen Ausführungsformen bestimmen die relevanten Einzelheiten über definierbare Interaktionspunkte entlang des Pfades (z. B. Position, Zeiteinstellung usw.) ohne kostspielige Messinstrumente, Expertenwissen oder viel Zeit zu benötigen.
  • Es werden hier Systeme und Verfahren zum Lenken eines Beleuchtungskörpers an einem Veranstaltungsort beschrieben. Die hier beschriebenen Ausführungsformen reduzieren die Zeit zum Einrichten und Einstellen von Beleuchtungskörpern für Aufgaben, wie etwa das Wiederholen von Beleuchtungskörperbewegungen und das Verfolgen eines Interaktionspunktes auf einer Bühne, ohne Expertenwissen zu benötigen, erheblich.
  • Es werden hier Systeme zum Steuern des Betätigens eines Beleuchtungskörpers beschrieben. Das System umfasst einen Beleuchtungskörper, eine Benutzervorrichtung, und ein Steuergerät. Das Steuergerät steht in Verbindung mit dem Beleuchtungskörper und der Benutzervorrichtung, das Steuergerät umfasst einen elektronischen Prozessor und einen Speicher, wobei der Speicher Anweisungen speichert, die, wenn sie von dem elektronischen Prozessor ausgeführt werden, das Steuergerät dazu konfigurieren, den Beleuchtungskörper zu betätigen. Das Steuergerät identifiziert eine Vielzahl von Interaktionspunkten in einer Sequenz anhand der Benutzervorrichtung an einem Veranstaltungsort. Das Steuergerät empfängt einen Befehl, der einem jeweiligen Interaktionspunkt zugeordnet ist, wobei der Befehl mindestens einem von Lichtfarbe, Lichtintensität und Lichtfokus entspricht. Das Steuergerät steuert den Beleuchtungskörper, damit er sich gemäß der Sequenz bewegt und mindestens eines von Lichtfarbe, Lichtintensität, und Lichtfokus gemäß den Befehlen ändert.
  • Bei einigen Ausführungsformen umfasst das System ferner mindestens ein Display, das der Benutzervorrichtung zugeordnet ist, wobei die Benutzervorrichtung dazu konfiguriert ist, anhand des mindestens einen Displays eine dreidimensionale Darstellung des Veranstaltungsortes einschließlich der Vielzahl von Interaktionspunkten anzuzeigen.
  • Bei einigen Ausführungsformen umfasst das System ferner mindestens eine Kamera, die der Benutzervorrichtung zugeordnet ist, wobei das Steuergerät ferner dazu konfiguriert ist, die Vielzahl von Interaktionspunkten in der Sequenz basierend auf einer Aufnahmeansicht der mindestens einen Kamera zu identifizieren.
  • Bei einigen Ausführungsformen bestimmt das Steuergerät einen Schwenkwinkel und einen Kippwinkel des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an jedem der Vielzahl von Interaktionspunkten in der Sequenz.
  • Bei einigen Ausführungsformen ist der Befehl, der einem jeweiligen Interaktionspunkt zugeordnet ist, für jeden jeweiligen Interaktionspunkt unterschiedlich.
  • Bei einigen Ausführungsformen ist das Steuergerät in der Benutzervorrichtung aufgenommen.
  • Bei einigen Ausführungsformen ist das Steuergerät einem Remote-Server zugeordnet.
  • Bei einigen Ausführungsformen ist das Steuergerät einer Lichtsteuerplatine zugeordnet.
  • Es werden hier Verfahren zum Steuern der Betätigung eines Beleuchtungskörpers beschrieben. Das Verfahren umfasst das Positionieren einer Benutzervorrichtung an einem ersten Interaktionspunkt an einem Veranstaltungsort. Ein erstes Lichtattribut wird anhand der Benutzervorrichtung bezeichnet, wobei das erste Lichtattribut mindestens eines von einer ersten Lichtfarbe, einer ersten Lichtintensität und einem ersten Lichtfokus umfasst, der dem ersten Interaktionspunkt entspricht. Die Benutzervorrichtung wird zu einem zweiten Interaktionspunkt an einem Veranstaltungsort bewegt. Ein zweites Lichtattribut wird anhand der Benutzervorrichtung bezeichnet, wobei das zweite Lichtattribut mindestens eines von einer zweiten Lichtfarbe, einer zweiten Lichtintensität und einem zweiten Lichtfokus, die dem zweiten Interaktionspunkt entsprechen, umfasst, wobei das zweite Lichtattribut anders als das erste Lichtattribut ist. Das Steuergerät steuert den Beleuchtungskörper, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken. Das Steuergerät steuert den Beleuchtungskörper, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken.
  • Bei einigen Ausführungsformen erfolgt das Positionieren der Benutzervorrichtung und das Bezeichnen der Lichtattribute vor dem Steuern des Beleuchtungskörpers.
  • Bei einigen Ausführungsformen ist die Benutzervorrichtung auf einer Bühne an dem Veranstaltungsort sowohl für den ersten Interaktionspunkt als auch für den zweiten Interaktionspunkt positioniert, und die Benutzervorrichtung ist nicht auf der Bühne am Veranstaltungsort positioniert, während der Beleuchtungskörper gesteuert wird.
  • Bei einigen Ausführungsformen umfasst das Steuern des Beleuchtungskörpers, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken, das Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt und das Steuern des Beleuchtungskörpers, um Licht basierend auf dem ersten Schwenkwinkel und dem ersten Kippwinkel zu lenken.
  • Bei einigen Ausführungsformen ist die Benutzervorrichtung mindestens einer Kamera zugeordnet, und das Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt umfasst das Verwenden einer Aufnahmeansicht der mindestens einen Kamera, um die Position und die Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt zu bestimmen.
  • Bei einigen Ausführungsformen umfasst das Steuern des Beleuchtungskörpers, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken, das Bestimmen eines zweiten Schwenkwinkels und eines zweiten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem zweiten Interaktionspunkt und das Steuern des Beleuchtungskörpers, um Licht basierend auf dem zweiten Schwenkwinkel und dem zweiten Kippwinkel zu lenken.
  • Bei einigen Ausführungsformen ist die Benutzervorrichtung mindestens einem Display zugeordnet. Das Verfahren umfasst ferner das Anzeigen anhand des mindestens einen Displays einer dreidimensionalen Darstellung des Veranstaltungsortes einschließlich mindestens des ersten Interaktionspunktes und des zweiten Interaktionspunktes.
  • Es werden hier Verfahren zum Steuern der Betätigung eines Beleuchtungskörpers beschrieben. Das Verfahren umfasst das Identifizieren eines ersten Interaktionspunktes über eine Benutzervorrichtung an einem Veranstaltungsort, wobei der Beleuchtungskörper ausgeschaltet ist. Ein zweiter Interaktionspunkt wird anhand der Benutzervorrichtung an dem Veranstaltungsort nach dem Identifizieren des ersten Interaktionspunktes identifiziert. Der Beleuchtungskörper schaltet sich ein, nachdem der erste Interaktionspunkt und der zweite Interaktionspunkt identifiziert wurden. Das Steuergerät lenkt den Beleuchtungskörper automatisch auf den ersten Interaktionspunkt. Das Steuergerät lenkt den Beleuchtungskörper automatisch auf den zweiten Interaktionspunkt nach dem ersten Interaktionspunkt.
  • Bei einigen Ausführungsformen umfasst das Identifizieren eines ersten Interaktionspunktes über eine Benutzervorrichtung an einem Veranstaltungsort, wobei der Beleuchtungskörper ausgeschaltet ist, das Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt.
  • Bei einigen Ausführungsformen umfasst das Identifizieren eines zweiten Interaktionspunktes anhand der Benutzervorrichtung an dem Veranstaltungsort nach dem Identifizieren des ersten Interaktionspunktes das Bestimmen eines zweiten Schwenkwinkels und eines zweiten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem zweiten Interaktionspunkt.
  • Bei einigen Ausführungsformen umfasst das Verfahren ferner das Mitteilen anhand der Benutzervorrichtung des ersten Interaktionspunktes und des zweiten Interaktionspunktes an den Beleuchtungskörper nach dem Einschalten des Beleuchtungskörpers.
  • Bei einigen Ausführungsformen umfasst das Verfahren ferner das Nachbilden über den Beleuchtungskörper des ersten Schwenkwinkels und des ersten Kippwinkels vor dem automatischen Lenken des Beleuchtungskörpers und das Nachbilden über den Beleuchtungskörper des zweiten Schwenkwinkels und des zweiten Kippwinkels vor dem automatischen Lenken des Beleuchtungskörpers.
  • Bevor die Ausführungsformen ausführlich erklärt werden, versteht es sich, dass die Ausführungsformen in ihrer Anwendung nicht auf die Einzelheiten der Konfiguration und Anordnung von Komponenten eingeschränkt sind, die in der nachstehenden Beschreibung dargelegt werden oder in den beiliegenden Zeichnungen abgebildet sind. Die Ausführungsformen können auf diverse Art und Weise in die Praxis umgesetzt und ausgeführt werden. Es versteht sich ebenfalls, dass die hier verwendete Ausdrucksweise und Terminologie zur Beschreibung dienen und nicht als einschränkend anzusehen sind. Die Verwendung von „umfassend“ oder „aufweisend“ und ihrer Varianten sollen die Elemente, die danach aufgezählt werden, sowie ihre Äquivalente und zusätzliche Elemente einschließen. Soweit nicht anderweitig angegeben oder eingeschränkt, werden die Begriffe „montiert“, „verbunden“, „getragen“ und „gekoppelt“ und ihre Varianten im weitesten Sinne verwendet und schließen sowohl direkte als auch indirekte Montagen, Verbindungen, Träger und Kopplungen ein.
  • Zudem können die Ausführungsformen Hardware, Software und elektronische Komponenten oder Module umfassen, die zum Zweck der Diskussion abgebildet und beschrieben werden können, als ob der Großteil der Komponenten nur als Hardware umgesetzt wäre. Der Fachmann würde jedoch basierend auf dem Durchlesen der vorliegenden ausführlichen Beschreibung erkennen, dass bei mindestens einer Ausführungsform die elektronisch basierten Aspekte als Software (z. B. auf einem nicht vorübergehenden computerlesbaren Datenträger gespeichert) umgesetzt werden können, die durch eine oder mehrere Verarbeitungseinheiten, wie etwa einen Mikroprozessor und/oder anwendungsspezifische integrierte Schaltungen („ASICs“) ausführbar ist. Somit ist zu beachten, dass eine Vielzahl von Vorrichtungen auf Hardware- und Software-Basis, sowie eine Vielzahl von unterschiedlichen Strukturkomponenten verwendet werden können, um die Ausführungsformen umzusetzen. Beispielsweise können die in der Beschreibung beschriebenen „Server“ und „Computervorrichtungen“ eine oder mehrere Verarbeitungseinheiten, ein oder mehrere computerlesbare Datenträgermodule, eine oder mehrere Ein-/Ausgabe-Schnittstellen und diverse Verbindungen (z. B. einen Systembus), welche die Komponenten verbinden, umfassen.
  • Andere Aspekte der Ausführungsformen werden aus der Betrachtung der ausführlichen Beschreibung und der beiliegenden Zeichnungen hervorgehen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen:
    • 1 ein System zum Erstellen von dreidimensionalen Fokuspfaden mit einer Benutzervorrichtung.
    • 1A ein anderes System zum Erstellen von dreidimensionalen Fokuspfaden mit einer Benutzervorrichtung.
    • 2 ein Steuergerät für das System aus 1.
    • 2A ein Steuergerät für das System aus 1A.
    • 3 Kameras und Beleuchtungskörper an einem Veranstaltungsort für das System aus 1.
    • 3A Kameras und Beleuchtungskörper an einem Veranstaltungsort für das System aus 1A.
    • 4 ein Ablaufschema eines Verfahrens zum Steuern der Bewegung eines Beleuchtungskörpers basierend auf einem dreidimensionalen Fokuspfad.
    • 5 ein Modell zum Erstellen von Interaktionspunkten eines dreidimensionalen Fokuspfades mit einer Benutzervorrichtung.
    • 6 ein Modell zum Steuern der Bewegung eines Beleuchtungskörpers basierend auf den Interaktionspunkten aus 5 zur Verwendung mit dem System aus 1 und/oder 1A.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die hier beschriebenen Ausführungsformen betreffen das genaue Bestimmen von Anordnungsinformationen eines oder mehrerer Beleuchtungskörper und das genaue Fokussieren eines oder mehrerer Beleuchtungskörper auf ein Beleuchtungsstrahlziel. Herkömmlicherweise erfordern diese beiden Aufgaben erfahrene Techniker, präzise und kostspielige Messinstrumente und viel Zeit. Diese Aufgaben werden erfüllt, indem Anordnungsinformationen erfasst und anschließend Beleuchtungskörper basierend auf den Anordnungsinformationen gesteuert werden.
  • Zum Beispiel bildet 1 ein System 100 zum Erstellen von dreidimensionalen Fokuspfaden eines oder mehrerer Beleuchtungskörper 102 und zum anschließenden Lenken des einen oder der mehreren Beleuchtungskörper 102 an einem Veranstaltungsort 104 (in 3 gezeigt) ab. Das System 100 umfasst eine Benutzereingabevorrichtung 106A-106D, eine Steuerplatine oder Steuertafel 108, Beleuchtungskörper 102, Kameras 110, ein Netzwerk 112 und einen serverseitigen Computer oder Server 114. Die Benutzereingabevorrichtung 106A-106D umfasst beispielsweise einen PC bzw. Desktop-Computer 106A, einen Laptop-Computer 106B, einen Tablet-Computer 106C oder ein Mobiltelefon (z. B. ein Smartphone) 106D. Andere Benutzereingabevorrichtungen umfassen beispielsweise einen Helm oder eine Brille für erweiterte Realität. Bei einigen Ausführungsformen sind die Kameras 110 mit der Benutzereingabevorrichtung 106A-106D integriert, wie etwa die Kamera des Mobiltelefons 106D. Bei anderen Ausführungsformen sind die Kameras 110 von der Benutzereingabevorrichtung 106A-106D getrennt.
  • Die Benutzereingabevorrichtung 106A-106D ist dazu konfiguriert, über das Netzwerk 112 mit dem Server 114 kommunikationsmäßig verbunden zu sein und dem Server 114 Informationen bereitzustellen oder von diesem Informationen zu empfangen, welche die Steuerung oder die Betätigung des Systems 100 betreffen. Die Benutzereingabevorrichtung 106A-106D ist auch dazu konfiguriert, mit der Steuerplatine 108 kommunikationsmäßig verbunden zu sein, um der Steuerplatine 108 Informationen bereitzustellen oder von dieser Informationen zu empfangen. Die Verbindungen zwischen der Benutzereingabevorrichtung 106A-106D und der Steuerplatine 108 oder dem Netzwerk 112 sind beispielsweise drahtgebundene Verbindungen, drahtlose Verbindungen oder eine Kombination von drahtgebundenen und drahtlosen Verbindungen. Ähnlich sind die Verbindungen zwischen dem Server 114 und dem Netzwerk 112, der Steuerplatine 108 und den Beleuchtungskörpern 102 oder der Steuerplatine 108 und den Kameras 110 drahtgebundene Verbindungen, drahtlose Verbindungen oder eine Kombination von drahtlosen und drahtgebundenen Verbindungen.
  • Das Netzwerk 112 ist beispielsweise ein Großraumnetzwerk („WAN“) (z. B., ein TCP/IP-basiertes Netzwerk), ein lokales Netzwerk („LAN“), ein Nachbarschaftsnetzwerk („NAN“), ein Heimnetzwerk („HAN“) oder ein persönliches Netzwerk („PAN“), das ein beliebiges von diversen Kommunikationsprotokollen verwendet, wie etwa WiFi, Bluetooth, ZigBee usw. Bei einigen Umsetzungen ist das Netzwerk 112 ein zellulares Netzwerk, wie beispielsweise ein GSM- („Global System for Mobile Communications“) Netzwerk, ein GPRS- („General Packet Radio Service“) Netzwerk, ein CDMA- („Code Division Multiple Access“) Netzwerk, ein EV-DO-(„Evolution-Data Optimized“) Netzwerk, ein EDGE- („Enhanced Data Rates for GSM Evolution“) Netzwerk, ein 3GSM-Netzwerk, ein 4GSM-Netzwerk, ein 4G-LTE-Netzwerk, ein 5G-New-Radio-Netzwerk, ein DECT- („Digital Enhanced Cordless Telecommunications“) Netzwerk, ein digitales AMPS („IS-136/TDMA“) Netzwerk oder ein iDEN- („Integrated Digital Enhanced Network“) Netzwerk, usw.
  • 1A bildet ein alternatives System 100A zum Erstellen von dreidimensionalen Fokuspfaden eines oder mehrerer Beleuchtungskörper 102 und zum anschließenden Steuern der Beleuchtungskörper 102 ab. Die Hardware des alternativen Systems 100A ist mit dem obigen System 100 identisch, außer dass die Steuerplatine bzw. Steuertafel 108 entfernt wurde. Somit ist die Benutzereingabevorrichtung 106A-106D dazu konfiguriert, kommunikationsmäßig mit den Beleuchtungskörpern 102 und den Kameras 110 verbunden zu sein. Die Verbindungen zwischen der Benutzereingabevorrichtung 106A-106D und den Beleuchtungskörpern 102 und die Verbindungen zwischen der Benutzereingabevorrichtung 106A-106D und der Kamera 110 sind drahtgebundene Verbindungen, drahtlose Verbindungen oder eine Kombination von drahtlosen und drahtgebundenen Verbindungen.
  • 2 bildet ein Steuergerät 200 für das System 100 ab. Das Steuergerät 200 ist elektrisch und/oder kommunikationsmäßig mit diversen Modulen oder Komponenten des Systems 100 verbunden. Zum Beispiel ist das abgebildete Steuergerät 200 mit einem oder mehreren Indikatoren (202) (z. B., LEDs, einem Flüssigkristall-Display [„LCD“] usw.), einer Benutzereingabe oder Benutzerschnittstelle 204 (z. B. einer Benutzerschnittstelle der Benutzereingabevorrichtung 106A-106D in 1) und einer Kommunikationsschnittstelle 206 verbunden. Das Steuergerät 200 ist auch mit der Steuerplatine 108 verbunden. Die Kommunikationsschnittstelle 206 ist mit dem Netzwerk 112 verbunden, um es dem Steuergerät 200 zu ermöglichen, mit dem Server 114 zu kommunizieren. Das Steuergerät 200 umfasst Kombinationen von Hardware und Software, die unter anderem betriebsfähig sind, um die Betätigung des Systems 100 zu steuern, die Betätigung des Beleuchtungskörpers 102 zu steuern, die Betätigung der Kamera 110 zu steuern, ein oder mehrere Signale von der Kamera 110 zu empfangen, über das Netzwerk 112 zu kommunizieren, mit der Steuerplatine 108 zu kommunizieren, eine Eingabe von einem Benutzer über die Benutzerschnittstelle 204 zu empfangen, einem Benutzer Informationen anhand der Indikatoren 202 bereitzustellen, usw. Bei einigen Ausführungsformen sind die Indikatoren 202 und die Benutzerschnittstelle 204 beispielsweise als Berührungsbildschirm zusammen integriert.
  • Bei der in 2 abgebildeten Ausführungsform ist das Steuergerät 200 der Benutzereingabevorrichtung 106A-106D zugeordnet. Daher ist das Steuergerät 200 in 2 als mit der Steuerplatine 108 verbunden abgebildet, die wiederum mit den Beleuchtungskörpern 102 und den Kameras 110 verbunden ist. Bei anderen Ausführungsform ist das Steuergerät 200 in der Steuerplatine 108 enthalten, und das Steuergerät 200 kann beispielsweise den Beleuchtungskörpern 102 und den Kameras 110 Steuersignale direkt bereitstellen. Bei anderen Ausführungsformen ist das Steuergerät 200 dem Server 114 zugeordnet und kommuniziert über das Netzwerk 112, um der Steuerplatine 108, den Beleuchtungskörpern 102 und/oder den Kamera 110 Steuersignale bereitzustellen.
  • Das Steuergerät 200 umfasst eine Vielzahl von elektrischen und elektronischen Komponenten, die Strom, Betriebssteuerung und Schutz für die Komponenten und Module in dem Steuergerät 200 und/oder dem System 100 bereitstellen. Zum Beispiel umfasst das Steuergerät 200 unter anderem eine Verarbeitungseinheit 208 (z. B. einen Mikroprozessor, einen Mikrocontroller oder eine andere geeignete programmierbare Vorrichtung), einen Speicher 210, Eingabeeinheiten 212 und Ausgabeeinheiten 214. Die Verarbeitungseinheit 208 umfasst unter anderem eine Steuereinheit 216, eine arithmetische Logikeinheit („ALU“) 218 und eine Vielzahl von Registern 220 (die in 2 als eine Registergruppe gezeigt sind), und wird unter Verwendung einer bekannten Computerarchitektur (z. B. einer modifizierten Harvard-Architektur, ein Von-Neumann-Architektur usw.) umgesetzt. Die Verarbeitungseinheit 208, der Speicher 210, die Eingabeeinheiten 212 und die Ausgabeeinheiten 214, sowie die diversen Module oder Schaltungen, die mit dem Steuergerät 200 verbunden sind, sind durch einen oder mehrere Steuer- und/oder Datenbusse (z. B. den gemeinsamen Bus 222) verbunden. Die Steuer- und/oder Datenbusse sind in 2 generell zur Erläuterung gezeigt. Die Verwendung eines oder mehrerer Steuer- und/oder Datenbusse für die Zusammenschaltung und Kommunikation zwischen den diversen Modulen, Schaltungen und Komponenten sind dem Fachmann auf dem Gebiet angesichts der hier beschriebenen Ausführungsformen bekannt.
  • Der Speicher 210 ist ein nicht vorübergehender computerlesbarer Datenträger und umfasst beispielsweise einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenartigen Speichern umfassen, wie etwa einen ROM, einen RAM (z. B. DRAM, SDRAM usw.), einen EEPROM, einen Flash-Speicher, eine Festplatte, eine SD-Karte oder andere geeignete magnetische, optische, physische oder elektronische Speichervorrichtungen. Die Verarbeitungseinheit 208 ist mit dem Speicher 210 verbunden und führt Software-Anweisungen aus, die in einem RAM des Speichers 210 (z. B. während der Durchführung), einem ROM des Speichers 210 (z. B. generell dauerhaft) oder auf einem anderen nicht vorübergehenden computerlesbaren Datenträger, wie etwa einem anderen Speicher oder einer Platte, gespeichert werden. Die Software, die bei der Umsetzung des Systems 100 und des Steuergeräts 200 enthalten ist, kann in dem Speicher 210 des Steuergeräts 200 gespeichert werden. Die Software umfasst beispielsweise eine Firmware, ein oder mehrere Anwendungen, Programmdaten, Filter, Regeln, ein oder mehrere Programmmodule und andere ausführbare Anweisungen. Das Steuergerät 200 ist dazu konfiguriert, aus dem Speicher 210 unter anderem Anweisungen bezüglich der hier beschriebenen Steuerprozesse und Verfahren abzurufen und auszuführen. Bei anderen Ausführungsformen umfasst das Steuergerät 200 zusätzliche, weniger oder andere Komponenten.
  • Die Benutzerschnittstelle 204 ist enthalten, um die Benutzersteuerung des Systems 100, der Beleuchtungskörper 102 und/oder der Kamera 110 bereitzustellen. Die Benutzerschnittstelle 204 ist mit dem Steuergerät 200 betriebsfähig gekoppelt, um beispielsweise Steuer- oder Treibersignale zu steuern, die den Beleuchtungskörpern 102 bereitgestellt werden, und/oder um Steuer- oder Treibersignale zu steuern, die den Kameras 110 bereitgestellt werden. Die Benutzerschnittstelle 204 kann eine beliebige Kombination von digitalen und analogen Eingabevorrichtungen umfassen, die benötigt werden, um ein gewünschtes Steuerungsniveau für das System 100 zu erreichen. Zum Beispiel kann die Benutzerschnittstelle 204 einen Computer umfassen, der ein Display und Eingabevorrichtungen, einen Berührungsbildschirm, eine Vielzahl von Knöpfen, Wählscheiben, Schaltern, Tasten, Reglern oder dergleichen aufweist. Bei der in 2 abgebildeten Ausführungsform ist die Benutzerschnittstelle 204 von der Steuerplatine 108 getrennt. Bei anderen Ausführungsformen ist die Benutzerschnittstelle 204 in der Steuerplatine 108 enthalten.
  • Das Steuergerät 200 ist dazu konfiguriert, in Kombination mit der Steuerplatine 108 zu arbeiten, um den Beleuchtungskörpern 102 und/oder den Kameras 110 direkte Steuer- oder Treibersignale bereitzustellen. Wie zuvor beschrieben, ist bei einigen Ausführungsformen das Steuergerät 200 dazu konfiguriert, den Beleuchtungskörpern 102 und/oder den Kameras 110 direkte Steuer- oder Treibersignale bereitzustellen, ohne getrennt mit der Steuerplatine 108 zu interagieren (z. B. umfasst die Steuerplatine 108 das Steuergerät 200). Die direkten Treibersignale, die den Beleuchtungskörpern 102 und/oder den Kameras 110 bereitgestellt werden, werden beispielsweise basierend auf einer Benutzereingabe bereitgestellt, die das Steuergerät 200 von der Benutzerschnittstelle 204 empfängt. Das Steuergerät 200 ist auch dazu konfiguriert, ein oder mehrere Signale von den Kameras 110 bezüglich Bild- oder Abtastdaten zu empfangen.
  • Wie in 2A gezeigt und zuvor beschrieben, umfasst das System 100A das Steuergerät 200, das dazu konfiguriert ist, ohne die Steuerplatine 108 zu funktionieren, so dass das Steuergerät 200 dazu konfiguriert ist, den Beleuchtungskörpern 102 und/oder den Kameras 110 Signale bereitzustellen und von den Kameras 110 ein oder mehrere Signale bezüglich Bild- oder Abtastdaten zu empfangen.
  • 3 bildet die Steuerplatine 108, den Beleuchtungskörper 102, die Kamera 110 und die Benutzereingabevorrichtung 106A-106D des Systems 100 an dem Veranstaltungsort 104 ab. Die Benutzereingabevorrichtung 106A-106D lenkt den Beleuchtungskörper 102 derart, dass ein Beleuchtungsstrahl 300, der von dem Beleuchtungskörper 102 projiziert wird, auf die Interaktionspunkte 302A, 302B, 302C, 302D auf einer Bühnenoberfläche 304 an dem Veranstaltungsort 104 trifft. Die Interaktionspunkte 302 können über eine Benutzereingabe der Benutzereingabevorrichtung 106A-106D vor dem Lenken des Beleuchtungskörpers 102 eingestellt werden. Ein Benutzer kann die Bewegung des Beleuchtungskörpers 102 direkt steuern, oder der Beleuchtungskörper 102 kann sich gemäß einem vorprogrammierten Muster bewegen.
  • 3A bildet das System 100A an dem Veranstaltungsort 104 ab. Wie zuvor beschrieben, entfernt das System 100A die Steuerplatine 108, und die Benutzereingabevorrichtung 106A-106D ist dazu konfiguriert, direkt mit dem Beleuchtungskörper 102 und der Kamera 110 zu kommunizieren.
  • Bei einigen Ausführungsformen bewegt sich der Beleuchtungsstrahl 300 zu mindestens drei Interaktionspunkten (302A, 302B und 302C). Andere Ausführungsformen umfassen, dass sich der Beleuchtungsstrahl 300 zu einem vierten Interaktionspunkt 302D bewegt. Andere Ausführungsformen umfassen, dass sich der Beleuchtungsstrahl 300 zu mehr als vier Interaktionspunkten 302 bewegt. Die Bewegung des Beleuchtungskörpers 102 wird erreicht, indem der Winkel des Beleuchtungskörpers 102 entweder durch Schwenken oder durch Kippen des Beleuchtungskörpers 102 geändert wird. Das Steuergerät 200 ist dazu konfiguriert, die Winkeländerungsdaten, die der Bewegung des Beleuchtungskörpers 102 entsprechen, zu speichern, um den Beleuchtungsstrahl 300 von dem ersten Interaktionspunkt 302A zu dem zweiten Interaktionspunkt 302B, von dem zweiten Interaktionspunkt 302B zu dem dritten Interaktionspunkt 302C und so weiter zu bewegen. Bei einigen Ausführungsformen erfolgt die Bewegung des Beleuchtungskörpers 102 in einer Sequenz der Interaktionspunkte 302.
  • Mit Bezug auf 3 und 3A ist das Steuergerät 200 ferner dazu konfiguriert, die Koordinatendaten jedes der mindestens drei Interaktionspunkte 302 auf der Oberfläche 304 zu speichern. Bei einigen Ausführungsformen werden die Koordinatendaten von einem Benutzer eingegeben, wie etwa wenn der Benutzer die Bewegung des Beleuchtungskörpers 102 direkt steuert. Bei einigen Ausführungsformen werden mehrere Interaktionspunkte 302 in ein Modell eingetragen, und der Benutzer gibt ein gewünschtes Beleuchtungsstrahlziel 308 an, indem er beispielsweise an einem der Interaktionspunkte 302 steht und dabei die Benutzervorrichtung 106A-106D hält. Bei einigen Ausführungsformen geht der Benutzer an einem Pfad der Oberfläche 304 entlang und gibt mehrere gewünschte Beleuchtungsstrahlziele 308 an, die den Interaktionspunkten 302 entsprechen. Die Interaktionspunkte 302, die von dem Benutzer bezeichnet werden, entsprechen einem Pfad entlang der Oberfläche 304, auf dem der Beleuchtungskörper 102 in sequenzieller Reihenfolge bewegt werden kann.
  • Bei einigen Ausführungsformen werden die Koordinatendaten durch das Steuergerät 200 bestimmt, indem eine Position der Benutzervorrichtung 106A-106D im Verhältnis zu einem oder mehreren Referenzpunkten 306 mit Abtastdaten von einer oder mehreren Kameras 110 berechnet wird. Die Kameras 110 können in der Benutzervorrichtung 106A-106D integriert, mit der Benutzervorrichtung 106A-106D drahtlos verbunden, mit der Benutzervorrichtung 106A-106D drahtgebunden verbunden oder anderweitig verknüpft sein. Die Referenzpunkte 306 stellen Orientierungs- und Abstandsinformationen für die Benutzervorrichtung 106A-106D bereit. Bei einigen Ausführungsformen sind die Referenzpunkte 306 sichtbare Markierungen auf der Oberfläche 304. Andere Ausführungsformen umfassen mindestens einen Referenzpunkt 306 in Form einer sensorlesbaren Markierung, die für das menschliche Auge nicht sichtbar ist (z. B. eine Infrarotmarkierung). Unter Verwendung bekannter Anwendungen für Computervision, Bilderkennung und Abtastung (z. B. eines Programms zur gleichzeitigen Lokalisierung und Abbildung [„SLAM“]) kann das Steuergerät 200 die Abstände zwischen bezeichneten Punkten auf der Oberfläche 304 berechnen, nachdem die Benutzervorrichtung 106A-106D mit den Referenzpunkten 306 richtig kalibriert wurde. Bei einigen Ausführungsformen werden die Koordinatendaten durch das Steuergerät 200 bestimmt, indem eine Position der Benutzervorrichtung 106A-106D im Verhältnis zur Oberfläche 304 ohne den einen oder die mehreren Referenzpunkte 306 berechnet wird.
  • Um die Interaktionspunkte 302, an denen der Beleuchtungsstrahl 300 die Oberfläche 304 berührt, ohne Benutzereingabeinformationen bezüglich der Standpunkte zu bestimmen, ist das Steuergerät 200 dazu konfiguriert, einen Schwerpunkt des Beleuchtungsstrahls durch Abtastdaten, die von der Kamera 110 bereitgestellt werden, zu bestimmen. Der Schwerpunkt kann unabhängig vom Angriffswinkel des Beleuchtungsstrahls 300 durch ein beliebiges geeignetes Verfahren, beispielsweise durch eine Lichtintensitätsanalyse der Oberfläche 304, gefunden werden. Somit werden an jedem der Interaktionspunkte 302 die Bilddaten des Beleuchtungsstrahls 300 von der Kamera 110 aufgenommen und von dem Steuergerät 200 analysiert. Sobald die Analyse beendet ist, ist das Steuergerät 200 dazu konfiguriert, Werte für die Koordinatendaten jedes der Interaktionspunkte 302 mit Bezug auf den einen oder die mehreren Referenzpunkte 306 zurückzugeben.
  • Da die Steuerung des Beleuchtungskörpers 102 mit dem Steuergerät 200 gepaart ist, ist das Steuergerät 200 in der Lage, die Winkeländerung jedes Mal, wenn sich der Beleuchtungskörper 102 bewegt, zu quantifizieren. Obwohl diese Winkeländerung dem Steuergerät 200 als ein relativer Winkel des Beleuchtungskörpers 102 von einer Position zur anderen und nicht als ein absoluter Winkel im Verhältnis zur Oberfläche 304 bekannt ist, können die absoluten Winkel durch mathematische Berechnungen unter Verwendung einer perspektivischen Umkehrlösung, die nachstehend allgemein beschrieben wird, gefunden werden.
  • Um die Position des Beleuchtungskörpers 102 im Verhältnis zur Bühnenoberfläche 304 zu berechnen, verwendet die perspektivische Umkehrlösung die Länge jeder Seite eines Dreiecks, das durch den Beleuchtungsstrahl 300 auf der Bühnenoberfläche 304 gezeichnet wird, und die Winkeländerungen des Beleuchtungskörpers 102, der das Dreieck erstellt hat. Die Länge der Seiten des Dreiecks ist mit der Koordinatendateneingabe und/oder der Berechnung der mindestens drei Interaktionspunkte 302, wie zuvor beschrieben, zu finden. Die Winkel sind dadurch bekannt, dass das Steuergerät 200 den Beleuchtungskörper 102 steuert, wie zuvor beschrieben.
  • Da eine gewisse Unsicherheit vorliegen kann, wenn die Position des Beleuchtungskörpers 102 nur auf drei Interaktionspunkten 302A, 302B und 302C basierend berechnet wird, umfassen einige Ausführungsformen einen vierten Interaktionspunkt 302D. Mit vier Interaktionspunkten 302A, 302B, 302C, 302D ist das Steuergerät 200 dazu konfiguriert, sequenziell Mengen von drei Interaktionspunkten (z. B. erstens 302A, 302B und 302C, zweitens 302B, 302C und 302D, drittens 302A, 302C und 302D usw.) zu bestimmen, und ist dazu konfiguriert, einen Wert für die Längen des Beleuchtungsstrahls 300 zurückzugeben, wie er existierte, als er auf jeden der Interaktionspunkte 302A, 302B, 302C, 302D gelenkt wurde. Das Steuergerät 200 ist dann dazu konfiguriert, diese Ergebnisse zu vergleichen, wenn sie sich überlappen, um die Werte mit größerer Sicherheit zu berechnen. Andere Ausführungsformen umfassen mehr als die vier Interaktionspunkte 302. Derartige Ausführungsformen machen die Berechnung noch genauer. Nachdem die Länge des Beleuchtungsstrahls 300 von dem Beleuchtungskörper 102 zu jedem einzelnen Interaktionspunkt 302A, 302B, 302C, 302D gefunden wurde, ist das Steuergerät 200 dazu konfiguriert, den Standort des Beleuchtungskörpers 102 beispielsweise zu trilaterieren oder zu quadrilaterieren. Der Punkt, an dem sich die Sphären von möglichen Lösungen für die Interaktionspunkte 302A, 302B, 302C, 302D kreuzen, wird als der Standort des Beleuchtungskörpers 102 bezeichnet. Diese Berechnung gibt in der Tat zwei Ergebnisse zurück, nämlich eines über der Bühnenoberfläche 304 und eines unter der Bühnenoberfläche 304. Das Steuergerät 200 ist dazu konfiguriert, das Ergebnis unter der Bühnenoberfläche 304 zu verwerfen.
  • Bei einigen Ausführungsformen des Systems 100 und/oder des Systems 100A ist das Steuergerät 200 ferner dazu konfiguriert, einen Optimierungsvorgang mit den möglichen Positionen des Beleuchtungskörpers 102 durchzuführen. Da die Messungen nicht ganz richtig sein könnten, oder die Steuerrückmeldung ein Rauschen im Signal aufweisen kann, kann ein Optimierungsvorgang die Position des Beleuchtungskörpers 102 genauer bestimmen (z. B. die Genauigkeit der Position des Beleuchtungskörpers verbessern). Der Optimierer nimmt unter Verwendung des Kosinussatzes mit den Werten, über die er aus dem vorhergehenden Durchführen der perspektivischen Umkehrlösung verfügt, Berechnungen vor. Der Optimierer nimmt die Länge des Beleuchtungsstrahls 300 von dem Beleuchtungskörper 102 zu jedem einzelnen Interaktionspunkt 302A, 302B, 302C, 302D, kombiniert diese Daten mit den bekannten Winkeländerungen des Beleuchtungskörpers 102, und bestimmt mögliche Werte für die Abstände auf der Bühnenoberfläche 304 zwischen den Interaktionspunkten 302A, 302B, 302C, 302D. Da diese Abstände durch Messung oder andere zuvor beschriebene Verfahren bekannt sind, vergleicht der Optimierer diese bekannten Abstände mit den bestimmten Abständen, um die Genauigkeit der Ergebnisse aus der perspektivischen Umkehrlösung einzuschätzen.
  • Ein Beispiel eines geeigneten Optimierungsvorgangs ist ein Broyden-Fletcher-Goldfarb-Shanno- („LBFGS“) Optimierer mit begrenztem Speicher, obwohl andere Optimierungsvorgänge verwendet werden können. Falls der Optimierungsvorgang Ergebnisse zurückgibt, die auf einen Wert konvergieren, wird bestimmt, dass dieser bestimmte Wert genauer als der anfängliche Wert ist. Falls die Ergebnisse nicht auf einen Wert konvergieren und sich stattdessen verstreuen, wird der anfängliche Wert als genau genug zurückgegeben, um fortzufahren, ohne den Optimierungsvorgang weiter zu versuchen. Nach diesen Schritten wird der Standort des Beleuchtungskörpers 102 wieder trilateriert (oder quadrilateriert). Dieser Standort wird dann als die genaueste Schätzung der Position des Beleuchtungskörpers 102 im Verhältnis zur Bühnenoberfläche 304 (oder den Referenzpunkten 306) ausgegeben.
  • Nachdem das Steuergerät 200 die Position des Beleuchtungskörpers 102 bestimmt hat, ist das Steuergerät 200 dazu konfiguriert, die Orientierung des Beleuchtungskörpers 102 im Verhältnis zur Bühnenoberfläche 304 zu bestimmen. Bei einigen Ausführungsformen werden die Positionsberechnung für den Beleuchtungskörper 102 und die Orientierungsberechnung für den Beleuchtungskörper 102 jedoch beide mit dem Optimierungsvorgang erreicht.
  • Das Steuergerät 200 verwendet drei beliebige der Interaktionspunkte 302 auf der Bühnenoberfläche 304 und die entsprechenden relativen Winkeländerungsinformationen aus der Steuerung des Beleuchtungskörpers 102. Die relativen Winkeländerungsinformationen umfassen Schwenken, Kippen oder sowohl Schwenken als auch Kippen. Das Steuergerät 200 bestimmt die sphärischen Koordinaten der Interaktionspunkte 302, die den Beleuchtungsstrahl 300 empfangen, bevor der Beleuchtungskörper 102 in jeder Position orientiert wird. Da der Beleuchtungskörper 102 zu den Interaktionspunkten 302 in einer Sequenz bewegt wird, bestimmt das Steuergerät 200 die sphärischen Koordinaten für jeden Interaktionspunkt 302, so dass der Beleuchtungskörper zwischen den Interaktionspunkten 302 (z. B. vom Interaktionspunkt 302A zum Interaktionspunkt 302B) ohne Eingabe vom Benutzer bewegt werden kann. Diese sphärischen Koordinaten sind relative sphärische Koordinaten, indem sie Schwenk- und Kippwinkel des Beleuchtungskörpers 102 im Verhältnis zur Achse des Beleuchtungsstrahls 300 umfassen, und der Ursprung ist die Position des Beleuchtungskörpers 102 (d. h. der Brennpunkt des Beleuchtungsstrahls 300).
  • Das Steuergerät 200 ist dazu konfiguriert, die bekannten kartesischen Koordinaten der gefundenen Position des Beleuchtungskörpers 102 und die bekannten Interaktionspunkte 302 im Verhältnis zu den Referenzpunkte 306 (d. h. die X-, Y- und Z-Koordinaten jedes Interaktionspunktes 302 im Verhältnis zu den Referenzpunkten 306) in sphärische Realweltkoordinaten mit dem Beleuchtungskörper 102 als Ursprung zu übersetzen. Einige Ausführungsformen umfassen, dass die Referenzpunkte 306 zu den bekannten Interaktionspunkten 302 bei dieser Berechnung gehören.
  • Das Steuergerät 200 ist dann dazu konfiguriert, eine Matrixtransformation auszuführen, indem sowohl die relativen sphärischen Koordinaten als auch die sphärischen Realweltkoordinaten verwendet werden, um die relativen sphärischen Koordinaten der Orientierung des Beleuchtungskörpers 102 in jeder Position in sphärische Realweltkoordinaten zu übersetzen (z. B. im Verhältnis zu einer Referenzebene, die man als absolute sphärische Koordinaten bezeichnen kann). Sobald diese Beziehung bestimmt wurde, werden die Gier-, Nick- und Rollinformationen der Orientierung des Beleuchtungskörpers 102 im Verhältnis zur Bühnenoberfläche 304 entnommen. Bei einigen Ausführungsformen können Gieren, Nicken und Rollen als absolute Winkel des Beleuchtungskörpers 102 im Verhältnis zur Oberfläche 304 bezeichnet werden, wozu eine Ebene der Interaktionspunkte 302A, 302B, 302C und 302D gehört. Diese Informationen sind die absolute Orientierung des Beleuchtungskörpers 102 unabhängig von den Montageverfahren.
  • Nachdem die obigen Berechnungen beendet wurden, ist das Steuergerät 200 dazu konfiguriert, die Ergebnisse als die angegebene Position und Orientierung des Beleuchtungskörpers 102 zu präsentieren (z. B. wird das Steuergerät 200 oder eine Benutzervorrichtung 106A-106D mit dem dreidimensionalen Modellraum des Veranstaltungsortes gepaart). Mit diesen Informationen kann das Steuergerät 200 Bilddaten bezüglich des Beleuchtungskörpers 102 und des Beleuchtungsstrahls 300 in einer interaktiven Umgebung ändern und den Beleuchtungskörper 102 steuern. Sobald die Beleuchtungskörper 102 an dem Veranstaltungsort 104 identifiziert, klassifiziert und lokalisiert wurden, können die zuvor berechneten Informationen verwendet werden, um Übergänge von diversen Stilen umzusetzen. Zum Beispiel bestimmt das Steuergerät 200 ein Lichtattribut für jeden Interaktionspunkt 302. Das Steuergerät 200 teilt das Lichtattribut dem Beleuchtungskörper 102 mit, und der Beleuchtungskörper 102 wendet das Lichtattribut an jedem Interaktionspunkt entlang der Sequenz an. Das Lichtattribut kann eine Lichtfarbe, eine Lichtintensität, ein Lichtfokus usw. sein.
  • Es versteht sich jedoch, dass der dreidimensionale Modellraum des Veranstaltungsortes bei einigen Ausführungsformen zur Beobachtung durch den Benutzer gerendert werden kann, jedoch bei anderen Ausführungsformen für interne Berechnungen durch das System 100, 100A verwendet werden kann, ohne ein Rendern des Modells zur Benutzerbeobachtung oder Interaktion zu erzeugen. Bei einigen Ausführungsformen wird der dreidimensionale Modellraum anhand der Benutzervorrichtung 106 angezeigt. Bei anderen Ausführungsformen wird der dreidimensionale Modellraum über die Benutzerschnittstelle 204 des Steuergeräts 200 angezeigt. Der dreidimensionale Modellraum kann die Interaktionspunkte 302 umfassen, die als Pfad gezeigt sind. Bei einigen Ausführungsformen kann der Benutzer die Interaktionspunkte 302 retroaktiv anpassen, sobald sie in dem dreidimensionalen Modellraum angezeigt wurden.
  • Weiter mit Bezug auf 3 und 3A können die zuvor berechneten Informationen auch verwendet werden, um Daten von Befehlszeichenfolgen zu ändern, die an den Beleuchtungskörper 102 gesendet werden, um die Interaktionspunkte 302, die auf der Oberfläche 304 bezeichnet werden, in geeignete Winkeländerungen des Beleuchtungskörpers 102 zu übersetzen, um zu bewirken, dass der Beleuchtungsstrahl 300 auf die bezeichneten Interaktionspunkte 302 gelenkt wird. Einige Ausführungsformen des Systems 100, 100A umfassen, dass das Steuergerät 200 dazu konfiguriert ist, den Beleuchtungskörper 102 gemäß den geänderten Daten von Befehlszeichenfolgen zu steuern.
  • Bei einigen Ausführungsformen erfolgt die Angabe der Interaktionspunkte 302 auf einem Berührungsbildschirm der Benutzervorrichtung 106A-106D unter Verwendung einer erweiterten Realitätsschnittstelle. Bei einer derartigen Schnittstelle sieht der Benutzer die Oberfläche 304 an dem Berührungsbildschirm und kann auf einen Interaktionspunkt 302 auf der Oberfläche 304 an dem Berührungsbildschirm zeigen. Das Steuergerät 200 ist dazu konfiguriert, diesen angegebenen Abschnitt des Bildschirms in eine äquivalente Position des Interaktionspunktes 302 auf der Oberfläche 304 umzuwandeln. Das Steuergerät 200 ist dazu konfiguriert, die Orientierung der Aufnahmeansicht der Kamera 110 mit der Oberfläche 304 basierend auf einer Kalibrierung mit einem oder mehreren Referenzpunkten 306 zu verknüpfen.
  • Zusätzlich oder alternativ verwendet das System 100, 100A eine oder mehrere Trägheitsmesseinheiten („IMUs“), die mit der Benutzervorrichtung 106A-106D gekoppelt sind, um die Positions- und Orientierungsdaten der Benutzervorrichtung 106A-106D zu bestimmen. Es kann sein, dass in diesem Fall keine Kameras 110 notwendig sind, doch die Benutzervorrichtung 106A-106D würde mit dem dreidimensionalen Modellraum durch Positionieren und Orientieren der Vorrichtung in einer bekannten Ausgangsanordnung und durch Aufzeichnen der Daten von den IMUs in dieser Ausgangsanordnung gekoppelt werden. Bei den Ausführungsformen des Systems 100, 100A, die erweiterte Realitätsbibliotheken (z. B., ARCore, ARKit usw.) verwenden, können sowohl IMUs als auch Kameras 110 verwendet werden, um die Genauigkeit der Daten zu verbessern.
  • Bei einigen Ausführungsformen verwendet das System 100, 100A einen oder mehrere Sensoren (von denen die Kameras 110 ein Beispiel sind), um die Position der Benutzervorrichtung 106A-106D zu bestimmen. Wie zuvor erwähnt, können der eine oder die mehreren Sensoren Kameras 110 und/oder IMUs umfassen. Zusätzlich oder alternativ können der eine oder die mehreren Sensoren WiFi, Bluetooth, ZigBee oder ein anderes System, das eine oder mehrere Näherungsbaken aufweist, umfassen. Andere beispielhafte Sensoren können Infrarotkameras, Wärmekameras, Tiefenkameras, Ultrabreitband- (UWB) Radarsensoren oder dergleichen umfassen, um die Brennpunkte des Beleuchtungsstrahls 300 an jedem Interaktionspunkt 302 zu bestimmen.
  • Sobald die Realweltposition jedes der Interaktionspunkte 302 auf der Oberfläche 304 bestimmt wurde, ist das Steuergerät 200 dazu konfiguriert, ein Steuersignal an einen oder mehrere Motoren zu senden, um die Bewegung des Beleuchtungskörpers 102 in einer Sequenz, die den Interaktionspunkten 302 entspricht, zu betätigen. Der Beleuchtungskörper 102 begibt sich in die geeignete Orientierung, um den Beleuchtungsstrahl 300 an jedem Interaktionspunkt 302 zu projizieren. Zum Beispiel ist das Steuergerät 200 dazu konfiguriert, die kartesischen Realweltkoordinaten jedes der Interaktionspunkte 302 in die zuvor beschriebene geänderte Steuerzeichenfolge zu übersetzen, um den Beleuchtungskörper 102 derart zu betätigen, dass sich der Beleuchtungsstrahl 300 im dreidimensionalen Modellraum ohne zusätzliche Eingabe vom Benutzer geeignet zu jedem Interaktionspunkt 302 in der Sequenz begibt.
  • Bei einigen Ausführungsformen des Systems 100, 100A kann die Angabe der Interaktionspunkte 302 für den Beleuchtungsstrahl 300 auf der Oberfläche 304 am Veranstaltungsort 104 erfolgen, indem die Mitte der Aufnahmeansicht der Kamera 20 am Interaktionspunkt 302 anvisiert wird. Wie zuvor beschrieben, ist das Steuergerät 200 dazu konfiguriert, diese Mitte der Aufnahmeansicht in eine äquivalente Position des Interaktionspunktes 302 auf der tatsächlichen Oberfläche 304 umzuwandeln. Bei dieser Konfiguration kann die Angabe des Interaktionspunktes 302 durch einen bestimmten Befehl, wie etwa einen Sprachbefehl, das Drücken einer Taste oder dergleichen, betätigt werden.
  • Bei einigen Ausführungsformen des Systems 100, 100A erfolgt die Angabe des gewünschten Interaktionspunktes 302 des Beleuchtungsstrahls 300 auf der Oberfläche 304 am Veranstaltungsort 104, indem ein Ende der Benutzervorrichtung 106A-106D in eine Richtung gerichtet wird, wobei die Kameraansicht der Kamera 110 in eine orthogonale Richtung zeigt. Mit einem Smartphone 106D könnte ein Benutzer beispielsweise das obere Ende des Smartphones 106D auf den gewünschten Interaktionspunkt 302 richten, während die Kamera 110 auf die Oberfläche 304 gelenkt wird. Bei dieser Konfiguration kann der Interaktionspunkt 302 des Beleuchtungsstrahls auf einen konstanten Abstand, der möglicherweise von dem Benutzer bezeichnet wird, vom Ende des Smartphones 106B oder von der Mitte der Aufnahmeansicht der Kamera 110 in einer orthogonalen Richtung zu der Richtung der Aufnahmeansicht eingestellt werden. Bei einigen Ausführungsformen bestimmt die Benutzervorrichtung 106A-106D den Standort des gewünschten Interaktionspunktes 302, indem das Ende der Benutzervorrichtung 106A-106D auf den gewünschten Interaktionspunkt 302 gerichtet wird und indem der bekannte Standort (Koordinaten) der Benutzervorrichtung 106A-106D an dem Veranstaltungsort zusammen mit einem Kippwinkel der Vorrichtung 106A-106D im Verhältnis zu der Oberfläche 304 (der beispielsweise unter Verwendung von internen IMUs der Vorrichtung 106A-106D bestimmt wird) verwendet wird, um den Standort des gewünschten Interaktionspunktes 302 an dem Veranstaltungsort 104 zu bestimmen.
  • Bei einigen Ausführungsformen des Systems 100, 100A wird die Angabe des gewünschten Interaktionspunktes 302 des Beleuchtungsstrahls 300 als der Standort der Benutzervorrichtung 106A-106D selber eingestellt. Das Steuergerät 200 bestimmt den Standort der Benutzervorrichtung 106A-106D basierend auf den Aufnahmedaten der Kamera 110. Diese Daten werden verarbeitet, um den Standort im Verhältnis zu einem oder mehreren Referenzpunkten 306 zu berechnen. Das Steuergerät 200 ist dazu konfiguriert, den aktuellen Standort der Benutzervorrichtung 106A-106D im Verhältnis zu den Referenzpunkten 306 als den Interaktionspunkt 302 zu bezeichnen. Wie zuvor beschrieben, kann die Angabe des gewünschten Interaktionspunktes 302 als der Standort der Benutzervorrichtung 106A-106D durch einen bestimmten Befehl erfolgen.
  • Wie in 4 gezeigt, kann das System 100, 100A kann gemäß einem Verfahren 400 funktionieren, um die Bewegung eines Beleuchtungskörpers 102 basierend auf einem dreidimensionalen Fokuspfad zu steuern. Zuerst positioniert der Benutzer die Benutzervorrichtung 106 an dem ersten Interaktionspunkt 302A an dem Veranstaltungsort 104 (SCHRITT 402). Der Benutzer kann die Benutzervorrichtung 106 an dem ersten Interaktionspunkt 302A positionieren, bevor der Beleuchtungskörper 102 eingeschaltet wird. Das Positionieren der Benutzervorrichtung 106 an dem ersten Interaktionspunkt 302A kann vor dem Steuern des Beleuchtungskörpers 102 erfolgen. Bei einigen Ausführungsformen ist der erste Interaktionspunkt 302A der Beginn des dreidimensionalen Fokuspfades. Bei anderen Ausführungsformen ist der erste Interaktionspunkt 302A ein Standort nach dem Beginn des dreidimensionalen Fokuspfades. Der Benutzer kann den ersten Interaktionspunkt 302A über eine Benutzereingabe (d. h. das Auswählen der Position der Benutzervorrichtung 106 im Verhältnis zu der Oberfläche 304) der Benutzervorrichtung 106 auswählen.
  • Der Benutzer bezeichnet dann ein erstes Lichtattribut (z. B. eine erste Lichtfarbe, eine erste Lichtintensität, einen ersten Lichtfokus usw.), das dem ersten Interaktionspunkt 302A entspricht, anhand der Benutzervorrichtung 106 (SCHRITT 404). Als Nächstes bewegt der Benutzer die Benutzervorrichtung 106 zu dem zweiten Interaktionspunkt 302B an dem Veranstaltungsort 104 (SCHRITT 406). Zum Beispiel kann der Benutzer an einem Pfad des Veranstaltungsortes 104 entlang gehen und den zweiten Interaktionspunkt 302B auswählen, der auf den ersten Interaktionspunkt 302A folgt. Die Auswahl des zweiten Interaktionspunktes 302A gibt die Standorte der Interaktionspunkte 302 für den dreidimensionalen Pfad an, der von der Benutzervorrichtung 106 angezeigt wird. Bei einigen Ausführungsformen wird die Benutzervorrichtung 106 auf der Bühnenoberfläche 304 des Veranstaltungsortes 104 positioniert, während der erste Interaktionspunkt 302A und der zweite Interaktionspunkt 302B ausgewählt werden. Der Benutzer bezeichnet dann ein zweites Lichtattribut (z. B. eine zweite Lichtfarbe, eine zweite Lichtintensität, einen zweiten Lichtfokus usw.), das dem zweiten Interaktionspunkt 302B entspricht, anhand der Benutzervorrichtung 106 (SCHRITT 408). Bei einigen Ausführungsformen ist das zweite Lichtattribut anders als das erste Lichtattribut. Zum Beispiel geht das erste Lichtattribut in das zweite Lichtattribut über, wenn die Beleuchtungsvorrichtung 102 von dem ersten Interaktionspunkt 302A zu dem zweiten Interaktionspunkt 302B bewegt wird. Es versteht sich, dass obwohl der dreidimensionale Pfad als einen ersten Interaktionspunkt 302A und einen zweiten Interaktionspunkt 302B umfassend beschrieben wird, der dreidimensionale Pfad einen dritten Interaktionspunkt 302C, einen vierten Interaktionspunkt 302D oder eine beliebige Anzahl von Interaktionspunkten, die von dem Benutzer bezeichnet werden, umfassen kann.
  • Der Beleuchtungskörper 102 wird dann eingeschaltet, und die Benutzervorrichtung 106 teilt den ersten Interaktionspunkt 302A, der das erste Lichtattribut umfasst, und den zweiten Interaktionspunkt 302B, der das zweite Lichtattribut umfasst, dem Beleuchtungskörper 102 mit. Der Beleuchtungskörper 102 wird automatisch gesteuert, um den Beleuchtungsstrahl 300 auf den ersten Interaktionspunkt 302A mit dem ersten Lichtattribut zu lenken (SCHRITT 410). Das Steuergerät 200 kann einen ersten Schwenkwinkel und einen ersten Kippwinkel des Beleuchtungskörpers 102 basierend auf einer Position und einer Orientierung, wie mit Bezug auf das obige System 100, 100A beschrieben, der Benutzervorrichtung 106 an dem ersten Interaktionspunkt 302A bestimmen. Der Beleuchtungskörper 102 kann automatisch gesteuert werden, um den Lichtstrahl 300 basierend auf dem ersten Schwenkwinkel und dem ersten Kippwinkel auf den ersten Interaktionspunkt 302A zu lenken. Der Beleuchtungskörper 102 wird dann automatisch gesteuert, um den Beleuchtungsstrahl 300 auf den zweiten Interaktionspunkt 302B mit dem zweiten Lichtattribut zu lenken (SCHRITT 412). Bei einigen Ausführungsformen ist die Benutzervorrichtung 106 nicht auf der Bühnenoberfläche 304 des Veranstaltungsortes 104 positioniert, während der Beleuchtungskörper 102 gesteuert wird. Das Steuergerät 200 kann einen zweiten Schwenkwinkel und einen zweiten Kippwinkel des Beleuchtungskörpers 102 basierend auf einer Position und einer Orientierung, wie zuvor mit Bezug auf das System 100, 100A beschrieben, der Benutzervorrichtung 106 an dem zweiten Interaktionspunkt 302B bestimmen. Der Beleuchtungskörper 102 kann automatisch gesteuert werden, um den Lichtstrahl 300 basierend auf dem zweiten Schwenkwinkel und dem zweiten Kippwinkel auf den zweiten Interaktionspunkt 302B zu lenken. Bei einigen Ausführungsformen ist das Verfahren 400 nach dem Lenken des Beleuchtungskörpers 102 auf den zweiten Interaktionspunkt 302B beendet. Bei anderen Ausführungsformen wird der Beleuchtungskörper 102 auf einen dritten Interaktionspunkt 302C, einen vierten Interaktionspunkt 302D gelenkt, oder der Beleuchtungskörper 102 wird zurück auf den ersten Interaktionspunkt 302A gelenkt, um das Verfahren 400 zu wiederholen.
  • 5 bildet ein Modell 500 des Verfahrens 400 zur Verwendung in dem System 100, 100A ab. Das Modell 500 bildet einen Benutzer ab, der die Benutzervorrichtung 106 hält und sich an einem Pfad 502 entlang bewegt. Der Benutzer erreicht den ersten Interaktionspunkt 302A an einem ersten Zeitpunkt. Wenn der Benutzer den ersten Interaktionspunkt 302A erreicht, bezeichnet der Benutzer den ersten Interaktionspunkt 302A und das erste Lichtattribut anhand der Benutzervorrichtung 106. Die kartesischen Koordinaten des ersten Interaktionspunktes 302A werden in dem Speicher 210 des Steuergeräts 200 aufgezeichnet und in sphärische Koordinaten umgewandelt. Die sphärischen Koordinaten entsprechen dem ersten Schwenkwinkel und dem ersten Kippwinkel des Beleuchtungskörpers 102, um den Lichtstrahl 300 zu dem ersten Interaktionspunkt 302A zu lenken. Der erste Schwenkwinkel und der erste Kippwinkel werden in dem Speicher 210 zum Nachbilden durch den Beleuchtungskörper 102 hinterlegt, um den Lichtstrahl 300 auf den ersten Interaktionspunkt 302A zu lenken, sobald der Beleuchtungskörper 102 eingeschaltet wurde. Der Benutzer erreicht dann den zweiten Interaktionspunkt 302B entlang des Pfades 502 zu einem zweiten Zeitpunkt. Wenn der Benutzer den zweiten Interaktionspunkt 302B erreicht, bezeichnet der Benutzer den zweiten Interaktionspunkt 302B und das zweite Lichtattribut anhand der Benutzervorrichtung 106. Die kartesischen Koordinaten des zweiten Interaktionspunktes 302B werden in dem Speicher 210 des Steuergeräts 200 aufgezeichnet und in sphärische Koordinaten umgewandelt. Die sphärischen Koordinaten entsprechen dem zweiten Schwenkwinkel und dem zweiten Kippwinkel des Beleuchtungskörpers 102, um den Lichtstrahl 300 zu dem zweiten Interaktionspunkt 302B zu lenken. Der zweite Schwenkwinkel und der zweite Kippwinkel werden in dem Speicher 210 zur Nachbildung durch den Beleuchtungskörper 102 hinterlegt, um den Lichtstrahl 300 auf den zweiten Interaktionspunkt 302B zu lenken, sobald der Beleuchtungskörper 102 eingeschaltet wurde. Der Benutzer kann dann den dritten Interaktionspunkt 302C entlang des Pfades 502 zu einem dritten Zeitpunkt erreichen. Wenn der Benutzer den dritten Interaktionspunkt 302C erreicht, bezeichnet der Benutzer den dritten Interaktionspunkt 302C und das dritte Lichtattribut anhand der Benutzervorrichtung 106. Die kartesischen Koordinaten des dritten Interaktionspunktes 302C werden in dem Speicher 210 des Steuergeräts 200 aufgezeichnet und in sphärische Koordinaten umgewandelt. Die sphärischen Koordinaten entsprechen einem dritten Schwenkwinkel und einem dritten Kippwinkel des Beleuchtungskörpers 102, um den Lichtstrahl 300 zu dem dritten Interaktionspunkt 302C zu lenken. Der dritte Schwenkwinkel und der dritte Kippwinkel werden in dem Speicher 210 zur Nachbildung durch den Beleuchtungskörper 102 hinterlegt, um den Lichtstrahl 300 zu dem dritten Interaktionspunkt 302C zu lenken, sobald der Beleuchtungskörper 102 eingeschaltet wurde. Der Benutzer kann dann den vierten Interaktionspunkt 302D entlang des Pfades 502 zu einem vierten Zeitpunkt erreichen. Wenn der Benutzer den vierten Interaktionspunkt 302D erreicht, bezeichnet der Benutzer den vierten Interaktionspunkt 302D und das vierte Lichtattribut anhand der Benutzervorrichtung 106. Die kartesischen Koordinaten des vierten Interaktionspunktes 302D werden in dem Speicher 210 des Steuergeräts 200 aufgezeichnet und in sphärische Koordinaten umgewandelt. Die sphärischen Koordinaten entsprechen einem vierten Schwenkwinkel und einem vierten Kippwinkel des Beleuchtungskörpers 102, um den Lichtstrahl 300 zu dem vierten Interaktionspunkt 302D zu lenken. Der vierte Schwenkwinkel und der vierte Kippwinkel werden in dem Speicher 210 zur Nachbildung durch den Beleuchtungskörper 102 hinterlegt, um den Lichtstrahl 300 zu dem vierten Interaktionspunkt 302D zu lenken, sobald der Beleuchtungskörper 102 eingeschaltet wurde.
  • 6 bildet ein Modell 600 des Verfahrens 400 zur Verwendung in dem System 100, 100A zum Steuern der Bewegung des Beleuchtungskörpers 102 ab, nachdem der Beleuchtungskörper eingeschaltet wurde. Das Modell 600 bildet einen Benutzer ohne die Benutzervorrichtung 106 ab, der sich an dem Pfad 502 entlang bewegt. Sobald der Beleuchtungskörper 102 eingeschaltet wurde, teilt das Steuergerät 200 dem Beleuchtungskörper 102 die sphärischen Koordinaten jedes Interaktionspunktes 302 mit. Der Beleuchtungskörper 102 identifiziert dann jeden Interaktionspunkt 302 basierend auf den sphärischen Koordinaten. Der Beleuchtungskörper 102 bildet den ersten Schwenkwinkel und den ersten Kippwinkel nach, bevor der Beleuchtungskörper 102 auf den ersten Interaktionspunkt 302A gelenkt wird. Wenn der Benutzer den ersten Interaktionspunkt 302A zu dem ersten Zeitpunkt erreicht, lenkt der Beleuchtungskörper 102 den Lichtstrahl 300, der das erste Lichtattribut umfasst, auf den ersten Interaktionspunkt 302A. Der Beleuchtungskörper 102 bildet dann den zweiten Schwenkwinkel und den zweiten Kippwinkel nach, bevor der Beleuchtungskörper 102 auf den zweiten Interaktionspunkt 302B gelenkt wird. Wenn der Benutzer den zweiten Interaktionspunkt 302B zu dem zweiten Zeitpunkt erreicht, lenkt der Beleuchtungskörper 102 den Lichtstrahl 300, der das zweite Lichtattribut umfasst, auf den zweiten Interaktionspunkt 302B. Der Beleuchtungskörper 102 bildet dann den dritten Schwenkwinkel und den dritten Kippwinkel nach, bevor der Beleuchtungskörper 102 auf den dritten Interaktionspunkt 302C gelenkt wird. Wenn der Benutzer den dritten Interaktionspunkt 302C zu dem dritten Zeitpunkt erreicht, lenkt der Beleuchtungskörper 102 den Lichtstrahl 300, der das dritte Lichtattribut umfasst, auf den dritten Interaktionspunkt 302C. Der Beleuchtungskörper 102 bildet dann den vierten Schwenkwinkel und den vierten Kippwinkel nach, bevor der Beleuchtungskörper 102 auf den vierten Interaktionspunkt 302D gelenkt wird. Wenn der Benutzer den vierten Interaktionspunkt 302D zu dem vierten Zeitpunkt erreicht, lenkt der Beleuchtungskörper 102 den Lichtstrahl 300, der das vierte Lichtattribut umfasst, auf den vierten Interaktionspunkt 302D.
  • Obwohl sich die hier beschriebenen Ausführungsformen hauptsächlich auf das Steuern von herkömmlichen Beleuchtungskörpern (z. B. Beleuchtungskörper 102) an dem Veranstaltungsort 104 beziehen, ist der Beleuchtungskörper 102 bei einigen Ausführungsformen eine Beleuchtungsvorrichtung, die zur Videoprojektion fähig ist (z. B. ein Videoprojektor). Zum Beispiel kann sich ein Benutzer, der die Benutzervorrichtung 106 hält und sich an einem Pfad 502 entlang bewegt, wie etwa das Modell 500 des Verfahrens 400, an einem beispielsweise kreisförmigen Pfad entlang bewegen. Der Pfad 502 kann eine beliebige Form aufweisen, in der sich der Benutzer mit der Benutzervorrichtung 106 bewegt. Der Benutzer bezeichnet Interaktionspunkte 302 entlang des Pfades 502. Das Steuergerät 200 bestimmt dann einen Schwenkwinkel und/oder Kippwinkel, die jedem der Interaktionspunkte 302 entlang des Pfades 502 entsprechen. Das Steuergerät 200 teilt dem Videoprojektor jeden Schwenkwinkel und/oder Kippwinkel mit und bewegt den Videoprojektor, um dem Pfad 502 zu folgen, basierend auf jedem Schwenkwinkel und/oder Kippwinkel. Bei einigen Ausführungsformen verwendet das Steuergerät 200 den aufgezeichneten Pfad 502, um ein projiziertes Video zu generieren, um es dem Videoprojektor mitzuteilen, damit er es auf der Bühnenoberfläche 304 des Veranstaltungsortes 104 mit Bezug auf den Pfad 502 anzeigt. Zum Beispiel kann der Videoprojektor direkt über der Bühnenoberfläche 304 montiert sein, und zeigt Licht an, das aussieht, als ob es den Pfad 502 auf der Bühnenoberfläche 304 zeichnet, der jedem Zeitpunkt entspricht, zu dem der jeweilige Interaktionspunkt 302 durch den Benutzer an der Benutzervorrichtung 106 bezeichnet wird, wie zuvor in 6 beschrieben. Bei anderen Beispielen zeigt der Videoprojektor ein Muster auf der Bühnenoberfläche 304 an, und Licht entlang des Pfades 502 kann von dem Videoprojektor angezeigt werden, um das Muster zu unterbrechen. Zum Beispiel kann ein Muster, das wie Wasser aussieht, das sich bewegt, anhand des Videoprojektors auf der Bühnenoberfläche 304 angezeigt werden, und Licht entlang des Pfades 502 kann angezeigt werden, um das sich bewegende Wassermuster zu unterbrechen, wie etwa durch das Erstellen von Rippeln oder Wellen in dem sich bewegenden Wassermuster anhand des Videoprojektors.
  • Somit stellen die hier beschriebenen Ausführungsformen Verfahren und Systeme zum Erstellen von dreidimensionalen Fokuspfaden mit einer Benutzervorrichtung zum Lenken oder Steuern eines Beleuchtungskörpers an einem Veranstaltungsort bereit. Diverse Merkmale und Vorteile einiger Ausführungsformen werden in den folgenden Ansprüchen dargelegt.
  • BEVORZUGTE MERKMALE DER ERFINDUNG
    1. 1. Ein System, umfassend:
      • einen Beleuchtungskörper;
      • eine Benutzervorrichtung; und
      • ein Steuergerät in Kommunikation mit dem Beleuchtungskörper und der Benutzervorrichtung, wobei das Steuergerät einen elektronischen Prozessor und einen Speicher umfasst, wobei der Speicher Anweisungen speichert, die, wenn sie von dem elektronischen Prozessor ausgeführt werden, das Steuergerät konfigurieren zum:
        • Identifizieren einer Vielzahl von Interaktionspunkten in einer Sequenz, anhand der Benutzervorrichtung, an einem Veranstaltungsort;
        • Empfangen einer Vielzahl von Befehlen, wobei jeder Befehl mindestens einem der Vielzahl von Interaktionspunkten zugeordnet ist, wobei die Befehle mindestens einem von Lichtfarbe, Lichtintensität und Lichtfokus entsprechen; und
        • Steuern des Beleuchtungskörpers, damit er sich gemäß der Sequenz bewegt, und Ändern mindestens eines von Lichtfarbe, Lichtintensität und Lichtfokus gemäß den Befehlen.
    2. 2. Das System nach Paragraph 1, ferner umfassend mindestens eine Anzeige, die der Benutzervorrichtung zugeordnet ist, wobei die Benutzervorrichtung dazu konfiguriert ist, anhand des mindestens einen Displays eine dreidimensionale Darstellung des Veranstaltungsortes einschließlich der Vielzahl von Interaktionspunkten anzuzeigen.
    3. 3. Das System nach Paragraph 1, ferner umfassend mindestens eine Kamera, die der Benutzervorrichtung zugeordnet ist, wobei das Steuergerät ferner dazu konfiguriert ist, die Vielzahl von Interaktionspunkten in der Sequenz basierend auf einer Aufnahmeansicht der mindestens einen Kamera zu identifizieren.
    4. 4. Das System nach Paragraph 1, wobei das Steuergerät ist ferner konfiguriert ist zum:
      • Bestimmen eines Schwenkwinkels und eines Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an jedem der Vielzahl von Interaktionspunkten in der Sequenz.
    5. 5. Das System nach Paragraph 1, wobei der Befehl, der einem jeweiligen Interaktionspunkt zugeordnet ist, für jeden jeweiligen Interaktionspunkt unterschiedlich ist.
    6. 6. Das System nach Paragraph 1, wobei jeder Befehl der Vielzahl von Befehlen einem der Vielzahl von Interaktionspunkten zugeordnet ist.
    7. 7. Das System nach Paragraph 1, wobei das Steuergerät einem Remote-Server zugeordnet ist.
    8. 8. Das System nach Paragraph 1, wobei das Steuergerät einer Lichtsteuerplatine zugeordnet ist.
    9. 9. Ein Verfahren für Betätigen eines Beleuchtungskörpers, wobei das Verfahren umfasst:
      • Positionieren einer Benutzervorrichtung an einem ersten Interaktionspunkt an einem Veranstaltungsort;
      • Bezeichnen eines ersten Lichtattributs, wobei das erste Lichtattribut mindestens eines von einer ersten Lichtfarbe, einer ersten Lichtintensität und einem ersten Lichtfokus, die dem ersten Interaktionspunkt entsprechen, umfasst;
      • Bewegen der Benutzervorrichtung zu einem zweiten Interaktionspunkt an einem Veranstaltungsort;
      • Bezeichnen eines zweiten Lichtattributs, wobei das zweite Lichtattribut mindestens eines von einer zweiten Lichtfarbe, einer zweiten Lichtintensität und einem zweiten Lichtfokus, die dem zweiten Interaktionspunkt entsprechen, umfasst, wobei das zweite Lichtattribut anders als das erste Lichtattribut ist;
      • Steuern des Beleuchtungskörpers, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken; und
      • Steuern des Beleuchtungskörpers, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken.
    10. 10. Das Verfahren nach Paragraph 9, wobei das Positionieren der Benutzervorrichtung und das Bezeichnen der Lichtattribute vor dem Steuern des Beleuchtungskörpers erfolgen.
    11. 11. Das Verfahren nach Paragraph 9, wobei die Benutzervorrichtung auf einer Bühne an dem Veranstaltungsort sowohl für den ersten Interaktionspunkt als auch für den zweiten Interaktionspunkt positioniert ist, und die Benutzervorrichtung während des Steuerns des Beleuchtungskörpers nicht auf der Bühne an dem Veranstaltungsort positioniert ist.
    12. 12. Das Verfahren nach Paragraph 9, wobei das Steuern des Beleuchtungskörpers, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken, umfasst:
      • Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt; und
      • Steuern des Beleuchtungskörpers, um Licht basierend auf dem ersten Schwenkwinkel und dem ersten Kippwinkel zu lenken.
    13. 13. Das Verfahren nach Paragraph 12, wobei die Benutzervorrichtung mindestens einer Kamera zugeordnet ist, und wobei das Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt umfasst:
      • Verwenden einer Aufnahmeansicht der mindestens einen Kamera, um die Position und die Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt zu bestimmen.
    14. 14. Das Verfahren nach Paragraph 12, wobei das Steuern des Beleuchtungskörpers, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken umfasst:
      • Bestimmen eines zweiten Schwenkwinkels und eines zweiten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem zweiten Interaktionspunkt; und
      • Steuern des Beleuchtungskörpers, um Licht basierend auf dem zweiten Schwenkwinkel und dem zweiten Kippwinkel zu lenken.
    15. 15. Das Verfahren nach Paragraph 9, wobei die Benutzervorrichtung mindestens einem Display zugeordnet ist, wobei das Verfahren ferner umfasst:
      • Anzeigen, anhand des mindestens einen Displays, einer dreidimensionalen Darstellung des Veranstaltungsortes, die mindestens den ersten Interaktionspunkt und den zweiten Interaktionspunkt umfasst.

Claims (20)

  1. System, umfassend: einen Beleuchtungskörper; eine Benutzervorrichtung; und ein Steuergerät, das mit dem Beleuchtungskörper und der Benutzervorrichtung in Verbindung steht, wobei das Steuergerät einen elektronischen Prozessor und einen Speicher umfasst, wobei der Speicher Anweisungen speichert, die, wenn sie von dem elektronischen Prozessor ausgeführt werden, das Steuergerät konfigurieren zum: Identifizieren einer Vielzahl von Interaktionspunkten in einer Sequenz anhand der Benutzervorrichtung an einem Veranstaltungsort; Empfangen einer Vielzahl von Befehlen, wobei jeder Befehl mindestens einem der Vielzahl von Interaktionspunkten zugeordnet ist, wobei die Befehle mindestens einem von Lichtfarbe, Lichtintensität und Lichtfokus entsprechen; und Steuern des Beleuchtungskörpers, damit er sich gemäß der Sequenz bewegt, und Ändern mindestens eines von Lichtfarbe, Lichtintensität und Lichtfokus gemäß den Befehlen.
  2. System nach Anspruch 1, ferner umfassend mindestens eine Anzeige, die der Benutzervorrichtung zugeordnet ist, wobei die Benutzervorrichtung dazu konfiguriert ist, anhand des mindestens einen Displays eine dreidimensionale Darstellung des Veranstaltungsortes einschließlich der Vielzahl von Interaktionspunkten anzuzeigen.
  3. System nach Anspruch 1 oder 2, ferner umfassend mindestens eine Kamera, die der Benutzervorrichtung zugeordnet ist, wobei das Steuergerät ferner dazu konfiguriert ist, die Vielzahl von Interaktionspunkten in der Sequenz basierend auf einer Aufnahmeansicht der mindestens einen Kamera zu identifizieren.
  4. System nach einem der vorhergehenden Ansprüche, wobei das Steuergerät ferner konfiguriert ist zum: Bestimmen eines Schwenkwinkels und eines Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an jedem der Vielzahl von Interaktionspunkten in der Sequenz.
  5. System nach einem der vorhergehenden Ansprüche, wobei der Befehl, der einem jeweiligen Interaktionspunkt zugeordnet ist, für jeden jeweiligen Interaktionspunkt unterschiedlich ist.
  6. System nach einem der vorhergehenden Ansprüche, wobei jeder Befehl der Vielzahl von Befehlen einem der Vielzahl von Interaktionspunkten zugeordnet ist.
  7. System nach einem der vorhergehenden Ansprüche, wobei das Steuergerät einem Remote-Server zugeordnet ist.
  8. System nach einem der vorhergehenden Ansprüche, wobei das Steuergerät einer Lichtsteuerplatine zugeordnet ist.
  9. Verfahren zum Betätigen eines Beleuchtungskörpers, wobei das Verfahren umfasst: Positionieren einer Benutzervorrichtung an einem ersten Interaktionspunkt an einem Veranstaltungsort; Bezeichnen eines ersten Lichtattributs, wobei das erste Lichtattribut mindestens eines von einer ersten Lichtfarbe, einer ersten Lichtintensität und einem ersten Lichtfokus, die dem ersten Interaktionspunkt entsprechen, umfasst; Bewegen der Benutzervorrichtung zu einem zweiten Interaktionspunkt an einem Veranstaltungsort; Bezeichnen eines zweiten Lichtattributs, wobei das zweite Lichtattribut mindestens eines von einer zweiten Lichtfarbe, einer zweiten Lichtintensität und einem zweiten Lichtfokus, die dem zweiten Interaktionspunkt entsprechen, umfasst, wobei das zweite Lichtattribut anders als das erste Lichtattribut ist; Steuern des Beleuchtungskörpers, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken; und Steuern des Beleuchtungskörpers, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken.
  10. Verfahren nach Anspruch 9, wobei das Positionieren der Benutzervorrichtung und das Bezeichnen der Lichtattribute vor dem Steuern des Beleuchtungskörpers erfolgen.
  11. Verfahren nach Anspruch 9 oder 10, wobei die Benutzervorrichtung auf einer Bühne an dem Veranstaltungsort sowohl für den ersten Interaktionspunkt als auch für den zweiten Interaktionspunkt positioniert ist, und die Benutzervorrichtung während des Steuerns des Beleuchtungskörpers nicht auf der Bühne an dem Veranstaltungsort positioniert ist.
  12. Verfahren nach einem der Ansprüche 9 bis 11, wobei das Steuern des Beleuchtungskörpers, um Licht, welches das erste Lichtattribut aufweist, auf den ersten Interaktionspunkt zu lenken, umfasst: Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt; und Steuern des Beleuchtungskörpers, um Licht basierend auf dem ersten Schwenkwinkel und dem ersten Kippwinkel zu lenken.
  13. Verfahren nach Anspruch 12, wobei die Benutzervorrichtung mindestens einer Kamera zugeordnet ist, und wobei das Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt umfasst: Verwenden einer Aufnahmeansicht der mindestens einen Kamera, um die Position und die Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt zu bestimmen.
  14. Verfahren nach einem der Ansprüche 12 oder 13, wobei das Steuern des Beleuchtungskörpers, um Licht, welches das zweite Lichtattribut aufweist, auf den zweiten Interaktionspunkt zu lenken, umfasst: Bestimmen eines zweiten Schwenkwinkels und eines zweiten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem zweiten Interaktionspunkt; und Steuern des Beleuchtungskörpers, um Licht basierend auf dem zweiten Schwenkwinkel und dem zweiten Kippwinkel zu lenken.
  15. Verfahren nach einem der Ansprüche 9 bis 14, wobei die Benutzervorrichtung mindestens einem Display zugeordnet ist, wobei das Verfahren ferner umfasst: Anzeigen, anhand des mindestens einen Displays, einer dreidimensionalen Darstellung des Veranstaltungsortes, die mindestens den ersten Interaktionspunkt und den zweiten Interaktionspunkt umfasst.
  16. Verfahren zum Betätigen eines Beleuchtungskörpers, wobei das Verfahren umfasst: Identifizieren eines ersten Interaktionspunktes anhand einer Benutzervorrichtung an einem Veranstaltungsort, wobei der Beleuchtungskörper ausgeschaltet ist; Identifizieren eines zweiten Interaktionspunktes anhand der Benutzervorrichtung an dem Veranstaltungsort nach dem Identifizieren des ersten Interaktionspunktes; Einschalten des Beleuchtungskörpers, nachdem der erste Interaktionspunkt und der zweite Interaktionspunkt identifiziert wurden; automatisches Lenken des Beleuchtungskörpers auf den ersten Interaktionspunkt; und automatisches Lenken des Beleuchtungskörpers auf den zweiten Interaktionspunkt nach dem ersten Interaktionspunkt.
  17. Verfahren nach Anspruch 16, wobei das Identifizieren eines ersten Interaktionspunktes anhand einer Benutzervorrichtung an einem Veranstaltungsort, wobei der Beleuchtungskörper ausgeschaltet ist, umfasst: Bestimmen eines ersten Schwenkwinkels und eines ersten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem ersten Interaktionspunkt.
  18. Verfahren nach Anspruch 17, wobei das Identifizieren eines zweiten Interaktionspunktes anhand der Benutzervorrichtung an dem Veranstaltungsort nach dem Identifizieren des ersten Interaktionspunktes umfasst: Bestimmen eines zweiten Schwenkwinkels und eines zweiten Kippwinkels des Beleuchtungskörpers basierend auf einer Position und einer Orientierung der Benutzervorrichtung an dem zweiten Interaktionspunkt.
  19. Verfahren nach Anspruch 18, wobei das Verfahren ferner umfasst: Mitteilen, anhand der Benutzervorrichtung, des ersten Interaktionspunktes und des zweiten Interaktionspunktes an den Beleuchtungskörper nach dem Einschalten des Beleuchtungskörpers.
  20. Verfahren nach Anspruch 19, wobei das Verfahren ferner umfasst: Nachbilden, anhand des Beleuchtungskörpers, des ersten Schwenkwinkels und des ersten Kippwinkels vor dem automatischen Lenken des Beleuchtungskörpers; und Nachbilden, anhand des Beleuchtungskörpers, des zweiten Schwenkwinkels und des zweiten Kippwinkels vor dem automatischen Lenken des Beleuchtungskörpers.
DE102023120123.9A 2022-07-29 2023-07-28 Verfahren zum erstellen von xyz-fokuspfaden mit einer benutzervorrichtung Pending DE102023120123A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/877,253 2022-07-29
US17/877,253 US12038159B2 (en) 2022-07-29 2022-07-29 Method for creating XYZ focus paths with a user device

Publications (1)

Publication Number Publication Date
DE102023120123A1 true DE102023120123A1 (de) 2024-02-01

Family

ID=87556854

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023120123.9A Pending DE102023120123A1 (de) 2022-07-29 2023-07-28 Verfahren zum erstellen von xyz-fokuspfaden mit einer benutzervorrichtung

Country Status (3)

Country Link
US (1) US12038159B2 (de)
DE (1) DE102023120123A1 (de)
GB (1) GB2621929A (de)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6769790B2 (en) 2001-04-12 2004-08-03 Fruehm Hermann Theatrical lighting system with moving lights
GB2500566A (en) 2012-01-31 2013-10-02 Avolites Ltd Automated lighting control system allowing three dimensional control and user interface gesture recognition
US9677755B1 (en) * 2014-03-14 2017-06-13 Autofuss Controlling three-dimensional lighting arrangements
JP6868822B2 (ja) 2017-07-13 2021-05-12 パナソニックIpマネジメント株式会社 調光操作卓、それを用いた照明システム、及び照明器具の制御方法
EP3592119A1 (de) 2018-06-08 2020-01-08 ROBE lighting s.r.o. Nachlaufregelungssystem
DE102019133754A1 (de) 2018-12-10 2020-06-10 Electronic Theatre Controls, Inc. Systeme und verfahren zum richten eines beleuchtungskörpers in einem veranstaltungsbereich
DE102019133756A1 (de) 2018-12-10 2020-06-10 Electronic Theatre Controls, Inc. Systems and methods for generating a lighting design
US20200184222A1 (en) 2018-12-10 2020-06-11 Electronic Theatre Controls, Inc. Augmented reality tools for lighting design
US11006505B2 (en) 2018-12-10 2021-05-11 Electronic Theatre Controls, Inc. Automated re-creation of lighting visual for a venue
US11304282B2 (en) 2018-12-10 2022-04-12 Electronic Theatre Controls, Inc. Systems and methods for determining lighting fixture arrangement information

Also Published As

Publication number Publication date
GB2621929A (en) 2024-02-28
GB202310330D0 (en) 2023-08-16
US12038159B2 (en) 2024-07-16
US20240035648A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
DE112011101407B4 (de) Verfahren zur Verwendung von Gesten zur Steuerung eines Lasernachführgeräts
DE102015101710B4 (de) Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera
DE102018129143B4 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
EP2176833B1 (de) Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt
EP3005292B1 (de) 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
DE102019133756A1 (de) Systems and methods for generating a lighting design
DE102019122343A1 (de) Abweichungskorrektur für industrielle anwendungen mit erweiterter realität
DE112013004569B4 (de) Verfahren zum festen Anvisieren und Verfolgen eines ausgewählten Retroreflektors mit einem Lasertracker
DE112007003284T5 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
EP3315906B1 (de) Verfahren zur verarbeitung von scandaten
DE10308525A1 (de) Vermessungssystem
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102019133752A1 (de) Systeme und verfahren zum ermitteln von informationen überbeleuchtungskörperanordnungen
DE112016006069T5 (de) Stereotiefenkamera mit vcsel-projektor mit gesteuerten projektionslinsen
DE102019133749A1 (de) Automatisierte neu-erstellung einer beleuchtungstechnik für einen veranstaltungsort
EP2598839A1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
EP1910999A1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE102018113336A1 (de) Verfahren zum Verwenden mit einer Maschine zum Einstellen einer Erweiterte-Realität-Anzeigeumgebung
DE102021204256A1 (de) Mäherpositionierungs-Konfigurationssystem
DE102019133754A1 (de) Systeme und verfahren zum richten eines beleuchtungskörpers in einem veranstaltungsbereich
DE102019133753A1 (de) Werkzeuge für augmentierte realität in der lichtgestaltung
DE102018132921A1 (de) Verfahren zum Betreiben eines Feldgeräts der Automatisierungstechnik in einer Augmented-Reality/Mixed-Reality- Umgebung
DE102023120123A1 (de) Verfahren zum erstellen von xyz-fokuspfaden mit einer benutzervorrichtung
DE112022001773T5 (de) Systeme und Verfahren zur Bestimmung eines adaptiven Bereichs von Interesse (ROI) für die Berechnung von Bildmetriken
DE102020124688A1 (de) Systeme und verfahren zur standortbestimmung von leuchten

Legal Events

Date Code Title Description
R012 Request for examination validly filed