AT514745B1 - Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten - Google Patents

Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten Download PDF

Info

Publication number
AT514745B1
AT514745B1 ATA50908/2014A AT509082014A AT514745B1 AT 514745 B1 AT514745 B1 AT 514745B1 AT 509082014 A AT509082014 A AT 509082014A AT 514745 B1 AT514745 B1 AT 514745B1
Authority
AT
Austria
Prior art keywords
light
emitting units
camera
activated
emitting
Prior art date
Application number
ATA50908/2014A
Other languages
English (en)
Other versions
AT514745A2 (de
AT514745A3 (de
Inventor
Dipl Ing Priller Peter
Dr Pichler Markus
Dipl Ing Berger Achim
Original Assignee
Avl List Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avl List Gmbh filed Critical Avl List Gmbh
Priority to ATA50908/2014A priority Critical patent/AT514745B1/de
Publication of AT514745A2 publication Critical patent/AT514745A2/de
Priority to PCT/EP2015/079547 priority patent/WO2016096693A1/de
Priority to DE112015005608.4T priority patent/DE112015005608A5/de
Publication of AT514745A3 publication Critical patent/AT514745A3/de
Application granted granted Critical
Publication of AT514745B1 publication Critical patent/AT514745B1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl (g) an Messpunkten, wobei jeder Messpunkt eine individuell ansteuerbare Licht emittierende Einheit (Lh) aufweist. Eine Steuereinheit (9) ist vorgesehen, welche ausgebildet ist, um eine Abfolge an Leuchtmustern (Mn) mit einer ersten Anzahl a(n) an aktivierten Licht emittierenden Einheiten (Lh) und einer zweiten Anzahl b(n) an nicht aktivierten Licht emittierenden Einheiten (Lh) einzustellen. Die Vorrichtung weist zumindest eine Kamera (3,4) zur Aufnahme jedes Leuchtmusters (Mn) aus zumindest zwei unterschiedlichen Kamerapositionen (Kt) und eine Auswerteeinheit (6) auf, die ausgebildet ist, um Bildkoordinaten (u,v) von Licht emittierenden Einheiten (Lh) aus den Aufnahmen für jede Kameraposition (Kt) zu ermitteln und aus den ermittelten Bildkoordinaten Raumkoordinaten (x,y,z) der Licht emittierenden Einheiten (Lh) zu berechnen.

Description

Beschreibung
VERFAHREN UND VORRICHTUNG ZUR RÄUMLICHEN LOKALISIERUNG EINER ANZAHL AN MESSPUNKTEN
[0001] Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten die zumindest teilweise auf Sensoren angeordnet werden.
[0002] Eine exakte räumliche Lokalisierung von Messpunkten ist beispielsweise bei der Parametrisierung von Sensoren erforderlich, die auf einem Prüfling, beispielsweise einem Verbrennungsmotor, Antriebsstrang, Fahrzeug etec., in einem Prüfstand angeordnet sind. In solchen Prüfständen werden in der Regel eine Fülle von Sensoren verbaut, um die für die aktuelle Prüfaufgabe notwendigen Daten erfassen zu können. Die Sensoren werden dazu an bestimmten Stellen des Prüflings angebracht und müssen vor einer Messung parametriert werden, um eine korrekte Messung sicherzustellen. Die Parametrierung umfasst dabei die Zuordnung der Sensorart zum Sensor, also die Zuordnung des Sensors zu dessen gemessenen physikalischen Größe, und die Bestimmung der Position des Sensors am Prüfling, also die Messstelle, z.B. Öldruck Zylinderkopf links, oder Abgastemperatur vor Katalysator. Weiters kann die Parametrierung auch die Zuordnung des Sensortyps umfassen, z.B. Drucksensor Typ xyz oder Temperatursensor Typ xyz, um es dem Messsystem zu ermöglichen, die entsprechenden Übertragungsfunktion des Sensors anzuwenden und damit aus dem Messwert auf den am Sensor anliegenden physikalischen Wert rückschließen zu können. Ebenso kann die Parametrierung die Zuordnung der Sensor-Seriennummer oder einer Sensor-Identifikation oder notwendiger Kalibrierdaten umfassen. Diese Daten sind meistens in der Prüfstandsumgebung, z.B. am Prüfstandsrechner oder im Automatisierungssystem, abgelegt. Die Parametrierung erfolgt dabei manuell, d.h. dass ein Prüfstandsingenieur die Parametrierung der verschiedenen Sensoren einzeln vornehmen muss, also die erforderliche Information zuordnen muss, was aufgrund der Vielzahl von Sensoren und der Fülle von zuzuordnender Information eine aufwendige und fehleranfällige Aufgabe ist.
[0003] Aus der WO 2013/060556 A1 ist ein Verfahren zum Parametrisieren eines Sensors, der auf einem Prüfling in einem Prüfstand angebracht ist, bekannt, bei dem für die Zwecke der Parametrisierung die Position des Sensors im Raum automatisch ermittelt wird. Für die Positionsermittlung sind in der WO 2013/060556 A1 unter anderem Methoden der digitalen Bilderkennung offenbart, wobei die Sensoren mit geeigneten Bildmarken versehen sind, die über die Bilderkennung ausgewertet werden können.
[0004] EP 1186860 A1 offenbart ein System zur Identifizierung von Messpunkten, die jeweils mit mehreren Leuchtpunkten unterschiedlicher Größe bzw. Intensität versehen sind. Die Leuchtpunkte eines Messpunkts werden immer gemeinsam gemäß dem zugeordneten Muster aktiviert, wodurch mehrere Messpunkte mit jeweils unterschiedlichen Mustern voneinander unterschieden werden können.
[0005] EP 1 065 628 A1 offenbart ein Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen, bei dem Muster auf die Objektoberfläche projiziert und die Objektkoordinaten unter Anwendung einer Ahnlichkeitsanalyse der Grauwertverläufe in den von mindestens zwei Matrixkameras aufgenommenen Bildern der Objektoberfläche bestimmt werden.
[0006] WO99/52094 offenbart ein optisches Messinstrument zur Bestimmung der Position eines Objekts im Raum. Dazu werden LEDs als optische Positionsindikatoren auf dem Objekt angeordnet, der Reihe nach aktiviert und von einem Kamerasystem aufgenommen und zur Positionsbestimmung ausgewertet. Die Aktivierung der LEDs erfolgt koordiniert mit der Kameraaufnahmefrequenz, wobei jeweils genau eine LED pro Bildaufnahme der Kamera aktiviert ist.
[0007] In der Praxis verläuft eine solche Bilderkennung jedoch nicht immer fehlerfrei. Insbesondere in Prüfstandsumgebungen kann die enge räumliche Anordnung der Messpunkte und die teilweise stark reflektierenden Oberflächen (z.B. eines Motors am Prüfstand) zu Fehlmessungen führen.
[0008] Die WO 2005/055438 A?2 offenbart ein System zur Verfolgung von Anlagegegenständen, die mit optische Lichtsignale aussendenden Markierungen versehen sind. Die von einer Überwachungskamera aufgenommenen Bilder werden ausgewertet, und es wird die Position eines Anlagegegenstandes anhand des codierten Lichtsignals, das von der Markierung ausgesendet wird, ermittelt. Dabei wird das Vorhandensein eines bestimmten Anlagegegenstandes im Kamerabereich ermittelt und der Gegenstand identifiziert. Für eine genaue Bestimmung der exakten räumlichen Position oder der räumlichen Ausrichtung dieses Anlagegegenstandes ist dieses System jedoch nicht geeignet. Auch für eine gleichzeitige Auswertung zahlreicher parallel ausgesandter Lichtsignale erscheint dieses System nicht gut geeignet zu sein, insbesondere wenn Störquellen, wie etwa reflektierende Oberflächen berücksichtig werden müssen.
[0009] Die WO 2007/030026 A1 identifiziert die Position eines Handgeräts im Raum, wobei im Raum angeordnete Lichtquellen von einer am Handgerät angebrachten Kamera erfasst werden.
[0010] Es ist ein Ziel der gegenständlichen Erfindung, die Lokalisierung einer Vielzahl von Messpunkten auch in einer engen Umgebung mit stark reflektierenden Objekten mittels einer Auswertung der von einer oder mehreren Kameras aufgenommenen Bilder zu verbessern.
[0011] Erfindungsgemäß wird diese Aufgabe durch ein Verfahren der eingangs genannten Art gelöst, welches die folgenden Schritte aufweist: Anordnen zumindest einer individuell ansteuerbaren lichtemittierenden Einheit an jedem Messpunkt; Ausführen einer Abfolge von Teilmessungen, jeweils umfassend: Einstellen eines Leuchtmusters mit einer Anzahl an mehreren aktivierten lichtemittierenden Einheiten und einer Anzahl an mehreren nicht aktivierten lichtemittierenden Einheiten, und Erstellen von Aufnahmen mit zumindest einer Kamera aus zumindest zwei unterschiedlichen Kamerapositionen für jedes Leuchtmuster, wobei jede lichtemittierende Einheit in der Abfolge der Teilmessungen mehr als ein Mal aktiviert wird und wobei sich für jede lichtemittierende Einheit eine Signalabfolge aktivierter und deaktivierter Zustände ergibt, die jede lichtemittierende Einheit eindeutig identifiziert; Ermitteln der Bildkoordinaten lichtemittierender Einheiten aus den Aufnahmen für jede Kameraposition; und Berechnen von Raumkoordinaten von lichtemittierenden Einheiten aus den ermittelten Bildkoordinaten.
[0012] Dank der Erfindung ist es möglich, die Anzahl der aufzunehmenden und zu verarbeitenden Bilder zu minimieren und es ist gleichzeitig sichergestellt, dass jeder Messpunkt auf mehreren Bildern aufscheinen kann, wodurch Bildfehler (z.B. Reflektionen) eliminiert werden können. Die lichtemittierenden Einheiten können dabei im sichtbaren oder im unsichtbaren (z.B. infraroten) Lichtspektrum emittieren.
[0013] In vorteilhafter Weise kann jede lichtemittierende Einheit in der Abfolge der m Teilmessungen mehr als ein Mal, vorzugsweise m/2 Mal, aktiviert werden. Dies erhöht die Erkennungsgenauigkeit.
[0014] In einer vorteilhaften Ausführungsform ist die Anzahl an aktivierten lichtemittierenden Einheiten bei jedem Leuchtmuster konstant, wobei vorzugsweise bei jedem Leuchtmuster die Anzahl an aktivierten lichtemittierenden Einheiten der Hälfte der Anzahl an lichtemittierenden Einheiten entspricht. Dies erlaubt die Anwendung von Fehlererkennungsalgorithmen und erhöht dadurch die Genauigkeit der Positionsbestimmung.
[0015] Ein Teil der lichtemittierenden Einheiten kann in einer weiteren vorteilhaften Ausführungsform als Referenzeinheiten mit bekannten Raumkoordinaten vorgesehen werden, wobei Kamerapositionen aus den Bildkoordinaten der Referenzeinheiten berechnet werden. Es ist daher nicht erforderlich, die Kamera an einer vorgegebenen Position exakt zu positionieren. Da die Kameraposition und deren Ausrichtung bei jeder Aufnahme ermittelt werden können, ist es auch nicht erforderlich, dass die Kamerapositionen bei den unterschiedlichen Teilmessungen übereinstimmen müssen. Daher sind geringe Anforderungen an die Positionierungsgenauigkeit der verwendeten Kameras gestellt. Es kann auch eine einfache Handkamera verwendet werden, die von einem Benutzer während der Messung von Hand geführt werden kann.
[0016] In einer weiteren vorteilhaften Ausführungsform kann aus einer Bildkoordinate einer lichtemittierenden Einheit für eine Kameraposition ein Sichtstrahl im Koordinatensystem der Kame-
raposition ermittelt werden. Durch Schneiden von Sichtstrahlen für eine lichtemittierende Einheit von zumindest zwei Kamerapositionen aus, können die Raumkoordinaten der lichtemittierenden Einheit einfach errechnet werden. Weiters erlaubt der Sichtstrahl das Erkennen von Fehlmessungen.
[0017] Um auch eine exakte Berechnung von lichtemittierenden Einheiten zu ermöglichen, die im Randbereich von Kameraaufnahmen liegen, kann in einer vorteilhaften Ausführungsform eine optische Bildverzerrung der Kameras ausgeglichen werden.
[0018] Indem in vorteilhafter Weise eine farbliche Kodierung von lichtemittierenden Einheiten ausgewertet wird, kann die Unterscheidbarkeit der lichtemittierenden Einheiten verbessert und dadurch die Anzahl an detektierbaren Leuchtpunkten erhöht werden. Farbliche Kodierung bedeutet hier entweder, dass eine lichtemittierende Einheit in verschiedenen Farben leuchten kann oder in verschiedenen Farben leuchtende lichtemittierende Einheiten zum Einsatz kommen.
[0019] In einer vorteilhaften Ausführungsform der Erfindung befinden sich die Messpunkte zumindest teilweise auf Sensoren, wobei vorzugsweise die Messpunkte den Positionen der Sensoren im Raum entsprechen. In einer Variante der Erfindung sind die Sensoren zumindest teilweise auf einem Prüfling in einem Prüfstand angeordnet. Dabei kann es sich um einen beliebigen Prüfstand der eingangs beschriebenen Art handeln. Dies erleichtert die Sensorparametrisierung vor Prüfläufen und ermöglicht eine Automatisierung der Parametrisierung.
[0020] In vorteilhafter Weise wird neben der Position auch die räumliche Ausrichtung der Sensoren berechnet. Zu diesem Zweck können beispielsweise mehrere lichtemittierende Einheiten, gegebenenfalls farblich kodiert, einem einzigen Sensor zugeordnet sein. Durch die Auswertung der relativen und absoluten Positionen dieser lichtemittierenden Einheiten kann die räumliche Ausrichtung errechnet werden.
[0021] Die erfindungsgemäßen Ziele werden weiters durch ein eingangs genannte erfindungsgemäße Vorrichtung erreicht, bei der jeder Messpunkt eine individuell ansteuerbare lichtemittierende Einheit aufweist, wobei eine Steuereinheit vorgesehen ist, welche ausgebildet ist, um eine Abfolge an Leuchtmustern mit einer ersten Anzahl an mehreren aktivierten lichtemittierenden Einheiten und einer zweiten Anzahl an mehreren nicht aktivierten lichtemittierenden Einheiten einzustellen, wobei jede lichtemittierende Einheit in der Abfolge der m Teilmessungen mehr als ein Mal aktiviert wird, wobei sich für jede lichtemittierende Einheit eine Signalabfolge aktivierter und deaktivierter Zustände ergibt, die jede lichtemittierende Einheit eindeutig identifiziert, wobei die Vorrichtung zumindest eine Kamera zur Aufnahme jedes Leuchtmusters aus zumindest zwei unterschiedlichen Kamerapositionen aufweist, und wobei die Vorrichtung weiters eine Auswerteeinheit aufweist, die ausgebildet ist, um Bildkoordinaten von lichtemittierenden Einheiten aus den Aufnahmen für jede Kameraposition zu ermitteln und aus den ermittelten Bildkoordinaten Raumkoordinaten der lichtemittierenden Einheiten zu berechnen.
[0022] In vorteilhafter Weise können die lichtemittierenden Einheiten zumindest teilweise LEDs aufweisen. Diese weisen ein definiertes, gut auswertbares und wählbares Farbspektrum auf und erleichtern dadurch die Erkennung.
[0023] In vorteilhafter Weise kann die Vorrichtung einen optischen und/oder elektronischen Lichtfilter für die Aufnahmen aufweisen, wodurch Störlichteinflüsse verringert werden.
[0024] In einer weiteren bevorzugten Ausführungsform können lichtemittierende Einheiten zumindest teilweise an einem Sensor auf einem Prüfling in einem Prüfstand angeordnet sein, wobei die Messpunkte den Positionen der Sensoren im Raum entsprechen. Dadurch kann die Vorrichtung bei der Parametrisierung von Prüfständen eingesetzt werden.
[0025] Bei einer weiteren vorteilhaften Ausgestaltung können an einem Sensor mehrere lichtemittierende Einheiten angeordnet sein. Einerseits kann dadurch der Sensor aus mehreren unterschiedlichen Richtungen erkannt werden, andererseits kann durch Auswertung der mehreren lichtemittierenden Einheiten die räumliche Ausrichtung des Sensors ermittelt werden.
[0026] In einer weiteren vorteilhaften Ausführungsform kann zumindest eine Kamera eine von
Hand geführte Kamera sein. Die Verwendung der Vorrichtung lässt sich dadurch für den Benutzer besonders einfach gestalten, beispielsweise kann der Benutzer den Prüfstand zur Parametrisierung einfach von mehreren Seiten aus aufnehmen (etwa indem er mit der Handkamera um den Prüfstand herum geht und diesen aufnimmt), während die Steuereinheit die Leuchtmuster ablaufen lässt. Die Auswerteeinheit ermittelt dann für die Aufnahmen die jeweils zugeordnete Kameraposition (zum Beispiel unter Verwendung von Referenzeinheiten) und weist die Steuereinheit an, falls weitere Messungen erforderlich sind. Gegebenenfalls können auch Steueranweisungen und/oder Warnungen an den Benutzer ausgegeben werden. Zum Beispiel könnten dem Benutzer an einem Display der Kamera Steuersymbole, z.B. Richtungspfeile, angezeigt werden, in die er die Kamera bewegen, drehen und/oder schwenken soll. Die Steuereinheit kann dabei die Abfolge an Leuchtmustern so lange wiederholen, bis der Auswerteeinheit genügend Aufnahmen zur Verfügung stehen, um alle Positionen exakt zu ermitteln.
[0027] Die gegenständliche Erfindung wird nachfolgend unter Bezugnahme auf die Figuren 1 bis 3 näher erläutert, die beispielhaft, schematisch und nicht einschränkend vorteilhafte Ausgestaltungen der Erfindung zeigen. Dabei zeigt
[0028] Fig. 1 eine schematische Darstellung mehrerer im Raum angeordneter lichtemittierender Einheiten, die von zwei Kamerapositionen erfasst werden,
[0029] Fig. 2 eine schematische Darstellung einer Aufnahme von der ersten Kameraposition K+ aus, und
[0030] Fig. 3 eine schematische Darstellung einer Prüfstandsanordnung, deren Sensoren mithilfe der erfindungsgemäßen Vorrichtung für die Parametrisierung räumlich erfasst werden.
[0031] Fig. 1 zeigt eine Konfiguration, bei der eine Anzahl g=6 von lichtemittierenden Einheiten La (h=1, ..., g) an Messpunkten im Raum verteilt angeordnet sind, wobei deren Position mithilfe von zwei Kameras 3, 4 ermittelt wird. Die lichtemittierenden Einheiten L, emittieren dabei entweder im sichtbaren oder im unsichtbaren Lichtspektrum. Auch Kombinationen, also Einheiten mit jeweils unterschiedlichem Spektrum, sind möglich. Die erste Kamera 3 ist an einer ersten Kameraposition Kı angeordnet und die zweite Kamera 4 ist an einer zweiten Kameraposition K2 angeordnet. Jedem Punkt im Raum sind Raumkoordinaten x,y,z eines raumfesten Koordinatensystems zugeordnet. Der UÜbersichtlichkeit halber sind in Fig. 1 nur die Raumkoordinaten Xk1,yk1,Zkı der ersten Kameraposition K:, die Raumkoordinaten x_+,yı1,Zu der ersten lichtemittierenden Einheit L; und die Raumkoordinaten x, s,yıs, Zıs der fünften lichtemittierenden Einheit Ls beispielhaft dargestellt. Auch die Ausrichtung der Kameras 3,4 und der lichtemittierenden Einheiten L, können im gleichen Koordinatensystem eindeutig definiert werden. Ausrichtung der Kameras 3, 4 bedeutet hierbei im Wesentlichen die Aufnahmerichtung bzw. das erfasste Blickfeld der Kameras 3, 4.
[0032] Die lichtemittierenden Einheiten L,- können herkömmliche LEDs sein, die über eine gemeinsame Steuereinheit 5 (siehe Fig. 3) individuell ansteuerbar sind, so dass sie selektiv aktiviert und deaktiviert werden können, wodurch sich jeweils ein Leuchtmuster M, ergibt. Jede einzelne lichtemittierende Einheit L, kann also für sich genommen unabhängig von den anderen Einheiten aktiviert und deaktiviert werden. Aktivieren bedeutet hier, dass die lichtemittierende Einheit ein Lichtsignal aussendet, wohingegen Deaktivieren bedeutet, dass die lichtemittierende Einheit kein Lichtsignal aussendet. In Fig. 1 sind die lichtemittierende Einheiten L+, L4 und Ls gerade aktiviert, und die lichtemittierende Einheiten L>, L3 und Le sind deaktiviert.
[0033] In Fig. 2 ist eine Aufnahme der in Fig. 1 dargestellten Konfiguration aus der Sicht der an der Kameraposition K1 angeordneten Kamera 3 dargestellt. Jeder lichtemittierenden Einheit Ln kann in der Aufnahme eine Bildkoordinate u, v in der zweidimensionalen Bildebene der Kamera 3 zugeordnet werden, wobei in Fig. 2 aus Gründen der Ubersichtlichkeit nur die Bildkoordinaten uL1, VL der ersten lichtemittierenden Einheit L+ dargestellt ist. Aufgrund bekannter Eigenschaften der Kamera 3, 4 ist die Position deren zweidimensionalen Bildebene im Raum bekannt. Gegebenenfalls können optische Bildverzerrungen, die von der Linsenoptik der Kamera hervorgerufen werden, korrigiert werden, um insbesondere im Randbereich der Aufnahme fehlerhafte Messer-
gebnisse zu vermeiden. Entsprechende Korrekturfunktionen sind im Fachbereich bekannt.
[0034] Durch Auswertung der Aufnahme kann bei bekannter Kameraposition K; für jede aktivierte lichtemittierende Einheit L+;, L4, Ls ein in Raumkoordinaten definierter Sichtstrahl errechnet werden, der ausgehend von der Kameraposition (bzw. der Position des Abbilds der lichtemittierenden Einheit auf der Bildebene der Kamera) durch die jeweilige lichtemittierende Einheit L+;, L4, Ls verläuft. Da die Auswertung auf Basis des von den lichtemittierende Einheiten L, abgegebenen Lichtsignals erfolgt, werden die nicht aktivierten lichtemittierenden Einheiten L>, L3, Le nicht berücksichtigt. In Fig. 1 sind die zwei Sichtstrahlen, die von den beiden Kamerapositionen K+ und K> durch die lichtemittierende Einheit L+; verlaufen, als Strich-Punkt-Linien dargestellt. Zur Ermittlung der exakten Position der lichtemittierenden Einheiten L, werden für jedes Leuchtmuster die jeweiligen Schnittpunkte der Sichtstrahlen beispielsweise unter Verwendung von Triangulationsverfahren berechnet, wie dies weiter unten detaillierter beschrieben wird.
[0035] Zur Bestimmung der Position aller lichtemittierenden Einheiten L+, wird nun eine Abfolge an m unterschiedlichen Leuchtmustern M} eingestellt, wobei jedes der m Leuchtmuster M}x von beiden Kamerapositionen K+;, K2 aus aufgenommen wird. Es ist bevorzugt, dass die Anzahl a(n) an aktivierten lichtemittierenden Einheiten und die Anzahl b(n) an nicht aktivierten lichtemittierenden Einheiten für jede Teilmessung n konstant sind, sodass bei jeder Teilmessung immer die gleiche Anzahl an lichtemittierenden Einheiten aktiviert ist. Bei einer geraden Anzahl an lichtemittierenden Einheiten kann vorzugsweise jeweils genau die Hälfte der lichtemittierende Einheiten aktiviert und die andere Hälfte deaktiviert sein, sodass gilt a(n)=b(n)=g/2 für alle n.
[0036] Für jede lichtemittierende Einheit L+ ergibt sich für die Abfolge der m Teilmessungen eine Signalabfolge A. aktivierter und deaktivierter Zustände. Die Anzahl an möglichen Signalabfolgen Ace für die lichtemittierenden Einheiten L+ (d.h. der Coderaum C) errechnet sich aus der Anzahl m der Teilmessungen und der (konstanten) Anzahl a der bei jeder Teilmessung aktivierten lichtemittierenden Einheiten gemäß der Formel für den Binomialkoeffizient:
C = (m!) / (a! * (m-a)!).
[0037] Spezifischer ergibt sich bei m Messungen, bei denen jeweils genau die Hälfte (also g/2) der lichtemittierenden Einheiten eingeschalten sind (unter der Annahme, das m eine gerade Zahl ist), der Coderaum C gemäß der Formel:
C = (m!) / (((g/2)!)2).
[0038] Für die dargestellte beispielhaften Konfiguration, bei der die Anzahl an Teilmessungen m=6 ist, ergibt sich mit a=g/2=3 ein Coderaum C von 20 möglichen Signalabfolgen A... Auf die gleiche Weise ergibt sich für 16 Teilmessungen ein Coderaum C von 12870 möglichen Signalabfolgen Ac. Die Auswahl der Signalabfolgen, die für jede lichtemittierende Einheit L, gewählt wird, kann jedoch nicht beliebig erfolgen, sondern es muss jede der lichtemittierenden Einheiten L, im Zuge der m Teilmessungen mindestens ein Mal aktiviert werden, und vorzugsweise wird jede lichtemittierende Einheit mehr als ein Mal aktiviert. Bei einer geraden Anzahl g an lichtemittierenden Einheiten ist es bevorzugt, dass jede lichtemittierende Einheit genau bei der Hälfte der Teilmessungen bzw. der Leuchtmuster M\ aktiviert ist.
[0039] In Tabelle 1 sind die möglichen Signalabfolgen A. für m=6 Teilmessungen und eine beispielhafte Auswahl von Signalabfolgen für sechs lichtemittierende Einheiten L. dargestellt. Der Coderaum C für eine Signalabfolge A; von sechs Teilmessungen umfasst 20 unterschiedliche Signalabfolgen A.. Jeder lichtemittierenden Einheit ist eine bestimmte Signalabfolge zugeordnet, wobei die Auswahl so erfolgt, dass bei jeder Teilmessung die Hälfte der lichtemittierenden Einheiten L} aktiviert, und die andere Hälfte der lichtemittierenden Einheiten L} deaktiviert sind.
[0040] Tabelle 1
L4 L4 cC n\| A: | Az Ayo [Au [Aı2|Ar3 | Ar [Ars [Arc] Aız | Ars [As My| x | x XI x M-| x | x xx | x | xx []x X X X X Ma X
Me
[0041] Für die einzelnen Leuchtmuster M}, ergibt sich gemäß der in Tabelle 1 getroffenen Auswahl die folgende Abfolge in binärer Darstellung:
M1= 111000 M2= 100110 M3= 010101 Ma= 001110 Ms= 110001 Me= 001011
[0042] Das Leuchtmuster M>2 entspricht dabei beispielsweise der in Fig. 1 und 2 dargestellten Situation und ist in Tabelle 1 hervorgehoben dargestellt.
[0043] Dementsprechend lassen sich die Signalabfolgen A. für die lichtemittierenden Einheiten L+ bis Le wie folgt darstellen:
Signalabfolge von L; = As = 110010 Signalabfolge von L2 = As = 101010 Signalabfolge von L3 = Aa = 100101 Signalabfolge von L4 = Ay = 011100 Signalabfolge von Ls = Ay5 = 010101 Signalabfolge von Le = Ay9= 001011
[0044] Der Coderaum C bestimmt die maximale Anzahl an lichtemittierenden Einheiten, die mit einer bestimmten Anzahl m an Leuchtmustern My unterschieden werden können.
[0045] Auch wenn in dem obigen Beispiel sechs lichtemittierenden Einheiten L; bis Ls sechs unterschiedliche Leuchtmuster M+ bis Me gegenübergestellt sind, ist es nicht erforderlich, dass die Anzahl der lichtemittierenden Einheiten mit der Anzahl der Leuchtmuster übereinstimmt. Es ist lediglich Voraussetzung, dass die Anzahl der lichtemittierenden Einheiten nicht größer ist als die Anzahl der möglichen Signalabfolgen. In dem obigen Beispiel können also maximal 20 unterschiedliche Messpunkte mit lichtemittierenden Einheiten (bzw. Sensoren oder Elemente, die mit diesen lichtemittierenden Einheiten gekennzeichnet sind) eindeutig voneinander unterschieden werden.
[0046] Zur Positionsbestimmung werden die lichtemittierenden Einheiten L} nacheinander auf jedes Leuchtmuster M} (mit n=1 bis m) eingestellt und für jedes Leuchtmuster wird aus mehreren Kamerapositionen K; (mit t=1 bis s und s>1) zumindest eine Aufnahme erstellt. Dazu können entweder mehrere Kameras mit jeweils bekannten Raumkoordinaten fix installiert sein, es ist jedoch auch möglich, mit einer einzigen Kamera mehrere Aufnahmen aus unterschiedlichen Positionen Kı zu machen. Dabei ist es nicht zwingend erforderlich, dass die Kamerapositionen K; bei allen Teilmessungen identisch sein müssen, solange die Raumkoordinaten jeder Kameraposition Kı für jede Aufnahme bekannt sind. Zu diesem Zweck können bestimmte lichtemittierende Einheiten L} mit bekannten Raumkoordinaten vorgesehen sein, die als Referenzeinheiten dienen. Diese Referenzeinheiten können beispielsweise das Raumkoordinatensystem definieren, wobei
im Prinzip 6 lichtemittierende Einheiten L,., die beispielsweise auf den Seitenflächen eines Würfels angeordnet sein können, als Referenzeinheiten ausreichen, um die Raumkoordinaten der Kamera in jeder Kameraposition Kı aus der jeweiligen Aufnahme exakt zu ermitteln.
[0047] Es können auch mehr als 6 Referenzeinheiten vorgesehen sein, um sicherzustellen, dass eine Bestimmung der jeweiligen Kameraposition Kı von allen Lagen aus möglich ist. Durch eine passende Anordnung von Referenzeinheiten kann beispielsweise eine Handkamera für die Positionsbestimmung verwendet werden, wobei ein Benutzer die Anordnung mit der Handkamera mit verändernder Position filmt, während die Leuchtmuster M} nacheinander eingestellt werden. Sollten nach Durchlauf aller Leuchtmuster M. die Aufnahmen der Kamera nicht ausreichen, um die Positionen aller lichtemittierender Einheiten genau zu bestimmen, kann dies vom System erkannt, und die Sequenz der Leuchtmuster wiederholt werden. Das System kann den Benutzer automatisch informieren, sobald die Messung abgeschlossen ist. Gegebenenfalls können dem Benutzer auch Anweisungen zur gezielten Veränderung der Kameraposition gegeben werden, um die Positionsermittlung abschließen zu können.
[0048] Die im obigen Beispiel dargelegte Anzahl an Leuchtmustern, lichtemittierenden Einheiten, Kameras und Kamerapositionen dient lediglich der Erläuterung und es wurden aus Gründen der UÜbersichtlichkeit in dem Beispiel eher kleine Werte gewählt. Es liegt im Können eines Durchschnittsfachmanns, die Lehren der gegenständlichen Beschreibung auf zahlreiche andere Ausführungsformen umzulegen.
[0049] In einem praxisnäheren Beispiel könnten zum Beispiel mehrere rund um einen Prüfstand an unterschiedlichen Kamerapositionen fix angeordnete Kameras für die Messung verwendet werden (die Auswahl der Anzahl an Kameras und der Positionen erfolgt gemäß den räumlichen Begebenheiten). Wenn von jeder Kamera 16 Bilder zur Auswertung aufgenommen werden, während 16 Leuchtmuster nacheinander eingestellt werden, ist dadurch jedem Sensor eine individuelle, dem jeweiligen Leuchtmuster entsprechende Codesequenz mit 16 bit zugeordnet, über die jeder Sensor eindeutig identifiziert werden kann. Wenn bei jedem Leuchtmuster die Hälfte der LEDs der lichtemittierenden Einheiten ein- und die andere Hälfte der LEDs ausgeschaltet ist, beträgt der gesamte Coderaum 12.870 unterschiedliche Codesequenzen bzw. Leuchtmuster, es ist also theoretisch möglich, mit diesem beispielhaften System 12.870 individuelle Sensoren eindeutig voneinander zu unterscheiden.
[0050] In Fig. 3 ist ein praktisches Anwendungsbeispiel für die erfindungsgemäße Vorrichtung zur räumlichen Lokalisierung von Messpunkten dargestellt. Fig. 3 zeigt schematisch einen Prüfstand 1 mit einem Prüfling 2, wobei der Prüfling ein Verbrennungsmotor ist, dessen Abgas in einem Abgasstrang 7 mündet, der zu einem Katalysator 8 führt. Solche Prüfstandsanordnungen sind hinlänglich bekannt, weshalb hier nicht auf die näheren Details dazu eingegangen wird. Neben einem Verbrennungsmotor kommen natürlich auch noch andere Prüflinge 2, wie z.B. ein Antriebsstrang, ein Getriebe, ein Fahrzeug, ete., in Frage. Am Prüfling 2 sind, wie in einem Prüfstand 1 üblich, eine Reihe von Sensoren 10,11,12,13,14,15 verbaut. Die Sensoren 10,11,12,13, 14,15 liefern ihre Messwerte, über ein Kabel oder kabellos, an ein Automatisierungssystem 5, das den Prüfstand 1, den Prüfling 2 und den Prüflauf überwacht und steuert, sowie das Prüflaufergebnis auswertet. Für den Einsatz der Sensoren 10,11,12,13,14,15 müssen diese vorab parametriert werden, damit die Messwerte der Sensoren 10,11,12,13,14,15 in korrekte physikalische Größen umgesetzt werden können. Dem Automatisierungssystem 5 muss somit zumindest bekannt sein, von wo am Prüfling ein Messwert herrührt und was der dort befindliche Sensor 10,11,12,13,14,15 misst. Das muss dem Automatisierungssystem 5 vor dem Start des Prüflaufes bekannt gegeben werden.
[0051] Zu diesem Zweck ist jeder Sensor 10,11,12,13,14,15 mit einem Messpunkt und einer zugeordneten lichtemittierenden Einheit L, versehen, wobei jede lichtemittierende Einheit L1 im Wesentlichen aus einer Schalteinheit mit einer darauf angeordneten LED besteht, die von der Schalteinheit aktiviert und deaktiviert wird. Die LEDs können auf dem Gehäuse, in dem sich die Schalteinheit der lichtemittierenden Einheit befindet, erhaben angeordnet sein, damit sie von einem möglichst großen Bereich rund um den Prüfstand aus eingesehen werden können. Die Schalt-
einheiten erhalten entweder kabelgebunden oder kabellos Schaltanweisungen von einer Steuereinheit 9, die mit dem Automatisierungssystem 5 und einer Auswerteeinheit 6 in Verbindung steht. Zwei Kameras 3, 4 sind an bestimmten Kamerapositionen K-1, K2 so angeordnet, dass sie den gesamten Bereich des Prüfstands 1, in dem sich Sensoren 10,11,12,13,14,15 befinden, mit ihrem jeweiligen Bildbereich abdecken. Sollte dies nicht möglich sein, können entweder zusätzliche Kameras an weiteren Kamerapositionen K; installiert werden. Andererseits können auch mobile Kameras verwendet werden, wie dies oben beschrieben ist.
[0052] Die Steuereinheit 9 steuert die Leuchtmuster M, bzw. die jeweiligen Signalabfolgen A. der einzelnen lichtemittierenden Einheiten L}, und koordiniert die Leuchtmuster mit den Aufnahmen, die von den Kameras 3,4 aufgezeichnet werden. Die von den Kameras 3,4 aufgezeichneten Aufnahmen werden in der Auswerteeinheit 6 (die gegebenenfalls in die Steuereinheit integriert sein kann) ausgewertet, wobei jedem Messpunkt von der Auswerteeinheit 6 eine entsprechende Raumkoordinate zugeordnet wird.
[0053] Die Kameras 3, 4 können mit einem für die Lichtfrequenz der lichtemittierenden Einheiten L, spezifischen Filter versehen sein, um Störlicht herauszufiltern. Sollten dennoch Fehlmessungen auftreten, zum Beispiel aufgrund von Spiegelungen an Oberflächen aus Metall, Glas oder Keramik, können diese von der Auswerteeinheit 6 erkannt und korrigiert bzw. verworfen werden. Dabei erkennt die Auswerteeinheit 6, wenn die Anzahl der ermittelten aktivierten lichtemittierenden Einheiten nicht mit dem jeweiligen Leuchtmuster M. übereinstimmt, oder wenn ein für eine lichtemittierende Einheit für eine erste Kameraposition K+ ermittelter Sichtstrahl sich nicht mit den Sichtstrahlen schneiden, die für dieselbe lichtemittierende Einheit von einer anderen Kameraposition aus ermittelt wird. Sollte bei der Positionsbestimmung kein eindeutiges Ergebnis ermittelt werden können, kann die Steuereinheit 9 die Messsequenz wiederholen und/oder eine Fehlermeldung ausgeben und/oder vom Benutzer weitere Kamerapositionen fordern, bzw. eine Kameraposition selbsttätig verändern, sofern Mittel dazu vorgesehen sind.
[0054] Es ist vorteilhaft, wenn sich der Bildhintergrund während einer Messsequenz möglichst nicht ändert, weshalb es auch von Vorteil ist, wenn die Messsequenz möglichst schnell abgearbeitet wird, sodass sich nur geringe Anderungen, z.B. aufgrund einer sich während der Zeit ändernde Lichtsituation, ergeben.
[0055] In der in Fig. 3 dargestellten Ausführungsform ist jeder Sensor 10,11,12,13,14,15 mit genau einer lichtemittierenden Einheit L- versehen, wobei die LED der lichtemittierenden Einheit den jeweiligen Messpunkt definiert. In alternativen Ausführungsformen kann es gewünscht sein, auch die räumliche Ausrichtung des Sensors messen zu können. Dazu könnten Sensoren, bei denen das erforderlich ist, mit mehreren lichtemittierenden Einheiten L, versehen werden, aus deren Positionsverhältnis zueinander die räumliche Ausrichtung des Sensors ermittelt werden kann. So könnte beispielsweise ein einziges Bauelement mit mehreren LEDs versehen sein, die Jeweils eine lichtemittierende Einheit darstellen, und die gegebenenfalls von einer gemeinsamen Schalteinheit betätigt werden. Das Bauelement könnte beispielsweise ein Würfel, Quader, Tetraeder oder eine andere definierte dreidimensionale Form sein, auf deren Seitenflächen die LEDs angeordnet sind. Eine Seitenfläche könnte frei bleiben, um an dem entsprechenden Sensorgehäuse angebracht zu werden. Solche Bauelemente könnten auch für die weiter oben beschrieben Ermittlung der Kamerapositionen verwendet werden.
[0056] In einer weiteren alternativen Ausführungsform könnten auch LEDs mit unterschiedlicher Lichtfarbe als lichtemittierende Einheiten verwendet werden. Dies erlaubt es, mehrere unterschiedliche Gruppen an lichtemittierenden Einheiten anhand ihrer Lichtfarbe mithilfe von Kamerafiltern oder Softfiltern unabhängig von den Gruppen mit einer anderen Farbe auszuwerten. Diese Ausführungsform könnte beispielsweise auch verwendet werden, um bestimmten definierten Seitenflächen eines Bauelements zur leichteren Auswertung der räumlichen Ausrichtung der Sensoren jeweils einer bestimmten Farbe zuzuordnen.
LISTE DER BEZUGSZEICHEN UND VARIABLEN:
Prüfstand (1)
Prüfling (2)
Kamera (3, 4) Automatisierungssystem (5) Auswerteeinheit (6) Abgasstrang 7
Katalysator 8
Steuereinheit 9
Sensor (10,11,12,13, 14,15) Licht emittierende Einheit (L}) Kamerapositionen (Ki) Leuchtmusters (Mx) Raumkoordinaten (x,y,z) Bildkoordinaten (u,v)
Signalabfolge Ac
n Ordinalzahl der Teilmessung
m Anzahl der Teilmessungen
h Ordinalzahl des Messpunkts/der Licht emittierenden Einheit g Anzahl an Messpunkten/Licht emittierenden Einheiten
an) Anzahl an aktivierten Licht emittierenden Einheiten b(n) Anzahl an nicht aktivierten Licht emittierenden Einheiten
t Ordinalzahl der Kameraposition Ss Anzahl an Kamerapositionen
C Ordinalzahl der Signalabfolge C Coderaum

Claims (15)

Patentansprüche
1. Verfahren zur räumlichen Lokalisierung einer Anzahl (g) an Messpunkten, die zumindest teilweise auf Sensoren (10, 11, 12, 13, 14, 15) angeordnet werden, wobei vorzugsweise die Messpunkte den Positionen der Sensoren im Raum entsprechen, dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte aufweist:
- Anordnen zumindest einer individuell ansteuerbaren lichtemittierenden Einheit (L») an jedem Messpunkt; - Ausführen einer Abfolge von n = 1 bis m Teilmessungen, jeweils umfassend:
o Einstellen eines Leuchtmusters (M,.) mit einer Anzahl a(n) an mehreren aktivierten lichtemittierenden Einheiten (L+) und einer Anzahl b(n) an mehreren nicht aktivierten lichtemittierenden Einheiten (L}+), und
o Erstellen von Aufnahmen mit zumindest einer Kamera (3, 4) aus zumindest zwei unterschiedlichen Kamerapositionen (Ki) für jedes Leuchtmuster (Mx\),
wobei jede lichtemittierende Einheit (L}+) in der Abfolge der m Teilmessungen mehr als ein Mal aktiviert wird und wobei sich für jede lichtemittierende Einheit (L}) eine Signalabfolge (Ac) aktivierter und deaktivierter Zustände ergibt, die jede lichtemittierende Einheit eindeutig identifiziert;
- Ermitteln der Bildkoordinaten (u, v) lichtemittierender Einheiten (L») aus den Aufnahmen für jede Kameraposition (Ki); und
- Berechnen von Raumkoordinaten (x,y,z) von lichtemittierenden Einheiten (L+) aus den ermittelten Bildkoordinaten (u, v).
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass jede lichtemittierende Einheit (L+) in der Abfolge der m Teilmessungen m/2 Mal aktiviert wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Anzahl a(n) an aktivierten lichtemittierenden Einheiten (L») bei jedem Leuchtmuster (M.) konstant ist, wobei vorzugsweise bei jedem Leuchtmuster (M.) die Anzahl a(n) an aktivierten lichtemittierenden Einheiten (L») der Hälfte der Anzahl g an lichtemittierenden Einheiten (L») entspricht.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass ein Teil der lichtemittierenden Einheiten (L1) als Referenzeinheiten mit bekannten Raumkoordinaten vorgesehen werden, und dass Kamerapositionen (Ki) aus den Bildkoordinaten der Referenzeinheiten berechnet werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass aus einer Bildkoordinate einer lichtemittierenden Einheit (L+) für eine Kameraposition (Kı) ein Sichtstrahl im Koordinatensystem der Kameraposition ermittelt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass eine optische Bildverzerrung der Kameras (3, 4) ausgeglichen wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass eine farbliche Kodierung von lichtemittierenden Einheiten (L») ausgewertet wird.
8. Verfahren nach einem der Ansprüche 1-7, dadurch gekennzeichnet, dass die Sensoren (10, 11, 12, 13, 14, 15) zumindest teilweise auf einem Prüfling (2) in einem Prüfstand (1) angeordnet werden.
9. Verfahren nach einem der Ansprüche 1-8, dadurch gekennzeichnet, dass die Position und die räumliche Ausrichtung der Sensoren (10, 11, 12, 13, 14, 15) berechnet werden.
10. Vorrichtung zur räumlichen Lokalisierung einer Anzahl (g) an Messpunkten, dadurch gekennzeichnet, dass jeder Messpunkt eine individuell ansteuerbare lichtemittierende Einheit (L») aufweist, wobei die lichtemittierende Einheiten (L») zumindest teilweise an einem Sensor (10,11,12,13,14,15) angeordnet sind, wobei eine Steuereinheit (9) vorgesehen ist, welche ausgebildet ist, um eine Abfolge an Leuchtmustern (M.) mit einer ersten Anzahl a(n) an mehreren aktivierten lichtemittierenden Einheiten (L+) und einer zweiten Anzahl b(n) an mehreren nicht aktivierten lichtemittierenden Einheiten (L+) einzustellen, wobei jede lichtemittierende
Einheit (L1) in der Abfolge der m Teilmessungen mehr als ein Mal aktiviert wird, wobei sich für jede lichtemittierende Einheit (L+) eine Signalabfolge (Ac.) aktivierter und deaktivierter Zustände ergibt, die jede lichtemittierende Einheit eindeutig identifiziert, wobei die Vorrichtung zumindest eine Kamera (3,4) zur Aufnahme jedes Leuchtmusters (M.) aus zumindest zwei unterschiedlichen Kamerapositionen (Ki) aufweist, und wobei die Vorrichtung weiters eine Auswerteeinheit (6) aufweist, die ausgebildet ist, um Bildkoordinaten (u,v) von lichtemittierenden Einheiten (L») aus den Aufnahmen für jede Kameraposition (Ki) zu ermitteln und aus den ermittelten Bildkoordinaten Raumkoordinaten (x,y,z) der lichtemittierenden Einheiten (L») zu berechnen.
11. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die lichtemittierenden Einheiten (Lf») zumindest teilweise LEDs aufweisen.
12. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Vorrichtung einen optischen und/oder elektronischen Lichtfilter für die Aufnahmen aufweist.
13. Vorrichtung nach einem der Ansprüche 11 bis 12, dadurch gekennzeichnet, dass die zumindest teilweise an einem Sensor (10,11,12,13,14,15) angeordneten lichtemittierende Einheiten (L») auf einem Prüfling (2) in einem Prüfstand (1) angeordnet sind, wobei die Messpunkte den Positionen der Sensoren (10,11,12,13,14,15) im Raum entsprechen.
14. Vorrichtung nach einem der Ansprüche 10 bis13, dadurch gekennzeichnet, dass an einem Sensor (10,11,12,13,14,15) mehrere lichtemittierende Einheiten (L+) angeordnet sind.
15. Vorrichtung nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, dass zumindest eine Kamera (3,4) eine von Hand geführte Kamera ist.
Hierzu 2 Blatt Zeichnungen
ATA50908/2014A 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten AT514745B1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
ATA50908/2014A AT514745B1 (de) 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten
PCT/EP2015/079547 WO2016096693A1 (de) 2014-12-15 2015-12-14 Verfahren und vorrichtung zur räumlichen lokalisierung einer anzahl an messpunkten
DE112015005608.4T DE112015005608A5 (de) 2014-12-15 2015-12-14 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50908/2014A AT514745B1 (de) 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten

Publications (3)

Publication Number Publication Date
AT514745A2 AT514745A2 (de) 2015-03-15
AT514745A3 AT514745A3 (de) 2016-02-15
AT514745B1 true AT514745B1 (de) 2023-03-15

Family

ID=52598885

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50908/2014A AT514745B1 (de) 2014-12-15 2014-12-15 Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten

Country Status (3)

Country Link
AT (1) AT514745B1 (de)
DE (1) DE112015005608A5 (de)
WO (1) WO2016096693A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999052094A1 (en) * 1998-04-03 1999-10-14 Image Guided Technologies, Inc. Wireless optical instrument for position measurement and method of use therefor
EP1065628A1 (de) * 1999-06-21 2001-01-03 Institut für Neurosimulation und Bildtechnologien GmbH Optische 3-D Messung mit mehreren Näherungspunkten
EP1186860A1 (de) * 2000-09-11 2002-03-13 Leica Geosystems AG Verfahren zum Identifizieren von Messpunkten in einem optischen Mess-System
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
WO2013060556A1 (de) * 2011-10-27 2013-05-02 Avl List Gmbh Verfahren und eine vorrichtung zum parametrieren eines sensors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999052094A1 (en) * 1998-04-03 1999-10-14 Image Guided Technologies, Inc. Wireless optical instrument for position measurement and method of use therefor
EP1065628A1 (de) * 1999-06-21 2001-01-03 Institut für Neurosimulation und Bildtechnologien GmbH Optische 3-D Messung mit mehreren Näherungspunkten
EP1186860A1 (de) * 2000-09-11 2002-03-13 Leica Geosystems AG Verfahren zum Identifizieren von Messpunkten in einem optischen Mess-System
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
WO2013060556A1 (de) * 2011-10-27 2013-05-02 Avl List Gmbh Verfahren und eine vorrichtung zum parametrieren eines sensors

Also Published As

Publication number Publication date
WO2016096693A1 (de) 2016-06-23
AT514745A2 (de) 2015-03-15
DE112015005608A5 (de) 2017-09-07
AT514745A3 (de) 2016-02-15

Similar Documents

Publication Publication Date Title
EP1701801B1 (de) Verfahren zum erkennen einer auf einem substrat aufzubringenden struktur mit mehreren kameras sowie eine vorrichtung hierfür
DE102018129143A1 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
DE10143504A1 (de) Überwachungsverfahren und optoelektronischer Sensor
EP3033588A1 (de) Verfahren und vorrichtung zum berührungslosen vermessen von oberflächenkonturen
DE202012013561U1 (de) Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
DE102015212352A1 (de) Verfahren, Anordnung und Computerprogrammprodukt zur Lageerfassung eines zu untersuchenden Objekts
DE102013111761B4 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE102009032771A1 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
EP2133659A1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
EP3581881A1 (de) Oberflächenvermessung mittels angeregter fluoreszenz
DE102005051020B4 (de) Kostengünstige kalibrierungsfreie 3D Digitalisierung von Körpern
DE102009018464A1 (de) Optischer Sensor
DE102015013551B4 (de) System und Verfahren zur Positions-und Lagebestimmung von Objekten
DE19626889A1 (de) Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen
EP3377916A1 (de) Medizintechnische koordinatenmessvorrichtung und medizintechnisches koordinatenmessverfahren
AT514745B1 (de) Verfahren und Vorrichtung zur räumlichen Lokalisierung einer Anzahl an Messpunkten
DE202006020719U1 (de) Positionsbestimmungssystem
DE202015104751U1 (de) Vorrichtung zur Inspektion von auf einer Materialbahn angeordneten Erzeugnissen
EP3502614A1 (de) Optische messeinrichtung
EP3077765B1 (de) Verfahren zum auslesen eines zweidimensionalen codes mittels einer kamera zur dreidimensionalen optischen vermessung von objekten
DE102017122627B4 (de) Optisches Messsystem und Messverfahren
DE102020132179A1 (de) Verfahren und Vorrrichtung zur photogrammetrischen Vermessung
DE102021004071B3 (de) Vorrichtung und Verfahren zum Erzeugen photometrischer Stereobilder und eines Farbbildes