DE112016004085T5 - Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung - Google Patents

Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung Download PDF

Info

Publication number
DE112016004085T5
DE112016004085T5 DE112016004085.7T DE112016004085T DE112016004085T5 DE 112016004085 T5 DE112016004085 T5 DE 112016004085T5 DE 112016004085 T DE112016004085 T DE 112016004085T DE 112016004085 T5 DE112016004085 T5 DE 112016004085T5
Authority
DE
Germany
Prior art keywords
camera
projector
projected
pattern
light pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016004085.7T
Other languages
English (en)
Inventor
Rolf Heidemann
Denis WOHLFELD
Robert E. Bridges
Helmut Kramer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112016004085T5 publication Critical patent/DE112016004085T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein dreidimensionales (3D) Koordinatenmesssystem umfasst einen externen Projektor, der ein Lichtmuster auf ein Objekt projiziert, und eine luftgetragene Drohne, die an einer 3D-Bildgebungsvorrichtung angebracht ist, wobei die 3D-Bildgebungsvorrichtung und der externe Projektor zusammenwirken, um die 3D-Koordinaten des Objekts zu erzielen.

Description

  • KREUZVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung ist eine nicht vorläufige Anmeldung der vorläufigen US-Anmeldung mit der Seriennummer 62/215,978 , eingereicht am 9. September 2015, und der vorläufigen US-Anmeldung mit der Seriennummer 62/216,021 , eingereicht am 9. September 2015, und auch der vorläufigen US-Anmeldung mit der Seriennummer 62/216,027 , eingereicht am 9. September 2015, deren Inhalt hier jeweils zur Bezugnahme vollständig übernommen wird.
  • GEBIET DER ERFINDUNG
  • Der hier offenbarte Gegenstand betrifft im Allgemeinen ein System zum Messen von dreidimensionalen (3D) Koordinaten unter Verwendung einer Scanner-Vorrichtung, die von einem Bewegungsgerät, wie etwa einer Drohne, aus betätigt wird.
  • HINTERGRUND DER ERFINDUNG
  • Ein 3D-Bildgeber verwendet ein Triangulationsverfahren, um die 3D-Koordinaten von Punkten an einem Objekt zu messen. Der 3D-Bildgeber umfasst gewöhnlich einen Projektor, der auf eine Oberfläche des Objekts entweder ein Lichtmuster in einer Linie oder ein Lichtmuster, das eine Fläche abdeckt, projiziert. Eine Kamera ist mit dem Projektor in einem festen Verhältnis gekoppelt, indem eine Kamera und der Projektor beispielsweise an einem gemeinsamen Rahmen angebracht sind. Das Licht, das von dem Projektor emittiert wird, wird von der Objektoberfläche reflektiert und durch die Kamera detektiert. Da die Kamera und der Projektor in einem festen Verhältnis angeordnet sind, kann die Entfernung zu dem Objekt unter Verwendung von trigonometrischen Grundsätzen bestimmt werden. Im Vergleich zu Koordinatenmessvorrichtungen, die Tastsonden verwenden, bieten Triangulationssysteme Vorteile durch schnelles Erfassen der Koordinatendaten über eine große Fläche. Wie sie hier verwendet wird, wird die sich ergebende Sammlung von 3D-Koordinatenwerten oder Datenpunkten des Objekts, das durch das Triangulationssystem gemessen wird, als Punktwolkendaten oder einfach als Punktwolke bezeichnet.
  • Ein 3D-Bildgeber kann an diversen Bewegungsvorrichtungen angebracht werden, wie etwa an Robotervorrichtungen und luftgetragenen Drohnen. Ein Verfahren, das als Videogrammetrie bezeichnet wird, bietet eine Möglichkeit, mehrere 3D-Datensätze zu registrieren, wenn eine relative Bewegung zwischen dem 3D-Bildgeber und einem gemessenen Objekt besteht. Die Videogrammetrie kann ferner verwendet werden, um Daten bereitzustellen, die benötigt werden, um 3D-Koordinaten direkt zu bestimmen, wenn mehrere zweidimensionale (2D) Bilder mit der Kamera an verschiedenen Positionen in Bezug auf das Objekt gemessen werden. In diesem Fall verwendet die Videogrammetrie ferner Triangulationsgrundsätze. Daher ist der Begriff Videogrammetrie, wie er hier verwendet wird, als ferner die Triangulation einbeziehend zu verstehen.
  • Ein bestimmtes Problem, auf das man bei der Verwendung der Triangulation (die ferner die Videogrammetrie umfassen kann) stoßen kann, ist die mangelnde Genauigkeit und die mangelnden Einzelheiten, wenn die Entfernungen von einem 3D-Bildgeber zu einem Objekt groß oder variabel sind. Obwohl die existierenden 3D-Bildgeber auf Triangulationsbasis für ihren gedachten Zweck geeignet sind, besteht entsprechend weiterhin Verbesserungsbedarf.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Gemäß einer Ausführungsform der vorliegenden Erfindung umfasst ein dreidimensionales (3D) Koordinatenmesssystem einen externen Projektor, der konfiguriert ist, um im Stillstand zu funktionieren und um ein erstes projiziertes Lichtmuster auf ein Objekt zu projizieren; und eine luftgetragene Messvorrichtung, die eine luftgetragene Drohne und eine 3D-Bildgebungsvorrichtung umfasst, wobei die 3D-Bildgebungsvorrichtung an der luftgetragenen Drohne angebracht ist, wobei die luftgetragene Messvorrichtung von dem externen Projektor getrennt ist, wobei die luftgetragene Messvorrichtung konfiguriert ist, um mit dem externen Projektor zusammenzuwirken, um die 3D-Koordinaten des Objekts zu bestimmen.
  • Gemäß einer anderen Ausführungsform der vorliegenden Erfindung wird ein dreidimensionales (3D) Koordinatenmesssystem bereitgestellt. Das System umfasst einen externen Projektor, der betriebsfähig ist, um ein erstes projiziertes Lichtmuster auf ein Objekt zu projizieren. Eine luftgetragene Messvorrichtung wird in einem Referenzrahmen der Vorrichtung bereitgestellt, wobei die luftgetragene Messvorrichtung einen Triangulations-Scanner und eine Registrierungskamera umfasst, wobei der Triangulations-Scanner einen internen Projektor und eine erste Kamera umfasst. Ein oder mehrere Prozessoren wird bzw. werden bereitgestellt, der bzw. die konfiguriert ist bzw. sind, um computerlesbare Anweisungen auszuführen, wobei die computerlesbaren Anweisungen Folgendes umfassen: Bestimmen mit dem Triangulations-Scanner der 3D-Koordinaten des Objekts in dem Referenzrahmen der Vorrichtung in einer ersten Instanz und einer zweiten Instanz; Erfassen eines Bildes mit der Registrierungskamera des ersten projizierten Lichtmusters in der ersten Instanz und der zweiten Instanz; und Registrieren in einem gemeinsamen Referenzrahmen der bestimmten 3D-Koordinaten in der ersten Instanz und in der zweiten Instanz basierend mindestens teilweise auf dem Bild der Registrierungskamera des ersten projizierten Lichtmusters in der ersten Instanz und der zweiten Instanz.
  • Gemäß noch einer anderen Ausführungsform der Erfindung wird ein dreidimensionales (3D) Koordinatenmesssystem bereitgestellt. Das System umfasst eine luftgetragene Drohne, die mit einem Triangulations-Scanner und einer Registrierungskamera gekoppelt ist. Der Triangulations-Scanner umfasst einen ersten Projektor, eine erste Kamera und eine zweite Kamera, wobei die erste Kamera, die zweite Kamera und der erste Projektor in einem Dreieck angeordnet sind, wobei der erste Projektor, die erste Kamera und die zweite Kamera erste Epipolareinschränkungen aufweisen. Der erste Projektor ist konfiguriert, um ein erstes Lichtmuster auf das Objekt zu projizieren. Die erste Kamera ist konfiguriert, um ein erstes Bild des projizierten ersten Lichtmusters auf dem Objekt zu bilden. Die zweite Kamera ist konfiguriert, um ein zweites Bild des projizierten ersten Lichtmusters auf dem Objekt zu bilden. Das System umfasst ferner einen oder mehrere Prozessoren, der bzw. die konfiguriert ist bzw. sind, um computerlesbare Anweisungen auszuführen, wobei die computerlesbaren Anweisungen Folgendes umfassen: Bestimmen der 3D-Koordinaten eines Objekts basierend mindestens teilweise auf dem projizierten ersten Lichtmuster, dem ersten Bild, dem zweiten Bild und den ersten Epipolareinschränkungen; Erzielen mit der Registrierungskamera eines Bildes des Objekts; Entnehmen aus dem Bild von Kardinalpunkten basierend auf natürlichen Merkmalen des Objekts; und Registrieren mehrerer Sätze der 3D-Koordinaten, die von dem Triangulations-Scanner erzielt werden, wobei die Registrierung mindestens teilweise auf dem Abgleichen von gemeinsamen Kardinalpunkten, die in aufeinanderfolgenden Bildern der Registrierungskamera vorliegen, basiert.
  • Diese und andere Vorteile und Merkmale werden aus der folgenden Beschreibung in Verbindung mit den Zeichnungen gesehen besser hervorgehen.
  • Figurenliste
  • Der Gegenstand, der als die Erfindung angesehen wird, wird in den Ansprüchen im Anhang an die Beschreibung insbesondere ausgewiesen und deutlich beansprucht. Die vorstehenden und andere Merkmale und Vorteile der Erfindung werden aus der folgenden ausführlichen Beschreibung zusammen mit den beiliegenden Zeichnungen gesehen, hervorgehen. Es zeigen:
    • 1A und 1B Blockdiagramme jeweils eines 3D-Bildgebers und eines Stereokamerapaars gemäß einer Ausführungsform;
    • 2 eine perspektivische Ansicht eines 3D-Bildgebers, der zwei Kameras und einen Projektor aufweist, gemäß einer Ausführungsform;
    • 3 eine perspektivische Ansicht eines 3D-Bildgebers, der zwei Kameras und einen Projektor aufweist, gemäß einer Ausführungsform;
    • 4A und 4B die Epipolargeometrie jeweils für zwei Referenzebenen und drei Referenzebenen gemäß einer Ausführungsform;
    • 5 eine perspektivische Ansicht einer luftgetragenen Drohne, die eine 2D-Kamera trägt;
    • 6 und 6B eine Messsituation, in der eine luftgetragene Drohne, die eine 2D-Kamera trägt, kombiniert mit einem externen Projektor verwendet wird, um die 3D-Koordinaten eines Objekts zu erzielen, gemäß einer Ausführungsform;
    • 7 eine perspektivische Ansicht einer luftgetragenen Drohne, die einen 3D-Bildgeber und eine Registrierungskamera umfasst, gemäß einer Ausführungsform;
    • 8 und 9 Messsituationen, in denen eine luftgetragene Drohne, die einen 3D-Bildgeber und eine Registrierungskamera aufweist, verwendet wird, wobei ein externer Projektor in zwei verschiedene Positionen bewegt wird, um die 3D-Koordinaten eines Objekts zu bestimmen, gemäß einer Ausführungsform;
    • 10 eine perspektivische Ansicht eines drehbaren externen Projektors gemäß einer Ausführungsform;
    • 11 eine Messsituation, in der ein Drehmechanismus des externen Projektors ein projiziertes Lichtmuster auf ein Objekt an einer gewünschten Stelle richtet, gemäß einer Ausführungsform;
    • 12 eine Messsituation, in welcher der 3D-Bildgeber an einer luftgetragenen Drohne ferner durch einen Drehmechanismus umgeleitet wird, gemäß einer Ausführungsform;
    • 13 eine schematische Darstellung, die das Funktionsprinzip eines Zeilenscanners abbildet;
    • 14 eine perspektivische Ansicht einer luftgetragenen Drohne, die einen Zeilenscanner und eine Registrierungskamera trägt, gemäß einer Ausführungsform;
    • 15 eine Messsituation, in der eine luftgetragene Drohne eine Lichtlinie auf ein Objekt projiziert, während ein externer Projektor ein Lichtmuster auf das Objekt projiziert, gemäß einer Ausführungsform;
    • 16 eine Messsituation, in der eine luftgetragene Drohne zusammen mit einem externen Projektor verwendet wird, um ein Objekt im Innenbereich zu messen;
    • 17 eine Messsituation, in der ein 3D-Bildgeber, der zwei Kameras und einen internen Projektor in einem Triangulationsmuster aufweist, kombiniert mit einer Registrierungskamera verwendet wird, um die 3D-Koordinaten eines Objekts zu erzielen, ohne einen externen Projektor zu verwenden, gemäß einer Ausführungsform; und
    • 18 eine schematische Darstellung eines Computersystems gemäß einer Ausführungsform.
    • Die ausführliche Beschreibung erklärt die Ausführungsformen der Erfindung zusammen mit den Vorteilen und Merkmalen beispielhaft mit Bezug auf die Zeichnungen.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Die Ausführungsformen der vorliegenden Erfindung bieten Vorteile beim Messen großer Objekte mit 3D-Bildgebern, indem sie eine relativ hohe Genauigkeit erzielen und dabei Farb- (Textur-) Informationen bereitstellen.
  • 1A zeigt einen Triangulations-Scanner (3D-Bildgeber) 100A, der ein Lichtmuster auf einen Bereich an einer Oberfläche 130A projiziert. Eine andere Bezeichnung für einen Triangulations-Scanner mit strukturiertem Licht ist ein 3D-Bildgeber. Der Scanner 100A, der einen Referenzrahmen 160A aufweist, umfasst einen Projektor 110A und eine Kamera 120A. Der Projektor 110A umfasst einen beleuchteten Projektormustergenerator 112A, eine Projektorlinse 114A und einen perspektivischen Mittelpunkt 118A, durch den ein Lichtstrahl 111A austritt. Der Lichtstrahl 111A tritt aus einem korrigierten Punkt 116A heraus, der eine korrigierte Position an dem Mustergenerator 112A aufweist. Bei einer Ausführungsform wurde der Punkt 116A korrigiert, um Aberrationen des Projektors zu berücksichtigen, wozu Aberrationen der Linse 114A gehören, um zu bewirken, dass der Strahl durch den perspektivischen Mittelpunkt 118A geht, wodurch die Triangulationsberechnungen vereinfacht werden.
  • Der Lichtstrahl 111A schneidet sich mit der Oberfläche 130A in einem Punkt 132A, der von der Oberfläche reflektiert (gestreut) wird und durch die Kameralinse 124A gesendet wird, um ein klares Bild des Musters auf der Oberfläche 130A an der Oberfläche eines lichtempfindlichen Arrays 112A zu erstellen. Das Licht von dem Punkt 132A geht in einen Strahl 121A durch den perspektivischen Mittelpunkt 128A der Kamera, um einen Bildfleck an dem korrigierten Punkt 126A zu bilden. Der Bildfleck ist positionskorrigiert, um Aberrationen in der Kameralinse zu korrigieren. Eine Entsprechung wird zwischen dem Punkt 126A an dem lichtempfindlichen Array 122A und dem Punkt 116A an dem beleuchteten Projektormustergenerator 112A erzielt. Wie es hier nachstehend erklärt wird, kann die Entsprechung unter Verwendung eines codierten oder eines nicht codierten Musters erzielt werden, die manchmal nacheinander projiziert werden können. Sobald die Entsprechung bekannt ist, können die Winkel a und b in 1A bestimmt werden. Die Basislinie 140A, die ein Liniensegment ist, das zwischen den perspektivischen Mittelpunkten 118A und 128A gezogen wird, weist eine Länge C auf. Wenn die Winkel a, b und die Länge C bekannt sind, können alle Winkel und Seitenlängen des Dreiecks 128A-132A-118A bestimmt werden. Digitale Bildinformationen werden an einen Prozessor 150A gesendet, der die 3D-Koordinaten der Oberfläche 130A bestimmt. Der Prozessor 150A kann auch den beleuchteten Mustergenerator 112A anweisen, ein geeignetes Muster zu generieren. Der Prozessor 150A kann sich in der Scanner-Baugruppe befinden, oder er kann sich in einem externen Computer oder einem Remote-Server befinden, wie es hier mit Bezug auf 33 nachstehend noch beschrieben wird.
  • 1B zeigt eine Stereokamera 100B, die ein Lichtmuster von einem Bereich an einer Oberfläche 130B empfängt. Die Stereokamera 100B, die einen Referenzrahmen 160B aufweist, umfasst eine erste Kamera 120B und eine zweite Kamera 170B. Die erste Kamera 120B umfasst eine erste Kameralinse 124B und ein erstes lichtempfindliches Array 122B. Die erste Kamera 120B weist einen perspektivischen Mittelpunkt 128B der ersten Kamera auf, durch den ein Lichtstrahl 121B von einem Punkt 132B an der Oberfläche 130B auf das erste lichtempfindliche Array 122B als korrigierter Bildfleck 126B geht. Der Bildfleck ist positionskorrigiert, um Aberrationen in der Kameralinse zu korrigieren.
  • Die zweite Kamera 170B umfasst eine zweite Kameralinse 174B und ein zweites lichtempfindliches Array 172B. Die zweite Kamera 170B weist einen perspektivischen Mittelpunkt 178B der zweiten Kamera auf, durch den ein Lichtstrahl 171B von dem Punkt 132B auf das zweite lichtempfindliche Array 172B als korrigierter Bildfleck 176B geht. Der Bildfleck ist positionskorrigiert, um Aberrationen in der Kameralinse zu korrigieren.
  • Eine Entsprechung wird zwischen dem Punkt 126B an dem ersten lichtempfindlichen Array 122B und dem Punkt 176B an dem zweiten lichtempfindlichen Array 172B erzielt. Wie es hier nachstehend erklärt wird, kann die Entsprechung unter Verwendung von Videogrammetrie oder anderen Verfahren erzielt werden. Sobald die Entsprechung bekannt ist, können die Winkel a und b in 1B bestimmt werden. Die Basislinie 140B, die ein Liniensegment ist, das zwischen den perspektivischen Mittelpunkten 128B und 178B gezogen wird, weist eine Länge C auf. Wenn die Winkel a, b und die Länge C bekannt sind, können alle Winkel und Seitenlängen des Dreiecks 128B-132B-178B bestimmt werden. Digitale Bildinformationen werden an einen Prozessor 150B gesendet, der die 3D-Koordinaten der Oberfläche 130B bestimmt. Der Prozessor 150B kann sich in der Stereokamera-Baugruppe befinden, oder er kann sich in einem externen Computer oder einem Remote-Server befinden, wie es hier mit Bezug auf 33 nachstehend noch beschrieben wird.
  • 2 zeigt einen Triangulations-Scanner 200 mit strukturiertem Licht, der einen Projektor 250, eine erste Kamera 210 und eine zweite Kamera 230 aufweist. Der Projektor 250 erstellt ein Lichtmuster auf einer Mustergeneratorebene 252, das er von einem korrigierten Punkt 253 an dem Muster durch einen perspektivischen Mittelpunkt 258 (Punkt D) der Linse 254 auf eine Objektoberfläche 270 an einem Punkt 272 (Punkt F) projiziert. Der Punkt 272 wird durch die erste Kamera 210 abgebildet, indem ein Lichtstrahl von dem Punkt 272 durch einen perspektivischen Mittelpunkt 218 (Punkt E) einer Linse 214 auf die Oberfläche eines lichtempfindlichen Arrays 212 der Kamera als korrigierter Punkt 220 empfangen wird. Der Punkt 220 wird in den ausgelesenen Daten korrigiert, indem ein Korrekturfaktor angewendet wird, um die Wirkungen von Linsenaberrationen zu beheben. Der Punkt 272 wird ebenso durch die zweite Kamera 230 abgebildet, indem ein Lichtstrahl von dem Punkt 272 durch einen perspektivischen Mittelpunkt 238 (Punkt C) der Linse 234 auf die Oberfläche eines lichtempfindlichen Arrays 232 der zweiten Kamera als korrigierter Punkt 235 empfangen wird. Es versteht sich, dass sich eine Bezugnahme auf eine Linse in der vorliegenden Druckschrift nicht nur auf eine einzelne Linse bezieht sondern auch auf ein Linsensystem, wozu eine Apertur in dem Linsensystem gehört.
  • Die Einbindung von zwei Kameras 210 und 230 in das System 200 bietet Vorteile gegenüber der Vorrichtung aus 1A, die eine einzige Kamera umfasst. Ein Vorteil besteht darin, dass jede der beiden Kameras einen anderen Ausblick auf den Punkt 272 (Punkt F) aufweist. Auf Grund dieses Unterschieds der Blickpunkte ist es manchmal möglich, Merkmale zu erkennen, die ansonsten verdeckt wären - beispielsweise in ein Loch oder hinter eine Behinderung zu blicken. Zudem ist es in dem System 200 aus 2 möglich, drei Triangulationsberechnungen statt einer einzigen Triangulationsberechnung auszuführen, wodurch sich die Messgenauigkeit verbessert. Eine erste Triangulationsberechnung kann zwischen entsprechenden Punkten in den beiden Kameras unter Verwendung des Dreiecks CEF mit der Basislinie B3 erfolgen. Eine zweite Triangulationsberechnung kann basierend auf den entsprechenden Punkten der ersten Kamera und des Projektors unter Verwendung des Dreiecks DEF mit der Basislinie B2 erfolgen. Eine dritte Triangulationsberechnung kann basierend auf entsprechenden Punkten der zweiten Kamera und des Projektors unter Verwendung des Dreiecks CDF mit der Basislinie B1 erfolgen. Die optische Achse der ersten Kamera 220 ist 216, und die optische Achse der zweiten Kamera 230 ist 236.
  • 3 zeigt einen 3D-Bildgeber 300, der zwei Kameras 310, 330 und einen Projektor 350, die in einem Dreieck A1-A2-A3 angeordnet sind, aufweist. Bei einer Ausführungsform umfasst der 3D-Bildgeber 300 aus 3 ferner eine Kamera 390, die verwendet werden kann, um Farb- (Textur-) Informationen zur Übernahme in das 3D-Bild bereitzustellen. Zudem kann die Kamera 390 verwendet werden, um mehrere 3D-Bilder durch die Verwendung von Videogrammetrie zu registrieren.
  • Diese dreieckige Anordnung stellt zusätzliche Informationen über diejenigen hinaus bereit, die für zwei Kameras und einen Projektor verfügbar sind, die in einer geraden Linie angeordnet sind, wie in 2 abgebildet. Die zusätzlichen Informationen sind mit Bezug auf 4A, die das Konzept der Epipolareinschränkungen erklärt, und auf 4B, die erklärt, wie die Epipolareinschränkungen vorteilhaft auf die dreieckige Anordnung des 3D-Bildgebers 300 angewendet wird, zu verstehen. In 4A umfasst ein 3D-Triangulationsinstrument 440 eine Vorrichtung 1 und eine Vorrichtung 2 jeweils auf der linken und der rechten Seite, aus 4A. Die Vorrichtung 1 und die Vorrichtung 2 können zwei Kameras sein, oder die Vorrichtung 1 und die Vorrichtung 2 können eine Kamera und ein Projektor sein. Jede der beiden Vorrichtungen, sei es eine Kamera oder ein Projektor, weist einen perspektivischen Mittelpunkt, O1 und O2, und eine Referenzebene, 430 oder 410, auf. Die perspektivischen Mittelpunkte sind um eine Basislinienentfernung B getrennt, welche die Länge der Linie 402 zwischen O1 und O2 ist. Das Konzept des perspektivischen Mittelpunkts wird mit Bezug auf 13C, 13D und 13E ausführlicher besprochen. Die perspektivischen Mittelpunkte O1, O2 sind Punkte, durch die sich Lichtstrahlen ausbreiten sollen, entweder zu oder von einem Punkt an einem Objekt. Diese Lichtstrahlen treten entweder aus einem beleuchteten Projektormuster heraus, wie etwa dem Muster an dem beleuchteten Projektormustergenerator 112A aus 1A, oder treffen auf ein lichtempfindliches Array, wie etwa das lichtempfindliche Array 122A aus 1A. Wie in 1A zu sehen, liegt die Linse 114A zwischen dem beleuchteten Objektpunkt 932 und der Ebene des Projektormustergenerators 112A des beleuchteten Objekts. Ebenso liegt die Linse 924A jeweils zwischen dem beleuchteten Objektpunkt 132A und der Ebene des lichtempfindlichen Arrays 122A. Das Muster der Vorderflächenebenen der Vorrichtungen 112A und 122A wäre jedoch das gleiche, wenn sie jeweils in geeignete Positionen gegenüber den Linsen 114A und 124A bewegt würden. Diese Platzierung der Referenzebenen 430, 410 wird in 4A angewendet, welche die Referenzebenen 430, 410 zwischen dem Objektpunkt und den perspektivischen Mittelpunkten O1, O2 zeigt.
  • In 4A kreuzt für die Referenzebene 430, die in Richtung auf den perspektivischen Mittelpunkt O2 angewinkelt ist, und die Referenzebene 410, die in Richtung auf den perspektivischen Mittelpunkt O1 angewinkelt ist, eine Linie 402, die zwischen den perspektivischen Mittelpunkten O1 und O2 gezogen ist, die Ebenen 430 und 410 jeweils an den Epipolarpunkten E1, E2. Man nehme einen Punkt UD auf der Ebene 430. Falls die Vorrichtung 1 eine Kamera ist, ist bekannt, dass ein Objektpunkt, der den Punkt UD in dem Bild erzeugt, auf der Linie 438 liegen muss. Der Objektpunkt könnte beispielsweise einer der Punkte VA, VB, VC oder VD sein. Diese vier Objektpunkte entsprechen jeweils den Punkten WA, WB, WC, WD auf der Referenzebene 410 der Vorrichtung 2. Dies gilt unabhängig davon, ob die Vorrichtung 2 eine Kamera oder ein Projektor ist. Es gilt ebenfalls, dass die vier Punkte auf einer geraden Linie 412 in der Ebene 410 liegen. Diese Linie, welche die Schnittlinie der Referenzebene 410 mit der Ebene O1-O2-UD ist, wird als die Epipolarlinie 412 bezeichnet. Daraus folgt, dass eine beliebige Epipolarlinie auf der Referenzebene 410 durch den Epipol E2 geht. Genauso wie es eine Epipolarlinie auf der Referenzebene der Vorrichtung 2 für jeden Punkt auf der Referenzebene der Vorrichtung 1 gibt, gibt es auch eine Epipolarlinie 434 auf der Referenzebene der Vorrichtung 1 für jeden Punkt auf der Referenzebene der Vorrichtung 2.
  • 4B bildet die Epipolarverhältnisse für einen 3D-Bildgeber 490 ab, der dem 3D-Bildgeber 300 aus 3 entspricht, bei dem zwei Kameras und ein Projektor in einem dreieckigen Muster angeordnet sind. Im Allgemeinen können die Vorrichtung 1, die Vorrichtung 2 und die Vorrichtung 3 eine beliebige Kombination von Kameras und Projektoren sein, solange mindestens eine der Vorrichtungen eine Kamera ist. Jede der drei Vorrichtungen 491, 492, 493 weist jeweils einen perspektivischen Mittelpunkt O1, O2, O3 und jeweils eine Referenzebene 460, 470 und 480 auf. Jedes Paar von Vorrichtungen weist ein Paar von Epipolen auf. Die Vorrichtung 1 und die Vorrichtung 2 weisen jeweils die Epipole E12, E21 auf den Ebenen 460, 470 auf. Die Vorrichtung 1 und die Vorrichtung 3 weisen jeweils die Epipole E13, E31, auf der Ebenes 460, 480 auf. Die Vorrichtung 2 und die Vorrichtung 3 weisen jeweils die Epipole E23, E32 auf den Ebenen 470, 480 auf. Mit anderen Worten umfasst jede Referenzebene zwei Epipole. Die Referenzebene für die Vorrichtung 1 umfasst die Epipole E12 und E13. Die Referenzebene für die Vorrichtung 2 umfasst die Epipole E21 und E23. Die Referenzebene für die Vorrichtung 3 umfasst die Epipole E31 und E32.
  • Man nehme die Situation aus 4B, bei der die Vorrichtung 3 ein Projektor ist, die Vorrichtung 1 eine erste Kamera ist, und die Vorrichtung 2 eine zweite Kamera ist. Angenommen ein Projektionspunkt P3, ein erster Bildpunkt P1 und ein zweiter Bildpunkt P2 werden bei einer Messung erzielt. Diese Ergebnisse können folgendermaßen auf Konsistenz geprüft werden.
  • Um die Konsistenz des Bildpunkts P1 zu überprüfen, muss sich die Ebene P3-E31-E13 mit der Referenzebene 460 schneiden, um die Epipolarlinie 464 zu erzielen. Die Ebene P2-E21-E12 muss sich schneiden, um die Epipolarlinie 462 zu erzielen. Falls der Bildpunkt P1 konsistent bestimmt wurde, liegt der beobachtete Bildpunkt P1 an dem Schnittpunkt der berechneten Epipolarlinien 1262 und 1264.
  • Um die Konsistenz des Bildpunkts P2 zu überprüfen, muss sich die Ebene P3-E32-E23 mit der Referenzebene 470 schneiden, um die Epipolarlinie 474 zu erzielen. Die Ebene P1-E12-E21 muss sich schneiden, um die Epipolarlinie 472 zu erzielen. Falls der Bildpunkt P2 konsistent bestimmt wurde, liegt der beobachtete Bildpunkt P2 an dem Schnittpunkt der berechneten Epipolarlinien 472 und 474.
  • Um die Konsistenz des Projektionspunkts P3 zu überprüfen, muss sich die Ebene P2-E23-E32 mit der Referenzebene 480 schneiden, um die Epipolarlinie 484 zu erzielen. Die Ebene P1-E13-E31 muss sich schneiden, um die Epipolarlinie 482 zu erzielen. Falls der Projektionspunkt P3 konsistent bestimmt wurde, liegt der Projektionspunkt P3 an dem Schnittpunkt der berechneten Epipolarlinien 482 und 484.
  • Die Redundanz von Informationen, die dadurch bereitgestellt wird, das ein 3D-Bildgeber 300 verwendet wird, der eine dreieckige Anordnung von Projektor und Kameras aufweist, kann verwendet werden, um die Messzeit zu reduzieren, um Fehler zu identifizieren und um Kompensations-/ Kalibrierungsparameter automatisch zu aktualisieren.
  • Die dreieckige Anordnung des 3D-Bildgebers 300 kann auch verwendet werden, um Kompensations-/ Kalibrierungsparameter automatisch zu aktualisieren. Die Kompensationsparameter sind Zahlenwerte, die in einem Speicher beispielsweise in einem internen elektrischen System einer 3D-Messvorrichtung oder in einer anderen externen Recheneinheit gespeichert sind. Diese Parameter können die relativen Positionen und Orientierungen der Kameras und des Projektors in dem 3D-Bildgeber umfassen. Die Kompensationsparameter können die Linseneigenschaften betreffen, wie etwa die Linsenbrennweite und Linsenaberrationen. Sie können auch Änderungen der Umgebungsbedingungen betreffen, wie etwa der Temperatur. Manchmal wird der Begriff Kalibrierung anstelle des Begriffs Kompensation verwendet. Kompensationsvorgänge werden häufig durch den Hersteller ausgeführt, um Kompensationsparameter für einen 3D-Bildgeber zu erzielen. Zudem werden die Kompensationsverfahren häufig durch einen Benutzer ausgeführt. Benutzerkompensationsvorgänge können ausgeführt werden, wenn es Änderungen der Umgebungsbedingungen gibt, wie etwa der Temperatur. Benutzerkompensationsvorgänge können auch ausgeführt werden, wenn der Projektor oder die Kameralinsen geändert werden oder nachdem das Instrument einem mechanischen Schock ausgesetzt wurde.
  • Unstimmigkeiten bei den Ergebnissen, die auf Epipolarberechnungen für einen 3D-Bildgeber 1290 basieren, können ein Problem bei den Kompensationsparametern bedeuten, wobei es sich um Zahlenwerte handelt, die im Speicher abgelegt sind. Die Kompensationsparameter werden verwendet, um Mängel oder Nichtlinearitäten in dem mechanischen, optischen oder elektrischen System zu korrigieren, um die Messgenauigkeit zu verbessern. Manchmal kann ein Muster von Unstimmigkeiten eine automatische Korrektur nahelegen, die auf die Kompensationsparameter angewendet werden kann. Andernfalls können die Unstimmigkeiten bedeuten, dass Benutzerkompensationsvorgänge auszuführen sind.
  • Es ist häufig wünschenswert, Farbinformationen in 3D-Koordinaten zu integrieren, die von einem Triangulations-Scanner (3D-Bildgeber) erzielt werden. Diese Farbinformationen werden manchmal als „Textur-“ Informationen bezeichnet, da sie die abgebildeten Materialien nahelegen können oder zusätzliche Aspekte der Szene, wie etwa Schatten, aufdecken können. Normalerweise werden diese Farb- (Textur-) Informationen durch eine Farbkamera bereitgestellt, die von der Kamera in dem Triangulations-Scanner (d.h. der Triangulationskamera) getrennt ist. Ein Beispiel einer getrennten Farbkamera ist die Kamera 390 in dem 3D-Bildgeber 300 aus 3.
  • Manchmal ist es wünschenswert, die 3D-Koordinaten, die von einem Triangulations-Scanner erzielt werden, mit Informationen von einer zweidimensionalen (2D) Kamera zu ergänzen, die ein breiteres Sehfeld (FOV) als der 3D-Bildgeber abdeckt. Diese breiten FOV-Informationen können beispielsweise verwendet werden, um die Registrierung zu unterstützen. Beispielsweise kann die Kamera mit breitem FOV das Registrieren von mehreren Bildern zusammen unterstützen, die mit der Triangulationskamera erzielt werden, indem sie natürliche Merkmale oder künstliche Zielobjekte außerhalb des FOV der Triangulationskamera identifiziert. Beispielsweise kann die Kamera 390 in dem 3D-Bildgeber 300 sowohl als Kamera mit breitem FOV als auch als Farbkamera dienen.
  • Falls eine Triangulationskamera und eine Farbkamera in einem festen Verhältnis miteinander verbunden sind, beispielsweise indem sie auf einer gemeinsamen Basis montiert sind, dann sind Position und Orientierung der beiden Kameras in einem gemeinsamen Referenzrahmen zu finden. Die Position jeder der Kameras kann durch drei Translationsfreiheitsgrade (DOF) gekennzeichnet sein, die beispielsweise die XZY-Koordinaten des perspektivischen Mittelpunkts der Kamera sein könnten. Die Orientierung jeder der Kameras kann durch drei Orientierungs-DOF gekennzeichnet sein, die beispielsweise die Roll-, Neigungs- und Gierwinkel sein könnten. Die Position und die Orientierung ergeben zusammen die Lage eines Objekts. In diesem Fall ergeben die drei Translations-DOF und die drei Orientierungs-DOF zusammen die sechs DOF der Lage für jede Kamera. Ein Kompensationsvorgang kann durch einen Hersteller oder durch einen Benutzer ausgeführt werden, um die Lage eines Triangulations-Scanners und einer Farbkamera zu bestimmen, die auf einer gemeinsamen Basis montiert sind, wobei die Lage auf einen gemeinsamen Referenzrahmen referenziert ist.
  • Bei einer Ausführungsform werden die 3D-Koordinaten basierend mindestens teilweise auf Triangulation bestimmt. Eine Triangulationsberechnung erfordert die Kenntnis der relativen Position und Orientierung mindestens eines Projektors, wie etwa 1310A, und einer Kamera, wie etwa 1320A.
  • Bei einer anderen Ausführungsform werden die 3D-Koordinaten erzielt, indem Merkmale oder Zielobjekte an einem Objekt identifiziert werden und Änderungen der Merkmale oder Zielobjekte beachtet werden, wenn sich das Objekt 1330 bewegt. Der Prozess des Identifizierens der natürlichen Merkmale eines Objekts 1330 in einer Vielzahl von Bildern wird manchmal als Videogrammetrie bezeichnet. Es gibt eine reichhaltige Auswahl von Techniken, die man verwenden kann, um Punkte zu bestimmen, die mit den Merkmalen von Objekten verknüpft sind, die aus mehreren Perspektiven gesehen werden. Diese Techniken werden im Allgemeinen als Bildverarbeitung oder Merkmalsdetektion bezeichnet. Diese Techniken, wenn sie auf die Bestimmung von 3D-Koordinaten basierend auf einer relativen Bewegung zwischen der Messvorrichtung und dem Messobjekt angewendet werden, werden manchmal als Videogrammetrietechniken bezeichnet.
  • Die gemeinsamen Punkte, die durch die reichhaltige Auswahl von Techniken, die zuvor beschrieben wurden, identifiziert werden, kann man als Kardinalpunkte bezeichnen. Eine üblicherweise verwendete jedoch gattungsgemäße Kategorie zum Finden der Kardinalpunkte wird als Interessenpunktdetektion bezeichnet, wobei die detektierten Punkte als Interessenpunkte bezeichnet werden. Gemäß der üblichen Definition weist ein Interessenpunkt eine mathematisch gut fundierte Definition, eine gut definierte Position im Raum, eine Bildstruktur um den Interessenpunkt herum, die reich an lokalem Informationsgehalt ist, und eine Variation des Beleuchtungspegels, der im Verlauf der Zeit relativ stabil ist, auf. Ein bestimmtes Beispiel eines Interessenpunkts ist ein Eckpunkt, der ein Punkt sein könnte, der beispielsweise einem Schnittpunkt von drei Ebenen entspricht. Ein anderes Beispiel einer Signalverarbeitung, die verwendet werden kann, ist die skaleninvariante Merkmalstransformation (SIFT), wobei es sich um ein Verfahren handelt, das in der Technik wohlbekannt ist und in dem US-Patent Nr. 6,711,293 im Namen von Lowe beschrieben wird. Andere übliche Merkmalsdetektionsverfahren zum Finden von Kardinalpunkten umfassen die Kantendetektion, die BLOB-Detektion und die Gratdetektion.
  • 5 ist eine perspektivische Ansicht einer luftgetragenen Quadrokopter-Drohne 500, die ein Gehäuse 510, vier Beine und vier Rotoren 520 aufweist. Die Quadrokopter-Drohne ist in der Lage, in eine beliebige Richtung zu fliegen oder durch die Verwendung der vier Rotoren 520 zu schweben. Eine zweidimensionale (2D) Kamera ist an der Drohne montiert. Andere Drohnen können mehr oder weniger Rotoren verwenden. Bei anderen Ausführungsformen kann die Kamera 530 an einer anderen Art von luftgetragener Drohne montiert sein, beispielsweise einer Drohne, die feststehende Flügel aufweist, die keine Schwebefähigkeit bereitstellen.
  • 6 ist eine perspektivische Ansicht einer Messsituation 600, die eine Drohne 610 und ein Projektorsystem betrifft. Die Drohne 610 umfasst eine 2D-Kamera 530 und eine Rechenvorrichtung 626. Bei einer Ausführungsform weist die Rechenvorrichtung 626 die Fähigkeit eines PCs auf. Bei einer anderen Ausführungsform stellt die Rechenvorrichtung 626 eine gewisse Vorverarbeitung bereit, sendet jedoch das vorverarbeitete Signal an einen entfernten Computer oder ein Computernetzwerk zur weiteren Verarbeitung. Das vorverarbeitete Signal kann an den entfernten Computer drahtlos oder über einen Draht, der an einer Halteleine angebracht ist, gesendet werden.
  • Das Projektorsystem 630 umfasst einen Projektor 632 und einen Ständer 636. Bei einer Ausführungsform umfasst der Ständer 636 ein Stativ und motorisierte Räder. Bei einer Ausführungsform reagieren die motorisierten Räder auf eine Computersteuerung beispielsweise für drahtlose Signale von einem entfernten Computer oder Netzwerk. Bei einer alternativen Ausführungsform, die in einer Messsituation 600B abgebildet ist, wird das Projektorsystem 640 in 6 durch ein Projektorsystem 636B in 6B ersetzt, das eine Drohne 636B anstelle des Ständers 636 aufweist. Bei einer Ausführungsform ist die Drohne 636B konfiguriert, um den Projektor 632 an eine gewünschte Stelle zu fliegen, bevor sie landet und Lichtstrahlen 634 projiziert. Bei einer Ausführungsform ist der Projektor 632 konfiguriert, um Laserlicht durch ein Beugungsgitter zu projizieren, um Strahlen 634 zu erzeugen, die an einem Objekt 640 in einer Sammlung von Flecken 635 enden. Bei einer Ausführungsform sind die Flecken ungefähr kreisförmig und werden in einem rechteckigen Gittermuster projiziert. Bei einer anderen Ausführungsform ist das Beugungsgitter konfiguriert, um einigen der projizierten Flecken mehr Kraft zu verleihen als anderen, wodurch es möglich ist, einige der Flecken von den anderen zu unterscheiden. Bei einer Ausführungsform werden die Flecken 635 an der Oberfläche des Objekts 640 durch die 2D-Kamera 530 betrachtet.
  • Bei einer Ausführungsform erhebt die Kamera 530 mehrere 2D-Bilder, wobei die Bilder einige der projizierten Flecken 635 umfassen. Die projizierten Flecken bieten eine Möglichkeit, mehrere 2D-Datensätze zu registrieren. Falls die Kamera 530 die mehreren 2D-Bilder von verschiedenen Positionen erhebt, und falls eine Kombination von Merkmalen und projizierten Flecken Registrierungsmerkmale in jedem der 2D-Datensätze bereitstellt, kann es möglich sein, 3D-Koordinaten unter Verwendung einer Triangulation basierend auf den mehreren 2D-Kamerabildern zu bestimmen.
  • Jedes der Bildern, die durch die 2D-Kamera 530 erhoben werden, wird als in einem Referenzrahmen der Vorrichtung liegend angesehen, der sich mit der Position und Orientierung der luftgetragenen Drohne ändert. Der Referenzrahmen 650 der Vorrichtung kann durch drei orthogonale Achsen xD, yD und zD dargestellt werden, wie in 6, 6B, 8, 9, 11, 12, 15, 16 und 17 gezeigt. Die mehreren 2D-Bilder, die in dem Referenzrahmen 650 der Vorrichtung erzielt werden, werden in einen gemeinsamen Referenzrahmen 660 verlegt, der im Verhältnis zu dem Objekt 640 festgelegt (stillstehend) ist. Der gemeinsame Referenzrahmen 660 kann durch drei orthogonale Achsen xC, yC und zC dargestellt werden, wie in 6, 6B, 8, 9, 11, 12, 15, 16 und 17 gezeigt.
  • Bei einer weiteren Ausführungsform umfasst eine luftgetragene Quadrokopter-Drohne 700 ein Gehäuse 510, vier Beine und vier Rotoren 520. Ein 3D-Bildgeber 300, der hier zuvor mit Bezug auf 3 besprochen wurde, ist an der Drohne 700 angebracht. Bei einer Ausführungsform umfasst der 3D-Bildgeber 300 zwei Kameras 310, 330 und einen Projektor 350, die in einem Dreieck angeordnet sind. Der Projektor projiziert ein Lichtmuster auf eine Region 725 des Objekts 640, und die beiden Kameras 310, 330 empfangen reflektiertes Licht von der Region 725. Die Drohne 700 umfasst auch eine Kamera 390, die verwendet werden kann, um Farb- (Textur-) Informationen zur Übernahme in das 3D-Bild bereitzustellen und um die Registrierung zu unterstützen. Der 3D-Bildgeber ermöglicht das Messen von 3D-Koordinaten durch die kombinierte Verwendung von Triangulation und Videogrammetrie. Ein PC oder eine ähnliche Rechenvorrichtung 626 wirkt mit dem 3D-Bildgeber 300 zusammen, um die erhobenen Daten zu verarbeiten, um 3D-Koordinaten zu erzielen. Lichtflecken 635 werden auf das Objekt 640 projiziert, um Registrierungsmarkierungen für den 3D-Bildgeber 300 bereitzustellen. Bei einer Ausführungsform liegen die Flecken 634 auf einer anderen Wellenlänge als das Lichtmuster, das durch den Projektor 350 projiziert wird. Beispielsweise liegen die Lichtflecken aus dem Projektor 350 bei einer Ausführungsform im Infrarotbereich, während die Lichtflecken aus dem Projektor 634 im sichtbaren Bereich liegen und in den Bildern der Kamera 390 zu sehen sind. Bei einer anderen Ausführungsform liegen die projizierten Lichtflecken 350 und 634 auf der gleichen Wellenlänge.
  • Die Bestimmung der 3D-Koordinaten von Punkten an der Objektoberfläche wird durch die Geometrie des 3D-Bildgebers 300 deutlich unterstützt, der die beiden Kameras 310, 330 und den Projektor 350 umfasst, die in einem Dreieck angeordnet sind. Die mehreren Epipolarverhältnisse, die durch das dreieckige Verhältnis der Vorrichtungen 310, 330 und 350 bereitgestellt werden, wurden hier zuvor mit Bezug auf 4B beschrieben. Wenn nach den 3D-Koordinaten an der Objektoberfläche basierend auf dem projizierten Lichtmuster von dem internen Projektor 350 und den Bildern, die durch die erste Kamera und die zweite Kamera erzielt werden, aufgelöst wird, werden die Epipolareinschränkungen verwendet, die durch die Geometrie aus 4B vorgeschrieben sind. Der Begriff „Epipolareinschränkungen“, wie er hier verwendet wird, bedeutet alle geometrischen Einschränkungen der Kameras 310, 330 und des Projektors 350. Diese geometrischen Einschränkungen umfassen die Lage mit sechs Freiheitsgraden jeder der drei Vorrichtungen 310, 330 und 350 in Bezug auf die anderen Vorrichtungen. Somit stellen die Epipolareinschränkungen die Basislinienentfernungen zwischen den jeweiligen Vorrichtungen 310, 330 und 350 bereit. Die Epipolareinschränkungen stellen auch Einschränkungen bezüglich der Position der Referenzebene jeder der Vorrichtungen in Bezug auf den perspektivischen Mittelpunkt jeder der Vorrichtungen bereit. Implizit in diesen Einschränkungen enthalten sind die Brennweite jedes der Linsensysteme, die Positionen der Projektionsebene des Projektors 350 und der Bildebenen der Kameras 310, 330, und die Größe und Anzahl von Pixeln in jeder der Vorrichtungen 310, 330 und 350.
  • Jedes der Bilder, die durch die Kameras 310, 330 und 390 erhoben werden, wird als in einem Referenzrahmen der Vorrichtung liegend angesehen, der sich mit der Position und Orientierung der luftgetragenen Drohne ändert. Der Referenzrahmen 650 der Vorrichtung kann durch drei orthogonale Achsen xD, yD und zD dargestellt werden, wie in 6, 6B, 8, 9, 11, 12, 15, 16 und 17 gezeigt. Die 3D-Koordinaten, die sich aus mehreren 2D-Bildern ergeben, die in dem Referenzrahmen 650 der Vorrichtung erzielt werden, werden in einen gemeinsamen Referenzrahmen 660 verlegt, der im Verhältnis zu dem Objekt 640 festgelegt (stillstehend) ist. Der gemeinsame Referenzrahmen 660 kann durch drei orthogonale Achsen xC, yC und zC dargestellt werden, wie in 6, 6B, 8, 9, 11, 12, 15, 16 und 17 gezeigt.
  • Bei einer Ausführungsform umfasst der Ständer 636 motorisierte Räder, die bewirken, dass er sich dem Objekt 640 gemäß den Messanforderungen nähert oder sich davon entfernt. Gewöhnlich wird das Projektorsystem 630 näher an das Objekt 640 bewegt, wenn sich die Drohne 700 dem Objekt 640 nähert. Das Ziel besteht darin, eine relativ große Anzahl von projizierten Flecken in der Region 725 zu behalten. Wenn sich die Drohne 700 dem Objekt 640 nähert, nimmt die Fläche 725 ab. Es ist wünschenswert, dass die Anzahl von projizierten Flecken 635 entsprechend abnimmt.
  • Bei einer Ausführungsform ist die Drohne 700 konfiguriert, um sie gemäß den Messanforderungen von weit auf nah anzupassen. Die Drohne kann zuerst das Objekt 640 über ein relativ großes FOV messen und sich dann dem Objekt 640 nähern, um interessierende Merkmale an dem Objekt 640 ausführlicher und mit höherer Genauigkeit zu messen. Das Projektorsystem 630 kann sich als Reaktion darauf ebenso dem Objekt nähern. Bei einer Ausführungsform wird der Ständer 636 durch die Drohne 636B ersetzt, die den 3D-Bildgeber 300 an eine beliebige notwendige Stelle bewegen kann.
  • Bei einer Ausführungsform bewegt die motorisierte mobile Plattform den externen Projektor, um das projizierte Lichtmuster von dem externen Projektor in das FOV der Registrierungskamera zu bringen, wobei es sich jeweils um die Kamera 530, 390, 1416 in 5, 7, 14 handelt. Mit anderen Worten überwacht ein Steuersystem die Anzahl von projizierten Flecken, die durch die Registrierungskamera empfangen werden, und passt die Position der motorisierten mobilen Plattform an, um sicherzustellen, dass der externe Projektor richtig positioniert ist, um Flecken in dem FOV der Registrierungskamera zu projizieren.
  • Bei einer Ausführungsform bewegt die motorisierte mobile Plattform den externen Projektor derart, dass die Registrierungskamera mindestens einen Teil des Lichtmusters, das durch den externen Projektor vor und nach der Bewegung der motorisierten Plattform projiziert wird, sieht. Ein Vorteil dieses Lösungsansatzes besteht darin, dass diese Beobachtungen durch die Registrierungskamera das Registrieren der Objekt-3D-Koordinaten unterstützen können, die vor und nach der Bewegung bestimmt werden.
  • Bei einer Ausführungsform bewegt die motorisierte mobile Plattform den externen Projektor, um die Anzahl von Rasterpunkten, die von der Registrierungskamera gesehen werden, über einer vorgegebenen Mindestanzahl und unter einer vorgegeben Höchstanzahl zu halten. Bei einer Ausführungsform sind die vorgegebene Mindestanzahl und die vorgegebene Höchstanzahl benutzeranpassbare Werte. Die Dichte der Rasterpunkte, die auf eine gegebene Region projiziert werden, nimmt zu, wenn sich der externe Projektor dem Objekt nähert. Wenn sich die luftgetragene Drohne dem Objekt nähert, kann es folglich vorteilhaft sein, den externen Projektor dem Objekt zu nähern. Ein Drehmechanismus, der an dem externen Projektor bereitgestellt wird, kann synergetisch mit dem Bewegungsmechanismus an dem externen Projektor verwendet werden, um eine gewünschte Anzahl von projizierten Flecken in dem FOV der Registrierungskamera zu erzielen, wie es hier nachstehend noch erklärt wird.
  • Wenn die Entfernung von dem externen Projektor zu dem Objekt geändert wird, und wenn die Entfernung von der luftgetragenen Drohne zu dem Objekt geändert wird, ändert sich ebenso der Brechwert, der durch das lichtempfindliche Array der Kamera in dem 3D-Bildgeber der luftgetragenen Drohne empfangen wird. Folglich wird bei einer Ausführungsform der Brechwert von dem externen Projektor als Reaktion auf die Lichtmenge (z.B. den Brechwert), die von den Pixeln in dem lichtempfindlichen Array in der Registrierungskamera empfangen wird, geändert. Ebenso kann es wünschenswert sein, die Belichtungszeit der Registrierungskamera als Reaktion auf die Lichtmenge zu ändern, die von der Registrierungskamera empfangen wird.
  • Bei einer Ausführungsform wird der Projektor 632 in 6 durch den drehbaren Projektor 1010 in 10 an einem drehbaren Projektorsystem 1000 ersetzt. Bei einer Ausführungsform ist der drehbare Projektor 1010 konfiguriert, um einen Strahl eines Lichtmusters 1012 entlang einer Richtung zu emittieren, die durch eine Drehung um eine waagerechte Achse 1022 und eine Drehung um eine senkrechte Achse 1020 bestimmt wird. Bei einer Ausführungsform umfasst der Ständer 636 ein Stativ 1032, Räder 1034 und ein Motorantriebssystem 1036. Bei einer Ausführungsform steht die Drehung des Projektors um die Achsen 1020 und 1022 unter Computerkontrolle, wobei es sich um einen Computer an dem drehbaren Projektorsystem 1000 oder einen Computer, der sich an einer anderen Stelle in der gesamten Messumgebung befindet, handeln kann.
  • Bei einigen Ausführungsformen dienen die projizierten Flecken nur als Leitstrukturen. In diesem Fall kann es sein, dass die genaue Richtung des projizierten Musters 1012 nicht allzu wichtig ist. In anderen Fällen kann die Richtung wichtig sein. In diesem Fall kann die Vorrichtung genaue Winkelgeber, wie etwa Winkelcodierer, umfassen, die beispielsweise eine Genauigkeit von 5 Mikroradianten aufweisen können.
  • Eine Anzahl von verschiedenen Strahllenkmechanismen und Winkelgebern kann in dem drehbaren Projektorsystem 1000 verwendet werden. Bei einer Ausführungsform umfassen die Strahllenkmechanismen eine waagerechte Welle und eine senkrechte Welle, wobei jede Welle auf einem Paar von Lagern montiert ist und jeweils von einem rahmenlosen Motor angetrieben wird. Der Projektor kann direkt an der waagerechten Welle montiert sein, es sind jedoch viele andere Anordnungen möglich. Beispielsweise kann ein Spiegel an der waagerechten Welle montiert sein, um projiziertes Licht auf das Objekt zu reflektieren, oder um gestreutes Licht von dem Objekt auf eine Kamera zu reflektieren. Bei einer anderen Ausführungsform dreht sich ein Spiegel, der um 45 Grad angewinkelt ist, um eine waagerechte Achse und empfängt Licht entlang der waagerechten Achse oder gibt es zurück. Bei anderen Ausführungsformen können Galvanometerspiegel verwendet werden, um Licht in einer gewünschten Richtung zu senden oder zu empfangen. Bei einer anderen Ausführungsform wird ein MEMS-Leitspiegel verwendet, um das Licht in eine gewünschte Richtung zu richten. Viele andere Strahllenkmechanismen sind möglich und können verwendet werden. Bei einer Ausführungsform wird ein Winkelcodierer verwendet, um den Drehwinkel des Projektors oder der Kamera entlang jeder der beiden Achsen zu messen. Viele andere Winkelgeber sind verfügbar und können verwendet werden.
  • 11 bildet eine Messsituation 1100 ab, bei der sich ein drehbares Projektorsystem 1000 dreht, um die projizierten Flecken von einem projizierten Strahl 1010 an gewünschten Stellen an dem Objekt 640 gemäß der Position der Drohne 700 zu platzieren. Bei einer Ausführungsform ist der Drehmechanismus des externen Projektors konfiguriert, um das projizierte Lichtmuster zu drehen, um es in dem FOV der Registrierungskamera des 3D-Bildgebers in der luftgetragenen Drohne zu platzieren. Die Registrierung ist die Kamera 530, 390, 1416 jeweils in 5, 7, 14.
  • Bei einer Ausführungsform ist der Drehmechanismus des externen Projektors konfiguriert, um das projizierte Lichtmuster derart zu drehen, dass die Registrierungskamera mindestens einen Teil des Lichtmusters, das durch den externen Projektor vor und nach der Drehung durch den Drehmechanismus projiziert wird, sieht. Ein Vorteil dieses Lösungsansatzes besteht darin, dass diese Beobachtungen durch die Registrierungskamera die Registrierung der Objekt-3D-Koordinaten unterstützen können, die vor und nach der Drehung erzielt werden.
  • Bei einer Ausführungsform ist der Drehmechanismus konfiguriert, um das Lichtmuster von dem externen Projektor zu drehen, um die Anzahl von Rasterpunkten, die durch die Registrierungskamera gesehen werden, über einer vorgegebenen Mindestanzahl und unter einer vorgegebenen Höchstanzahl zu halten. Falls sich beispielsweise die luftgetragene Drohne dem Objekt nähert und sich gleichzeitig dreht, um den 3D-Bildgeber nach oben zu richten, kann es wünschenswert sein, dadurch zu reagieren, dass der externe Projektor dem Objekt genähert wird, während gleichzeitig das projizierte Licht von dem externen Projektor nach oben gedreht wird. Dadurch bleibt eine relativ große Anzahl von projizierten Flecken von dem externen Projektor für die Registrierungskamera sichtbar, was gewöhnlich ein wünschenswertes Ergebnis ist.
  • 12 bildet eine Messsituation 1200 ab, in der eine Vorrichtung, wie etwa der 3D-Bildgeber 300 oder die Kamera 530, Teil eines 3D-Bildgebers 1220 einer luftgetragenen Drohne, ähnlich wie die Drohne 500 oder die Drohne 700, ist, außer dass der 3D-Bildgeber 1220 einen drehbaren Lenkmechanismus umfasst. Bei einer Ausführungsform ist der drehbare Lenkmechanismus im Wesentlichen wie der drehbare Lenkmechanismus des Projektorsystems 1000, außer dass er dimensioniert ist, um die 3D-Bildgeberelemente zu halten.
  • Bei einer Ausführungsform fliegt die Drohne zu einer gewünschten Stelle in Bezug auf ein zu messendes Objekt 640 und landet dann, bevor sie die Messung vornimmt. Ein drehbarer Lenkmechanismus eines 3D-Bildgebers 1220 lenkt das projizierte Lichtmuster auf die gewünschte Stelle an dem Objekt 640, bevor er eine Messung vornimmt. Bei einer Ausführungsform werden die projizierten Flecken 1010 verwendet, um die Registrierung zu unterstützen. Bei einer weiteren Ausführungsform tragen die genau bekannten Drehwinkel des drehbaren Mechanismus des 3D-Bildgebers 1220 ebenfalls zur Bestimmung der 3D-Koordinaten der Oberfläche des Objekts 640 bei. Ein Vorteil dieses Lösungsansatzes besteht darin, dass ein Roboter, der gelandet ist, keine Vibration durch die drehenden Propeller erfährt, wodurch eine genauere Messung der 3D-Koordinaten ermöglicht wird.
  • Eine Möglichkeit, um die Wirkung der Vibration von drehenden Propellern zu minimieren aber nicht zu beheben, besteht darin, eine servogesteuerte kardanische Kameraaufhängung hinzufügen, wobei es sich um eine Vorrichtung handelt, die konfiguriert ist, damit die Kamera in die gleiche Richtung gerichtet bleibt, wenn sich die Richtung der Drohne geringfügig ändert. Bei einer Ausführungsform verwendet ein Servosystem Signale von einer Trägheitsmesseinheit, um Signale an drei bürstenlose Motoren zu senden, welche die Kamera gerade halten.
  • Bei einer Ausführungsform umfasst die 3D-Bildgebervorrichtung, die an der Bewegungsvorrichtung montiert ist, ferner eine Laserzeilensonde, die auch als Zeilenscanner bezeichnet wird. Der Betrieb des Laserzeilenscanners (der auch als Laserzeilensonde oder einfach als Zeilenscanner bezeichnet wird) wird nun mit Bezug auf 13 beschrieben. Das Zeilenscannersystem 1300 umfasst einen Projektor 1320 und eine Kamera 1340. Der Projektor 1320 umfasst ein Ausgangslichtmuster 1321 und eine Projektorlinse 1322. Das Ausgangslichtmuster umfasst ein beleuchtetes Muster in der Form einer Linie. Die Projektorlinse umfasst einen perspektivischen Mittelpunkt des Projektors und eine optische Achse des Projektors, die durch den perspektivischen Mittelpunkt des Projektors geht. Bei dem Beispiel aus 13 wird ein mittlerer Strahl des Lichtstrahls 1324 auf die perspektivische optische Achse ausgerichtet. Die Kamera 1340 umfasst eine Kameralinse 1342 und ein lichtempfindliches Array 1341. Die Linse weist eine optische Achse 1343 der Kamera auf, die durch den perspektivischen Mittelpunkt 1344 einer Kameralinse geht. Bei dem beispielhaften System 1300 sind die optische Achse des Projektors, die auf den Lichtstrahl 1324 ausgerichtet ist, und die optische Achse 1343 der Kameralinse zu der Lichtlinie 1325, die durch das Ausgangslichtmuster 1321 projiziert wird, rechtwinklig. Mit anderen Worten ist die Linie 1325 in der Richtung zum Papier in 13 rechtwinklig. Die Lichtlinie 1325 trifft auf eine Objektoberfläche, die in einer ersten Entfernung von dem Projektor die Objektoberfläche 1310A ist und in einer zweiten Entfernung von dem Projektor die Objektoberfläche 1320A ist. Es versteht sich, dass auf verschiedenen Höhen über oder unter dem Papier aus 13 die Objektoberfläche in einer anderen Entfernung von dem Projektor sein kann als die Entfernung zu einer der Objektoberflächen 1310A oder 1310B. Für einen Punkt auf der Lichtlinie 1325, der ebenfalls auf dem Papier aus 13 liegt, schneidet sich die Lichtlinie mit der Oberfläche 1310A in einem Punkt 1326 und schneidet sich mit der Oberfläche 1310B in einem Punkt 1327. Für den Fall des Schnittpunkts 1326 verbreitet sich ein Lichtstrahl von dem Punkt 1326 durch den perspektivischen Mittelpunkt 1344 der Kameralinse, um sich mit dem lichtempfindlichen Array 1341 in einem Bildpunkt 1346 zu schneiden. Für den Fall des Schnittpunkts 1327 verbreitet sich ein Lichtstrahl von dem Punkt 1327 durch den perspektivischen Mittelpunkt der Kameralinse, um sich mit dem lichtempfindlichen Array 1341 in einem Bildpunkt 1347 zu schneiden. Dadurch dass die Position des Schnittpunkts in Bezug auf die Position der optischen Achse 1343 der Kameralinse notiert wird, kann die Entfernung von dem Projektor (und der Kamera) zur Objektoberfläche bestimmt werden. Die Entfernung von dem Projektor zu anderen Punkten an dem Schnittpunkt der Lichtlinie 1325 mit der Objektoberfläche, d.h. die Punkte auf der Lichtlinie, die nicht in der Ebene des Papiers aus 13 liegen, kann ähnlich gefunden werden. Normalerweise ist das Muster an dem lichtempfindlichen Array eine Lichtlinie (im Allgemeinen keine gerade Linie), wobei jeder Punkt auf der Linie einer anderen Position entspricht, die zur Ebene des Papiers rechtwinklig ist, und die Position, die zur Ebene des Papiers rechtwinklig ist, enthält die Informationen über die Entfernung von dem Projektor bis zur Kamera. Daher können durch Bewerten des Musters der Linie in dem Bild des lichtempfindlichen Arrays die dreidimensionalen Koordinaten der Objektoberfläche entlang der projizierten Linie gefunden werden. Es sei zu beachten, dass die Informationen, die in dem Bild an dem lichtempfindlichen Array enthalten sind, für den Fall eines Zeilenscanners in einer (generell nicht geraden) Linie enthalten sind.
  • 14 bildet eine Drohne 1400 ab, die konfiguriert ist, um einen 3D-Bildgeber 1410 zu befördern, der einen Zeilenprojektor 1412, eine erste Kamera 1414 und eine zweite Kamera 1416 umfasst. Die erste Kamera ist konfiguriert, um mit dem Zeilenprojektor zusammenzuwirken, um die 3D-Koordinaten von Objektpunkten zu bestimmen, die sich mit der projizierten Linie schneiden. Bei einer Ausführungsform entspricht der Projektor 1412 dem Projektor 1320 aus 13, und die Kamera 1414 entspricht der Kamera 1340 aus 13. Bei einer Ausführungsform ist die zweite Kamera 1416 eine Farbkamera, die konfiguriert ist, um auf sichtbares Licht zu reagieren. Bei einer Ausführungsform ist die Kamera 1416 konfiguriert, um auf Licht von einem stillstehenden externen Projektor zu reagieren, wodurch die Registrierung der mehreren 3D-Datensätze, die durch den Laserscanner über verschiedene Positionen und Orientierungen der Drohne 1400 erhoben werden, ermöglicht wird. Bei einer Ausführungsform ist der 3D-Bildgeber 1410 konfiguriert, um mit einem Computer 626 zu arbeiten, der ein PC sein könnte.
  • 15 bildet eine Messsituation 1500 ab, bei der eine Drohne 1400, die einen 3D-Bildgeber 1410 umfasst, wie in 14 gezeigt, einen Lichtstrahl 1510 projiziert, der eine Lichtlinie 1512 an einer Oberfläche eines Objekts 640 erzeugt. Dieses Bild der Lichtlinie 1512 wird durch die Kamera 1414 aufgenommen und verwendet, um die 3D-Koordinaten der Lichtlinie an der Oberfläche des Objekts 640 in dem Referenzrahmen des 3D-Bildgebers 1410 zu bestimmen. Bei einer Ausführungsform weist die Farbkamera 1416 eine relativ größere Winkelsicht 1520 auf, die einen Bereich 1522 an der Objektoberfläche abdeckt. Die Farbkamera nimmt mehrere Flecken von dem stillstehenden externen Projektor 1000 aus, der ein drehbarer Projektor sein kann, auf. Bei einer Ausführungsform nimmt die Farbkamera die Lichtlinie, die durch den Scanner projiziert wird, sowie die Flecken, die durch den externen Projektor 1000 projiziert werden, auf. Bei einer anderen Ausführungsform umfasst die Farbkamera ein optisches Filter, um die Wellenlänge der projizierten Lichtlinie zu blockieren. In den meisten Fällen fliegt die Drohne relativ nah an dem Objekt 640, wenn sie eine Laserlichtlinie projiziert, da dadurch eine maximale Genauigkeit erzielt werden kann. Bei einer Ausführungsform fliegt die Laserzeilensonde auf einer glatten Bahn, welche die Oberfläche mit der Lichtlinie abdeckt und eine Sammlung von 3D-Koordinaten über einen Oberflächenbereich erzeugt.
  • Bei einer anderen Ausführungsform landet die Drohne, bevor sie das Laserlicht 1512 projiziert. Bei einer Ausführungsform wird eine hochgenaue drehbare Halterung bereitgestellt, um den Lichtstrahl 1510 von dem 3D-Bildgeber 1410 zu lenken. Bei einer Ausführungsform ist die Winkelgenauigkeit des Strahllenkmechanismus hoch, beispielsweise 5 Mikroradianten, wodurch eine hohe Registrierungsgenauigkeit der gemessenen 3D-Koordinaten ermöglicht wird, selbst wenn keine Registrierungsflecken von den Strahlen 1010 bereitgestellt werden.
  • Bei anderen Ausführungsformen kann der Zeilenprojektor 1412 durch einen Flächenprojektor ersetzt werden. Bei einer Ausführungsform projiziert der Flächenprojektor in Einzelaufnahmen codierte Lichtmuster, die durch eine Kamera aufgenommen werden, um die 3D-Koordinatenwerte des Objekts 640 zu bestimmen. Bei einer anderen Ausführungsform landet die Drohne, bevor die Messungen beginnen, und die Drohne projiziert eine Sequenz von Mustern, die bewertet werden, um die 3D-Koordinaten des Objekts 640 mit relativ hoher Genauigkeit zu bestimmen. Ein derartiges sequentielles Messverfahren, das in der Technik bekannt ist, ist das Phasenverschiebungsverfahren, bei dem der Brechwert des projizierten Lichts sinuswellenförmig in einer Richtung moduliert wird und die Phase des Sinuswellenmusters seitlich mindestens dreimal verschoben wird. Wie es in der Technik wohlbekannt ist, sind die sich ergebenden Brechwerte, die an jedem Punkt für jede der drei oder mehreren Phasenverschiebungen erhoben werden, ausreichend, um eine Bestimmung der 3D-Koordinaten zu ermöglichen. Ein Vorteil dieses Verfahrens ist eine hohe Unterdrückung von Hintergrundlicht. Bei einer Ausführungsform wird eine digitale Mikrospiegelvorrichtung (DMD) verwendet, um gewünschte Muster zu erzeugen, wie etwa codierte Muster oder phasenverschobene sinuswellenförmige Muster.
  • Andere Verfahren sind bekannt, um die Wirkungen von Hintergrundlicht zu minimieren. Bei einer Ausführungsform umfassen alle Kameras und Projektoren optische Filter, um gewünschte Lichtwellenlängen durchzulassen und ungewünschte Wellenlängen zu blockieren. In manchen Fällen können diese optischen Filter dielektrische Dünnschichtbeschichtungen sein, die auf Fenster oder Linsen aufgetragen werden. Ein anderes Verfahren, um die Wirkung von Hintergrundlicht zu minimieren, besteht darin, das projizierte Licht zu pulsieren und die Kamerabelichtungszeit entsprechend zu reduzieren. Eine andere Möglichkeit besteht darin, einen schnellen Lock-in-Verstärker zu verwenden, bei dem der Brechwert von Licht moduliert und dann gefiltert wird, um die Modulationsfrequenz zu entnehmen. Bildgebungs-Chips mit einer derartigen Lock-in-Verstärkungsfunktion werden beispielsweise von der Firma Heliotis hergestellt.
  • Bei einer Ausführungsform wird der projizierte Brechwert gemäß der Entfernung von dem Objekt variiert. Beispielsweise kann für den Projektor 350 des 3D-Bildgebers 300 Laserlicht durch ein Beugungsgitter gesendet werden, um Flecken zu erzielen, die über relativ große Entfernungen relativ klein und klar definiert bleiben. In diesem Fall ist es manchmal möglich, Licht in der Lasersicherheitsgrenze der Augenschutzklasse 1 zu projizieren, wenn man auf bis zu 6 Metern von dem Objekt 640 arbeitet. Bei einer Ausführungsform ist ein Beugungsgitter konfiguriert, um einige Flecken zu erzeugen, die stärker als andere sind.
  • Obwohl die zuvor beschriebenen Figuren Messungen im Außenbereich als Beispiele verwendet haben, ist es ebenso möglich, Messungen im Innenbereich, beispielsweise in Fabrikumgebungen, vorzunehmen. In manchen Fällen kann eine Drohne auf eine Sicherheitsregion eingeschränkt sein, in der keine Menschen erlaubt sind. In manchen Fällen kann eine Drohne einen Fallschirm aufweisen, der konfiguriert ist, um sich für den Fall eines Absturzes zu öffnen, der beispielsweise durch eine Trägheitsmesseinheit (IMU) detektiert werden könnte. Bei anderen Ausführungsformen kann eine Drohne an einer Halteleine angebracht sein.
  • 16 bildet eine Messsituation 1600 ab, bei der eine Drohne 1610 einen 3D-Bildgeber 1620 umfasst, der konfiguriert ist, um die 3D-Koordinaten eines Objekts 1630 in Zusammenarbeit mit einem Projektorsystem 1010 zu messen. Bei einer Ausführungsform ist der 3D-Bildgeber 1620 konfiguriert, um mit einer Rechenvorrichtung 626 zusammenzuwirken und kann beispielsweise eine der 3D-Messvorrichtungen 530, 300, 1220 oder 1410 jeweils aus 5, 7, 12 und 14 umfassen. Bei einer Ausführungsform ist das Projektorsystem 1010 konfiguriert, um in einer festgelegten Position zu sitzen, beispielsweise auf einem Pfosten 1030. Bei einer Ausführungsform ist das Projektorsystem 1010 konfiguriert, um sich um zwei Achsen herum zu drehen, beispielsweise um die Achsen 1020 und 1022. Bei einer Ausführungsform ist das Projektorsystem konfiguriert, um Lichtstrahlen 1012 zu projizieren, um eine Sammlung von Flecken 635 in einem Gittermuster zu bilden. Alternativ kann das Projektorsystem 1010 ein beliebiges anderes Lichtmuster projizieren. Bei Ausführungsformen sind die Drohnen zeitweilig auf magnetischen Halterungen oder anderen Strukturen montiert.
  • 17 bildet eine Messsituation 1700 ab, bei der eine Drohne 700, die einen 3D-Bildgeber 300 und eine Rechenvorrichtung 626 umfasst, funktioniert, ohne ein Lichtmuster abzubilden, das durch einen externen Projektor 630 auf das Objekt projiziert wird. Ein 3D-Bildgeber 300, der hier zuvor mit Bezug auf 3 und 7 beschrieben wurde, weist die Fähigkeit auf, ein Objekt in nahen und weiten Entfernungen abzubilden, insbesondere wenn es vorgesehen ist, den Brechwert des projizierten Lichts zu variieren. Es kann beispielsweise möglich sein, dass eine Messvorrichtung in Entfernungen von 6 Metern mit relativ hoher Leistung und relativ niedriger Auflösung misst, während sie in einer Entfernung von 0,5 Metern mit relativ geringer Leistung mit verbesserter Auflösung und Genauigkeit misst. Bei einer Ausführungsform kann die Kamera 390 über ein FOV von ungefähr 60 Grad messen, wodurch viele Zielmerkmale als Kardinalpunkte zur Verwendung bei der Registrierung mehrerer Bilder unter Verwendung von Videogrammetrietechniken aufgenommen werden können. In vielen Fällen ist auf Grund der Vorteile, die durch die mehreren Epipolareinschränkungen bereitgestellt werden, die gleichzeitig eingehalten werden müssen, wie es hier zuvor mit Bezug auf 4B erklärt wurde, eine relativ gute Registrierung und eine relativ gute 3D-Genauigkeit möglich, auch ohne das Projizieren eines Lichtmusters durch einen externen Projektor, wie etwa den Projektor 630. Da die Registrierung relativ gut ist, und da die Szene in 3D sowohl in der Nähe des Objekts als auch von dem Objekt entfernt abgebildet werden kann, kann eine Drohne 1700 in der Lage sein, ihre eigene Leitsteuerung bereitzustellen, vielleicht in Verbindung mit Karten oder CAD-Modellen, die ihr durch einen Computer oder eine Netzwerkschnittstelle bereitgestellt werden.
  • Bei einer Ausführungsform wird eine zusätzliche 3D-Messvorrichtung, wie etwa ein Laser-Tracker, eine Totalstation oder ein Flugzeit- (TOF) Laserscanner, verwendet, um die 3D-Koordinaten von Referenzmarkierungen zu bestimmen, die eine feste Position in Bezug auf ein gemessenes Objekt aufweisen. In diesem Zusammenhang ist ein TOF-Laserscanner eine Vorrichtung, die eine Entfernung und zwei Winkel zu einem diffus streuenden Zielobjekt misst. Der Begriff TOF bedeutet in diesem Fall, dass der Scanner die Zeit misst, die benötigt wird, damit ein emittiertes Lichtsignal das Zielobjekt erreicht und zum Scanner zurückkehrt. Die Lichtgeschwindigkeit in Luft wird kombiniert mit der bestimmten Zeit verwendet, um die Entfernung zum Zielobjekt zu berechnen. Dieses TOF-Verfahren unterscheidet sich von dem Verfahren, das durch einen Triangulations-Scanner (3D-Bildgeber) verwendet wird, das auf einer Triangulationsberechnung basiert und nicht direkt von der Lichtgeschwindigkeit in Luft abhängig ist.
  • Ein Laser-Tracker weist typischerweise eine Genauigkeit von 100 Mikrometern oder besser auf, während Totalstationen und TOF-Laserscanner typischerweise Genauigkeiten von einigen Millimetern aufweisen. Beispielsweise kann ein Laser-Tracker verwendet werden, um zu bestimmen, dass die Entfernung zwischen zwei parallelen Wänden 10 m beträgt. Dieser Entfernungswert ist dann wahrscheinlich mit einer Genauigkeit von etwa 100 Mikrometern bekannt. Dagegen kann ein 3D-Bildgeber 300, der an einer Drohne 700 angebracht ist, diese Entfernung bis auf etwa einen Zentimeter oder vielleicht bis auf ein paar Zentimeter über diese Entfernung von 10 Metern kennen. Die Entfernung zwischen den Wänden, die von dem Tracker gemessen wird, kann dann auf die Messungen übertragen werden, die von dem 3D-Bilgeber 300 zwischen den Wänden vorgenommen werden, und die sich ergebenden Koordinatenwerte können gemäß der genaueren Entfernung, die durch den Laser-Tracker gemessen wird, maßstäblich umgerechnet werden. Ebenso kann eine Totalstation oder ein TOF-Laserscanner verwendet werden, um eine Entfernung zwischen zwei parallelen Wänden mit einer Genauigkeit von einigen Millimetern zu bestimmen, wovon man gewöhnlich immer noch erwartet, dass sie um ein Mehrfaches besser ist als die Genauigkeit über die gleiche Entfernung, die durch eine Drohne 700 gemessen wird. Im weitesten Sinne können die Koordinatenmessungen einer relativ genauen Vorrichtung zum Messen von Referenzkoordinaten, wie etwa eines Laser-Trackers, einer Totalstation oder eines TOF-Scanners, Messungen vornehmen, die eine Verbesserung der Messungen ermöglichen, die von einer Drohne vorgenommen werden, die einen 3D-Bildgeber umfasst. Meistens ist diese Verbesserung möglich, selbst wenn ein externer Projektor kombiniert mit dem von der Drohne beförderten 3D-Bildgeber verwendet wird.
  • Bei einer Ausführungsform stellt ein Computer 626 eine Remote-Desktop-Verbindung mit einem PC im Besitz eines Bedieners her. Der Bediener sieht dann alle Daten, die durch den Computer 626 erhoben und verarbeitet werden. Bei einer anderen Ausführungsform werden die Daten an einen entfernten Computer oder ein Computernetzwerk über eine schnelle drahtlose Datenverbindung zur weiteren Verarbeitung gesendet. Bei einer weiteren Ausführungsform werden die Daten an einen entfernten Computer über eine drahtgebundene Verbindung, wie etwa eine Ethernet-Verbindung, gesendet. Eine drahtgebundene Verbindung ist beispielsweise praktisch, falls die Drohne an einer Halteleine angebracht ist. Bei einigen Ausführungsformen werden ausführliche Daten im Speicher auf der Drohne zur Nachverarbeitung gespeichert, während 2D- und 3D-Daten drahtlos jedoch mit einer niedrigeren Bildrate, beispielsweise mit 3 oder 4 Einzelbildern pro Sekunde, an eine entfernte Rechenvorrichtung gesendet werden.
  • 18 beschreibt das Computersystem, das mit den hier zuvor beschriebenen Drohnensystemen verknüpft ist, näher. Das Drohnensystem, das eines der Drohnensysteme sein kann, die hier zuvor beschrieben wurden, umfasst die Rechenelemente 626. Meistens umfassen die Rechenelemente 626 mindestens einen Prozessor, einen Speicher und eine Kommunikationsschnittfläche. Manchmal entsprechen die Rechenelemente 626 einem PC, so dass eine Remote-Desktop-Verbindung mit einem entfernten Computer hergestellt werden kann. Die Rechenelemente 626 sind Teil eines Gesamtrechensystems 1800, das wahlweise ein oder mehrere zusätzliche Rechenelemente 1810 und 1820 und eine Networking-Computing-Komponente (Cloud) 1830 umfassen kann. Die Netzwerkschnittstelle, die durch die Rechenelemente 626 bereitgestellt wird, kann eine drahtgebundene oder drahtlose Kommunikation zwischen den Rechenelementen 626 und den optionalen Rechenelementen 1810, 1820 und 1830 unterstützen.
  • Gemäß einer Ausführungsform wird ein dreidimensionales (3D) Koordinatenmesssystem bereitgestellt. Das System umfasst einen externen Projektor, der konfiguriert ist, um im Stillstand zu funktionieren, und um ein erstes projiziertes Lichtmuster auf ein Objekt zu projizieren. Das System umfasst ferner eine luftgetragene Messvorrichtung, die eine luftgetragene Drohne und eine 3D-Bildgebungsvorrichtung umfasst, wobei die 3D-Bildgebungsvorrichtung an der luftgetragenen Drohne angebracht ist, wobei die luftgetragene Messvorrichtung von dem externen Projektor getrennt ist, wobei die luftgetragene Messvorrichtung konfiguriert ist, um mit dem externen Projektor zusammenzuwirken, um die 3D-Koordinaten des Objekts zu bestimmen.
  • Bei einer Ausführungsform umfasst die 3D-Bildgebungsvorrichtung ferner eine erste zweidimensionale (2D) Kamera, die konfiguriert ist, um ein erstes 2D-Bild von einer ersten Position der luftgetragenen Drohne und ein zweites 2D-Bild von einer zweiten Position der luftgetragenen Drohne aufzunehmen, wobei die zweite Position anders als die erste Position ist. Die 3D-Bildgebungsvorrichtung ist konfiguriert, um drei Kardinalpunkte zu identifizieren, die dem ersten Bild und dem zweiten Bild gemeinsam sind, wobei jeder der drei Kardinalpunkte von dem ersten projizierten Lichtmuster an dem Objekt oder von natürlichen Merkmalen des Objekts abgeleitet wird, wobei mindestens einer der drei Kardinalpunkte von dem ersten projizierten Lichtmuster abgeleitet wird. Bei dieser Ausführungsform ist die 3D-Bildgebungsvorrichtung ferner konfiguriert, um erste 3D-Koordinaten eines ersten Objektpunkts, zweite 3D-Koordinaten eines zweiten Objektpunkts und dritte 3D-Koordinaten eines dritten Objekts zu bestimmen, wobei die bestimmten ersten 3D-Koordinaten, die bestimmten zweiten 3D-Koordinaten und die bestimmten dritten 3D-Koordinaten mindestens teilweise auf den drei Kardinalpunkten in dem ersten Bild und den drei Kardinalpunkten in dem zweiten Bild basieren.
  • Bei einer anderen Ausführungsform ist bei dem beanspruchten 3D-Koordinatenmesssystem der externe Projektor konfiguriert, um eine erste Sammlung von Lichtflecken auf das Objekt zu projizieren. Bei einer anderen Ausführungsform umfasst der externe Projektor eine Laserlichtquelle und ein Beugungsgitter, wobei der externe Projektor konfiguriert ist, um Laserlicht durch das Beugungsgitter hindurch und auf das Objekt zu projizieren. Bei einer anderen Ausführungsform ist der externe Projektor konfiguriert, um den Brechwert des Laserlichts gemäß der Lichtmenge, die durch die Pixel der ersten 2D-Kamera empfangen wird, anzupassen.
  • Bei noch einer anderen Ausführungsform umfasst das System ferner einen internen Projektor, der konfiguriert ist, um ein zweites Muster von projiziertem Licht durch einen perspektivischen Mittelpunkt des Projektors auf das Objekt zu projizieren. Eine zweite 2D-Kamera ist konfiguriert, um ein zweites Kamerabild des zweiten Musters von projiziertem Licht an dem Objekt zu bilden, wobei die zweite 2D-Kamera einen perspektivischen Mittelpunkt der Kamera aufweist, wobei es eine Basislinie zwischen dem perspektivischen Mittelpunkt des Projektors und dem perspektivischen Mittelpunkt der Kamera gibt, wobei die Länge der Basislinie eine Basislinienentfernung ist. Die 3D-Bildgebungsvorrichtung ist ferner konfiguriert, um die 3D-Koordinaten des Objekts basierend mindestens teilweise auf dem zweiten Muster von projiziertem Licht, dem zweiten Kamerabild und der Basislinienentfernung zu bestimmen.
  • Bei einer Ausführungsform ist die erste 2D-Kamera eine Farbkamera. Bei einer Ausführungsform ist der interne Projektor konfiguriert, um Licht eines pulsierten Lichtmusters zu projizieren.
  • Bei noch einer anderen Ausführungsform ist der externe Projektor ferner konfiguriert, um durch eine motorisierte Vorrichtung bewegt zu werden. Bei einer Ausführungsform ist die motorisierte Vorrichtung eine mobile Plattform, die motorisierte Räder aufweist. Bei einer Ausführungsform ist die motorisierte Vorrichtung eine luftgetragene Drohne.
  • Bei noch einer anderen Ausführungsform ist die luftgetragene Drohne ein Hubschrauber. Bei einer Ausführungsform ist die luftgetragene Drohne ein Quadrokopter. Bei noch einer anderen Ausführungsform ist die luftgetragene Drohne ein Starrflügelflugzeug. Bei einer Ausführungsform ist das zweite Muster von projiziertem Licht eine Lichtlinie.
  • Bei noch einer anderen Ausführungsform umfasst der externe Projektor einen ersten Mechanismus, der konfiguriert ist, um Licht von dem externen Projektor in eine Vielzahl von Richtungen zu lenken. Bei einer Ausführungsform ist der erste Mechanismus konfiguriert, um das Licht von dem externen Projektor um zwei orthogonale Achsen herum zu lenken. Bei einer Ausführungsform wird ein Winkelgeber des Projektors bereitgestellt, um einen Drehwinkel des ersten Mechanismus zu messen. Bei einer Ausführungsform umfasst die luftgetragene Drohnenvorrichtung ferner einen zweiten Mechanismus, der konfiguriert ist, um die 3D-Bildgebungsvorrichtung in eine Vielzahl von Richtungen zu lenken. Bei einer Ausführungsform ist der zweite Mechanismus ferner konfiguriert, um die 3D-Bildgebungsvorrichtung um zwei orthogonale Achsen herum zu lenken. Bei einer Ausführungsform wird ein Winkelgeber bereitgestellt, um einen Drehwinkel des zweiten Mechanismus zu messen.
  • Bei noch einer anderen Ausführungsform ist das System ferner konfiguriert, um eine Bewegung des externen Projektors in Bezug auf das Objekt zu detektieren, wobei die Bestimmung mindestens teilweise auf der Bewegung des ersten projizierten Lichtmusters in Bezug auf und an Kardinalpunkten basiert, die auf natürlichen Merkmalen des Objekts basieren. Bei einer Ausführungsform ist das System ferner konfiguriert, um eine Lage des externen Projektors basierend mindestens teilweise auf dem ersten projizierten Lichtmuster und auf den Kardinalpunkten, die von natürlichen Merkmalen des Objekts erzielt werden, zu bestimmen. Bei einer Ausführungsform ist das System ferner konfiguriert, um eine Bewegung des externen Projektors in Bezug auf das Objekt zu detektieren, wobei die relative Bewegung basierend mindestens teilweise auf dem ersten projizierten Lichtmuster, einer beobachteten Bewegung des ersten projizierten Lichtmusters, dem zweiten Muster von projiziertem Licht, dem zweiten Kamerabild und der Basislinienentfernung bestimmt wird. Bei einer Ausführungsform ist das System konfiguriert, um eine Lage des externen Projektors basierend mindestens teilweise auf dem ersten projizierten Lichtmuster, der beobachteten Bewegung des ersten projizierten Lichtmusters, dem zweiten Muster von projiziertem Licht, dem zweiten Kamerabild und der Basislinienentfernung zu bestimmen.
  • Gemäß einer anderen Ausführungsform wird ein dreidimensionales (3D) Koordinatenmesssystem bereitgestellt. Das System umfasst einen externen Projektor, der konfiguriert ist, um ein erstes projiziertes Lichtmuster auf ein Objekt zu projizieren. Das System umfasst ferner eine luftgetragene Messvorrichtung in einem Referenzrahmen der Vorrichtung, wobei die luftgetragene Messvorrichtung einen Triangulations-Scanner und eine Registrierungskamera umfasst, wobei der Triangulations-Scanner einen internen Projektor und eine erste Kamera umfasst, wobei der Triangulations-Scanner konfiguriert ist, um die 3D-Koordinaten des Objekts in dem Referenzrahmen der Vorrichtung in einer ersten Instanz und einer zweiten Instanz zu bestimmen, wobei die Registrierungskamera konfiguriert ist, um das erste projizierte Lichtmuster in der ersten Instanz und der zweiten Instanz abzubilden, wobei die luftgetragene Messvorrichtung konfiguriert ist, um in einem gemeinsamen Referenzrahmen die bestimmten 3D-Koordinaten in der ersten Instanz und in der zweiten Instanz basierend mindestens teilweise auf dem Bild der Registrierungskamera des ersten projizierten Lichtmusters in der ersten Instanz und der zweiten Instanz zu registrieren.
  • Bei einer anderen Ausführungsform wird das erste projizierte Lichtmuster von dem externen Projektor projiziert, während der externe Projektor stillsteht. Bei einer anderen Ausführungsform ist der externe Projektor an einer motorisierten mobilen Plattform angebracht, die konfiguriert ist, um den externen Projektor in mehrere Positionen zu bewegen.
  • Bei einer Ausführungsform umfasst die motorisierte mobile Plattform motorisierte Räder. Bei einer Ausführungsform ist die motorisierte mobile Plattform eine Drohne. Bei einer Ausführungsform ist die motorisierte mobile Plattform ein Hubschrauber. Bei einer Ausführungsform ist die motorisierte mobile Plattform ein Quadrokopter. Bei einer Ausführungsform ist die motorisierte mobile Plattform konfiguriert, um den externen Projektor derart zu bewegen, dass ein Teil des ersten projizierten Musters Bildern gemeinsam ist, die durch die Registrierungskamera vor und nach der Bewegung des externen Projektors erzielt werden.
  • Bei noch einer anderen Ausführungsform ist ein Drehmechanismus konfiguriert, um das erste projizierte Lichtmuster um eine erste Achse herum zu drehen. Bei einer Ausführungsform ist der Drehmechanismus konfiguriert, um das erste projizierte Lichtmuster um eine zweite Achse herum zu drehen. Bei einer Ausführungsform ist ein Winkelgeber konfiguriert, um einen Drehwinkel des ersten projizierten Lichtmusters um die erste Achse herum zu messen. Bei einer Ausführungsform ist der Drehmechanismus konfiguriert, um das erste projizierte Lichtmuster um die erste Achse herum zu drehen, um das erste projizierte Lichtmuster in ein Sehfeld der Registrierungskamera zu bringen.
  • Bei noch einer anderen Ausführungsform ist die motorisierte mobile Plattform konfiguriert, um den externen Projektor zu bewegen, um das erste projizierte Lichtmuster in ein Sehfeld der Registrierungskamera zu bringen.
  • Bei einer Ausführungsform ist die motorisierte mobile Plattform konfiguriert, um den externen Projektor derart zu bewegen, dass ein Teil des ersten projizierten Musters den Bildern gemeinsam ist, die durch die Registrierungskamera vor oder nach der Bewegung des externen Projektors erzielt werden.
  • Bei einer Ausführungsform ist der Drehmechanismus konfiguriert, um das erste projizierte Lichtmuster derart zu drehen, dass ein Teil des ersten projizierten Musters Bildern gemeinsam ist, die durch die Registrierungskamera vor und nach der Bewegung des externen Projektors erzielt werden.
  • Bei noch einer anderen Ausführungsform umfasst das erste projizierte Lichtmuster eine Sammlung von beleuchteten Rasterpunkten. Bei einer Ausführungsform ist die motorisierte mobile Plattform konfiguriert, um den externen Projektor zu bewegen, um die Anzahl von Rasterpunkten, die von der Registrierungskamera gesehen werden, über einer vorgegebenen Mindestanzahl und unter einer vorgegebenen Höchstanzahl zu halten. Bei einer Ausführungsform ist der Drehmechanismus konfiguriert, um das erste projizierte Lichtmuster derart zu drehen, dass die Anzahl von Rasterpunkten, die durch die Registrierungskamera gesehen werden, über einer vorgegebenen Mindestanzahl und unter einer vorgegebenen Höchstanzahl bleibt. Bei einer Ausführungsform wird der Brechwert der projizierten Rasterpunkte angepasst, um den Lichtpegel, der von den Pixeln in der Registrierungskamera empfangen wird, in einem vorgegebenen Bereich zu halten. Bei noch einer anderen Ausführungsform ist die Registrierungskamera eine Farbkamera.
  • Gemäß einer anderen Ausführungsform wird ein dreidimensionales (3D) Koordinatenmesssystem bereitgestellt. Das System umfasst eine luftgetragene Drohne, die an einem Triangulations-Scanner und einer Registrierungskamera angebracht ist. Der Triangulations-Scanner umfasst einen ersten Projektor, eine erste Kamera und eine zweite Kamera, wobei die erste Kamera, die zweite Kamera und die dritte Kamera in einem Dreieck angeordnet sind. Der erste Projektor, die erste Kamera und die zweite Kamera weisen erste Epipolareinschränkungen auf. Der erste Projektor ist konfiguriert, um ein projiziertes erstes Lichtmuster auf das Objekt zu projizieren. Die erste Kamera ist konfiguriert, um ein erstes Bild des projizierten ersten Lichtmusters auf dem Objekt zu bilden. Die zweite Kamera ist konfiguriert, um ein zweites Bild des projizierten ersten Lichtmusters auf dem Objekt zu bilden. Das System ist ferner konfiguriert, um die 3D-Koordinaten eines Objekts basierend mindestens teilweise auf dem projizierten ersten Lichtmuster, dem ersten Bild, dem zweiten Bild und den ersten Epipolareinschränkungen zu bestimmen, wobei die Registrierungskamera konfiguriert ist, um ein Bild des Objekts zu erzielen und aus dem Bild Kardinalpunkte basierend auf natürlichen Merkmalen des Objekts zu entnehmen. Das System ist ferner konfiguriert, um mehrere Sätze der 3D-Koordinaten zu registrieren, die von dem Triangulations-Scanner erzielt werden, wobei die Registrierung mindestens teilweise auf dem Abgleichen von gemeinsamen Kardinalpunkten basiert, die in aufeinanderfolgenden Bildern der Registrierungskamera vorliegen.
  • Bei noch einer anderen Ausführungsform ist die luftgetragene Drohne konfiguriert, um gemäß Navigationssignalen zu fliegen, wobei die Navigationssignale mindestens teilweise auf Daten von der Registrierungskamera basieren. Bei einer anderen Ausführungsform ist die luftgetragene Drohne ferner konfiguriert, um gemäß einem Merkmalsdetailniveau, das in den Bildern der Registrierungskamera vorliegt, näher an einem Objekt zu fliegen oder weiter von einem Objekt entfernt zu fliegen. Bei einer anderen Ausführungsform ist die Registrierungskamera eine Farbkamera und das 3D-Koordinatenmesssystem ist ferner konfiguriert, um die beobachteten Farben an die registrierten 3D-Koordinaten zu setzen.
  • Bei noch einer anderen Ausführungsform umfasst das System ferner einen Drohnencomputer, der konfiguriert ist, um mit einem entfernten Computer im Remote-Desktop-Modus zu kommunizieren, wobei der Drohnencomputer konfiguriert ist, um es einem entfernten Benutzer zu ermöglichen, Bilder zu betrachten, die von der luftgetragenen Drohne erzielt werden.
  • Bei noch einer anderen Ausführungsform umfasst das System ferner einen Drohnencomputer, der konfiguriert ist, um mit einem entfernten Computer über drahtgebundene oder drahtlose Signale zu kommunizieren.
  • Bei noch einer anderen Ausführungsform umfasst das System ferner Einschränkungen, damit die Drohne in Sicherheitszonen bleibt, wobei die Einschränkungen aus der Gruppe ausgewählt werden, die aus einer Halteleine und einer Sperre besteht.
  • Obwohl die Erfindung in Verbindung mit nur einer eingeschränkten Anzahl von Ausführungsformen ausführlich beschrieben wurde, versteht es sich ohne Weiteres, dass die Erfindung nicht auf diese offenbarten Ausführungsformen eingeschränkt ist. Vielmehr kann die Erfindung geändert werden, um eine beliebige Anzahl von Variationen, Änderungen, Ersetzungen oder gleichwertigen Anordnungen einzubeziehen, die bisher nicht beschrieben wurden, die jedoch mit Geist und Umfang der Erfindung übereinstimmen. Obwohl zudem diverse Ausführungsformen der Erfindung beschrieben wurden, versteht es sich, dass die Aspekte der Erfindung nur einige der beschriebenen Ausführungsformen umfassen können. Entsprechend ist die Erfindung nicht als durch die vorstehende Beschreibung eingeschränkt anzusehen, sondern ist nur durch den Umfang der beiliegenden Ansprüche eingeschränkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/215978 [0001]
    • US 62/216021 [0001]
    • US 62/216027 [0001]
    • US 6711293 [0035]

Claims (20)

  1. Dreidimensionales (3D) Koordinatenmesssystem, umfassend: einen externen Projektor, der betriebsfähig ist, um im Stillstand zu funktionieren, und um ein erstes projiziertes Lichtmuster auf ein Objekt zu projizieren; und eine luftgetragene Messvorrichtung, die eine luftgetragene Drohne und eine 3D-Bildgebungsvorrichtung umfasst, wobei die 3D-Bildgebungsvorrichtung an der luftgetragenen Drohne angebracht ist, die luftgetragene Messvorrichtung von dem externen Projektor getrennt ist, wobei die luftgetragene Messvorrichtung betriebsfähig ist, um mit dem externen Projektor zusammenzuwirken, um die 3D-Koordinaten des Objekts zu bestimmen.
  2. 3D-Koordinatenmesssystem nach Anspruch 1, wobei: die luftgetragene Drohne von einer ersten Position in eine zweite Position bewegbar ist; die 3D-Bildgebungsvorrichtung ferner eine erste zweidimensionale (2D) Kamera umfasst, die betriebsfähig ist, um ein erstes 2D-Bild von der ersten Position und ein zweites 2D-Bild von der zweiten Position aufzunehmen; ein oder mehrere Prozessoren konfiguriert ist bzw. sind, um computerlesbare Anweisungen auszuführen, wobei die computerlesbaren Anweisungen Folgendes umfassen: Identifizieren mit der 3D-Bildgebungsvorrichtung von drei Kardinalpunkten, die dem ersten Bild und dem zweiten Bild gemeinsam sind; Ableiten jedes der drei Kardinalpunkte von dem ersten projizierten Lichtmuster auf dem Objekt oder von natürlichen Merkmalen des Objekts, wobei mindestens einer der drei Kardinalpunkte von dem ersten projizierten Lichtmuster abgeleitet wird; Bestimmen von ersten 3D-Koordinaten eines ersten Objektpunkts; Bestimmen von zweiten 3D-Koordinaten eines zweiten Objektpunkts; und Bestimmen von dritten 3D-Koordinaten eines dritten Objekts, wobei die bestimmten ersten 3D-Koordinaten, die bestimmten zweiten 3D-Koordinaten und die bestimmten dritten 3D-Koordinaten mindestens teilweise auf den drei Kardinalpunkten in dem ersten Bild und den drei Kardinalpunkten in dem zweiten Bild basieren.
  3. 3D-Koordinatenmesssystem nach Anspruch 2, wobei die computerlesbaren Anweisungen ferner Folgendes umfassen: Konfigurieren des externen Projektors, um eine erste Sammlung von Lichtflecken auf das Objekt zu projizieren, wobei der externe Projektor eine Laserlichtquelle und ein Beugungsgitter umfasst; Projizieren mit dem Laserlicht des externen Projektors durch das Beugungsgitter und auf das Objekt; und Anpassen des Brechwerts des Laserlichts gemäß einer Lichtmenge, die von den Pixeln der ersten 2D-Kamera empfangen wird.
  4. 3D-Koordinatenmesssystem nach Anspruch 2, ferner umfassend: einen internen Projektor, der betriebsfähig ist, um ein zweites Muster von projiziertem Licht durch einen perspektivischen Mittelpunkt des Projektors auf das Objekt zu projizieren, wobei der interne Projektor konfiguriert ist, um ein gepulstes Lichtmuster zu projizieren, wobei das zweite Muster von projiziertem Licht eine Lichtlinie ist; eine zweite 2D-Kamera, die betriebsfähig ist, um ein zweites Kamerabild des zweiten Musters von projiziertem Licht auf dem Objekt zu bilden, wobei die zweite 2D-Kamera einen perspektivischen Mittelpunkt der Kamera aufweist, wobei es eine Basislinie zwischen dem perspektivischen Mittelpunkt des Projektors und dem perspektivischen Mittelpunkt der Kamera gibt, wobei die Länge der Basislinie eine Basislinienentfernung ist, wobei die erste 2D-Kamera eine Farbkamera ist; wobei die luftgetragene Drohnenvorrichtung ferner einen zweiten Mechanismus umfasst, der betriebsfähig ist, um die 3D-Bildgebungsvorrichtung in eine Vielzahl von Richtungen zu lenken, wobei der zweite Mechanismus betriebsfähig ist, um die 3D-Bildgebungsvorrichtung um zwei orthogonale Achsen herum zu lenken, und ein Winkelgeber bereitgestellt wird, um einen Drehwinkel des zweiten Mechanismus zu messen; und wobei die computerlesbaren Anweisungen ferner das Bestimmen der 3D-Koordinaten des Objekts basierend mindestens teilweise auf dem zweiten Muster von projiziertem Licht, dem zweiten Kamerabild und der Basislinienentfernung umfassen.
  5. 3D-Koordinatenmesssystem nach Anspruch 1, wobei der externe Projektor ferner konfiguriert ist, um durch eine motorisierte Vorrichtung bewegt zu werden, wobei die motorisierte Vorrichtung eine von einer mobilen Plattform mit motorisierten Rädern oder einer luftgetragenen Drohne ist.
  6. 3D-Koordinatenmesssystem nach Anspruch 1, wobei: der externe Projektor einen ersten Mechanismus umfasst, die betriebsfähig ist, um Licht von dem externen Projektor in eine Vielzahl von Richtungen zu lenken; der erste Mechanismus betriebsfähig ist, um das Licht von dem externen Projektor um zwei orthogonale Achsen herum zu lenken; und ein Winkelgeber des Projektors bereitgestellt wird, um einen Drehwinkel des ersten Mechanismus zu messen.
  7. 3D-Koordinatenmesssystem nach Anspruch 2, wobei die computerlesbaren Anweisungen ferner Folgendes umfassen: Detektieren einer Bewegung des externen Projektors in Bezug auf das Objekt, wobei die Bestimmung mindestens teilweise auf der Bewegung des ersten projizierten Lichtmusters in Bezug auf und an Kardinalpunkten basiert, die auf natürlichen Merkmalen des Objekts basieren; und Bestimmen einer Lage des externen Projektors basierend mindestens teilweise auf dem ersten projizierten Lichtmuster und auf den Kardinalpunkten, die von natürlichen Merkmalen des Objekts erzielt werden.
  8. 3D-Koordinatenmesssystem nach Anspruch 4, wobei die computerlesbaren Anweisungen ferner Folgendes umfassen: Detektieren einer Bewegung des externen Projektors in Bezug auf das Objekt, wobei die relative Bewegung basierend mindestens teilweise auf dem ersten projizierten Lichtmuster, einer beobachteten Bewegung des ersten projizierten Lichtmusters, dem zweiten Muster von projiziertem Licht, dem zweiten Kamerabild und der Basislinienentfernung bestimmt wird; und Bestimmen ein Lage des externen Projektors basierend mindestens teilweise auf dem ersten projizierten Lichtmuster, der beobachteten Bewegung des ersten projizierten Lichtmusters, dem zweiten Muster von projiziertem Licht, dem zweiten Kamerabild und der Basislinienentfernung.
  9. Dreidimensionales (3D) Koordinatenmesssystem, umfassend: einen externen Projektor, der betriebsfähig ist, um ein erstes projiziertes Lichtmuster auf ein Objekt zu projizieren; eine luftgetragene Messvorrichtung in einem Referenzrahmen der Vorrichtung, wobei die luftgetragene Messvorrichtung einen Triangulations-Scanner und eine Registrierungskamera umfasst, wobei der Triangulations-Scanner einen internen Projektor und eine erste Kamera umfasst; und einen oder mehrere Prozessoren, der bzw. die konfiguriert ist bzw. sind, um computerlesbare Anweisungen auszuführen, wobei die computerlesbaren Anweisungen Folgendes umfassen: Bestimmen mit dem Triangulations-Scanner der 3D-Koordinaten des Objekts in dem Referenzrahmen der Vorrichtung in einer ersten Instanz und einer zweiten Instanz; Erfassen eines Bildes mit der Registrierungskamera des ersten projizierten Lichtmusters in der ersten Instanz und der zweiten Instanz; und Registrieren in einem gemeinsamen Referenzrahmen der bestimmten 3D-Koordinaten in der ersten Instanz und in der zweiten Instanz basierend mindestens teilweise auf dem Bild der Registrierungskamera des ersten projizierten Lichtmusters in der ersten Instanz und der zweiten Instanz.
  10. 3D-Koordinatenmesssystem nach Anspruch 9, wobei das erste projizierte Lichtmuster von dem externen Projektor projiziert wird, während der externe Projektor stillsteht.
  11. 3D-Koordinatenmesssystem nach Anspruch 9, wobei der externe Projektor an einer motorisierten mobilen Plattform angebracht ist, die betriebsfähig ist, um den externen Projektor in mehrere Positionen zu bewegen, wobei die motorisierte mobile Plattform aus einer Gruppe ausgewählt wird, die ein Gerät mit motorisierten Rädern, eine Drohne, einen Hubschrauber und einen Quadrokopter umfasst; und wobei die motorisierte mobile Plattform betriebsfähig ist, um den externen Projektor zu bewegen, um das erste projizierte Lichtmuster in ein Sehfeld der Registrierungskamera zu bringen.
  12. 3D-Koordinatenmesssystem nach Anspruch 9, ferner umfassend: einen Drehmechanismus, der betriebsfähig ist, um das erste projizierte Lichtmuster um eine erste Achse herum zu drehen, wobei der Drehmechanismus betriebsfähig ist, um das erste projizierte Lichtmuster um eine zweite Achse herum zu drehen, und wobei der Drehmechanismus ferner betriebsfähig ist, um das erste projizierte Lichtmuster um die erste Achse herum zu drehen, um das erste projizierte Lichtmuster in ein Sehfeld der Registrierungskamera zu bringen, wobei das erste projizierte Muster derart gedreht wird, dass ein Teil des ersten projizierten Musters Bildern gemeinsam ist, die durch die Registrierungskamera vor und nach der Bewegung des externen Projektors erzielt werden; und einen Winkelgeber, der konfiguriert ist, um einen Drehwinkel des ersten projizierten Lichtmusters um die erste Achse herum zu messen.
  13. 3D-Koordinatenmesssystem nach Anspruch 11, wobei die motorisierte mobile Plattform betriebsfähig ist, um den externen Projektor derart zu bewegen, dass ein Teil des ersten projizierten Musters Bildern gemeinsam ist, die durch die Registrierungskamera vor und nach der Bewegung des externen Projektors erzielt werden.
  14. 3D-Koordinatenmesssystem nach Anspruch 11, wobei: das erste projizierte Lichtmuster eine Sammlung von beleuchteten Rasterpunkten umfasst; die computerlesbaren Anweisungen ferner Folgendes umfassen: Anpassen des Brechwerts der Sammlung von beleuchteten Rasterpunkten, um den Lichtpegel, der von den Pixeln in die Registrierungskamera empfangen wird, in einem vorgegebenen Bereich zu halten; Drehen mit dem Drehmechanismus des ersten projizierten Lichtmusters, um die Anzahl von Rasterpunkten in der Sammlung von beleuchteten Rasterpunkten, die in Bildern durch die Registrierungskamera erfasst werden, über einer vorbestimmten ersten Mindestschwelle und unter einer vorbestimmten ersten Höchstschwelle zu halten; und Bewegen mit der motorisierten mobilen Plattform des externen Projektors, um die Anzahl von Rasterpunkten in der Sammlung von beleuchteten Rasterpunkten, die in Bildern durch die Registrierungskamera erfasst werden, über einer vorbestimmten zweiten Mindestschwelle und unter einer vorbestimmten zweiten Höchstschwelle zu halten.
  15. Dreidimensionales (3D) Koordinatenmesssystem, umfassend: eine luftgetragene Drohne, die mit einem Triangulations-Scanner und einer Registrierungskamera gekoppelt ist; wobei der Triangulations-Scanner einen ersten Projektor, eine erste Kamera und eine zweite Kamera umfasst, wobei die erste Kamera, die zweite Kamera und der erste Projektor in einem Dreieck angeordnet sind, wobei der erste Projektor, die erste Kamera und die zweite Kamera erste Epipolareinschränkungen aufweisen, wobei der erste Projektor konfiguriert ist, um ein erstes Lichtmuster auf das Objekt zu projizieren, wobei die erste Kamera konfiguriert ist, um ein erstes Bild des projizierten ersten Lichtmusters auf dem Objekt zu bilden, wobei die zweite Kamera konfiguriert ist, um ein zweites Bild des projizierten ersten Lichtmusters auf dem Objekt zu bilden; und einen oder mehrere Prozessoren, der bzw. die konfiguriert ist bzw. sind, um computerlesbare Anweisungen auszuführen, wobei die computerlesbaren Anweisungen Folgendes umfassen: Bestimmen der 3D-Koordinaten eines Objekts basierend mindestens teilweise auf dem projizierten ersten Lichtmuster, dem ersten Bild, dem zweiten Bild und den ersten Epipolareinschränkungen; Erzielen mit der Registrierungskamera eines Bildes des Objekts; Entnehmen aus dem Bild von Kardinalpunkten, die auf natürlichen Merkmalen des Objekts basieren; und Registrieren mehrerer Sätze der 3D-Koordinaten, die von dem Triangulations-Scanner erzielt werden, wobei die Registrierung mindestens teilweise auf dem Abgleichen von gemeinsamen Kardinalpunkten, die in aufeinanderfolgenden Bildern der Registrierungskamera vorliegen, basiert.
  16. 3D-Koordinatenmesssystem nach Anspruch 15, wobei die computerlesbaren Anweisungen ferner das Fliegen der luftgetragenen Drohne basierend auf Navigationssignalen umfassen, wobei die Navigationssignale mindestens teilweise auf Daten von der Registrierungskamera basieren.
  17. 3D-Koordinatenmesssystem nach Anspruch 16, wobei die computerlesbaren Anweisungen ferner Folgendes umfassen: Detektieren eines Merkmalsdetailniveaus in den Bildern, die von der Registrierungskamera erfasst werden; und Fliegen der luftgetragenen Drohne über eine Entfernung von dem Objekt basierend auf dem Merkmalsdetailniveau, wobei die Registrierungskamera eine Farbkamera ist und die computerlesbaren Anweisungen ferner das Zuteilen von Farben, die durch die Registrierungskamera erfasst werden, zu den registrierten 3D-Koordinaten umfassen.
  18. 3D-Koordinatenmesssystem nach Anspruch 15, wobei die computerlesbaren Anweisungen ferner Folgendes umfassen: Kommunizieren zwischen dem luftgetragenen Fahrzeug und einem entfernt aufgestellten Computer in einem Remote-Desktop-Modus; und Ermöglichen, dass ein entfernter Benutzer Bilder betrachtet, die von der luftgetragenen Drohne erzielt werden.
  19. 3D-Koordinatenmesssystem nach Anspruch 15, wobei die computerlesbaren Anweisungen ferner das Kommunizieren mit einem entfernt aufgestellten Computer über drahtgebundene oder drahtlose Signale umfassen.
  20. 3D-Koordinatenmesssystem nach Anspruch 15, wobei die computerlesbaren Anweisungen ferner das Halten der Drohne in Sicherheitszonen umfassen, basierend auf Einschränkungen, die aus der Gruppe ausgewählt werden, die aus einer Halteleine und einer Sperre besteht.
DE112016004085.7T 2015-09-09 2016-08-30 Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung Withdrawn DE112016004085T5 (de)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201562216027P 2015-09-09 2015-09-09
US201562216021P 2015-09-09 2015-09-09
US201562215978P 2015-09-09 2015-09-09
US62/216,021 2015-09-09
US62/216,027 2015-09-09
US62/215,978 2015-09-09
US15/250,324 2016-08-29
US15/250,324 US9989357B2 (en) 2015-09-09 2016-08-29 Aerial device that cooperates with an external projector to measure three-dimensional coordinates
PCT/US2016/049372 WO2017044344A1 (en) 2015-09-09 2016-08-30 Aerial device that cooperates with an external projector to measure three-dimensional coordinates

Publications (1)

Publication Number Publication Date
DE112016004085T5 true DE112016004085T5 (de) 2018-06-14

Family

ID=58190420

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016004085.7T Withdrawn DE112016004085T5 (de) 2015-09-09 2016-08-30 Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung

Country Status (4)

Country Link
US (3) US9989357B2 (de)
DE (1) DE112016004085T5 (de)
GB (1) GB2556802A (de)
WO (1) WO2017044344A1 (de)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9402070B2 (en) 2014-06-12 2016-07-26 Faro Technologies, Inc. Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality
US10021379B2 (en) 2014-06-12 2018-07-10 Faro Technologies, Inc. Six degree-of-freedom triangulation scanner and camera for augmented reality
WO2016015943A1 (en) * 2014-08-01 2016-02-04 Koninklijke Philips N.V. System, device for creating an aerial image
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US9506744B2 (en) 2014-12-16 2016-11-29 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
US10620300B2 (en) 2015-08-20 2020-04-14 Apple Inc. SPAD array with gated histogram construction
US9989357B2 (en) * 2015-09-09 2018-06-05 Faro Technologies, Inc. Aerial device that cooperates with an external projector to measure three-dimensional coordinates
US10621433B1 (en) * 2015-12-18 2020-04-14 EControls Holdings, KKC Multiscopic whitetail scoring game camera systems and methods
CN105627926B (zh) * 2016-01-22 2017-02-08 尹兴 四像机组平面阵列特征点三维测量***及测量方法
DE102016206982B4 (de) 2016-04-25 2022-02-10 Siemens Aktiengesellschaft Flugmobil zum Scannen eines Objekts und System zur Schadensanalyse des Objekts
US10823826B2 (en) * 2016-06-14 2020-11-03 Stmicroelectronics, Inc. Adaptive laser power and ranging limit for time of flight sensor
US20180341009A1 (en) 2016-06-23 2018-11-29 Apple Inc. Multi-range time of flight sensing
US11060853B2 (en) * 2016-09-14 2021-07-13 Scantech (Hangzhou) Co., Ltd. Three-dimensional sensor system and three-dimensional data acquisition method
US11303859B2 (en) * 2016-09-29 2022-04-12 Stmicroelectronics (Research & Development) Limited Time of flight sensing for brightness and autofocus control in image projection devices
US10275610B2 (en) 2016-11-28 2019-04-30 Stmicroelectronics, Inc. Time of flight sensing for providing security and power savings in electronic devices
US11430148B2 (en) * 2016-12-28 2022-08-30 Datalogic Ip Tech S.R.L. Apparatus and method for pallet volume dimensioning through 3D vision capable unmanned aerial vehicles (UAV)
US10559213B2 (en) * 2017-03-06 2020-02-11 Rosemount Aerospace Inc. Method and system for aircraft taxi strike alerting
US10720069B2 (en) * 2017-04-17 2020-07-21 Rosemount Aerospace Inc. Method and system for aircraft taxi strike alerting
US11055867B2 (en) 2017-05-02 2021-07-06 Jdrf Electromag Engineering Inc. Automatic light position detection system
US11268804B2 (en) 2017-05-02 2022-03-08 Jdrf Electromag Engineering, Inc. Automatic light position detection system
US10189580B2 (en) * 2017-06-16 2019-01-29 Aerobo Image stabilization and pointing control mechanization for aircraft imaging systems
EP3646057A1 (de) 2017-06-29 2020-05-06 Apple Inc. Flugzeittiefenkartierung mit parallaxkompensation
US10527711B2 (en) 2017-07-10 2020-01-07 Aurora Flight Sciences Corporation Laser speckle system and method for an aircraft
CN110998230B (zh) 2017-08-01 2021-11-02 认为股份有限公司 作业机械的驾驶***
US10217371B1 (en) * 2017-08-22 2019-02-26 Rosemount Aerospace Inc. Method and system for aircraft taxi strike alerting using adaptive field of view
US10600194B2 (en) * 2017-08-24 2020-03-24 General Electric Company Image and video capture architecture for three-dimensional reconstruction
US11064184B2 (en) * 2017-08-25 2021-07-13 Aurora Flight Sciences Corporation Aerial vehicle imaging and targeting system
US10495421B2 (en) 2017-08-25 2019-12-03 Aurora Flight Sciences Corporation Aerial vehicle interception system
US10955552B2 (en) 2017-09-27 2021-03-23 Apple Inc. Waveform design for a LiDAR system with closely-spaced pulses
US11361463B2 (en) 2017-09-28 2022-06-14 Optim Corporation Position estimation system and method, and non-transitory storage medium
CN114777681A (zh) * 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
KR20200054326A (ko) * 2017-10-08 2020-05-19 매직 아이 인코포레이티드 경도 그리드 패턴을 사용한 거리 측정
US11022434B2 (en) 2017-11-13 2021-06-01 Hexagon Metrology, Inc. Thermal management of an optical scanning device
EP3704510B1 (de) 2017-12-18 2022-10-05 Apple Inc. Laufzeiterfassung unter verwendung einer adressierbaren array of emitters
CN110006392A (zh) * 2018-01-05 2019-07-12 ***通信有限公司研究院 一种基站天线工参测量方法、装置及测量设备
WO2019236563A1 (en) 2018-06-06 2019-12-12 Magik Eye Inc. Distance measurement using high density projection patterns
FI128523B (en) * 2018-06-07 2020-07-15 Ladimo Oy Modeling of topography of a 3D surface
USD875573S1 (en) 2018-09-26 2020-02-18 Hexagon Metrology, Inc. Scanning device
CN109658497B (zh) * 2018-11-08 2023-04-14 北方工业大学 一种三维模型重建方法及装置
EP3911920B1 (de) 2019-01-20 2024-05-29 Magik Eye Inc. Dreidimensionaler sensor mit bandpassfilter mit mehreren durchlassbereichen
EP3918424A4 (de) * 2019-01-28 2022-09-14 Stanley Electric Co., Ltd. Ballistische lichtmodulationen zur bildverbesserung durch nebel
US11604261B2 (en) * 2019-02-06 2023-03-14 Lockeed Martin Corporation Extended laser active ranging system, method and computer readable program product
US20200256993A1 (en) 2019-02-11 2020-08-13 Apple Inc. Depth sensing using a sparse array of pulsed beams
CN109767490B (zh) * 2019-03-05 2023-07-18 盎锐(上海)信息科技有限公司 用于投影光栅建模的影像分析***及方法
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
EP4025868A1 (de) * 2019-09-05 2022-07-13 Plasser & Theurer Export Von Bahnbaumaschinen Gesellschaft m.b.H. Verfahren und messvorrichtung zum vermessen eines objekts eines gleises
JP2023504157A (ja) 2019-12-01 2023-02-01 マジック アイ インコーポレイテッド 飛行時間情報を用いた三角測量ベースの3次元距離測定の向上
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
CN110926366A (zh) * 2019-12-13 2020-03-27 浙江省计量科学研究院 一种基于激光跟踪仪多站布局的曲面轮廓测量方法
US11644303B2 (en) * 2019-12-16 2023-05-09 Faro Technologies, Inc. Three-dimensional coordinate measuring instrument coupled to a camera having a diffractive optical element
TWI726536B (zh) * 2019-12-16 2021-05-01 財團法人工業技術研究院 影像擷取方法及影像擷取設備
JP2023511339A (ja) * 2020-01-18 2023-03-17 マジック アイ インコーポレイテッド 補足的正確性データを含む距離計測
CN111324145B (zh) * 2020-02-28 2022-08-16 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
CN113532329B (zh) * 2020-03-16 2024-03-19 天目爱视(北京)科技有限公司 一种以投射光斑为标定点的标定方法
CN111307041A (zh) * 2020-03-20 2020-06-19 嘉兴方石科技有限公司 建筑测量方法
CN111781585B (zh) * 2020-06-09 2023-07-18 浙江大华技术股份有限公司 一种确定烟花燃放位置的方法及图像采集设备
CN112033297A (zh) * 2020-08-10 2020-12-04 山东科技大学 一种基于近景摄影测量技术的井架变形监测方法
CN112378336B (zh) * 2020-11-13 2023-02-17 南通中远海运川崎船舶工程有限公司 一种基于无人机的舱容测量***及其测量方法
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift
US20240168176A1 (en) * 2021-08-31 2024-05-23 James DOTAN Precision positioning and pointing instrument
CN114111639B (zh) * 2021-11-26 2024-04-30 凌云光技术股份有限公司 一种面结构光三维测量***的校正方法和设备
US11869206B2 (en) * 2021-12-28 2024-01-09 Datalogic Ip Tech S.R.L. Controllable laser pattern for eye safety and reduced power consumption for image capture devices
CN114577180B (zh) * 2022-05-06 2022-07-15 成都纵横通达信息工程有限公司 基于无人机的地理信息测绘装置、***及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012049438A1 (en) 2010-10-12 2012-04-19 Stephen James Crampton Hover cmm
EP2511656A1 (de) 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
US9333904B2 (en) * 2012-03-08 2016-05-10 Koninklijke Philips N.V. Controllable high luminance illumination with moving light-sources
JP6316568B2 (ja) 2013-10-31 2018-04-25 株式会社トプコン 測量システム
JP6326237B2 (ja) 2014-01-31 2018-05-16 株式会社トプコン 測定システム
US9989357B2 (en) * 2015-09-09 2018-06-05 Faro Technologies, Inc. Aerial device that cooperates with an external projector to measure three-dimensional coordinates
EP3165945B1 (de) * 2015-11-03 2024-01-03 Leica Geosystems AG Oberflächenvermessungsgerät zur bestimmung von 3d-koordinaten einer oberfläche
US10056001B1 (en) * 2016-05-20 2018-08-21 Amazon Technologies, Inc. Three-dimensional representations of objects detected by an unmanned aerial vehicle
US20180035606A1 (en) * 2016-08-05 2018-02-08 Romello Burdoucci Smart Interactive and Autonomous Robotic Property Maintenance Apparatus, System, and Method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image

Also Published As

Publication number Publication date
US20180274910A1 (en) 2018-09-27
GB201803608D0 (en) 2018-04-18
US20190186905A1 (en) 2019-06-20
US9989357B2 (en) 2018-06-05
GB2556802A (en) 2018-06-06
WO2017044344A1 (en) 2017-03-16
US20170067734A1 (en) 2017-03-09
US10234278B2 (en) 2019-03-19

Similar Documents

Publication Publication Date Title
DE112016004085T5 (de) Mit einem externen Projektor zum Messen von dreidimensionalen Koordinaten zusammenwirkende luftgetragene Vorrichtung
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE112014007234T5 (de) Verwendung von Tiefenkamerabildern zur Beschleunigung der Registrierung von dreidimensionalen Scans
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
EP2728374B1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
EP3819671B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE102017214377A1 (de) Verwendung eines zweidimensionalen scanners zum beschleunigen der registrierung von dreidimensionalen scan-daten
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE112015002755T5 (de) Koordinatenmessgerät mit einer Handsonde mit sechs Freiheitsgraden und integrierter Kamera für erweiterte Realität
DE112013004489T5 (de) Laserscanner mit Dynamischer Einstellung der Winkel-Abtastgeschwindigkeit
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102012102915A1 (de) Verfahren und Vorrichtung zur optischen Bestimmung einer Position und/oder Orientierung eines Objekts im Raum
DE112015003734T5 (de) Triangulationsscanner mit sechs Freiheitsgraden und Kamera für erweiterte Realität
DE102017218212A1 (de) Zweidimensionales kartierungssystem und betriebsverfahren
DE102017218281A1 (de) Zweidimensionales kartierungssystem und betriebsverfahren
DE112017006909T5 (de) Drei-dimensionaler bildaufnehmer
WO2012013388A1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
DE102015106836B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels momentaner Bewegung und Vorrichtung hierzu
CH702255A1 (de) Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee