DE112016001888T5 - Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus - Google Patents

Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus Download PDF

Info

Publication number
DE112016001888T5
DE112016001888T5 DE112016001888.6T DE112016001888T DE112016001888T5 DE 112016001888 T5 DE112016001888 T5 DE 112016001888T5 DE 112016001888 T DE112016001888 T DE 112016001888T DE 112016001888 T5 DE112016001888 T5 DE 112016001888T5
Authority
DE
Germany
Prior art keywords
camera
scanner
light
projector
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016001888.6T
Other languages
English (en)
Inventor
Yazid Tohme
Rolf Heidemann
Robert E. Bridges
Markus Grau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE112016001888T5 publication Critical patent/DE112016001888T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein dreidimensionaler (3D) Scanner mit zwei Kameras und einem Projektor ist auf abnehmbare Weise mit einer Vorrichtung gekoppelt, die aus der Gruppe gewählt ist, bestehend aus: einem Gelenkarm-Koordinatenmessmaschine, einer Kameraanordnung, einer Tracker-Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Tracker-Target-Anordnung) und einer sechs-DOF-Lichtpunkt-Targetanordnung.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Nutzen der am 24. April 2015 eingereichten vorläufigen US-Patentanmeldung Nr. 62/152,266, der am 24. April 2015 eingereichten vorläufigen US-Patentanmeldung Nr. 62/152,286, der der am 24. April 2015 eingereichten vorläufigen US-Patentanmeldung Nr. 62/152,280, der am 24. April 2015 eingereichten vorläufigen US-Patentanmeldung Nr. 62/152,272 und der am 24. April 2015 eingereichten vorläufigen US-Patentanmeldung Nr. 62/152,294.
  • GEBIET DER ERFINDUNG
  • Die vorliegende Offenbarung betrifft eine Koordinatenmessmaschine, und insbesondere eine tragbare Gelenkarm-Koordinatenmessmaschine (GAKMM) mit einem abnehmbaren Zusatzgerät.
  • HINTERGRUND DER ERFINDUNG
  • Tragbare GAKMM haben in der Fertigung von Teilen, wo eine Notwendigkeit besteht, die Teileabmessungen während verschiedener Fertigungsschritte (z. B. mechanische Bearbeitung) des Teils schnell und genau zu prüfen, weit verbreitete Anwendung gefunden. Tragbare GAKMMs stellen bekannten stationären bzw. feststehenden, kostenintensiven und relativ schwer zu bedienenden Messeinrichtungen gegenüber eine erhebliche Verbesserung dar, und zwar vor allem hinsichtlich des Zeitaufwands, der zur Durchführung von Größenmessungen relativ komplexer Teile anfällt. Typischerweise führt ein Benutzer einer tragbaren GAKMM eine Sonde einfach entlang der Oberfläche des zu messenden Teils oder Objekts. Die Messdaten werden dann aufgezeichnet und dem Benutzer bereitgestellt. In manchen Fällen werden die Daten dem Bediener in optischer Form bereitgestellt, beispielsweise in dreidimensionaler (3-D) Form auf einem Computerbildschirm. In anderen Fällen werden die Daten dem Bediener in numerischer Form bereitgestellt, zum Beispiel, indem bei der Messung des Durchmessers eines Lochs auf einem Computerbildschirm der Text „Durchmesser = 1,0034” angezeigt wird.
  • Messungen der dreidimensionalen (3D) physikalischen Merkmalen von Objektoberflächen durch eine GAKMM können aus verschiedenen Gründen, zu denen die Teilekontrolle, die schnelle Prototypenerstellung, das Reverse-Engineering, der Vergleich eines realen Teils mit einem CAD-Modell des Teils, die 3D-Modellierung usw. gehören, mit Kontaktsonden oder kontaktlosen Sonden durchgeführt werden. Meistens verwenden kontaktlose Vorrichtungen triangulationsbasierte Techniken zur Verarbeitung der erfassten Rohdaten, um 3D-Koordinaten von Oberflächenpunkten zu erhalten.
  • Ein triangulationsbasierter kontaktloser Vorrichtungstyp ist eine Laserliniensonde (LLS), die einen Projektor und eine Kamera umfasst. Der Projektor weist eine Lichtquelle auf, die ein Licht typischerweise als eine Linie emittiert. Die LLS ist daher auch als Linienscanner bekannt. Das emittierte Licht kann Laserlicht, partiell kohärentes Licht oder inkohärentes Licht sein. Die Kamera weist ein Abbildungsgerät vom Kameratyp auf, wie z. B. ein ladungsgekoppeltes Bauelement (CCD) oder eine lichtempfindliche CMOS-Matrix. Die Kamera erfasst das Lichtmuster auf der Objektoberfläche, das verarbeitet wird, um 3D-Koordinaten auf einer Objektoberfläche zu bestimmen.
  • Ein anderer triangulationsbasierter kontaktloser Vorrichtungstyp, der einen Projektor und eine Kamera aufweist, ist ein Flächenscanner, auch als Scanner mit strukturiertem Licht bekannt. In solch einem Scanner projiziert der Projektor ein zweidimensionales Muster auf eine Oberfläche, das von der Kamera erfasst wird und verarbeitet wird, um 3D-Koordinaten zu bestimmen.
  • Ein Beispiel einer tragbaren GAKMM wird im gemeinsam übertragenen US-Patent Nr. 5,402,582 ('582) offenbart. Das Patent '582 offenbart ein 3D-Messsystem, das aus einer handbedienten GAKMM mit einer Tragbasis an einem Ende und einer „harten” Messsonde am anderen Ende besteht. Das gemeinsam übertragene US-Patent 5,611,147 ('147) offenbart eine vergleichbare GAKMM. Im Patent '147 weist die Gelenkarm-KMM eine Anzahl von Merkmalen einschließlich einer zusätzlichen Drehachse am Sondenende auf, wodurch sie einen Arm mit einer zwei-zwei-zwei- oder einer zwei-zwei-dreiachsigen Konfiguration bereitstellt (wobei letztere ein Arm mit sieben Achsen ist).
  • Es ist allgemein bekannt, eine LLS an das Sondenende einer GAKMM anzubringen. Das Ergebnis ist eine voll integrierte, tragbare Kontaktmessvorrichtung oder kontaktlose Messvorrichtung. Das heißt, die GAKMM mit einer daran angebrachten LLS ermöglicht sowohl Kontaktmessungen eines Objekts durch eine harte Sonde der GAKMM als auch kontaktlose Messungen des Objekts durch Verwendung des Laser- und des Abbildungsgeräts der LLS. Insbesondere erlaubt die Kombination aus GAKMM und LLS Benutzern die schnelle Kontrolle oder Nachkonstruktion komplexer und organischer Formen durch Laserabtastung sowie die Erfassung von prisamtischen Elementen mit der relativ hohen Genauigkeit, die durch Kontaktmessung ermöglicht wird.
  • Wenn die GAKMM und die LLS auf diese Weise kombiniert sind, kann die LLS einen Teil oder die Gesamtheit der Verarbeitung der erfassten 3D-Punktwolkendaten mit der in der GAKMM angeordneten oder zu dieser gehörigen (z. B. außerhalb dieser liegenden) Signalverarbeitungselektronik (z. B. Computer oder Prozessor) durchführen. Die LLS kann jedoch auch ihre eigene Signalverarbeitungselektronik aufweisen, die in der LLS angeordnet oder zur LLS gehört (z. B. ein Einzelrechner), um die Signalverarbeitung durchzuführen. In diesem Fall kann die LLS mit einer Anzeigevorrichtung verbunden sein, um die erfassten Daten anzuzeigen, die das Objekt darstellen.
  • Es ist bekannt, einen Flächenscanner für den handgeführten Betrieb von der GAKMM zu trennen. Gewöhnlich ist solch ein handgeführter Betrieb auf die Erfassung einer Lichtlinie oder eines Lichtmusters in einer Einzelaufnahme bescbränkt. Bei einem derartigen handgeführten Betrieb werden 3D-Koordinaten von Oberflächenpunkten über große Flächen hinweg erhalten, indem mehrere 3D-Bilder miteinander registriert werden, gewöhnlich durch Zuordnen gemeinsamer Bildmerkmale wie z. B. Kanten oder Löcher. Mit diesem Verfahren kann ein relativ großes Objekt, das in mehreren Abtastungen gemessen wurde, eine große Einzelsammlung von 3D-Oberflächenkoordinaten ergeben.
  • Eine Schwierigkeit bei diesem Registrierungsverfahren kann auftreten, wenn ein abgetastetes Objekt relativ wenig Merkmale aufweist. In solch einem Fall kann eine ebene Fläche in verzogener Form registriert werden. Obwohl es möglich ist, einen von einer GAKMM abgenommenen Flächenscanner in einem handgeführten Modus zu verwenden, ist es zudem nicht möglich gewesen, eine LLS in einem handgeführten Modus als eine Sammlung von Einzellinien zu verwenden. Eine potentielle Schwierigkeit ist, dass die Sammlung mehrerer Linien nicht genug Information bereitstellen kann, um das Zusammensetzen mehrerer Linienabtastungen über zweidimensionale Flächen hinweg zu ermöglichen. Daher sind für Verfahren zur Verwendung handgeführter LLS oder Flächenscanner Verbesserungen erwünscht, um eine relativ genaue 3D-Darstellung über eine relativ große Fläche hinweg zu erhalten.
  • Obwohl bestehende Linienscanner und Flächenscanner für ihren Verwendungszweck geeignet sind, besteht ein Bedarf nach einem handgeführten Scanner, der über relativ große Bereiche hinweg eine verbesserte Registrierung aufweist. Ferner besteht ein Bedarf nach einem derartigen handgeführten Scanner, der außerdem mit einer GAKMM verwendbar ist.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Einem Aspekt der Erfindung gemäß umfasst eine Vorrichtung zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: einen Prozessor; einen Triangulationsscanner mit einem Projektor, einer ersten Scannerkamera, einer zweiten Scannerkamera und einem Scannerverbinder, wobei der Scannerverbinder dazu konfiguriert ist, auf abnehmbare Weise mit einem Armverbinder einer Gelenkarm-Koordinatenmessmaschine (GAKMM) gekoppelt zu werden, der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, wobei der Projektor ein Projektor-Perspektivitätszentrum und eine optische Achse des Projektors aufweist, die erste Scannerkamera dazu konfiguriert ist, ein erstes Bild des Scannermusters zu erzeugen und ein erstes elektrisches Scannersignal an den Prozessor zu senden, die erste Scannerkamera ein Perspektivitätszentrum der ersten Kamera und eine optische Achse der ersten Kamera aufweist, die zweite Scannerkamera dazu konfiguriert ist, ein zweites Bild des Scannermusters zu erzeugen und ein zweites elektrisches Scannersignal an den Prozessor zu senden, die zweite Scannerkamera ein Perspektivitätszentrum der zweiten Kamera und eine optische Achse der zweiten Kamera aufweist, das Projektor-Perspektivitätszentrum, das Perspektivitätszentrum der ersten Kamera und das Perspektivitätszentrum der zweiten Kamera in einem Dreiecksmuster auf einer ersten Ebene angeordnet sind, wobei die erste Ebene die optische Achse des Projektors, die optische Achse der ersten Kamera oder die optische Achse der zweiten Kamera nicht enthält, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche zu bestimmen, ob der Triangulationsscanner mit der GAKMM gekoppelt oder davon abgekoppelt ist, wobei die Bestimmung mindestens zum Teil auf dem Scannermuster, dem ersten elektrischen Scannersignal und dem zweiten elektrischen Scannersignal basiert ist.
  • Einem weiteren Aspekt der Erfindung gemäß umfasst eine Vorrichtung zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: einen Prozessor; einen Triangulationsscanner mit einem Projektor, einer Scannerkamera, einem abnehmbaren Griff und einem Scannerverbinder, wobei der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, die Scannerkamera dazu konfiguriert ist, ein erstes Bild des Scannermusters zu erzeugen und ein elektrisches Scannersignal an den Prozessor zu senden, der Scannerverbinder dazu konfiguriert ist, auf abnehmbare Weise mit einem Verbinder einer Gelenkarm-Koordinatenmessmaschine (GAKMM) gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche zu bestimmen, ob der Triangulationsscanner mit der GAKMM gekoppelt oder davon abgekoppelt ist, die Bestimmung mindestens zum Teil auf dem Scannermuster und auf dem elektrischen Scannersignal basiert, wobei der Triangulationsscanner dazu konfiguriert ist, nach Entfernung des abnehmbaren Griffs flach auf seiner Unterseite zu sitzen.
  • Diese und andere Vorteile und Merkmale gehen aus der folgenden Beschreibung in Verbindung mit den Zeichnungen hervor.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nun auf die Zeichnungen Bezug nehmend, werden beispielhafte Ausführungsformen gezeigt, die hinsichtlich des Gesamtumfangs der Offenbarung nicht als einschränkend zu verstehen sind, wobei die Elemente in mehreren FIGUREN mit gleichen Bezugszeichen versehen sind.
  • 1A und 1B sind perspektivische Ansichten einer tragbaren Gelenkarm-Koordinatenmessmaschine (GAKMM), die Ausführungsformen verschiedener Aspekte der vorliegenden Erfindung aufweist;
  • 2, die 2A2D einschließt, ist ein Blockschaltbild der Elektronik, die gemäß einer Ausführungsform als Teil der GAKMM von 1 verwendet wird;
  • 3, die 3A3B einschließt, ist ein Blockschaltbild, das detaillierte Funktionen des elektronischen Datenverarbeitungssystems von 2 gemäß einer Ausführungsform beschreibt;
  • 4 ist eine isometrische Ansicht des Sondenendes der GAKMM von 1;
  • 5 ist eine Seitenansicht des Sondenendes von 4 mit dem Griff, der damit gekoppelt wird;
  • 6 ist eine Seitenansicht des Sondenendes von 4 mit dem daran angebrachten Griff;
  • 7 ist eine vergrößerte partielle Seitenansicht des Schnittstellenteils des Sondenendes von 6;
  • 8 ist eine andere vergrößerte partielle Seitenansicht des Schnittstellenteils des Sondenendes von 5;
  • 9 ist eine isometrische partielle Querschnittsansicht des Griffs von 4;
  • 10A ist eine isometrische Ansicht des Sondenendes der GAKMM von 1 mit einer daran angebrachten LLS;
  • 10B ist eine isometrische Ansicht eines Endes der GAKMM, das eine Sondenspitze 118 und einen Scanner 500 aufweist;
  • 10C ist eine isometrische Ansicht eines Endes der GAKMM in einer teilweise demontierten und gedrehten Position;
  • 11A ist eine isometrische partielle Querschnittsansicht der LLS von 10A;
  • 11B ist eine isometrische, teilweise demontierte Ansicht der LLS von 10A;
  • 12 ist eine schematische Darstellung des Prinzips der Arbeitsweise einer LLS gemäß einer Ausführungsform;
  • 13A und 13B sind schematische Darstellungen des Triangulationsprinzips für einen Scanner mit strukturiertem Licht gemäß zwei Ausführungsformen;
  • 14A ist eine schematische Darstellung von Elementen eines Scanners mit sechs Freiheitsgraden gemäß einer Ausführungsform;
  • 14B ist eine isometrische Zeichnung eines Trackers (Nachführgerät) gemäß einer Ausführungsform;
  • 15A zeigt einen Kamerabalken, der zur Messung einer taktilen Sonde verwendet wird, die Targets (Ziele) aufweist, die für den Kamerabalken gemäß einer Ausführungsform sichtbar sind;
  • 15B zeigt einen Kamerabalken, der zur Messung eines Triangulationsflächenscanners verwendet wird, der Targets aufweist, die für den Kamerabalken gemäß einer Ausführungsform sichtbar sind;
  • 15C zeigt einen Kamerabalken, der zur Messung eines Triangulationslinienscanners verwendet wird, der Targets aufweist, die für den Kamerabalken gemäß einer Ausführungsform sichtbar sind;
  • 16 ist eine isometrische Ansicht einer Scanneranordnung mit einer integrierten Sammlung von Kameras, wobei die Anordnung gemäß einer Ausführungsform dazu konfiguriert ist, an eine Gelenkarm-KMM angebracht zu werden oder separat als tragbarer Scanner benutzt zu werden;
  • 17A, 17B und 17C sind eine orthographische Ansicht, einer Draufsicht und eine Schnittansicht eines Verbinderanordnungsmechanismus gemäß einer Ausführungsform;
  • 18A ist eine isometrische Ansicht einer abnehmbaren Kameraanordnung, die dazu konfiguriert ist, mit einem tragbaren Triangulationsscanner gemäß einer Ausführungsform gekoppelt zu werden;
  • 18B, 18C, 18D sind jeweils eine Vorderansicht und Seitenansichten einer abnehmbaren Kameraanordnung, die an einen tragbaren Triangulationsscanner gemäß einer Ausführungsform angebracht ist;
  • 18E18K stellen Verfahren zur Messung von 3D-Koordinaten gemäß einer Ausführungsform dar;
  • 19A, 19B, 19C, 19D sind jeweils eine isometrische Ansicht, Seitenansichten und eine Vorderansicht einer abnehmbaren Tracker-Target-Anordnung mit sechs Freiheitsgraden (DOF), die mit einem handgeführten Triangulationsscanner gekoppelt ist.
  • 19E ist eine isometrische Ansicht einer abnehmbaren sechs-DOF-Tracker-Target-Anordnung, die dazu konfiguriert ist, mit einem handgeführten Triangulationsscanner gemäß einer Ausführungsform gekoppelt zu werden;
  • 20 ist eine isometrische Ansicht einer abnehmbaren sechs-DOF-Targetanordnung, die mit einem handgeführten Triangulationsscanner gekoppelt ist; und
  • 21A, 21B, 21C zeigen einen Triangulationsscanner mit einem abnehmbaren Griff und einem optionalen Zusatzgerät, wobei das optionale Zusatzgerät dazu konfiguriert ist, die Bestimmung der Position und Orientierung des Triangulationsscanners in Bezug auf ein Objekt zu unterstützen;
  • 22 zeigt einen Triangulationsscanner mit zwei Kameras, die auf abnehmbare Weise mit einer Tracker-Target-Anordnung mit sechs DOF gekoppelt sind;
  • 23A veranschaulicht das Konzept von Epipolarbedingungen; und
  • 23B veranschaulicht das Konzept von Epipolarlinien für den Fall von zwei Kameras und eines Projektors, die einer Ausführungsform gemäß in einer dreieckigen Anordnung angeordnet sind.
  • Die ausführliche Beschreibung erläutert Ausführungsformen der Erfindung mit ihren Vorteilen und Merkmalen auf beispielhafte Weise Bezug nehmend auf auf die Zeichnungen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1A und 1B sind perspektivische Darstellungen einer Gelenkarm-Koordinatenmessmaschine 100 gemäß verschiedener Ausführungsformen der vorliegenden Erfindung, wobei eine GAKMM ein Typ von Koordinatenmessmaschine ist. Wie in 1A und 1B gezeigt, kann die beispielhafte GAKMM 100 eine Messvorrichtung mit sechs oder sieben Gelenkachsen umfassen, die ein Sondenende 401 mit einem Messsondengehäuse 102 aufweist, das an einem Ende mit einem Armabschnitt 104 der GAKMM 100 gekoppelt ist. Der Armabschnitt 104 umfasst ein erstes Armsegment 106, das durch eine erste Gruppe von Lagerkartuschen 110 (z. B. zwei Lagerkartuschen) mit einem zweiten Armsegment 108 gekoppelt ist. Eine zweite Gruppe von Lagerkartuschen 112 (z. B. zwei Lagerkartuschen) koppelt das zweite Armsegment 108 mit dem Messsondengehäuse 102. Eine dritte Gruppe von Lagerkartuschen 114 (z. B. drei Lagerkartuschen) koppelt das erste Armsegment 106 mit einer Basis 116, die am anderen Ende des Armabschnitts 104 der GAKMM 100 liegt. Jede Gruppe von Lagerkartuschen 110, 112, 114 stellt mehrere Achsen der Gelenkbewegungsachsen bereit. Das Sondenende 401 kann auch ein Messsondengehäuse 102 aufweisen, das eine Welle des siebten Achsteils der GAKMM 100 umfasst (z. B. eine Kartusche, die ein Gebersystem enthält, das die Bewegung der Messvorrichtung, zum Beispiel einer Sonde 118, in der siebten Achse der GAKMM 100 bestimmt). In dieser Ausführungsform kann das Sondenende 401 sich um eine Achse drehen, die durch das Zentrum des Messsondengehäuses 102 verläuft. Bei Gebrauch der GAKMM 100 ist die Basis 116 typischerweise an eine Arbeitsfläche befestigt.
  • Jede Lagerkartusche in jeder Lagerkartuschengruppe 110, 112, 114 enthält typischerweise ein Gebersystem (z. B. ein optisches Drehgebersystem). Das Gebersystem (z. B. ein Messgeber) stellt eine Angabe der Position der jeweiligen Armsegmente 106, 108 und entsprechenden Lagerkartuschengruppen 110, 112, 114 bereit, die alle zusammen eine Angabe der Position der Sonde 118 in Bezug auf die Basis 116 (und daher der Position des von der GAKMM 100 gemessenen Objekts in einem bestimmten Bezugssystem – zum Beispiel einem lokalen oder globalen Bezugssystem) ergeben. Die Armsegmente 106, 108 können aus einem geeigneten steifen Material wie z. B. einem Karbonverbundstoff bestehen, ohne darauf beschränkt zu sein. Eine tragbare GAKMM 100 mit sechs oder sieben Gelenkbewegungsachsen (d. h., Freiheitsgraden) bietet die Vorteile, dass sie dem Bediener erlaubt, die Sonde 118 an einen gewünschten Ort in einem 360°-Bereich um die Basis 116 herum zu positionieren, während sie einen Armabschnitt 104 aufweist, der vom Bediener leicht zu handhaben ist. Es versteht sich jedoch, dass die Darstellung eines Armabschnitts 104 mit zwei Armsegmenten 106, 108 beispielhaft ist und die beanspruchte Erfindung nicht darauf beschränkt ist. Eine GAKMM 100 kann eine beliebige Zahl von Armsegmenten aufweisen, die durch Lagerkartuschen miteinander gekoppelt sind (und daher mehr oder weniger als sechs oder sieben Gelenkbewegungsachsen oder Freiheitsgraden).
  • Die Sonde 118 ist auf abnehmbare Weise an das Messsondengehäuse 102 montiert, das mit der Lagerkartuschengruppe 112 verbunden ist. Ein Griff 126 ist zum Beispiel durch eine Schnellverbindungsschnittstelle vom Messsondengehäuse 102 abnehmbar. Wie weiter unten Bezug nehmend auf 10 ff. beschrieben, kann der Griff 126 ausgetauscht oder durch eine andere Vorrichtung wie z. B. eine LLS ersetzt werden, die dazu konfiguriert ist, eine Laserlichtlinie zu einem Objekt zu emittieren und das Laserlicht auf einer Oberfläche des Objekts mit einem Abbildungsgerät (z. B. einer Kamera) zu erfassen oder abzubilden, das Bestandteil der LLS ist, um dadurch eine kontaktlose Messung der Abmessungen dreidimensionaler Objekte zu ermöglichen. Diese austauschbare Verwendung einer LLS hat den Vorteil, dass sie dem Bediener mit derselben GAKMM 100 die Durchführung sowohl von Kontaktmessungen als auch von kontaktlosen Messungen erlaubt. Doch es versteht sich, dass die LLS ein Einzelgerät sein kann, wie weiter unten ausführlicher beschrieben. Das heißt, die LLS allein kann voll funktionsfähig und betreibbar sein, ohne mit der GAKMM 100 oder einer ähnlichen Vorrichtung verbunden zu sein.
  • In beispielhaften Ausführungsformen ist im Sondengehäuse 102 eine abnehmbare Sonde 118 untergebracht, die ein Kontaktmessgerät ist und verschiedene Spitzen 118 aufweisen kann, die mit dem zu messenden Objekt physisch in Kontakt kommen, einschließlich, ohne darauf beschränkt zu sein: kugelförmige, berührungsempfindliche, gekrümmte und ausziehbare Sonden. In anderen Ausführungsformen wird die Messung zum Beispiel durch eine kontaktlose Vorrichtung wie z. B. die LLS durchgeführt. In einer Ausführungsform wird der Griff 126 unter Verwendung der Schnellverbindungsschnittstelle durch die LLS ersetzt. Der abnehmbare Griff 126 kann durch Messvorrichtungen anderen Typs ersetzt werden, um zusätzliche Funktionalität bereitzustellen. Beispiele solcher Messvorrichtungen schließen, ohne darauf beschränkt zu sein, zum Beispiel eine oder mehrere Belechtungslampen, einen Temperatursensor, einen Thermalscanner, einen Strichcodescanner, einen Projektor, eine Spritzpistole, eine Kamera oder dergleichen ein.
  • Wie in 1A und 1B gezeigt, weist die GAKMM 100 den abnehmbaren Griff 126 auf, der den Vorteil aufweist, dass er den Austausch von Zusatzgeräten oder Funktionalitäten erlaubt, ohne das Messsondengehäuse 102 von der Lagerkartuschengruppe 112 abnehmen zu müssen. Wie weiter unten Bezug nehmend auf 2D ausführlicher beschrieben, kann der abnehmbare Griff 126 auch einen elektrischen Verbinder aufweisen, der den Austausch von elektrischem Strom und Daten mit dem Griff 126 und der entsprechenden Elektronik erlaubt, die im Sondenende 401 liegt.
  • In verschiedenen Ausführungsformen ermöglicht jede Gruppe von Lagerkartuschen 110, 112, 114 die Bewegung des Armabschnitts 104 der GAKMM 100 um mehrere Drehachsen. Wie erwähnt, weist jede Gruppe von Lagerkartuschen 110, 112, 114 entsprechende Gebersysteme wie zum Beispiel ein optisches Drehgebersystem auf, die alle koaxial zur entsprechenden Drehachse z. B. der Armsegmente 106, 108 angeordnet sind. Das optische Gebersystem erkennt die Dreh-(Schwenk-) oder Querbewegung (Gelenkbewegung) jedes der Armsegmente 106, 108 um die entsprechende Achse und sendet ein Signal an ein elektronisches Datenverarbeitungssystem in der GAKMM 100, wie weiter unten ausführlicher beschrieben. Jede einzelne Geber-Rohzählung wird separat als Signal an das elektronische Datenverarbeitungssystem gesendet, wo sie zu Messdaten weiterverarbeitet wird. Ein von der GAKMM 100 an sich separater Positionsrechner (z. B. eine „Serial Box”) ist nicht erforderlich, wie im gemeinsam übertragenen US-Patent Nr. 5,402,582 ('582) beschrieben.
  • Die Basis 116 kann eine Befestigungsvorrichtung oder Montagevorrichtung 120 umfassen. Die Montagevorrichtung 120 erlaubt die abnehmbare Montage der GAKMM 100 an einen gewünschten Ort wie zum Beispiel einen Kontrolltisch, ein Bearbeitungszentrum, eine Wand oder den Boden. In einer Ausführungsform weist die Basis 116 einen Griff 122 auf, der dem Bediener eine praktische Stelle zum Halten der Basis 116 bietet, wenn die GAKMM 100 bewegt wird. In einer Ausführungsform weist die Basis 116 außerdem eine Abdeckung 124 auf, die heruntergeklappt werden kann, um eine Benutzerschnittstelle wie z. B. einen Anzeigebildschirm freizugeben.
  • Einer Ausführungsform gemäß ist in der Basis 116 der tragbaren GAKMM 100 ein elektronischer Schaltkreis enthalten oder untergebracht, der ein elektronisches Datenverarbeitungssystem aufweist, das zwei Hauptkomponenten umfasst: ein Basis-Verarbeitungssystem, das die Daten von den verschiedenen Gebersystemen in der GAKMM 100 sowie Daten verarbeitet, die andere Armparameter zur Unterstützung dreidimensionaler Positionsberechnungen darstellen; und ein Benutzerschnittstellen-Verarbeitungssystem mit einem On-Board-Betriebssystem, einem berührungsempfindlichen Bildschirm und residenter Anwendungssoftware, die die Implementierung relativ vollständiger Messfunktionen in der GAKMM 100 ermöglichen, ohne die Verbindung mit einem externen Computer zu erfordern. Es versteht sich, dass die GAKMM 100 in anderen Ausführungsformen mit einem Benutzerschnittstellen-Verarbeitungssystem konfiguriert sein kann, die fern oder von der Vorrichtung entfernt angeordnet ist, wie z. B. auf einem Laptop, einem Fernrechner oder einem tragbaren/mobilen Rechner (z. B. ein Mobiltelefon oder ein Tablet-Computer).
  • Das elektronische Datenverarbeitungssystem in der Basis 116 kann mit den Gebersystemen und anderer Peripheriehardware kommunizieren, die von der Basis 116 entfernt ist (z. B. eine Laserliniensonde, die anstelle des abnehmbaren Griffs 126 an der GAKMM 100 montiert sein kann). Die Elektronik zur Unterstützung dieser Peripheriehardware oder -funktionen kann in jeder der Lagerkartuschengruppen 110, 112, 114 liegen, die in der tragbaren GAKMM 100 angeordnet sind.
  • 2 ist ein Blockschaltbild der Elektronik, die in einer GAKMM 100 gemäß einer Ausführungsform verwendet wird. Die Ausführungsform, die in 2A gezeigt wird, weist ein elektronisches Datenverarbeitungssystem 210 auf, das eine Basis-Prozessorplatine 204 zur Implementierung des Basis-Verarbeitungssystems, eine Benutzerschnittstellenplatine 202, eine Basis-Netzplatine 206 zur Stromversorgung, ein Bluetooth-Modul 232 und ein Basis-Neigungsmodul 208 einschließt. Die Benutzerschnittstellenplatine 202 weist einen Computerprozessor zur Ausführung einer Anwendungssoftware auf, um Benutzerschnittstellen-, Anzeigefunktionen und andere Funktionen durchzuführen, die hier beschrieben werden.
  • Wie in 2A und 2B gezeigt, steht das elektronische Datenverarbeitungssystem 210 über ein oder mehrere Arm-Busse 218 mit der obigen Vielzahl von Gebersystemen in Verbindung. In der Ausführungsform, die in 2B und 2C dargestellt ist, erzeugt jedes Gebersystem Geberdaten und umfasst: eine Geber-Arm-Busschnittstelle 214, einen Geber-Digitalsignalprozessor (DSP) 216, eine Geber-Lesekopfschnittstelle 234 und einen Temperatursensor 212. Andere Geräte wie z. B. Dehnungssensoren können am Arm-Bus 218 angebracht sein.
  • Wie auch in 2D gezeigt, steht die Sondenendenelektronik 230 mit dem Arm-Bus 218 in Verbindung. Die Sondenendenelektronik 230 umfasst einen Sondenende-DSP 228, einen Temperatursensor 212, einen Griff/Geräte-Schnittstellenbus 240, der in einer Ausführungsform über die Schnellverbindungsschnittstelle mit dem Griff 126 oder der LLS 242 verbunden ist, und einen Sondenschnittstelle 226. Die Schnellverbindungsschnittstelle erlaubt den Zugriff, durch den Griff 126, auf den Datenbus, Steuerleitungen und den Stromversorgungsbus, die von der LLS 242 und anderen Zusatzgeräten verwendet werden. In einer Ausführungsform ist die Sondenendenelektronik 230 im Messsondengehäuse 102 auf der GAKMM 100 angeordnet. In einer Ausführungsform kann der Griff 126 von der Schnellverbindungsschnittstelle abgenommen werden, und die Messung kann mit der LLS 242 durchgeführt werden, die über den Schnittstellenbus 240 mit der Sondenendenelektronik 230 der GAKMM 100 kommuniziert. In einer Ausführungsform ist das elektronische Datenverarbeitungssystem 210 in der Basis 116 der GAKMM 100 angeordnet, die Sondenendenelektronik 230 ist im Messsondengehäuse 102 der GAKMM 100 angeordnet, und die Gebersysteme sind in den Lagerkartuschengruppen 110, 112, 114 angeordnet. Die Sondenschnittstelle 226 kann durch jedes geeignete Kommunikationsprotokoll mit dem Sondenende-DSP 228 kommunizieren, einschließlich kommerziell verfügbarer Produkte von Maxim Integrated Products, Inc., die das 1-wire® Kommunikationsprotokoll 236 verkörpern.
  • 3 ist ein Blockschaltbild, das detaillierte Funktionen des elektronischen Datenverarbeitungssystems 210 der GAKMM 100 gemäß einer Ausführungsform beschreibt. In einer Ausführungsform ist das elektronische Datenverarbeitungssystem 210 in der Basis 116 der GAKMM 100 angeordnet und umfasst die Basis-Prozessorplatine 204, die Benutzerschnittstellenplatine 202, eine Basis-Netzplatine 206, ein Bluetooth-Modul 232 und ein Basis-Neigungsmodul 208.
  • In einer Ausführungsform, die in 3A gezeigt wird, weist die Basis-Prozessorplatine 204 die verschiedenen Funktionsblöcke auf, die darin dargestellt sind. Zum Beispiel wird eine Basisprozessor-Funktion 302 benutzt, um die Sammlung von Messdaten von der GAKMM 100 zu unterstützen und über den Arm-Bus 218 und eine Bus-Steuermodul-Funktion 308 Arm-Rohdaten (z. B. Gebersystemdaten) zu empfangen. Die Speicher-Funktion 304 speichert Programme und statische Armkonfigurationsdaten. Die Basis-Prozessorplatine 204 weist auch eine Anschlussfunktion 310 für optionale externe Hardware auf, um mit externer Hardware oder Zusatzgeräten wie z. B. der LLS 242 zu kommunizieren. Eine Echtzeituhr (RTC) und Log 306, eine Batteriepack-Schnittstelle (IF) 316 und ein Diagnoseanschluss 318 sind in einer Ausführungsform der Basis-Prozessorplatine 204, die in 3A dargestellt ist, ebenfalls in der Funktionalität eingeschlossen.
  • Die Basis-Prozessorplatine 204 verwaltet auch die ganze drahtgebundene und drahtlose Kommunikation mit externen (Hostrechner) und internen (Anzeigeprozessor 202) Geräten. Die Basis-Prozessorplatine 204 ist in der Lage, über eine Ethernet-Funktion 320 mit einem Ethernet-Netzwerk (z. B. mit einem Taktsynchronisationsstandard wie IEEE („Institute of Electrical and Electronics Engineers”) 1588, über eine LAN-Funktion 322 mit einem drahtlosen lokalen Netz (WLAN) und über eine parallel-zu-seriell-Kommunikationsfunktion 314 mit dem Bluetooth-Modul 232 zu kommunizieren. Die Basis-Prozessorplatine 204 weist auch eine Verbindung zu einem universellen seriellen Bus(USB)-Gerät 312 auf.
  • Die Basis-Prozessorplatine 204 überträgt und sammelt Rohmessdaten (z. B. Gebersystem-Zählwerte, Temperaturmessungen) zur Verarbeitung zu Messdaten, ohne eine Vorverarbeitung zu erfordern, wie z. B. in der „Serial Box” des vorgenannten Patents '582 offenbart. Der Basis-Prozessor 204 sendet die verarbeiteten Daten über eine RS485-Schnittstelle (IF) 326 zum Anzeigeprozessor 328 auf der Benutzerschnittstellenplatine 202. In einer Ausführungsform sendet der Basis-Prozessor 204 die Rohmessdaten auch an einen externen Computer.
  • Nun auf die in 3B gezeigte Benutzerschnittstellenplatine 202 Bezug nehmend, werden die vom Basis-Prozessor empfangenen Winkel- und Positionsdaten von Anwendungen verwendet, die auf dem Anzeigeprozessor 328 ausgeführt werden, um in der GAKMM 100 ein autonomes Messsystem bereitzustellen. Auf dem Anzeigeprozessor 328 können Anwendungen ausgeführt werden, um z. B. folgende Funktionen zu unterstützen, ohne darauf beschränkt zu sein: Messung von Merkmalen, Anleitungs- und Schulungsgrafiken, Ferndiagnose, Temperaturkorrekturen, Steuerung verschiedener BetriebsMerkmalen, Verbindung mit verschiedenen Netzwerken, und Anzeige gemessener Objekte. Neben dem Anzeigeprozessor 328 und einer Benutzerschnittstelle für eine Flüssigkristallanzeige (LCD) 338 (z. B. eine berührungsempfindliche LCD) umfasst die Benutzerschnittstellenplatine 202 mehrere Schnittstellenoptionen einschließlich einer Secure Digital(SD)-Kartenschnittstelle 330, eines Speichers 332, einer USB-Hostschnittstelle 334, eines Diagnoseanschlusses 336, eines Kameraanschlusses 340, einer Audio/Videoschnittstelle 342, eines Wähl-/Mobilfunkmodems 344 und eines globalen Positionsbestimmungssystem(GPS)-Anschlusses 346.
  • Das in 3A gezeigte elektronische Datenverarbeitungssystem 210 kann auch eine Basis-Netzplatine 206 mit einem Umgebungsaufzeichner 362 zur Aufzeichnung von Umgebungsdaten umfassen. Die Basis-Netzplatine 206 versorgt über einen Wechselstrom-Gleichstrom-Wandler 358 und eine Batterieladesteuerung 360 auch das elektronische Datenverarbeitungssystem 210 mit Strom. Die Basis-Netzplatine 206 kommuniziert durch einen asymmetrischen seriellen Bus 354 mit Inter-Integrierter Schaltung (I2C) sowie über eine serielle DMA-Peripherieschnittstelle (DSPI) 357 mit der Basis-Prozessorplatine 204. Die Basis-Netzplatine 206 ist über eine Eingabe-Ausgabe(E/A)-Erweiterungsfunktion 364, die in der Basis-Netzplatine 206 implementiert ist, mit einem Neigungssensor und Funkfrequenzerkennungsmodul (RFID) 208 verbunden.
  • Obwohl sie als separate Komponenten dargestellt sind, können in anderen Ausführungsformen alle oder eine Teilmenge der Komponenten physisch an verschiedenen Orten angeordnet sein und/oder Funktionen auf andere Weise als die in 3A und 3B gezeigte kombiniert sein. Zum Beispiel sind in einer Ausführungsform die Basis-Prozessorplatine 204 und die Benutzerschnittstellenplatine 202 zu einer physischen Platine kombiniert.
  • Nun auf 49 Bezug nehmend, ist eine beispielhafte Ausführungsform eines Sondenendes 401 dargestellt, das ein Messsondengehäuse 102 mit einer mechanischen und elektrischen Schnellverbindungsschnittstelle aufweist, die dem abnehmbaren und austauschbaren Gerät 400 die Kopplung mit der GAKMM 100 erlaubt. Es versteht sich, dass die dargestellte Ausführungsform eine spezielle Konfiguration einer mechanischen und elektrischen Schnittstelle zwischen dem Sondengehäuse und dem Gerät 400 zeigt, andere Schnittstellen können ebenfalls verwendet werden. In der beispielhaften Ausführungsform umfasst das Gerät 400 ein Gehäuse 402 mit einem Griffteil 404, das dimensioniert und geformt ist, um in der Hand eines Bedieners gehalten zu werden, zum Beispiel wie ein Pistolengriff. Das Gehäuse 402 ist eine dünnwandige Struktur mit einem Hohlraum 406 (9). Der Hohlraum 406 ist dimensioniert und konfiguriert, um einen Controller 408 aufzunehmen. Der Controller 408 kann zum Beispiel eine Digitalschaltung mit einem Mikroprozessor oder eine Analogschaltung sein. In einer Ausführungsform ist der Controller 408 in asynchroner bidirektionaler Kommunikation mit dem elektronischen Datenverarbeitungssystem 210 (2 und 3). Die Kommunikationsverbindung zwischen dem Controller 408 und dem elektronischen Datenverarbeitungssystem 210 kann drahtgebunden sein (z. B. über den Controller 420) oder kann eine direkte oder indirekte drahtlose Verbindung (z. B. Bluetooth oder IEEE 802.11) oder eine Kombination aus drahtgebundenen und drahtlosen Verbindungen sein. In der beispielhaften Ausführungsform ist das Gehäuse 402 aus zwei Hälften 410, 412 geformt, zum Beispiel aus einem spritzgegossenen Kunststoffmaterial. Die Hälften 410, 412 können durch Befestigungsmittel wie zum Beispiel Schrauben 414 aneinander befestigt werden. In anderen Ausführungsformen können die Gehäusehälften 410, 412 zum Beispiel durch Klebstoffe oder Ultraschallschweißen aneinander befestigt werden.
  • Das Griffteil 404 weist auch Knöpfe oder Aktuatoren 416, 418 auf, die vom Bediener manuell aktiviert werden. Die Aktuatoren 416, 418 sind mit dem Controller 408 gekoppelt, der ein Signal zu einem Controller 420 im Sondengehäuse 102 sendet. In beispielhaften Ausführungsformen führen die Aktuatoren 416, 418 die Funktionen der Aktuatoren 422, 424 durch, die auf der dem Gerät 400 entgegengesetzten Seite auf dem Sondengehäuse 102 angeordnet sind. Es versteht sich, dass das Gerät 400 zusätzliche Schalter, Knöpfe oder andere Aktuatoren aufweisen kann, die auch zur Steuerung des Geräts 400, der GAKMM 100 benutzt werden können, oder umgekehrt. Das Gerät 400 kann auch Anzeigeeinrichtungen wie zum Beispiel LEDs, Tongeneratoren, Zähler, Displays oder Lehren umfassen. In einer Ausführungsform kann das Gerät 400 einen digitales Sprachaufzeichnungsgerät aufweisen, das die Synchronisation von Sprachbefehlen mit einem Messpunkt erlaubt. In einer anderen Ausführungsform weist das Gerät ein Mikrofon auf, das dem Bediener erlaubt, Befehle aufzuzeichnen 400 oder sprachaktivierte Befehle an das elektronische Datenverarbeitungssystem 210 zu senden.
  • In einer Ausführungsform kann das Griffteil 404 dazu konfiguriert sein, mit jeder Hand oder mit einer bestimmten Hand des Bedieners (z. B. für Links- oder Rechtshändler) benutzt zu werden. Das Griffteil 404 kann auch für Bediener mit Behinderungen (z. B. Bediener mit fehlenden Fingern oder Armprothesen) konfiguriert sein. Wenn der Freiraum begrenzt ist, kann das Griffteil 404 zudem abgenommen werden, und das Sondengehäuse 102 kann allein verwendet werden. Wie oben erläutert, kann das Sondenende 401 auch die Welle der siebten Achse des der GAKMM 100 umfassen. In dieser Ausführungsform kann das Gerät 400 angeordnet sein, um sich um die siebte GAKMM-Achse zu drehen.
  • Das Sondenende 401 umfasst eine mechanische und elektrische Schnittstelle 426, die auf dem Gerät 400 einen ersten Verbinder 429 (8) aufweist, der mit einem zweiten Verbinder 428 auf dem Sondengehäuse 102 zusammenwirkt. Die Verbinder 428, 429 können elektrische und mechanische Merkmalen haben, die die Kopplung des Geräts 400 an das Sondengehäuse 102 ermöglichen. In einer Ausführungsform umfasst die Schnittstelle 426 eine erste Fläche 430 mit einem mechanischen Koppler 432 und einem elektrischen Verbinder 434 darauf. Das Gehäuse 402 umfasst auch eine zweite Fläche 436, die benachbart und versetzt zur ersten Fläche 430 positioniert ist. In der beispielhaften Ausführungsform ist die zweite Fläche 436 eine plane Fläche, die in einen Abstand von etwa 0,5 Zoll von der ersten Fläche 430 versetzt ist. Dieser Versatz stellt einen Zwischenraum für die Finger des Bedieners bereit, wenn ein Befestigungsmittel wie z. B. eine Manschette 438 angezogen oder gelöst wird. Die Schnittstelle 426 sorgt für eine relativ schnelle und sichere elektronische Verbindung zwischen dem Gerät 400 und dem Sondengehäuse 102, ohne Verbinderstifte auszurichten zu müssen und ohne separate Kabel oder Verbinder zu erfordern.
  • Der elektrische Verbinder 434 erstreckt sich von der ersten Fläche 430 und umfasst einen oder mehrere Verbinderstifte 440, die zum Beispiel über einen oder mehrere Arm-Busse 218 in asynchroner bidirektionaler Kommunikation mit dem elektronischen Datenverarbeitungssystern 210 (2 und 3) elektrisch gekoppelt sind. Die bidirektionale Kommunikationsverbindung kann drahtgebunden (z. B. über einen Arm-Bus 218), drahtlos (z. B. Bluetooth oder IEEE 802.11) oder eine Kombination aus drahtgebundener und drahtloser Kommunikation sein. In einer Ausführungsform ist der elektrische Verbinder 434 mit dem Controller 420 elektrisch gekoppelt. Der Controller 420 kann zum Beispiel über einen oder mehrere Arm-Bus(se) 218 in asynchroner bidirektionaler Kommunikation mit dem elektronischen Datenverarbeitungssystem 210 sein. Der elektrische Verbinder 434 ist positioniert, um eine relativ schnelle und sichere elektronische Verbindung mit dem elektrischen Verbinder 442 auf dem Sondengehäuse 102 herzustellen. Die elektrischen Verbinder 434, 442 werden miteinander verbunden, wenn das Gerät 400 an das Sondengehäuse 102 angebracht wird. Die elektrischen Verbinder 434, 442 können beide ein metallgekapseltes Verbindergehäuse umfassen, das eine Abschirmung gegen elektromagnetische Störungen bietet sowie die Verbinderstifte schützt und während der Anbringung des Geräts 400 an das Sondengehäuse 102 die Ausrichtung der Stift unterstützt.
  • Der mechanische Koppler 432 sorgt für eine relativ steife mechanische Verbindung zwischen dem Gerät 400 und dem Sondengehäuse 102, um relativ präzise Anwendungen zu unterstützen, bei denen die Lage des Geräts 400 am Ende des Armabschnitts 104 der GAKMM 100 sich bevorzugt nicht verschiebt oder bewegt. Derartige Bewegungen können typischerweise eine unerwünschte Verschlechterung in der Genauigkeit des Messergebnisses zur Folge haben. Diese erwünschten Ergebnisse werden durch verschiedene Merkmale des mechanischen Befestigungskonfigurationsteils der mechanischen und elektronischen Schnittstelle einer Ausführungsform der vorliegenden Erfindung erreicht.
  • In einer Ausführungsform umfasst der mechanische Koppler 432 einen ersten Vorsprung 444, der an einem Ende 448 (das vordere Ende oder die „Front” des Geräts 400) angeordnet ist. Der erste Vorsprung 444 kann eine keilförmige, eingekerbte oder rampenförmige Schnittstelle aufweisen, die eine Lippe 446 bildet, die sich vom ersten Vorsprung 444 aus erstreckt. Die Lippe 446 ist dimensioniert, um in einem Schlitz 450 aufgenommen zu werden, der durch einen Vorsprung 452 definiert wird, der sich vom Sondengehäuse 102 aus erstreckt (8). Es versteht sich, dass der erste Vorsprung 444 und der Schlitz 450 zusammen mit der Manschette 438 eine Koppleranordnung bilden, derart, dass, wenn die Lippe 446 im Schlitz 450 positioniert ist, der Schlitz 450 verwendet werden kann, um sowohl die Längs- als auch die Seitwärtsbewegung des Geräts 400 einzuschränken, wenn es am Sondengehäuse 102 angebracht ist. Wie weiter unten ausführlicher erläutert, kann die Drehung der Manschette 438 verwendet werden, um die Lippe 446 im Schlitz 450 zu sichern.
  • Der mechanische Koppler 432 kann entgegengesetzt zum ersten Vorsprung 444 einen zweiten Vorsprung 454 aufweisen. Der zweite Vorsprung 454 kann eine keilförmige, eingekerbte oder rampenförmige Schnittstellenfläche 456 aufweisen (5). Der zweite Vorsprung 454 ist positioniert, um in ein mit dem Sondengehäuse 102 verbundenes Befestigungsmittel wie zum Beispiel die Manschette 438 einzugreifen. Wie weiter unten ausführlicher erläutert, weist der mechanische Koppler 432 eine erhabene Fläche auf, die von einer Fläche 430 vorspringt, die benachbart zum oder um den elektrischen Verbinder 434 herum angeordnet ist und einen Drehpunkt für die Schnittstelle 426 bereitstellt (7 und 8). Diese dient als der dritte von drei mechanischen Kontaktpunkten zwischen dem Gerät 400 und den Sondengehäuse 102, wenn das Gerät 400 daran befestigt ist.
  • Das Sondengehäuse 102 umfasst eine Manschette 438, die an einem Ende koaxial angeordnet ist. Die Manschette 438 weist ein Gewindeteil auf, das zwischen einer ersten Position (5) und einer zweiten Position (7) beweglich ist. Durch Drehen der Manschette 438 kann die Manschette 438 benutzt werden, um das Gerät 400 zu befestigen oder abzunehmen, ohne externe Werkzeuge zu erfordern. Die Drehung der Manschette 438 verschiebt die Manschette 438 entlang eines Zylinders 474 mit quadratischem Gewinde und relativ weiter Gewindeteilung. Die Verwendung derartiger relativ großer, mit Konturen versehenen Flächen mit quadratischem Gewinde ermöglicht eine signifikante Klemmkraft bei minimalem Drehmoment. Die weite Gewindeteilung des Zylinders 474 ermöglicht zudem das Anziehen oder Lösen der Manschette 438 bei minimaler Drehung.
  • Um das Gerät 400 an das Sondengehäuse 102 zu koppeln, wird die Lippe 446 in den Schlitz 450 eingeführt, und das Gerät wird geschwenkt, um den zweiten Vorsprung 454 zur Fläche 458 zu drehen, wie durch den Pfeil 464 angezeigt (5). Die Manschette 438 wird gedreht, wodurch die Manschette 438 in der Richtung, die durch den Pfeil 462 angezeigt wird, in Eingriff mit der Fläche 456 gebracht wird. Die Bewegung der Manschette 438 gegen die angewinkelte Fläche 456 treibt die mechanische Koppler 432 gegen die erhabene Fläche 460. Dies trägt dazu bei, potenzielle Probleme durch Verdrehung der Schnittstelle oder Fremdkörper auf der Oberfläche der Schnittstelle zu verhindern, die den starren Sitz des Geräts 400 am Sondengehäuse 102 stören könnten. Die Kraftanwendung durch die Manschette 438 auf den zweiten Vorsprung 454 bewirkt, dass die mechanische Koppler 432 sich nach vorne bewegt, um die Lippe 446 in einen Sitz auf dem Sondengehäuse 102 zu pressen. Wenn die Manschette 438 weiter angezogen wird, wird der zweite Vorsprung 454 nach oben zum Sondengehäuse 102 gepresst, wodurch ein Druck auf einen Drehpunkt ausgeübt wird. Dies ergibt eine wippenartige Anordnung, die auf den zweiten Vorsprung 454, die Lippe 446 und den zentralen Drehpunkt Druck anlegt, um eine Verschiebung oder ein Schaukeln des Geräts 400 zu reduzieren oder zu beseitigen. Der Drehpunkt presst direkt gegen den Boden des Sondengehäuses 102, während die Lippe 446 eine nach unten gerichtete Kraft auf das Ende des Sondengehäuses 102 anlegt. 5 enthält Pfeile 462, 464, um die Bewegungsrichtung des Geräts 400 und der Manschette 438 anzuzeigen. 7 enthält Pfeile 466, 468, 470, um die Richtung des Drucks anzuzeigen, der in der Schnittstelle 426 angelegt wird, wenn die Manschette 438 angezogen wird. Es ist anzumerken, dass der Versatzabstand der Fläche 436 des Geräts 400 einen Spalt 472 zwischen der Manschette 438 und der Fläche 436 bereitstellt (6). Der Spalt 472 erlaubt dem Bediener, einen festeren Griff an der Manschette 438 zu erhalten, während er die Gefahr verringert, sich beim Drehen der Manschette 438 Finger einzuklemmen. In einer Ausführungsform ist das Sondengehäuse 102 von ausreichender Steifigkeit, um die Verdrehung zu reduzieren oder zu verhindern, wenn die Manschette 438 angezogen wird.
  • Ausführungsformen der Schnittstelle 426 erlauben die korrekte Ausrichtung des mechanischen Kopplers 432 und des elektrischen Verbinders 434 und schützen auch die Elektronik-Schnittstelle vor anliegenden Spannungen, die sonst durch die Klemmwirkung der Manschette 438, der Lippe 446 und der Fläche 456 auftreten würde. Dies bietet den Vorteil, dass Spannungsschäden an den auf der Leiterplatte 476 montierten elektrischen Verbinder n 434, 442, die gelötete Anschlüsse aufweisen können, reduziert oder beseitigt werden können. Ausführungsformen haben bekannten Ansätzen gegenüber auch den Vorteil, dass ein Benutzer kein Werkzeug benötigt, um das Gerät 400 mit dem Sondengehäuse 102 zu verbinden oder von diesem zu trennen. Dies ermöglicht dem Benutzer, das Gerät 400 relativ leicht von Hand mit dem Sondengehäuse 102 zu verbinden und davon zu trennen.
  • Aufgrund der relativ großen Zahl abgeschirmter elektrischer Verbindungen, die mit der Schnittstelle 426 möglich sind, kann eine relativ große Zahl von Funktionen von der GAKMM 100 und dem Gerät 400 gemeinsam benutzt werden. Zum Beispiel können Knöpfe oder andere Aktuatoren, die auf der GAKMM 100 angeordnet sind, verwendet werden, um das Gerät 400 zu steuern, oder umgekehrt. Ferner können Befehle und Daten vom elektronischen Datenverarbeitungssystem 210 zum Gerät 400 gesendet werden. In einer Ausführungsform ist das Gerät 400 eine Videokamera, die Daten eines aufgezeichneten Bilds sendet, das im Speicher des Basis-Prozessors 204 gespeichert oder auf dem Bildschirm 328 angezeigt werden soll. In einer anderen Ausführungsform ist das Gerät 400 ein Bildprojektor, der Daten vom elektronisches Datenverarbeitungssystem 210 empfängt. Zusätzlich können Temperatursensoren, die in der GAKMM 100 oder im Gerät 400 angeordnet sind, gemeinsam benutzt werden. Es versteht sich, dass Ausführungsformen der vorliegenden Erfindung den Vorteil bieten, dass sie eine flexible Schnittstelle bereitstellen, die es ermöglicht, eine große Vielfalt von Zusatzgeräten 400 schnell, einfach und zuverlässig mit der GAKMM 100 zu koppeln. Ferner kann die Fähigkeit der gemeinsamen Nutzung von Funktionen durch die GAKMM 100 und das Gerät 400 durch Beseitigung der Duplizität eine Verringerung der Größe, des Stromverbrauchs und der Komplexität der GAKMM 100 ermöglichen.
  • In einer Ausführungsform kann der Controller 408 den Betrieb oder die Funktionalität des Sondenendes 401 der GAKMM 100 ändern. Zum Beispiel kann der Controller 408 Anzeigelichter auf dem Sondengehäuse 102 ändern, um Licht einer anderen Farbe, einer anderen Lichtstärke zu emittieren, oder an anderen Zeitpunkten ein/aus zu schalten, wenn das Gerät 400 angebracht ist oder das Sondengehäuse 102 allein verwendet wird. In einer Ausführungsform weist das Gerät 400 einen Entfernungssensor auf (nicht gezeigt), der die Entfernung zu einem Objekt misst. In dieser Ausführungsform kann der Controller 408 Anzeigelichter auf dem Sondengehäuse 102 ändern, um dem Bediener anzuzeigen, wie weit das Objekt von der Sondenspitze 118 ist. In einer anderen Ausführungsform kann der Controller 408 die Farbe der Anzeigelichter anhängig von der Qualität des von der LLS 242 erfassten Bilds ändern. Dies bietet den Vorteil, dass die Anforderungen an den Controller 420 vereinfacht werden, und ermöglicht durch den Zusatz von Zusatzgeräten eine aufrüstete oder erhöhte Funktionalität.
  • Bezugnehmend auf 1011, bieten Ausführungsformen der vorliegenden Erfindung Vorteile für die Kamera, Signalverarbeitung, Steuerung und Anzeigeschnittstellen eines Scanners 500, der Bestandteil einer Messeinheit 490 ist. Der Scanner 500 kann sich auf die elektrischen Elemente LLS 242 beziehen, wie oben in Bezug auf 19 angegeben. Der Scanner kann eine LLS oder ein Flächenscanner sein, wie weiter unten ausführlicher erläutert. Die LLS 500 ermöglicht kontaktlose Messungen eines Objekts, typischerweise im gleichen Bezugssystem wie das der harten Sonde 118 der GAKMM 100, wie oben beschrieben. Ferner beruhen die berechneten dreidimensionalen Koordinaten der Oberflächenpunkte, die vom Scanner 500 bereitgestellt werden, auf bekannten Triangulationsprinzipien, wie hier weiter unten ausführlicher beschrieben. Der Scanner 500 kann ein Gehäuse 502 mit einem Griffteil 504 umfassen. Die LLS 500 umfasst außerdem an einem Ende eine Schnittstelle 426, die den Scanner 500 mechanisch und elektrisch mit dem Sondengehäuse 102 koppelt, wie oben beschrieben. Die Schnittstelle 426 erlaubt die schnelle und einfache Kopplung und Abnahme des Scanners 500 von der GAKMM 100, ohne zusätzliche Werkzeuge zu erfordern.
  • Benachbart zur Schnittstelle 426 weist das Gehäuse 502 einen Abschnitt 506 (11A) auf, der eine Kamera 508 und einen Projektor 510 umfasst. In der beispielhaften Ausführungsform verwendet der Projektor 510 eine Lichtquelle, die eine gerade Linie erzeugt, die auf eine Objektoberfläche projiziert wird. Die Lichtquelle kann zum Beispiel ein Laser, eine superstrahlende Diode (SLD), eine Glühlampe, eine Leuchtdiode (LED) sein. Das projizierte Licht kann sichtbar oder unsichtbar sein, doch in manchen Fällen kann sichtbares Licht für den Bediener praktischer sein. Die Kamera 508 weist eine Linse und einen Bildsensor auf. Der Bildsensor ist eine lichtempfindliche Matrix, das zum Beispiel ein zweidimensionaler (2D) Flächensensor mit einem ladungsgekoppelten Bauelement (CCD) oder ein zweidimensionaler (2D) Flächensensor mit einem komplementären Metall-Oxid-Halbleiter (CMOS) ist, oder er kann ein Bauelement anderen Typs sein. Jeder Bildsensor kann eine 2D-Matrix (d. h. Zeilen, Spalten) mit einer Vielzahl von lichtempfindlichen Bildpunkten (Pixeln) umfassen. Jedes Pixel enthält typischerweise mindestens einen Fotodetektor, der Licht in eine elektrische Ladung umwandelt, die in den Pixelzellen gespeichert wird und als ein Spannungswert ausgelesen wird. Spannungswerte werden durch einen Analog-Digital-Wandler (AD-Wandler) in Digitalwerte umgewandelt. Bei einem CMOS-Sensorchip ist der AD-Wandler typischerweise im Sensorchip enthalten. Bei einem CCD-Sensorchip ist der AD-Wandler typischerweise außerhalb des Sensorchips auf einer Leiterplatte angeordnet.
  • In einer beispielhaften Ausführungsform sind der Projektor 510 und die Kamera 508 orientiert, um die Abbildung des reflektierten Lichts durch die lichtempfindliche Matrix zu ermöglichen. In einer Ausführungsform ist der Scanner 500 von der Sondenspitze 118 versetzt, um den Betrieb des Scanners 500 ohne Behinderung durch die Sondenspitze 118 zu ermöglichen. Mit anderen Worten, der Scanner 500 kann mit der installierten Sondenspitze 118 betrieben werden. Ferner versteht es sich, dass der Scanner 500 relativ zur Sondenspitze 118 im Wesentlichen feststehend ist, sodass am Griffteil 504 anliegende Kräfte die Ausrichtung des Scanners 500 relativ zur Sondenspitze 118 nicht beeinflussen. In einer Ausführungsform kann der Scanner 500 einen zusätzlichen Aktuator (nicht gezeigt) aufweisen, der dem Bediener erlaubt, zwischen der Datenerfassung vom Scanner 500 und der Sondenspitze 118 umzuschalten.
  • Der Projektor 510 und die Kamera 508 sind mit einem Controller 512 elektrisch gekoppelt, der im Gehäuse 502 angeordnet ist. Der Controller 512 kann einen oder mehrere Mikroprozessoren, Digitalsignalprozessoren, Speicher und Signalverarbeitungs- und/oder Speicherschaltungen anderen Typs umfassen. In einer Ausführungsform kann der Controller 512 aufgrund des vom Scanner 500 erzeugten großen Datenvolumens im Griffteil 504 angeordnet sein. Der Controller 512 ist über einen elektrischen Verbinder 434 mit den Arm-Bussen 218 elektrisch gekoppelt. Der Scanner 500 weist außerdem Aktuatoren 514, 516 auf, die vom Bediener manuell aktiviert werden können, um den Betrieb und die Datenerfassung durch den Scanner 500 zu initiieren.
  • Die Markierlichtquelle 509 emittiert einen Lichtstrahl, der den Lichtstrahl vom Projektor 510 schneidet. Die Position, an der die zwei Lichtstrahlen sich schneiden, stellt dem Benutzer eine Angabe der optimalen Entfernung vom Scanner 500 zum geprüften Objekt bereit. Der Scanner 500 wird in einem gewissen Abstand von jeder Seite der optimalen Entfernung gute Messungen durchführen, doch die Position des Schnittpunkts der Lichtstrahlen von der Markierlichtquelle 509 und dem Projektor 510 stellt dem Benutzer eine praktische Anzeige des korrekten Messabstands für den Scanner 500 bereit.
  • 10B zeigt das Sondenende 401 und den Scanner 500, die an der zweiten Gruppe von Lagerkartuschen 112 angebracht sind. Die Gruppe ist am zweiten Armsegment 108 angebracht, das Teil der GAKMM 100 ist.
  • 10C zeigt das Sondenende 401 und den Scanner 500 in einer auseinandergezogenen und gedrehten Ansicht, welche die Schnittstelle 426 zeigt, die einen Scannerverbinder 426A und den Sondenendenverbinder 426C einschließt.
  • 11A und 11B zeigen innere Elemente des Scanners 500 gemäß einer Ausführungsform. 11A ist eine partielle Schnittansicht, die einige elektrische Komponenten im Inneren des Griffs 504 aufdeckt. Die elektrischen Komponenten umfassen Verbindungen zu Aktuatoren (z. B. Druckknöpfe) 514, 516. Zusätzliche elektrische Komponenten liegen oberhalb des Griffs 504 im Gehäuse des Scanners 500. In einer Ausführungsform ist aus ästhetischen Gründen und zum Schutz eine Außenschale 1105 vorgesehen, die in einer Ausführungsform aus Kunststoff besteht,
  • 11B ist eine partiell demontierte Ansicht des Scanners 500. In einer Ausführungsform bestehen die Elemente der Kamera 508 aus einer Kameraanordnung 1110, umfassend ein Gehäuse 1112, mehrere Linsenelemente (nicht gezeigt) im Gehäuse 112, und ein Schutzabdeckfenster 1114. Die Kameraanordnung 1110 wird durch Laschen oder Finger 1120 in Position gehalten, die durch die Klemme 1122 fest gegen die Finger gehalten werden. In einer Ausführungsform umfasst die Markierlichtquelle 509 ein Gehäuse 1132 und ein Abdeckfenster 1134. Der Projektor umfasst ein Abdeckfenster 1140. Die Fenster 1114, 1134 und 1140 liegen im Wesentlichen bündig an der Außenfläche der der Außenschale 1105 an, um die Reinigung der Fensterflächen zu erleichtern. Der Scanner 500 weist eine starre Struktur mit Elementen auf, die eine Metallfrontplatte 1150, die Kamera 508, die Markierlichtquelle 509, den Projektor 510 und die mechanische und elektrische Schnittstelle 426 umfassen. Diese Elemente werden durch eine starre und stabile Montage zusammengehalten. Die Metallfrontplatte 1150 ist mit Schrauben 1152 an der Schnittstelle 426 befestigt.
  • 12 zeigt Elemente einer LLS 4500, die einen Projektor 4520 und eine Kamera 4540 umfasst. Der Projektor 4520 umfasst eine Quell-Lichtmuster 4521 und eine Projektorlinse 4522. Das Quell-Lichtmuster weist ein belichtetes Muster in Form einer Linie auf. Die Projektorlinse weist ein Projektor-Perspektivitätszentrum und eine optische Achse des Projektors auf, die durch das Projektor-Perspektivitätszentrum geht. Im Beispiel von 12 ist ein zentraler Strahl des Lichtstrahls 4524 mit der optischen Projektorachse ausgerichtet. Die Kamera 4540 umfasst eine Kameralinse 4542 und eine lichtempfindliche Matrix 4541. Die Linse weist eine optische Kameraachse 4543 auf, die durch ein Kameralinsen-Perspektivitätszentrum 4544 geht. Im beispielhaften System 4500 sind die optische Achse des Projektors, die mit dem Lichtstrahl 4524 ausgerichtet ist, und die optische Achse der Kameralinse 4544 senkrecht zur Lichtlinie 4523, die durch das Quell-Lichtmuster 4521 projiziert wird. Mit anderen Worten, die Linie 4523 ist in der Richtung senkrecht zum Papier in 12. Die Linie trifft auf eine Objektoberfläche, die in einem ersten Abstand vom Projektor die Objektoberfläche 4510A und in einem zweiten Abstand vom Projektor die Objektoberfläche 4510B ist. Es versteht es sich, dass die Objektoberfläche in anderen Höhen über oder unter der Papierebene von 12 in einem anderen Abstand vom Projektor sein kann. Die Lichtlinie schneitet die Fläche 4510A (in der Papierebene) an einem Punkt 4526, und sie schreitet die Fläche 4510B (in der Papierebene) an einem Punkt 4527. Im Fall des Schnittpunkts 4526 läuft ein Lichtstrahl vom Punkt 4526 durch das Kameralinsen-Perspektivitätszentrum 4544, um die lichtempfindliche Matrix 4541 in einem Bildpunkt 4546 zu schneiden. Im Fall des Schnittpunkts 4527 läuft ein Lichtstrahl vom Punkt 4527 durch das Kameralinsen-Perspektivitätszentrum, um die lichtempfindliche Matrix 4541 in einem Bildpunkt 4547 zu schneiden. Durch Beobachten der Position des Schnittpunkts relativ zur Position der optischen Achse der Kameralinse 4544 kann die Entfernung vom Projektor (und der Kamera) zur Objektoberfläche durch die Triangulationsprinzipien bestimmt werden. Die Entfernung vom Projektor zu anderen Punkten auf der Lichtlinie 4526, das heißt, Punkten auf der Lichtlinie, die nicht auf der Papierebene von 12 liegen, kann dementsprechend ermittelt werden.
  • In einer Ausführungsform ist die lichtempfindliche Matrix 4541 ausgerichtet, um entweder die Zeilen oder die Spalten der Matrix in Richtung des reflektierten Laserstreifens zu platzieren. In diesem Fall stellt die Position eines Lichtpunkts entlang einer Richtung der Matrix Information zur Bestimmung einer Entfernung zum Objekt bereit, wie durch die Differenz in der Position der Lichtpunkte 4546 und 4547 von 12 angezeigt. Die Position des Lichtpunkts in der orthogonalen Richtung der Matrix stellt Information bereit, um zu bestimmen, wo, entlang der Länge der Laserlinie, die Lichtebene das Objekt schneidet.
  • Wie hier verwendet, versteht es sich, dass die Begriffe Spalten und Zeilen sich einfach auf eine erste Richtung entlang der lichtempfindlichen Matrix und eine zweite Richtung rechtwinklig zur ersten Richtung beziehen. Daher beziehen sich die Begriffe Zeilen und Spalten, wie sie hier verwendet werden, nicht unbedingt auf Zeilen und Spalten gemäß der Dokumentation, die von einem Hersteller der lichtempfindlichen Matrix 4541 bereitgestellt wird. In der folgenden Diskussion wird angenommen, dass die Zeilen in der Papierebene auf der Oberfläche der lichtempfindlichen Matrix liegen. Es wird angenommen, dass die Spalten auf der Oberfläche der lichtempfindlichen Matrix und orthogonal zu den Zeilen stehen. Doch es versteht sich, dass andere Anordnungen möglich sind.
  • Wie oben beschrieben, kann Licht von einem Scanner in einem Linienmuster projiziert werden, um 3D-Koordinaten über eine Linie zu sammeln. Alternativ dazu kann Licht von einem Scanner projiziert werden, um eine Fläche abzudecken, wodurch 3D-Koordinaten über eine Fläche auf einer Objektoberfläche hinweg erhalten werden. In einer Ausführungsform ist der Projektor 508 in 1011 ein Flächenprojektor statt ein Linienprojektor. Eine Erläuterung der Triangulationsprinzipien für den Fall einer Flächenprojektion folgt nun Bezug nehmend auf das System 2560 von 13A und das System 4760 von 13B. Zuerst auf 13A Bezug nehmend, umfasst das System 2560 einen Projektor 2562 und eine Kamera 2564. Der Projektor 2562 umfasst eine Quell-Lichtmuster 2570, die auf einer Quellenebene liegt, und eine Projektorlinse 2572. Die Projektorlinse kann mehrere Linsenelemente enthalten. Die Projektorlinse weist ein Linsen-Perspektivitätszentrum 2575 und eine optische Achse des Projektors 2576 auf. Der Lichtstrahl 2573 geht von einem Punkt 2571 auf der Quell-Lichtmuster durch das Linsen-Perspektivitätszentrum zu einem Objekt 2590, das er an einem Punkt 2574 trifft.
  • Die Kamera 2564 umfasst eine Kameralinse 2582 und eine lichtempfindliche Matrix 2580. Die Kameralinse 2582 weist ein Linsen-Perspektivitätszentrum 2585 und eine optische Achse 2586 auf. Ein Lichtstrahl 2583 geht vom Objektpunkt 2574 durch das Kamera-Perspektivitätszentrum 2585 und trifft die lichtempfindliche Matrix 2580 an einem Punkt 2581.
  • Das Liniensegment, das die Perspektivitätszentren verbindet, ist die Basislinie 2588 in 13A und die Basislinie 4788 in 13B. Die Länge der Basislinie wird die Basislinienlänge (2592, 4792) genannt. Der Winkel zwischen der optischen Projektorachse und der Basislinie ist der Basislinien-Projektor-Winkel (2594, 4794). Der Winkel zwischen der optischen Kameraachse (2583, 4786) und der Basislinie ist der Basislinien-Kamera-Winkel (2596, 4796). Wenn bekannt ist, dass ein Punkt auf der Quell-Lichtmuster (2570, 4771) einem Punkt auf der lichtempfindlichen Matrix (2581, 4781) entspricht, ist es möglich, anhand der Basislinienlänge, des Basislinien-Projektor-Winkels und des Basislinien-Kamera-Winkels die Seiten des Dreiecks zu bestimmen, das die Punkte 2585, 2574 und 2575 verbindet, und daher die Oberflächenkoordinaten der Punkte auf der Oberfläche des Objekts 2590 relativ zum Bezugssystem des Messsystems 2560 zu bestimmen. Zu diesem Zweck werden die Winkel der Seiten des kleinen Dreiecks zwischen der Projektorlinse 2572 und der Quell-Lichtmuster 2570 anhand der bekannten Entfernung zwischen der Linse 2572 und der Ebene 2570 und der Entfernung zwischen dem Punkt 2571 und dem Schnittpunkt der optischen Achse 2576 mit der Ebene 2570 ermittelt. Diese kleinen Winkel werden auf geeignete Weise von den größeren Winkeln 2596 und 2594 addiert oder subtrahiert, um die gewünschten Winkel des Dreiecks zu erhalten. Für den Durchschnittsfachmann versteht es sich, dass äquivalente mathematische Methoden verwendet werden können, um die Längen der Seiten des Dreiecks 2574-2585-2575 zu finden, oder dass andere ähnliche Dreiecke verwendet werden können, um die gewünschten Oberflächenkoordinaten des Objekts 2590 zu erhalten.
  • Zunächst auf 13B Bezug nehmend, ist das System 4760 mit dem System 2560 von 13A vergleichbar, mit der Ausnahme, dass das System 4760 keine Linse enthält. Das System kann einen Projektor 4762 und eine Kamera 4764 umfassen. In der Ausführungsform, die in 13B gezeigt wird, weist der Projektor eine Lichtquelle 4778 und einen Lichtmodulator 4770 auf. Die Lichtquelle 4778 kann eine Laserlichtquelle sein, da solch eine Lichtquelle bei der Geometrie von 13B auf lange Entfernungen fokussiert bleibt. Ein Lichtstrahl 4773 von der Lichtquelle 4778 trifft den optischen Modulator 4770 an einem Punkt 4771. Andere Lichtstrahlen von der Lichtquelle 4778 treffen den optischen Modulator an anderen Stellen auf der Modulatoroberfläche. In einer Ausführungsform ändert der optische Modulator 4770 die Leistung des emittierten Lichts, in den meisten Fällen, indem er die Lichtleistung in hohem Maße verringert. Auf diese Weise verleiht der optische Modulator dem Licht ein optisches Muster; hier als Quell-Lichtmuster bezeichnet, das auf der Oberfläche des optischen Modulators 4770 liegt. Der optische Modulator 4770 kann zum Beispiel ein DLP- oder LCOS-Gerät sein. In manchen Ausführungsformen ist der Modulator 4770 lichtdurchlässig statt reflektierend. Das aus dem optischen Modulator 4770 austretende Licht tritt aus einem virtuellen Perspektivitätszentrum 4775 aus. Der Lichtstrahl tritt aus dem virtuellen Perspektivitätszentrum 4775 aus, geht durch den Punkt 4771 und läuft zum Punkt 4774 auf der Oberfläche des Objekts 4790.
  • Die Basislinie ist das Liniensegment, das vom Kameralinsen-Perspektivitätszentrum 4785 zum virtuellen Perspektivitätszentrum 4775 verläuft. Allgemein beinhaltet das Triangulationsverfahren das Ermitteln der Längen der Seiten eines Dreiecks, zum Beispiel des Dreiecks mit den Scheitelpunkten 4774, 4785 und 4775. Ein Verfahren, um dies zu tun, ist das Ermitteln der Länge der Basislinie, des Winkels zwischen der Basislinie und der optischen Kameraachse 4786 und des Winkels zwischen der Basislinie und der Projektor-Bezugsachse 4776. Um den gewünschten Winkel zu ermitteln, werden zusätzliche kleinere Winkel ermittelt. Zum Beispiel kann der kleine Winkel zwischen der optischen Kameraachse 4786 und dem Strahl 4783 ermittelt werden, indem der Winkel des kleinen Dreiecks zwischen der Kameralinse 4782 und der lichtempfindlichen Matrix 4780 auf der Basis der Entfernung von der Linse zur lichtempfindlichen Matrix und der Entfernung des Pixels von der optischen Kameraachse aufgelöst wird. Der Winkel des kleinen Dreiecks wird dann zum Winkel zwischen der Basislinie und der optischen Kameraachse addiert, um den gewünschten Winkel zu ermitteln. Dementsprechend kann für den Projektor der Winkel zwischen der Projektor-Bezugsachse 4776 und dem Strahl 4773 ermittelt werden, indem der Winkel des kleinen Dreiecks zwischen diesen zwei Basislinien auf der Basis der bekannten Entfernung der Lichtquelle 4777 und der optischen Modulationsoberfläche und der Entfernung des Projektorpixels bei 4771 vom Schnittpunkt der Bezugsachse 4776 mit der Oberfläche des optischen Modulators 4770 aufgelöst wird. Dieser Winkel wird vom Winkel zwischen der Basislinie und der Projektor-Bezugsachse subtrahiert, um den gewünschten Winkel zu erhalten.
  • Die Kamera 4764 umfasst eine Kameralinse 4782 und eine lichtempfindliche Matrix 4780. Die Kameralinse 4782 weist ein Kameralinsen-Perspektivitätszentrum 4785 und eine optische Kameraachse 4786 auf. Die optische Kameraachse ist ein Beispiel einer Kamera-Bezugsachse. Aus mathematischer Sicht kann jede Achse, die durch das Kameralinsen-Perspektivitätszentrum geht, gleichermaßen in Triangulationsberechnungen verwendet werden, doch üblicherweise wird die optische Kameraachse verwendet, die eine Symmetrieachse für die Linse ist. Ein Lichtstrahl 4783 geht vom Objektpunkt 4774 durch das Kamera-Perspektivitätszentrum 4785 und trifft die lichtempfindliche Matrix 4780 an einem Punkt 4781. Für den Durchschnittsfachmann versteht es sich, dass andere äquivalente mathematische Methoden können verwendet werden, um die Länge der Seiten des Dreiecks 4774-4785-4775 aufzulösen.
  • Obwohl Triangulationsverfahren dem Fachmann bekannt sind, wird hier der Vollständigkeit halber zusätzliche technische Information gegeben. Jedes Linsensystem weist eine Eintrittspupille und eine Austrittspupille auf. Die Eintrittspupille ist der Punkt, an dem das Licht austritt, von der Optik erster Ordnung aus gesehen. Die Austrittspupille ist der Punkt, an dem das Licht auf dem Weg vom Linsensystem zur lichtempfindlichen Matrix austritt. Bei einem aus mehreren Elementen bestehenden Linsensystem stimmen die Eintrittspupille und die Austrittspupille nicht unbedingt überein, und die Winkel der Strahlen in Bezug auf die Eintrittspupille und die Austrittspupille sind nicht unbedingt gleich. Doch das Modell kann vereinfacht werden, indem das Perspektivitätszentrum als Eintrittspupille der Linse betrachtet wird und die Entfernung von der Linse zur Quell- oder Bildebene dann so angepasst wird, dass die Strahlen geradlinig weitergehen, um die Quell- oder Bildebene zu treffen. Auf diese Weise wird das in 13A gezeigte einfache Modell erhalten. Es versteht sich, dass diese Beschreibung eine gute erste Näherung des Verhaltens von Licht darstellt, doch zusätzliche Feinkorrekturen möglich sind, um Linsenfehler zu berücksichtigen, die dazu führen können, dass die Strahlen leicht von den Positionen abweichen, die mit dem Modell in 13A berechnet wurden. Obwohl im Allgemeinen die Basislinienlänge, der Basislinien-Projektor-Winkel und der Basislinien-Kamera-Winkel verwendet werden, schließt das nicht die Möglichkeit aus, dass andere vergleichbare, doch leicht abweichende Formulierungen des Modells anwendbar sind, ohne die Allgemeinheit der Beschreibung hier einzuschränken.
  • In manchen Fällen kann ein Scannersystem zusätzlich zu einem Projektor zwei Kameras umfassen. In anderen Fällen kann ein Triangulationssystem nur mit zwei Kameras aufgebaut sein, wobei die Kameras dazu konfiguriert sind, Lichtpunkte auf einem Objekt oder in einer Umgebung abzubilden. Falls zwei Kameras verwendet werden, ob mit oder ohne Projektor, kann eine Triangulation zwischen den Kamerabildern mithilfe einer Basislinie zwischen den zwei Kameras durchgeführt werden. In diesem Fall wird die Triangulation Bezug nehmend auf 13A verständlich, indem der Projektor 2562 durch eine Kamera ersetzt wird.
  • In manchen Fällen können verschiedene Arten von Abtastungsmustern vorteilhafterweise kombiniert werden, um eine bessere Leistung in kürzerer Zeit zu erhalten. Zum Beispiel verwendet ein schnelles Messverfahren in einer Ausführungsform ein zweidimensionales codiertes Muster, wobei in einer Einzelaufnahme dreidimensionale Koordinatendaten erhalten werden können. In einem Verfahren zur Verwendung codierter Muster können zum Beispiel verschiedene Zeichen, verschiedene Formen, verschiedene Dicken oder Größen oder verschiedene Farben verwendet werden, um unterscheidungskräftige Elemente zu ergeben, die auch als codierte Elemente oder codierte Merkmale bekannt sind. Derartige Merkmale können verwendet werden, um die Zuordnung des Punkts 2571 zum Punkt 2581 zu ermöglichen. Ein codiertes Merkmal auf der Quell-Lichtmuster 2570 kann auf der lichtempfindlichen Matrix 2580 erkannt werden.
  • Ein Vorteil der Verwendung codierter Muster ist, dass die dreidimensionalen Koordinaten für Objektoberflächenpunkte mit einem Einzelbild einer Fläche schnell erhalten werden können. Ein Ansatz mit sequentiell strukturiertem Licht, wie z. B. der oben erläuterte Sinuskurven-Phasenverschiebungsansatz, kann jedoch genauere Ergebnisse ergeben. Daher kann der Benutzer vorteilhafterweise wählen, bestimmte Objekte oder bestimmte Objektoberflächen oder -merkmale abhängig von der gewünschten Genauigkeit mit verschiedenen Projektionsverfahren zu messen. Durch Verwenden eines wählbaren Quell-Lichtmusters kann solch eine Wahl nach Wunsch vom Bediener geändert werden, um ein gewünschtes Ergebnis zu erhalten.
  • Eine Linie, die von einem Laserlinienscanner emittiert wird, schneidet ein Objekt in einer linearen Projektion. Die beleuchte Form, die auf dem Objekt gezeichnet wird, ist zweidimensional. Demgegenüber erzeugt ein Projektor, der ein zweidimensionales Lichtmuster projiziert, auf dem Objekt eine beleuchtete Form, die dreidimensional ist. Eine Möglichkeit, zwischen dem Laserlinienscanner und dem Scanner mit strukturiertem Licht zu unterscheiden, ist, den Scanner mit strukturiertem Licht als einen Scannertyp zu definieren, der mindestens drei nicht-kollineare Musterelemente enthält. Im Falle des zweidimensionalen codierten Lichtmusters sind die drei nicht kollinearen Musterelemente aufgrund ihrer Codes erkennbar, und da sie in zwei Dimensionen projiziert werden, müssen die mindestens drei Musterelemente nicht-kollinear sein. Im Falle des periodischen Musters, wie z. B. eines sich sinusförmig wiederholenden Musters, stellt jede Sinusperiode eine Vielzahl von Musterelementen dar. Da eine Vielzahl von periodischen Mustern in zwei Dimensionen vorliegt, müssen die Musterelemente nicht-kollinear sein. Demgegenüber liegen im Falle des Laserlinienscanners, der eine Lichtlinie emittiert, sämtliche Musterelemente auf einer geraden Linie. Obwohl die Linie eine Breite hat und der Linienquerschnitt am Ende eine geringere optische Leistung als die Signalspitze haben kann, werden diese Aspekte der Linie bei der Ermittlung der Oberflächenkoordinaten eines Objekts nicht separat ausgewertet und stellen daher keine separaten Musterelemente dar. Obwohl die Linie mehrere Musterelemente enthalten kann, sind diese Musterelemente kollinear.
  • Auch wenn die obigen Beschreibungen nicht abhängig davon, ob drei oder mehr Musterelemente kollinear sind, zwischen Linienscannern und Flächenscannern (mit strukturiertem Licht) unterscheiden, ist anzumerken, dass dieses Kriterium darauf abzielt, zwischen Mustern zu unterscheiden, die als Flächen und als Linien projiziert werden. Daher sind Muster, die mit Information nur entlang eines einzigen Wegs linear projiziert werden, dennoch Linienmuster, selbst wenn das eindimensionale Muster gekrümmt sein kann.
  • Wie oben erläutert, kann eine LLS oder ein Flächenscanner mit einer GAKMM verwendet werden, um die Position und Orientierung der LLS oder des Flächenscanners zu erhalten. Ein anderes Verfahren zur Messung mit einer LLS ist, die LLS von der GAKMM abzunehmen und sie von Hand zu halten. Die Position und Orientierung der LLS oder des Flächenscanners relativ zu einem Objekt kann bestimmt werden, indem Mehrfachabtastungen auf der Basis beobachteter gemeinsamer Merkmale miteinander registriert werden.
  • Es ist auch bekannt, den Scanner 2500, der ein Linienscanner oder ein Flächenscanner sein kann, mit einem sechs-DOF(Freiheitsgrad)-Lasertracker 900 zu verwenden, wie in 14A gezeigt. Der Scanner 2505 umfasst einen Projektor 2520, der in einer Ausführungsform ein zweidimensionales Lichtmuster (strukturiertes Licht) projiziert. Dieses Licht tritt aus dem Perspektivitätszentrum der Projektorlinse und geht in einem sich ausdehnenden Muster nach außen, bis es das Objekt 2528 schneidet. Beispiele für Muster dieses Typs sind codierte Muster und periodische Muster, wie oben erläutert. In einer anderen Ausführungsform kann der Projektor 2520 ein eindimensionales Lichtmuster projizieren, wodurch er wie eine LLS oder ein Linienscanner wirkt.
  • Ein beispielhaftes Lasertrackersystem 4005, das in 14B dargestellt ist, umfasst einen Lasertracker 4010, ein Retroreflektor-Target 4026, eine optionale Hilfsprozessoreinheit 4050 und eine optionale Hilfscomputereinheit 4060. Ein beispielhafter kardanisch aufgehängter Strahllenkmechanismus 4012 des Lasertrackers 4010 umfasst ein Zenitgestell 4014, das auf einer Azimutbasis 4016 montiert ist und um eine Azimutachse 4020 gedreht wird. Eine Nutzlast 4015 ist am Zenitgestell 4014 angebracht und wird um eine Zenitachse 4018 gedreht. Die Zenitachse 4018 und die Azimutachse 4020 schneiden sich innerhalb des Trackers 4010 orthogonal an einem Kardanpunkt 4022, der typischerweise der Ursprung für Entfernungsmessungen ist. Ein Laserstrahl 4046 geht praktisch durch den Kardanpunkt 4022 und ist orthogonal zur Zenitachse 4018 gerichtet. Mit anderen Worten, der Laserstrahl 4046 liegt in einer Ebene etwa senkrecht zur Zenitachse 4018, die durch die Azimutachse 4020 geht. Der austretende Laserstrahl 4046 wird durch Drehung der Nutzlast 4015 um die Zenitachse 4018 und durch Drehung des Zenitgestells 4014 um die Azimutachse 4020 in die gewünschte Richtung gerichtet. Ein Zenitwinkelgeber im Inneren des Trackers ist an einer mit der Zenitachse 4018 ausgerichteten mechanischen Zenitachse angebracht. Ein Azimutwinkelgeber im Tracker ist an einer mit der Azimutachse 4020 ausgerichteten mechanischen Azimutachse angebracht. Der Zenit- und der Azimutwinkelgeber messen den Zenit- und den Azimutdrehwinkel mit relativ hoher Genauigkeit. Der austretende Laserstrahl 4046 geht zum Retroreflektor-Target 4026, das zum Beispiel ein sphärisch gelagerter Retroreflektor (SMR) sein kann, wie oben beschrieben. Durch Messen der radialen Entfernung zwischen dem Kardanpunkt 4022 und dem Retroreflektor 4026, des Drehwinkels um die Zenitachse 4018 und des Drehwinkels um die Azimutachse 4020 wird die Position des Retroreflektors 4026 innerhalb des Kugelkoordinatensystems des Trackers ermittelt.
  • Der austretende Laserstrahl 4046 kann eine oder mehrere Laserwellenlängen haben, wie weiter unten beschrieben. Der Klarheit und Einfachheit halber wird in der folgenden Beschreibung ein Lenkmechanismus des in 14B gezeigten Typs angenommen. Doch auch andere Arten von Lenkmechanismen sind möglich. Zum Beispiel ist es möglich, einen Laserstrahl mit einem Spiegel zu reflektieren, der um die Azimut- und die Zenitachse gedreht wird. Die Techniken, die hier beschrieben werden, sind unabhängig vom Typ des Lenkmechanismus anwendbar.
  • Mehrere Lasertracker sind verfügbar oder wurden vorgeschlagen, um sechs Freiheitsgrade zu messen, statt der üblichen drei. Beispielhafte Systeme mit sechs Freiheitsgraden (sechs-DOF-Systeme) werden im US-Patent Nr. 7,800,758 ('758) an Bridges et al., im US-Patent Nr. 8,525,983 ('983) an Bridges et al., im US-Patent Nr. 6.166.809 ('809) an Pettersen et al. und im US-Patent Nr. 2010/0149525 ('525) an Lau beschrieben. Sechs-DOF-Systeme ermöglichen die Messung von drei Orientierungsfreiheitsgraden sowie von drei Positionsfreiheitsgraden (d. h., x, y, z).
  • 14A zeigt eine Ausführungsform eines sechs-DOF-Scanners 2500, der in Verbindung mit einem sechs-DOF-Lasertracker 900 verwendet wird. Der sechs-DOF-Lasertracker 900 sendet einen Lichtstrahl 784 zu einem Retroreflektor 2510, 2511 auf dem sechs-DOF-Scanner 2500. Der sechs-DOF-Tracker 900 misst die Entfernung vom Tracker 900 zum Scanner 2500 mit einem Entfernungsmesser (nicht gezeigt) im Tracker, und er misst zwei Winkel vom Tracker 900 zum sechs-DOF-Scanner 2500 mit zwei Winkelgebern (nicht gezeigt). Der sechs-DOF-Scanner 2500 umfasst einen Körper 2514, einen oder mehrere Retroreflektoren 2510, 2511, eine Scannerkamera 2530, einen Scanner-Lichtprojektor 2520, ein optionales elektrisches Kabel 2546, eine optionale Batterie 2444, eine Antenne 2548 und eine Elektronik-Leiterplatte 2542. Die Antenne 2548, falls vorhanden, ermöglicht die drahtlose Kommunikation zwischen dem sechs-DOF-Scanner 2500 und anderen Rechnern wie dem Lasertracker 900 und externen Computer. Der Scanner-Projektor 2520 und die Scannerkamera 2530 werden zusammen verwendet, um die dreidimensionalen Koordinaten eines Werkstücks 2528 zu messen. Die Kamera 2530 umfasst ein Kameralinsensystem 2532 und eine lichtempfindliche Matrix 2534. Die lichtempfindliche Matrix 2534 kann zum Beispiel ein CCD- oder CMOS-Matrix sein. Der Scanner-Projektor 2520 umfasst ein Projektorlinsensystem 2523 und eine Quell-Lichtmuster 2524. Das Quell-Lichtmuster kann einen Lichtpunkt, eine Lichtlinie oder ein strukturiertes (zweidimensionales) Lichtmuster emittieren. Wenn die Scanner-Lichtquelle einen Lichtpunkt emittiert, kann der Punkt zum Beispiel mit einem beweglichen Spiegel abgelenkt werden, um eine Linie oder eine Gruppe von Linien zu erzeugen. Wenn die Scanner-Lichtquelle eine Lichtlinie emittiert, kann die Linie zum Beispiel mit einem beweglichen Spiegel abgelenkt werden, um eine Gruppe von Linien zu erzeugen. In einer Ausführungsform kann das Quell-Lichtmuster eine LED, ein Laser oder eine andere Lichtquelle sein, die von einer digitalen Mikrospiegeleinheit (DMD) wie z. B. einen digitalen Lichtprojektor (DLP) von Texas Instruments, eine Flüssigkristallanzeige (LCD) oder ein „Liquid Crystal On Silicon”(LCOS)-Gerät sein, oder sie kann ein ähnliches Gerät sein, das im Durchlichtmodus statt im Reflexionsmodus betrieben wird. Das Quell-Lichtmuster kann auch ein Dia-Muster sein, zum Beispiel ein Chrom-auf-Glas-Dia mit einem Einzelmuster oder mehreren Muster, wobei die Dias je nach Bedarf eingelegt und entnommen werden. Zusätzliche Retroreflektoren wie z. B. der Retroreflektor 2511 können zum ersten Retroreflektor 2510 hinzugefügt werden, um dem Lasertracker die Verfolgung des sechs-DOF-Scanners aus verschiedenen Richtungen zu ermöglichen, wodurch den Richtungen, in denen das Licht vom sechs-DOF-Projektor 2500 projiziert werden kann, mehr Flexibilität verliehen wird.
  • Der sechs-DOF-Scanner 2500 kann von Hand gehalten werden oder zum Beispiel auf ein Stativ, einen Geräteständer, einen motorisierten Laufwagen oder an einen Roboter-Endeffektor montiert werden. Die dreidimensionalen Koordinaten des Werkstücks 2528 werden durch die Scannerkamera 2530 anhand der Triangulationsprinzipien gemessen. Abhängig vom Lichtmuster, das von der Scanner-Lichtquelle 2520 emittiert wird, und vom Typ der lichtempfindlichen Matrix 2534 gibt es mehrere Möglichkeiten, die Triangulationsmessung zu implementieren. Wenn das von der Scanner-Lichtquelle 2520 emittierte Lichtmuster zum Beispiel eine Lichtlinie oder ein Lichtpunkt ist, der in Form einer Linie abgelenkt wird, und wenn die lichtempfindliche Matrix 2534 eine zweidimensionale Matrix ist, dann entspricht eine Dimension der zweidimensionalen Matrix 2534 einer Richtung eines Punkts 2526 auf der Oberfläche des Werkstücks 2528. Die andere Dimension der zweidimensionalen Matrix 2534 entspricht der Entfernung des Punkts 2526 von der Scanner-Lichtquelle 2520. Daher sind die dreidimensionalen Koordinaten jedes Punkts 2526 entlang der von der Scanner-Lichtquelle 2520 emittierten Lichtlinie relativ zum lokalen Bezugssystem des sechs-DOF-Scanners 2500 bekannt. Die sechs Freiheitsgrade des sechs-DOF-Scanners sind dem sechs-DOF-Lasertracker durch die im Patent '758 beschriebenen Verfahren bekannt. Anhand der sechs Freiheitsgrade können die dreidimensionalen Koordinaten der abgetasteten Lichtlinie im Tracker-Bezugssystem ermittelt werden, die wiederum in das Bezugssystem des Werkstücks 2528 umgewandelt werden können, zum Beispiel durch die Messung von drei Punkten auf dem Werkstück mit dem Lasertracker.
  • Wenn der sechs-DOF-Scanner 2500 von Hand gehalten wird, kann eine von der Scanner-Lichtquelle 2520 emittierte Laserlichtlinie derart bewegt werden, dass die Oberfläche des Werkstücks 2528 „bestrichen” wird, wodurch die dreidimensionalen Koordinaten für die gesamte Oberfläche erhalten werden. Es ist auch möglich, die Oberfläche eines Werkstücks mit einer Scanner-Lichtquelle 2520 zu „bestreichen”, die ein strukturiertes Lichtmuster emittiert. Bei Verwendung eines Scanners 2500, der ein strukturiertes Lichtmuster emittiert, können in einer Ausführungsform genauere Messungen durchgeführt werden, indem der sechs-DOF-Scanner auf ein Stativ oder einen Geräteständer montiert wird. Das strukturierte Lichtmuster, das von der Scanner-Lichtquelle 2520 emittiert wird, kann zum Beispiel ein Streifenmuster umfassen, wobei jeder Streifen eine Beleuchtungsdichte hat, die über die Oberfläche des Werkstücks 2528 hinweg sinusförmig variiert. In einer Ausführungsform sind die Sinuskurven um drei oder mehr Phasenwerte versetzt. Die Amplitudenhöhe, die von jedem Pixel der Kamera 2530 für jeden der drei oder mehr Phasenwerte aufgezeichnet wird, wird verwendet, um die Position jedes Pixels auf der Sinuskurve zu erhalten. Diese Information wird genutzt, um zur Bestimmung der dreidimensionalen Koordinaten jedes Punkts 2526 beizutragen. In einer anderen Ausführungsform kann das strukturierte Licht in Form eines codierten Musters vorliegen, das ausgewertet werden kann, um die dreidimensionalen Koordinaten auf der Basis eines Einzelbilds zu bestimmen, statt auf der Basis einer durch die Kamera 2530 erfassten Bildfolge. Die Verwendung eines codierten Musters kann relativ genaue Messungen ermöglichen, während der sechs-DOF-Scanner 2500 mit angemessener Geschwindigkeit von Hand bewegt wird.
  • In manchen Fällen ist es vorteilhaft, die Merkmale wie z. B. Kanten oder Löcher mit einer optionalen taktilen Sonde 2550 zu messen, die am sechs-DOF-Scanner 2500 angebracht ist. Die taktile Sonde 2550 in 14A umfasst u. a. eine Sondenspitze 2554, die Teil einer Sondenverlängerung 2550 ist. In einer Ausführungsform sendet der Projektor 2520 einen Laserstrahl, um den zu messenden Bereich zu beleuchten.
  • Wie oben erläutert, misst der Lasertracker 900 eine Entfernung und zwei Winkel, um drei Positionsfreiheitsgrade (x, y, z) des sechs-DOF-Scanners 2500 zu bestimmen. Es gibt viele verschiedene mögliche Verfahren, um die drei Orientierungsfreiheitsgrade des sechs-DOF-Scanners 2500 zu bestimmen. Diese Verfahren werden hier im Folgenden im Detail beschrieben.
  • Wie oben beschrieben, kann ein Messgerät wie eine taktile Sonde, eine LLS oder ein Flächenscanner an eine GAKMM angebracht werden. Alternativ dazu kann das Messgerät von Hand gehalten werden, wobei die Registrierung durch Zuordnen von Registrierungstargets oder durch Messen eines sechs-DOF-Targets mit einem Lasertracker erfolgt. In einer anderen Alternative werden beleuchtete Markierungen an ein Messgerät angebracht, das zum Beispiel eine taktile Sonde, ein Linienscanner oder ein Flächenscanner sein kann. Die beleuchteten Markierungen werden mit einem Kamerabalken gemessen, der zwei oder mehr Kameras aufweist. Mit diesem Verfahren kann die Position und die Orientierung des Messgeräts in einem gewünschten Bezugssystem ermittelt werden.
  • 15A ist eine perspektivische Ansicht eines dreidimensionalen taktilen Sondensystems 5100, das einen Kamerabalken 5110 und eine Sondenanordnung 5140 umfasst. Der Kamerabalken umfasst eine Montagestruktur 5112 und mindestens zwei Triangulationskameras 5120, 5124. Sie kann auch eine optionale Kamera 5122 umfassen. Die Kameras umfassen alle eine Linse und eine lichtempfindliche Matrix, zum Beispiel wie in der Linse 2564 von 13A gezeigt. Die optionale Kamera 5122 kann den Kameras 5120, 5124 entsprechen oder eine Farbkamera sein. Die Sondenanordnung 5140 umfasst ein Gehäuse 5142, eine Sammlung von Leuchten 5144, optionale Sockel 5146, einen Stiel 5148, einen Stift 5150 und eine Sondenspitze 5152. Die Position der Leuchten 5144 relativ zur Sondenspitze 5152 ist bekannt. Die Leuchten können Lichtquellen wie z. B. Leuchtdioden sein oder reflektierende Stellen sein, die von einer externen Lichtquelle beleuchtet werden. Werkseinstellungen oder Einstellprozeduren vor Ort können verwendet werden, um diese Positionen zu finden. Der Stiel kann verwendet werden, um dem Bediener einen Griff bereitzustellen, oder ein anderer Griff kann vorgesehen werden.
  • Die Triangulation der von den Kameras 5120, 5124 des Kamerabalkens 5110 erfassten Bilddaten wird benutzt, um die dreidimensionalen Koordinaten jedes Lichtpunkts 5144 im Bezugssystem des Kamerabalkens zu ermitteln. In diesem Dokument und in den Ansprüchen wird der Begriff „Bezugssystem” als Synonym für den Begriff „Koordinatensystem” benutzt. Mathematische Berechnungen, die dem Fachmann wohlbekannt sind, werden verwendet, um die Position der Sondenspitze im Bezugssystem des Kamerabalkens zu ermitteln. Indem die Sondenspitze 5152 mit dem Objekt 5160 in Kontakt gebracht wird, können Oberflächenpunkte auf dem Objekt gemessen werden.
  • Ein elektrisches System 5101 kann eine elektronische Leiterplatte 5102 und einen externen Computer 5104 umfassen. Der externe Computer 5104 kann ein Computernetzwerk umfassen. Das elektrische System 5101 kann drahtgebundene und drahtlose Teile umfassen, entweder innerhalb oder außerhalb der Komponenten von 15A, die die Messungen und Berechnungen durchführen, um dreidimensionale Koordinaten der Punkte auf der Fläche zu erhalten. Allgemein umfasst das elektrische System 5101 einen oder mehrere Prozessoren, die zum Beispiel Computer, Mikroprozessoren, frei programmierbare Verknüpfungsfelder (FPGAs) oder Digitalsignalprozessor(DSP)-Anordnungen sein können.
  • 15B ist eine perspektivische Ansicht eines dreidimensionalen Flächenscannersystems 5200, das einen Kamerabalken 5110 und eine Scanneranordnung 5240 umfasst. Der Kamerabalken wurde hier Bezug nehmend auf 15A beschrieben. Die Scanneranordnung 5240 umfasst ein Gehäuse 5142, eine Sammlung von Leuchten 5144, optionale Sockel 5146, einen Stiel 5148, einen Projektor 5252 und eine Kamera 5254. Die Merkmale des Gehäuses 5142, der Leuchten 5144, der optionalen Sockel 5146 und des Stiels 5148 wurden hier Bezug nehmend auf 15A beschrieben. Der Projektor 5252 projiziert Licht auf das Objekt 5160. Der Projektor 5252 kann verschiedenen Typs sein, zum Beispiel eine LED, ein Laser oder eine andere Lichtquelle, die von einer digitalen Mikrospiegeleinheit (DMD) wie z. B. einen digitalen Lichtprojektor (DLP) von Texas Instruments, eine Flüssigkristallanzeige (LCD) oder eine „Liquid Crystal On Silicon”(LCOS)-Anordnung sein. Das Quell-Lichtmuster kann auch ein Dia-Muster sein, zum Beispiel ein Chrom-auf-Glas-Dia, das ein Einzelmuster oder mehrere Muster aufweisen kann, wobei die Dias je nach Bedarf eingelegt oder entnommen werden. Der Projektor 5252 projiziert Licht 5262 in einer Fläche 5266 auf das Objekt 5160. Ein Teil der beleuchteten Fläche 5266 wird von der Kamera 5254 abgebildet, um Digitaldaten zu erhalten.
  • Die Digitaldaten werden zum Teil durch die elektrischen Schaltungen in der Scanneranordnung 5240 verarbeitet. Die teilweise verarbeiteten Daten können einem System 5201 zugeführt werden, das eine elektrische Leiterplatte 5202 und einen externen Computer 5204 umfasst. Es versteht sich, dass der externe Computer 5204 ein Computernetzwerk umfassen kann. Das elektrische System 5201 kann drahtgebundene und drahtlose Teile umfassen, entweder innerhalb oder außerhalb der Komponenten von 15B, die die Messungen und Berechnungen durchführen, um dreidimensionale Koordinaten der Punkte auf der Fläche 5160 zu erhalten. Allgemein kann das elektrische System 5201 einen oder mehrere Prozessoren umfassen, die zum Beispiel Computer, Mikroprozessoren, frei programmierbare Verknüpfungsfelder (FPGAs) oder Digitalsignalprozessor(DSP)-Anordnungen sein können. Das Ergebnis der Berechnungen ist ein Koordinatensatz im Kamerabalken-Bezugssystem, der wiederum in ein anderes Bezugssystem konvertiert werden kann, wenn gewünscht.
  • 15C ist eine perspektivische Ansicht eines dreidimensionalen Linienscannersystems 5300, das einen Kamerabalken 5110 und eine Scanneranordnung 5340 umfasst. Der Kamerabalken wurde oben Bezug nehmend auf 15A beschrieben. Die Scanneranordnung 5340 umfasst ein Gehäuse 5142, eine Sammlung von Leuchten 5144, optionale Sockel 5146, einen Stiel 5148, einen Projektor 5352 und eine Kamera 5354. Die Merkmale des Gehäuses 5142, der Leuchten 5144, der optionalen Sockel 5146 und des Stiels 5148 wurden hier Bezug nehmend auf 15A beschrieben. Der Projektor 5352 projiziert Licht auf das Objekt 5160. Der Projektor 5352 kann eine Lichtquelle sein, die einen Lichtstreifen erzeugt, zum Beispiel ein Laser, der durch eine Zylinderlinse oder eine Powell-Linse gesendet wird, oder er kann ein DLP oder eine ähnliche Vorrichtung sein, die in der Lage ist, 2D-Muster zu projizieren, wie hierin oben Bezug nehmend auf 15B erläutert. Der Projektor 5352 projiziert Licht 5362 in einem Streifen auf eine Fläche 5366 auf das Objekt 5160. Ein Teil des Streifenmusters auf dem Objekt wird von der Kamera 5354 abgebildet, um Digitaldaten zu erhalten. Die Digitaldaten können auf gleiche Weise verarbeitet werden wie Bezug nehmend auf 15B beschrieben, zum Beispiel durch elektrische Komponenten 5201. Das Ergebnis der Berechnungen ist ein Satz dreidimensionaler Koordinaten der Objektoberfläche im Kamerabalken-Bezugssystem, der wiederum in ein anderes Bezugssystem konvertiert werden kann, wenn gewünscht.
  • 16 ist eine isometrische Ansicht eines 3D-Messgeräts 1700, das zur Anbringung an eine Gelenkarm-KMM 100 durch eine mechanische und elektrische Schnittstelle 426 konfiguriert ist, die in diesem Fall den Verbinder 426A aufweist. Elektrische Signale werden zwischen dem 3D-Messgerät 1700 und jedem Gerät ausgetauscht, das am elektrischen Verbinder 434 angebracht ist. Die Anbringung an der Gelenkarm-KMM kann beispielsweise durch den Verbinder 426C erfolgen, oder es kann ein anderer Verbinder sein, wenn das 3D-Messgerät 1700 in einem handgeführten Modus oder in einem Fertigungslinien-Modus verwendet wird.
  • In einer Ausführungsform umfasst das Messgerät 1700 einen Scanner 507 mit einem Projektor 510 und einer Kamera 508. Der Projektor 510 kann einen Lichtpunkt, eine Lichtlinie oder ein Lichtmuster projizieren, das eine Fläche abdeckt. Die Arbeitsweise eines Linienscanners und eines Flächenscanners wurden oben beschrieben. In manchen Fällen können in beiden Scannertypen zwei oder mehr Kameras verwendet werden. In einer Ausführungsform kann der Projektor 510 eine digitale Mikrospiegeleinheit (DMD) verwenden, die in der Lage ist, Muster jeden Typs zu projizieren. Zum Beispiel kann eine DMD ein gewünschtes strukturiertes Lichtmuster über eine Fläche hinweg projizieren. Sie kann eine Lichtlinie in einem beliebigen Winkel projizieren und die Lichtlinie über die Fläche führen. Die DMD kann alternativ dazu einen Lichtpunkt über die Fläche führen. Das Bestreichen mit einer Lichtlinie oder einem Lichtpunkt ist eine nützliche Technik, um eine Mehrweginterferenz zu reduzieren oder zu beseitigen, wenn das Auftreten solch einer Interferenz beobachtet wurde oder aufgrund der Geometrie des abgetasteten Teils zu erwarten ist.
  • In einer Ausführungsform bilden die Kameras 1750A, 1750B ein Stereokamerapaar. In einer Ausführungsform bestimmen die Kameras 1750A, 1750B 3D-Koordinaten von Targets in einem Bezugssystem des 3D-Messgeräts 1700. In einer Ausführungsform bestimmen die Kameras 1752A, 1752B die 3D-Koordinaten von reflektierenden Targets in einem Sichtfeld (FOB) der Kameras 1750A, 1750B. Die Targets können auf oder in unmittelbarer Nähe eines geprüften Objekts liegen. In einer Ausführungsform werden die reflektierenden Targets mit Licht von Lichtquellen 1752A, 1752B beleuchtet. In einer Ausführungsform sind die Lichtquellen 1752A, 1752B Leuchtdioden (LEDs). In einer anderen Ausführungsform bestimmen die Kameras 1752A, 1752B die 3D-Koordinaten von Lichtquellen wie z. B. LEDs auf oder in unmittelbarer Nähe eines geprüften Objekts. In einer weiteren Ausführungsform bestimmen die Kameras 1752A, 1752B die 3D-Koordinaten von Lichtmarken wie z. B. Lichtpunkten, die durch einen externen Projektor, der in Bezug auf das Objekt feststehend ist, auf das Objekt projiziert werden. In der beispielhaften Ausführungsform sind die Lichtquellen 1752A, 1752B um den Umfang der Kameras 1750A, 1750B herum angeordnet.
  • In einer Ausführungsform sind die Lichtquellen 1752A, 1752B dazu konfiguriert, Licht einer Wellenlänge zu projizieren, die anders ist als die, für welche die Scannerkamera 508 empfindlich ist. Zum Beispiel kann die Kamera 508 dazu konfiguriert sein, auf blaues Licht mit 450 nm zu reagieren, wobei die Optik beschichtet ist, um Licht außerhalb eines Bands blauer Wellenlängen zu blockieren. In diesem Fall können die Lichtquellen 1752A, 1752B dazu konfiguriert sein, eine andere Wellenlänge zu emittieren, zum Beispiel eine Nahinfrarot-Wellenlänge von 800 nm. In diesem Fall können die Kameras 1750A, 1750B beschichtet sein, um Licht aus blauen Wellenlängen, die vom Scanner-Projektor emittiert werden, zu reduzieren oder zu entfernen. Diese Anordnung von Wellenlängen kann vorteilhaft sein, wenn der Scanner 507 synchron mit dem Stereokamerapaar 1750A, 1750B arbeitet. In anderen Fällen können die Kameras 1750A, 1750B dazu konfiguriert sein, auf die vom Projektor 510 emittierten Wellenlängen zu reagieren. Dies kann zum Beispiel vorteilhaft sein, um dem Stereokamerapaar die unabhängige Bestimmung der 3D-Koordinaten einer Lichtlinie oder eines Lichtmusters zu ermöglichen, die vom Projektor 510 emittiert werden.
  • In einer Ausführungsform werden die 3D-Koordinaten weit verteilter Markierungen auf oder in unmittelbarer Nähe eines Objekts in einem globalen Bezugssystem durch eine Fotogrammetrie (Messbildverfahren) bestimmt. In einer Ausführungsform umfasst das Fotogrammetriesystem eine Kamera und eine kalibrierte Maßstabsleiste, wobei die Kamera verwendet wird, um die Markierungen und die kalibrierte Maßstabsleiste in einer Vielzahl von digitalen 2D-Bildern zu messen. Durch Verarbeitung der Vielzahl von 2D-Bildern können die 3D-Koordinaten der Markierungen in einem gemeinsamen (globalen) Bezugssystem bestimmt werden. Solch ein Verfahren kann bei der Messung eines großen Objekts vorteilhaft sein, insbesondere bei Verwendung relativ weniger Markierungen.
  • In einer anderen Ausführungsform wird eine einzige Kamera 1750A oder 1750B verwendet, um 2D-Bilder von Markierungen zu erfassen. Wenn die Kamera 1750A oder 1750B ein relativ breites Sichtfeld (FOV) hat, können die Markierungen in der Vielzahl von erfassten Bildern dem Scannersystem eine Kontinuität in der Registrierung der Vielzahl von 3D-Scannerkoordinaten ermöglichen, die in aufeinanderfolgenden Einzelbildern gesammelt werden.
  • In einer Ausführungsform umfasst das 3D-Messgerät 1700 außerdem eine Farbkamera 1760. Die Farben, die durch die Farbkamera 1760 erfasst werden, können verwendet werden, um ein vom Scanner 507 erfasstes 3D-Bild zu färben. Solch eine Färbung wird manchmal als „Hinzufügen von Textur zu einem 3D-Bild” bezeichnet, da sie Aspekte der Oberflächenrauheit, Oberflächenreflexionseigenschaften (wie Glanz oder Transparenz) und Schatten zum Vorschein bringen kann. In einer Ausführungsform können Lichtquellen 1762 verwendet werden, um das auf ein Objekt scheinende Licht zu verstärken oder es mit bestimmten Lichtwellenlängen zu bestrahlen. Zum Beispiel kann Infrarotlicht von den Leuchten 1762 abgegeben werden, um das erfasste 3D-Bild mit einem Abbild der Objekttemperatur zu überlagern. In anderen Ausführungsformen können die Leuchten 1762 ein breites Lichtspektrum projizieren, um eine wünschenswertere Beleuchtung zu ermöglichen als die, die durch ein Kunstlicht wie Fluoreszenzlicht bereitgestellt wird, das einen grünen Farbton erzeugen kann. In der beispielhaften Ausführungsform sind die Lichtquellen 1762 um den Umfang der Farbkamera 1760 herum angeordnet.
  • In einer Ausführungsform wird das 3D-Messgerät 1700 durch eine Batterie 1710 mit Strom versorgt, die im Kamera-/Scannerteil des Geräts 1700, im Griff 504, unterhalb des Griffs angeordnet sein kann oder als separate Einheit angebracht sein kann. In einer Ausführungsform ist die Batterie leicht abnehmbar und austauschbar. In einer Ausführungsform kann das 3D-Messgerät 1700 von der GAKMM 100 entfernt werden, ohne die GAKMM 100 oder das 3D-Messgerät 1700 vorher ausschalten zu müssen.
  • In einer Ausführungsform umfasst ein drahtloses Kommunikationssystem 1730 eine Antenne und Funkelektronik, die zum Beispiel auf IEEE 802.3 (Ethernet), IEEE 802.11 (WiFi) oder IEEE 802.15 (Bluetooth) basieren kann. In einer Ausführungsform umfasst das 3D-Messgerät 1700 einen Prozessor 1720, der in der Lage ist, Berechnungen wie Bilderfassung, Triangulation und Registrierung mehrfacher 3D-Bilder durchzuführen. In einer Ausführungsform umfasst der Prozessor außerdem einen Echtzeit-Bus, der zum Beispiel EtherCAT, SERCOS III, PROFINET, POWERLINK oder EtherNet/IP sein kann. Es versteht sich, dass der Prozessor 1720 mit zugehörigen Schaltungen integriert oder gekoppelt sein kann, wie z. B. Analog-Digital-Wandler, Netzschnittstellen, Anzeige- oder Videoprozessoren, Eingabe-Ausgabe-Controller, nicht flüchtiger Speicher und Nur-Lese-Speicher.
  • In einer Ausführungsform umfasst das 3D-Messgerät 1700 eine Anzeige 1740. In einer Ausführungsform ist die Anzeige ein Berührungsbildschirm. In einer Ausführungsform zeigt die Anzeige 1740 die Ergebnisse der 3D-Messungen während des Betriebs des Messgeräts 1700 an. In einer Ausführungsform umfasst die Anzeige außerdem eine Benutzerschnittstelle, die dem Benutzer Wahlmöglichkeiten anbietet, wie die Messung durchgeführt wird oder Daten verarbeitet und übertragen werden.
  • 17A, 17B und 17C zeigen eine perspektivische Ansicht, eine Draufsicht und eine Schnittansicht einer Verbinderanordnung 426B gemäß einer Ausführungsform. Wie weiter unten ausführlicher erläutert, kann die Verbinderanordnung 426B in einem anderen Gerät integriert sein, um die Kopplung des Geräts mit der in 10C, 11A, 11B, 16 gezeigten Verbinderanordnung 426A zu ermöglichen. Der Verbinder 426A ist außerdem dazu konfiguriert, mit einer Verbinderanordnung 426C der GAKMM 100 gekoppelt zu werden. In einer Ausführungsform, die in 10C und 5 dargestellt ist, wird eine Endsonde 401 durch Anziehen einer Manschette 438 mit einer Verbinderanordnung 426C mit einer Verbinderanordnung 426A gekoppelt, wie oben erläutert. In einer Ausführungsform ist die Verbinderanordnung 426B dazu konfiguriert, direkt an einen Verbinder 426A auf dem Scanner 500 oder einem 3D-Messgerät 1700 angebracht zu werden.
  • In einer Ausführungsform umfasst die Verbinderanordnung 426B einen Körper 3710, ein 3710, einen elektrischen Verbinder 3720, eine vordere Lippe 3732, eine hintere Lippe 3734 und eine Verriegelungsanordnung 3740. In einer Ausführungsform umfasst die Verriegelungsanordnung 3740 einen Drehgriff 3742, einen Griffstift 3743, eine Drehplatte 3744, einen gekrümmten Nockenschlitz 3746 und einen Umsetzstift 3748. In einer Ausführungsform ist der Umsetzstift 3748 relativ zur Lippe 3734 feststehend und liegt außerdem entlang einer Mittellinie des Griffstifts 3743. Wenn der Griff in eine Richtung 3750 gedreht wird, nimmt die Entfernung vom Griffstift 3743 zum gekrümmten Nockenschlitz 3746 an der Position des Umsetzstifts 3748 ab. Der Griffstift 3743 bleibt relativ zum Körper 3710 feststehend, da die Drehplatte 3744 sich in einem Zylinder dreht, der in den Körper 3710 geschnitten ist. Wenn der Griff 3742 in eine Richtung 3750 gedreht wird, werden der Umsetzstift 3748 und die Lippe 3734 daher zur Rückseite der Verbinderanordnung 426B in Richtung des Griffstifts 3743 bewegt.
  • Mit dem in der Richtung 3750 gedrehten Griff 3742 wird die Lippe 3732 unterhalb der in 11A, 11B gezeigten Lippe 444 geschoben. Die elektrischen Verbinder 3720 und 434 werden zusammengepresst, und der Griff 3742 wird in der 3742 wird in der Richtung 3752 bewegt, um die hintere Lippe 3734 an der Lippe 454 zu verriegeln. Auf diese Weise kann ein Zusatzgerät mit einem Verbinder 426B schnell und einfach an einem Verbinder 426A eines Größenmessgeräts verriegelt werden. Es versteht sich, dass in den hier beschriebenen Ausführungsformen auch andere Verbinderanordnungen mit Verriegelung verwendet werden können, um den Verbinder 426A mit einem anderen Gerät zu koppeln, und die dargestellte Ausführungsform nicht einschränkend sein soll.
  • 18A, 18B, 18C und 18D zeigen einen Scanner 500, der zur Anbringung an eine Kameraanordnung 1850 durch eine mechanische und elektrische Schnittstelle 426 konfiguriert ist, die in diesem Fall die Verbinder 426A und 426B umfasst. Der Verbinder 426B kann sich vom Verbinder 426C in 10C, wie oben beschrieben, unterscheiden, doch beide Verbinder (wie z. B. 426B, 426C) sind mit dem Verbinder 426A kompatibel. Elektrische Signale werden durch einen elektrischen Verbinder 434 zwischen dem Scanner 500 und der Kameraanordnung 1850 ausgetauscht. Die elektrische Schnittstelle 426 umfasst zwei Teile, ein erstes Teil 426A, das in diesem Fall ein Scannerverbinder 426A ist, und ein zweites Teil 426B, das in diesem Fall ein Kameraanordnungsverbinder 426B ist. Das erste Teil und das zweite Teil werden miteinander gekoppelt, um den Scanner 500 relativ zur Kameraanordnung 1350 in einer feststehenden Position und Orientierung zu halten.
  • In einer Ausführungsform umfasst die Kameraanordnung 1850 mindestens eine Kamera. In einer anderen Ausführungsform umfasst die Kameraanordnung 1850 zwei Kameras 1853A, 1853B. Die Kamera 1853A umfasst eine Linsenanordnung 1854A und ein Elektronikgehäuse 1856A, das eine lichtempfindliche Matrix (nicht gezeigt) enthält. Die Kamera 1853B umfasst eine Linsenanordnung 1854B und ein Elektronikgehäuse 1856B, das eine lichtempfindliche Matrix enthält. zusammen mit unterstützender Elektronik, die einen Prozessor 1885 aufweisen kann. In einer Ausführungsform kann der Prozessor 1885 2D-Bilddaten verarbeiten, die von der lichtempfindlichen Matrix erhalten werden, und der Prozessor 1885 kann außerdem mit einem Controller 512 im Scanner 500 zusammenwirken, um die mehrfachen Sätze von 3D-Koordinaten, die vom Scanner 500 bereitgestellt wurden, zu registrieren. In einer Ausführungsform haben die Kameras 1853A, 1853B Sichtfelder (FOVs), die sich teilweise überlappen, wodurch eine räumliche Abbildung gewährleistet wird. Eine derartige Abbildung ermöglicht die Bestimmung von 3D-Koordinaten durch Triangulationsverfahren, wie oben beschrieben. In manchen Ausführungsformen bieten die Kameras zusammen ein größeres FOB ist als die Kamera 508. In manchen Ausführungsformen bieten die Kameras zusammen ein kleineres FOV als die Kamera 508. In manchen Ausführungsformen ist in der Anordnung 1850 eine Einzelkamera mit breitem FOV vorgesehen. In anderen Fällen sind in der Anordnung 1850 mehrere Kameras vorgesehen, deren FOVs breit sind, sich aber nicht überlappen. In einer Ausführungsform können außerdem Berechnungen von einen Prozessor 1886 durchgeführt werden.
  • In einer Ausführungsform werden der Scanner 500 und die Kameraanordnung 1850 durch eine Batterie 1882 (18C) mit Strom versorgt, die in der Kameraanordnung, in der Scanneranordnung, unterhalb des Griffs angeordnet sein kann oder als separate Einheit angebracht sein kann. In einer Ausführungsform ist die Batterie wieder aufladbar. In einer Ausführungsform ist die Batterie leicht abnehmbar und austauschbar. In einer Ausführungsform kann die Batterie im laufenden Betrieb gewechselt werden.
  • In einer Ausführungsform umfasst das drahtlose System 1884 eine Antenne und kommuniziert mit Geräten außerhalb des Scanners 500 und der Kameraanordnung 1850. In einer Ausführungsform tauscht das drahtlose System 1884 mit einem Computernetzwerk Daten aus. Das drahtlose System 1884, falls vorhanden, kann in der Kameraanordnung 1850, im Scanner 500, außerhalb dieser Komponenten oder in einer Kombination dieser Komponenten angeordnet sein.
  • In einer Ausführungsform weist die Kameraanordnung 1850 (18B, 18C) außerdem eine Anzeige 1883 auf. In einer Ausführungsform umfasst die Anzeige einen Berührungsbildschirm. In einer Ausführungsform kann die Anzeige Messergebnisse in Echtzeit zeigen, Meldungen anzeigen oder durch den Berührungsbildschirm eine Benutzerschnittstelle bereitstellen.
  • Nun auf 18C, 18D Bezug nehmend, kann die kombinierte Scanner- 500 und Kameraanordnung 1850 eine elektrischen Verbinderanordnung 1890 mit einem Verbinder 1892, einer Schutzkappe 1894 und einer Halteleine 1896 umfassen. In einer Ausführungsform verbindet der Verbinder 1892 ein Kabel 1897, das mit einer Elektronikeinheit 1898 verbunden ist, die eine Stromversorgung 1872 und einen Prozessor 1874 aufweist. In einer Ausführungsform kann die Elektronikeinheit 1898 durch ein elektrisches Kabel 1899 mit anderen Komponenten verbunden sein. In einer Ausführungsform ist das elektrische Kabel 1899 ein industrieller Echtzeit-Bus, der mit anderen Geräten in einem industriellen Automatisierungsnetzwerk verbunden und synchronisiert ist. In einer Ausführungsform umfasst die Elektronik in der Elektronikeinheit 1899 Elektronik, um einen Zeitstempel gemäß IEEE 1588 bereitzustellen. In einer Ausführungsform ist die elektrische Leitung 1899 ein Echtzeit-Bus, der zum Beispiel EtherCAT, SERCOS III, PROFINET, POWERLINK oder EtherNet/IP sein kann. Ein derartiger Echtzeit-Bus kann Dutzende oder Hunderte anderer Geräte in einem Automatisierungsnetzwerk verbinden.
  • In einer Ausführungsform, wo der Scanner 500 eine LLS ist, werden die 3D-Koordinaten auf einer Linie projiziert, das heißt, die 3D-Koordinaten werden in der Lichtlinie gefunden, die vom Projektor 510 auf ein Objekt gesendet wird. In einer Ausführungsform, wo der Scanner 500 ein Flächenscanner ist, werden die 3D-Koordinaten in einer 2D-Fläche auf die Oberfläche des Objekts projiziert. Wenn der Scanner 500 von der GAKMM 100 abgenommen und von Hand bewegt wird, um 3D-Koordinaten einer Objektoberfläche zu bestimmen, ist es wünschenswert, die mehrfachen Sammlungen von 3D-Koordinaten, die durch Einzelabtastungen mit dem Scanner 500 erhalten werden, zu registrieren. Im Falle eines LLS-Scanners 500 sind die zu registrierenden Einzelabtastungen Linienabtastungen. Im Falle eines Flächenscanners 500 sind die zu registrierenden Einzelabtastungen Flächenabtastungen.
  • Es ist vom Stand der Technik bekannt, einen LLS- oder einen Flächenscanner an eine GAKMM anzubringen, wie zum Beispiel in 10B gezeigt. Bei einem Flächenscanner ist auch die Verwendung eines Flächenscanners in einem handgeführten Modus nach dem Abnehmen des Scanners von der GAKMM bekannt, wie im US-Patent Nr. 8.832.954 ('954) an Atwell et al. offenbart. Mehrfachabtastungen, die vom handgeführten Flächenscanner erhalten werden, werden anhand von Merkmalen des gescannten Objekts miteinander registriert, wobei die Merkmale aus 3D-Koordinaten erhalten werden, die durch Triangulationsverfahren erhalten werden, wie oben Bezug nehmend auf 13A und 13B beschrieben. Es ist allgemein nicht möglich, eine LLS allein in einem handgeführten Modus zu verwenden, nachdem die LLS von der GAKMM abgenommen wurde, da LLS-Einzelabtastungen, jede entlang einer Einzelebene, keine Merkmalsinformation in zwei Dimensionen bereitstellen, mit welchen die Registrierung auf der Basis von Merkmalen erreicht werden kann.
  • In einer Ausführungsform kann der Projektor eines Scanners eine digitale Mikrospiegeleinheit (DMD) umfassen, die in der Lage ist, Muster jeden Typs zu projizieren. Zum Beispiel kann eine DMD ein gewünschtes strukturiertes Lichtmuster über eine Fläche hinweg projizieren. Sie kann eine Lichtlinie in einem beliebigen Winkel projizieren und die Lichtlinie über die Fläche hinweg führen. In einer anderen Ausführungsform kann die DMD einen Lichtpunkt über die Fläche hinweg führen. Das Bestreichen mit einer Lichtlinie oder einem Lichtpunkt ist eine nützlich Technik, um eine Mehrweginterferenz zu reduzieren oder zu beseitigen, wenn das Auftreten solch einer Interferenz beobachtet wurde oder aufgrund der Geometrie des abgetasteten Teils zu erwarten ist.
  • Nun werden Verfahren zur Anwendung der Kameraanordnung 1350 in Kombination mit dem Scanner 500 beschrieben, um Mehrfachabtastungen, die durch den Scanner 500 erhalten wurden, zu registrieren, wodurch die Durchführung von Abtastungen im handgeführten Modus ermöglicht wird, wobei ein Bediener den Scanner 500 am Griff 504 hält und den Scanner 500 über die Oberfläche eines zu messenden Objekts führt.
  • Bei allen Verfahren, die im Folgenden beschrieben werden, besteht ein erster Schritt darin, ein gemeinsames Bezugssystem für den Scanner 500 und die Kameraanordnung 1850 zu erhalten. Dieser erste Schritt kann im Herstellerwerk durchgeführt werden, oder vom Bediener, indem er eine vorbestimmte Prozedur befolgt. Das gemeinsame Bezugssystem kann zum Beispiel erhalten werden, indem gemeinsame Merkmale mit dem Scanner 500 und der Kameraanordnung 1850 betrachtet werden und dann eine Optimierungsmethode der kleinsten Fehlerquadrate vorgenommen wird, um die beobachteten Merkmale zuzuordnen. Solche Verfahren sind dem Fachmann bekannt und werden nicht weiter erläutert.
  • 18E stellt ein erstes Verfahren zur Verwendung der Kameras 1853A, 1853B dar, um mehrfache 3D-Koordinaten zu registrieren, die durch Linienabtastungen mit einem LLS-Scanner 500 erhalten wurden, wobei die Registrierung auf der Zuordnung natürlicher Merkmale basiert. In einem ersten Fall wird eine erste Lichtlinie 1810 vom Projektor 510 auf ein Objekt 1801 projiziert. In manchen Regionen kann das Objekt 1801 einige feine Details aufweisen, wie in den Merkmalen 1802 und 1803, und in anderen Bereichen kann das Objekt 1801 Regionen 1804 umfassen, die wenig Merkmale aufweisen. Die erste Lichtlinie 1810 wird vom 2D-Bildsensor (z. B. lichtempfindliche Matrix) der Kamera 508 in einer Region 1815 des von der Kamera 508 abgebildeten Objekts erkannt. Wie oben Bezug nehmend auf 12 erläutert, stellt das Erscheinen der ersten Lichtlinie 1810 auf dem 2D-Bildsensor der Kamera 508 einem Prozessor im System die Information bereit, um die 3D-Koordinaten der ersten Lichtlinie auf dem Objekt 1801 zu bestimmen, wobei die 3D-Koordinaten im Bezugssystem des Scanners 500 gegeben sind.
  • In einem zweiten Fall wird eine zweite Lichtlinie 1812 vom Projektor 510 auf das Objekt 1801 projiziert. Das Erscheinen der zweiten Lichtlinie 1812 auf dem 2D-Bildsensor der Kamera 508 stellt dem Prozessor im Scanner 500 die Information bereit, um die 3D-Koordinaten der zweiten Lichtlinie zu bestimmen, wieder im Bezugssystem des Scanners 500. Es ist erwünscht, die Abtastung im ersten Fall und die Abtastung im zweiten so zu registrieren, dass die 3D-Koordinaten der ersten Lichtlinie und der zweiten Lichtlinie in ein gemeinsames Bezugssystem eingetragen werden.
  • In einem ersten Registrierungsverfahren werden natürliche Merkmale des Objekts verwendet. Die Kameras 1853A, 1853B bilden eine Region 1820 des Objekts ab. Im dargestellten Beispiel werden Merkmale 1806, 1807 und 1808 von den Kameras 1853A, 1853B abgebildet. Ein Prozessor im System verwendet die Bilder der Kameras 1853A, 1853B, um durch Triangulation die 3D-Koordinaten dieser detaillierten Merkmale im Bezugssystem des Scanners 500 zu ermitteln. Wie oben beschrieben, erfordert solche eine Triangulation eine Basislinien-Entfernung zwischen der Kamera 1853A und der Kamera 1853B und die relative Orientierung dieser Kameras relativ zur Basislinie. Da die 3D-Koordinaten der Merkmale, die von den Kameras 1853A, 1853B erfasst wurden, eine Fläche des Objekts 1801 abdecken, statt nur eine Linie, ist es möglich, die Merkmale in 2D zuzuordnen, wodurch sich die Koordinatentransformation ergibt, um die erste Lichtlinie 1810 und die zweite Lichtlinie 1812 in dasselbe Bezugssystem einzutragen. Einige natürliche Merkmale wie der Schnittpunkt dreier Ebenen 1809 in 18E haben eine eindeutige Position im 3D-Raum. Solche Merkmale können in mehrfachen Kamerabildern zugeordnet werden sind daher für die Registrierung von Bildern auf der Basis natürlicher Targets besonders nützlich.
  • 18F stellt ein zweites Verfahren zur Verwendung der Kameras 1853A, 1853B dar, um mehrfache 3D-Koordinaten zu registrieren, die durch Linienabtastungen mit einem LLS-Scanner 500 erhalten wurden, wobei die Registrierung auf der Zuordnung von physischen Targets basiert, statt von natürlichen Targets. 18F entspricht 18E, mit der Ausnahme, dass 18F außerdem Markierungen 1832 auf dem Objekt 1801 und/oder Markierungen 1834 in der Nachbarschaft des Objekts, jedoch nicht auf dem Objekt umfasst. In einer Ausführungsform sind die Targets reflektierende Targets, zum Beispiel kreisförmige Targets, die manchmal als Fotogrammetrie-Targets bezeichnet werden. In einer Ausführungsform werden solche Targets durch Lichtquellen 1858A, 1858B beleuchtet, die in 18A und 18B gezeigt werden. In anderen Ausführungsformen werden die Targets 1832, 1834 durch Umgebungslichtquellen oder andere Lichtquellen beleuchtet, die von der Kameraanordnung 1350 getrennt sind. In einer Ausführungsform sind die Targets 1832, 1834 selbst Lichtquellen, zum Beispiel LEDs. In einer Ausführungsform sind die Targets 1832, 1834 eine Kombination aus Fotogrammetrie-Targets und LEDs.
  • In einem ersten Fall projiziert der Projektor 510 eine erste Lichtlinie 1810 auf das Objekt 1801. In einem zweiten Fall projiziert der Projektor 510 eine zweite Lichtlinie 1812 auf das Objekt 1801. In einer Ausführungsform bilden beide Kameras 1853A, 1853B in jedem vom ersten und zweiten Fall drei nicht-kollineare Targets ab, die 1832, 1834 sein können. Diese drei Punkte ermöglichen einem Prozessor im System, die 3D-Koordinaten, die von der ersten und der zweiten Lichtlinie erhalten wurden, in ein gemeinsames Bezugssystem einzutragen. Dieses Registrierungsverfahren wird wiederholt durchgeführt, während der handgeführte Scanner 500 über das Objekt 1801 hinweg bewegt, was dem Prozessor die Bestimmung der 3D-Koordinaten der Oberfläche des Objekts 1801 ermöglicht. In einer anderen Ausführungsform wird Bildinformation, die von physischen Targets bereitgestellt wird, mit Bildinformation kombiniert, die von natürlichen Targets bereitgestellt wird, um 3D-Koordinaten von Linienabtastungen miteinander zu registrieren und 3D-Koordinaten über die Oberfläche des Objekts 1801 hinweg zu erhalten.
  • 18G stellt ein drittes Verfahren zur Verwendung der Kameras 1853A, 1853B dar, um mehrfache 3D-Koordinaten zu registrieren, die durch Linienabtastungen mit einem LLS-Scanner 500 erhalten wurden, wobei die Registrierung auf der Zuordnung von projizierten Lichtpunkten basiert, statt von physischen Targets oder natürlichen Targets. Ein externer Projektor 1840, der separat vom Scanner 500 und der Kameraanordnung 1350 ist, projiziert Lichtpunkte 1832 auf das Objekt und/oder Lichtpunkte 1834 vom Objekt weg, jedoch in der Nachbarschaft des Objekts. Die Kamera 1853A, 1853B bilden diese Lichtpunkte auf die gleiche Weise ab wie die physischen Targets in 18F, und der Prozessor bestimmt die 3D-Koordinaten der Objektoberfläche in beiden Fällen auf gleiche Weise.
  • 18H stellt ein erstes Verfahren zur Verwendung der Kameras 1853A, 1853B dar, um mehrfache 3D-Koordinaten zu registrieren, die durch Flächenabtastungen mit einem Flächenscanner 500 erhalten wurden, wobei die Registrierung auf der Zuordnung natürlicher Merkmale basiert. In einem ersten Fall wird eine erste Lichtfläche 1810B vom Projektor 510 auf ein Objekt 1801 projiziert. Die erste Lichtfläche 1810B wird vom 2D-Bildsensor (z. B. lichtempfindliche Matrix) der Kamera 508 in einer Region 1815 des von der Kamera 508 abgebildeten Objekts erkannt. Die Überschneidung des projizierten Lichtregion 1810B und der abgebildeten Region 1815 ist eine Überschneidungsregion 1817. In dieser Überschneidungsregion 1817 kann ein Prozessor 3D-Koordinaten der Oberfläche des Objekts 1801 bestimmen. Diese 3D-Koordinaten werden im Bezugssystem des Scanners 500 gefunden.
  • In einem zweiten Fall sind eine zweite Lichtfläche 1812B und die von den Kameras 1853A, 1853B abgebildete Fläche von der ersten Lichtfläche vom Projektor 510 auf dem Objekt 1801 versetzt (wie rechts davon dargestellt), wodurch eine zweite Überschneidungsregion 1817B entsteht, die zur ersten Überschneidungsregion 1817 benachbart und von dieser versetzt ist. In manchen Fällen sind in der ersten Überschneidungsregion und in der zweiten Überschneidungsregion ausreichend gemeinsame natürliche Merkmal-Details vorhanden, um im ersten und zweiten Fall die Registrierung der 3D-Koordinaten im Bezugssystem des Scanners 500 zu ermöglichen und sie in ein gemeinsames Bezugssystem einzutragen. Doch wenn das Objekt 1801 in den Überschneidungsregionen 1817 und 1817B relativ wenig Merkmale hat, kann die Registrierung der ersten und der zweiten Flächenabtastung auf der Basis von Abtastdaten nicht die gewünschte Genauigkeit gewährleisten.
  • In einer Ausführungsform haben die Kameras 1853A, 1853B ein breiteres Sichtfeld (FOV) als die Kamera 510, was zusätzliche Merkmale wie z. B. 1806, 1807 und 1808 ermöglicht, um wie oben erläutert durch die auf 18E, 18F und 18G Bezug nehmend beschriebenen Verfahren die Registrierung durch Zuordnen von 3D-Merkmalen zu verbessern. Wenn es einem Objekt 1801 an unterscheidbaren Merkmalen mangelt, wie in der Region 1804, besteht die Gefahr, dass die registrierten 3D-Bilder sich verzerren (sich z. B. im dreidimensionalen Raum verbiegen). Zum Beispiel kann die flache Oberfläche in der Region 1804 wie eine Sattel aussehen. Dieser Effekt wird manchmal umgangssprachlich als „Kartoffelchipeffekt” bezeichnet.
  • Bei gescannten Regionen mit wenig Merkmalen kann die Registrierung verbessert werden, indem auf oder in der Nachbarschaft des Objekts 1801 Targets vorgesehen werden. 18J stellt ein zweites Verfahren zur Verwendung der Kameras 1853A, 1853B dar, um mehrfache 3D-Koordinaten zu registrieren, die durch Flächenabtastungen mit einem Flächenscanner 500 erhalten wurden, wobei die Registrierung auf der Zuordnung physischer Targets basiert, statt von natürlichen Targets. 18J entspricht 18H, mit der Ausnahme, dass 18J außerdem Markierungen 1832 auf dem Objekt 1801 und/oder Markierungen 1834 in der Nachbarschaft des Objekts, jedoch nicht auf dem Objekt umfasst. Durch Anwendung des Verfahrens, das Bezug nehmend auf 18F beschrieben wurde, kann in vielen Fällen eine verbesserte Registrierung der 3D-Koordinaten erreicht werden, die aus aufeinanderfolgenden Flächenabtastungen erhalten wurden.
  • 18K stellt ein drittes Verfahren zur Verwendung der Kameras 1853A, 1853B dar, um mehrfache 3D-Koordinaten zu registrieren, die durch Flächenabtastungen mit einem Flächenscanner 500 erhalten wurden, wobei die Registrierung auf der Zuordnung von projizierten Lichtpunkten basiert, statt von physischen Targets oder natürlichen Targets. Ein externer Projektor 1840, der separat vom Scanner 500 und der Kameraanordnung 1350 ist, projiziert Lichtpunkte 1832 auf das Objekt und/oder Lichtpunkte 1834 vom Objekt weg, jedoch in der Nachbarschaft des Objekts. Die Kamera 1853A, 1853B bilden diese Lichtpunkte auf die gleiche Weise ab wie die physischen Targets in 18J, und der Prozessor bestimmt die 3D-Koordinaten der Objektoberfläche in beiden Fällen auf gleiche Weise.
  • Wie hier verwendet, kann der Begriff „Marke” sich auf jedes der physischen Merkmale beziehen, die verwendet wurden, um die Registrierung mehrfacher Sätze von 3D-Koordinaten zu unterstützen, die durch den Scanner 500 in Kombination mit der Kameraanordnung 1850 erhalten wurden. In der obigen Erörterung wurden vier Marken beschrieben: (1) natürliche Merkmale der Objektoberfläche (oder Merkmale auf einer stationären Fläche in unmittelbarer Nähe des Objekts; (2) LED-Markierungen (Targets) auf dem Objekt oder in unmittelbarer Nähe des Objekts; (3) reflektierende Markierungen (Targets) auf dem Objekt oder in unmittelbarer Nähe des Objekts; und (4) Lichtpunkte, die durch einen externen Projektor, der nicht auf dem Scanner 500 oder in der Kameraanordnung 1350 angeordnet ist, auf das Objekt oder in unmittelbarer Nähe des Objekts projiziert wird.
  • Die obige Erörterung hat zum Großteil Verbesserungen in der Registrierung beschrieben, wenn bei jeder Einzelbestimmung der 3D-Koordinaten von Oberflächenpunkten durch den Scanner 500 drei oder mehr Marken von den Kameras 1853A, 1853B in der Kameraanordnung 1350 erfasst werden, wobei zwei aufeinanderfolgende Abtastungen mindestens drei gemeinsame Punkte haben. In manchen Ausführungsformen ist die Registrierung jedoch auf der Basis der Information möglich, die von einer einzigen Kamera in der Kameraanordnung erhalten wird, und durch weniger als drei Marken, die von der Kamera erfasst werden. Zum Beispiel kann auch das projizierte Licht (Lichtlinie oder Lichtfläche) vom Projektor 510 von einer oder mehr Kameras 1853A, 1853B erfasst werden und zusammen mit mindestens einer Marke in aufeinanderfolgenden Bildern zugeordnet werden, wodurch in manchen Fällen viel mehr Registrierungsinformation bereitgestellt wird als durch die Marken allein. Darüber hinaus ist es auch möglich, Daten so zu verarbeiten, dass die Registrierung nicht gänzlich auf einer Zuordnung zweier 2D-Bilder basiert, die durch eine oder mehrere Kameras in der Kameraanordnung erhalten werden, sondern auf einer Zuordnung einer Vielzahl von 2D-Bildern, die durch eine oder mehrere Kameras erhalten wurden, auf einer großen Zahl von 2D-Bildern und auf der entsprechenden großen Zahl von 3D-Bildern, die vom Scanner 500 erhalten wurden.
  • 19A, 19B, 19C und 19D sind jeweils eine isometrische Ansicht, Seitenansichten und eine Vorderansicht einer abnehmbaren sechs-DOF-Tracker-Target-Anordnung 1900, die mit einem handgeführten Triangulationsscanner 500 gekoppelt ist. 19E ist eine isometrische Ansicht der abnehmbaren sechs-DOF-Tracker-Target-Anordnung mit sechs DOF, die dazu konfiguriert ist, mit dem handgeführten Triangulationsscanner gekoppelt zu werden. Die Kopplung erfolgt durch die mechanische und elektrische Schnittstelle 426. Die elektrische Schnittstelle 426 umfasst zwei Teile, ein erstes Teil 426A, das in diesem Fall ein Scannerverbinder 426A ist, und ein zweites Teil 426B, das in diesem Fall ein sechs-DOF-Trackeranordnungsverbinder 426B ist. Das erste Teil und das zweite Teil werden miteinander gekoppelt, um den Scanner 500 relativ zur sechs-DOF-Tracker-Target-Anordnung 1900 in einer feststehenden Position und Orientierung zu halten.
  • In einer Ausführungsform umfasst die sechs-DOF-Tracker-Target-Anordnung 1900 außerdem eine Anzeige 1942. In einer Ausführungsform zeigt die Anzeige 1942 3D-Messdaten oder 2D-Bilder an. Die Anzeige 1942 kann außerdem einen Kommentar zum Objekt anzeigen oder ein Menü in einer Benutzerschnittstelle anbieten, zum Beispiel mit dem Berührungsbildschirm. In einer Ausführungsform umfasst die sechs-DOF-Tracker-Target-Anordnung außerdem Elektronik 1944, die eine Batterie umfasst und einen drahtlosen Kommunikationskanal mit einer Antenne und kann außerdem einen Prozessor und einen Speicher umfassen.
  • Die sechs-DOF-Tracker-Target-Anordnung 1900 wirkt mit einem Lasertracker 4010 zusammen, um sechs Freiheitsgrade der Anordnung 1900 zu bestimmen. Die sechs Freiheitsgrade umfassen drei Translationsfreiheitsgrade (z. B., x, y, z), welche der Tracker bestimmt, wie oben auf 14B Bezug nehmend erläutert. Der Tracker bestimmt auch drei Orientierungsfreiheitsgrade (z. B. Nick-, Roll- und Gierwinkel) durch Zusammenwirken mit der sechs-DOF-Tracker-Target-Anordnung 1900. Solch eine sechs-DOF-Tracker-Target-Anordnung kann verschiedenen Typs sein, zum Beispiel wie die, die in den vorgenannten Patenten '758 , '983 , '809 und der Patentanmeldung '525 beschrieben werden. Durch Messen der sechs Freiheitsgrade des sechs-DOF-Zusatzgeräts 1900 und des Scanners 500, die miteinander verbunden sind, kann der Tracker die Position und Orientierung des Scanners 500 relativ zum Objekt verfolgen, wodurch eine relativ genaue Registrierung mehrfacher Linienabtastungen oder Flächenabtastungen ermöglicht wird. In einer Ausführungsform ist eine Sondenspitze 1915 an einem Sondenkoppler 1920 angebracht. Der Tracker bestimmt die 3D-Koordinaten der Sondenspitze 1915 auf der Basis der sechs Freiheitsgrade, die gemessen wurden.
  • In einer Ausführungsform wirkt der Lasertracker 4010 mit der sechs-DOF-Tracker-Target-Anordnung 1900 und einem Prozessor zusammen, um die sechs Freiheitsgrade der sechs-DOF-Tracker-Target-Anordnung 1900 zu bestimmen. In einer Ausführungsform sendet der Lasertracker 4010 einen Lichtstrahl zu einem sechs-DOF-Target 1930, das ein Retroreflektor-Target umfassen kann, der in einer Ausführungsform ein Würfelecken-Retroreflektor ist. Eine Sammlung 1910 von mehreren sechs-DOF-Targets 1930 kann vorgesehen sein, um die Betrachtung der sechs-DOF-Targets aus unterschiedlichen Blickwinkeln zu erlauben. Ein erster Teil des Lichts, das vom Retroreflektor reflektiert wird, erreicht einen Entfernungsmesser im Lasertracker 4010, um eine Entfernung vom Tracker zum Retroreflektor zu bestimmen, ein zweiter Teil des Lichts erreicht einen Tracker-Positionsdetektor, der ein elektrisches Positionssignal erzeugt, das die Position des Lichtstrahls auf dem Retroreflektor angibt. In einem Betriebsmodus führt der Positionsdetektor das elektrische Signal einem Steuersystem zu, das Motoren umfasst, um den Lichtstrahl zu lenken und ihn auf dem Retroreflektor zentriert zu halten, wodurch die Verfolgung des Retroreflektors ermöglicht wird, wenn er sich bewegt. Zusätzlich verwendet der Tracker, wie oben erläutert, Winkelgeber bzw. Winkelcodierer, um zwei Winkel bereitzustellen, welche die Richtung des Laserstrahls angeben. Mit diesen zwei Winkeln und der vom Entfernungsmesser gegebenen Entfernung werden die drei Translationsfreiheitsgrade für die sechs-DOF-Tracker-Target-Anordnung 1900 erhalten. Signale von den Sechs-DOF-Targets können zur Datenverarbeitung und -synchronisierung an eine Elektroeinheit 1940 gesendet werden.
  • Wie oben erläutert, sind zur Bestimmung der drei Orientierungsfreiheitsgrade viele Verfahren möglich, zum Beispiel, wie in den Patenten '758 , '983 , '809 und der Patentanmeldung '525 beschrieben. Diese offenbarten Verfahren umfassen (1) das Messen der Position mehrerer Lichtquellen auf einem Tracker-sechs-DOF-Target mit einer Kamera auf dem Lasertracker, um die drei Orientierungsfreiheitsgrade zu bestimmen; (2) das Messen von Linien, die auf einem Würfelecken-Retroreflektor markiert sind, um die drei Orientierungsfreiheitsgrade zu bestimmen; und (3) das Messen des Lichts, das durch eine Öffnung im Würfelecken-Retroreflektor geht, um den Nick- und Gierwinkel zu bestimmen, und das Messen des Neigungswinkels, um den Rollwinkel zu bestimmen. Andere Verfahren zum Messen der drei Orientierungsfreiheitsgrade sind möglich, und jedes Verfahren zum Messen der drei Orientierungsfreiheitsgrade kann mit der sechs-DOF-Tracker-Target-Anordnung 1900 verwendet werden.
  • Ein erster Schritt in den Verfahren, die im Folgenden beschrieben werden, besteht darin, ein gemeinsames Bezugssystem für den Scanner 500 und die sechs-DOF-Tracker-Target-Anordnung 1900 zu erhalten. Dieser erste Schritt kann im Herstellerwerk durchgeführt werden, oder vom Bediener, indem er vom Hersteller vorgeschriebene Prozeduren befolgt. Das gemeinsame Bezugssystem kann zum Beispiel erhalten werden, indem gemeinsame Merkmale mit dem Scanner 500 und der Kameraanordnung 1900 betrachtet werden und dann eine Optimierungsmethode der kleinsten Fehlerquadrate vorgenommen wird, um die beobachteten Merkmale zuzuordnen. Solche Verfahren sind dem Fachmann wohlbekannt und werden nicht weiter erläutert.
  • In einer Ausführungsform umfasst die sechs-DOF-Tracker-Target-Anordnung 1900 außerdem eine taktile Sonde 1915, die durch eine Schnittstelleneinheit 1920 mit der Sammlung von sechs-DOF-Targets 1910 verbunden ist. Die Schnittstelleneinheit kann ein praktisches Anbringen und Abnehmen verschiedener taktiler Sonden 1915 ermöglichen. Sie kann auch bestimmten Sondentypen wie z. B. einer berührungsempfindlichen Sonde, die eine Messung erfasst, sobald die Sonde ein Objekt berührt, eine elektrische Funktionalität verleihen.
  • In einer Ausführungsform misst der Lasertracker 4010 außerdem zusätzliche Retroreflektor-Targets in einer Umgebung, wodurch ein Bezugssystem in der Umgebung hergestellt wird. Die Sechs-DOF-Anordnung 1900 und der Scanner 500 wirken mit dem Lasertracker 4010 zusammen, um die Position eines Objekts im Bezugssystem der Umgebung zu bestimmen. In einer Ausführungsform wird in einem weiteren Schritt der Tracker 4010 zu einem neuen Ort bewegt, wo er einige der Retroreflektor-Targets erneut misst, um ihre Position und Orientierung im Bezugssystem der Umgebung, die in einem früheren Schritt ermittelt wurden, zu bestimmen. Aus seinem neuen Blickwinkel kann der Lasertracker 4010 mit der sechs-DOF-Anordnung 4010 und dem Scanner 500 zusammenwirken, um zusätzliche Seiten des Objekts zu messen, die für den Scanner 500 vorher nicht sichtbar waren.
  • Nun auf 19B, 19C Bezug nehmend, umfasst die kombinierte Scanner 500 und sechs-DOF-Anordnung 1900 in einer Ausführungsform eine elektrische Verbinderanordnung 1890, die einen Verbinder 1892, eine Schutzkappe 1894 und eine Halteleine 1896 aufweist. In einer Ausführungsform verbindet der Verbinder 1892 ein Kabel 1897, das mit einer Elektronikeinheit 1898 verbunden ist, die eine Stromversorgung 1872 und einen Prozessor 1874 aufweist. In einer Ausführungsform ist die Elektronikeinheit 1898 durch ein elektrisches Kabel 1899 mit anderen Komponenten verbunden. In einer Ausführungsform ist die Elektronikeinheit mit dem Lasertracker 4010 verbunden. In einer Ausführungsform werden die elektrischen Signale, die durch das Kabel 1897 geleitet werden, zwischen dem Tracker 4010, der sechs-DOF-Anordnung 1900 und dem Scanner 500 synchronisiert. In einer Ausführungsform wird vom Lasertracker 4010 ein Zeitstempel bereitgestellt, um die Synchronisierung zu erhalten, und ein Zeitstempel wird auch von der Anordnung bereitgestellt, die den Scanner 500 und die sechs-DOF-Anordnung 1900 umfasst.
  • In einer Ausführungsform ist das elektrische Kabel 1899 ein industrieller Echtzeit-Bus, der mit anderen Geräten in einem industriellen Automatisierungsnetzwerk verbunden und synchronisiert ist. In einer Ausführungsform umfasst die Elektronik in der Elektronikeinheit 1899 Elektronik, um einen Zeitstempel gemäß IEEE 1588 bereitzustellen. In einer Ausführungsform ist die elektrische Leitung 1899 ein Echtzeit-Bus, der zum Beispiel EtherCAT, SERCOS III, PROFINET, POWERLINK oder EtherNet/IP sein kann. Solch ein Echtzeit-Bus kann Dutzende oder Hunderte anderer Geräte in einem Automatisierungsnetzwerk verbinden.
  • 20 ist eine isometrische Ansicht einer abnehmbaren sechs-DOF-Targetanordnung 2000, die mit einem handgeführten Triangulationsscanner 500 gekoppelt ist. Die Targets auf der sechs-DOF-Targetanordnung 2000 können mit einem Kamerabalken wie z. B. dem Kamerabalken 5110 von 1517 gemessen werden. In einer Ausführungsform können die Targets auf der sechs-DOF-Targetanordnung mit zwei oder mehr Kameras gemessen werden, die separat in einer Umgebung montiert sind, das heißt, nicht an einem gemeinsamen Balken angebracht sind. Ein Kamerabalken umfasst zwei oder mehr Kameras, die um eine Kamerabalken-Basislinie voneinander beabstandet sind. Die Triangulation wird auf die Bilder der Targets angewandt, die von den zwei Kameras erhalten werden, um die sechs Freiheitsgrade der sechs-DOF-Targetanordnung und des Scanners 500 zu bestimmen. Zusätzliche geometrische Information wie z. B. die Kamerabalken-Basislinie und die Orientierung der Kameras im Kamerabalken werden von einem Prozessor in der Triangulationsberechnung verwendet.
  • In einer Ausführungsform umfasst die sechs-DOF-Targetanordnung 2000 eine Sammlung von Lichtpunkten 2010, ein Elektrikgehäuse 2040 und eine taktile Sonde 1915. In einer Ausführungsform umfasst die Sammlung von Lichtpunkten 2010 einige Punkte 2022, die direkt an die Struktur 2012 montiert sind, und andere Lichtpunkte 2024, die auf Sockeln 2026 montiert sind. In einer Ausführungsform sind die Lichtpunkte 2022, 2024 LEDs. In einer anderen Ausführungsform sind die Lichtpunkte 2022, 2024 reflektierende Punkte. In einer Ausführungsform werden die reflektierenden Punkte durch eine externe Lichtquelle beleuchtet. In einer Ausführungsform sind die Lichtpunkte so positioniert, dass sie relativ zum Scanner 500 aus unterschiedlichen Blickwinkeln sichtbar sind.
  • In einer Ausführungsform sitzt die Struktur 2012 auf einem Elektrikgehäuse 2040, das die Verarbeitung und Synchronisierung von Daten gewährleistet. In einer Ausführungsform weist die Schnittstelle 426 einen Scannerverbinder 426A und einen Anordnungsverbinder 426B auf. Die Verbinder 426A und 426B sind dazu konfiguriert, den Scanner 500 auf abnehmbare Weise mit der Targetanordnung 2000 zu koppeln. In einer Ausführungsform verfolgt eine Kamera, die zum Beispiel auf einem Stativ befestigt ist, die sechs Freiheitsgrade der Targetanordnung 2000 und des Scanners 500, während der Bediener der Scanner am Griff 504 hält und die Targetanordnung 2000 und den Scanner 500 über ein Objekt hinweg führt. Ein Prozessor empfängt Daten vom Scanner 500 und der Targetanordnung 2000, um Mehrfachabtastungen von Daten zu registrieren und 3D-Koordinaten von Punkten auf einer Objektoberfläche zu erhalten.
  • In einer Ausführungsform umfasst die sechs-DOF-Targetanordnung eine taktile Sonde 1915, die durch eine Sondenschnittstelle 1920 mit dem Elektrikgehäuse 2040 verbunden ist. Die Sondenschnittstelle 1920 kann Berührungssonden- oder Analogsonden-Elektronik bereitstellen. Ein Scanner 500 kann viel Detailinformation schnell bereitstellen, aber weniger Information über Kanten und Löcher bereitstellen als gewünscht. Die taktile Sonde 1915 kann vom Bediener verwendet werden, um diese gewünschte Information bereitzustellen.
  • In einer Ausführungsform umfasst die sechs-DOF-Targetanordnung 2000 außerdem eine Anzeige 2042. In einer Ausführungsform zeigt die Anzeige 2042 3D-Messdaten oder 2D-Bilder an. Die Anzeige 2042 kann außerdem einen Kommentar zum Objekt anzeigen oder ein Menü in einer Benutzerschnittstelle anbieten, zum Beispiel mit dem Berührungsbildschirm. In einer Ausführungsform umfasst die sechs-DOF-Tracker-Target-Anordnung außerdem Elektronik 2044, die eine Batterie umfasst und einen drahtlosen Kommunikationskanal mit einer Antenne und außerdem einen Prozessor und einen Speicher umfassen kann.
  • 21A zeigt einen Triangulationsscanner mit einem abnehmbaren Griff und einem anbringbaren Zusatzgerät, wobei das anbringbare Zusatzgerät dazu konfiguriert ist, die Bestimmung der Position und Orientierung des Triangulationsscanners Bezug auf ein Objekt zu unterstützen. In einer Ausführungsform umfasst ein Triangulationsscanner 2100 einen abnehmbaren Griff 2154, der von einem Bediener durch ein Befestigungsteil 2153 zum Beispiel mit Schrauben abgenommen und wieder angebracht werden kann. Im Unterschied zum in 11A gezeigten Griff, der elektrische Komponenten enthält, sind im abnehmbaren Griff 2154 wenig elektrische Elemente enthalten, wenn überhaupt. In einer Ausführungsform können elektrische Verbindungen für die Aktuatoren (Druckknöpfe) 2164, 2166 vorgesehen sein. In einer Ausführungsform umfasst eine Scanneranordnung 2102, nachdem der Griff abgenommen wurde, elektrische Komponenten, die in einem Abschnitt 2106 unterhalb eines Abschnitts 2107 verlegt wurden, der die Kamera 508 und den Projektor 510 aufnimmt. Durch Vorsehen einer flachen Fläche 2108 auf der Unterseite des unteren Abschnitts 2106 können der Scanner 2102 und andere Anordnungen, die daran angebracht sind, auf einfache Weise an einen Roboter-Endeffektor oder in der Nähe eines Förderbands einer Montagelinie montiert werden. Im Gegensatz zu einer handgeführten Anwendung, bei der die Stabilität des Scanners nicht gewährleistet werden kann, ist es durch Montieren des Scanners 2102 auf eine flache, stabile Fläche möglich, sequentielle Abtastmessungen durchzuführen, die länger dauern, jedoch genauer sind. Bei solchen Messungen, zum Beispiel mit Sinuskurven-Phasenverschiebungsverfahren, ist Stabilität zwischen aufeinanderfolgenden Messungen erwünscht.
  • In einer Ausführungsform ist die Kameraanordnung 1850 durch eine mechanische und elektrische Schnittstelle 426 am Scanner 2102 angebracht. In anderen Ausführungsformen wird die Kameraanordnung 1850 in 21A durch eine sechs-DOF-Tracker-Target-Anordnung 1910 ersetzt, wie in 21C gezeigt, wobei der Scanner 500 durch einen Scanner 2100B ersetzt wird. In einer anderen Ausführungsform wird die Kameraanordnung 1850 in 21A durch eine sechs-DOF-Targetanordnung 2000 wie die in 20 gezeigte sechs-DOF-Anordnung ersetzt. Der Triangulationsscanner, der einen Projektor 510 und eine Kamera 508 umfasst, kann eine Laserliniensonde sein, die eine Lichtlinie projiziert, oder ein Flächenscanner, der eine Lichtfläche projiziert.
  • Falls der Scanner 2100B an einer Fertigungs- und Montagelinie eingesetzt wird, kann ein Signal von einem Lineargeber, der mit der Montagelinie verbunden ist, zum Scanner 2100B oder zu einem Prozessor im System gesendet werden, um die Scanner-Messungen mit der Bewegung der Montagelinie zu synchronisieren. Durch dieses Verfahren kann die Genauigkeit des vom Scanner gemessenen Größenmaßstabs gewährleistet werden. Der Elektrokasten 2170 kann Synchronisationssignale und andere Signale zum und vom Scanner 2100B und der Kameraanordnung 1850 (oder einem anderen Zusatzgerät) bereitstellen. Alternativ dazu kann der Elektrokasten Zeitstempel übertragen, die durch IEEE 1588-Verfahren synchronisiert sein können, oder der Elektrokasten kann an einen Echtzeit-Bus 2172 wie z. B. EtherCAT, SERCOS III, PROFINET, POWERLINK oder EtherNet/IP angeschlossen sein.
  • Falls der Scanner stationär gehalten wird, zum Beispiel auf einem Roboter-Endeffektor oder in der Nähe eines sich bewegenden Förderbands, kann der Triangulationsscanner 2100B mit flachem Boden verwendet werden. Falls der Lineargeber dem Scanner 2100B Zeitsignale von einem Lineargeber bereitstellt, stellt der Scanner 2100B ohne Zusatzgerät, wie in 21B gezeigt, eine geeignete Konfiguration dar. Falls der Scanner an einen Roboterarm montiert ist, der nur wenig genaue Information über seine Bewegungen bereitstellt, bietet die Ausführungsform von 21C, in welcher ein sechs-DOF-Tracker-Target-Zusatzgerät 1900 durch eine Schnittstelle 426 angebracht ist, eine Möglichkeit, die hohe Genauigkeit einer Sechs-DOF-Lasertrackermessung auf die Messungen zu übertragen, die durch den Scanner 2100B in 21C durchgeführt werden.
  • In einer Ausführungsform umfasst der Scanner 2100B außerdem eine Farbkamera 515, wie in 21B dargestellt. In einer Ausführungsform wird ein durch die Farbkamera erfasstes Farbbild verwendet, um Farben für die vom Scanner 2100B erfassten 3D-Koordinaten von Objektpunkten bereitzustellen.
  • 22 ist eine Vorderansicht eines Triangulationsscanners 2210, der zwei Kameras 2214. 2216 und einen Projektor 2212 umfasst, die in einem Dreieck angeordnet sind. In einer Ausführungsform umfasst der Scanner auch eine Farbkamera 2218. Der Griff des Triangulationsscanners 2210 kann ein abnehmbarer Griff 2154 oder ein permanent angebrachter Griff 504 sein. Der Triangulationsscanner 2210 ist zur Verbindung mit einer Gelenkarm-KMM 100 oder alternativ dazu mit einer Anordnung konfiguriert, die aus der Gruppe gewählt ist, bestehend aus: (1) einer sechs-DOF-Tracker-Target-Anordnung 1910, wie Bezug nehmend auf 19A19E beschrieben; (2) einer Kameraanordnung 1850, wie Bezug nehmend auf 18A18D beschrieben; und (3) einer sechs-DOF-Lichtpunkt-Targetanordnung, wie Bezug nehmend auf 20 beschrieben.
  • Zwei Kameras (eine erste Kamera und eine zweite Kamera) und ein Projektor sind in einem Dreieck angeordnet, wie in 22 gezeigt. Diese Anordnung hat drei Epipolarlinienbedingungen, einen ersten Satz Bedingungen für die erste Kamera und die zweite Kamera, einen zweiten Satz Bedingungen für die erste Kamera und den Projektor, und einen dritten Satz Bedingungen für die zweite Kamera und den Projektor. Durch gleichzeitige Auflösung dieser Bedingungen ist es möglich, 3D-Koordinaten von Punkten auf einer Objektoberfläche in einer einzelnen Triangulationsmessung zu erhalten, selbst bei Verwendung uncodierter Lichtmuster. Zum Beispiel ist es möglich, 3D-Koordinaten von projizierten Lichtpunkten zu bestimmen, die durch Licht erhalten werden, das Beugungsgitter (diffraktives optisches Element, DOE) durchläuft, wobei jeder Lichtpunkt von den anderen nicht zu unterscheiden ist. Dieses Verfahren wird in der US-Patentanmeldung Nr. 2014/0168379 ausführlicher beschrieben.
  • Um die Messung mit dem Triangulationsscanner durchzuführen, der zwei Kameras und einen Projektor aufweist, die in einem Dreieck angeordnet sind, wie in 22 gezeigt, werden drei separate Triangulationsmessungen vorgenommen, eine für die zwei Kameras, eine für die erste Kamera und den Projektor, und eine für die zweite Kamera und den Projektor. Neben diesen Berechnungen werden zusätzliche Berechnungen durchgeführt, um die Entsprechung zwischen projizierten und abgebildeten Scannerpunkten auf der Basis von Epipolarbedingungen zu bestimmen.
  • Die Farbkamera 2218 kann verwendet werden, um die Registrierung mehrfacher 3D-Abtastungen zu unterstützen, die vom Scanner 2210 erhalten wurden, indem gemeinsame Target-Merkmale identifiziert werden und die Stellung der mehrfachen 3D-Abtastungen anzupassen, um die beste Übereinstimmung zu erhalten, zum Beispiel unter Verwendung mathematischer Optimierungsmethoden wie die Methode der kleinsten Fehlerquadrate.
  • Es sind auch Flächenscanner verfügbar, die zwei Kameras und einen Projektor in einer Linie anordnen, statt in einem Dreieck. Gewöhnlich wird diese Anordnung benutzt, um viele der „Schatten” zu beseitigen, die manchmal auftreten, wenn zur Betrachtung eines 3D-Objekts ein Einzelscanner verwendet wird. In einem Verfahren wird eine einzige Triangulationsberechnung zwischen den zwei Kameras oder zwischen dem Projektor und einer der Kameras durchgeführt. In einer Ausführungsform werden alle drei Triangulationsberechnungen durchgeführt, um die Genauigkeit zu erhöhen. Doch mit den zwei Kameras und dem Projektor, die in einer geraden Linie angeordnet sind, ist es erwünscht, ein codiertes Muster aus einem handgeführten Scanner zu projizieren, um die Entsprechung zwischen projizierten und abgebildeten Scannerpunkten zu bestimmen, da Epipolarbedingungen nicht verwendet werden können, um die Entsprechung direkt zu bestimmen.
  • Diese dreieckige Anordnung des Scanners 2210 von 22 stellt zusätzliche Information bereit, die über die hinaus geht, die über die hinausgeht, die verfügbar ist, wenn zwei Kameras und ein Projektor in einer geraden Linie angeordnet sind. Die zusätzliche Information geht aus 23A hervor, die das Konzept von Epipolarbedingungen erklärt, und aus 23B, die erklärt, wie Epipolarbedingungen auf vorteilhafte Weise auf die Dreiecksanordnung des 3D-Abbildungsgeräts 2210 angewandt werden können. In 23A umfasst ein 3D-Triangulationsinstrument 1240 ein Gerät 1 und ein Gerät 2 jeweils auf der linken und der rechten Seite von 23A. Das Gerät 1 und das Gerät 2 können zwei Kameras sein, oder das Gerät 1 und das Gerät 2 können eine Kamera und ein Projektor sein. Jedes der zwei Geräte, ob Kamera oder Projektor, hat ein Perspektivitätszentrum O1 und O2 und eine Bezugsebene 1230 oder 1210. Die Perspektivitätszentren sind um eine Basislinienentfernung B getrennt, die der Länge der Linie 1202 entspricht. Die Perspektivitätszentren O1, O2 sind Punkte, durch von Lichtstrahlen entweder zu oder von einem Punkt auf einem Objekt durchlaufen werden. Diese Lichtstrahlen werden entweder von einem beleuchteten Projektormuster abgestrahlt oder fallen auf eine lichtempfindliche Matrix ein. Das beleuchtete Projektormuster oder die Bildebene der lichtempfindlichen Matrix werden der anderen Seite des Perspektivitätszentrums abgebildet, da diese Platzierung symmetrisch ist und der realen Projektor- oder Bildebene entspricht und die im Folgenden beschriebene Analyse vereinfacht. Diese Platzierung der Bezugsebenen 1230, 1210 ist in 23A angewandt, wo die Bezugsebenen 1230, 1210 zwischen dem Objektpunkt und den Perspektivitätszentren O1, O2 gezeigt werden.
  • Für die Bezugsebene 1230, die zum Perspektivitätszentrum O2 angewinkelt ist, und die Bezugsebene 1210, die zum Perspektivitätszentrum O1 angewinkelt ist, schneidet in 23A eine Linie 1202, die zwischen den Perspektivitätszentren O1 und O2 gezogen ist, die Ebenen 1230 und 1210 jeweils an den Epipolarpunkten E1, E2. Betrachten wir einen Punkt UD auf der Ebene 1230. Wenn Gerät 1 eine Kamera ist, ist bekannt, dass ein Objektpunkt, der den Punkt UD auf dem Bild erzeugt, auf der Linie 1238 liegt. Der Objektpunkt kann zum Beispiel einer der Punkte VA, VB, VC oder VD sein. Diese vier Objektpunkte entsprechen jeweils den Punkten WA, WB, WC, WD auf der Bezugsebene 1210 von Gerät 2. Dies gilt unabhängig davon, ob Gerät 2 eine Kamera oder ein Projektor ist. Es ist auch zu ersehen, dass die vier Punkte auf einer Geraden 1212 in der Ebene 1210 liegen. Diese Linie, welche die Schnittlinie der Bezugsebene 1210 mit der Ebene O1-O2-UD, wird als Epipolarlinie 1212 bezeichnet. Daraus folgt, dass jede Epipolarlinie auf der Bezugsebene 1210 durch den Epipol E2 geht. Ebenso, wie es für jeden Punkt auf der Bezugsebene von Gerät 1 eine Epipolarlinie auf der Bezugsebene von Gerät 2, gibt es auch für jeden Punkt auf der Bezugsebene von Gerät 2 eine Epipolarlinie 1234 auf der Bezugsebene von Gerät 1.
  • 23B veranschaulicht die Epipolarbeziehungen für ein 3D-Abbildungsgerät 1290, das dem 3D-Abbildungsgerät 2210 von 22 entspricht, in welchem zwei Kameras und ein Projektor in einem Dreiecksmuster angeordnet sind. Allgemein kann das Gerät 1, Gerät 2 und Gerät 3 jede Kombination von Kameras und Projektoren sein, solange mindestens eines der Geräte eine Kamera ist. Jedes der drei Geräte 1291, 1292, 1293 hat jeweils ein Perspektivitätszentrum O1, O2, O3 und jeweils eine Bezugsebene 1260, 1270 und 1280. Jedes Gerätepaar hat ein Epipolpaar. Gerät 1 und Gerät 2 haben jeweils Epipole E12. E21 auf den Ebenen 1260, 1270. Gerät 1 und Gerät 3 haben jeweils Epipole E13, E31 auf den Ebenen 1260, 1280. Gerät 2 und Gerät 3 haben jeweils Epipole E23, E32 auf den Ebenen 1270, 1280. Mit anderen Worten, jede Bezugsebene enthält zwei Epipole. Die Bezugsebene für Gerät 1 enthält Epipole E12 und E13. Die Bezugsebene für Gerät 2 enthält Epipole E21 und E23. Die Bezugsebene für Gerät 3 enthält Epipole E31 und E32.
  • Betrachten wir die Situation von 23B, in welcher Gerät 3 ein Projektor, Gerät 1 eine erste Kamera und Gerät 2 eine zweite Kamera ist. Angenommen, ein Projektionspunkt P3, ein erster Bildpunkt P1 und ein zweiter Bildpunkt P2 werden in einer Messung erhalten. Diese Ergebnisse können auf die folgende Weise auf ihre Konsistenz hin überprüft werden.
  • Zur Prüfung der Konsistenz des Bildpunkts P1 wird die Ebene P3-E31-E13 mit der Bildebene 1260 geschnitten, um die Epipolarlinie 1264 zu erhalten. Die Ebene P2-E21-E12 wird geschnitten, um die Epipolarlinie 1262 zu erhalten. Wenn der Bildpunkt P1 auf konsistente Weise bestimmt wurde, wird der beobachtete Bildpunkt Pi auf dem Schnittpunkt der berechneten Epipolarlinien 1262 und 1264 liegen.
  • Zur Prüfung der Konsistenz des Bildpunkts P2 wird die Ebene P3-E31-E13 mit der Bezugsebene 1270 geschnitten, um die Epipolarlinie 1274 zu erhalten. Die Ebene P1-P12-E21 wird geschnitten, um die Epipolarlinie 1272 zu erhalten. Wenn der Bildpunkt P2 auf konsistente Weise bestimmt wurde, wird der beobachtete Bildpunkt P2 auf dem Schnittpunkt der berechneten Epipolarlinien 1272 und 1274 liegen.
  • Zur Prüfung der Konsistenz des Projektionspunkts P3 wird die Ebene P2-E23-E32 mit der Bezugsebene 1280 geschnitten, um die Epipolarlinie 1284 zu erhalten. Die Ebene P1-E13-E31 wird geschnitten, um die Epipolarlinie 1282 zu erhalten. Wenn der Projektionspunkt P3 auf konsistente Weise bestimmt wurde, wird der beobachtete Projektionspunkt P3 auf dem Schnittpunkt der berechneten Epipolarlinien 1282 und 1284 liegen.
  • Die Redundanz der Information, die durch ein 3D-Abbildungsgerät 2210 mit einer dreieckigen Anordnung von Projektor und Kameras bereitgestellt wird, kann verwendet werden, um die Messzeit zu verkürzen, Fehler zu erkennen und Ausgleichs-/Kalibrierungsparameter automatisch zu aktualisieren.
  • In einer Ausführungsform liegen die Perspektivitätszentren der Kameras 2214. 2216 und des Projektors 2212 auf einer ersten Ebene des 3D-Abbildungsgeräts 2210. Die Kameras 2214, 2216 und der Projektor 2212 haben außerdem entsprechende optische Achsen, wobei jede der optischen Achsen durch das jeweilige Perspektivitätszentrum geht und jede der optischen Achsen allgemein einer Richtung rechtwinklig zum Linsensystem der Kamera oder des Projektors verläuft. In einer Ausführungsform enthält die erste Ebene die drei Perspektivitätszentren, ohne aber die optischen Achsen der Kameras 2214, 2216 oder die optische Achse des Projektors 2212 zu enthalten. Mit anderen Worten, das Triangulationsmuster des Scanners 2210 entspricht eher der Darstellung von 22 als die Anordnung der drei Perspektivitätszentren in einer Ebene rechtwinklig zur Ebene der Vorderansicht von 22.
  • In einer Ausführungsform sind drei Basislinienentfernungen 2220A, 2220B und 2220C zwischen Paaren der Perspektivitätszentren der zwei Kameras 2214, 2216 und des Projektors 2212 vorhanden. Obwohl eine einzige Basislinienentfernung ausreicht, um 3D-Koordinaten eines Objekts mit dem Scanner 2210 zu bestimmen, ist es vorteilhafter, die Berechnung mit allen drei Basislinienentfernungen 2220A, 2220B und 2220C durchzuführen.
  • In einer Ausführungsform werden Epipolarbedingungen, wie oben Bezug nehmend auf 23B beschrieben, verwendet, um die 3D-Koordinaten von Punkten auf einem Objekt zu bestimmen. Auch wenn es nicht immer notwendig ist, Epipolarbedingungen in der Bestimmung von 3D-Entfernungen zu verwenden, bringt die Verwendung der Epipolarbedingungen Vorteile mit sich, wie oben beschrieben.
  • In einer Ausführungsform kann das 3D-Abbildungsgerät 2210 eine Anzeige (nicht gezeigt) aufweisen, die mit einem Berührungsbildschirm integriert sein kann. Solch eine Anzeige kann Echtzeit- oder Nahe-Echtzeit-Abtastinformation bereitstellen. Sie kann auch Meldungen bereitstellen oder einem Benutzer über eine mit dem Berührungsbildschirm verknüpfte Benutzerschnittstelle die Eingabe von Anweisungen ermöglichen. In einer weiteren Ausführungsform kann das 3D-Abbildungsgerät eine austauschbare Batterie, einen Controller und ein drahtloses Kommunikationssystem umfassen. In einer Ausführungsform kann die Farbkamera 2218 außerdem verwendet werden, um die mit dem 3D-Abbildungsgerät 2210 erhaltenen 3D-Punkte mit Farben zu versehen.
  • Der Scanner 2210 umfasst einen abnehmbaren Koppler 426A, durch welchen er an einen passenden Verbinder 426C auf einer GAKMM 100 oder Verbinder 426B auf einer Anordnung wie die sechs-DOF-Tracker-Target-Anordnung 1910 angebracht werden kann, wie in 22 gezeigt. Alternativ dazu kann er an die Kameraanordnung 1850 oder die sechs-DOF-Lichtpunkt-Targetanordnung 2000 angebracht werden. Der Scanner 2210 kann auch einen abnehmbaren Griff aufweisen, der ihm ermöglicht, flach zu sitzen. Die kann zum Beispiel in einer Montagelinienanwendung nützlich sein, z. B. bei einer Anwendung, die ein Förderband beinhaltet.
  • Einer Ausführungsform gemäß umfasst eine Vorrichtung zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: einen Prozessor; einen Triangulationsscanner mit einem Projektor, einer Scannerkamera und einem Scannerverbinder, wobei der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, die Scannerkamera dazu konfiguriert ist, in Reaktion darauf ein Bild des Scannermusters zu bilden und in Reaktion darauf ein elektrisches Scannersignal an den Prozessor zu senden, der Scannerverbinder dazu konfiguriert ist, auf abnehmbare Weise mit einem Verbinder einer Gelenkarm-Koordinatenmessmaschine (GAKMM) gekoppelt zu werden; und wobei eine Kameraanordnung eine erste Anordnungskamera und einen Kameraanordnungsverbinder umfasst, die erste Anordnungskamera dazu konfiguriert ist, ein erstes Bild der Objektoberfläche zu bilden und in Reaktion darauf ein elektrisches Anordnungssignal an den Prozessor zu senden, der Kameraanordnungsverbinder dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche zu bestimmen, ob der Triangulationsscanner mit der GAKMM gekoppelt oder davon abgekoppelt ist, die Bestimmung mindestens zum Teil auf dem Scannermuster, dem ersten elektrischen Scannersignal und der Scanner-Basislinienentfernung basiert. In einer weiteren Ausführungsform ist Vorrichtung dazu konfiguriert, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des ersten elektrischen Anordnungssignals zu bestimmen, wenn der Kameraanordnungsverbinder mit dem Scannerverbinder gekoppelt ist. Einer weiteren Ausführungsform gemäß umfasst die Kameraanordnung außerdem eine zweite Anordnungskamera, wobei die zweite Anordnungskamera dazu konfiguriert ist, ein zweites Bild von der Objektoberfläche zu bilden und in Reaktion darauf ein zweites elektrisches Anordnungssignal an den Prozessor zu senden, zwischen der ersten Anordnungskamera und der zweiten Anordnungskamera eine Anordnungsbasislinienentfernung vorhanden ist, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des zweiten elektrischen Anordnungssignals und der Anordnungsbasislinienentfernung zu bestimmen. In einer Ausführungsform ist der Triangulationsscanner eine Laserliniensonde, wobei der Projektor dazu konfiguriert ist, eine Lichtlinie zu projizieren. In einer Ausführungsform ist der Triangulationsscanner ein Flächenscanner, wobei der Projektor dazu konfiguriert ist, Licht zu projizieren, um eine Fläche auf der Objektoberfläche abzudecken. In einer Ausführungsform umfasst die erste Anordnungskamera außerdem eine erste Anordnungslichtquelle in der Nähe der ersten Anordnungskamera, wobei erste Anordnungskamera dazu konfiguriert ist, eine reflektierende Markierung auf der Objektoberfläche oder in unmittelbarer Nähe der Objektoberfläche zu beleuchten. In einer Ausführungsform umfasst die Vorrichtung außerdem eine Batterie. In einer Ausführungsform umfasst die Vorrichtung außerdem eine Farbkamera, die dazu konfiguriert ist, ein Farbbild zu erzeugen, wobei die Farbkamera dazu konfiguriert ist, ein elektrisches Signal des Farbbilds zu erzeugen, der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des elektrischen Signals des Farbbilds zu färben. In einer Ausführungsform umfasst die Vorrichtung außerdem eine Anzeige, die außerdem einen Berührungsbildschirm aufweisen kann.
  • Einer Ausführungsform gemäß umfasst ein Verfahren zur Messung dreidimensionaler (3D) Koordinaten: Bereitstellen eines Objekts, eines Prozessors, eines Triangulationsscanners, einer Kameraanordnung und einer Marke, wobei das Objekt eine Oberfläche aufweist, der Triangulationsscanner einen Projektor, eine Scannerkamera und einen Scannerverbinder umfasst, die Kameraanordnung eine erste Anordnungskamera und einen ersten Kameraanordnungsverbinder umfasst, der Kameraanordnungsverbinder dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden, die Marke auf dem Objekt oder in unmittelbarer Nähe des Objekts angeordnet ist; und Verbinden des Scannerverbinders mit dem Kameraanordnungsverbinder. In einem ersten Fall der Ausführungsform umfasst die Ausführungsform: Projizieren, mit dem Projektor, eines ersten Lichts auf die Objektoberfläche; Bilden, mit der Scannerkamera, eines Bilds des ersten Lichts und Senden, in Reaktion darauf, eines ersten elektrischen Abtastsignals an den Prozessor; Bilden, mit der ersten Anordnungskamera, eines ersten Bilds der Marke und Senden, in Reaktion darauf, eines ersten elektrischen Markensignals an den Prozessor. In einem zweiten Fall der Ausführungsform umfasst die Ausführungsform: Projizieren, mit dem Projektor, eines zweiten Lichts auf die Objektoberfläche; Bilden, mit der Scannerkamera, eines Bilds des zweiten Lichts und Senden, in Reaktion darauf, eines zweiten elektrischen Abtastsignals an den Prozessor; Bilden, mit der ersten Anordnungskamera, eines zweiten Bilds der Marke und Senden in Reaktion darauf, eines zweiten elektrischen Markensignals an den Prozessor. Zusätzlich umfasst die Ausführungsform das Bestimmen, mit dem Prozessor, der 3D-Koordinaten mindestens zum Teil auf der Basis des ersten Lichts, des zweiten Lichts, des ersten elektrischen Abtastsignals, des zweiten elektrischen Abtastsignals, des ersten elektrischen Markensignals und des zweiten elektrischen Markensignals; und Speichern der 3D-Koordinaten. In einer weiteren Ausführungsform ist der Triangulationsscanner eine Laserliniensonde. In einer weiteren Ausführungsform ist der Triangulationsscanner ein Flächenscanner. In einer weiteren Ausführungsform ist die Marke ein natürliches Merkmal des Objekts. In einer weiteren Ausführungsform ist die Marke eine Leuchtdiode (LED) auf dem Objekt oder in unmittelbarer Nähe des Objekts. In einer weiteren Ausführungsform ist die Marke ein reflektierendes Target. In einer weiteren Ausführungsform umfasst die Kameraanordnung außerdem eine Lichtquelle. In einer weiteren Ausführungsform ist die Marke ein reflektierendes Target, das von einer Lichtquelle auf der Kameraanordnung beleuchtet wird. Eine weitere Ausführungsform umfasst das Bereitstellen eines externen Projektors, wobei der externe Projektor vom Triangulationsscanner und von der Kameraanordnung getrennt ist. In einer weiteren Ausführungsform ist die Marke ein Lichtpunkt, der vom externen Projektor projiziert wird. Eine weitere Ausführungsform umfasst das Bereitstellen von drei Marken. In einer weiteren Ausführungsform enthält das erste Bild die drei Marken, und das zweite Bild enthält die drei Marken. In einer weiteren Ausführungsform umfasst die Kameraanordnung außerdem eine zweite Anordnungskamera. In einer weiteren Ausführungsform umfasst: Im ersten Fall, Bilden, mit der zweiten Anordnungskamera, eines dritten Bilds der Marke und, in Reaktion darauf, Senden eines dritten elektrischen Markensignals an den Prozessor, und, im zweiten Fall, Bilden, mit der zweiten Anordnungskamera, eines vierten Bilds der Marke und, in Reaktion darauf, Senden eines vierten elektrischen Markensignals an den Prozessor. In einer weiteren Ausführungsform bestimmt der Prozessor 3D-Koordinaten außerdem auf der Basis des dritten elektrischen Markensignals und des vierten elektrischen Markensignals.
  • Einer Ausführungsform gemäß umfasst ein System zur Messung der 3D-Koordinaten einer Objektoberfläche: einen Prozessor; eine Target-Vorrichtung einschließlich eines Triangulationsscanners und einer Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Targetanordnung), wobei der Triangulationsscanner einen Projektor, eine Scannerkamera und einen Scannerverbinder umfasst, der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, die Scannerkamera dazu konfiguriert ist, ein Bilde des Scannermusters zu bilden und in Reaktion darauf ein elektrisches Scannersignal an den Prozessor zu senden, die sechs-DOF-Targetanordnung eine Sammlung von Lichtpunkten und einen Anordnungsverbinder umfasst, der dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden; ein Kamerabalkengerät mit einer ersten Kamera und einer zweiten Kamera, die um eine Kamerabalken-Basislinienentfernung voneinander getrennt sind, wobei die erste Kamera und die zweite Kamera im Raum feststehend sind, die erste Kamera dazu konfiguriert ist, ein erstes Lichtpunktbild der Sammlung von Lichtpunkten zu bilden und in Reaktion darauf ein erstes elektrisches Lichtpunktsignal an den Prozessor zu senden, die zweite Kamera dazu konfiguriert ist, ein zweites Lichtpunktbild der Sammlung von Lichtpunkten zu bilden und in Reaktion darauf ein zweites elektrisches Lichtpunktsignal an den Prozessor zu senden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des ersten elektrischen Lichtpunktsignals, des zweiten elektrischen Lichtpunktsignals und der Kamerabalken-Basislinienentfernung zu bestimmen. Einer weiteren Ausführungsform gemäß ist der Prozessor außerdem dazu konfiguriert, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis einer Scanner-Basislinienentfernung zwischen der Scannerkamera und dem Projektor zu bestimmen. In einer weiteren Ausführungsform ist der Triangulationsscanner eine Laserliniensonde, die dazu konfiguriert ist, eine Lichtlinie zu projizieren. In einer weiteren Ausführungsform ist der Triangulationsscanner ein Flächenscanner, der dazu konfiguriert ist, Licht zu projizieren, um eine Fläche auf der Objektoberfläche abzudecken. In einer weiteren Ausführungsform umfasst die sechs-DOF-Targetanordnung außerdem eine taktile Sonde, die dazu konfiguriert ist, 3D-Koordinaten von Punkten auf der Objektoberfläche zu messen. In einer weiteren Ausführungsform ist der Scannerverbinder außerdem dazu konfiguriert, auf abnehmbare Weise mit einem ersten Verbinder einer Gelenkarm-Koordinatenmessmaschine (KMM) gekoppelt zu werden. In einer Ausführungsform umfasst der Scanner außerdem eine Batterie. In einer Ausführungsform umfasst das System außerdem eine Farbkamera, die dazu konfiguriert ist, ein Farbbild zu erzeugen, wobei die Farbkamera dazu konfiguriert ist, ein elektrisches Signal des Farbbilds zu erzeugen, der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des elektrischen Signals des Farbbilds zu färben. In einer Ausführungsform umfasst das System außerdem eine Anzeige, die einen Berührungsbildschirm aufweisen kann.
  • In einer Ausführungsform umfasst ein Verfahren zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: Bereitstellen eines Prozessors, Bereitstellen einer Target-Vorrichtung einschließlich eines Triangulationsscanners und einer Targetanordnung mit sechs Freiheitsgraden (sechs-DOF-Targetanordnung), wobei der Triangulationsscanner einen Projektor, eine Scannerkamera und einen Scannerverbinder umfasst, die sechs-DOF-Targetanordnung eine Sammlung von Lichtpunkten und einen Anordnungsverbinder umfasst, der dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden; Bereitstellen eines Kamerabalkengeräts mit einer ersten Kamera und einer zweiten Kamera, die um eine Kamerabalken-Basislinienentfernung voneinander getrennt sind, wobei die erste Kamera und die zweite Kamera im Raum feststehend sind; und Verbinden des Scannerverbinders mit dem Anordnungsverbinder. In einem ersten Fall der Ausführungsform umfasst die Ausführungsform: Projizieren, mit dem Projektor, eines ersten Lichts auf die Objektoberfläche; Bilden, mit der Scannerkamera, eines Bilds des ersten Lichts und Senden, in Reaktion darauf, eines ersten elektrischen Abtastsignals an den Prozessor; Bilden, mit der ersten Kamera, eines ersten Lichtpunktbilds der Sammlung von Lichtpunkten und Senden, in Reaktion darauf, eines ersten elektrischen Lichtpunktsignals an den Prozessor; Bilden, mit der zweiten Kamera, eines zweiten Lichtpunktbilds der Sammlung von Lichtpunkten und Senden, in Reaktion darauf, eines zweiten elektrischen Lichtpunktsignals an den Prozessor; Bestimmen, durch das Kamerabalkengerät in Zusammenwirkung mit dem Prozessor und der sechs-DOF-Targetanordnung, von ersten Werten für sechs Freiheitsgrade des Triangulationsscanners, Bestimmen, mit dem Prozessor, der 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des ersten Lichts, des ersten elektrischen Abtastsignals, des ersten elektrischen Lichtpunktsignals und des zweiten elektrischen Lichtpunktsignals; und Speichern der 3D-Koordinaten der Objektoberfläche. In einem ersten Fall der Ausführungsform umfasst die Ausführungsform: Projizieren, mit dem Projektor, eines zweiten Lichts auf die Objektoberfläche; Bilden, mit der Scannerkamera, eines Bilds des zweiten Lichts und Senden, in Reaktion darauf, eines zweiten elektrischen Abtastsignals an den Prozessor; Bilden, mit der ersten Kamera, eines dritten Lichtpunktbilds der Sammlung von Lichtpunkten und Senden, in Reaktion darauf, eines dritten elektrischen Lichtpunktsignals an den Prozessor; Bilden, mit der zweiten Kamera, eines vierten Lichtpunktbilds der Sammlung von Lichtpunkten und Senden, in Reaktion darauf, eines vierten elektrischen Lichtpunktsignals an den Prozessor; und Bestimmen, mit dem Prozessor, der 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des zweiten Lichts, des zweiten elektrischen Abtastsignals, des dritten elektrischen Lichtpunktsignals und des vierten elektrischen Lichtpunktsignals. In einer weiteren Ausführungsform ist der Triangulationsscanner eine Laserliniensonde, die eine Lichtlinie zu projiziert. In einer weiteren Ausführungsform ist der Triangulationsscanner ein Flächenscanner, der Licht über eine Fläche projiziert. In einer weiteren Ausführungsform ist der Prozessor außerdem dazu konfiguriert, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis einer Scanner-Basislinienentfernung zwischen der Scannerkamera und dem Projektor zu bestimmen. In einer weiteren Ausführungsform umfasst die Anordnung außerdem eine taktile Sonde.
  • In einer Ausführungsform umfasst ein Verfahren zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: Bereitstellen eines Prozessors; Bereitstellen eine Target-Vorrichtung einschließlich eines Triangulationsscanners und einer Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Targetanordnung), wobei der Triangulationsscanner einen Scannerverbinder umfasst, die sechs-DOF-Targetanordnung eine Sammlung von Lichtpunkten, die taktile Sonde und einen Anordnungsverbinder umfasst, der dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden; Bereitstellen einer Kamerabalkengerät mit einer ersten Kamera und einer zweiten Kamera, die um eine Kamerabalken-Basislinienentfernung voneinander getrennt sind, wobei die erste Kamera und die zweite Kamera im Raum feststehend sind, Bilden, mit der ersten Kamera, eines ersten Lichtpunktbilds der Sammlung von Lichtpunkten und, in Reaktion darauf, Senden eines ersten elektrischen Lichtpunktsignals an den Prozessor; Bilden, mit der zweiten Kamera, eines zweiten Lichtpunktbilds der Sammlung von Lichtpunkten und, in Reaktion darauf, Senden eines zweiten elektrischen Lichtpunktsignals an den Prozessor; und Bestimmen, mit dem Prozessor, der 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des ersten elektrischen Lichtpunktsignals, des zweiten elektrischen Lichtpunktsignals und der Kamerabalken-Basislinienentfernung.
  • In einer Ausführungsform umfasst eine Vorrichtung zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: einen Prozessor; einen Triangulationsscanner mit einem Projektor, einer Scanner-Kamera und einem Scannerverbinder, wobei der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, die Scannerkamera dazu konfiguriert ist, ein Bild des Scannermusters zu bilden und in Reaktion darauf ein elektrisches Scannersignal an den Prozessor zu senden; und eine Tracker-Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Tracker-Target-Anordnung), umfassend einen Retroreflektor und einen Anordnungsverbinder, wobei der Retroreflektor dazu konfiguriert ist, von einem Lasertracker empfangenes Licht zu reflektieren, die sechs-DOF-Tracker-Target-Anordnung außerdem dazu konfiguriert ist, mit dem Lasertracker und dem Prozessor zusammenzuwirken, um sechs Freiheitsgrade des Triangulationsscanners zu bestimmen, der Anordnungsverbinder dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des Scannermusters, des elektrischen Scannersignals und der sechs Freiheitsgrade des Triangulationsscanners zu bestimmen. In einer weiteren Ausführungsform ist der Prozessor außerdem dazu konfiguriert, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis einer Scanner-Basislinienentfernung zwischen der Scannerkamera und dem Projektor zu bestimmen. In einer weiteren Ausführungsform ist der Triangulationsscanner eine Laserliniensonde mit einem Projektor, der dazu Projektor konfiguriert ist, eine Lichtlinie zu projizieren. In einer weiteren Ausführungsform ist der Triangulationsscanner ein Flächenscanner, der dazu konfiguriert ist, Licht zu projizieren, um eine Fläche abzudecken. In einer weiteren Ausführungsform umfasst die sechs-DOF-Tracker-Target-Anordnung außerdem eine taktile Sonde, die dazu konfiguriert ist, 3D-Koordinaten von Punkten auf der Objektoberfläche zu messen. In einer weiteren Ausführungsform ist jede von der Vielzahl von sechs-DOF-Tracker-Target-Anordnungen aus einer anderen Richtung vom Lasertracker messbar. In einer weiteren Ausführungsform ist der Scannerverbinder außerdem dazu konfiguriert, auf abnehmbare Weise mit einem ersten Verbinder einer Gelenkarm-Koordinatenmessmaschine (KMM) gekoppelt zu werden.
  • In einer Ausführungsform umfasst ein Verfahren zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche: Bereitstellen eines Prozessors, eines Triangulationsscanners und einer Tracker-Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Tracker-Target-Anordnung), wobei der Triangulationsscanner einen Projektor, eine Scannerkamera und einen Scannerverbinder umfasst, die sechs-DOF-Tracker-Target-Anordnung einen Retroreflektor und einen Anordnungsverbinder umfasst, der dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden; Verbinden des Scannerverbinders mit dem Anordnungsverbinder. In einem ersten Fall der Ausführungsform umfasst die Ausführungsform außerdem: Projizieren, mit dem Projektor, eines ersten Lichts auf die Objektoberfläche; Bilden, mit der Scannerkamera, eines Bilds des ersten Lichts und Senden, in Reaktion darauf, eines ersten elektrischen Abtastsignals an den Prozessor; Bestimmen, durch den Lasertracker in Zusammenwirkung mit dem Prozessor und der sechs-DOF-Tracker-Target-Anordnung, eines ersten Wertesatzes für sechs Freiheitsgrade des Triangulationsscanners; Bestimmen, mit dem Prozessor, der 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des ersten Lichts, des ersten elektrischen Abtastsignals und der ersten Werte für sechs Freiheitsgrade des Triangulationsscanners; und Speichern der 3D-Koordinaten der Objektoberfläche. In einer weiteren Ausführungsform umfasst die Ausführungsform in einem zweiten Fall außerdem das Projizieren, mit dem Projektor, eines zweiten Lichts auf die Objektoberfläche; Bilden, mit der Scannerkamera, eines Bilds des zweiten Lichts und Senden, in Reaktion darauf, eines zweiten elektrischen Abtastsignals an den Prozessor; Bestimmen, durch den Lasertracker in Zusammenwirkung mit dem Prozessor, eines zweiten Wertesatzes für sechs Freiheitsgrade des Triangulationsscanners; Bestimmen, mit dem Prozessor, der 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des zweiten Lichts, des zweiten elektrischen Abtastsignals und der zweiten Werte für sechs Freiheitsgrade des Triangulationsscanners; und Speichern der zusätzlichen 3D-Koordinaten der Objektoberfläche. In einer weiteren Ausführungsform ist der Triangulationsscanner einer Laserliniensonde. In einer weiteren Ausführungsform ist der Triangulationsscanner ein Flächenscanner. In einer weiteren Ausführungsform ist der Prozessor außerdem dazu konfiguriert, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis einer Scanner-Basislinienentfernung zwischen der Scannerkamera und dem Projektor zu bestimmen. In einer weiteren Ausführungsform umfasst die Anordnung außerdem eine taktile Sonde. In einer weiteren Ausführungsform umfasst das Verfahren außerdem: Bestimmen, durch den Lasertracker in Zusammenwirkung mit dem Prozessor und der sechs-DOF-Tracker-Target-Anordnung, eines dritten Wertesatzes für sechs Freiheitsgrade des Triangulationsscanners; und Bestimmen, durch den Prozessor, der 3D-Koordinaten der taktilen Sonde mindestens auf der Basis des dritten Wertesatzes. In einer weiteren Ausführungsform umfasst das Verfahren außerdem das Senden eines Lichtstrahls vom Lasertracker zum Retroreflektor, Empfangen eines Teils des reflektierten Lichts in einem Entfernungsmesser des Lasertrackers; und Bestimmen einer Entfernung vom Lasertracker zum Retroreflektor mit dem Entfernungsmesser; und Messen, mit dem Tracker, eines ersten Winkels und eines zweiten Winkels des Lichtstrahls. In einer weiteren Ausführungsform basiert der erste Wertesatz außerdem auf der Entfernung vom Lasertracker zum Retroreflektor, dem ersten Winkel und dem zweiten Winkel.
  • Obwohl die Erfindung Bezug nehmend auf beispielhafte Ausführungsformen beschrieben wurde, versteht es sich für den Fachmann, dass verschiedene Änderungen vorgenommen werden können und Elemente davon durch Äquivalente ersetzt werden können, ohne vom Umfang der Erfindung abzuweichen. Zudem können zahlreiche Modifikationen vorgenommen werden, um eine spezielle Situation oder ein spezielles Material an die Lehren der Erfindung anzupassen, ohne von ihrem wesentlichen Umfang abzuweichen. Deshalb ist beabsichtigt, die Erfindung nicht auf die spezielle beispielhafte Ausführungsform zu beschränken, die als bester Ausführungsmodus dieser Erfindung betrachtet wird, sondern, dass die Erfindung alle Ausführungsformen einschließt, die im Umfang der beigefügten Ansprüche liegen. Ferner bezeichnet die Verwendung von Begriffen wie erster, zweiter usw. keine Reihenfolge oder Wichtigkeit, sondern Begriffe wie erster, zweiter usw. werden verwendet, um Elemente voneinander zu unterscheiden. Darüber hinaus bezeichnet die Verwendung wie ein, eine usw. keine Begrenzung der Menge, sondern bezeichnen das Vorhandensein mindestens eines betreffenden Elements.

Claims (28)

  1. Vorrichtung zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche, umfassend: einen Prozessor; und einen Triangulationsscanner mit einem Projektor, einer ersten Scannerkamera, einer zweiten Scannerkamera und einem Scannerverbinder, wobei der Scannerverbinder dazu konfiguriert ist, auf abnehmbare Weise mit einem Armverbinder einer Gelenkarm-Koordinatenmessmaschine (GAKMM) gekoppelt zu werden, der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, wobei der Projektor ein Projektor-Perspektivitätszentrum und eine optische Achse des Projektors aufweist, die erste Scannerkamera dazu konfiguriert ist, ein erstes Bild des Scannermusters zu bilden und in Reaktion darauf ein erstes elektrisches Scannersignal an den Prozessor zu senden, die erste Scannerkamera ein Perspektivitätszentrum der ersten Kamera und eine optische Achse der ersten Kamera hat, die zweite Scannerkamera dazu konfiguriert ist, ein zweites Bild des Scannermusters zu bilden und in Reaktion darauf ein zweites elektrisches Scannersignal an den Prozessor zu senden, die zweite Scannerkamera ein Perspektivitätszentrum der zweiten Kamera und eine optische Achse der zweiten Kamera hat, das Projektor-Perspektivitätszentrum, das Perspektivitätszentrum der ersten Kamera und das Perspektivitätszentrum der zweiten Kamera in einem Dreiecksmuster auf einer ersten Ebene angeordnet sind, wobei die erste Ebene die optische Achse des Projektors, die optische Achse der ersten Kamera oder die optische Achse der zweiten Kamera nicht enthält, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche zu bestimmen, ob der Triangulationsscanner mit der GAKMM gekoppelt oder davon abgekoppelt ist, wobei die Bestimmung mindestens zum Teil auf dem Scannermuster, dem ersten elektrischen Scannersignal und dem zweiten elektrischen Scannersignal basiert ist.
  2. Vorrichtung nach Anspruch 1, wobei der Prozessor außerdem dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche auf der Basis eines ersten Basislinienabstands vom Perspektivitätszentrum der ersten Kamera zum Projektor-Perspektivitätszentrum, eines zweiten Basislinienabstands vom Perspektivitätszentrum der zweiten Kamera zum Projektor-Perspektivitätszentrum und eines dritten Basislinienabstands vom Perspektivitätszentrum der ersten Kamera zum Perspektivitätszentrum der zweiten Kamera zu bestimmen.
  3. Vorrichtung nach Anspruch 1, wobei der Triangulationsscanner einen ersten Satz Epipolarbedingungen zwischen der ersten Kamera und dem Projektor, einen zweiten Satz Epipolarbedingungen zwischen der zweiten Kamera und dem Projektor, und einen dritten Satz Epipolarbedingungen zwischen der ersten Kamera und der zweiten Kamera umfasst, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des ersten Satzes Epipolarbedingungen, des zweiten Satzes Epipolarbedingungen und des dritten Satzes Epipolarbedingungen zu bestimmen.
  4. Vorrichtung nach Anspruch 1, wobei der Projektor dazu konfiguriert ist, das Scannermuster zu erzeugen, indem er Licht durch ein diffraktives optisches Element sendet.
  5. Vorrichtung nach Anspruch 1, wobei der Projektor eine Scanner-Lichtquelle und einen digitale Scanner-Mikrospiegeleinheit (DMD) umfasst, wobei die Scanner-Lichtquelle und die Scanner-DMD dazu konfiguriert sind, das Scannermuster zu erzeugen.
  6. Vorrichtung nach Anspruch 1, außerdem umfassend: eine Tracker-Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Tracker-Target-Anordnung), umfassend einen Retroreflektor und einen Anordnungsverbinder, wobei der Retroreflektor dazu konfiguriert ist, von einem Lasertracker empfangenes Licht zu reflektieren, die sechs-DOF-Tracker-Target-Anordnung außerdem dazu konfiguriert ist, mit dem Lasertracker und dem Prozessor zusammenzuwirken, um sechs Freiheitsgrade des Triangulationsscanners zu bestimmen, der Anordnungsverbinder dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis der bestimmten sechs Freiheitsgrade des Triangulationsscanners zu bestimmen.
  7. Vorrichtung nach Anspruch 1 außerdem umfassend: eine Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Targetanordnung), umfassend eine Sammlung von Lichtpunkten und einen Anordnungsverbinder, der dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden. wobei die sechs-DOF-Targetanordnung dazu konfiguriert ist, mit einem Kamerabalkengerät zusammenwirken, das Kamerabalkengerät eine erste Kamera und eine zweite Kamera umfasst, die um eine Kamerabalken-Basislinienentfernung voneinander getrennt sind, die erste Kamera und die zweite Kamera im Raum feststehend sind, die erste Kamera dazu konfiguriert ist, ein erstes Lichtpunktbild der Sammlung von Lichtpunkten zu bilden und in Reaktion darauf ein erstes elektrisches Lichtpunktsignal an den Prozessor zu senden, die zweite Kamera dazu konfiguriert ist, ein zweites Lichtpunktbild der Sammlung von Lichtpunkten zu bilden und in Reaktion darauf ein zweites elektrisches Lichtpunktsignal an den Prozessor zu senden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des ersten elektrischen Lichtpunktsignals, des zweiten elektrischen Lichtpunktsignals und der Kamerabalken-Basislinienentfernung zu bestimmen.
  8. Vorrichtung nach Anspruch 1 wobei der Triangulationsscanner außerdem eine Batterie umfasst.
  9. Vorrichtung nach Anspruch 1, außerdem umfassend eine Anzeige.
  10. Vorrichtung nach Anspruch 9, wobei die Anzeige einen Berührungsbildschirm aufweist.
  11. Vorrichtung nach Anspruch 1, außerdem umfassend eine Farbkamera, die dazu konfiguriert ist, ein Farbbild zu erzeugen, die Farbkamera dazu konfiguriert ist, ein elektrisches Signal des Farbbilds zu erzeugen, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des elektrischen Signals des Farbbilds zu färben.
  12. Vorrichtung nach Anspruch 1 wobei die Vorrichtung außerdem eine Batterie umfasst.
  13. Vorrichtung nach Anspruch 1, außerdem umfassend eine Anzeige.
  14. Vorrichtung nach Anspruch 13, wobei die Anzeige einen Berührungsbildschirm aufweist.
  15. Vorrichtung zur Messung dreidimensionaler (3D) Koordinaten einer Objektoberfläche, umfassend: einen Prozessor; und einen Triangulationsscanner mit einem Projektor, einer Scannerkamera, einem abnehmbaren Griff und einem Scannerverbinder, wobei der Projektor dazu konfiguriert ist, ein Scannermuster auf die Objektoberfläche zu projizieren, die Scannerkamera dazu konfiguriert ist, ein erstes Bild des Scannermusters zu bilden und ein elektrisches Scannersignal an den Prozessor zu senden, der Scannerverbinder dazu konfiguriert ist, auf abnehmbare Weise mit einem Verbinder einer Gelenkarm-Koordinatenmessmaschine (GAKMM) gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche zu bestimmen, ob der Triangulationsscanner mit der GAKMM gekoppelt oder davon abgekoppelt ist, die Bestimmung mindestens zum Teil auf dem Scannermuster und auf dem elektrischen Scannersignal basiert, wobei der Triangulationsscanner dazu konfiguriert ist, nach Entfernung des abnehmbaren Griffs flach auf seiner Unterseite zu sitzen.
  16. Vorrichtung nach Anspruch 15, außerdem umfassend eine Tracker-Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Tracker-Target-Anordnung), umfassend einen Retroreflektor und einen Anordnungsverbinder, wobei der Retroreflektor dazu konfiguriert ist, von einem Lasertracker empfangenes Licht zu reflektieren, die sechs-DOF-Tracker-Target-Anordnung außerdem dazu konfiguriert ist, mit dem Lasertracker und dem Prozessor zusammenzuwirken, um sechs Freiheitsgrade des Triangulationsscanners zu bestimmen, der Anordnungsverbinder dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis der bestimmten sechs Freiheitsgrade des Triangulationsscanners zu bestimmen.
  17. Vorrichtung nach Anspruch 15 außerdem umfassend: eine Target-Anordnung mit sechs Freiheitsgraden (sechs-DOF-Targetanordnung), umfassend eine Sammlung von Lichtpunkten und einen Anordnungsverbinder, der dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden. wobei die sechs-DOF-Targetanordnung dazu konfiguriert ist, mit einem Kamerabalkengerät zusammenwirken, das Kamerabalkengerät eine erste Kamera und eine zweite Kamera umfasst, die um eine Kamerabalken-Basislinienentfernung voneinander beabstandet sind, die erste Kamera und die zweite Kamera im Raum feststehend sind, die erste Kamera dazu konfiguriert ist, ein erstes Lichtpunktbild der Sammlung von Lichtpunkten zu bilden und in Reaktion darauf ein erstes elektrisches Lichtpunktsignal an den Prozessor zu senden, die zweite Kamera dazu konfiguriert ist, ein zweites Lichtpunktbild der Sammlung von Lichtpunkten zu bilden und in Reaktion darauf ein zweites elektrisches Lichtpunktsignal an den Prozessor zu senden, und wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des ersten elektrischen Lichtpunktsignals, des zweiten elektrischen Lichtpunktsignals und der Kamerabalken-Basislinienentfernung zu bestimmen.
  18. Vorrichtung nach Anspruch 15 außerdem umfassend eine Kameraanordnung mit einer ersten Anordnungskamera und einem Kameraanordnungsverbinder, wobei die erste Anordnungskamera dazu konfiguriert ist, ein erstes Bild von der Objektoberfläche zu bilden und in Reaktion darauf ein erstes elektrisches Anordnungssignal an den Prozessor zu senden, der Kameraanordnungsverbinder dazu konfiguriert ist, auf abnehmbare Weise mit dem Scannerverbinder gekoppelt zu werden, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des ersten elektrischen Anordnungssignals zu bestimmen.
  19. Vorrichtung nach Anspruch 18, wobei die Kameraanordnung außerdem eine zweite Anordnungskamera umfasst, die zweite Anordnungskamera dazu konfiguriert ist, ein zweites Bild von der Objektoberfläche zu bilden und in Reaktion darauf ein zweites elektrisches Anordnungssignal an den Prozessor zu senden, zwischen der ersten Anordnungskamera und der zweiten Anordnungskamera eine Anordnungsbasislinienentfernung vorhanden ist, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche außerdem auf der Basis des zweiten elektrischen Anordnungssignals und der Anordnungsbasislinienentfernung zu bestimmen.
  20. Vorrichtung nach Anspruch 15, wobei der Triangulationsscanner eine Laserliniensonde ist.
  21. Vorrichtung nach Anspruch 20, wobei der Projektor dazu konfiguriert ist, eine Lichtlinie zu projizieren.
  22. Vorrichtung nach Anspruch 15, wobei der Triangulationsscanner ein Flächenscanner ist.
  23. Vorrichtung nach Anspruch 22, wobei der Projektor dazu konfiguriert ist, Licht zu projizieren, um eine Fläche auf der Objektoberfläche abzudecken.
  24. Vorrichtung nach Anspruch 15, wobei die Vorrichtung außerdem dazu konfiguriert ist, mit einem Echtzeit-Bus verbunden zu sein, der aus der Gruppe gewählt ist, bestehend aus: EtherCAT, SERCOS III, PROFINET, POWERLINK und EtherNet/IP.
  25. Vorrichtung nach Anspruch 15 wobei die Vorrichtung außerdem eine Batterie umfasst.
  26. Vorrichtung nach Anspruch 15, wobei der Triangulationsscanner außerdem eine Farbkamera umfasst, die dazu konfiguriert ist, ein Farbbild zu erzeugen, die Farbkamera dazu konfiguriert ist, ein elektrisches Signal des Farbbilds zu erzeugen, wobei der Prozessor dazu konfiguriert ist, die 3D-Koordinaten der Objektoberfläche mindestens zum Teil auf der Basis des elektrischen Signals des Farbbilds zu färben.
  27. Vorrichtung nach Anspruch 15, außerdem umfassend eine Anzeige.
  28. Vorrichtung nach Anspruch 27, wobei die Anzeige einen Berührungsbildschirm aufweist.
DE112016001888.6T 2015-04-24 2016-04-22 Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus Withdrawn DE112016001888T5 (de)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US201562152266P 2015-04-24 2015-04-24
US201562152272P 2015-04-24 2015-04-24
US201562152280P 2015-04-24 2015-04-24
US201562152286P 2015-04-24 2015-04-24
US201562152294P 2015-04-24 2015-04-24
US62/152,286 2015-04-24
US62/152,280 2015-04-24
US62/152,272 2015-04-24
US62/152,266 2015-04-24
US62/152,294 2015-04-24
US15/134,838 US9964402B2 (en) 2015-04-24 2016-04-21 Two-camera triangulation scanner with detachable coupling mechanism
US15/134,838 2016-04-21
PCT/US2016/028744 WO2016172411A1 (en) 2015-04-24 2016-04-22 Two-camera triangulation scanner with detachable coupling mechanism

Publications (1)

Publication Number Publication Date
DE112016001888T5 true DE112016001888T5 (de) 2018-01-04

Family

ID=55861275

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016001888.6T Withdrawn DE112016001888T5 (de) 2015-04-24 2016-04-22 Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus

Country Status (3)

Country Link
US (5) US9964402B2 (de)
DE (1) DE112016001888T5 (de)
WO (1) WO2016172411A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11300400B2 (en) * 2019-03-15 2022-04-12 Faro Technologies, Inc. Three-dimensional measurement device
DE102021106878B4 (de) 2020-03-23 2024-06-06 Lei & So Co., Ltd. Verfahren zur direkten raumlage-rückkopplungssteuerung und direkte raumlage-rückkopplungsgesteuerte maschine

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8400494B2 (en) * 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
DE102012112321B4 (de) 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP3054265B1 (de) * 2015-02-04 2022-04-20 Hexagon Technology Center GmbH Koordinatenmessmaschine
US9909860B2 (en) 2015-04-15 2018-03-06 General Electric Company Systems and methods for monitoring component deformation
US9557164B2 (en) 2015-04-15 2017-01-31 General Electric Company Data acquisition devices, systems and method for analyzing strain sensors and monitoring turbine component strain
US10697760B2 (en) 2015-04-15 2020-06-30 General Electric Company Data acquisition devices, systems and method for analyzing strain sensors and monitoring component strain
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US9932853B2 (en) 2015-04-28 2018-04-03 General Electric Company Assemblies and methods for monitoring turbine component strain
US9964398B2 (en) 2015-05-06 2018-05-08 Faro Technologies, Inc. Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform
US9846933B2 (en) 2015-11-16 2017-12-19 General Electric Company Systems and methods for monitoring components
US9953408B2 (en) 2015-11-16 2018-04-24 General Electric Company Methods for monitoring components
US10012552B2 (en) 2015-11-23 2018-07-03 General Electric Company Systems and methods for monitoring component strain
US9967523B2 (en) * 2015-12-16 2018-05-08 General Electric Company Locating systems and methods for components
US10216068B2 (en) * 2016-02-23 2019-02-26 Lenovo (Signapore) Pte. Ltd. Camera and task light on adjustable arm and weighted base
US9877601B2 (en) * 2016-03-02 2018-01-30 Wal-Mart Stores, Inc. Portable computing device holder
BR112019000728B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Veículo que incorpora máquina de assentamento de tijolos
BR112019000722B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Lança extensível telescópica para transportar item e lança dobrável
TWI604417B (zh) * 2016-08-31 2017-11-01 國立交通大學 估算對極幾何模型的方法及其系統
US9879981B1 (en) 2016-12-02 2018-01-30 General Electric Company Systems and methods for evaluating component strain
US10132615B2 (en) 2016-12-20 2018-11-20 General Electric Company Data acquisition devices, systems and method for analyzing passive strain indicators and monitoring turbine component strain
US10126119B2 (en) 2017-01-17 2018-11-13 General Electric Company Methods of forming a passive strain indicator on a preexisting component
US10872176B2 (en) 2017-01-23 2020-12-22 General Electric Company Methods of making and monitoring a component with an integral strain indicator
US11313673B2 (en) 2017-01-24 2022-04-26 General Electric Company Methods of making a component with an integral strain indicator
US10663274B2 (en) 2017-01-27 2020-05-26 Faro Technologies, Inc Articulated arm coordinate measuring machine
USD833894S1 (en) * 2017-01-27 2018-11-20 Faro Technologies, Inc Measurement device
EP3577415A4 (de) * 2017-02-03 2020-12-30 Modit3d, Inc. Dreidimensionaler scanner und verfahren
US10345179B2 (en) 2017-02-14 2019-07-09 General Electric Company Passive strain indicator
US10502551B2 (en) 2017-03-06 2019-12-10 General Electric Company Methods for monitoring components using micro and macro three-dimensional analysis
US10451499B2 (en) 2017-04-06 2019-10-22 General Electric Company Methods for applying passive strain indicators to components
AU2018295572B2 (en) 2017-07-05 2022-09-29 Fastbrick Ip Pty Ltd Real time position and orientation tracker
CN111213098B (zh) * 2017-08-17 2024-03-15 快砖知识产权私人有限公司 用于交互***的通信***
AU2018317941B2 (en) 2017-08-17 2023-11-09 Fastbrick Ip Pty Ltd Laser tracker with improved roll angle measurement
CN107350212B (zh) * 2017-08-28 2023-03-14 中信戴卡股份有限公司 一种智能轮毂清洗装置
US10591276B2 (en) 2017-08-29 2020-03-17 Faro Technologies, Inc. Articulated arm coordinate measuring machine having a color laser line probe
US10699442B2 (en) 2017-08-29 2020-06-30 Faro Technologies, Inc. Articulated arm coordinate measuring machine having a color laser line probe
CN107471064A (zh) * 2017-09-06 2017-12-15 湖南宇环智能装备有限公司 一种用于电机定子机座槽口的自动定位精整装置
EP3694793B1 (de) 2017-10-11 2023-11-08 Fastbrick IP Pty Ltd Maschine zum fördern von gegenständen
US11022434B2 (en) 2017-11-13 2021-06-01 Hexagon Metrology, Inc. Thermal management of an optical scanning device
US10969760B2 (en) 2018-04-12 2021-04-06 Faro Technologies, Inc. Coordinate measurement system with auxiliary axis
US11874101B2 (en) 2018-04-12 2024-01-16 Faro Technologies, Inc Modular servo cartridges for precision metrology
US20200049477A1 (en) * 2018-04-12 2020-02-13 Faro Technologies, Inc. Portable collaborative robotic articulated arm coordinate measuring machine
JP7124424B2 (ja) * 2018-05-02 2022-08-24 オムロン株式会社 3次元形状計測システム及び計測時間設定方法
US10830889B2 (en) 2018-05-02 2020-11-10 Faro Technologies, Inc. System measuring 3D coordinates and method thereof
US10819972B2 (en) * 2018-05-03 2020-10-27 Osram Sylvania Inc. Method and apparatus for light and computer vision based dimensional metrology and 3D reconstruction
FR3083600B1 (fr) 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083601B1 (fr) 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083603B1 (fr) 2018-07-06 2020-11-20 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083605B1 (fr) 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083602B1 (fr) * 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
FR3083604B1 (fr) * 2018-07-06 2020-09-18 Hexagon Metrology Sas Bras de mesure avec extremite multifonction
US11609083B2 (en) * 2018-07-10 2023-03-21 Marposs Societa' Per Azioni Apparatus and method for contactless checking of the dimensions and/or shape of a complex-shaped body
CN109141289B (zh) * 2018-08-01 2020-12-29 先临三维科技股份有限公司 三维扫描方法和***
US10791277B2 (en) * 2018-09-11 2020-09-29 Cognex Corporation Methods and apparatus for optimizing image acquisition of objects subject to illumination patterns
FR3085876B1 (fr) * 2018-09-13 2020-12-04 Saint Gobain Placo Procede de serrage d'une vis de fixation d'un panneau de construction sur un support
US10895445B2 (en) * 2018-09-14 2021-01-19 Faro Technologies, Inc. Articulated arm coordinate measuring machines with active counterbalance
USD875573S1 (en) 2018-09-26 2020-02-18 Hexagon Metrology, Inc. Scanning device
CN109631813B (zh) * 2019-01-22 2020-11-03 安徽工业大学 一种大尺寸关节臂式坐标测量机的标定方法
US20200296249A1 (en) * 2019-03-12 2020-09-17 Faro Technologies, Inc. Registration of individual 3d frames
EP3839418A1 (de) * 2019-12-18 2021-06-23 Hexagon Technology Center GmbH Optischer sensor mit übersichtskamera
CN111486788A (zh) * 2020-04-15 2020-08-04 上海工程技术大学 缝隙测量***及测量方法
US11200458B1 (en) 2020-06-15 2021-12-14 Bank Of America Corporation System for integration of a hexagonal image processing framework within a technical environment
US11908162B2 (en) 2020-12-23 2024-02-20 Faro Technologies, Inc. Line scanner having target-tracking and geometry-tracking modes
US11930155B2 (en) 2020-12-23 2024-03-12 Faro Technologies, Inc. Handheld scanner for measuring three-dimensional coordinates
CN113262412B (zh) * 2021-05-25 2022-04-26 广东工贸职业技术学院 一种agv智能消防机器人
US11790194B1 (en) 2022-03-31 2023-10-17 Zebra Technologies Corporation Handheld barcode readers and assemblies with vision cameras
WO2023225754A1 (en) * 2022-05-27 2023-11-30 Creaform Inc. System, apparatus and method for providing 3d surface measurements with precision indication capabilities and use thereof
KR102644184B1 (ko) * 2023-12-29 2024-03-05 이상호 3차원 스캐너

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007502A1 (de) 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
JP2767340B2 (ja) * 1991-12-26 1998-06-18 ファナック株式会社 物体の3次元位置・姿勢計測方式
US5402582A (en) 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus
US5611147A (en) 1993-02-23 1997-03-18 Faro Technologies, Inc. Three dimensional coordinate measuring apparatus
NO301999B1 (no) 1995-10-12 1998-01-05 Metronor As Kombinasjon av laser tracker og kamerabasert koordinatmåling
JPH11183136A (ja) 1997-12-25 1999-07-09 Dainippon Printing Co Ltd 断面及び3次元形状測定装置
US7800758B1 (en) 1999-07-23 2010-09-21 Faro Laser Trackers, Llc Laser-based coordinate measuring device and laser-based method for measuring coordinates
US6542249B1 (en) * 1999-07-20 2003-04-01 The University Of Western Ontario Three-dimensional measurement method and apparatus
US6826299B2 (en) 2000-07-31 2004-11-30 Geodetic Services, Inc. Photogrammetric image correlation and measurement system and method
EP1211481A3 (de) 2000-11-29 2004-05-19 microSystems GmbH Prüfvorrichtung zum Erkennen der Geometrie und/oder Lage von Bauteilen
US20040119833A1 (en) 2002-07-25 2004-06-24 Duncan Donald D. Three-dimensional context sensitive scanner
WO2004026440A1 (es) 2002-09-20 2004-04-01 Ramos De La Fuente Ruben Sistema y aparato de transferencia de masa y eliminacion de contaminantes
US7069124B1 (en) 2002-10-28 2006-06-27 Workhorse Technologies, Llc Robotic modeling of voids
DE102004052199A1 (de) 2004-10-20 2006-04-27 Universität Stuttgart Streifenprojektions-Triangulationsanordnung zur dreidimensionalen Objekterfassung, insbesondere auch zur dreidimensionalen Erfassung des Gesichts eines Menschen
AT501507B1 (de) 2005-01-27 2008-12-15 Joanneum Res Forschungsgesells Verfahren zur mobilen berührungslosen erfassung, sowie ermittlung und auswertung von körper-konturen
WO2006094440A1 (fr) 2005-03-08 2006-09-14 Hangzhou H3C Technologies Co., Ltd. Procede et dispositif d’echange de reseau local virtuel
ATE518113T1 (de) 2005-03-11 2011-08-15 Creaform Inc Selbstreferenziertes system und vorrichtung zum dreidimensionalen scannen
EP1893942B9 (de) * 2005-06-23 2010-07-21 Faro Technologies Inc. Gerät und verfahren zur zurücksetzung einer gelenkarmkoordinatenmessmaschine
US7256899B1 (en) * 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
DE102006049695A1 (de) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
JP4851931B2 (ja) 2006-12-28 2012-01-11 株式会社島精機製作所 人体形状測定装置と測定方法
JP2008216199A (ja) 2007-03-07 2008-09-18 Toyota Motor Corp 溶接ビードの検査装置および検査方法
KR101204486B1 (ko) 2007-06-15 2012-11-26 가부시끼가이샤 도시바 피측정물의 검사 측정 장치
AT506110B1 (de) 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
ATE501507T1 (de) 2008-06-26 2011-03-15 Harman Becker Automotive Sys Optische lesekopfvorrichtung mit zwei stellantrieben
WO2010006081A1 (en) * 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating
WO2010015086A1 (en) 2008-08-06 2010-02-11 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
DE102008047816B4 (de) * 2008-09-18 2011-08-25 Steinbichler Optotechnik GmbH, 83115 Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE202008013217U1 (de) 2008-10-04 2009-04-02 Sick Ag Beleuchtung zur Erzeugung eines Kontrastmusters
JP5161024B2 (ja) 2008-10-10 2013-03-13 富士フイルム株式会社 3次元形状計測用撮影装置および方法並びにプログラム
KR101190122B1 (ko) 2008-10-13 2012-10-11 주식회사 고영테크놀러지 다중파장을 이용한 3차원형상 측정장치 및 측정방법
WO2010057169A2 (en) 2008-11-17 2010-05-20 Faro Technologies, Inc. Device and method for measuring six degrees of freedom
US9739595B2 (en) 2008-12-11 2017-08-22 Automated Precision Inc. Multi-dimensional measuring system with measuring instrument having 360° angular working range
US8861833B2 (en) 2009-02-18 2014-10-14 International Press Of Boston, Inc. Simultaneous three-dimensional geometry and color texture acquisition using single color camera
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
DE102009035336B3 (de) 2009-07-22 2010-11-18 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
JP2011039005A (ja) * 2009-08-18 2011-02-24 Topcon Corp 測定装置
JP5187639B2 (ja) 2009-08-28 2013-04-24 独立行政法人情報通信研究機構 立体ディスプレイ
US9106572B2 (en) 2009-09-30 2015-08-11 Alcatel Lucent Immobilization module for security on a communication system
CA2686904C (en) 2009-12-02 2012-04-24 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
US9607239B2 (en) * 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9628775B2 (en) * 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US8832954B2 (en) 2010-01-20 2014-09-16 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US9163922B2 (en) * 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
WO2011090895A1 (en) * 2010-01-20 2011-07-28 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with multi-bus arm technology
US8898919B2 (en) * 2010-01-20 2014-12-02 Faro Technologies, Inc. Coordinate measurement machine with distance meter used to establish frame of reference
US8875409B2 (en) * 2010-01-20 2014-11-04 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
JP2013517498A (ja) * 2010-01-20 2013-05-16 ファロ テクノロジーズ インコーポレーテッド 座標測定デバイスのためのカウンタバランス
US9879976B2 (en) * 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US8677643B2 (en) * 2010-01-20 2014-03-25 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
CA2787646C (en) 2010-02-05 2016-12-13 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
WO2011134083A1 (en) 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
EP2400261A1 (de) * 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
US9204129B2 (en) * 2010-09-15 2015-12-01 Perceptron, Inc. Non-contact sensing system having MEMS-based light source
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US9686532B2 (en) * 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
US9482529B2 (en) * 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
CA2743016A1 (en) * 2011-06-10 2012-12-10 Hermary Opto Electronics Inc. 3d machine vision scanning information extraction system
US9222771B2 (en) * 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
GB2515922A (en) * 2012-01-27 2015-01-07 Faro Tech Inc Inspection method with barcode identification
WO2013156530A1 (en) 2012-04-18 2013-10-24 3Shape A/S 3d scanner using merged partial images
US20140152769A1 (en) * 2012-12-05 2014-06-05 Paul Atwell Three-dimensional scanner and method of operation
DE102012112321B4 (de) * 2012-12-14 2015-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE202012104890U1 (de) * 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) * 2012-12-14 2015-11-05 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
GB2527993B (en) * 2013-03-15 2018-06-27 Faro Tech Inc Three-Dimensional Coordinate Scanner And Method Of Operation
US9228816B2 (en) * 2013-03-15 2016-01-05 Faro Technologies, Inc. Method of determining a common coordinate system for an articulated arm coordinate measurement machine and a scanner
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9234742B2 (en) * 2013-05-01 2016-01-12 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US9267784B2 (en) * 2013-07-15 2016-02-23 Faro Technologies, Inc. Laser line probe having improved high dynamic range
US9658061B2 (en) * 2013-12-31 2017-05-23 Faro Technologies, Inc. Line scanner that uses a color image sensor to improve dynamic range
US9402070B2 (en) * 2014-06-12 2016-07-26 Faro Technologies, Inc. Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
CN107076551B (zh) * 2014-09-19 2021-02-02 海克斯康测量技术有限公司 多模式便携式坐标测量机
US9964402B2 (en) 2015-04-24 2018-05-08 Faro Technologies, Inc. Two-camera triangulation scanner with detachable coupling mechanism
US10082521B2 (en) * 2015-06-30 2018-09-25 Faro Technologies, Inc. System for measuring six degrees of freedom
US9903934B2 (en) * 2015-06-30 2018-02-27 Faro Technologies, Inc. Apparatus and method of measuring six degrees of freedom
US10455216B2 (en) * 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
US20170094251A1 (en) * 2015-09-30 2017-03-30 Faro Technologies, Inc. Three-dimensional imager that includes a dichroic camera
DE102015122842B4 (de) 2015-12-27 2019-02-07 Faro Technologies, Inc. Verfahren zum Kalibrieren einer 3D-Messvorrichtung mittels einer Kalibrierplatte
WO2017116585A1 (en) * 2015-12-30 2017-07-06 Faro Technologies, Inc. Registration of three-dimensional coordinates measured on interior and exterior portions of an object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11300400B2 (en) * 2019-03-15 2022-04-12 Faro Technologies, Inc. Three-dimensional measurement device
US11725928B2 (en) 2019-03-15 2023-08-15 Faro Technologies, Inc. Handheld three-dimensional coordinate measuring device operatively coupled to a mobile computing device
DE102021106878B4 (de) 2020-03-23 2024-06-06 Lei & So Co., Ltd. Verfahren zur direkten raumlage-rückkopplungssteuerung und direkte raumlage-rückkopplungsgesteuerte maschine

Also Published As

Publication number Publication date
WO2016172411A1 (en) 2016-10-27
US11262194B2 (en) 2022-03-01
US10866089B2 (en) 2020-12-15
US10444009B2 (en) 2019-10-15
US20160313114A1 (en) 2016-10-27
US20190383603A1 (en) 2019-12-19
US9964402B2 (en) 2018-05-08
US20210116239A1 (en) 2021-04-22
US20180238681A1 (en) 2018-08-23
US20220155060A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
DE112016001888T5 (de) Triangulationsscanner mit zwei Kameras und abnehmbarem Kopplungsmechanismus
DE112011100309B4 (de) Tragbares Gelenkarm-Koordinatenmessgerät mit abnehmbarem Zubehör
DE102015013770B4 (de) System und Verfahren zum Kalibrieren eines Bildverarbeitungssystems bezüglich eines Messtasters
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE112013002824T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
DE112016002057T5 (de) Dreidimensionales messgerät, lösbar verkoppelt mit einem roboterarm auf einer motorisierten mobilen plattform
DE112013000727T5 (de) Prüfverfahren mit Strichcode-Kennzeichnung
DE112013002892T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
EP2023077B1 (de) Verfahren und Vermessungssystem zur berührungslosen Koordinatenmessung an einer Objektoberfläche
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE69628956T2 (de) Abtastvorrichtung und -verfahren
EP2156139B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen räumlicher koordinaten einer oberfläche
DE112011100296T5 (de) Multifunktionale Koordinatenmessgeräte
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE112015004629T5 (de) Koordinatenmessgerät mit redundanten Energiequellen
EP1420264A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Messsystems
DE112015002755T5 (de) Koordinatenmessgerät mit einer Handsonde mit sechs Freiheitsgraden und integrierter Kamera für erweiterte Realität
DE112015002217T5 (de) Messtechnisches gerät und verfahren zur durchführung einer prüfung
DE112015002236T5 (de) Gelenkarm-koordinatenmessgerät mit einem drehschalter
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
DE102015205110B4 (de) Koordinatenmessgerät mit Distanzmesser zur Verwendung für die Erstellung eines Bezugsrahmens
DE112013003076T5 (de) Koordinatenmessgeräte mit entfernbaren Zusatzteilen

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee