DE102016105496A1 - System zur Prüfung von Objekten mittels erweiterter Realität - Google Patents

System zur Prüfung von Objekten mittels erweiterter Realität Download PDF

Info

Publication number
DE102016105496A1
DE102016105496A1 DE102016105496.8A DE102016105496A DE102016105496A1 DE 102016105496 A1 DE102016105496 A1 DE 102016105496A1 DE 102016105496 A DE102016105496 A DE 102016105496A DE 102016105496 A1 DE102016105496 A1 DE 102016105496A1
Authority
DE
Germany
Prior art keywords
coordinates
collection
camera image
tag
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016105496.8A
Other languages
English (en)
Inventor
Robert M. Persely jr.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faro Technologies Inc
Original Assignee
Faro Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faro Technologies Inc filed Critical Faro Technologies Inc
Publication of DE102016105496A1 publication Critical patent/DE102016105496A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/047Accessories, e.g. for positioning, for tool-setting, for measuring probes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren, das zum Vergleichen von gemessenen dreidimensionalen (3D) Messdaten mit einem Objekt vorgesehen ist. Das Verfahren umfasst die Schritte zum Bereitstellen eines dreidimensionalen Messgeräts, das für das Messen von 3D-Koordinaten von Punkten auf dem Objekt konfiguriert ist, und eines Rechengeräts mit einer Kamera und Anzeigevorrichtung. Das Verfahren misst während eines Prüfverfahrens das Objekt mit dem 3D-Messgerät, welches eine erste Sammlung von 3D-Koordinaten bereitstellt. Die erste Sammlung von 3D-Koordinaten wird im Computernetzwerk gespeichert und einer AR-Markierung zugeordnet. Das Verfahren liest während eines Beobachtungsverfahrens die AR-Markierung ab und überträgt die erste Sammlung von 3D-Koordinaten und eine Maßdarstellung des Objekts aus dem Computernetzwerk an das Rechengerät. Ein Teil der ersten Sammlung von 3D-Koordinaten wird auf das Kamerabild ausgerichtet. Die ausgerichtete Sammlung von 3D-Koordinaten und das Kamerabild werden auf der integrierten Anzeigevorrichtung dargestellt.

Description

  • Querverweis auf verwandte Anmeldungen
  • Die vorliegende Anmeldung ist eine nicht vorläufige Patentanmeldung der am 26. März 2015 eingereichten vorläufigen Anmeldung mit dem Aktenzeichen 62/138,433, deren Inhalte durch Verweis hierin einbezogen werden.
  • Hintergrund der Erfindung
  • Der hierin offenbarte Gegenstand betrifft die Maßprüfung von Objekten unter Einsatz von dreidimensionalen (3D) Koordinatenmessgeräten und insbesondere ein System, das das Wiederauffinden von Prüfdaten mittels erweiterter Realität ermöglicht.
  • Die erweiterte Realität (AR; augmented reality) bezieht sich auf eine direkte oder indirekte Ansicht der physikalischen realen Umgebung, deren Elemente auf der Grundlage einer computergenerierten sensorischen Eingabe (z. B. Beschleunigungsmesser oder GPS-Daten) erweitert werden. Die AR erweitert auf diese Weise die aktuelle Wahrnehmung von Zusammenhängen. Im Gegensatz dazu ersetzt die virtuelle Realität die reale Welt durch eine simulierte.
  • Die AR wird allgemein als eine Anwendung durchgeführt, die auf einem tragbaren Gerät ausgeführt wird, um Informationen im Zusammenhang mit Umgebungselementen anzuzeigen. Man kann beispielsweise eine auf einem tragbaren Gerät laufende AR-Anwendung im Zusammenhang mit Golf benutzen, um Abstände zu einem Fairway oder Grün darzustellen. Des Weiteren kann eine auf einem tragbaren Gerät laufende AR-Anwendung im Freien verwendet werden, um Kompassparameter, Positionsangaben oder interessierende Punkte in Bezug auf die physikalische Umgebung darzustellen, in der man sich aufhält. Ferner kann man eine auf einem tragbaren Gerät laufende AR-Anwendung im Zusammenhang mit Spielen einsetzen, bei denen Objekte in der physikalischen Umgebung, in der man sich aufhält, zu einem Teil eines Spielerlebnisses werden. Bei der AR werden computergenerierte Grafiken (z. B. Wörter und/oder Linien) oft über die reale Darstellung gelegt, die durch eine Kameraansicht eines tragbaren Geräts zur Verfügung gestellt wird.
  • Obwohl bereits existierende Systeme für ihre beabsichtigten Zwecke geeignet waren, besteht nach wie vor Verbesserungsbedarf insbesondere bei der Bereitstellung eines Systems, das mittels der erweiterten Realität den Zugriff auf Prüfdaten verbessert und die Interaktion eines Bedieners mit den Prüfdaten erleichtert.
  • Kurze Beschreibung der Erfindung
  • Gemäß einem Aspekt der Erfindung ist ein Verfahren zum Vergleichen von gemessenen dreidimensionalen (3D) Messdaten mit einem Objekt vorgesehen. Das Verfahren umfasst die folgenden Schritte: Bereitstellen eines 3D-Messgeräts, das für das Messen von 3D-Koordinaten von Punkten auf dem Objekt konfiguriert ist; Bereitstellen eines Rechengeräts mit einer integrierten Kamera und einer integrierten Anzeigevorrichtung; Bereitstellen eines AR-Markierungs-Lesegeräts; Bereitstellen eines Computernetzwerks; und Bereitstellen einer Maßdarstellung des Objekts und Speichern der Maßdarstellung des Objekts im Computernetzwerk. Das Verfahren führt während eines Prüfverfahrens folgende Schritte durch: Messen des Objekts mit dem 3D-Messgerät, wobei das 3D-Messgerät eine erste Sammlung von 3D-Koordinaten bereitstellt; Speichern der ersten Sammlung von 3D-Koordinaten im Computernetzwerk; Zuordnen einer AR-Markierung zu dem Objekt. Das Verfahren führt während eines Beobachtungsverfahrens, das zu einer Zeit stattfindet, die später als das Prüfverfahren ist, folgende Schritte durch: Ablesen der AR-Markierung mit dem AR-Markierungs-Lesegerät; Übertragen der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts aus dem Computernetzwerk; Ermitteln einer Objektidentifikation basierend zumindest teilweise auf der AR-Markierung; Positionieren der integrierten Kamera derart, dass sie das Objekt sieht und ein Kamerabild des gesehenen Objekts erzeugt; Anzeigen des Kamerabilds auf der integrierten Anzeigevorrichtung; Ausrichten eines Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild, um eine ausgerichtete Sammlung von 3D-Koordinaten zu erhalten, wobei die Ausrichtung zumindest teilweise auf einem Vergleich des Kamerabilds und einer von der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts im Computernetzwerk basiert; und Darstellen der ausgerichteten Sammlung von 3D-Koordinaten und des Kamerabilds auf der integrierten Anzeigevorrichtung. Diese und andere Vorteile und Merkmale gehen aus der folgenden Beschreibung in Verbindung mit den Zeichnungen deutlicher hervor.
  • Kurze Beschreibung der Zeichnung
  • Der Gegenstand, der als die Erfindung betrachtet wird, wird in den Ansprüchen am Ende der Patentbeschreibung besonders hervorgehoben und eindeutig beansprucht. Die vorangehenden und anderen Merkmale und Vorteile der Erfindung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den begleitenden Zeichnungen hervor. Es zeigen:
  • 1: eine schematische Darstellung eines Bedieners bei der Durchführung einer Prüfung gemäß einer Ausgestaltung der Erfindung;
  • 2: eine Darstellung eines Bedieners bei der Betrachtung eines Prüfberichts eines Objekts unter Einsatz der erweiterten Realität gemäß einer Ausgestaltung der Erfindung;
  • 3: eine Darstellung eines Bedieners bei der Betrachtung eines Prüfberichts eines Objekts unter Einsatz der erweiterten Realität gemäß einer anderen Ausgestaltung der Erfindung;
  • 4: eine Darstellung eines tragbaren Rechengeräts, das ein geprüftes Objekt mit einem über das Objekt eingeblendeten Prüfbericht anzeigt;
  • 57: Ablaufdiagramme von Verfahren zur Erfassung und Überprüfung von Prüfberichten unter Einsatz der erweiterten Realität gemäß Ausgestaltungen der Erfindung; und
  • 8: ein Ablaufdiagramm eines Verfahrens zum Anleiten eines Bedieners bei einem Vorgang unter Einsatz der erweiterten Realität gemäß einer Ausgestaltung der Erfindung.
  • Die ausführliche Beschreibung erläutert Ausgestaltungen der Erfindung zusammen mit den Vorteilen und Merkmalen beispielhaft anhand der Zeichnungen.
  • Detaillierte Beschreibung der Erfindung
  • Ausgestaltungen der Erfindung stellen dahingehend Vorteile zur Verfügung, dass sie einem Bediener die Überprüfung der Ergebnisse einer an einem Objekt durchgeführten Prüfung ermöglichen. Ausgestaltungen der Erfindung stellen dahingehend Vorteile bereit, dass sie dem Bediener die Überprüfung der Prüfergebnisse ermöglichen, indem die Prüfergebnisse über ein Echtzeitbild des Objekts eingeblendet werden. Noch weitere Ausgestaltungen der Erfindung stellen dahingehend Vorteile zur Verfügung, dass sie dem Bediener die Überprüfung der Prüfergebnisse ermöglichen, indem die Prüfergebnisse über ein virtuelles Bild des Objekts eingeblendet werden, wobei das virtuelle Bild des Objekts über einem Echtzeitbild der Umgebung angezeigt wird.
  • Ausgestaltungen der Erfindung bieten weitere Vorteile bei der Speicherung der Prüfergebnisse in einem Netzwerkserver. Die Prüfergebnisse können schnell wiederaufgefunden werden, indem ein maschinenlesbarer Code oder eine maschinenlesbare Markierung verwendet werden, der bzw. die automatisch erzeugt und dem geprüften Objekt und den gemessenen Maßdaten zugeordnet wird. Ausgestaltungen der Erfindung stellen noch weitere Vorteile bereit, indem sie die Überprüfung der Prüfergebnisse auf verschiedenen Anzeigevorrichtungen ermöglichen.
  • Nun Bezug nehmend auf 1, ist dort ein System 20 zum Prüfen eines Objekts und Anzeigen eines Prüfberichts unter Verwendung der erweiterten Realität dargestellt. Bei der dargestellten Ausgestaltung benutzt ein Bediener 22 ein dreidimensionales (3D) Messgerät 24 wie beispielsweise ein tragbares Gelenkarm-Koordinatenmessgerät (Gelenkarm-KMG) zum Messen der 3D-Koordinaten von Punkten auf einem Werkstück bzw. Objekt 26. Das Gelenkarm-KMG kann demjenigen ähnlich sein, das in dem US-Patent 8,533,967 des gleichen Inhabers mit dem Titel „Coordinate Measurement Machine With Removable Accessories“ beschrieben wird und dessen Inhalte durch Verweis hierin einbezogen werden. Es versteht sich, dass, obwohl Ausgestaltungen hierin in Bezug auf die dargestellte Ausgestaltung das 3D-Messgerät 24 als Gelenkarm-KMG beschreiben, dies Beispielzwecken dient und die beanspruchte Erfindung so nicht eingeschränkt sein sollte. Das 3D-Messgerät kann bei anderen Ausgestaltungen ein Lasertracker, ein Triangulationsscanner, ein Scanner mit strukturiertem Licht, ein Theodolit, eine Totalstation, ein Photogrammetriesystem, ein Laufzeitscanner oder eine Kombination des Vorangehenden sein.
  • Das 3D-Messgerät 24 ist dafür konfiguriert, die Koordinaten von Punkten auf dem Objekt 26 als Reaktion auf eine Maßnahme des Bedieners wie beispielsweise das Drücken eines Aktors zu messen. Bei einer Ausgestaltung ist das 3D-Messgerät 24 dafür konfiguriert, Merkmale des Objekts 26 nach einem vorgegebenen Prüfplan zu messen. Die Merkmale können ein beliebiges physikalisches Merkmal des Objekts 26 umfassen, also beispielsweise, aber ohne darauf beschränkt zu sein, die Höhe, Länge und Breite von Merkmalen des Objekts, die Ebenheit oder Krümmung von Merkmalen auf dem Objekt oder den Durchmesser oder die Tiefe von Löchern, Schlitzen oder Vertiefungen. Das 3D-Messgerät 24 umfasst eine elektronische Schaltung mit einem Prozessor 50 und einem Speicher 48, damit es die 3D-Koordinaten des Objekts 26 aufzeichnen und im Speicher 48 speichern kann. Das 3D-Messgerät 24 kann bei einer Ausgestaltung die 3D-Koordinaten des Objekts 26 mit Spezifikationen des Objekts 26 vergleichen, um zu ermitteln, ob die Merkmale innerhalb annehmbarer Toleranzen liegen. Bei einer Ausgestaltung kann das 3D-Messgerät 24 dem Bediener 22 anzeigen, dass ein bestimmtes Merkmal oder Maß des Objekts 26 außerhalb der annehmbaren Spezifikation liegt.
  • Das 3D-Messgerät 24 ist bei einer Ausgestaltung derart gekoppelt, dass es mit einem lokalen Rechengerät 28 wie beispielsweise einem Computer kommuniziert. Das 3D-Messgerät und das lokale Rechengerät 28 können auch direkt mit einem lokalen Netz (LAN; local area network) oder Weitverkehrsnetz (WAN; wide area network) 30 verbunden sein. Wie hierin ausführlicher besprochen wird, ermöglicht das Netz 30 die Speicherung der vom 3D-Messgerät 24 erfassten 3D-Koordinatendaten auf einem Server 40 im Netz 30. Der Server 40 speichert die Daten und macht sie für verschiedene Geräte wie beispielsweise Desktopcomputer 32, Mobiltelefone 34, Laptopcomputer 36, Tabletcomputer oder andere Arten mobiler Rechengeräte zugänglich, aber ohne darauf beschränkt zu sein. Das Kommunikationsmedium, das das 3D-Messgerät 24 mit dem lokalen Rechengerät 28 oder dem Netz 30 verbindet, kann drahtgebunden (z. B. Ethernet), drahtlos (z. B. WiFi oder Bluetooth) oder eine Kombination des Vorangehenden sein. Bei einer Ausgestaltung kann das lokale Rechengerät 28 ein Tabletcomputer oder ein Mobiltelefon sein. Bei einer Ausgestaltung ist ein Drucker 38 an das lokale Rechengerät 28 gekoppelt. Der Drucker 38 kann auch direkt an das 3D-Messgerät 24 gekoppelt sein. Wie hierin ausführlicher besprochen wird, ist der Drucker 38 ein Gerät, das in der Lage ist, einen maschinenlesbaren Code oder eine maschinenlesbare Markierung wie beispielsweise einen QR-Code oder einen Strichcode auszudrucken. Man kann ein solches maschinenlesbares Symbol bzw. eine solche maschinenlesbare Markierung auch als „AR-Markierung“ bezeichnen.
  • Nun Bezug nehmend auf 25 bei fortgesetzter Bezugnahme auf 1, wird ein Verfahren 100 zur Messung des Objekts 26 und Erstellung eines Prüfberichts, der mittels einer Anzeigevorrichtung mit erweiterter Realität angesehen werden kann, durchgeführt. In dem Verfahren 100 prüft der Bediener 22 zuerst das Objekt 26 in Block 102. Die Prüfung wird mit dem 3D-Messgerät 24 durchgeführt, indem die 3D-Koordinaten von Punkten auf dem Objekt 26 erfasst werden. Das 3D-Messgerät 24 kann anhand der 3D-Koordinaten Maßkennwerte des Objekts 26 wie beispielsweise die Länge 42 oder Höhe eines Merkmals oder den Durchmesser 44 eines Lochs ermitteln. Bei einer Ausgestaltung, bei der das 3D-Messgerät ein Gelenkarm-KMG 24 ist, können die Messungen erfolgen, indem der Bediener die Armsegmente manuell bewegt und mit einer Sonde 46 das Objekt 26 berührt. Die Prüfschritte können Teil eines vorgegebenen Prüfplans sein. Der vorgegebene Prüfplan wird bei einer Ausgestaltung im Speicher 48 des 3D-Messgeräts 24 gespeichert. Bei einer anderen Ausgestaltung ist der Prüfplan ein Papierdokument, das vom Bediener 22 befolgt wird. Die Messungen werden bei einer Ausgestaltung nach dem Ermessen des Bedieners 22 durchgeführt und im Speicher 48 des 3D-Messgeräts 24 gespeichert. Das 3D-Messgerät 24 kann eine elektronische Schaltung 50 umfassen, die die 3D-Koordinatendaten aus mit dem 3D-Messgerät durchgeführten Messungen ermittelt und die 3D-Koordinaten im Speicher 48 speichert. Bei dem Gelenkarm-KMG 24 können die 3D-Koordinatendaten aus den Kodierersignalen ermittelt werden, die an jedem der Gelenke der Armsegmente geortet werden, die dem Prozessor 50 die Ermittlung der Position der Sonde 46 in einem lokalen Koordinatensystem ermöglichen, wenn die Sonde 46 das Objekt 26 berührt. Bei anderen Ausgestaltungen können die 3D-Koordinatendaten durch Projizieren von Licht (z. B. ein Laserlicht, eine Laserlichtlinie oder ein strukturiertes Lichtmuster) und die Aufnahme von Bildern des projizierten Lichts auf der Oberfläche des Objekts ermittelt werden.
  • Sobald die Messungen nach dem Prüfplan durchgeführt werden, werden die 3D-Koordinatendaten in Block 104 an einen Fernserver wie zum Beispiel den Server 40 übertragen. Es versteht sich, dass die 3D-Koordinatendaten an den Server übertragen werden können, während sie erfasst werden. Der Server 40 empfängt die 3D-Koordinatendaten und speichert die Daten im Speicher oder auf einer Datenspeichervorrichtung. Die 3D-Koordinatendaten können bei einer Ausgestaltung in einer Datenbank gespeichert werden, um das Suchen und Wiederauffinden zu erleichtern. Sobald die 3D-Koordinatendaten empfangen und gespeichert sind, führt der Server 40 in Block 106 Anweisungen zur Erzeugung eines maschinenlesbaren Symbols bzw. einer Markierung der erweiterten Realität (AR-Markierung) aus. Ein maschinenlesbares Symbol kann ein Strichcode, ein QR-Code oder ein anderer Typ eines jetzt bekannten oder später entwickelten Codes sein, also beispielsweise ein zweidimensionaler (2D) Aztec-Code (ISO/IEC-Norm 24778:2008), aber ohne darauf beschränkt zu sein. Bei einer in 6 dargestellten Ausgestaltung kann das maschinenlesbare Symbol in Block 112 erzeugt und an ein Druckergerät wie beispielsweise den Drucker 38 übertragen werden, der sich in Block 114 in örtlicher Nähe des Objekts 26 befindet. Der Drucker 38 druckt das maschinenlesbare Symbol 52 auf Medien mit einer Klebefläche aus, die es ermöglicht, dass das maschinenlesbare Symbol 52 in Block 116 entweder an dem Objekt (2) oder an einem dazugehörigen Gegenstand wie beispielsweise den Zeichnungen 54 oder Montagedokumenten befestigt wird. Es versteht sich, dass auch andere maschinenlesbare Systeme verwendet werden können und dass der Begriff „AR-Markierung“ auch passive und aktive Datenspeichervorrichtungen wie beispielsweise Schaltungen oder Etiketten mit Radiofrequenzidentifikation (RFID) und Nahfeldkommunikation (NFC) umfasst.
  • Das Verfahren 100 geht dann mit Block 108 weiter, wo die 3D-Koordinaten selektiv vom Server 40 an ein anderes Rechengerät wie beispielsweise ein tragbares Rechengerät 56 übertragen werden. Das tragbare Rechengerät 56 kann ein Tabletcomputer, ein Mobiltelefon, ein Laptopcomputer, ein Personal Digital Assistant, ein E-Book-Reader-Gerät oder dergleichen sein, aber ohne darauf beschränkt zu sein. Das Rechengerät umfasst einen oder mehrere Prozessoren und einen Speicher zur Ausführung computerlesbarer Anweisungen. Die 3D-Koordinaten können bei einer Ausgestaltung von einem feststehenden Rechengerät wie beispielsweise einem Desktopcomputer zum Beispiel durch ein Computernetzwerk abgerufen werden. Das Rechengerät 56 kann eine Digitalkamera 56 mit einem Sichtfeld umfassen, das dafür konfiguriert ist, ein digitales Bild des an das Rechengerät 56 angrenzenden Bereichs aufzunehmen und das Bild auf einem Bildschirm oder einer Videoanzeige 60 anzuzeigen. Die Kamera 58 kann dafür konfiguriert sein, Standbilder oder Videobilder aufzunehmen.
  • Bei einer Ausgestaltung werden die 3D-Koordinatendaten vom Server 40 als Reaktion darauf, dass das Rechengerät 56 ein Bild des maschinenlesbaren Symbols 52 erfasst, an das Rechengerät 56 übertragen. Mit den an das Rechengerät 56 übertragenen 3D-Koordinatendaten fährt das Verfahren 100 mit Block 110 fort, wo die 3D-Koordinatendaten über ein Echtzeit-Videobild oder ein im Wesentlichen in Echtzeit dargestelltes Videobild eingeblendet werden, um ein Bild mit erweiterter Realität auf der Anzeigevorrichtung 60 (34) zu erzeugen. Ein Bild mit erweiterter Realität ist in der hierin gebrauchten Bedeutung eine Kombination aus einem Kamerabild eines Bereichs – beispielsweise der Arbeitsfläche 62 – und einem computergenerierten Bild. Das computergenerierte Bild in der hierin gebrauchten Bedeutung kann als virtuelles Objekt 64 bezeichnet werden. Das virtuelle Objekt 64 wird in einer Weise angezeigt, die es so erscheinen lässt, als ob es tatsächlich auf der Arbeitsfläche 62 vorhanden wäre. Beispielsweise könnten andere Objekte wie z. B. ein Stift 68 auf der Anzeigevorrichtung dargestellt und teilweise oder ganz durch das virtuelle Objekt 64 verdeckt werden. Das virtuelle Objekt kann sich bei einer Ausgestaltung im Kamerabild an der Stelle des maschinenlesbaren Symbols 52 oder einer anderen Markierung erweiterter Realität befinden. Das Anzeigen des virtuellen Objekts 64 kann derart dynamisch erfolgen, dass unterschiedliche Bereiche des virtuellen Objekts 64 angezeigt werden können, während der Bediener das Rechengerät 56 rings bzw. rund um die Arbeitsfläche 62 bewegt.
  • Das Rechengerät 56 ist ferner dafür konfiguriert, Prüfdaten wie beispielsweise die Maße 42, 44 auf der Anzeigevorrichtung 60 anzuzeigen. Das Anzeigen der Maße kann vom Benutzer auswählbar oder automatisiert sein (z. B. in Schritten durch den Prüfplan). Neben dem virtuellen Objekt können ein oder mehrere Symbole 66 oder Textinformationen angezeigt werden. Diese Symbole 66 können zur Übermittlung von Informationen über die Ergebnisse der Prüfung verwendet werden, also beispielsweise eine Warnung darüber, dass ein Merkmal ein Maß aufweist, das zum Beispiel von der Sollspezifikation oder Toleranz abweicht bzw. außerhalb davon liegt. Abweichungen von der Spezifikation werden bei einer Ausgestaltung durch Vergleichen einer Sammlung von 3D-Koordinatendaten mit einer Maßdarstellung des Objekts – beispielsweise einem CAD-Modell (computer-aided design) – ermittelt.
  • Es versteht sich, dass die Betrachtung des virtuellen Objekts 64 mittels erweiterter Realität überall dort durchgeführt werden kann, wo das Rechengerät 56 die 3D-Koordinatendaten empfangen kann. Dies bietet dahingehend Vorteile, dass Mitarbeitern die Möglichkeit gegeben wird, Prüfergebnisse eines Objekts selbst dann zu überprüfen, wenn das Objekt entfernt angeordnet ist.
  • Bei einer anderen Ausgestaltung, die in 2 und 4 dargestellt ist, kann das Rechengerät 56 in Echtzeit oder im Wesentlichen in Echtzeit als Reaktion darauf, dass das maschinenlesbare Symbol von der Kamera 58 aufgenommen wird und das Objekt 64 im Sichtfeld der Kamera 58 ist (oder dahin gebracht wird), die 3D-Koordinaten über das Objekt 26 einblenden. Nun Bezug nehmend auf 7 und bei fortgesetzter Bezugnahme auf 1, 2, 4 und 5, ist das Verfahren 120 von Block 110 (5) für eine Ausgestaltung dargestellt, bei der die 3D-Koordinatendaten auf einem Bild des realen bzw. tatsächlichen Objekts 26 angezeigt werden. Das Verfahren 120 umfasst in Block 122 den Schritt zum Ausrichten der 3D-Koordinatendaten auf das Objekt 26 im Kamerabild. Der hier verwendete Begriff „Ausrichten“ bedeutet die Umwandlung der 3D-Koordinatendaten in ein lokales Koordinatensystem derart, dass die 3D-Koordinatendaten über dieselbe Stelle im Kamerabild wie das Objekt 26 gelegt bzw. eingeblendet werden. Die Ausrichtung der 3D-Koordinatendaten kann auf verschiedene Weise durchgeführt werden. Bei einer Ausgestaltung fährt das Verfahren 120 mit Block 124 fort, wo die 3D-Koordinatendaten mittels der natürlichen Merkmale des Objekts 26 auf das Objekt 26 ausgerichtet werden. Diese natürlichen Merkmale können beispielsweise Ecken 70 (4) oder Kanten 72 von Merkmalen umfassen. Die natürlichen Merkmale können auch ein Gesamtmerkmal wie beispielsweise die Kante eines Lochs umfassen. Die bei der Ausrichtung verwendeten natürlichen Merkmale 70, 72 können beispielsweise auf der Anzeigevorrichtung 60 z. B. in Form eines Symbols oder kleinen Kreises angezeigt werden.
  • Statt der Verwendung natürlicher Merkmale 70, 72 kann das Verfahren 120 mit Block 128 fortfahren, wo die Ausrichtung unter Einsatz von Markierungen 74 wie zum Beispiel Photogrammetriemarkierungen, die auf dem Objekt 26 angeordnet sind, durchgeführt wird. Die Benutzung von Markierungen 74 kann dort Vorteile bieten, wo das 3D-Messgerät ein Messgerät wie beispielsweise ein Triangulationsscanner oder eine Laserliniensonde ist, wobei Bilder des Objekts 26 einschließlich der Markierungen 74 während der Durchführung des Prüfplans aufgenommen werden.
  • Das Ausrichtungsverfahren anhand entweder der Ausrichtung mit natürlichen Merkmalen oder des Verfahrens mit Ausrichtungsmarkierungen führt zur Erzeugung einer ausgerichteten Sammlung von 3D-Koordinatendaten. Diese ausgerichtete Sammlung von 3D-Koordinatendaten besteht aus den 3D-Koordinatendaten, die in das lokale Koordinatensystem des Kamerabilds umgewandelt wurden. Das Verfahren 120 fährt dann nach den Ausrichtungsschritten mit Block 130 fort, wo das Kamerabild auf der Anzeigevorrichtung 60 angezeigt wird. Anschließend wird zumindest ein Teil der 3D-Koordinatendaten oder Prüfdaten über das Kamerabild eingeblendet bzw. gelegt, also beispielsweise die Maße 42, 44 oder das Warnsymbol 66.
  • Die vorstehend beschriebenen Ausgestaltungen beziehen sich auf eine relative Überprüfung des Prüfplans, doch die mit erweiterter Realität erfolgende Anzeige von 3D-Koordinaten kann auch zum Anleiten der Durchführung von Vorgängen an dem Objekt 26 verwendet werden. Nun Bezug nehmend auf 8, ist dort eine Ausgestaltung eines Verfahrens 140 zur Durchführung eines Vorgangs an einem Objekt dargestellt. Das Verfahren 140 beginnt mit Block 142, wo ein für den Bediener durchzuführender Vorgang bestimmt wird. Der Vorgang kann als Reaktion auf die 3D-Koordinatendaten erfolgen, die beispielsweise als Teil des Prüfplans erfasst wurden. Wenn die 3D-Koordinatendaten anzeigen, dass ein Merkmal außerhalb der Sollspezifikation oder Toleranz liegt, kann der bestimmte Vorgang dann die Möglichkeit bieten, das Merkmal in die Spezifikation zu bringen, also beispielsweise durch Erweitern eines zu kleinen Lochs. Es versteht sich, dass der bestimmte Vorgang nicht auf ein Merkmal bezogen sein muss, das außerhalb der Spezifikation liegt. Der bestimmte Vorgang kann beispielsweise Folgendes umfassen, aber ohne darauf beschränkt zu sein: Bohren, Fräsen, Drehen, Feilen, Entgraten, Schweißen, Löten, Kleben, Nieten, Verschrauben, Nageln, Anstreichen, Schneiden und Ankleben von Etiketten.
  • Das Verfahren 140 fährt anschließend mit Block 144 fort, wo das Rechengerät ein Lichtmuster auf das Objekt 26 an der Stelle projiziert, wo der Vorgang durchzuführen ist. Die Stelle kann beispielsweise ein Merkmal (z. B. ein Loch) oder eine Position auf einer Oberfläche (wo z. B. ein Etikett anzukleben ist) sein. Das Lichtmuster kann von der Lichtquelle erzeugt werden, die beispielsweise für die Kamera 58 benutzt wird. Das Lichtmuster kann bei dieser Ausgestaltung nur dann projiziert werden, wenn das Rechengerät 56 derart orientiert und positioniert ist, dass das Muster auf die gewünschte Stelle auftreffen kann. Das Verfahren 140 fährt dann mit Block 146 fort, wo das Lichtmuster oder ein computergeneriertes Bild des Lichtmusters auf der Anzeigevorrichtung 60 angezeigt wird. Es versteht sich, dass das Projizieren des Lichtmusters und das Anzeigen des Musters dahingehend Vorteile bieten können, dass zwei verschiedene Bediener bei der Durchführung des Vorgangs zusammenarbeiten können, weil der Bediener, der das Rechengerät 56 hält, nicht vom Rechengerät 56 fortblicken muss, um zu sehen, wohin das Muster projiziert wird. Das Verfahren 140 fährt dann mit Block 148 fort, wo der Vorgang vom Bediener durchgeführt wird. Das Verfahren 140 kann gegebenenfalls zu Block 144 zurückkehren, um aufeinanderfolgend ein Lichtmuster auf eine Vielzahl von Stellen zu projizieren. Das Rechengerät 56 ist bei einer Ausgestaltung derart bemessen und geformt, dass es dem Bediener 22 das Halten eines Werkzeugs 76 (2) für die Durchführung des Vorgangs ermöglicht.
  • Es versteht sich, dass, obwohl Ausgestaltungen hierin die Übertragung von 3D-Koordinatendaten an einen entfernten Server beschreiben, dies nur Beispielzwecken dient und dass die beanspruchte Erfindung so nicht eingeschränkt sein sollte. Die Daten können bei anderen Ausgestaltungen in einem Rechengerät gespeichert werden, das sich benachbart zu bzw. nahe dem 3D-Messgerät befindet. Auf dieses lokale Rechengerät kann dann über das Netzwerk durch andere Geräte zugegriffen werden. Bei einer anderen Ausgestaltung werden die Daten im 3D-Messgerät gespeichert und arbeitet das 3D-Messgerät als Server für die Verteilung der Daten an entfernt angeordnete Rechengeräte, die die Daten zur Überprüfung des Prüfberichts mittels einer Anzeige der erweiterten Realität nutzen.
  • Die technischen Auswirkungen und Vorteile umfassen die Umwandlung von 3D-Koordinatendaten und Prüfplan-Ergebnisdaten in eine visuelle Darstellung auf einer Anzeigevorrichtung, die einem Benutzer die Ansicht des geprüften Objekts so ermöglicht, als ob es in dem Bereich angeordnet wäre, der dem Benutzer benachbart ist. Zu den weiteren technischen Auswirkungen und Vorteilen zählen das Anleiten eines Benutzers bei der Durchführung eines Vorgangs durch die Projektion eines Lichts aus einem tragbaren Rechengerät auf das Objekt basierend zumindest teilweise auf den 3D-Koordinatendaten.
  • Gemäß einer Ausgestaltung der Erfindung ist ein Verfahren zum Vergleichen von gemessenen dreidimensionalen (3D) Messdaten mit einem Objekt vorgesehen. Das Verfahren umfasst die folgenden Schritte: Bereitstellen eines 3D-Messgeräts, das für das Messen von 3D-Koordinaten von Punkten auf dem Objekt konfiguriert ist; Bereitstellen eines Rechengeräts mit einer integrierten Kamera und einer integrierten Anzeigevorrichtung; Bereitstellen eines AR-Markierungs-Lesegeräts; Bereitstellen eines Computernetzwerks; und Bereitstellen einer Maßdarstellung des Objekts und Speichern der Maßdarstellung des Objekts im Computernetzwerk. Das Verfahren führt während eines Prüfverfahrens folgende Schritte durch: Messen des Objekts mit dem 3D-Messgerät, wobei das 3D-Messgerät eine erste Sammlung von 3D-Koordinaten bereitstellt; Speichern der ersten Sammlung von 3D-Koordinaten im Computernetzwerk; Zuordnen einer AR-Markierung zu dem Objekt. Das Verfahren führt während eines Beobachtungsverfahrens, das zu einer Zeit stattfindet, die später als das Prüfverfahren ist, folgende Schritte durch: Ablesen der AR-Markierung mit dem AR-Markierungs-Lesegerät; Übertragen der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts aus dem Computernetzwerk; Ermitteln einer Objektidentifikation basierend zumindest teilweise auf der AR-Markierung; Positionieren der integrierten Kamera derart, dass sie das Objekt sieht und ein Kamerabild des gesehenen Objekts erzeugt; Anzeigen des Kamerabilds auf der integrierten Anzeigevorrichtung; Ausrichten eines Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild, um eine ausgerichtete Sammlung von 3D-Koordinaten zu erhalten, wobei die Ausrichtung zumindest teilweise auf einem Vergleich des Kamerabilds und einer von der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts im Computernetzwerk basiert; und Darstellen der ausgerichteten Sammlung von 3D-Koordinaten und des Kamerabilds auf der integrierten Anzeigevorrichtung.
  • Gemäß einer Ausgestaltung kann das Verfahren ferner folgende Schritte umfassen: während des Prüfverfahrens Ermitteln von Abweichungen der ersten Sammlung von 3D-Koordinaten relativ zu der Maßdarstellung des Objekts; und während des Beobachtungsverfahrens Darstellen der Abweichungen der ersten Sammlung von 3D-Koordinaten auf der integrierten Anzeigevorrichtung. Das Verfahren kann ferner einen Schritt umfassen, bei dem der Schritt zum Ausrichten eines Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild zum Erhalten einer ausgerichteten Sammlung von 3D-Koordinaten ferner das Vergleichen von auf dem Kamerabild erkannten natürlichen Merkmalen des Objekts mit der Maßdarstellung des Objekts umfasst.
  • Das Verfahren kann gemäß einer Ausgestaltung einen Schritt durchführen, bei dem der Schritt zum Ausrichten eines Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild zum Erhalten einer ausgerichteten Sammlung von 3D-Koordinaten ferner das Vergleichen einer Vielzahl von im Kamerabild gesehenen Ausrichtungsmarkierungen auf dem Objekt mit einer Vielzahl von in der ersten Sammlung von 3D-Koordinaten beobachteten Ausrichtungsmarkierungen umfasst.
  • Gemäß einer Ausgestaltung kann das Verfahren Schritte durchführen, die Folgendes umfassen: Bereitstellen des Rechengeräts mit einem Projektor; und während des Beobachtungsverfahrens Projizieren eines ersten Lichtmusters mit dem Projektor. Bei dem Schritt zum Projizieren eines ersten Lichtmusters mit dem Projektor ist das projizierte Licht ein Symbol, das einen von einem Bediener durchzuführenden Zerspanungs- oder Montagevorgang anzeigt. Der Schritt zum Projizieren eines ersten Lichtmusters mit dem Projektor kann ferner ein Symbol umfassen, das den Zerspanungs- oder Montagevorgang darstellt, der aus der Gruppe bestehend aus Bohren, Fräsen, Drehen, Feilen, Entgraten, Schweißen, Löten, Kleben, Nieten, Verschrauben, Nageln, Anstreichen, Schneiden und Ankleben von Etiketten ausgewählt ist.
  • Gemäß einer Ausgestaltung wird bei dem Schritt zum Projizieren eines ersten Lichtmusters mit dem Projektor das erste Lichtmuster derart projiziert, dass es die Aufmerksamkeit eines Bedieners auf eine Stelle auf dem Objekt lenkt. Bei dem Schritt zum Projizieren eines ersten Lichtmusters mit dem Projektor wird das erste Lichtmuster aufeinanderfolgend auf eine Vielzahl von Stellen auf dem Objekt projiziert.
  • Gemäß einer Ausgestaltung werden bei dem Schritt zum Darstellen der ausgerichteten Sammlung von 3D-Koordinaten und des Kamerabilds auf der integrierten Anzeigevorrichtung die 3D-Koordinaten für ein Objekt erhalten, das bei der Herstellung von Gütern verwendet wird; und kann das Verfahren ferner einen Schritt zum Darstellen eines dem Objekt zugeordneten Produktionsmaßes auf der integrierten Anzeigevorrichtung umfassen, wobei das Produktionsmaß aus einer Gruppe bestehend aus einer Menge produzierter Güter, einer Aufzeichnung einer durchgeführten Wartung und einer Aufzeichnung eines nächsten Eichtermins ausgewählt ist.
  • Gemäß einer Ausgestaltung kann das 3D-Messgerät aus der Gruppe bestehend aus einem Triangulationsscanner, einem Laufzeitscanner, einem Lasertracker, einem Gelenkarm-Koordinatenmessgerät (KMG) und einem kartesischen KMG ausgewählt sein.
  • Gemäß einer Ausgestaltung kann die AR-Markierung aus der Gruppe bestehend aus einer Strichcodemarkierung, einer QR-Code-Markierung, einem Radiofrequenz-Identifikationsetikett (RFID-Etikett) und einem Nahfeldkommunikationsetikett (NFC-Etikett) ausgewählt sein.
  • Die hierin gebrauchte Terminologie dient lediglich dem Zweck des Beschreibens bestimmter Ausgestaltungen und soll die Erfindung nicht einschränken. Die Singularformen „ein“, „eine“ sowie „der“, „die“ und „das“ in der hierin gebrauchten Bedeutung sollen auch die Pluralformen einschließen, sofern der Zusammenhang nicht klar anderes vorgibt. Es versteht sich ferner, dass, wenn sie in dieser Patentbeschreibung verwendet werden, die Begriffe „umfassen“ und/oder „umfassend“ das Vorhandensein von angegebenen Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen und/oder Komponenten vorgeben, aber nicht das Vorhandensein oder die Hinzufügung von einem bzw. einer oder mehreren Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementkomponenten und/oder Gruppen davon ausschließen.
  • Die entsprechenden Strukturen, Materialien, Maßnahmen und Äquivalente aller Mittel oder Schritte plus der Funktionselemente in den nachfolgenden Ansprüchen sollen jede beliebige Struktur, jedes beliebige Material oder jede beliebige Maßnahme zur Durchführung der Funktion in Kombination mit anderen beanspruchten Merkmalen, die spezifisch beansprucht werden, einschließen. Die Beschreibung der vorliegenden Erfindung wurde zum Zwecke der Veranschaulichung und Beschreibung vorgelegt, soll jedoch nicht erschöpfend oder einschränkend für die Erfindung in der offenbarten Form sein. Dem durchschnittlichen Fachmann ergeben sich zahlreiche Modifikationen und Variationen, ohne vom Schutzbereich und Gedanken der Erfindung abzuweichen. Die Ausgestaltung wurde gewählt und beschrieben, um die Prinzipien der Erfindung und die praktische Anwendung am besten zu erklären und um anderen durchschnittlichen Fachleuten das Verständnis der Erfindung für verschiedene Ausgestaltungen mit verschiedenen Modifikationen zu vermitteln, die für die vorgesehene bestimmte Verwendung geeignet sind.
  • Die vorliegende Erfindung kann ein System, ein Verfahren und/oder ein Computerprogrammprodukt sein, Das Computerprogrammprodukt kann ein computerlesbares Speichermedium (oder computerlesbare Speichermedien) sein, auf dem computerlesbare Programmanweisungen vorhanden sind, die bewirken, dass ein Prozessor Aspekte der vorliegenden Erfindung ausführt.
  • Das computerlesbare Speichermedium kann ein greifbares Gerät sein, das Anweisungen für die Verwendung durch ein Gerät zur Ausführung von Anweisungen behalten und speichern kann. Das computerlesbare Speichermedium kann beispielsweise eine elektronische Speichervorrichtung, eine magnetisches Speichervorrichtung, eine optische Speichervorrichtung, eine elektromagnetische Speichervorrichtung, eine Halbleiterspeichervorrichtung oder eine beliebige geeignete Kombination des Vorangehenden sein, aber ohne darauf beschränkt zu sein. Eine nicht erschöpfende Liste spezifischerer Beispiele für das computerlesbare Speichermedium umfasst folgende: eine tragbare Computerdiskette, eine Festplatte, einen Direktzugriffsspeicher (RAM; random access memory), einen Nurlesespeicher (ROM; read-only memory), einen löschbaren programmierbaren Nurlesespeicher (EPROM; erasable programmable read-only memory; oder Flash-Speicher), einen statischen Direktzugriffsspeicher (SRAM; static random access memory), eine tragbare CD-ROM (compact disc read-only memory), eine Digital Versatile Disc (DVD), einen Speicherstick, eine Diskette, eine mechanisch kodierte Vorrichtung wie beispielsweise Lochkarten oder erhabene Strukturen in einer Vertiefung mit darauf aufgezeichneten Anweisungen sowie eine beliebige geeignete Kombination des Vorangehenden. Ein wie hierin verwendetes computerlesbares Speichermedium ist nicht aufzufassen als vorübergehende Signale an sich wie beispielsweise Radiowellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder andere Übertragungsmedien (z. B. Lichtimpulse, die durch einen Lichtwellenleiter durchgehen) ausbreiten, oder elektrische Signale, die über einen Draht übertragen werden.
  • Die hierin beschriebenen computerlesbaren Programmanweisungen können von einem computerlesbaren Speichermedium auf jeweilige Rechen-/Verarbeitungsgeräte oder über ein Netz wie beispielsweise das Internet, ein lokales Netz, ein Weitverkehrsnetz und/oder ein drahtloses Netz auf einen externen Computer oder ein externes Speichermedium heruntergeladen werden. Das Netz kann Übertragungskabel aus Kupfer, optische Übertragungsfasern, drahtlose Übertragung, Router, Firewalls, Switches, Gateway-Computer und/oder EDGE-Server umfassen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jedem Rechen-/Verarbeitungsgerät empfängt von dem Netzwerk computerlesbare Programmanweisungen und leitet diese für die Speicherung an ein computerlesbares Speichermedium in dem jeweiligen Rechen-/Verarbeitungsgerät weiter.
  • Computerlesbare Programmanweisungen für die Durchführung von Vorgängen der vorliegenden Erfindung können Folgendes sein: Assembleranweisungen, Anweisungen mit Befehlssatzarchitektur (ISA; instruction set architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocodes, Firmwareanweisungen, Daten der Zustandseinstellung oder entweder ein Quellcode oder Objektcode, der in einer beliebigen Kombination von einer oder mehreren Programmiersprachen geschrieben sein kann, die eine objektorientierte Programmiersprache wie Smalltalk, C++ oder dergleichen und herkömmliche Verfahrensprogrammiersprachen wie beispielsweise die Programmiersprache „C“ oder ähnliche Programmiersprachen umfassen. Die computerlesbaren Programmanweisungen können ganz auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als unabhängiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem Ferncomputer oder ganz auf dem Ferncomputer oder -server ausgeführt werden. Im letzteren Szenarium kann der Ferncomputer durch einen beliebigen Netztyp einschließlich eines lokalen Netzes (LAN) oder eines Weitverkehrsnetzes (WAN) mit dem Computer des Benutzers verbunden sein oder kann die Verbindung zu einem externen Computer erfolgen (beispielsweise über das Internet mittels eines Internet-Dienstanbieters). Bei einigen Ausgestaltungen kann eine elektronische Schaltungsanordnung, die beispielsweise eine programmierbare Logikschaltung, feldprogrammierbare Anordnungen von Logik-Gattern (FPGA; field-programmable gate-arrays) oder programmierbare logische Anordnungen (PLA; programmable logic arrays) umfasst, die computerlesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der computerlesbaren Programmanweisungen zur Personalisierung der elektronischen Schaltungsanordnung benutzt, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung werden hierin unter Bezugnahme auf Ablaufdiagramm-Darstellungen und/oder Blockdiagramme von Verfahren, Apparaten (Systemen) und Computerprogrammprodukten gemäß den Ausgestaltungen der Erfindung beschrieben. Es versteht sich, dass jeder Block der Ablaufdiagramm-Darstellungen und/oder Blockdiagramme und Kombinationen von Blöcken in den Ablaufdiagramm-Darstellungen und/oder Blockdiagrammen durch computerlesbare Programmanweisungen implementierbar sind.
  • Diese computerlesbaren Programmanweisungen können einem Prozessor eines Universalcomputers, Spezialcomputers oder einem anderen programmierbaren Datenverarbeitungsapparat zur Bildung eines Geräts derart bereitgestellt werden, dass die Anweisungen, welche über den Prozessor des Computers oder den anderen programmierbaren Datenverarbeitungsapparat ausgeführt werden, Mittel zur Implementierung der Funktionen/Vorgänge erzeugen, die in dem Block oder den Blöcken des Ablaufdiagramms und/oder Blockdiagramms vorgegeben sind. Diese computerlesbaren Programmanweisungen können auch auf einem computerlesbaren Speichermedium gespeichert sein, das einen Computer, einen programmierbaren Datenverarbeitungsapparat und/oder andere Geräte derart für eine bestimmte Funktionsweise steuern kann, dass das computerlesbare Speichermedium mit darauf gespeicherten Anweisungen einen Herstellungsartikel einschließlich Anweisungen umfasst, welche die Aspekte der Funktion bzw. des Vorgangs implementieren, die bzw. der in dem Block oder den Blöcken des Ablaufdiagramms und/oder Blockdiagramms vorgegeben ist.
  • Die computerlesbaren Programmanweisungen können ferner derart auf einen Computer, einen anderen programmierbaren Datenverarbeitungsapparat oder ein anderes Gerät geladen werden, dass sie eine Reihe von Arbeitsschritten bewirken, die auf einem Computer, einem anderen programmierbaren Apparat oder einem anderen Gerät so durchzuführen sind, dass sie ein computerimplementiertes Verfahren derart erzeugen, dass die Anweisungen, welche auf dem Computer, dem anderen programmierbaren Apparat oder dem anderen Gerät ausgeführt werden, die Funktionen/Vorgänge implementieren, die in dem Block bzw. den Blöcken des Ablaufdiagramms und/oder Blockdiagramms vorgegeben sind.
  • Die Ablauf- und Blockdiagramme in den Figuren zeigen die Architektur, die Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausgestaltungen der vorliegenden Erfindung. In dieser Hinsicht kann jeder Block in den Ablauf- oder Blockdiagrammen ein Modul, ein Segment oder einen Teil von Anweisungen repräsentieren, welches bzw. welcher eine oder mehrere ausführbare Anweisungen zur Implementierung der vorgegebenen logischen Funktion(en) umfasst. Bei einigen alternativen Implementierungen können die in dem Block angegebenen Funktionen in einer anderen als der in den Figuren angegebenen Reihenfolge erfolgen. Beispielsweise können zwei hintereinander dargestellte Blöcke eigentlich im Wesentlichen gleichzeitig ausgeführt werden oder können die Blöcke je nach der betreffenden Funktionalität manchmal in umgekehrter Reihenfolge ausgeführt werden. Es ist ebenfalls anzumerken, dass jeder Block der Blockdiagramme und/oder der Ablaufdiagramm-Darstellung und Kombinationen von Blöcken in den Blockdiagrammen und/oder der Ablaufdiagramm-Darstellung durch spezielle Systeme auf Hardware-Basis implementierbar sind, die die vorgegebenen Funktionen oder Vorgänge durchführen oder Kombinationen von speziellen Hardware- und Computeranweisungen durchführen.
  • Obwohl die Erfindung ausführlich in Verbindung mit nur einer begrenzten Anzahl von Ausgestaltungen beschrieben wurde, versteht es sich ohne Weiteres, dass die Erfindung nicht auf solche offenbarte Ausgestaltungen beschränkt ist. Statt dessen kann die Erfindung derart modifiziert werden, dass sie eine beliebige Anzahl von Abweichungen, Änderungen, Ersetzungen oder äquivalenten Anordnungen einbezieht, die bisher nicht beschrieben wurden, aber dem Gedanken und Schutzbereich der Erfindung entsprechen. Obwohl verschiedene Ausgestaltungen der Erfindung beschrieben wurden, versteht sich ferner, dass Aspekte der Erfindung nur einige der beschriebenen Ausgestaltungen einschließen können. Die Erfindung ist demgemäß nicht als durch die vorangehende Beschreibung eingeschränkt zu verstehen und ist lediglich durch den Schutzbereich der beigefügten Ansprüche eingeschränkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8533967 [0017]
  • Zitierte Nicht-Patentliteratur
    • ISO/IEC-Norm 24778:2008 [0021]

Claims (20)

  1. Verfahren zum Vergleichen von gemessenen dreidimensionalen (3D) Messdaten mit einem Objekt, umfassend: Bereitstellen eines 3D-Messgeräts, das für das Messen von 3D-Koordinaten von Punkten auf dem Objekt konfiguriert ist; Bereitstellen eines Rechengeräts mit einer integrierten Kamera und einer integrierten Anzeigevorrichtung; Bereitstellen eines AR-Markierungs-Lesegeräts, das mit dem Rechengerät wirkgekoppelt ist; Bereitstellen eines Computernetzwerks, das mit dem 3D-Messgerät, dem AR-Markierungs-Lesegerät und dem Rechengerät wirkgekoppelt ist; Bereitstellen einer Maßdarstellung des Objekts und Speichern der Maßdarstellung des Objekts im Computernetzwerk; während eines Prüfverfahrens Durchführen folgender Schritte: Messen des Objekts mit dem 3D-Messgerät, wobei das 3D-Messgerät eine erste Sammlung von 3D-Koordinaten bereitstellt; Speichern der ersten Sammlung von 3D-Koordinaten im Computernetzwerk; Zuordnen einer AR-Markierung zu dem Objekt; während eines Beobachtungsverfahrens, das zu einer Zeit stattfindet, die später als das Prüfverfahren ist, Durchführen folgender Schritte: Ablesen der AR-Markierung mit dem AR-Markierungs-Lesegerät und als Reaktion Auswählen der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts aus dem Computernetzwerk; Übertragen der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts aus dem Computernetzwerk; Positionieren der integrierten Kamera derart, dass sie das Objekt sieht und ein Kamerabild des Objekts erzeugt; Anzeigen des Kamerabilds auf der integrierten Anzeigevorrichtung; Ausrichten eines Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild, um eine ausgerichtete Sammlung von 3D-Koordinaten zu erhalten, wobei die Ausrichtung zumindest teilweise auf einem Vergleich des Kamerabilds und einer von der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts im Computernetzwerk basiert; und Darstellen der ausgerichteten Sammlung von 3D-Koordinaten und des Kamerabilds auf der integrierten Anzeigevorrichtung.
  2. Verfahren nach Anspruch 1, ferner umfassend: während des Prüfverfahrens Ermitteln von Abweichungen der ersten Sammlung von 3D-Koordinaten relativ zu der Maßdarstellung des Objekts; und während des Beobachtungsverfahrens Darstellen der Abweichungen der ersten Sammlung von 3D-Koordinaten auf der integrierten Anzeigevorrichtung.
  3. Verfahren nach Anspruch 1, wobei das Ausrichten des Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild ferner das Vergleichen von auf dem Kamerabild erkannten natürlichen Merkmalen des Objekts mit der Maßdarstellung des Objekts umfasst.
  4. Verfahren nach Anspruch 1, wobei das Ausrichten des Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild ferner das Vergleichen einer Vielzahl von im Kamerabild gesehenen Ausrichtungsmarkierungen auf dem Objekt mit einer Vielzahl von in der ersten Sammlung von 3D-Koordinaten beobachteten Ausrichtungsmarkierungen umfasst.
  5. Verfahren nach Anspruch 1, ferner umfassend folgende Schritte: Bereitstellen des Rechengeräts mit einem Projektor; und während des Beobachtungsverfahrens Projizieren eines ersten Lichtmusters mit dem Projektor.
  6. Verfahren nach Anspruch 5, wobei beim Projizieren des ersten Lichtmusters mit dem Projektor das erste Lichtmuster ein Symbol umfasst, das einen von einem Bediener durchzuführenden Zerspanungs- oder Montagevorgang anzeigt.
  7. Verfahren nach Anspruch 6, wobei in dem Symbol der Zerspanungs- oder Montagevorgang angezeigt wird, der aus der Gruppe bestehend aus Bohren, Fräsen, Drehen, Feilen, Entgraten, Schweißen, Löten, Kleben, Nieten, Verschrauben, Nageln, Anstreichen, Schneiden und Ankleben von Etiketten ausgewählt ist.
  8. Verfahren nach Anspruch 5, wobei beim Projizieren des ersten Lichtmusters mit dem Projektor das erste Lichtmuster auf eine vorgegebene Stelle auf dem Objekt projiziert wird.
  9. Verfahren nach Anspruch 8, wobei beim Projizieren eines ersten Lichtmusters mit dem Projektor das erste Lichtmuster aufeinanderfolgend auf eine Vielzahl von vorgegebenen Stellen auf dem Objekt projiziert wird.
  10. Verfahren nach Anspruch 1, ferner umfassend das Darstellen eines dem Objekt zugeordneten Produktionsmaßes auf der integrierten Anzeigevorrichtung, wobei das Produktionsmaß aus einer Gruppe bestehend aus einer Menge produzierter Güter, einer Aufzeichnung einer durchgeführten Wartung und einer Aufzeichnung eines nächsten Eichtermins ausgewählt ist.
  11. Verfahren nach Anspruch 1, wobei das 3D-Messgerät aus der Gruppe bestehend aus einem Triangulationsscanner, einem Laufzeitscanner, einem Lasertracker, einem Gelenkarm-Koordinatenmessgerät (KMG) und einem kartesischen KMG ausgewählt ist.
  12. Verfahren nach Anspruch 1, wobei die AR-Markierung aus der Gruppe bestehend aus einer Strichcodemarkierung, einer QR-Code-Markierung, einem Radiofrequenz-Identifikationsetikett (RFID-Etikett) und einem Nahfeldkommunikationsetikett (NFC-Etikett) ausgewählt ist.
  13. System umfassend: ein 3D-Messgerät, das für das Messen von 3D-Koordinaten von Punkten auf einem Objekt konfiguriert ist; ein AR-Markierungs-Lesegerät, das mit dem 3D-Messgerät wirkgekoppelt ist; ein Computernetzwerk, das eine Maßdarstellung des Objekts und eine erste Sammlung von 3D-Koordinaten darin gespeichert aufweist, wobei die erste Sammlung von Koordinaten durch das 3D-Messgerät erfasst ist, wobei das Computernetzwerk mit dem 3D-Messgerät und dem AR-Markierungs-Lesegerät wirkgekoppelt ist; ein Rechengerät mit einer integrierten Kamera und einer integrierten Anzeigevorrichtung, wobei das Rechengerät mit dem AR-Markierungs-Lesegerät und dem Computernetzwerk wirkgekoppelt ist, wobei das Rechengerät ferner einen Speicher mit computerlesbaren Anweisungen und einen oder mehrere Prozessoren zur Ausführung der computerlesbaren Anweisungen aufweist, wobei die computerlesbaren Anweisungen Folgendes umfassen: Ablesen einer AR-Markierung mit dem AR-Markierungs-Lesegerät und als Reaktion Auswählen der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts aus dem Computernetzwerk; Übertragen der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts aus dem Computernetzwerk; Erzeugen eines Kamerabilds des Objekts; Anzeigen des Kamerabilds auf der integrierten Anzeigevorrichtung; Ausrichten eines Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild, um eine ausgerichtete Sammlung von 3D-Koordinaten zu erhalten, wobei die Ausrichtung zumindest teilweise auf einem Vergleich des Kamerabilds und einer von der ersten Sammlung von 3D-Koordinaten und der Maßdarstellung des Objekts basiert; und Darstellen der ausgerichteten Sammlung von 3D auf der integrierten Anzeigevorrichtung.
  14. System nach Anspruch 13, wobei die computerlesbaren Anweisungen ferner Folgendes umfassen: Ermitteln von Abweichungen der ersten Sammlung von 3D-Koordinaten relativ zu der Maßdarstellung des Objekts; und Darstellen von Abweichungen der ersten Sammlung von 3D-Koordinaten auf der integrierten Anzeigevorrichtung.
  15. System nach Anspruch 13, wobei das Ausrichten des Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild ferner das Vergleichen von auf dem Kamerabild erkannten natürlichen Merkmalen des Objekts mit der Maßdarstellung des Objekts umfasst.
  16. System nach Anspruch 13, wobei der Schritt zum Ausrichten des Teils der ersten Sammlung von 3D-Koordinaten auf das Kamerabild ferner das Vergleichen einer Vielzahl von im Kamerabild gesehenen Ausrichtungsmarkierungen auf dem Objekt mit einer Vielzahl von in der ersten Sammlung von 3D-Koordinaten beobachteten Ausrichtungsmarkierungen umfasst.
  17. System nach Anspruch 13, wobei die computerlesbaren Anweisungen ferner das Projizieren eines ersten Lichtmusters mit einem Projektor umfassen.
  18. System nach Anspruch 17, wobei beim Projizieren des ersten Lichtmusters mit dem Projektor das erste Lichtmuster ein Symbol zum Anzeigen eines von einem Bediener durchzuführenden Zerspanungs- oder Montagevorgangs umfasst.
  19. System nach Anspruch 18, wobei beim Projizieren des Symbols das Symbol den Zerspanungs- oder Montagevorgang anzeigt, der aus der Gruppe bestehend aus Bohren, Fräsen, Drehen, Feilen, Entgraten, Schweißen, Löten, Kleben, Nieten, Verschrauben, Nageln, Anstreichen, Schneiden und Ankleben von Etiketten ausgewählt ist.
  20. System nach Anspruch 13, wobei die computerlesbaren Anweisungen ferner ein Darstellen eines dem Objekt zugeordneten Produktionsmaßes auf der integrierten Anzeigevorrichtung umfassen, wobei das Produktionsmaß aus einer Gruppe bestehend aus einer Menge produzierter Güter, einer Aufzeichnung einer durchgeführten Wartung und einer Aufzeichnung eines nächsten Eichtermins ausgewählt ist.
DE102016105496.8A 2015-03-26 2016-03-23 System zur Prüfung von Objekten mittels erweiterter Realität Withdrawn DE102016105496A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562138433P 2015-03-26 2015-03-26
US62/138,433 2015-03-26

Publications (1)

Publication Number Publication Date
DE102016105496A1 true DE102016105496A1 (de) 2016-09-29

Family

ID=56889734

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105496.8A Withdrawn DE102016105496A1 (de) 2015-03-26 2016-03-23 System zur Prüfung von Objekten mittels erweiterter Realität

Country Status (2)

Country Link
US (3) US9633481B2 (de)
DE (1) DE102016105496A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112417208A (zh) * 2020-11-20 2021-02-26 百度在线网络技术(北京)有限公司 目标搜索方法、装置、电子设备和计算机可读存储介质
CN112577715A (zh) * 2019-09-27 2021-03-30 三赢科技(深圳)有限公司 点检方法、点检装置及计算机装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016105496A1 (de) 2015-03-26 2016-09-29 Faro Technologies Inc. System zur Prüfung von Objekten mittels erweiterter Realität
US9933256B2 (en) 2015-04-09 2018-04-03 Mitutoyo Corporation Inspection program editing environment including real-time feedback related to throughput
US9952586B2 (en) * 2015-04-09 2018-04-24 Mitutoyo Corporation Inspection program editing environment with simulation status and control continually responsive to selection operations
US10146414B2 (en) * 2015-06-09 2018-12-04 Pearson Education, Inc. Augmented physical and virtual manipulatives
EP3104118B1 (de) * 2015-06-12 2019-02-27 Hexagon Technology Center GmbH Verfahren zur steuerung eines antriebsmechanismus einer automatisierten maschine mit einer kamera
EP3165979B1 (de) * 2015-11-05 2020-12-30 Rohde & Schwarz GmbH & Co. KG Bereitstellung von montageinformationen
WO2017201568A1 (en) 2016-05-23 2017-11-30 tagSpace Pty Ltd Media tags location-anchored digital media for augmented reality and virtual reality environments
US20180108178A1 (en) * 2016-10-13 2018-04-19 General Electric Company System and method for measurement based quality inspection
WO2018183709A1 (en) * 2017-03-31 2018-10-04 Abb Schweiz Ag Systems and methods for performing an inspection inside a machine
US10462444B2 (en) 2017-04-17 2019-10-29 Faro Technologies, Inc. Three-dimensional inspection
TWI659279B (zh) 2018-02-02 2019-05-11 國立清華大學 基於擴充實境的加工規劃設備
AU2019100486B4 (en) * 2018-05-07 2019-08-01 Apple Inc. Devices and methods for measuring using augmented reality
EP3567341B1 (de) * 2018-05-08 2023-11-29 Leica Geosystems AG Augmented-reality-basiertes system
US11783464B2 (en) * 2018-05-18 2023-10-10 Lawrence Livermore National Security, Llc Integrating extended reality with inspection systems
CN108683833B (zh) * 2018-07-26 2024-04-05 百度在线网络技术(北京)有限公司 图像采集设备和图像采集方法
US11733684B2 (en) 2018-09-27 2023-08-22 Hewlett-Packard Development Company, L.P. Overlaying production data on rendered 3D printed object
EP3716014B1 (de) * 2019-03-26 2023-09-13 Siemens Healthcare GmbH Übertragen eines zustands zwischen vr-umgebungen
US11209261B2 (en) 2019-08-22 2021-12-28 Innovmetric Logiciels Inc. Methods and systems for producing traceable measurements
US11232638B1 (en) 2020-05-20 2022-01-25 Bradley French System and method for creating links to superimposable digital media content messages viewable on an electronic device
CN112258657A (zh) * 2020-10-09 2021-01-22 上汽大众汽车有限公司 一种车辆数字化夹具的定位方法
TWI821878B (zh) * 2021-02-02 2023-11-11 仁寶電腦工業股份有限公司 虛實互動方法及虛實互動系統
CN115046480B (zh) * 2021-03-09 2023-11-10 华为技术有限公司 一种测量长度的方法、电子设备以及移动设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8533967B2 (en) 2010-01-20 2013-09-17 Faro Technologies, Inc. Coordinate measurement machines with removable accessories

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546277B1 (en) * 1998-04-21 2003-04-08 Neutar L.L.C. Instrument guidance system for spinal and other surgery
US20050105772A1 (en) * 1998-08-10 2005-05-19 Nestor Voronka Optical body tracker
US7711179B2 (en) * 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
EP1741059B1 (de) * 2004-04-26 2013-10-02 Siemens Aktiengesellschaft Verfahren zur bestimmung einer position eines markers in einem augmented-reality-system
JP5421624B2 (ja) * 2009-03-16 2014-02-19 株式会社トプコン 三次元計測用画像撮影装置
CA2835457A1 (en) 2011-05-09 2012-11-15 Smart Inspection Systems, Llc Portable optical metrology inspection station
DK3042704T3 (da) * 2011-05-23 2019-06-11 Lego As Legetøjskonstruktionssystem
US8872852B2 (en) * 2011-06-30 2014-10-28 International Business Machines Corporation Positional context determination with multi marker confidence ranking
JP6261016B2 (ja) * 2013-09-30 2018-01-17 国立研究開発法人産業技術総合研究所 マーカ画像処理システム
KR102238775B1 (ko) * 2014-02-10 2021-04-09 삼성전자주식회사 전자 장치에서 증강 현실을 이용한 장비 관리 장치 및 방법
JP6323040B2 (ja) * 2014-02-12 2018-05-16 株式会社リコー 画像処理装置、画像処理方法およびプログラム
EP3111299A4 (de) * 2014-02-28 2017-11-22 Hewlett-Packard Development Company, L.P. Kalibrierung von sensoren und projektor
US9721389B2 (en) * 2014-03-03 2017-08-01 Yahoo! Inc. 3-dimensional augmented reality markers
JP6264972B2 (ja) * 2014-03-18 2018-01-24 富士通株式会社 表示装置、表示制御プログラム、および表示制御方法
US20150302639A1 (en) * 2014-03-26 2015-10-22 Augmentecture, Inc. Method and system for creating enhanced images including augmented reality features to be viewed on mobile devices with corresponding designs
US20150306824A1 (en) * 2014-04-25 2015-10-29 Rememborines Inc. System, apparatus and method, for producing a three dimensional printed figurine
US9396554B2 (en) * 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US10915161B2 (en) * 2014-12-11 2021-02-09 Intel Corporation Facilitating dynamic non-visual markers for augmented reality on computing devices
US10026228B2 (en) * 2015-02-25 2018-07-17 Intel Corporation Scene modification for augmented reality using markers with parameters
US20160275723A1 (en) * 2015-03-20 2016-09-22 Deepkaran Singh System and method for generating three dimensional representation using contextual information
DE102016105496A1 (de) 2015-03-26 2016-09-29 Faro Technologies Inc. System zur Prüfung von Objekten mittels erweiterter Realität
US10398359B2 (en) * 2015-07-13 2019-09-03 BioMetrix LLC Movement analysis system, wearable movement tracking sensors, and associated methods
US10445898B2 (en) * 2016-02-05 2019-10-15 Sony Corporation System and method for camera calibration by use of rotatable three-dimensional calibration object
US20180182169A1 (en) * 2016-12-22 2018-06-28 Atlatl Software, Inc. Marker for augmented reality employing a trackable marker template
US11432877B2 (en) * 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking
US10216265B1 (en) * 2017-08-07 2019-02-26 Rockwell Collins, Inc. System and method for hybrid optical/inertial headtracking via numerically stable Kalman filter

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8533967B2 (en) 2010-01-20 2013-09-17 Faro Technologies, Inc. Coordinate measurement machines with removable accessories

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISO/IEC-Norm 24778:2008

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112577715A (zh) * 2019-09-27 2021-03-30 三赢科技(深圳)有限公司 点检方法、点检装置及计算机装置
CN112417208A (zh) * 2020-11-20 2021-02-26 百度在线网络技术(北京)有限公司 目标搜索方法、装置、电子设备和计算机可读存储介质

Also Published As

Publication number Publication date
US9824436B2 (en) 2017-11-21
US10657637B2 (en) 2020-05-19
US20180061042A1 (en) 2018-03-01
US20160284079A1 (en) 2016-09-29
US9633481B2 (en) 2017-04-25
US20170193652A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
DE102016105496A1 (de) System zur Prüfung von Objekten mittels erweiterter Realität
EP3056923B1 (de) Scananordnung und verfahren zum scannen eines objektes
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
DE112018002048T5 (de) Hochgenaues kalibriersystem und kalibrierverfahren
DE102008020772A1 (de) Darstellung von Ergebnissen einer Vermessung von Werkstücken
US20120300984A1 (en) Recording the location of a point of interest on an object
DE102008041523A1 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
EP2019283A2 (de) Verfahren und Vorrichtung zur Vermessung von Ist-Messdaten eines Bauteils
WO2021083915A1 (de) Verfahren und mobile erfassungsvorrichtung zur erfassung von infrastrukturelementen eines unterirdischen leitungsnetzwerks
DE102017116854A1 (de) System und Verfahren zum Konfigurieren eines Kennungslesegeräts unter Verwendung einer Mobilvorrichtung
EP1910999A1 (de) Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE112020000410T5 (de) Orientierungsausrichtung von erweiterten realitätsmodellen
DE102017216735A1 (de) Verfahren, System zum Beseitigen von Fahrzeugkarosseriedefekten unter Verwendung einer virtuellen Markierung
DE102014104514B4 (de) Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
DE102019007348A1 (de) Messprogrammauswahlunterstützungsvorrichtung und Messsteuer- bzw. -regelvorrichtung
DE102016215860A1 (de) Trackingloses projektionsbasiertes "Augmented Reality [AR]"-Verfahren und -System zur Montageunterstützung von Produktionsgütern, insbesondere zum Lokalisieren von Nutensteinen für die Bauteilmontage im Waggonbau
DE102013102286A1 (de) Verfahren und Vorrichtung zum Auswerten von Laserscans
DE102018219791A1 (de) Verfahren zum Markieren eines Bereichs eines Bauteils
WO2019185153A1 (de) Verfahren und vorrichtung zum bestimmen von 3d-koordinaten eines objekts
DE102021131060B3 (de) System und Verfahren mit einem System
DE102022132826A1 (de) Verfahren zum 3D-Vermessen einer Umgebung und Scananordnung
DE102020134680A1 (de) Verfahren und Anordnung zur Qualitätsprüfung eines Objekts
DE102022111648A1 (de) Aufsatz mit Raumerfassungsvorrichtung zur Aufnahme durch ein fahrerloses Transportsystem und Verfahren zum Erfassen von Objekträumen
DE102015213557A1 (de) Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung
DE102022121770A1 (de) Verfahren zum kontaktlosen Einlesen von Referenzmarken

Legal Events

Date Code Title Description
R005 Application deemed withdrawn due to failure to request examination