AT522028B1 - Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts - Google Patents

Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts Download PDF

Info

Publication number
AT522028B1
AT522028B1 ATA50006/2019A AT500062019A AT522028B1 AT 522028 B1 AT522028 B1 AT 522028B1 AT 500062019 A AT500062019 A AT 500062019A AT 522028 B1 AT522028 B1 AT 522028B1
Authority
AT
Austria
Prior art keywords
laser
unit
camera
sensor unit
camera system
Prior art date
Application number
ATA50006/2019A
Other languages
English (en)
Other versions
AT522028A1 (de
Original Assignee
AGILOM GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AGILOM GmbH filed Critical AGILOM GmbH
Priority to ATA50006/2019A priority Critical patent/AT522028B1/de
Priority to DE102019135340.8A priority patent/DE102019135340A1/de
Publication of AT522028A1 publication Critical patent/AT522028A1/de
Application granted granted Critical
Publication of AT522028B1 publication Critical patent/AT522028B1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft das Bestimmen von dreidimensionalen Koordinaten von Punkten (9) auf der Oberfläche (10) eines Objekts (11) mit einer 3D-Sensoreinheit (1) aus einer Lasereinheit (2) und einem Mehrfachkamerasystem (3), wobei die Koordinaten der Punkte (9) mittels trigonometrischer Berechnungsverfahren bestimmt werden, und wobei die Lasereinheit (2) auf einer Laserschwenkeinheit (20) angeordnet wird, mit der eine durch die Lasereinheit (2) erzeugte Laserebene (7) um eine Rotationsachse (6) der Lasereinheit (2) schwenkbar ist. Die räumliche Lage der durch die Lasereinheit (2) erzeugten Laserebene (7) wird auf der Basis der räumlichen Lage der Rotationsachse (6) und eines weiteren Punkts (8) der Laserebene (7), der mittels des Mehrfachkamerasystems (3) erfasst wird, bestimmt. Die Koordinaten der Punkte (9) werden basierend auf Messergebnissen einer Messmethode, aus der Gruppe, umfassend Stereovision mittels des zumindest einen Mehrfachkamerasystems (3), Lasertriangulation mittels der Laserebene (7) und der ersten Kamera (4) und Lasertriangulation mittels der Laserebene (7) und der zweiten Kamera (5), berechnet.

Description

Beschreibung
[0001] Die Erfindung betrifft ein Verfahren und eine 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf einer Oberfläche eines Objekts.
[0002] Im Zuge der Automatisierung von unterschiedlichsten Fertigungsprozessen, kommen in modernen Anlagen Messsysteme zum Einsatz, welche es ermöglichen 3D-Abbildungen von Bauteilen zu erzeugen, um beispielsweise für einen anstehenden Fertigungsschritt Informationen vorliegend zu haben, wie das Bauteil auf einer Zuführeinheit orientiert ist.
[0003] Vorteilhafterweise kommen 3D-Messysteme insbesondere beim sogenannten „Griff in die Kiste“, wie die roboterbasierte Vereinzelung chaotisch bereitgestellter Objekte bezeichnet wird, zum Einsatz. Der „Griff in die Kiste“ spielt dabei sowohl bei der Montage- als auch bei der Fertigungsautomation eine große Rolle und ein Roboter, bzw. eine Greifvorrichtung kann hierbei die typische Aufgabe des Transports eines Bauteils aus einem Lagerbereich zu einem Montageund/oder Fertigungsbereich übernehmen. Als ein Beispiel hierfür kann das Be- oder Entladen von Bearbeitungsmaschinen angeführt werden.
[0004] In hochautomatisierten Anwendungen reicht es dabei in der Praxis nicht aus, dass beim „Griff in die Kiste“ von einem Roboter immer die gleiche Bewegung ausgeführt wird, nachdem die zu greifenden Objekte oder Bauteile in der Regel unterschiedlich bzw. chaotisch orientiert sind. Vielmehr ist es notwendig, dass der Roboter, bzw. die Greifvorrichtung durch den Einsatz von 3D-Messystemen auf Anderungen, wie beispielsweise eine abweichende Objektlage reagieren kann.
[0005] Um die Effizienz und Prozesssicherheit von hochautomatisierten Montage- bzw. Fertigungsprozessen zu steigern, ist es vorteilhaft, ein möglichst genaues 3D-Abbild eines Objekts, bzw. Bauteils vorliegen zu haben, um Fehlersituationen ohne Komplikationen möglichst hintanzuhalten.
[0006] Weiters lassen sich durch die dreidimensionale Abbildung von Bauteilen komplexe Geometrien bestimmen, die mit konventionellen taktilen oder Lasermessverfahren nicht zu erfassen sind. Die hierbei erfassten Punkte bzw. Punktwolken erlauben beispielsweise in weiterer Folge einen Abgleich mit vorhandenen 3D-CAD Daten.
[0007] Vorteilhaft bei einem 3D-Messsystem ist auch, dass ein und dasselbe Messsystem für unterschiedliche Bauteile verwendet werden kann, ohne Anpassungen an der Sensoreinrichtung per se vornehmen zu müssen.
[0008] Aus dem Stand der Technik gehen dabei unterschiedliche 3D Messverfahren hervor. Bei einem Lasertriangulationssystem, auch Lichtschnittverfahren genannt, wird eine Laserlinie auf das Objekt projiziert und eine 2D Kamera nimmt die Laserlinie auf. Der Abstand und Winkel zwischen Linienlaser und Kamera ist bekannt. Aus diesen Informationen können 3D Punkte berechnet werden.
[0009] Beispielhaft für Lasertriangulationsverfahren können die DE 102015121673 A1 oder die US 2017299380 A1 genannt werden.
[0010] Für eine Aufnahme der gesamten Szene muss das Objekt oder das Lasertriangulationssystem in einer Achse linear bewegt werden. So wird das Objekt mit dem Laser „durchschnitten“. Ungenauigkeiten in dieser Bewegung haben direkten Einfluss auf die erreichbare Genauigkeit.
[0011] Alternativ zu einer Linearbewegung, kann der Laser auch über das Objekt geschwenkt werden. Hier muss der Winkel zwischen Kamera und Laser genau erfasst und mit den Kamerabildern synchronisiert werden. Bereits kleinste Abweichungen bei der Winkelbestimmung können zu großen Messfehlern führen.
[0012] Weiters werden im Stand der Technik Stereokamerasysteme zur dreidimensional en Bauteilvermessung gezeigt. Bei einem Stereokamerasystem, auch binokulares Sehen genannt, wird mit zwei oder mehreren Kameras ein Objekt betrachtet. Nachdem der gleiche Punkt in beiden
Kameras erkannt wurde, kann mit Hilfe des bekannten Abstandes der beiden Kameras ein Dreieck aufgespannt werden und somit einer oder mehrere 3D Punkte berechnet werden.
[0013] Haben Objekte keine Textur, können beispielsweise gleichmäßige oder chaotische Linienbzw. Punktmuster mit Hilfe eines Lasers oder Projektors aktiv auf das Objekt projiziert werden. Hier ist es besonders wichtig, dass die korrespondierenden Punkte in den verschiedenen Kameras identifiziert werden, um eine möglichst hohe Messgenauigkeit zu erreichen.
[0014] Aus dem Stand der Technik können hierzu als Beispiele die DE 102016118758 A1, die DE 102016002398 A1, die EP 3258211 A1 oder die US 2017195654 A1 genannt werden. In der DE 102016002398 A1 wird zusätzlich ein Mehrfachkamerasystem gezeigt, in welchem mehr als zwei Kameras zum Einsatz kommen, um die Genauigkeit zu erhöhen.
[0015] Wird ein Punkt in einer der Kameras aus dem Stereokamerasystem falsch interpretiert, führt das zu großen Erfassungsfehlern. Abhilfe schaffen kann in diesem Fall beispielsweise ein Linienlaser. Wird hier zur Verbesserung der Messgenauigkeit ein zusätzlicher Multilinienlaser verwendet, ist das Problem einer falschen Identifikation wieder sehr groß, nachdem bei der Messung sichergestellt werden muss, dass alle Kameras des Stereosystems dieselbe Linie betrachten.
[0016] Ein weiterer Nachteil bei diesem Verfahren ist, dass die zu erfassenden Punkte in beiden Kameras sichtbar sein müssen. Wird der Punkt z.B. in einer Kamera abgeschattet ist keine Berechnung möglich.
[0017] Das Dokument US 2009/245616 A1 beschreibt ein Verfahren zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche von Gegenständen, die auf einem Förderband liegend unter einer Videoüberwachungseinrichtung vorbei bewegt werden. Mit einem Laser der Überwachungseinrichtung werden Lichtstrahlen in Form von ebenflächigen Bündeln in einer „Laserebene“ auf das Förderband bzw. die darauf liegenden Gegenstände gerichtet. Eine auf diese Weise erzeugte Laserlinie auf der Oberfläche eines Gegenstands wird von schräg relativ zu der Laserebene ausgerichteten Kameras beobachtet und können durch trigonometrische Auswertung der von den Kameras aufgezeichneten Bilder 3D-Koordinaten und somit die äußere Kontur der Gegenstände berechnet werden. Bei dem beschriebenen Verfahren ist eine feststehende Anordnung der Kameras als auch der Laser vorgesehen, wobei die Laserebene senkrecht zu der Auflageebene des Förderbands ausgerichtet ist. In einer Ausführungsvariante des beschriebenen Verfahrens sind zwei Kameras, die symmetrisch zur Laserebene angeordnet sind, vorgesehen.
[0018] In dem Dokument EP 1 777 485 A1 wird eine Vorrichtung zur optischen Vermessung der äußeren Gestalt von Objekten mit einer Laserprojektionsvorrichtung und einer Kamera beschrieben. Bei der Vermessung werden mehrere einander kreuzende Laserlinien auf die Oberfläche des Gegenstandes projiziert. Aus der Position des entsprechenden Schnittpunkts der Laserlinien, wie sie in dem von der Kamera aufgezeichneten Bild erscheint, können die räumlichen Koordinaten des entsprechenden Punktes der Oberfläche des Gegenstandes berechnet werden.
[0019] In dem Dokument CN 107816942 A wird ein Verfahren zur Vermessung der äußeren Form von Gegenständen mit einer Laserprojektionsvorrichtung und einer Kamera beschrieben. Durch die Laserprojektionsvorrichtung werden dabei Laserebenen bzw. Laserlinien erzeugt, die einander auf der Oberfläche des Objekts kreuzen.
[0020] Aufgabe der vorliegenden Erfindung war es, die Nachteile des Standes der Technik zu überwinden und ein Verfahren sowie eine geeignete Vorrichtung zur Durchführung dieses Verfahren zu schaffen, mit welchem die Maß- und Passgenauigkeit eines dreidimensionalen Messystems für technische Bauteile, zum Einsatz für Fertigungsprozesse mit überdurchschnittlichen Anforderungen, verbessert wird.
[0021] Diese Aufgabe wird durch ein Verfahren und eine Vorrichtung gemäß den Ansprüchen gelöst.
[0022] Die Erfindung betrifft ein Verfahren zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf einer Oberfläche eines Objekts, insbesondere eines technischen Bauteils, mit
einer 3D-Sensoreinheit umfassend zumindest eine Lasereinheit und zumindest ein Mehrfachkamerasystem, umfassend wenigstens eine erste Kamera und eine zweite Kamera. Die dreidimensionalen Koordinaten eines oder mehrerer Punkte auf der Oberfläche des Objekts werden mittels trigonometrischer Berechnungsverfahren bestimmt, wobei das Verfahren durch folgende Schritte gekennzeichnet ist:
Bestimmen der räumlichen Lage einer durch die Lasereinheit erzeugten Laserebene mittels des Mehrfachkamerasystems;
Bestimmen der dreidimensionalen Koordinaten der Punkte auf der Oberfläche des Objekts mittels eines trigonometrischen Berechnungsverfahrens, wobei das Berechnungsverfahren auf Messergebnissen einer Messmethode basiert, die ausgewählt ist aus der Gruppe umfassend:
- Stereovision mittels des zumindest einen Mehrfachkamerasystems;
- Lasertriangulation mittels der Laserebene und der ersten Kamera;
- Lasertriangulation mittels der Laserebene und der zweiten Kamera.
[0023] Vorteilhafterweise kann auf Basis der kalibrierten Laserachse der Lasereinheit die Bestimmung der Laserebene erfolgen. Zur vollständigen Bestimmung der Laserebene wird im Zuge des erfindungsgemäßen Verfahrens mindestens ein weiterer Punkt der Laserebene mittels des Mehrfachkamerasystems bestimmt.
[0024] Um ein trigonometrisches Berechnungsverfahren auf Basis einer Messung durch ein Stereosystem durchführen zu können, ist ein Mehrfachkamerasystem wie ein Stereokamerasystem vorgesehen. Sobald nun ein Punkt in der betrachteten Laserebene mit Hilfe des Stereokamerasystems ermittelt wurde, kann die Laserebene bestimmt werden. Mit Hilfe der Laserebene, kann zusätzlich zur Berechnung der Punkte über das Stereokamerasystem, jeder Punkt auf dem zu vermessenden Objekt über das Triangulationsprinzip bzw. eine Lasertriangulation berechnet werden.
[0025] Vorteilhafterweise können damit auch Punkte zuverlässig berechnet werden, die bei einem herkömmlichen Stereokamerasystem bzw. Stereovisionssystem durch eine Abschattung nicht sichtbar sind.
[0026] Erfindungsgemäß kann somit jeder Punkt auf der Oberfläche des Objekts über drei unterschiedliche Wege berechnet werden:
- Stereovision mittels des Mehrfachkamerasystems;
- Lasertriangulation mittels der Laserebene und der ersten Kamera des Mehrfachkamerasystems; - Lasertriangulation mittels der Laserebene und der zweiten Kamera des Mehrfachkamerasystems.
[0027] Über eine zusätzliche, optionale Bewertung der Laserqualität (z.B. Breite der Laserlinie, Intensität des Lasers, ...) kann entschieden werden, welches Verfahren die zuverlässigsten Daten liefert. Darauf basierend ist eine Klassifizierung von einzelnen Messergebnissen denkbar.
[0028] Des Weiteren kann es zweckmäßig sein, dass die Laserebene über die Rotationsachse der Lasereinheit als Referenzebene bestimmt wird.
[0029] Die Kalibrierung der Rotationsachse der Lasereinheit erfolgt, indem die Laserebenen mit 3D Punkten aus dem Stereokamerasystem selbst bestimmt wird. Anschließend wird der Laser um einen bestimmten bzw. bekannten Winkel verdreht. In Anschluss daran wird wieder die Laserebene aus den 3D Punkten bestimmt. Wenn in weiterer Folge mehrere Ebenen bestimmt sind, kann die Drehebene zuverlässig abgeleitet werden. Bei der Referenzebene handelt es sich somit vorteilhafterweise um die Laserdrehachse.
[0030] Ferner kann vorgesehen sein, dass die dreidimensionalen Koordinaten der Punkte auf der Oberfläche des Objekts mittels eines trigonometrischen Berechnungsverfahrens bestimmt werden, wobei das Berechnungsverfahren auf Messergebnissen einer Kombination von Messmethoden basiert, die ausgewählt sind aus der Gruppe umfassend
- Stereovision mittels des zumindest einen Mehrfachkamerasystems;
- Lasertriangulation mittels der Laserebene und der ersten Kamera;
- Lasertriangulation mittels der Laserebene und der zweiten Kamera.
[0031] Um die Qualität von mit dem erfindungsgemäßen Verfahren bestimmten dreidimensionalen Koordinaten von Punkten zu erhöhen, ist es vorteilhaft, wenn die Koordinaten von Punkten mit unterschiedlichen Messmethoden bestimmt werden und darauf basierend ein Vergleich der Messergebnisse erfolgt.
[0032] Wird mit den Berechnungen, basierend auf den Messergebnissen der unterschiedlichen Messverfahren, jeweils der gleiche Punkt bzw. die gleichen Koordinaten eines Punktes berechnet, So liegt eine hohe Zuverlässigkeit der Messung bzw. der Berechnung vor. Ist das nicht der Fall, kann beispielsweise ein abweichend berechneter Punkt durch eine unerwünschte Reflexion am Objekt oder in der Umgebung entstanden sein. Damit ist mit dem erfindungsgemäßen Verfahren auch eine sichere Erkennung von falschen Punkten, im Zuge einer Plausibilitätsprüfung, möglich.
[0033] Zusätzlich kann überprüft werden, ob ein Punkt, welcher basierend auf Messungen des Stereosystems berechnet wurde, auf der Laserebene der kalibrierten Drehachse der Lasereinheit liegt. Ist das nicht der Fall, handelt es sich auch hier um einen Fehlerpunkt. Über eine nachgeschaltete Auswertung können somit Fehlerpunkte bereits im Vorfeld aussortiert werden und die Qualität der gemessenen Punkte auf der Oberfläche eines Objekts kann weiterhin gesteigert werden.
[0034] Darüber hinaus kann vorgesehen sein, dass die Lasereinheit auf einer Laserschwenkeinheit angeordnet ist, welche dazu ausgebildet ist, die Lasereinheit um eine Rotationsachse zu verschwenken, wobei ein Rotationswinkel der Lasereinheit mittels des zumindest einen Mehrfachkamerasystems bestimmt wird.
[0035] Der Rotationswinkel bzw. Rotationsvektor der Laserschwenkeinheit wird mit Hilfe einer Reihe von Profilschnitten ermittelt. Die Rotationsachse der Lasereinheit muss somit nur einmal ermittelt werden und wird mit den Kalibrierdaten abgespeichert. Lasereinheit und Mehrfachkamerasystem müssen somit vorteilhafterweise nicht auf einer gemeinsamen Achse angeordnet sein und es ist eine beliebige Anordnung im Raum bzw. innerhalb der Sensoreinheit möglich, was die Flexibilität des Systems maßgeblich erhöht. In weiterer Folge, wenn mit dem Stereokamerasystem bereits 3D Punkte berechnet wurden, kann verifiziert werden, ob diese Punkte mit der kalibrierten Drehachse korrelieren.
[0036] Vorteilhaft ist auch eine Ausbildung des Verfahrens, gemäß welcher vorgesehen sein kann, dass die Lasereinheit mittels der Laserschwenkeinheit um die Rotationsache über einen Arbeitsbereich geschwenkt wird, in welchem Arbeitsbereich zumindest das Objekt, insbesondere ein technisches Bauteil, teilweise oder vollständig lagert.
[0037] Um den gesamten Arbeitsbereich mit der Lasereinheit abtasten bzw. beleuchten zu können ist die Lasereinheit vorteilhafterweise auf einer Laserschwenkeinheit angeordnet. Alternativ dazu ist es auch denkbar, dass ein Objekt auf einer Transportstrecke unter der Sensoreinheit verfahren werden kann.
[0038] Gemäß einer Weiterbildung ist es möglich, dass die 3D-Sensoreinheit zumindest eine dritte Kamera umfasst, die durch eine Farbkamera gebildet ist und mittels welcher Farbinformationen auf der Oberfläche des Objekts erfasst werden.
[0039] Vorteilhafterweise ist das Mehrfachkamerasystem mit optischen Filtern ausgestattet, welche auf die Wellenlänge des Lasers abgestimmt sind. Hierbei kann die Wellenlänge abhängig vom Material bzw. der Oberfläche des zu vermessenden Objekts ausgewählt sein. Um nun auch Farbinformationen auf der Oberfläche erfassen zu können, ist es vorteilhaft, wenn die 3D-Sensoreinheit eine zusätzliche Farbkamera umfasst.
[0040] Weiters betrifft die Erfindung eine 3D-Sensoreinheit, insbesondere zur Ausführung eines Verfahrens zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf einer Oberfläche eines Objekts, umfassend zumindest eine Lasereinheit und zumindest ein Mehrfachkamerasystem, umfassend wenigstens eine erste Kamera und eine zweite Kamera, dadurch gekennzeichnet, dass die Lasereinheit auf einer Laserschwenkeinheit angeordnet ist, welche dazu aus-
gebildet ist, die Lasereinheit um eine Rotationsachse zu verschwenken.
[0041] Die Anordnung der Lasereinheit auf einer Laserschwenkeinheit bietet den Vorteil, dass die Lasereinheit über einen Arbeitsbereich verschwenkt werden kann und somit die Flexibilität der erfindungsgemäßen 3D-Sensoreinheit erhöht werden kann.
[0042] Ferner kann es zweckmäßig sein, wenn ein Arbeitsbereich der 3D-Sensoreinheit durch den Aufnahmebereich des Mehrfachkamerasystems bestimmt wird.
[0043] Die einzelnen Kameras des Mehrfachkamerasystems weisen hierbei jeweils einen Aufnahmebereich auf. Jener Bereich, in welchem sich die einzelnen Aufnahmebereiche der einzelnen Kameras überschneiden, definiert den Arbeitsbereich, in welchem zuverlässige Messungen durchgeführt werden können.
[0044] Darüber hinaus kann vorgesehen sein, dass das Mehrfachkamerasystem als monochromes Mehrfachkamerasystem ausgebildet ist, wobei der Farbbereich durch die Wellenlänge der Lasereinheit bestimmt wird.
[0045] Das Kamerasystem ist vorteilhafterweise mit optischen Filtern ausgestattet, welche auf die Wellenlänge des Lasers abgestimmt sind. Weiters kann die Wellenlänge des Lasers in Abhängigkeit vom Material bzw. der Oberfläche der zu vermessenden Bauteile, definiert werden. Somit können störende Umgebungseinflüsse weitgehend eliminiert werden.
[0046] Des Weiteren kann vorgesehen sein, dass die 3D-Senoreinheit zumindest eine dritte Kamera, die durch eine Farbkamera gebildet ist, umfasst, welche dazu ausgebildet ist, Farbinformationen auf dem zu erfassenden Objekt zu erfassen.
[0047] Um Farben auf der Oberfläche des zu erfassenden Objekts aufnehmen bzw. erfassen zu können, umfasst die erfindungsgemäße 3D-Sensoreinheit vorteilhafterweise eine zusätzliche Farbkamera. Somit können, neben Objektgeometrien auch Farbinformationen erfasst werden und das 3D-Modell eines Objekts mit Farben ergänzt werden.
[0048] Gemäß einer besonderen Ausprägung ist es möglich, dass zumindest eine der Kameras des Mehrfachkamerasystems und/oder die Farbkamera auf einer Kameraschwenkeinheit angeordnet ist, welche dazu ausgebildet ist, die Kamera um eine Rotationsachse zu verschwenken.
[0049] Um die Flexibilität der erfindungsgemäßen 3D-Sensoreinheit weiter zu erhöhen, kann es vorgesehen sein, dass die Kameras schwenkbar an oder in der 3D-Sensoreinheit angeordnet sind. Mit einer schwenkbaren Anordnung kann der Arbeitsbereich angepasst bzw. erweitert werden oder die Erfassung von Objekten mit komplexen Geometrien verbessert werden.
[0050] Entsprechend einer vorteilhaften Weiterbildung kann vorgesehen sein, dass die Laserschwenkeinheit zu dem Mehrfachkamerasystem in der Art positioniert ist, dass die Lasereinheit über den gesamten Aufnahmebereich des Mehrfachkamerasystems geschwenkt werden kann.
[0051] Gegenüber einer starren Anordnung eines Lasers, bietet die erfindungsgemäße Laserschwenkeinheit den Vorteil, dass der gesamte Arbeitsbereich mittels des Lasers abgetastet, bzw. beleuchtet werden kann. Somit können Objekte, welche im Arbeitsbereich lagern, zuverlässig erfasst werden.
[0052] Insbesondere kann es vorteilhaft sein, wenn die zumindest eine Lasereinheit einen Linienlaser und/oder einen Multilinienlaser umfasst, welche dazu ausgebildet sind, eine Linie und/ oder ein Linienmuster auf ein Objekt zu projizieren.
[0053] Wird ein Multilinienlaser verwendet, können mit einem Punkt mehrere Laserebenen bestimmt werden. Um hierbei der Problematik der falschen Zuordnung des Laserstrahls in den beiden Kameras entgegen zu wirken, kann der Laserstrahl bzw. die Laserlinie identifiziert werden, indem zusätzlich die Rotationsachse berechnet wird. Ergibt das nicht die kalibrierte Achse, ist es sehr wahrscheinlich das die Laserlinie falsch identifiziert wurde. Hiermit kann das erfindungsgemäße Verfahren sehr robust gegenüber Fehlerpunkten ausgestaltet werden.
[0054] Ferner kann vorgesehen sein, dass die 3D-Sensoreinheit eine Schwenk- und/oder An-
triebsvorrichtung umfasst, welche dazu ausgebildet ist, die 3D-Sensoreinheit entlang eines zu erfassenden Objektes zu verschwenken und/oder zu verfahren.
[0055] Hiermit kann die Flexibilität des Systems weiterhin erhöht werden, indem die 3D- Sensoreinheit auch zur Messung von großen Objekten, bzw. beweglichen Objekten eingesetzt werden kann und entlang eines Objektes geschenkt oder verfahren werden kann.
[0056] Darüber hinaus kann vorgesehen sein, dass die 3D-Sensoreinheit zumindest eine Auswerteeinheit, eine Energieversorgungseinheit und/oder zumindest eine drahtlose Schnittstelle umfasst, wobei die zumindest eine drahtlose Schnittstelle dazu ausgebildet ist, Daten zu empfangen und/oder zu übertragen.
[0057] Um die 3D-Sensoreinheit als autarkes bzw. autonomes System betreiben zu können, weist die 3D-Sensoreinheit vorteilhafterweise eine Auswerteeinheit, eine Energieversorgungseinheit und/oder zumindest eine drahtlose Schnittstelle auf. Mittels der Auswerteeinheit können somit direkt, ohne vorangegangene Datenübertragung, einzelne Messungen miteinander verglichen und die Qualität von Messpunkten bestimmt werden. Mittels der drahtlosen Schnittstelle können weiters Daten übertragen bzw. empfangen werden, ohne die 3D-Sensoreinheit mit Kabeln an eine externe Einheit anschließen zu müssen. Insgesamt besteht also der Vorteil, dass mittels eines autarken bzw. autonomen Systems der Einsatzbereich, bzw. Einsatzort der erfindungsgemäßen 3D-Sensoreinheit weiterhin umfangreicher ausgestaltet werden kann.
[0058] Zum besseren Verständnis der Erfindung wird diese anhand der nachfolgenden Figuren näher erläutert.
[0059] Es zeigen jeweils in stark vereinfachter, schematischer Darstellung: [0060] Fig. 1 eine 3D-Sensoreinheit mit einer Lasereinheit und einem Mehrfachkamerasystem;
[0061] Fig. 2 eine 3D-Sensoreinheit mit einer Lasereinheit und einem Mehrfachkamerasystem in einer dreidimensionalen Ansicht;
[0062] Fig. 3 eine 3D-Sensoreinheit mit einer Farbkamera, einer Auswerteeinheit, einer Energieversorgungseinheit und einer drahtlosen Schnittstelle;
[0063] Fig. 4 eine 3D-Sensoreinheit mit einer Schwenk- und Antriebsvorrichtung;
[0064] Fig. 5 eine 3D-Sensoreinheit mit einem Multilinienlaser und einem Mehrfachkamerasystem;
[0065] Fig. 6 ein Ablaufdiagramm zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf einer Oberfläche eines Objekts.
[0066] Einführend sei festgehalten, dass in den unterschiedlich beschriebenen Ausführungsformen gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen versehen werden, wobei die in der gesamten Beschreibung enthaltenen Offenbarungen sinngemäß auf gleiche Teile mit gleichen Bezugszeichen bzw. gleichen Bauteilbezeichnungen übertragen werden können. Auch sind die in der Beschreibung gewählten Lageangaben, wie z.B. oben, unten, seitlich usw. auf die unmittelbar beschriebene sowie dargestellte Figur bezogen und sind diese Lageangaben bei einer Lageänderung sinngemäß auf die neue Lage zu übertragen.
[0067] In Fig. 1 und Fig. 2 ist eine 3D-Sensoreinheit 1 mit einer Lasereinheit 2 und einem Mehrfachkamerasystem 3 gezeigt, wobei in Fig. 2 die 3D-Sensoreinheit 1 mit der Lasereinheit 2 und dem Mehrfachkamerasystem 3 in einer dreidimensionalen Ansicht dargestellt ist.
[0068] Das Mehrfachkamerasystem 3 umfasst in dem gezeigten Ausführungsbeispiel eine erste Kamera 4 und eine zweite Kamera 5, um Messungen mittels Stereovision durchführen zu können. In einem nicht dargestellten Ausführungsbeispiel kann das Mehrfachkamerasystem 3 auch mehr als zwei Kameras 4, 5 umfassen.
[0069] Initial wird eine Rotationsachse 6 der Lasereinheit 2, bzw. die Laserachse im Zuge einer Kalibrierung kalibriert und somit bestimmt. Zur vollständigen Bestimmung einer Laserebene 7 wird im Zuge des erfindungsgemäßen Verfahrens mindestens ein weiterer Punkt 8 der Laser-
ebene 7 mittels des Mehrfachkamerasystems 3 bestimmt.
[0070] Nachdem die Lage der Laserebene 7 bzw. die Laserebene 7 insgesamt bestimmt wurde, stehen nun mit der erfindungsgemäßen 3D-Sensoreinheit 1 unterschiedliche trigonometrische Messmethoden zur Bestimmung eines Punktes 9 auf einer Oberfläche 10 eines Objekts 11 zur Verfügung.
[0071] Einerseits kann ein Punkt 9 auf der Oberfläche 10 des Objekts 11 über Stereovision ermittelt werden, wobei die dreidimensionalen Koordinaten des Punktes 9 mittels trigonometrischer Berechnungsverfahren berechnet werden können. Ähnlich wie beim menschlichen Sehen wird bei der Stereovision das Objekt 11 von zwei Kameras 4, 5 des erfindungsgemäßen Mehrfachkamerasystems 3 betrachtet. Die Kamerabilder der beiden Kameras 4, 5 werden verglichen, um identische Teile des Objekts 11 zu identifizieren. Anschließend können die Koordinaten, jener in beiden Kameras 4, 5 identifizierten Punkte 9 auf der Oberfläche 10 des Objekts 11, nach dem Triangulationsverfahren berechnet werden.
[0072] Andererseits können die Koordinaten des Punktes 9 auf der Oberfläche 10 des Objekts 11 basierend auf einer Lasertriangulation mittels der Laserebene 7 und der ersten Kamera 4 bzw. der zweiten Kamera 5 jeweils berechnet werden. Bei der Lasertriangulation wird ein Laserstrahl 12, welcher von der Lasereinheit 2 auf die Oberfläche 10 des Objekts 11 projiziert wird, von der Oberfläche 10 des Objekts 11 in Form eines Reflexionsstrahls 13, 14 reflektiert. Von einer Kamera 4, 5 wird die Reflexion an der Oberfläche 10 des Objekts 11 detektiert und die Position des Reflexionsstrahls 13, 14 auf dem Sensor 15, 16 der Kamera 4, 5 detektiert. Uber die Winkelbeziehungen im entstandenen Dreieck zwischen Laserebene 7 und Reflexionsstrahl 13, 14, lassen sich die Koordinaten des Punktes 9 auf der Oberfläche 10 des Objekts 11 berechnen, jeweils mittels des Reflexionsstrahls 13 der ersten Kamera 4 und der Laserebene 7 und mittels des Reflexionsstrahls 14 der zweiten Kamera 5 und der Laserebene 7.
[0073] Um nun verifizieren zu können, ob ein Punkt 9 auf der Oberfläche 10 des Objekts 11, insbesondere des technischen Bauteils, richtig berechnet wurde, kann ein Vergleich der berechneten dreidimensionalen Koordinaten des Punktes 9, welche entweder auf Basis der Stereovision oder auf Basis der Lasertriangulationen berechnet wurden, angestellt werden, um zu verifizieren, ob der Punkt 9 richtig berechnet, respektive gemessen wurde. Stimmen die Koordinaten des Punktes 9, basierend auf allen durchgeführten Messungen überein, so kann das Ergebnis verifiziert werden und es liegt eine zuverlässige Bestimmung des Punktes 9 vor.
[0074] Weiters ist in Fig. 1 ersichtlich, dass durch die Kameras 4, 5 des Mehrfachkamerasystems 3 ein Arbeitsbereich 17 bestimmt wird. Jede Kamera 4, 5 weist einen Aufnahmebereich 18, 19 auf, in welchem ein Bild bzw. Objekt 11 von der Kamera 4, 5 erfasst werden kann. In jenem Bereich, in welchem sich die Aufnahmebereiche 18, 19 zweier Kameras 4, 5 überschneiden, bzw. überlappen, kann ein Bild des Objekts 11 von beiden Kameras 4, 5 erfasst werden. In diesem Arbeitsbereich 17 kann somit von beiden Kameras 4, 5 ein Bild von dem Objekt 11 aufgenommen werden.
[0075] Um nun den gesamten Arbeitsbereich 17 mittels eines von der Lasereinheit 2 ausgesendeten Laserstrahls 12 abtasten zu können, bzw. um die Laserebene 7, welche mittels der Lasereinheit 2 erzeugt wird, entlang des Arbeitsbereichs verfahren zu können, ist vorteilhafterweise eine Laserschwenkeinheit 20 vorgesehen, in welcher die Lasereinheit 2 gelagert ist, bzw. die Lasereinheit 2 von der Laserschwenkeinheit 20 aufgenommen ist.
[0076] Ferner können die Kameras 4, 5 jeweils auf einer Kameraschwenkeinheit 21, 22 angeordnet sein, mittels welcher die Kameras 4, 5 um ihre Rotationsachse 23, 24 verschwenkt werden können. Hiermit kann der Aufnahmebereich 18, 19 der Kameras 4, 5 verstellt und somit beispielsweise der Arbeitsbereich 17 vergrößert oder verschoben werden.
[0077] Fig. 3 zeigt ein Ausführungsbeispiel einer 3D-Sensoreinheit 1 mit einer weiteren Kamera 25, welche als Farbkamera 26 ausgebildet ist, einer Auswerteeinheit 27, einer Energieversorgungseinheit 28 und einer drahtlosen Schnittstelle 29. Nachdem die Kameras 4, 5 des Mehrfachkamerasystems 3 mit optischen Filtern ausgestattet sein können, welche auf die Wellenlänge des
Lasers der Lasereinheit 2 abgestimmt sind, kann zur Aufnahme von Farbinformationen auf der Oberfläche 10 des zu vermessenden Objekts 11 eine zusätzliche Farbkamera 26 an oder innerhalb der 3D-Sensoreinheit 1 vorgesehen sein. Mit der Farbkamera 26 können somit auch neben Objektgeometrien, Farbinformationen auf der Oberfläche 10 des Objekts 11 aufgenommen werden und gemeinsam mit der Objektgeometrie zur Darstellung bzw. Abbildung des Objekts 11 herangezogen werden. Die Farbkamera 26 kann hierbei auch auf einer Kameraschwenkeinheit 30 angeordnet sein, um die Farbkamera 26 um eine Rotationsachse XX der Farbkamera 26 zu verschwenken.
[0078] Weiters kann gemäß dem in Fig. 3 gezeigten Ausführungsbeispiel die erfindungsgemäße 3D-Sensoreinheit 1 als autonome Einheit betrieben werden. Hierzu kann die 3D-Sensoreinheit 1 eine Auswerteeinheit 27 umfassen, mittels welcher die berechneten Koordinaten eines Punktes 9, basierend auf unterschiedlichen Messmethoden, verglichen bzw. verifiziert werden. Alternativ bzw. zusätzlich dazu können die Koordinaten über die drahtlose Schnittstelle 29 übertragen und in einer externen Einheit verglichen bzw. zu einem Gesamtmodell des Objekts 11 zusammengesetzt werden. Bei der drahtlosen Schnittstelle 29 kann es sich um eine Schnittstelle gemäß einem der Funkstandards, WIFI, Bluetooth oder NFC bzw. einer Kombination daraus handeln.
[0079] Zusätzlich ist in Fig. 3 schematisch die Energieversorgungseinheit 28 angedeutet. Hierbei kann es sich um eine Batterie oder einen Akkumulator handeln, mit der bzw. dem die 3D-Sensoreinheit 1 mit der notwendigen Energie versorgt wird. Mit den in Fig. 3 gezeigten drahtlosen Komponenten kann die Flexibilität der 3D-Sensoreinheit 1 in Hinblick auf einen Einsatzbereich bzw. Einsatzort gesteigert werden.
[0080] Weiters ist in Fig. 4 eine 3D-Sensoreinheit 1 mit einer Schwenkvorrichtung 32 und einer Antriebsvorrichtung 33 gezeigt. In der gezeigten alternativen Ausführungsform ist die 3D-Sensoreinheit 1 insgesamt verschwenkbar bzw. verfahrbar angeordnet. Hierbei kann die 3D-Sensoreinheit 1 in einer Aufnahmevorrichtung 34 gelagert bzw. angeordnet sein. Mittels der Schwenkvorrichtung 32 kann die gesamte 3D-Sensoreinheit 1 um eine Rotationsachse 35 verdreht bzw. geschwenkt werden, um den Arbeitsbereich 17 zu verändern bzw. zu variieren, um beispielsweise Objekte 11 mit komplexer Geometrie zu vermessen.
[0081] Weiters kann die 3D-Sensoreinheit 1 entlang einer horizontalen oder vertikalen Achse mittels der Aufnahmevorrichtung 34 verfahrbar sein, um somit die Flexibilität der 3D-Sensoreinheit 1 in Hinblick auf komplexe Bauteilgeometrien oder unterschiedliche Objektgrößen zu erhöhen. Mittels der Antriebsvorrichtung 33 kann beispielsweise die 3D-Sensoreinheit 1 entlang eines Objektes 11 verfahren werden, um dieses über die gesamte Größe zu erfassen. Alternativ dazu kann auch ein Objekt 11 auf einer nicht gezeigten Förderbahn, wie einem Transportband unter der 3D-Sensoreinheit 1 verfahren werden.
[0082] Fig. 5 zeigt eine alternative Ausführungsform einer 3D-Sensoreinheit 1 mit einem Multilinienlaser 36 und einem Mehrfachkamerasystem 3. Die Lasereinheit 2 ist hierbei als Multilinienlaser 36 ausgebildet, mittels welchem mehrere Laserebenen 7 gleichzeitig erzeugt werden können und somit mehrere Punkte 9 auf der Oberfläche 10 eines Objekts 11 gleichzeitig bestimmt werden können.
[0083] In Fig. 6 ist schließlich ein Ablaufdiagramm eines Verfahrens zum Bestimmen von dreidimensionalen Koordinaten von Punkten 9 auf der Oberfläche des Objekts abgebildet. Im ersten Schritt wird mittels der Kameras 4, 5 des Mehrfachkamerasystems 3 ein Bild einer Szene aufgenommen, in welchem eine Laserebene 7 erkannt wird. In Anschluss daran erfolgt eine Transformation der Laserebene 7 in das binokular-rektifizierte Bildkoordinatensystem. Danach werden die dreidimensionalen Koordinaten eines Punktes 9 auf der Oberfläche 10 eines Objekts 11, basierend auf einer Messung mittels Stereovision berechnet. Zusätzlich, nachdem die Laserebene 7 nun bekannt ist, wird der Punkt 9 einmal durch Lasertriangulation mittels der ersten Kamera 4 und der Laserebene 7 berechnet und einmal durch Lasertriangulation mittels der zweiten Kamera 5 und der Laserebene 7 berechnet. Somit liegen in diesem Beispiel drei Berechnungen der dreidimensionalen Koordinaten eines Punktes 9 vor, welche in einem abschließenden Schritt miteinander verglichen werden können. Stimmen die aufgrund der unterschiedlichen Messergebnisse
berechneten dreidimensionalen Koordinaten des Punkts 9 überein, so wurde der Punkt 9 richtig gemessen. Ist das nicht der Fall, so kann es zur Ausgabe einer Fehlermeldung kommen, woraufhin das Verfahren zum Bestimmen der dreidimensionalen Koordinaten des Punktes 9 erneut durchlaufen werden kann.
[0084] Der Schutzbereich ist durch die Ansprüche bestimmt. Die Beschreibung und die Zeichnungen sind jedoch zur Auslegung der Ansprüche heranzuziehen. Einzelmerkmale oder Merkmalskombinationen aus den gezeigten und beschriebenen unterschiedlichen Ausführungsbeispielen können für sich eigenständige erfinderische Lösungen darstellen. Die den eigenständigen erfinderischen Lösungen zugrundeliegende Aufgabe kann der Beschreibung entnommen werden.
[0085] Der Ordnung halber sei abschließend darauf hingewiesen, dass zum besseren Verständnis des Aufbaus Elemente teilweise unmaßstäblich und/oder vergrößert und/oder verkleinert dargestellt wurden.
BEZUGSZEICHENLISTE
1 3D-Sensoreinheit 25 dritte Kamera 2 Lasereinheit 26 Farbkamera 3 Mehrfachkamerasystem 27 Auswerteeinheit 4 erste Kamera 28 Energieversorgungseinheit 5 zweite Kamera 29 drahtlose Schnittstelle 6 Rotationsachse Lasereinheit 30 Kameraschwenkeinheit Farb7 Laserebene kamera 8 Punkt Laserebene 31 _Rotationsachse Farbkamera 9 Punkt Objektoberfläche 32 Schwenkvorrichtung 10 Oberfläche 33 Antriebsvorrichtung 11 Objekt 34 Aufnahmevorrichtung 12 Laserstrahl 35 Rotationsachse 3D-Sen13 Reflexionsstrahl erste Kamera soreinheit 14 Reflexionsstrahl zweite Ka- 36 Multilinienlaser mera
15 Sensor erste Kamera
16 Sensor zweite Kamera
17 Arbeitsbereich
18 Aufnahmebereich erste Kamera
19 Aufnahmebereich zweite Kamera
20 Laserschwenkeinheit
21 Kameraschwenkeinheit erste Kamera
22 Kameraschwenkeinheit zweite Kamera
23 Rotationsachse erste Kamera
24 Rotationsachse zweite Ka-
mera

Claims (15)

Patentansprüche
1. Verfahren zum Bestimmen von dreidimensionalen Koordinaten von Punkten (9) auf einer Oberfläche (10) eines Objekts (11) mit einer 3D-Sensoreinheit (1), umfassend zumindest eine Lasereinheit (2) und zumindest ein Mehrfachkamerasystem (3) mit wenigstens einer ersten Kamera (4) und einer zweiten Kamera (5), wobei die dreidimensionalen Koordinaten der Punkte (9) mittels trigonometrischer Berechnungsverfahren bestimmt werden, dadurch gekennzeichnet,
- dass die Lasereinheit (2) auf einer Laserschwenkeinheit (20) angeordnet wird, mit der eine durch die Lasereinheit (2) erzeugte Laserebene (7) um eine Rotationsachse (6) der Lasereinheit (2) schwenkbar ist,
- und dass die räumliche Lage der durch die Lasereinheit (2) erzeugten Laserebene (7) auf der Basis der räumlichen Lage der Rotationsachse (6) und mindestens eines weiteren Punkts (8) der Laserebene (7), der mittels des Mehrfachkamerasystems (3) erfasst wird, bestimmt wird;
- und dass die dreidimensionalen Koordinaten der Punkte (9) basierend auf Messergebnissen einer Messmethode, die ausgewählt ist aus einer Gruppe, umfassend Stereovision mittels des zumindest einen Mehrfachkamerasystems (3), Lasertriangulation mittels der Laserebene (7) und der ersten Kamera (4) und Lasertriangulation mittels der Laserebene (7) und der zweiten Kamera (5), berechnet werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass vor dem Bestimmen der dreidimensionalen Koordinaten von Punkten (9) auf einer Oberfläche (10) eines Objekts (11) die Rotationsachse (6) der Lasereinheit (2) kalibriert wird, indem eine erste Laserebene mit durch das Mehrfachkamerasystems (3) erfassten Punkten (8, 9) bestimmt wird und nach Verdrehen der Lasereinheit (2) um einen Winkel anschließend eine zweite Laserebene mit durch das Mehrfachkamerasystems (3) erfassten Punkten (8, 9) bestimmt wird und aus der ersten Laserebene und der zweiten Laserebene die Rotationsachse (6) der Lasereinheit (2) abgeleitet wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Berechnungsverfahren auf Messergebnissen einer Kombination von Messmethoden basiert, die ausgewählt sind aus der Gruppe umfassend - Stereovision mittels des zumindest einen Mehrfachkamerasystems (3);
- Lasertriangulation mittels der Laserebene (7) und der ersten Kamera (4);
- Lasertriangulation mittels der Laserebene (7) und der zweiten Kamera (5), und
dass ein Vergleich der berechneten dreidimensionalen Koordinaten des Punktes (9), welche entweder auf Basis der Stereovision oder auf Basis der Lasertriangulationen berechnet wurden, angestellt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Rotationswinkel, um den die Lasereinheit (2) um die Rotationsachse (6) verschwenkt wird, mittels des zumindest einen Mehrfachkamerasystems (3) bestimmt wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Lasereinheit (2) mittels der Laserschwenkeinheit (20) um die Rotationsachse (6) über einen Arbeitsbereich (17) geschwenkt wird, in welchem Arbeitsbereich (17) zumindest das Objekt (11) teilweise oder vollständig lagert.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die 3D-Sensoreinheit (1) zumindest eine dritte Kamera (25) umfasst, die durch eine Farbkamera (26) gebildet ist und mittels welcher Farbinformationen auf der Oberfläche (10) des Objekts (11) erfasst werden.
7. 3D-Sensoreinheit (1) zur Ausführung des Verfahrens nach einem oder mehreren der vorhergehenden Ansprüche, umfassend zumindest eine Lasereinheit (2) und zumindest ein Mehrfachkamerasystem (3) mit wenigstens einer ersten Kamera (4) und einer zweiten Kamera (5), dadurch gekennzeichnet, dass die Lasereinheit (2) auf einer Laserschwenkeinheit (20)
angeordnet ist, welche dazu ausgebildet ist, die Lasereinheit (2) um eine Rotationsachse (6) zu verschwenken.
8. 3D-Sensoreinheit (1) nach Anspruch 7, dadurch gekennzeichnet, dass ein Arbeitsbereich (17) der 3D- Sensoreinheit (1) durch den Aufnahmebereich (18, 19) des Mehrfachkamerasystems (3) bestimmt wird.
9. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 oder 8, dadurch gekennzeichnet, dass das Mehrfachkamerasystem (3) als monochromes Mehrfachkamerasystem (3) ausgebildet ist, wobei der Farbbereich durch die Wellenlänge der Lasereinheit (2) bestimmt wird.
10. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die 3D-Senoreinheit zumindest eine dritte Kamera (25), die durch eine Farbkamera (26) gebildet ist, umfasst, welche dazu ausgebildet ist, Farbinformationen auf dem zu erfassenden Objekt (11) zu erfassen.
11. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass zumindest eine der Kameras (4, 5) des Mehrfachkamerasystems (3) und/oder die Farbkamera (26) auf einer Kameraschwenkeinheit (21, 22, 30) angeordnet ist, welche dazu ausgebildet ist, die Kamera (4, 5, 26) um eine Rotationsachse (23, 24, 31) zu verschwenken.
12. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, dass die Laserschwenkeinheit (20) zu dem Mehrfachkamerasystem (3) in der Art positioniert ist, dass die Lasereinheit (2) über den gesamten Aufnahmebereich (18, 19) des Mehrfachkamerasystems (3) geschwenkt werden kann.
13. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet, dass die zumindest eine Lasereinheit (2) einen Linienlaser und/oder einen Multilinienlaser (36) umfasst, welche dazu ausgebildet sind, eine Linie und/oder ein Linienmuster auf ein Objekt (11) zu projizieren.
14. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 13, dadurch gekennzeichnet, dass die 3D-Sensoreinheit (1) eine Schwenk- (32) und/oder Antriebsvorrichtung (33) umfasst, welche dazu ausgebildet ist, die 3D-Sensoreinheit (1) entlang eines zu erfassenden Objektes (11) zu verschwenken und/oder zu verfahren.
15. 3D-Sensoreinheit (1) nach einem der Ansprüche 7 bis 14, dadurch gekennzeichnet, dass die 3D-Sensoreinheit (1) zumindest eine Auswerteeinheit (27), eine Energieversorgungseinheit (28) und/oder zumindest eine drahtlose Schnittstelle (29) umfasst, wobei die zumindest eine drahtlose Schnittstelle (29) dazu ausgebildet ist, Daten zu empfangen und/oder zu übertragen.
Hierzu 3 Blatt Zeichnungen
ATA50006/2019A 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts AT522028B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ATA50006/2019A AT522028B1 (de) 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
DE102019135340.8A DE102019135340A1 (de) 2019-01-07 2019-12-20 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA50006/2019A AT522028B1 (de) 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts

Publications (2)

Publication Number Publication Date
AT522028A1 AT522028A1 (de) 2020-07-15
AT522028B1 true AT522028B1 (de) 2022-12-15

Family

ID=71104448

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA50006/2019A AT522028B1 (de) 2019-01-07 2019-01-07 Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts

Country Status (2)

Country Link
AT (1) AT522028B1 (de)
DE (1) DE102019135340A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113202456B (zh) * 2021-04-21 2023-10-31 中煤科工集团西安研究院有限公司 一种基于图像处理的煤矿井下开孔角度测量装置和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777485A1 (de) * 2004-08-03 2007-04-25 Techno Dream 21 Co., Ltd. Verfahren und vorrichtung zur messung dreidimensionaler formen
US20090245616A1 (en) * 2008-03-26 2009-10-01 De La Ballina Freres Method and apparatus for visiometric in-line product inspection
CN107816942A (zh) * 2017-09-28 2018-03-20 中国东方电气集团有限公司 一种基于十字结构光视觉***的平面二维尺寸测量方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9605950B2 (en) 2013-05-22 2017-03-28 Cognex Corporation System and method for efficient surface measurement using a laser displacement sensor
US11218688B2 (en) 2016-01-04 2022-01-04 Occipital, Inc. Apparatus and methods for three-dimensional sensing
DE102016002398B4 (de) 2016-02-26 2019-04-25 Gerd Häusler Optischer 3D-Sensor zur schnellen und dichten Formerfassung
EP3258211B1 (de) 2016-06-17 2023-12-13 Hexagon Technology Center GmbH Bestimmung von reflektionseigenschaften eines objektes in bezug auf eine bestimmte optische messung
DE102016118758A1 (de) 2016-10-04 2018-04-05 Sick Ag Optoelektronischer Sensor und Verfahren zur optischen Erfassung eines Überwachungsbereichs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1777485A1 (de) * 2004-08-03 2007-04-25 Techno Dream 21 Co., Ltd. Verfahren und vorrichtung zur messung dreidimensionaler formen
US20090245616A1 (en) * 2008-03-26 2009-10-01 De La Ballina Freres Method and apparatus for visiometric in-line product inspection
CN107816942A (zh) * 2017-09-28 2018-03-20 中国东方电气集团有限公司 一种基于十字结构光视觉***的平面二维尺寸测量方法

Also Published As

Publication number Publication date
DE102019135340A1 (de) 2020-07-09
AT522028A1 (de) 2020-07-15

Similar Documents

Publication Publication Date Title
DE112018000827B4 (de) Inspektionssystem, Steuerungsverfahren und Speichermedium
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
AT509103B1 (de) Verfahren zur stützung der messgenauigkeit von gps/imu-systemen
DE102017212371B4 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
DE102004007828B4 (de) Verfahren und System zur Inspektion von Oberflächen
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE102016001337A1 (de) Werkstückpositionierungsvorrichtung, die eine Bildgabeeinheit verwendet
WO2015091291A1 (de) Verfahren zur durchführung und kontrolle eines bearbeitungsschritts an einem werkstück
EP2255930A1 (de) Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
EP2227356A1 (de) Verfahren und system zum hochpräzisen positionieren mindestens eines objekts in eine endlage im raum
EP2603767A1 (de) Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens
DE102018127221B4 (de) Koordinatenmesssystem
DE102008019373A1 (de) Messvorrichtung und Verfahren zum Kalibrieren einer Messvorrichtung eines Krans
DE102016120557B4 (de) System zum dimensionalen Messen eines Objekts
EP2193334A1 (de) Verfahren zur kalibrierung einer sensoranordnung und sensoranordnung
EP3900330B1 (de) Aufbau und vermessung eines aufbaus zur kalibrierung einer kamera
DE102019103519B4 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
AT522028B1 (de) Verfahren sowie 3D-Sensoreinheit zum Bestimmen von dreidimensionalen Koordinaten von Punkten auf der Oberfläche eines Objekts
EP1589319A1 (de) Vorrichtung und Verfahren zum Ermitteln der Geradheit oder relativen Orientierung hohlzylindrischer oder hohlkegeliger Körper
DE102016007586A1 (de) Neuartige Vorrichtung/en zum automatischen Aufbringen oder Erzeugen und Überwachen einer auf einem Substrat aufgebrachten Struktur mit Ermittlung von geometrischen Abmessungen sowie ein entsprechendes Verfahren
DE102019219386A1 (de) Verfahren zum Kalibrieren von Bilddaten eines bildgebenden Systems für ein Fahrzeuggespann
DE102006005990A1 (de) Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE112021000229T5 (de) Roboter-System