DE19937265A1 - Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine - Google Patents

Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine

Info

Publication number
DE19937265A1
DE19937265A1 DE19937265A DE19937265A DE19937265A1 DE 19937265 A1 DE19937265 A1 DE 19937265A1 DE 19937265 A DE19937265 A DE 19937265A DE 19937265 A DE19937265 A DE 19937265A DE 19937265 A1 DE19937265 A1 DE 19937265A1
Authority
DE
Germany
Prior art keywords
dimensional
point
dimensional image
axis
reference system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19937265A
Other languages
English (en)
Inventor
Piero Cerruti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hexagon Metrology SpA
Original Assignee
Brown and Sharpe DEA SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brown and Sharpe DEA SpA filed Critical Brown and Sharpe DEA SpA
Publication of DE19937265A1 publication Critical patent/DE19937265A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/402Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36431Tv camera in place of tool, on display operator marks points, crosshair
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37193Multicoordinate measuring system, machine, cmm
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37571Camera detecting reflected light from laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40557Tracking a tool, compute 3-D position relative to camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Positionierungsvorrichtung für eine Messmaschine (10), wobei ein Messkopf (15) in einem dreidimensionalen Raum (T) bezüglich eines ersten Referenzsystems bewegbar ist und einen visuellen Sensor (25) mit einer Fernsehkamera (31) und einer Quelle (33) eines Laserstrahls (35) trägt. Die Vorrichtung zeigt auf einem Monitor (54a) das durch die Kamera (31) aufgenommene zweidimensionale Bild (Im) an (100), auf welchem ein Zeiger (P) positionierbar ist (120, 130), der durch eine manuelle Steuerung (55) bewegbar ist, um einen interessierenden Punkt auf dem zweidimensionalen Bild (Im) auszuwählen. Die Vorrichtung bewegt (220) den Messkopf automatisch (150-210) in eine Position, in der der Ursprung (O') eines zweiten Referenzsystems des visuellen Sensors mit zwei Koordinatenachsen in der zweidimensionalen Bildebene an einem Punkt in dem dreidimensionalen Raum entsprechend dem auf dem zweidimensionalen Bild ausgewählten interessierenden Punkt angeordnet ist.

Description

Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zur Positio­ nierung eines Messkopfes auf einer dreidimensionalen Messmaschine.
Berührungsfreie dreidimensionale Messmaschinen sind bekannt, bei denen ein Teil entlang den drei Koordinatenachsen X, Y und Z eines ersten Referenzsystemes der Maschine bewegbar ist und einen Messkopf trägt, der mit dem bewegbaren Teil zusammenhängt und einen visuellen Sensor hält, der eine Fernsehkamera und eine Laserstrahlerzeugungseinrichtung enthält.
Die Kamera nimmt einen dreidimensionalen Raum (bspw. einen pyramiden­ förmigen Raumwinkel) auf, der eine optische Symmetrieachse hat, die sich mit der Symmetrieachse des Laserstrahls an einem Punkt (Referenzmittelpunkt) schneidet, der den Ursprung eines zweiten X'-, Y'-, Z'-Referenzsystems des visuellen Sensors bildet, wobei die Z-Achse davon mit der optischen Symmetrieachse der Kamera ausgerichtet ist.
Das durch die Kamera aufgenommene Bild weist ein zweidimensionales Bild des Objektes in dem Messraum auf, welches Bild eine sichtbare (Laser-)Linie hat, die durch den das Objekt schneidenden Laserstrahl gebildet wird und durch den Benutzer der Messmaschine auf einem Monitor gesehen wird.
Mittels einer Verarbeitungseinrichtung wird das durch die Kamera aufgenommene zweidimensionale Bild und die Position des Laserstrahls in dem zweidimensionalen Bild bezüglich einer Referenzposition (vorzugsweise eine Mittelposition in dem Bild - Bildmittelpunkt) automatisch analysiert, um die Koordinaten der Punkte auf dem Objekt bezüglich des zweiten X'-, Y'-, Z'-Referenzsystems des visuellen Sensors zu bestimmen, und die Messung wird dann durch die Verarbeitungseinrichtung auf das erste X-, Y-, Z-Referenzsystem der Messmaschine bezogen.
Ein Hauptnachteil der bekannten Messmaschinen ist mit der Positionierung des Messkopfes verbunden, d. h. wenn der Messkopf in eine Position nahe dem zu messenden Objekt bewegt wird. Das heißt der Messkopf wird manuell mittels einer Steuereinrichtung, insbesondere einem sogenannten Joystick bewegt, der ein Signal erzeugt, um den Messkopf entlang der drei X-, Y-, Z-Maschinenachsen zu bewegen, während das durch den Benutzer auf dem Monitor beobachtete Bild das durch den visuellen Sensor aufgenommene Bild ist und gemäß den drei X'-, Y'-, Z'- Achsen orientiert ist, die nicht den X-, Y-, Z-Maschinenachsen entsprechen. Da ferner der Benutzer den Messkopf nur entlang den X-, Y-, Z-Achsen steuern kann und die Beziehung zwischen den X'-, Y'-, Z'- und X-, Y-, Z-Achsen nicht weiß, wird der Benutzer mit erheblichen Schwierigkeiten bei der Positionierung des Messkopfes unter Verwendung der manuellen Steuereinrichtung und des auf dem Monitor gezeigten Bildes konfrontiert.
Es ist eine Aufgabe der vorliegenden Erfindung, eine Messvorrichtung zu liefern, die es erlaubt, dass der Messkopf leicht wie gewünscht bewegt und an einer festgelegten Position bezüglich des Objektes unter Verwendung des Bildes des Objektes auf dem Monitor eingestellt werden kann.
Erfindungsgemäß wird eine Vorrichtung zur Positionierung eines Messkopfes einer berührungsfreien dreidimensionalen Messmaschine gemäß Anspruch 1 vorgeschla­ gen.
Die vorliegende Erfindung betrifft auch ein Verfahren zur Positionierung eines Messkopfes einer berührungsfreien dreidimensionalen Messmaschine gemäß Anspruch 9.
Ein nicht beschränkendes Ausführungsbeispiel der Erfindung wird anhand eines Beispieles unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen:
Fig. 1 eine erfindungsgemäße berührungsfreie dreidimensionale Messvorrichtung zeigt;
Fig. 2a eine Ansicht eines Messkopfes der Vorrichtung von Fig. 1 in einer ersten Betriebsposition in vergrößertem Maßstab zeigt;
Fig. 2b den Kopf von Fig. 2a in einer zweiten Betriebsposition zeigt,
Fig. 3 das Funktionsprinzip des visuellen Sensors auf dem Messkopf zeigt; die Fig. 4a, 4b, 4c jeweilige durch den visuellen Sensor aufgenommene Bilder zeigen,
Fig. 5 die Beziehungen zwischen den verschiedenen Referenzsystemen zeigt, die bei der erfindungsgemäßen Messvorrichtung eingesetzt werden;
Fig. 6 eine Reihe von Schritten zeigt, die durch die erfindungsgemäße Messvorrichtung ausgeführt wird;
Fig. 7 ein erstes durch die erfindungsgemäße Messvorrichtung verarbeitetes Bild zeigt;
Fig. 8 ein zweites durch die erfindungsgemäße Messvorrichtung verarbeitetes Bild zeigt,
Fig. 9 eine Variante der Messvorrichtung von Fig. 1 zeigt;
die Fig. 10a, 10b, 10c und 10d Bilder zeigen, die durch den visuellen Sensor der Vorrichtung von Fig. 9 aufgenommen sind.
Bezugszeichen 1 in Fig. 1 bezeichnet die berührungsfreie dreidimensionale Messvorrichtung als ganze, wobei eine bekannte Messmaschine, beispielsweise eines Typs mit bewegbarem Querträger ein Teil (Säule) 12 aufweist, das durch (nicht dargestellte) Aktuatoren in drei senkrechten Koordinatenrichtungen X, Y, Z in einem dreidimensionalen Messraum T bewegt wird.
Die Messmaschine 10 hat daher ein jeweiliges X-, Y-, Z-Referenzsystem (auch bekannt als Maschinenreferenzsystem mit den Maschinenachsen X, Y, Z) mit einem Ursprung O, und aufweisend (nicht dargestellte) bekannte elektronische Messwandler zur Bestimmung der X-, Y-, Z-Position des bewegbaren Teils 12 bezüglich dem Ursprung O des X-, Y-, Z-Referenzsystems.
Die Messvorrichtung 1 weist auch einen (bekannten) Messkopf 15 auf, der durch das bewegbare Teil 12 getragen wird. Insbesondere weist der Messkopf 15 einen ersten Körper 18 auf, der fest an das bewegbare Teil 12 eingepasst ist und einen zweiten Körper 20 (Fig. 2a, 2b) auf, der axial symmetrisch ist und bezüglich des ersten Körpers 18 bewegbar ist. Insbesondere weist der zweite Körper 20 einen ersten Endabschnitt auf, der schwenkbar mit einem bewegbaren Endabschnitt 18a des ersten Körpers verbunden ist und sich daher um eine im wesentlichen horizontale Achse drehen kann, die in den Fig. 2a, 2b durch P bezeichnet ist (Höhenwinkel), und der bewegbare Endabschnitt 18a kann sich bezüglich dem drehbaren Teil 12 um eine jeweilige Symmetrieachse R (Rollwinkel) drehen.
Der Höhenwinkel (Pitch) und der Rollwinkel (Roll) verändern sich diskret und haben daher ein endliche Anzahl.
Der Messkopf 15 hat daher zwei Freiheitsgrade, die durch Höhen- bzw. Rolldre­ hungen definiert werden.
Der Körper 20 hat einen zweiten Endabschnitt mit einer (schematisch gezeigten) Verbindungseinrichtung 22, durch die ein (schematisch gezeigter) visueller Sensor 25 angebracht wird.
Wie in Fig. 3 gezeigt ist, weist der visuelle Sensor 25 ein äußeres Gehäuse 28 auf, das mit der Verbindungseinrichtung 22 verbunden ist und weist eine (schematisch gezeigte) Fernsehkamera 31 und eine Quelle 33 eines Laserstrahls 35 auf. Die Kamera 31 nimmt einen in Fig. 3 durch einen pyramidenförmigen Raumwinkel mit der an der (nicht gezeigten) Linse der Kamera 31 angeordneten Spitze auf. Der Raumwinkel 38 hat eine zugehörige optische Achse 41 (durch eine Strich-Punkt-Linie gezeigt) und ist durch vier Ebenen P1, P2, P3, P4 definiert, die sich schneiden, um vier Kanten K, L, M, N (durch gerade Linien angegeben) des Raumwinkels 38 zu definieren.
Der Laserstrahl 35 hat eine entsprechende Symmetrieachse 44 (durch eine strich­ punktierte Linie dargestellt), die den dreidimensionalen Raum 38 schneidet und der Punkt, an dem sich die Achsen 44 und 41 treffen, ist durch CR (Referenzmittel­ punkt) bezeichnet.
Der Schnittpunkt des Laserstrahls 35 mit dem Raumwinkel 38 definiert einen messbaren Raum 47 in Form einer abgeschnittenen Pyramide, die lateral durch die Abschnitte der Ebenen P1, P2, P3, P4 und durch rechteckförmige Basisflächen PS und P6 senkrecht zur Achse 41 definiert ist. Insbesondere hat die Ebene PS eine gerade Kante LM, die durch den die Ebene P1 schneidenden Strahl 35 definiert ist und die Ebene P6 hat eine gerade Kante RM, die durch den Strahl 35, der die der Ebene P1 gegenüber liegende Ebene P3 schneidet, definiert ist.
Die Fig. 4a, 4b und 4c zeigen eine Anzahl von Bildern, um das Funktionsprinzip des visuellen Sensors 25 zu illustrieren. Die Fig. 4a, 4c zeigen durch die Kamera 31 aufgenommene Bilder relativ zu einem flachen Objekt (beispielsweise einer nicht gezeigten Metallplatte) koplanar mit der Ebene PS beziehungsweise P6, wobei jedes Bild eine Linie (Laserlinie) 50 aufweist, die durch den das Objekt schneidenden Strahl 35 gebildet wird.
Insbesondere ist die Laserlinie 50 an der linken lateralen Kante des Bildes von Fig. 4 und an der rechten lateralen Kante des Bildes von Fig. 4c angeordnet. In dem Fall, wenn das Objekt koplanar mit der Ebene durch den Punkt CR (Referenzmittelpunkt) und senkrecht zur Achse 41 ist, ist die Laserlinie 50 in der Mitte entlang des Bildes angeordnet (Fig. 4b).
Die Bewegung des Objektes innerhalb des Messraums 47 bewegt daher die Laserlinie in dem erfassten Bild, wobei die Bewegung der Laserlinie bezüglich einem festen Referenzpunkt in dem Bild - beispielsweise eine Entfernung D zwischen der Laserlinie 50 und dem Bildzentrum CI - auf die Position des Objektes entlang der Achse 41 und daher auf die Entfernung des Objektes von der Kamera 31 bezogen ist. In dem gezeigten Ausführungsbeispiel ist das Bild rechteckförmig, der Bildmittelpunkt (Bildzentrum) CI stimmt mit dem Punkt überein, an dem sich die Winkelhalbierenden der Innenwinkel des rechteckigen Umfangs des Bildes treffen, und die Entfernung D wird parallel zur Hauptseite des rechteckförmigen Bildes gemessen.
Durch Messung der Entfernung D in dem durch die Kamera aufgenommenen Bild ist es so mittels bekannter trigonometrischer Berechnungen möglich, die tatsäch­ liche Entfernung zwischen dem Objekt und der Kamera zu bestimmen.
Der visuelle Sensor 25 hat ein entsprechendes internes X'-, Y'-, Z'-Referenzsystem, dessen Ursprung O' an dem Referenzzentrum CR positioniert ist und dessen Z'- Achse entlang der Achse 41 (Fig. 3) ausgerichtet ist.
Insbesondere können in dem durch die Kamera 31 aufgenommenen zweidimen­ sionalen Bild die Achsen X', Y' koplanar mit der Bildebene orientiert werden, wobei der Ursprung O' an dem Bildzentrum CI (Fig. 4a bis 4d) positioniert ist, und die Position der Z'-Achse, die daher in dem Bild nicht direkt bestimmt werden kann, wird wie vorher angegeben mit Hilfe der Laserlinie 50 bestimmt.
Die Vorrichtung 1 (Fig. 1) weist auch eine Zentralverarbeitungseinheit 52 (Fig. 1) auf, die vorzugsweise durch einen VAX-Microcomputer definiert ist, der mit der Messmaschine 10 (von der er die Positionsmessung des Teils 12 erhält) und mit dem visuellen Zentrum 25 kommuniziert. Insbesondere ist der Sensor 25 mit einem Personalcomputer (beispielsweise einem 486er PC) zur Verarbeitung des Bildes verbunden, der wiederum durch ein DECNET-Netzwerk 53 mit einer Einheit 52 verbunden ist, um die innerhalb des Messraums 47 bestimmte dreidimensionale Information zu liefern.
Außerdem ist ein mit der Einheit 52 verbundenes Videoterminal 54 als Schnittstelle mit der Messmaschine vorgesehen und außerdem ein mit dem PC verbundenes Videoterminal (Monitor) 54a, um das Bild anzuzeigen und verschiedene charakteristische Sensorparameter einzugeben.
Zum Betrieb benötigt die Vorrichtung 1 eine Anzahl von sogenannten intrinsischen und extrinsischen Kalibrierparametern.
Intrinsische Parameter beschreiben die internen Eigenschaften des visuellen Sensors 25 und sind dem visuellen Sensor selbst inhärent.
Die Kamera 31 liefert ein zweidimensionales Bild (Fig. 4a bis 4c), das durch eine rechteckförmige Matrix aus (beispielsweise 500 × 582) Pixeln besteht, und in der die Information relativ zu der Position (d. h. der Entfernung) des Objektes entlang der Z'-Achse indirekt durch Messung und Verarbeitung des Wertes der Entfernung D zwischen der Laserlinie 50 und der Bildmitte CI wie oben erwähnt bestimmt wird.
Die realen Dimensionen des Objektes (entlang der Achsen X', Y') können direkt durch Untersuchung und Umwandlung der entsprechenden Dimensionen des Objektes mittels eines geeigneten Skalenfaktors bestimmt werden.
Jeder Bildpunkt (Pixel) in dem durch die Kamera aufgenommenen Bild entspricht so einer realen Dimension (in mm), die eine Funktion der Entfernung des Objektes von der Kamera 31, d. h. eine reale Dimension des Objektes (entlang der X'- oder Y'-Achse) ist durch einen Skalenfaktor, der eine Funktion der Entfernung entlang der Z'-Achse ist, mit der Dimension des Bildes in Bezug gesetzt:
reale Dimension (in mm) = Pixeldimenision * f(Z'),
wobei f(Z') durch einen Satz von intrinsischen Parametern bestimmt ist.
Extrinsische Parameter beziehen andererseits den visuellen Sensor 25 auf den Messumfang der Messmaschine 10.
Das heißt der visuelle Sensor 25 erzeugt Messungen unter Bezugnahme auf das X'-, Y'-, Z'-Referenzsystem innerhalb des Messraumes 47, welche mittels der extrinsischen Parameter auf das X-, Y-, Z-Referenzsystem der Maschine 10 bezo­ gen werden.
Insbesondere verwendet die Vorrichtung 1:
  • - einen ersten Satz extrinsischer Parameter, die definiert sind durch die Rotations­ matrix ROT-MAX, die das X-, Y-, Z-Referenzsystem auf das X'-, Y'-; Z'-Referenz­ system bezieht;
  • - einen zweiten Satz extrinsischer Parameter, die den CT-CR oder sogenannten OFFSET-Vektor beschreibt (wobei CR der Ursprung des X'-, Y'-, Z'-Referenz­ systems und CT der Mittelpunkt des bewegbaren Teils 12 (Fig. 3) ist).
Die erwähnten extrinsischen Parameter werden für jede mögliche Orientierung des Messkopfes 15 berechnet.
Fig. 5 zeigt die Beziehung zwischen den zwei Referenzsystemen, um klar die durch den Messkopf 1 ausgeführten Vorgänge zu illustrieren, und wie die intrin­ sischen und extrinsischen Parameter verwendet werden, um die Messung auszu­ führen.
Insbesondere zeigt Fig. 5 das kartesische X-, Y-, Z-Referenzsystem der Messma­ schine 10, das X'-, Y'-, Z'-Referenzsystem des visuellen Sensors 25, den OFFSET- Vektor, der sich zwischen dem Ursprung O' des X'-, Y'-, Z'-Referenzsystems und dem Kopfmittelpunkt CT des bewegbaren Teils 12 erstreckt, den Vektor CTPOS, der sich zwischen dem Ursprung O des X-, Y-, Z-Referenzsystems und dem Kopf­ mittelpunkt CT erstreckt und den Vektor V, der sich zwischen dem Ursprung O des X-, Y-, Z-Referenzsystems und dem Ursprung O' des X'-, Y'-, Z'-Referenzsystem erstreckt.
Für jeden Punkt P im Raum liefert der visuelle Sensor 25 eine durch einen Vektor m' ausgedrückte Messung, die bezüglich des kartesischen X'-, Y'-, Z'-Referenz­ systems bezogen und orientiert ist und auf das X-, Y-, Z-Referenzsystem bezogen werden muss.
Für diesen Zweck wird der durch den visuellen Sensor 25 bestimmte Vektor m' mittels der Rotationsmatrix ROT-MAX durch die Messeinrichtung 1 (auf bekannte Art und Weise) gemäß der Gleichung m = ROT-MAX * x(m') umgewandelt, um einen Vektor m zu erzeugen, der bezüglich des X-, Y-, Z-Referenzsystems orientiert ist.
Der Vektor m muss auch zu dem Vektor V addiert werden, um die Messung des Punktes P auf das X-, Y-, Z-Referenzsystem zu beziehen und eine Messung M des Punktes P bezüglich X, Y, Z zu erhalten, d. h. M = m + V.
Der Vektor V wird berechnet durch Addition des Vektors CTPOS und des OFFSET- Vektors. Insbesondere wird der Vektor CTPOS durch (nicht gezeigte) Wandler geliefert, die entlang den drei Achsen der Maschine 10 angeordnet sind (Vektor CTPOS beschreibt die Position des Kopfmittelpunkts CT des beweglichen Teils 12 bezüglich des X-, Y-, Z-Referenzsystems), während der OFFSET-Vektor wie erwähnt einen der extrinsischen Parameter ist.
Die Kalibrierungsparameter (intrinsische und extrinsische Parameter) werden auf bekannte Art und Weise berechnet, wie zum Beispiel in der italienischen Patent­ anmeldung TO95A-000388 beschrieben ist und hier aus Gründen der Kürze nicht behandelt wird.
Fig. 6 zeigt ein Logikblockdiagramm der durch die erfindungsgemäße Positio­ nierungsvorrichtung ausgeführten Operationen. Die Positionierungsvorrichtung wird durch elektronische Schaltungen definiert, die in der Zentralverarbeitungseinheit 52 und/oder dem Personalcomputer PC integriert sind, kann jedoch offensichtlich auch eine Anzahl separater elektronischer Schaltungen enthalten, die mit der Messma­ schine 10 kommunizieren.
Um damit zu beginnen, nimmt ein Block 100 mittels einer Kamera 31 ein Bild Im davon auf, was immer im Messraum 47 angeordnet ist. Das Bild Im ist wie erwähnt durch eine Matrix von Punkten (Pixeln) P(x,y) definiert, die wiederum durch eine ganze Zahl relativ zu der Helligkeit des Punktes P(x,y) definiert sind und werden vorübergehend gespeichert und auf dem Videoterminal 54a angezeigt, um dem Benutzer zu erlauben, direkt zu überwachen, was der Sensor 25 "sieht".
Ein Beispiel des auf dem Videoterminal 54a angezeigten Bildes Im ist in Fig. 7 gezeigt, in der das Bild Im sich auf die Messung einer flachen Platte B (Fig. 1) mit einem Loch H bezieht und daher einen Hintergrund BK (repräsentierend das Bild der flachen Platte B) einer im wesentlichen konstanten Helligkeit und einen kreisförmigen Bereich CIR (der das Bild des Loches H repräsentiert) dunkler als der Hintergrund BK aufweist.
Das Bild Im kann vorzugsweise, aber nicht exklusiv, die Y'- und X'-Achsen mit Ur­ sprung O' zeigen, die in der Mitte CI des Bildes Im angeordnet sind.
Die Y'- und X'-Achsen sind zueinander senkrecht und liegen in der Ebene, die durch das erfasste zweidimensionale Bild Im definiert ist.
Dem Block 100 folgt ein Bock 110, der die Anzeige eines Zeigers P auf dem Bild Im ausführt, der vorzugsweise, aber nicht ausschließlich, durch einen Pfeil definiert sein kann.
Der Zeiger P kann (durch normale Operationen der Verarbeitungsvorrichtung) ma­ nuell mittels einer Steuereinrichtung 55 (Maus), die mit dem Personalcomputer PC verbunden ist, bewegt werden (Fig. 1), um den (nicht gezeigten) Benutzer in die Lage zu versetzen, den Zeiger P manuell an jeden Punkt des Bildes Im zu positio­ nieren.
Zu diesem Zweck folgt dem Block 110 ein Block 120, der einen manuellen Befehl (unter Verwendung der Maus 55) zur Bewegung des Zeigers P erwartet und, wenn der manuelle Befehl erfasst wird, von Block 120 zu Block 130 weiter geht, der das durch die Maus 55 erzeugte elektrische Signal in ein verarbeitetes Signal des Personalcomputers PC umwandelt, welches den Zeiger wie angefordert auf dem Bild Im bewegt.
Dem Block 130 folgt ein Block 140, der einen weiteren manuellen Befehl erwartet - gegeben beispielsweise durch Drücken einer der beiden Knöpfe TS an der Maus 55 -, der angibt, dass eine festgelegte Position des Zeigers P erreicht wurde. In Abwesenheit dieses weiteren Befehls geht der Block 140 zurück zu Block 120, um eine weitere Bewegung des Zeigers P auf dem Bild Im zu erlauben und, wenn dieser weitere Befehl erfasst wurde, geht der Block 140 weiter zu einem Block 150.
Offensichtlich können weitere Verarbeitungsschritte und/oder Operationen gleich­ zeitig mit den in den oberen Blöcken beschriebenen Operationen ausgeführt werden.
In anderen Worten wird Block 150 gewählt, wenn ein Zeiger P eine festgelegte Position erreicht und bestimmt die xp- und yp-Koordinaten des Zeigers P bezüglich des X'-, Y'-, Z'-Referenzsystems des Bildes Im. Die xp-Koordinate wird ausgedrückt als eine Anzahl von Pixeln in dem Bild, gemessen zwischen dem Zeiger P und dem Bildmittelpunkt CI und parallel zu einer Schmalseite des Bildes Im (Bild Im ist rechteckig), und die yp-Koordinate wird als die Anzahl von Pixeln in dem Bild ausgedrückt, gemessen zwischen dem Zeiger P und dem Bildmittelpunkt CI und parallel zu einer Breitseite des rechteckigen Bildes Im.
Die Position des Zeigers P gibt einen interessierenden Punkt P(xp, yp) in dem zweidimensionalen Bild Im entsprechend einem physikalischen Punkt Pf (Fig. 1) auf dem Objekt in dem dreidimensionalen Messraum 47 an. In dem in den Fig. 1 und 7 gezeigten Beispiel entspricht der physikalische Punkt Pf dem Mittelpunkt des Loches H.
Dem Block 150 folgt ein Block 160, welcher die Entfernung dp (gemessen in Pixeln auf dem Bild Im) zwischen der Laserlinie 50 auf dem Bild und dem Bildmittelpunkt CI bestimmt.
Block 160 folgt ein Block 170, welcher die auf dem zweidimensionalen Bild Im gemessene Pixelentfernung dp in eine Entfernung dm ausgedrückt in mm und bezüglich des X'-, Y'-, Z'-Referenzsystem des visuellen Sensors 25 umwandelt. Die Entfernung dm repräsentiert die Entfernung zwischen der Laserlinie 50 und dem Ursprung O' gemessen entlang der Z'-Achse.
Wie erwähnt wird die Umwandlung (auf bekannte Art und Weise) unter Verwen­ dung der erwähnten intrinsischen Parameter ausgeführt und wird daher nicht im Detail erläutert.
Block 170 folgt ein Block 180, der die vorher berechnete Entfernung dm dem physikalischen Punkt Pf zuweist, d. h. die Entfernung des physikalischen Punktes Pf definiert auf dem Bild Im durch den Zeiger P entlang der Z'-Achse wird gleich der Entfernung der Laserlinie 50 gemessen entlang der Z'-Achse gemäß der folgenden Gleichung approximiert:
pz = dm,
wobei pz die Entfernung entlang der Z'-Achse des physikalischen Punktes Pf ist.
Die obige Approximation ist definitiv akzeptabel, wenn der physikalische Punkt Pf und die Laserlinie 50 im wesentlichen koplanar mit der (nicht gezeigten) Ebene senkrecht zu der optischen Achse 41 sind (Fig. 3).
Block 180 folgt ein Block 190, der die vorher in Block 150 bestimmten xp- und yp- Koordinaten wieder aufruft. Die (in Pixeln auf dem Bild Im gemessenen) xp- und yp- Koordinaten werden in jeweilige Entfernungen xm, ym (Block 200 stromabwärts von Block 190) umgewandelt, ausgedrückt in mm und bezogen auf das X'-, Y'-, Z'- Referenzsystems des visuellen Sensors 25. In diesem Fall wird auch (auf bekannte Art und Weise) die Umwandlung unter Verwendung der vorher erwähnten intrinsi­ schen Parameter ausgeführt und wird daher nicht im Detail erläutert.
Block 200 erzeugt daher ein Paar von Koordinaten xm, ym, die die Position entlang der X'- und Y'-Achse des physikalischen Punktes Pf entsprechend dem durch den Zeiger P ausgewählten interessierenden Punkt P repräsentieren.
Dem Block 200 folgt ein Block 210, der die vorher berechneten Koordinaten xm, ym und dm, die die Koordinaten des physikalischen Punktes Pf bezüglich des karte­ sischen X'-, Y'-, Z'-Referenzsystems definieren, in das X-, Y-, Z-Referenzsystem der Maschine 10 umwandelt, um Koordinaten xm, ym und dm zu erzeugen, die die Position des physikalischen Punktes Pf bezüglich der X-, Y-, Z-Achsen der Maschine 10 beschreibt.
Dem Block 210 folgt ein Block 220, der den Messkopf 15 zu dem gewählten Ursprung O' des X'-, Y'-, Z'-Referenzsystems zu der durch die xm-, ym- und dm- Koordinaten definierten Position bewegt.
Die Koordinaten des physikalischen Punktes Pf bezüglich X, Y, Z sind tatsächlich von den oben beschriebenen Operationen bekannt und die Koordinaten von O' be­ züglich X, Y und Z sind der Maschine 10 ebenfalls bekannt, die den Betrag und die Richtung des Vektors V kennt, der sich zwischen dem Ursprung O des X-, Y-, Z- Referenzsystems und dem Ursprung O' des X'-, Y'-, Z'-Referenzsystems erstreckt (Fig. 5).
Der Messkopf 15 wird so automatisch bewegt und innerhalb des dreidimensionalen Raumes positioniert, so dass der Ursprung O' des zweiten X'-, Y'-, Z'-Referenz­ systems an einem Punkt innerhalb des dreidimensionalen Raumes (physikalischer Punkt Pf) entsprechend dem ausgewählten interessierenden Punkt in dem zweidimensionalen Bild Im positioniert ist. Der Bildmittelpunkt CI (der tatsächlich dem Ursprung O' oder dem in dem Bild 1 m gesehenen Punkt CR entspricht) wird so in Übereinstimmung mit dem vorher durch den Zeiger P (Fig. 8) definierten inte­ ressierenden Punkt in Übereinstimmung gebracht.
Dem Block 220 folgt ein Block 230, der einen manuellen Ende-des-Zyklus-Befehl erwartet und bei Empfang des Befehls die obige Prozedur beendet. Andernfalls geht Block 230 zurück zu Block 100, um das durch den visuellen Sensor 25 aufgenommene Bild Im auf dem Video anzuzeigen. Das neue dargestellte Bild, das der in Block 220 ausgeführten Bewegung des Messkopfes 15 folgt, weist den Zeiger P auf, der den interessierenden Punkt am Bildmittelpunkt CI aufweist. Das heißt der Bildmittelpunkt CI ist nun von der vorherigen Position zu der durch den Zeiger P angegebenen Position "verschoben".
Am Ende der obigen automatischen Positionierungsprozedur bewegt sich die Laserlinie 50 zu der Mitte des Bildes, um die korrekte Positionierung entlang der Z'-Achse anzugeben.
In der tatsächlichen Benutzung beobachtet der Benutzer nach Einschalten der Messvorrichtung 1, der Zentralverarbeitungseinheit 52 und des Personalcomputers PC das durch die Kamera 31 aufgenommene Bild auf dem Video. Unter Verwendung des Zeigers P wählt der Benutzer den interessierenden Punkt auf dem Bild Im, um den das Bild zu zentrieren ist, aus, und drückt nach Einstellung des Zeigers auf den interessierenden Punkt den Knopf auf der Maus 55, um ein Bestätigungssignal zu liefern. Die in den Blöcken 150 bis 220 gezeigten Operationen werden dann automatisch aktiviert und der Messkopf wird automatisch so bewegt, dass der Mittelpunkt des nun erfassten Bildes (d. h. desjenigen, das aufgenommen wurde, nachdem der Messkopf bewegt wurde) an dem vorher durch den Zeiger ausgewählten Punkt angeordnet ist.
Das auf dem Monitor angezeigte Bild des Objektes wird dann in Verbindung mit dem Zeiger P verwendet, die Bewegung des Messkopfes 15 wie benötigt zu steuern, und um den Messkopf auf eine festgelegte Position bezüglich des Objek­ tes einzustellen.
Selbstverständlich können Änderungen an dem Verfahren und der Vorrichtung, die hier beschrieben wurden, ausgeführt werden, ohne von der vorliegenden Erfindung abzuweichen.
Beispielsweise verwendet die in Fig. 9 gezeigte Vorrichtung ein visuellen Sensor 25a, der zwei Laserstrahlen einsetzt. Wie in Fig. 3 gezeigt ist, weist der visuelle Sensor 25a ein äußeres Gehäuse 28, das mit der Verbindungseinrichtung 22 verbindbar ist, auf und nimmt eine (schematisch gezeigte) Kamera 31 und eine erste Quelle 33a eines Laserstrahls 35a auf.
Die Kamera 31 nimmt einen in Fig. 9 durch einen pyramidenförmigen Raumwinkel repräsentierten dreidimensionalen Raum 38 auf, wobei die Spitze an der (nicht ge­ zeigten) Linse der Kamera 31 angeordnet ist. Der Raumwinkel 38 hat eine entsprechende optische Achse 41 (dargestellt durch eine strichpunktierte Linie) und ist durch vier Ebenen P1, P2, P3 und P4 definiert, die sich schneiden, um vier Kanten K, L, M und N (durch durchgezogene Linien angegeben) des Raumwinkels 38 zu definieren.
Der Laserstrahl 35a hat jeweilige Symmetrieachsen 44a (durch eine strichpunk­ tierte Linie dargestellt), die den dreidimensionalen Raum 38 schneiden.
Der visuelle Sensor 25 weist auch eine zweite Quelle 33b eines Laserstrahls 35b auf, der eine zugehörige Symmetrieachse 45b (durch eine strichpunktierte Linie dargestellt) aufweist, die den dreidimensionalen Raum 38 schneidet.
Der Punkt, an dem sich die Achsen 44a, 44b und 41 treffen, wird durch CR (Referenzmittelpunkt) bezeichnet und der visuelle Sensor 25a hat ein zugehöriges internes X'-, Y'-, Z'-Referenzsystem, dessen Ursprung O' am Referenzmittelpunkt CR angeordnet ist, dessen Z'-Achse entlang der Achse 41 ausgerichtet ist.
Der Schnitt des Laserstrahls 35a mit dem Raumwinkel 38 definiert einen mess­ baren Raum 47 in der Form eines Pyramidenstumpfes, der lateral durch Abschnitte der Ebenen P1, P2, P3, P4 und durch eine rechteckförmige Schmalseitenebene PS und eine rechteckförmige Breitseitenebene P6, beide senkrecht zur Achse 41, definiert ist.
Insbesondere hat die Ebene PS eine gerade Kante KN, die durch den die Ebene P1 schneidenden Strahl 35a definiert ist, und die Ebene P6 hat eine gerade Kante LM, die definiert ist durch den die Ebene P3 schneidenden Strahl 35a.
Ähnlich hat die Ebene PS eine gerade Kante KL, die durch den die Ebene P2 schneidenden Strahl 35b definiert ist und Ebene P6 hat eine gerade Kante NM, die durch den Strahl 35a, der die Ebene P4 schneidet, definiert ist.
Die Fig. 10a, 10b, 10c und 10d zeigen eine Anzahl von Bildern, um das Funk­ tionsprinzip des visuellen Sensors 25a zu illustrieren.
Fig. 10a zeigt ein durch die Kamera 31 relativ zu einem flachen Objekt (beispiels­ weise einer nicht gezeigten Metallplatte), das koplanar mit einer Ebene senkrecht zur Achse 41 ist und durch den Referenzmittelpunkt geht, aufgenommenes Bild.
Das Bild hat eine erste Laserlinie 50a, die durch einen Strahl 35a gebildet wird, der das Objekt schneidet, und eine zweite Laserlinie 50b, die durch den das Objekt schneidenden Strahl 35b gebildet wird; die Laserlinien 50a und 50b sind zuein­ ander senkrecht und schneiden sich im Bildmittelpunkt CI entsprechend dem Refe­ renzmittelpunkt CR.
In dem durch die Kamera 31 aufgenommenen rechteckigen zweidimensionalen Bild können die Achsen X', Y' koplanar mit der Bildebene orientiert werden, wobei der Ursprung O' am Bildmittelpunkt angeordnet ist (Fig. 10a).
Wie vorher erwähnt bewegt die Bewegung des Objektes innerhalb des Mess­ raumes 47 und senkrecht zur Achse 41 die Laserlinien 50a, 50b in dem erfassten Bild, welche Bewegung jeder Laserlinie bezüglich eines jeweiligen festen Referenzpunktes in dem Bild - beispielsweise Entfernung Da, Db zwischen der Laserlinie 50a, 50b und dem Bildmittelpunkt CI - sich auf die Position des Objektes entlang der Achse 41 und damit auf die Entfernung des Objektes von der Kamera 31 bezieht.
In dem in Fig. 10a gezeigten Ausführungsbeispiel ist das Bild rechteckig, der Bildmittelpunkt CI stimmt mit dem Punkt überein, an dem sich die winkelhal­ bierenden Innenwinkel des rechteckförmigen Umfangs des Bildes treffen, die Ent­ fernung Da wird parallel zu der Längsseite des rechteckigen Bildes und die Entfernung Db parallel zu einer Schmalseite des rechteckigen Bildes gemessen.
Die Position der Z'-Achse, die nicht direkt im Bild bestimmt werden kann, wird wie vorher beschrieben mit Hilfe der Laserlinien 50a, 50b bestimmt.
Die Rotation des flachen Objektes um eine Achse parallel zu den Kanten KN, LM hat keinen Kippeffekt auf die Laserlinie 50a, die senkrecht zu den Längsseiten des Bildes (Fig. 10b) bleibt, kippt jedoch die Laserlinie 50b bezüglich der Laserlinie 50a.
Ähnlich hat die Rotation des flachen Objektes um eine Achse paralell zu den Kanten KL; NM keinen Kippeffekt auf die Laserlinie 50b, die parallel zu den Schmalseiten des Bildes (Fig. 10c) bleibt, jedoch wird die Laserlinie 50a bezüglich der Laserlinie 50b gekippt.
Die gemeinsame Rotation des flachen Objektes um eine Achse parallel zu den Kanten KN, LM und um eine Achse parallel zu den Kanten KL, NM kippt die beiden Laserlinien 50a und 50b, die jeweilige Winkel α und β bezüglich der Achsen X' und Y' bilden.
Die durch die in Fig. 9 gezeigte Variante der Positionierungsvorrichtung ausge­ führten Operationen sind ähnlich den unter Bezugnahme auf die Blöcke 100-150, 190, 200, 210 und 220 in Fig. 6 beschriebenen, wobei der Hauptunterschied in der Berechnung der Entfernung dm (Blöcke 160, 170, 180) liegt, die bei dem vorangehenden Ausführungsbeispiel (Fig. 6) auf Basis einer Laserlinie (50) berechnet wurde.
Um die Entfernung dm zu berechnen, werden bei beiden Laserlinien 50a, 50b ver­ wendet, um die folgenden Operationen (Fig. 10d) auszuführen:
  • - auf dem Bild Im wird die Entfernung dp1 zwischen einem Punkt L1 auf der ersten Laserlinie 50a und dem Bildmittelpunkt CI in Pixeln gemessen; Punkt L1 hat eine X'-Koordinate gleich der X'-Koordinate xp des Punktes P, d. h. die Entfernung dp1 zwischen der X'-Achse und dem Punkt L1 wird gemessen;
  • - die Entfernung dp1 wird durch intrinsische Parameter auf das X', Y', Z'- Referenzsystem bezogen und in eine Entfernung in Millimetern umgewandelt, um eine erste Dimension 21 zu berechnen;
  • - eine erste Hilfsachse X" durch den Pinkt L1 und parallel zur X'-Achse wird berechnet;
  • - der Punkt L20, an dem sich die erste Hilfsachse X" und die zweite Laserlinie 50b schneiden, wird berechnet;
  • - eine zweite Hilfsachse Y" durch den Punkt L20 und parallel zur Y-Achse wird berechnet;
  • - auf dem Bild Im wird die Entfernung dp2 zwischen einem Punkt L2 auf der zweiten Laserlinie 50b und der Achse Y" in Pixeln gemessen; Punkt L2 hat eine Y' (oder Y")-Koordinate gleich der Y'-Koordinate yp des Zeigers P;
  • - die Entfernung dp2 wird durch intrinsische Parameter auf das X', Y', Z'- Referenzsystem bezogen und in eine Entfernung in Millimetern umgewandelt, um eine zweite Dimension 22 zu berechnen; und
  • - die zweite Dimension 22 wird zu der ersten Dimension addiert, um die Entfernung dm zu erhalten, d. h.:
    dm = Z1 + Z2.
Die obige Berechnung der Entfernung dm ist genauer als die unter Bezugnahme auf Fig. 6 Beschriebene, da sie auch die Neigung des Objektes bezüglich der Achse 41 berücksichtigt. In manchen Betriebssituationen ist jedoch auch die in Block 180 gemachte Näherung ausreichend.

Claims (16)

1. Vorrichtung zur Positionierung eines Messkopfes auf einer berührungs­ freien dreidimensionalen Messmaschine, wobei der Messkopf (15) der Messmaschine (1, 10) in einem dreidimensionalen Messraum (T) bewegbar ist, die Messmaschine (1, 10) eine Einrichtung zur Bestimmung der Position des Mess­ kopfes (15) bezüglich eines ersten Referenzsystems X, Y, Z der Messmaschine (1, 10) und definiert durch einen ersten kartesischen Referenzrahmen definiert durch rechtwinklige X, Y, Z-Koordinatenachsen aufweist;
wobei die Messmaschine (1, 10) auch wenigstens einen durch den Messkopf (15) getragenen visuellen Sensor (25) aufweist, der wenigstens eine Fernsehkamera (31) und eine Erzeugungseinrichtung (33) zur Erzeugung wenigstens eines Laserstrahls (35) aufweist;
wobei die Kamera (31) ein zweidimensionales Bild (Im) des dreidimen­ sionalen Messraumes (T) aufnimmt, das zweidimensionale Bild (Im) wenigstens einen Referenzpunkt (CI) entsprechend dem Ursprung eines zweiten Referenzsystems X', Y', Z' des visuellen Sensors (25) aufweist und eine erste und eine zweite Koordinatenachse X', Y' senkrecht zueinander und in der durch das zweidimensionale Bild (Im) definierten Ebene hat;
gekennzeichnet durch eine Verarbeitungs- und Steuereinrichtung (52, PC) aufweisend:
  • 1. eine Anzeigeeinrichtung (100), die mit einer Visualisierungseinrichtung (54a) zusammenwirkt, um einem Benutzer das durch die Kamera (31) aufgenommene zweidimensionale Bild (Im) anzuzeigen;
  • 2. eine Darstellungseinrichtung (110) zur Anzeige einer Zeigereinrichtung (P) auf dem zweidimensionalen Bild (Im);
  • 3. eine durch den Benutzer betätigte Steuereinrichtung (55), um die Zeiger­ einrichtung (P) auf dem angezeigten zweidimensionalen Bild (Im) zu bewegen (120, 130) und Abschnitte des angezeigten zweidimensionalen Bildes (Im) anzugeben;
  • 4. eine Auswahl-Einrichtung (140) zur Auswahl eines interessierenden Punktes (xp, yp) auf dem angezeigten zweidimensionalen Bild (Im), der durch die Zeiger­ einrichtung (P) angegeben wird;
  • 5. eine automatische Steuereinrichtung (150-220) zur automatischen Bewe­ gung (220) des Messkopfes in eine solche Position innerhalb des dreidimen­ sionalen Messraumes, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' in dem dreidimensionalen Raum an einem physikalischen Punkt (Pf) entsprechend dem durch die Zeigereinrichtung (P) ausgewählten interessierenden Punkt (xp, yp) auf dem zweidimensionalen Bild positioniert ist.
2. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die automatische Steuereinrichtung (150-220) aufweist:
  • 1. eine Erfassungseinrichtung (150, 160) zur Bestimmung der Koordinaten (xp, yp, dp) des ausgewählten (140) interessierenden Punktes auf dem zweidimen­ sionalen Bild (Im);
  • 2. eine Wandlereinrichtung (170, 200) zur Umwandlung der auf dem zweidimensionalen Bild (Im) bestimmten Koordinaten (xp, yp, dp) in drei­ dimensionale Koordinaten (xm, ym, zm) bezüglich des zweiten Referenzsystems;
  • 3. eine weitere Wandlereinrichtung (210) zur Umwandlung der dreidimensiona­ len Koordinaten (xm, ym, zm) bezüglich des zweiten Referenzsystems in dreidimensionale Koordinaten (Xm, Ym, Dm) bezüglich des ersten Referenz­ systems, um so Koordinaten (Xm, Ym, Dm) zu erzeugen, die eine Wieder­ positionierungs-Position definieren;
  • 4. eine Steuereinrichtung (220) zur Bewegung des Messkopfes derart, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' an der Position positioniert ist, die durch die Koordinaten (Xm, Ym, Dm) definiert ist, die diese Wiederpositionierungs-Position definieren.
3. Vorrichtung gemäß Anspruch 2, wobei der Laserstrahl auf ein Objekt fällt, das in dem dreidimensionalen Messraum gemessen wird, um wenigstens eine Laserlinie (50) auf dem Objekt zu erzeugen, wobei die Erfassungseinrichtung (150, 160) aufweist:
  • 1. eine erste Erfassungseinrichtung (160) zur Bestimmung der Position (dp) der Laserlinie (50) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im);
wobei die Wandlereinrichtung (170, 200) eine erste Wandlereinrichtung (170) zur Umwandlung der bestimmten Position (dp) der Laserlinie (50) in eine entlang der Z'-Achse des zweiten Referenzsystems X', Y', Z' gemessene Entfernung aufweist, um eine erste dreidimensionale Koordinate (zm) bezüglich des zweiten Referenzsystems zu erhalten.
4. Vorrichtung gemäß Anspruch 3, aufweisend eine Zuweisungseinrichtung (180) zur Zuweisung der durch die Laserlinie bestimmten ersten dreidimensionalen Koordinate (zm) zu dem physikalischen Punkt (Pf) in dem dreidimensionalen Raum entsprechend dem mittels der Zeigereinrichtung (P) ausgewählten interessierenden Punkt (xp, yp) auf dem zweidimensionalen Bild.
5. Vorrichtung gemäß Anspruch 3, wobei eine weitere Erzeugungsein­ richtung (33b) zur Erzeugung eines weiteren Laserstrahls (35b) vorgesehen ist;
der Laserstrahl (35a) auf ein in dem dreidimensionalen Raum gemessenes Objekt fällt, um eine erste Linie (50a) auf dem Objekt zu erzeugen, und der weitere Laserstrahl (35b) auf das Objekt fällt, um eine zweite Laserlinie (50b) auf dem Objekt zu erzeugen;
die Erfassungseinrichtung (150, 160) den Ort der ersten Laserlinie (50a) und der zweiten Laserlinie (50b) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im) bestimmt, um eine erste dreidimensionale Koordinate (zm) des physikalischen Punktes entlang der Z'-Achse zu bestimmen.
6. Vorrichtung gemäß Anspruch 5, wobei die Erfassungseinrichtung die folgenden Operationen ausführt:
  • 1. Messung einer ersten Entfernung (dp1) zwischen einem ersten Punkt (L1) auf der ersten Laserlinie (50a) und dem Referenzpunkt (CI) auf dem zweidimensionalen Bild (Im), wobei der erste Punkt (L1) eine Koordinate entlang einer ersten Achse (X') des zweiten Referenzsystems gleich einer ersten Koordinate (xp) entlang der ersten Achse (X') des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes hat;
  • 2. Umwandlung der auf dem zweidimensionalen Bild bestimmten ersten Entfernung (dp1) in eine Entfernung bezüglich des zweiten Referenzsystems X', Y', Z', um eine erste Dimension (21) zu berechnen;
  • 3. Berechnung einer ersten Hilfsachse (X") durch den ersten Punkt (L1) paralell zu der ersten Achse (X') des zweiten Referenzsystems;
  • 4. Berechnung des Schnittpunktes (L20) der ersten Hilfsachse (X") und der zweiten Laserlinie (50b);
  • 5. Berechnung einer zweiten Hilfsachse (Y") durch den Schnittpunkt (L20) und paralell zu einer zweiten Achse (Y') des zweiten Referenzsystems X', Y' Z';
  • 6. Messung einer zweiten Entfernung (dp2) zwischen einem zweiten Punkt (L2) auf der zweiten Laserlinie (50b) und der zweiten Hilfsachse (Y") auf dem zweidimensionalen Bild (Im), wobei der zweite Punkt (L2) eine Koordinate entlang einer zweiten Achse (Y') des zweiten Referenzsystems gleich einer zweiten Koordinate (yp) des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes entlang der zweiten Achse (Y') hat;
  • 7. Umwandlung der auf dem zweidimensionalen Bild bestimmten zweiten Entfernung (dp2) in eine Entfernung bezogen auf das zweite Referenzsystem X', Y', Z', um eine zweite Dimension (22) zu berechnen;
  • 8. Zusammenfügung der ersten (21) und der zweiten (22) Dimension, um die erste dreidimensionale Koordinate (zm) des physikalischen Punktes (Pf) entlang der Z'-Achse zu erhalten.
7. Vorrichtung gemäß einem der Ansprüche 2-6, wobei die Erfassungs­ einrichtung (150) ausserdem aufweist:
  • 1. eine zweite Erfassungseinrichtung (150) zur Bestimmung der Positionen (xp, yp) der Zeigereinrichtung (P) bezüglich des Referenzpunktes des zweidimensionalen Bildes (Im) und entlang der Koordinatenachsen des zweidimensionalen Bildes (Im);
wobei die Wandlereinrichtung (170, 200) auch eine zweite Wandlerein­ richtung (200) zur Umwandlung der bestimmten Positionen (xp, yp) in jeweilige entlang der X'- und Y'-Achsen des zweiten Referenzsystems gemessene Entfernungen aufweist, um eine zweite und dritte dreidimensionale Koordinate (xm, ym) bezüglich des zweiten Referenzsystems zu erhalten.
8. Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei die Kamera (31) den dreidimensionalen Raum (38), insbesondere einen Raum in Form eines Raumwinkels mit einer zugehörigen optischen Achse (41) aufnimmt;
wobei der wenigstens eine Laserstrahl (35) eine zugehörige Symmetrieachse (44; 44a; 44b) aufweist, die den dreidimensionalen Raum (38) schneidet;
wobei der Punkt, an dem sich die optische Achse (41) und die Symmetrie­ achse (44) treffen, den Ursprung eines zweiten kartesischen Referenzrahmens (X', Y'; Z') des Referenzsystems definiert;
wobei der Ursprung des zweiten kartesischen Referenzrahmens auf dem zweidimensionalen Bild (Im) dem zweiten Referenzpunkt (CI) entspricht;
und der zweite kartesische Referenzrahmen durch senkrechte Koordinaten­ achsen X', Y', Z' definiert ist, von denen die Z'-Achse entlang der optischen Achse (41) orientiert ist.
9. Verfahren zur Positionierung eines Messkopfes auf einer berührungsfreien dreidimensionalen Messmaschine, wobei der Messkopf (15) der Messmaschine (1, 10) in einem dreidimensionalen Messraum (T) bewegbar ist, die Messmaschine (10) eine Einrichtung zur Bestimmung der Position des Messkopfes (15) bezüglich eines ersten Referenzsystems X, Y, Z der Messmaschine (1, 10) aufweist und welches durch einen ersten kartesischen Referenzrahmen definiert durch senkrechte Koordinatenachsen X, Y, Z definiert ist;
wobei die Messmaschine (1, 10) auch wenigstens einen durch den Messkopf (15) getragenen visuellen Sensor (25) und wenigstens eine Fernsehkamera (31) und eine Quelle (33) für einen Laserstrahl (35) aufweist;
wobei die Kamera (31) ein zweidimensionales Bild (Im) des dreidimensiona­ len Messraumes (T) aufnimmt, das zweidimensionale Bild (Im) wenigstens einen Referenzpunkt (CI) entsprechend dem Ursprung eines zweiten Referenzsystems X', Y', Z' des visuellen Sensors (25) aufweist und wenigstens eine erste und eine zweite Koordinatenachse X', Y' senkrecht zueinander und in einer durch das zweidimensionale Bild (Im) definierten Ebene aufweist;
gekennzeichnet durch die Schritte:
  • 1. Anzeige (100) des durch die Kamera (31) aufgenommenen zweidimensiona­ len Bildes (Im) auf einer Visualisierungseinrichtung (54a);
  • 2. Darstellung (110) einer Zeigereinrichtung (P) auf dem angezeigten zweidimensionalen Bild (Im), die mittels einer manuellen Steuerung (55) auf dem zweidimensionalen Bild bewegbar ist (120, 130), um Abschnitte des zweidimensionalen Bildes (Im) anzugeben;
  • 3. Auswahl (140) eines interessierenden Punktes (xp, yp), der auf dem zweidimensionalen Bild (im) angezeigt wird mittels der Zeigereinrichtung (P);
  • 4. automatische Bewegung (220) des Messkopfes (150-210) in eine solche Position innerhalb des dreidimensionalen Messraumes, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' in dem dreidimensionalen Raum an einem physikalischen Punkt (Pf) entsprechend dem ausgewählten interessierenden Punkt (xp, yp) auf dem zweidimensionalen Bild positioniert ist.
10. Verfahren gemäß Anspruch 9, wobei der Schritt der automatischen Bewegung (220) des Messkopfes (150-210) die Schritte aufweist:
  • 1. Bestimmung (150) der Koordinaten (xp, yp, dp) des ausgewählten (140) interessierenden Punktes auf dem zweidimensionalen Bild (Im);
  • 2. Umwandlung (170, 190) der auf dem zweidimensionalen Bild (Im) bestimmten Koordinaten (xp, yp, dp) in dreidimensionale Koordinaten (Xm, Ym, Zm) bezüglich des zweiten Referenzsystems;
  • 3. Umwandlung (200) der dreidimensionalen Koordinaten (xm, ym, zm) bezüglich des zweiten Referenzsystems X', Y', Z' in dreidimensionale Koordinaten (Xm, Ym, Dm) bezüglich des ersten Referenzsystems X, Y, Z, um so eine Wiederpositionierungs-Position zu erhalten;
Bewegung (220) des Messkopfes derart, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' an der Position angeordnet ist, die durch die Koordinaten (Xm, Ym, Dm) definiert ist, die die Wiederpositionierungs-Position definieren.
11. Verfahren gemäß Anspruch 10, wobei der Schritt der Bestimmung (150) der Koordinaten (xp, yp, dp) des ausgewählten (140) interessierenden Punktes auf dem zweidimensionalen Bild (Im) die Unterschritte aufweist:
  • 1. Einstrahlung des Laserstrahls auf ein gemessenes Objekt in dem dreidimensionalen Raum, um eine Laserlinie (50) auf dem Objekt zu erzeugen;
  • 2. Bestimmung (160) der Position (dp) der Laserlinie (50) bezüglich des Referenzpunktes des zweidimensionalen Bildes (Im);
  • 3. Umwandlung (170) der bestimmten Position (dp) der Laserlinie in eine entlang der Z'-Achse des zweiten Referenzsystems X', Y', Z' gemessenen Entfernung, um eine erste dreidimensionale Koordinate (zm) bezüglich des zweiten Referenzsystems zu erhalten.
12. Verfahren gemäß Anspruch 11, ferner aufweisend den Schritt der Zuweisung (180) der mittels der Laserlinie bestimmten ersten dreidimensionalen Koordinate (zm) zu dem physikalischen Punkt (Pf) in dem dreidimensionalen Raum entsprechend dem auf dem zweidimensionalen Bild mittels der Zeigereinrichtung (P) ausgewählten interessierenden Punkt auf dem zweidimensionalen Bild.
13. Verfahren gemäß Anspruch 11, wobei der Schritt der Bestimmung (150) der Koordinaten (xp, yp, dp) des auf dem zweidimensionlen Bild (Im) ausgewählten (140) interessierenden Punktes die Unterschritte aufweist:
  • 1. Erzeugung (33a) eines ersten Laserstrahls (35a) und Einstrahlung des ersten Laserstrahls (35a) auf ein Objekt, um eine erste in dem zweidimensionalen Bild (Im) sichtbare Laserlinie (50a) zu erzeugen;
  • 2. Erzeugung (33b) eines zweiten Laserstrahls (35b) und Einstrahlung des zweiten Laserstrahls (35b) auf das Objekt um eine zweite in dem zweidimensiona­ len Bild (Im) sichtbare Laserlinie (50b) zu erzeugen;
  • 3. Bestimmung der Position der ersten Laserlinie (50a) und der zweiten Laserlinie (50b) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im), um eine erste dreidimensionalen Koordinate (zm) des physikalischen Punktes (Pf) entlang der Z'-Achse zu bestimmen.
14. Verfahren gemäß Anspruch 13, wobei der Schritt der Bestimmung einer ersten dreidimensionalen Koordinate (zm) die Unterschritte aufweist:
  • 1. Messung einer ersten Entfernung (dp1) zwischen einem ersten Punkt (L1) auf der ersten Laserlinie (50a) und dem Referenzpunkt (CI) auf dem zweidimen­ sionalen Bild (Im), wobei der erste Punkt (L1) eine Koordinate entlang einer ersten Achse X' des zweiten Referenzsystems X', Y', Z' gleich einer ersten Koordinate (xp) entlang der ersten Achse (X') des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes hat;
  • 2. Umwandlung der auf dem zweidimensionalen Bild bestimmten ersten Entfernung (dp1) in eine Entfernung bezüglich des zweiten Referenzsystems X', Y', Z', um eine erste Dimension (21) zu berechnen;
  • 3. Berechnung einer ersten Hilfsachse (X") durch den ersten Punkt (L1) und paralell zu der ersten Achse (X') des zweiten Referenzsystems;
  • 4. Berechnung des Schnittpunktes (L20) der ersten Hilfsachse (X") und der zweiten Laserlinie (50b);
  • 5. Berechnung einer zweiten Hilfsachse (Y") durch den Schnittpunkt (L20) und paralell zu einer zweiten Achse (Y') des zweiten Referenzsystems X', Y', Z';
  • 6. Messung einer zweiten Entfernung (dp2) zwischen einem zweiten Punkt (L2) auf der zweiten Laserlinie (50b) und der zweiten Hilfsachse (Y") auf dem zweidimensionalen Bild (Im), wobei der zweite Punkt (L2) eine Koordinate entlang der zweiten Achse (Y') des zweiten Referenzsystems gleich einer zweiten Koordinate (yp) entlang der zweiten Achse (Y') des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes hat;
  • 7. Umwandlung der auf dem zweidimensionalen Bild bestimmten zweiten Entfernung (dp2) in eine Entfernung bezüglich des zweiten Referenzsystems (X', Y', Z'), um eine zweite Dimension (22) zu berechnen; und
  • 8. Zusammenfügung der ersten (21) und der zweiten (22) Dimension, um eine erste dreidimensionale Koordinate (zm) des physikalischen Punktes (Pf) entlang der Z'-Achse zu erhalten.
15. Verfahren gemäß einem der Ansprüche 11-14, wobei der Schritt der Bestimmung (150) der Koordinaten (xp, yp, dp) des auf dem zweidimensionalen Bild (Im) ausgewählten (140) interessierenden Punktes die Unterschritte aufweist:
  • 1. Bestimmung (150) der Positionen (xp, yp) der Zeigereinrichtung (P) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im) und entlang von zwei Koordinatenachsen des zweidimensionalen Bildes (Im); und
  • 2. Umwandlung (200) der bestimmten Positionen (xp, yp) in jeweilige entlang der X'- und Y'-Achsen des zweiten Referenzsystems gemessene Entfernungen, um eine zweite und eine dritte dreidimensionale Koordinate (xm, ym) bezüglich des zweiten Referenzsystems zu erhalten.
16. Verfahren gemäß einem der Ansprüche 9-15, wobei die Kamera (31) den dreidimensionalen Raum (38), insbesondere einen Raum in Form eines Raumwinkels mit einer zugehörigen optischen Achse (41) aufnimmt;
der Laserstrahl (35) eine zugehörige Symmetrieachse (44) aufweist, die den dreidimensionalen Raum (38) schneidet;
der Punkt, an dem sich die optische Achse (41) und die Symmetrieachse (44) treffen, den Ursprung eines zweiten kartesischen Referenzrahmens X', Y', Z' des zweiten Referenzsystems des visuellen Sensors definiert;
der Ursprung des zweiten kartesischen Referenzrahmens auf dem zweidi­ mensionalen Bild (Im) dem Referenzpunkt entspricht;
der zweite kartesische Referenzrahmen durch senkrechte Koordinatenachsen X', Y', Z' definiert wird, von denen eine Z'-Achse entlang der optischen Achse (41) orientiert ist.
DE19937265A 1998-08-07 1999-08-06 Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine Withdrawn DE19937265A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT1998TO000693A IT1303239B1 (it) 1998-08-07 1998-08-07 Dispositivo e metodo per il posizionamento di una testa di misura inuna macchina per la misura tridimensionale senza contatto.

Publications (1)

Publication Number Publication Date
DE19937265A1 true DE19937265A1 (de) 2000-02-10

Family

ID=11416985

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19937265A Withdrawn DE19937265A1 (de) 1998-08-07 1999-08-06 Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine

Country Status (6)

Country Link
US (1) US6628322B1 (de)
JP (1) JP2000097636A (de)
DE (1) DE19937265A1 (de)
FR (1) FR2782160B1 (de)
GB (1) GB2340624B (de)
IT (1) IT1303239B1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002025207A1 (de) * 2000-09-22 2002-03-28 Werth Messtechnik Gmbh Verfahren zum messen einer objektgeometrie mittels eines koordinationsmessgerätes
WO2003011514A1 (en) * 2001-07-26 2003-02-13 Gsi Lumonics Ltd System and method for delivering an energy beam to selected impinge points on a work piece
EP2000869A1 (de) * 2007-05-25 2008-12-10 General Electric Company System und Verfahren zum Messen von Maschinenwerkzeugen mit einer Kamera

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002027269A1 (de) * 2000-09-28 2002-04-04 Carl Zeiss Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel und zwei parameterfeldern
FI113293B (fi) 2001-04-19 2004-03-31 Mapvision Oy Menetelmä pisteen osoittamiseksi mittausavaruudessa
JP4167954B2 (ja) 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法
US7693325B2 (en) * 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
CN100468327C (zh) * 2005-11-10 2009-03-11 鸿富锦精密工业(深圳)有限公司 量测程序生成***及方法
CN101318263B (zh) * 2007-06-08 2011-12-07 深圳富泰宏精密工业有限公司 激光雕刻***及采用其进行激光雕刻的方法
WO2009128104A1 (en) * 2008-04-18 2009-10-22 Sea Vision S.R.L. Manipulator and related operation
DE202008005750U1 (de) * 2008-04-25 2008-07-10 Dmg Microset Gmbh Vorrichtung zur Vermessung und/oder Einstellung eines Werkzeugs
SE534606C2 (sv) * 2010-05-20 2011-10-18 Minalyze Ab Anordning och metod för provanalys vid prospektering
US8401692B2 (en) 2010-09-09 2013-03-19 Flow International Corporation System and method for tool testing and alignment
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
FR2986064B1 (fr) 2012-01-24 2014-09-26 Scantech Dispositif de mesure a balayage de caracteristiques d'un materiau en feuille
CN102865812B (zh) * 2012-06-05 2015-05-20 厦门钨业股份有限公司 一种用于三维测量仪的刀具中心点寻找方法及其装置
EP2770296A1 (de) * 2013-02-25 2014-08-27 Siemens Aktiengesellschaft Verfahren zur Objektmarkierung mittels 3D-Oberflächeninspektionssystem mittels 2D-Aufnahmen und Verfahren
CN103307976B (zh) * 2013-04-16 2015-09-16 杭州先临三维科技股份有限公司 粮仓中粮食存储量的监测方法
CN103292729A (zh) * 2013-05-16 2013-09-11 厦门大学 一种非球面法向误差检测装置
CN103528514B (zh) * 2013-10-12 2016-09-21 南京理工大学 机器视觉多视场协同机构及装有该机构的测量与检测装置
CN105277162B (zh) * 2014-06-06 2018-01-05 天津大格科技有限公司 三维扫描仪移动装置
CN104121854B (zh) * 2014-07-28 2016-08-10 湖北工业大学 汽车大梁装配孔孔位、孔径精密测量***及方法
CN104608120B (zh) * 2015-02-05 2017-04-26 天津市康凯特软件科技有限公司 一种手机测试机械手装置及使用方法
EP3907570A1 (de) 2015-02-12 2021-11-10 Glowforge Inc. Cloud-gesteuerte laserherstellung
US10509390B2 (en) 2015-02-12 2019-12-17 Glowforge Inc. Safety and reliability guarantees for laser fabrication
JP6478725B2 (ja) * 2015-03-09 2019-03-06 キヤノン株式会社 計測装置及びロボット
CN104748783A (zh) * 2015-04-13 2015-07-01 武汉海达数云技术有限公司 一种柔性模块化激光移动测量装置
EP3398775B1 (de) 2015-12-30 2021-05-05 Revotek Co., Ltd Bioprinter und kalibrierverfahren dafür
CN105806251A (zh) * 2016-03-11 2016-07-27 西北工业大学 基于线激光传感器的四轴测量***及其测量方法
EP3485112B1 (de) 2016-07-15 2021-08-25 Fastbrick IP Pty Ltd Fahrzeug mit eingebauter ziegelsteinlegemaschine
WO2018009980A1 (en) 2016-07-15 2018-01-18 Fastbrick Ip Pty Ltd Boom for material transport
CN109477714B (zh) * 2016-07-28 2022-02-18 瑞尼斯豪公司 非接触式测头和操作方法
WO2018098399A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Controlled deceleration of moveable components in a computer numerically controlled machine
WO2018098398A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Preset optical components in a computer numerically controlled machine
WO2018098393A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Housing for computer-numerically-controlled machine
WO2018098394A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Fabrication with image tracing
WO2018098397A1 (en) * 2016-11-25 2018-05-31 Glowforge Inc. Calibration of computer-numerically-controlled machine
WO2018098395A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Improved engraving in a computer numerically controlled machine
WO2018098396A1 (en) 2016-11-25 2018-05-31 Glowforge Inc. Multi-user computer-numerically-controlled machine
IT201700047233A1 (it) * 2017-05-02 2018-11-02 Ids Georadar S R L Metodo perfezionato per l’esecuzione di indagini georadar e relativa apparecchiatura
US11441899B2 (en) 2017-07-05 2022-09-13 Fastbrick Ip Pty Ltd Real time position and orientation tracker
CN111226090B (zh) 2017-08-17 2023-05-23 快砖知识产权私人有限公司 具有改进的横滚角测量的激光***
WO2019033165A1 (en) 2017-08-17 2019-02-21 Fastbrick Ip Pty Ltd CONFIGURATION OF INTERACTION SYSTEM
WO2019071313A1 (en) 2017-10-11 2019-04-18 Fastbrick Ip Pty Ltd MACHINE FOR CARRYING OBJECTS AND CARROUSEL WITH SEVERAL COMPARTMENTS FOR USE WITH THE SAME
CN110749282A (zh) * 2019-11-04 2020-02-04 和卓生物科技(上海)有限公司 一种吸头校准设备
DE102020132736B4 (de) 2019-12-11 2023-04-20 Dmt Gmbh & Co. Kg Mobiles Analysesystem von heterogenen Gesteins- und/oder Bodenproben
US11740608B2 (en) 2020-12-24 2023-08-29 Glowforge, Inc Computer numerically controlled fabrication using projected information
US11698622B2 (en) 2021-03-09 2023-07-11 Glowforge Inc. Previews for computer numerically controlled fabrication
US11721519B2 (en) 2021-08-05 2023-08-08 Synchrotron Research, Inc. Sparse sampling using a programmatically randomized signal modulating a carrier signal

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4961155A (en) * 1987-09-19 1990-10-02 Kabushiki Kaisha Toyota Chuo Kenkyusho XYZ coordinates measuring system
US5460758A (en) * 1990-12-21 1995-10-24 Eos Gmbh Electro Optical Systems Method and apparatus for production of a three-dimensional object
US5631973A (en) * 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
JP3109758B2 (ja) * 1992-02-19 2000-11-20 富士写真フイルム株式会社 画像入力装置
IT1279210B1 (it) * 1995-05-16 1997-12-04 Dea Spa Dispositivo e metodo di visione per la misura tridimensionale senza contatto.
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
US5805289A (en) * 1997-07-07 1998-09-08 General Electric Company Portable measurement system using image and point measurement devices

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002025207A1 (de) * 2000-09-22 2002-03-28 Werth Messtechnik Gmbh Verfahren zum messen einer objektgeometrie mittels eines koordinationsmessgerätes
US7064845B2 (en) 2000-09-22 2006-06-20 Werth Messtechnik Gmbh Method for measuring the geometry of an object by means of a co-ordination measuring device
WO2003011514A1 (en) * 2001-07-26 2003-02-13 Gsi Lumonics Ltd System and method for delivering an energy beam to selected impinge points on a work piece
EP2000869A1 (de) * 2007-05-25 2008-12-10 General Electric Company System und Verfahren zum Messen von Maschinenwerkzeugen mit einer Kamera

Also Published As

Publication number Publication date
IT1303239B1 (it) 2000-11-02
US6628322B1 (en) 2003-09-30
FR2782160B1 (fr) 2005-04-15
GB2340624B (en) 2002-08-07
ITTO980693A0 (it) 1998-08-07
FR2782160A1 (fr) 2000-02-11
GB9918633D0 (en) 1999-10-13
ITTO980693A1 (it) 2000-02-07
GB2340624A (en) 2000-02-23
JP2000097636A (ja) 2000-04-07

Similar Documents

Publication Publication Date Title
DE19937265A1 (de) Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
EP1931503B1 (de) Verfahren zum bestimmen eines virtuellen tool-center-points
DE19618283B4 (de) Dreidimensionale kontaktlose Messvorrichtung und Verfahren zur Messung hiermit
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE4439557C2 (de) Verfahren und Einrichtung zum Eichen der Vergrößerung von Zoomoptik-Systemen
DE19950793B4 (de) Röntgeneinrichtung und Verfahren zur Bestimmung von Abbildungsparametern
DE69826753T2 (de) Optischer Profilsensor
DE102007033486B4 (de) Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
EP1379835B1 (de) Verfahren zur automatischen regelung von fokus und beleuchtung, sowie zur objektivierten antastung des kantenortes in der optischen präzisionsmesstechnik
WO2002027269A1 (de) Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel und zwei parameterfeldern
EP2082687A1 (de) Überlagerte Darstellung von Aufnahmen
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
DE69725953T2 (de) Bildanzeigeverfahren und -gerät
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
EP0355377B1 (de) Verfahren zur optischen Prüfung von Flachbaugruppen
DE10048096A1 (de) Verfahren zur Kalibrierung eines messenden Sensors auf einem Koordinatenmeßgerät
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
WO2020216840A1 (de) Verfahren zur bereitstellung eines visuellen feedbacks
DE102015109612A1 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
DE102007058293A1 (de) Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems
DE102005020844B3 (de) Genauigkeitsverbesserung von Robotern
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE102017122627B4 (de) Optisches Messsystem und Messverfahren

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G01B 11/00 AFI20051017BHDE

8127 New person/name/address of the applicant

Owner name: HEXAGON METROLOGY S.P.A., MONCALIERI, IT

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150303