DE19937265A1 - Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine - Google Patents
Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen MeßmaschineInfo
- Publication number
- DE19937265A1 DE19937265A1 DE19937265A DE19937265A DE19937265A1 DE 19937265 A1 DE19937265 A1 DE 19937265A1 DE 19937265 A DE19937265 A DE 19937265A DE 19937265 A DE19937265 A DE 19937265A DE 19937265 A1 DE19937265 A1 DE 19937265A1
- Authority
- DE
- Germany
- Prior art keywords
- dimensional
- point
- dimensional image
- axis
- reference system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/402—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/02—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
- G01B21/04—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36431—Tv camera in place of tool, on display operator marks points, crosshair
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37193—Multicoordinate measuring system, machine, cmm
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37555—Camera detects orientation, position workpiece, points of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37571—Camera detecting reflected light from laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40557—Tracking a tool, compute 3-D position relative to camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40613—Camera, laser scanner on end effector, hand eye manipulator, local
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Positionierungsvorrichtung für eine Messmaschine (10), wobei ein Messkopf (15) in einem dreidimensionalen Raum (T) bezüglich eines ersten Referenzsystems bewegbar ist und einen visuellen Sensor (25) mit einer Fernsehkamera (31) und einer Quelle (33) eines Laserstrahls (35) trägt. Die Vorrichtung zeigt auf einem Monitor (54a) das durch die Kamera (31) aufgenommene zweidimensionale Bild (Im) an (100), auf welchem ein Zeiger (P) positionierbar ist (120, 130), der durch eine manuelle Steuerung (55) bewegbar ist, um einen interessierenden Punkt auf dem zweidimensionalen Bild (Im) auszuwählen. Die Vorrichtung bewegt (220) den Messkopf automatisch (150-210) in eine Position, in der der Ursprung (O') eines zweiten Referenzsystems des visuellen Sensors mit zwei Koordinatenachsen in der zweidimensionalen Bildebene an einem Punkt in dem dreidimensionalen Raum entsprechend dem auf dem zweidimensionalen Bild ausgewählten interessierenden Punkt angeordnet ist.
Description
Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zur Positio
nierung eines Messkopfes auf einer dreidimensionalen Messmaschine.
Berührungsfreie dreidimensionale Messmaschinen sind bekannt, bei denen ein Teil
entlang den drei Koordinatenachsen X, Y und Z eines ersten Referenzsystemes der
Maschine bewegbar ist und einen Messkopf trägt, der mit dem bewegbaren Teil
zusammenhängt und einen visuellen Sensor hält, der eine Fernsehkamera und
eine Laserstrahlerzeugungseinrichtung enthält.
Die Kamera nimmt einen dreidimensionalen Raum (bspw. einen pyramiden
förmigen Raumwinkel) auf, der eine optische Symmetrieachse hat, die sich mit der
Symmetrieachse des Laserstrahls an einem Punkt (Referenzmittelpunkt) schneidet,
der den Ursprung eines zweiten X'-, Y'-, Z'-Referenzsystems des visuellen Sensors
bildet, wobei die Z-Achse davon mit der optischen Symmetrieachse der Kamera
ausgerichtet ist.
Das durch die Kamera aufgenommene Bild weist ein zweidimensionales Bild des
Objektes in dem Messraum auf, welches Bild eine sichtbare (Laser-)Linie hat, die
durch den das Objekt schneidenden Laserstrahl gebildet wird und durch den
Benutzer der Messmaschine auf einem Monitor gesehen wird.
Mittels einer Verarbeitungseinrichtung wird das durch die Kamera aufgenommene
zweidimensionale Bild und die Position des Laserstrahls in dem zweidimensionalen
Bild bezüglich einer Referenzposition (vorzugsweise eine Mittelposition in dem Bild
- Bildmittelpunkt) automatisch analysiert, um die Koordinaten der Punkte auf dem
Objekt bezüglich des zweiten X'-, Y'-, Z'-Referenzsystems des visuellen Sensors zu
bestimmen, und die Messung wird dann durch die Verarbeitungseinrichtung auf das
erste X-, Y-, Z-Referenzsystem der Messmaschine bezogen.
Ein Hauptnachteil der bekannten Messmaschinen ist mit der Positionierung des
Messkopfes verbunden, d. h. wenn der Messkopf in eine Position nahe dem zu
messenden Objekt bewegt wird. Das heißt der Messkopf wird manuell mittels einer
Steuereinrichtung, insbesondere einem sogenannten Joystick bewegt, der ein
Signal erzeugt, um den Messkopf entlang der drei X-, Y-, Z-Maschinenachsen zu
bewegen, während das durch den Benutzer auf dem Monitor beobachtete Bild das
durch den visuellen Sensor aufgenommene Bild ist und gemäß den drei X'-, Y'-, Z'-
Achsen orientiert ist, die nicht den X-, Y-, Z-Maschinenachsen entsprechen. Da
ferner der Benutzer den Messkopf nur entlang den X-, Y-, Z-Achsen steuern kann
und die Beziehung zwischen den X'-, Y'-, Z'- und X-, Y-, Z-Achsen nicht weiß, wird
der Benutzer mit erheblichen Schwierigkeiten bei der Positionierung des
Messkopfes unter Verwendung der manuellen Steuereinrichtung und des auf dem
Monitor gezeigten Bildes konfrontiert.
Es ist eine Aufgabe der vorliegenden Erfindung, eine Messvorrichtung zu liefern,
die es erlaubt, dass der Messkopf leicht wie gewünscht bewegt und an einer
festgelegten Position bezüglich des Objektes unter Verwendung des Bildes des
Objektes auf dem Monitor eingestellt werden kann.
Erfindungsgemäß wird eine Vorrichtung zur Positionierung eines Messkopfes einer
berührungsfreien dreidimensionalen Messmaschine gemäß Anspruch 1 vorgeschla
gen.
Die vorliegende Erfindung betrifft auch ein Verfahren zur Positionierung eines
Messkopfes einer berührungsfreien dreidimensionalen Messmaschine gemäß
Anspruch 9.
Ein nicht beschränkendes Ausführungsbeispiel der Erfindung wird anhand eines
Beispieles unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in
denen:
Fig. 1 eine erfindungsgemäße berührungsfreie dreidimensionale Messvorrichtung
zeigt;
Fig. 2a eine Ansicht eines Messkopfes der Vorrichtung von Fig. 1 in einer ersten
Betriebsposition in vergrößertem Maßstab zeigt;
Fig. 2b den Kopf von Fig. 2a in einer zweiten Betriebsposition zeigt,
Fig. 3 das Funktionsprinzip des visuellen Sensors auf dem Messkopf zeigt;
die Fig. 4a, 4b, 4c jeweilige durch den visuellen Sensor aufgenommene Bilder
zeigen,
Fig. 5 die Beziehungen zwischen den verschiedenen Referenzsystemen zeigt, die
bei der erfindungsgemäßen Messvorrichtung eingesetzt werden;
Fig. 6 eine Reihe von Schritten zeigt, die durch die erfindungsgemäße
Messvorrichtung ausgeführt wird;
Fig. 7 ein erstes durch die erfindungsgemäße Messvorrichtung verarbeitetes Bild
zeigt;
Fig. 8 ein zweites durch die erfindungsgemäße Messvorrichtung verarbeitetes Bild
zeigt,
Fig. 9 eine Variante der Messvorrichtung von Fig. 1 zeigt;
die Fig. 10a, 10b, 10c und 10d Bilder zeigen, die durch den visuellen Sensor
der Vorrichtung von Fig. 9 aufgenommen sind.
Bezugszeichen 1 in Fig. 1 bezeichnet die berührungsfreie dreidimensionale
Messvorrichtung als ganze, wobei eine bekannte Messmaschine, beispielsweise
eines Typs mit bewegbarem Querträger ein Teil (Säule) 12 aufweist, das durch
(nicht dargestellte) Aktuatoren in drei senkrechten Koordinatenrichtungen X, Y, Z in
einem dreidimensionalen Messraum T bewegt wird.
Die Messmaschine 10 hat daher ein jeweiliges X-, Y-, Z-Referenzsystem (auch
bekannt als Maschinenreferenzsystem mit den Maschinenachsen X, Y, Z) mit
einem Ursprung O, und aufweisend (nicht dargestellte) bekannte elektronische
Messwandler zur Bestimmung der X-, Y-, Z-Position des bewegbaren Teils 12
bezüglich dem Ursprung O des X-, Y-, Z-Referenzsystems.
Die Messvorrichtung 1 weist auch einen (bekannten) Messkopf 15 auf, der durch
das bewegbare Teil 12 getragen wird. Insbesondere weist der Messkopf 15 einen
ersten Körper 18 auf, der fest an das bewegbare Teil 12 eingepasst ist und einen
zweiten Körper 20 (Fig. 2a, 2b) auf, der axial symmetrisch ist und bezüglich des
ersten Körpers 18 bewegbar ist. Insbesondere weist der zweite Körper 20 einen
ersten Endabschnitt auf, der schwenkbar mit einem bewegbaren Endabschnitt 18a
des ersten Körpers verbunden ist und sich daher um eine im wesentlichen
horizontale Achse drehen kann, die in den Fig. 2a, 2b durch P bezeichnet ist
(Höhenwinkel), und der bewegbare Endabschnitt 18a kann sich bezüglich dem
drehbaren Teil 12 um eine jeweilige Symmetrieachse R (Rollwinkel) drehen.
Der Höhenwinkel (Pitch) und der Rollwinkel (Roll) verändern sich diskret und haben
daher ein endliche Anzahl.
Der Messkopf 15 hat daher zwei Freiheitsgrade, die durch Höhen- bzw. Rolldre
hungen definiert werden.
Der Körper 20 hat einen zweiten Endabschnitt mit einer (schematisch gezeigten)
Verbindungseinrichtung 22, durch die ein (schematisch gezeigter) visueller Sensor
25 angebracht wird.
Wie in Fig. 3 gezeigt ist, weist der visuelle Sensor 25 ein äußeres Gehäuse 28
auf, das mit der Verbindungseinrichtung 22 verbunden ist und weist eine
(schematisch gezeigte) Fernsehkamera 31 und eine Quelle 33 eines Laserstrahls
35 auf. Die Kamera 31 nimmt einen in Fig. 3 durch einen pyramidenförmigen
Raumwinkel mit der an der (nicht gezeigten) Linse der Kamera 31 angeordneten
Spitze auf. Der Raumwinkel 38 hat eine zugehörige optische Achse 41 (durch eine
Strich-Punkt-Linie gezeigt) und ist durch vier Ebenen P1, P2, P3, P4 definiert, die
sich schneiden, um vier Kanten K, L, M, N (durch gerade Linien angegeben) des
Raumwinkels 38 zu definieren.
Der Laserstrahl 35 hat eine entsprechende Symmetrieachse 44 (durch eine strich
punktierte Linie dargestellt), die den dreidimensionalen Raum 38 schneidet und der
Punkt, an dem sich die Achsen 44 und 41 treffen, ist durch CR (Referenzmittel
punkt) bezeichnet.
Der Schnittpunkt des Laserstrahls 35 mit dem Raumwinkel 38 definiert einen
messbaren Raum 47 in Form einer abgeschnittenen Pyramide, die lateral durch die
Abschnitte der Ebenen P1, P2, P3, P4 und durch rechteckförmige Basisflächen PS
und P6 senkrecht zur Achse 41 definiert ist. Insbesondere hat die Ebene PS eine
gerade Kante LM, die durch den die Ebene P1 schneidenden Strahl 35 definiert ist
und die Ebene P6 hat eine gerade Kante RM, die durch den Strahl 35, der die der
Ebene P1 gegenüber liegende Ebene P3 schneidet, definiert ist.
Die Fig. 4a, 4b und 4c zeigen eine Anzahl von Bildern, um das Funktionsprinzip
des visuellen Sensors 25 zu illustrieren. Die Fig. 4a, 4c zeigen durch die
Kamera 31 aufgenommene Bilder relativ zu einem flachen Objekt (beispielsweise
einer nicht gezeigten Metallplatte) koplanar mit der Ebene PS beziehungsweise P6,
wobei jedes Bild eine Linie (Laserlinie) 50 aufweist, die durch den das Objekt
schneidenden Strahl 35 gebildet wird.
Insbesondere ist die Laserlinie 50 an der linken lateralen Kante des Bildes von
Fig. 4 und an der rechten lateralen Kante des Bildes von Fig. 4c angeordnet. In
dem Fall, wenn das Objekt koplanar mit der Ebene durch den Punkt CR
(Referenzmittelpunkt) und senkrecht zur Achse 41 ist, ist die Laserlinie 50 in der
Mitte entlang des Bildes angeordnet (Fig. 4b).
Die Bewegung des Objektes innerhalb des Messraums 47 bewegt daher die
Laserlinie in dem erfassten Bild, wobei die Bewegung der Laserlinie bezüglich
einem festen Referenzpunkt in dem Bild - beispielsweise eine Entfernung D
zwischen der Laserlinie 50 und dem Bildzentrum CI - auf die Position des Objektes
entlang der Achse 41 und daher auf die Entfernung des Objektes von der Kamera
31 bezogen ist. In dem gezeigten Ausführungsbeispiel ist das Bild rechteckförmig,
der Bildmittelpunkt (Bildzentrum) CI stimmt mit dem Punkt überein, an dem sich die
Winkelhalbierenden der Innenwinkel des rechteckigen Umfangs des Bildes treffen,
und die Entfernung D wird parallel zur Hauptseite des rechteckförmigen Bildes
gemessen.
Durch Messung der Entfernung D in dem durch die Kamera aufgenommenen Bild
ist es so mittels bekannter trigonometrischer Berechnungen möglich, die tatsäch
liche Entfernung zwischen dem Objekt und der Kamera zu bestimmen.
Der visuelle Sensor 25 hat ein entsprechendes internes X'-, Y'-, Z'-Referenzsystem,
dessen Ursprung O' an dem Referenzzentrum CR positioniert ist und dessen Z'-
Achse entlang der Achse 41 (Fig. 3) ausgerichtet ist.
Insbesondere können in dem durch die Kamera 31 aufgenommenen zweidimen
sionalen Bild die Achsen X', Y' koplanar mit der Bildebene orientiert werden, wobei
der Ursprung O' an dem Bildzentrum CI (Fig. 4a bis 4d) positioniert ist, und die
Position der Z'-Achse, die daher in dem Bild nicht direkt bestimmt werden kann,
wird wie vorher angegeben mit Hilfe der Laserlinie 50 bestimmt.
Die Vorrichtung 1 (Fig. 1) weist auch eine Zentralverarbeitungseinheit 52 (Fig. 1)
auf, die vorzugsweise durch einen VAX-Microcomputer definiert ist, der mit der
Messmaschine 10 (von der er die Positionsmessung des Teils 12 erhält) und mit
dem visuellen Zentrum 25 kommuniziert. Insbesondere ist der Sensor 25 mit einem
Personalcomputer (beispielsweise einem 486er PC) zur Verarbeitung des Bildes
verbunden, der wiederum durch ein DECNET-Netzwerk 53 mit einer Einheit 52
verbunden ist, um die innerhalb des Messraums 47 bestimmte dreidimensionale
Information zu liefern.
Außerdem ist ein mit der Einheit 52 verbundenes Videoterminal 54 als Schnittstelle
mit der Messmaschine vorgesehen und außerdem ein mit dem PC verbundenes
Videoterminal (Monitor) 54a, um das Bild anzuzeigen und verschiedene
charakteristische Sensorparameter einzugeben.
Zum Betrieb benötigt die Vorrichtung 1 eine Anzahl von sogenannten intrinsischen
und extrinsischen Kalibrierparametern.
Intrinsische Parameter beschreiben die internen Eigenschaften des visuellen
Sensors 25 und sind dem visuellen Sensor selbst inhärent.
Die Kamera 31 liefert ein zweidimensionales Bild (Fig. 4a bis 4c), das durch
eine rechteckförmige Matrix aus (beispielsweise 500 × 582) Pixeln besteht, und in
der die Information relativ zu der Position (d. h. der Entfernung) des Objektes
entlang der Z'-Achse indirekt durch Messung und Verarbeitung des Wertes der
Entfernung D zwischen der Laserlinie 50 und der Bildmitte CI wie oben erwähnt
bestimmt wird.
Die realen Dimensionen des Objektes (entlang der Achsen X', Y') können direkt
durch Untersuchung und Umwandlung der entsprechenden Dimensionen des
Objektes mittels eines geeigneten Skalenfaktors bestimmt werden.
Jeder Bildpunkt (Pixel) in dem durch die Kamera aufgenommenen Bild entspricht
so einer realen Dimension (in mm), die eine Funktion der Entfernung des Objektes
von der Kamera 31, d. h. eine reale Dimension des Objektes (entlang der X'- oder
Y'-Achse) ist durch einen Skalenfaktor, der eine Funktion der Entfernung entlang
der Z'-Achse ist, mit der Dimension des Bildes in Bezug gesetzt:
reale Dimension (in mm) = Pixeldimenision * f(Z'),
wobei f(Z') durch einen Satz von intrinsischen Parametern bestimmt ist.
Extrinsische Parameter beziehen andererseits den visuellen Sensor 25 auf den
Messumfang der Messmaschine 10.
Das heißt der visuelle Sensor 25 erzeugt Messungen unter Bezugnahme auf das
X'-, Y'-, Z'-Referenzsystem innerhalb des Messraumes 47, welche mittels der
extrinsischen Parameter auf das X-, Y-, Z-Referenzsystem der Maschine 10 bezo
gen werden.
Insbesondere verwendet die Vorrichtung 1:
- - einen ersten Satz extrinsischer Parameter, die definiert sind durch die Rotations matrix ROT-MAX, die das X-, Y-, Z-Referenzsystem auf das X'-, Y'-; Z'-Referenz system bezieht;
- - einen zweiten Satz extrinsischer Parameter, die den CT-CR oder sogenannten OFFSET-Vektor beschreibt (wobei CR der Ursprung des X'-, Y'-, Z'-Referenz systems und CT der Mittelpunkt des bewegbaren Teils 12 (Fig. 3) ist).
Die erwähnten extrinsischen Parameter werden für jede mögliche Orientierung des
Messkopfes 15 berechnet.
Fig. 5 zeigt die Beziehung zwischen den zwei Referenzsystemen, um klar die
durch den Messkopf 1 ausgeführten Vorgänge zu illustrieren, und wie die intrin
sischen und extrinsischen Parameter verwendet werden, um die Messung auszu
führen.
Insbesondere zeigt Fig. 5 das kartesische X-, Y-, Z-Referenzsystem der Messma
schine 10, das X'-, Y'-, Z'-Referenzsystem des visuellen Sensors 25, den OFFSET-
Vektor, der sich zwischen dem Ursprung O' des X'-, Y'-, Z'-Referenzsystems und
dem Kopfmittelpunkt CT des bewegbaren Teils 12 erstreckt, den Vektor CTPOS,
der sich zwischen dem Ursprung O des X-, Y-, Z-Referenzsystems und dem Kopf
mittelpunkt CT erstreckt und den Vektor V, der sich zwischen dem Ursprung O des
X-, Y-, Z-Referenzsystems und dem Ursprung O' des X'-, Y'-, Z'-Referenzsystem
erstreckt.
Für jeden Punkt P im Raum liefert der visuelle Sensor 25 eine durch einen Vektor
m' ausgedrückte Messung, die bezüglich des kartesischen X'-, Y'-, Z'-Referenz
systems bezogen und orientiert ist und auf das X-, Y-, Z-Referenzsystem bezogen
werden muss.
Für diesen Zweck wird der durch den visuellen Sensor 25 bestimmte Vektor m'
mittels der Rotationsmatrix ROT-MAX durch die Messeinrichtung 1 (auf bekannte
Art und Weise) gemäß der Gleichung m = ROT-MAX * x(m') umgewandelt, um
einen Vektor m zu erzeugen, der bezüglich des X-, Y-, Z-Referenzsystems
orientiert ist.
Der Vektor m muss auch zu dem Vektor V addiert werden, um die Messung des
Punktes P auf das X-, Y-, Z-Referenzsystem zu beziehen und eine Messung M des
Punktes P bezüglich X, Y, Z zu erhalten, d. h. M = m + V.
Der Vektor V wird berechnet durch Addition des Vektors CTPOS und des OFFSET-
Vektors. Insbesondere wird der Vektor CTPOS durch (nicht gezeigte) Wandler
geliefert, die entlang den drei Achsen der Maschine 10 angeordnet sind (Vektor
CTPOS beschreibt die Position des Kopfmittelpunkts CT des beweglichen Teils 12
bezüglich des X-, Y-, Z-Referenzsystems), während der OFFSET-Vektor wie
erwähnt einen der extrinsischen Parameter ist.
Die Kalibrierungsparameter (intrinsische und extrinsische Parameter) werden auf
bekannte Art und Weise berechnet, wie zum Beispiel in der italienischen Patent
anmeldung TO95A-000388 beschrieben ist und hier aus Gründen der Kürze nicht
behandelt wird.
Fig. 6 zeigt ein Logikblockdiagramm der durch die erfindungsgemäße Positio
nierungsvorrichtung ausgeführten Operationen. Die Positionierungsvorrichtung wird
durch elektronische Schaltungen definiert, die in der Zentralverarbeitungseinheit 52
und/oder dem Personalcomputer PC integriert sind, kann jedoch offensichtlich auch
eine Anzahl separater elektronischer Schaltungen enthalten, die mit der Messma
schine 10 kommunizieren.
Um damit zu beginnen, nimmt ein Block 100 mittels einer Kamera 31 ein Bild Im
davon auf, was immer im Messraum 47 angeordnet ist. Das Bild Im ist wie erwähnt
durch eine Matrix von Punkten (Pixeln) P(x,y) definiert, die wiederum durch eine
ganze Zahl relativ zu der Helligkeit des Punktes P(x,y) definiert sind und werden
vorübergehend gespeichert und auf dem Videoterminal 54a angezeigt, um dem
Benutzer zu erlauben, direkt zu überwachen, was der Sensor 25 "sieht".
Ein Beispiel des auf dem Videoterminal 54a angezeigten Bildes Im ist in Fig. 7
gezeigt, in der das Bild Im sich auf die Messung einer flachen Platte B (Fig. 1) mit
einem Loch H bezieht und daher einen Hintergrund BK (repräsentierend das Bild
der flachen Platte B) einer im wesentlichen konstanten Helligkeit und einen
kreisförmigen Bereich CIR (der das Bild des Loches H repräsentiert) dunkler als der
Hintergrund BK aufweist.
Das Bild Im kann vorzugsweise, aber nicht exklusiv, die Y'- und X'-Achsen mit Ur
sprung O' zeigen, die in der Mitte CI des Bildes Im angeordnet sind.
Die Y'- und X'-Achsen sind zueinander senkrecht und liegen in der Ebene, die
durch das erfasste zweidimensionale Bild Im definiert ist.
Dem Block 100 folgt ein Bock 110, der die Anzeige eines Zeigers P auf dem Bild Im
ausführt, der vorzugsweise, aber nicht ausschließlich, durch einen Pfeil definiert
sein kann.
Der Zeiger P kann (durch normale Operationen der Verarbeitungsvorrichtung) ma
nuell mittels einer Steuereinrichtung 55 (Maus), die mit dem Personalcomputer PC
verbunden ist, bewegt werden (Fig. 1), um den (nicht gezeigten) Benutzer in die
Lage zu versetzen, den Zeiger P manuell an jeden Punkt des Bildes Im zu positio
nieren.
Zu diesem Zweck folgt dem Block 110 ein Block 120, der einen manuellen Befehl
(unter Verwendung der Maus 55) zur Bewegung des Zeigers P erwartet und, wenn
der manuelle Befehl erfasst wird, von Block 120 zu Block 130 weiter geht, der das
durch die Maus 55 erzeugte elektrische Signal in ein verarbeitetes Signal des
Personalcomputers PC umwandelt, welches den Zeiger wie angefordert auf dem
Bild Im bewegt.
Dem Block 130 folgt ein Block 140, der einen weiteren manuellen Befehl erwartet -
gegeben beispielsweise durch Drücken einer der beiden Knöpfe TS an der Maus
55 -, der angibt, dass eine festgelegte Position des Zeigers P erreicht wurde. In
Abwesenheit dieses weiteren Befehls geht der Block 140 zurück zu Block 120, um
eine weitere Bewegung des Zeigers P auf dem Bild Im zu erlauben und, wenn
dieser weitere Befehl erfasst wurde, geht der Block 140 weiter zu einem Block 150.
Offensichtlich können weitere Verarbeitungsschritte und/oder Operationen gleich
zeitig mit den in den oberen Blöcken beschriebenen Operationen ausgeführt
werden.
In anderen Worten wird Block 150 gewählt, wenn ein Zeiger P eine festgelegte
Position erreicht und bestimmt die xp- und yp-Koordinaten des Zeigers P bezüglich
des X'-, Y'-, Z'-Referenzsystems des Bildes Im. Die xp-Koordinate wird ausgedrückt
als eine Anzahl von Pixeln in dem Bild, gemessen zwischen dem Zeiger P und dem
Bildmittelpunkt CI und parallel zu einer Schmalseite des Bildes Im (Bild Im ist
rechteckig), und die yp-Koordinate wird als die Anzahl von Pixeln in dem Bild
ausgedrückt, gemessen zwischen dem Zeiger P und dem Bildmittelpunkt CI und
parallel zu einer Breitseite des rechteckigen Bildes Im.
Die Position des Zeigers P gibt einen interessierenden Punkt P(xp, yp) in dem
zweidimensionalen Bild Im entsprechend einem physikalischen Punkt Pf (Fig. 1)
auf dem Objekt in dem dreidimensionalen Messraum 47 an. In dem in den Fig.
1 und 7 gezeigten Beispiel entspricht der physikalische Punkt Pf dem Mittelpunkt
des Loches H.
Dem Block 150 folgt ein Block 160, welcher die Entfernung dp (gemessen in Pixeln
auf dem Bild Im) zwischen der Laserlinie 50 auf dem Bild und dem Bildmittelpunkt
CI bestimmt.
Block 160 folgt ein Block 170, welcher die auf dem zweidimensionalen Bild Im
gemessene Pixelentfernung dp in eine Entfernung dm ausgedrückt in mm und
bezüglich des X'-, Y'-, Z'-Referenzsystem des visuellen Sensors 25 umwandelt. Die
Entfernung dm repräsentiert die Entfernung zwischen der Laserlinie 50 und dem
Ursprung O' gemessen entlang der Z'-Achse.
Wie erwähnt wird die Umwandlung (auf bekannte Art und Weise) unter Verwen
dung der erwähnten intrinsischen Parameter ausgeführt und wird daher nicht im
Detail erläutert.
Block 170 folgt ein Block 180, der die vorher berechnete Entfernung dm dem
physikalischen Punkt Pf zuweist, d. h. die Entfernung des physikalischen Punktes Pf
definiert auf dem Bild Im durch den Zeiger P entlang der Z'-Achse wird gleich der
Entfernung der Laserlinie 50 gemessen entlang der Z'-Achse gemäß der folgenden
Gleichung approximiert:
pz = dm,
wobei pz die Entfernung entlang der Z'-Achse des physikalischen Punktes Pf ist.
Die obige Approximation ist definitiv akzeptabel, wenn der physikalische Punkt Pf
und die Laserlinie 50 im wesentlichen koplanar mit der (nicht gezeigten) Ebene
senkrecht zu der optischen Achse 41 sind (Fig. 3).
Block 180 folgt ein Block 190, der die vorher in Block 150 bestimmten xp- und yp-
Koordinaten wieder aufruft. Die (in Pixeln auf dem Bild Im gemessenen) xp- und yp-
Koordinaten werden in jeweilige Entfernungen xm, ym (Block 200 stromabwärts von
Block 190) umgewandelt, ausgedrückt in mm und bezogen auf das X'-, Y'-, Z'-
Referenzsystems des visuellen Sensors 25. In diesem Fall wird auch (auf bekannte
Art und Weise) die Umwandlung unter Verwendung der vorher erwähnten intrinsi
schen Parameter ausgeführt und wird daher nicht im Detail erläutert.
Block 200 erzeugt daher ein Paar von Koordinaten xm, ym, die die Position entlang
der X'- und Y'-Achse des physikalischen Punktes Pf entsprechend dem durch den
Zeiger P ausgewählten interessierenden Punkt P repräsentieren.
Dem Block 200 folgt ein Block 210, der die vorher berechneten Koordinaten xm, ym
und dm, die die Koordinaten des physikalischen Punktes Pf bezüglich des karte
sischen X'-, Y'-, Z'-Referenzsystems definieren, in das X-, Y-, Z-Referenzsystem
der Maschine 10 umwandelt, um Koordinaten xm, ym und dm zu erzeugen, die die
Position des physikalischen Punktes Pf bezüglich der X-, Y-, Z-Achsen der
Maschine 10 beschreibt.
Dem Block 210 folgt ein Block 220, der den Messkopf 15 zu dem gewählten
Ursprung O' des X'-, Y'-, Z'-Referenzsystems zu der durch die xm-, ym- und dm-
Koordinaten definierten Position bewegt.
Die Koordinaten des physikalischen Punktes Pf bezüglich X, Y, Z sind tatsächlich
von den oben beschriebenen Operationen bekannt und die Koordinaten von O' be
züglich X, Y und Z sind der Maschine 10 ebenfalls bekannt, die den Betrag und die
Richtung des Vektors V kennt, der sich zwischen dem Ursprung O des X-, Y-, Z-
Referenzsystems und dem Ursprung O' des X'-, Y'-, Z'-Referenzsystems erstreckt
(Fig. 5).
Der Messkopf 15 wird so automatisch bewegt und innerhalb des dreidimensionalen
Raumes positioniert, so dass der Ursprung O' des zweiten X'-, Y'-, Z'-Referenz
systems an einem Punkt innerhalb des dreidimensionalen Raumes (physikalischer
Punkt Pf) entsprechend dem ausgewählten interessierenden Punkt in dem
zweidimensionalen Bild Im positioniert ist. Der Bildmittelpunkt CI (der tatsächlich
dem Ursprung O' oder dem in dem Bild 1 m gesehenen Punkt CR entspricht) wird so
in Übereinstimmung mit dem vorher durch den Zeiger P (Fig. 8) definierten inte
ressierenden Punkt in Übereinstimmung gebracht.
Dem Block 220 folgt ein Block 230, der einen manuellen Ende-des-Zyklus-Befehl
erwartet und bei Empfang des Befehls die obige Prozedur beendet. Andernfalls
geht Block 230 zurück zu Block 100, um das durch den visuellen Sensor 25
aufgenommene Bild Im auf dem Video anzuzeigen. Das neue dargestellte Bild, das
der in Block 220 ausgeführten Bewegung des Messkopfes 15 folgt, weist den
Zeiger P auf, der den interessierenden Punkt am Bildmittelpunkt CI aufweist. Das
heißt der Bildmittelpunkt CI ist nun von der vorherigen Position zu der durch den
Zeiger P angegebenen Position "verschoben".
Am Ende der obigen automatischen Positionierungsprozedur bewegt sich die
Laserlinie 50 zu der Mitte des Bildes, um die korrekte Positionierung entlang der Z'-Achse
anzugeben.
In der tatsächlichen Benutzung beobachtet der Benutzer nach Einschalten der
Messvorrichtung 1, der Zentralverarbeitungseinheit 52 und des Personalcomputers
PC das durch die Kamera 31 aufgenommene Bild auf dem Video. Unter
Verwendung des Zeigers P wählt der Benutzer den interessierenden Punkt auf dem
Bild Im, um den das Bild zu zentrieren ist, aus, und drückt nach Einstellung des
Zeigers auf den interessierenden Punkt den Knopf auf der Maus 55, um ein
Bestätigungssignal zu liefern. Die in den Blöcken 150 bis 220 gezeigten
Operationen werden dann automatisch aktiviert und der Messkopf wird automatisch
so bewegt, dass der Mittelpunkt des nun erfassten Bildes (d. h. desjenigen, das
aufgenommen wurde, nachdem der Messkopf bewegt wurde) an dem vorher durch
den Zeiger ausgewählten Punkt angeordnet ist.
Das auf dem Monitor angezeigte Bild des Objektes wird dann in Verbindung mit
dem Zeiger P verwendet, die Bewegung des Messkopfes 15 wie benötigt zu
steuern, und um den Messkopf auf eine festgelegte Position bezüglich des Objek
tes einzustellen.
Selbstverständlich können Änderungen an dem Verfahren und der Vorrichtung, die
hier beschrieben wurden, ausgeführt werden, ohne von der vorliegenden Erfindung
abzuweichen.
Beispielsweise verwendet die in Fig. 9 gezeigte Vorrichtung ein visuellen Sensor
25a, der zwei Laserstrahlen einsetzt. Wie in Fig. 3 gezeigt ist, weist der visuelle
Sensor 25a ein äußeres Gehäuse 28, das mit der Verbindungseinrichtung 22
verbindbar ist, auf und nimmt eine (schematisch gezeigte) Kamera 31 und eine
erste Quelle 33a eines Laserstrahls 35a auf.
Die Kamera 31 nimmt einen in Fig. 9 durch einen pyramidenförmigen Raumwinkel
repräsentierten dreidimensionalen Raum 38 auf, wobei die Spitze an der (nicht ge
zeigten) Linse der Kamera 31 angeordnet ist. Der Raumwinkel 38 hat eine
entsprechende optische Achse 41 (dargestellt durch eine strichpunktierte Linie) und
ist durch vier Ebenen P1, P2, P3 und P4 definiert, die sich schneiden, um vier
Kanten K, L, M und N (durch durchgezogene Linien angegeben) des Raumwinkels
38 zu definieren.
Der Laserstrahl 35a hat jeweilige Symmetrieachsen 44a (durch eine strichpunk
tierte Linie dargestellt), die den dreidimensionalen Raum 38 schneiden.
Der visuelle Sensor 25 weist auch eine zweite Quelle 33b eines Laserstrahls 35b
auf, der eine zugehörige Symmetrieachse 45b (durch eine strichpunktierte Linie
dargestellt) aufweist, die den dreidimensionalen Raum 38 schneidet.
Der Punkt, an dem sich die Achsen 44a, 44b und 41 treffen, wird durch CR
(Referenzmittelpunkt) bezeichnet und der visuelle Sensor 25a hat ein zugehöriges
internes X'-, Y'-, Z'-Referenzsystem, dessen Ursprung O' am Referenzmittelpunkt
CR angeordnet ist, dessen Z'-Achse entlang der Achse 41 ausgerichtet ist.
Der Schnitt des Laserstrahls 35a mit dem Raumwinkel 38 definiert einen mess
baren Raum 47 in der Form eines Pyramidenstumpfes, der lateral durch Abschnitte
der Ebenen P1, P2, P3, P4 und durch eine rechteckförmige Schmalseitenebene PS
und eine rechteckförmige Breitseitenebene P6, beide senkrecht zur Achse 41,
definiert ist.
Insbesondere hat die Ebene PS eine gerade Kante KN, die durch den die Ebene P1
schneidenden Strahl 35a definiert ist, und die Ebene P6 hat eine gerade Kante LM,
die definiert ist durch den die Ebene P3 schneidenden Strahl 35a.
Ähnlich hat die Ebene PS eine gerade Kante KL, die durch den die Ebene P2
schneidenden Strahl 35b definiert ist und Ebene P6 hat eine gerade Kante NM, die
durch den Strahl 35a, der die Ebene P4 schneidet, definiert ist.
Die Fig. 10a, 10b, 10c und 10d zeigen eine Anzahl von Bildern, um das Funk
tionsprinzip des visuellen Sensors 25a zu illustrieren.
Fig. 10a zeigt ein durch die Kamera 31 relativ zu einem flachen Objekt (beispiels
weise einer nicht gezeigten Metallplatte), das koplanar mit einer Ebene senkrecht
zur Achse 41 ist und durch den Referenzmittelpunkt geht, aufgenommenes Bild.
Das Bild hat eine erste Laserlinie 50a, die durch einen Strahl 35a gebildet wird, der
das Objekt schneidet, und eine zweite Laserlinie 50b, die durch den das Objekt
schneidenden Strahl 35b gebildet wird; die Laserlinien 50a und 50b sind zuein
ander senkrecht und schneiden sich im Bildmittelpunkt CI entsprechend dem Refe
renzmittelpunkt CR.
In dem durch die Kamera 31 aufgenommenen rechteckigen zweidimensionalen Bild
können die Achsen X', Y' koplanar mit der Bildebene orientiert werden, wobei der
Ursprung O' am Bildmittelpunkt angeordnet ist (Fig. 10a).
Wie vorher erwähnt bewegt die Bewegung des Objektes innerhalb des Mess
raumes 47 und senkrecht zur Achse 41 die Laserlinien 50a, 50b in dem erfassten
Bild, welche Bewegung jeder Laserlinie bezüglich eines jeweiligen festen
Referenzpunktes in dem Bild - beispielsweise Entfernung Da, Db zwischen der
Laserlinie 50a, 50b und dem Bildmittelpunkt CI - sich auf die Position des Objektes
entlang der Achse 41 und damit auf die Entfernung des Objektes von der Kamera
31 bezieht.
In dem in Fig. 10a gezeigten Ausführungsbeispiel ist das Bild rechteckig, der
Bildmittelpunkt CI stimmt mit dem Punkt überein, an dem sich die winkelhal
bierenden Innenwinkel des rechteckförmigen Umfangs des Bildes treffen, die Ent
fernung Da wird parallel zu der Längsseite des rechteckigen Bildes und die
Entfernung Db parallel zu einer Schmalseite des rechteckigen Bildes gemessen.
Die Position der Z'-Achse, die nicht direkt im Bild bestimmt werden kann, wird wie
vorher beschrieben mit Hilfe der Laserlinien 50a, 50b bestimmt.
Die Rotation des flachen Objektes um eine Achse parallel zu den Kanten KN, LM
hat keinen Kippeffekt auf die Laserlinie 50a, die senkrecht zu den Längsseiten des
Bildes (Fig. 10b) bleibt, kippt jedoch die Laserlinie 50b bezüglich der Laserlinie
50a.
Ähnlich hat die Rotation des flachen Objektes um eine Achse paralell zu den
Kanten KL; NM keinen Kippeffekt auf die Laserlinie 50b, die parallel zu den
Schmalseiten des Bildes (Fig. 10c) bleibt, jedoch wird die Laserlinie 50a bezüglich
der Laserlinie 50b gekippt.
Die gemeinsame Rotation des flachen Objektes um eine Achse parallel zu den
Kanten KN, LM und um eine Achse parallel zu den Kanten KL, NM kippt die beiden
Laserlinien 50a und 50b, die jeweilige Winkel α und β bezüglich der Achsen X' und
Y' bilden.
Die durch die in Fig. 9 gezeigte Variante der Positionierungsvorrichtung ausge
führten Operationen sind ähnlich den unter Bezugnahme auf die Blöcke 100-150,
190, 200, 210 und 220 in Fig. 6 beschriebenen, wobei der Hauptunterschied in der
Berechnung der Entfernung dm (Blöcke 160, 170, 180) liegt, die bei dem
vorangehenden Ausführungsbeispiel (Fig. 6) auf Basis einer Laserlinie (50)
berechnet wurde.
Um die Entfernung dm zu berechnen, werden bei beiden Laserlinien 50a, 50b ver
wendet, um die folgenden Operationen (Fig. 10d) auszuführen:
- - auf dem Bild Im wird die Entfernung dp1 zwischen einem Punkt L1 auf der ersten Laserlinie 50a und dem Bildmittelpunkt CI in Pixeln gemessen; Punkt L1 hat eine X'-Koordinate gleich der X'-Koordinate xp des Punktes P, d. h. die Entfernung dp1 zwischen der X'-Achse und dem Punkt L1 wird gemessen;
- - die Entfernung dp1 wird durch intrinsische Parameter auf das X', Y', Z'- Referenzsystem bezogen und in eine Entfernung in Millimetern umgewandelt, um eine erste Dimension 21 zu berechnen;
- - eine erste Hilfsachse X" durch den Pinkt L1 und parallel zur X'-Achse wird berechnet;
- - der Punkt L20, an dem sich die erste Hilfsachse X" und die zweite Laserlinie 50b schneiden, wird berechnet;
- - eine zweite Hilfsachse Y" durch den Punkt L20 und parallel zur Y-Achse wird berechnet;
- - auf dem Bild Im wird die Entfernung dp2 zwischen einem Punkt L2 auf der zweiten Laserlinie 50b und der Achse Y" in Pixeln gemessen; Punkt L2 hat eine Y' (oder Y")-Koordinate gleich der Y'-Koordinate yp des Zeigers P;
- - die Entfernung dp2 wird durch intrinsische Parameter auf das X', Y', Z'- Referenzsystem bezogen und in eine Entfernung in Millimetern umgewandelt, um eine zweite Dimension 22 zu berechnen; und
- - die zweite Dimension 22 wird zu der ersten Dimension addiert, um die
Entfernung dm zu erhalten, d. h.:
dm = Z1 + Z2.
Die obige Berechnung der Entfernung dm ist genauer als die unter Bezugnahme
auf Fig. 6 Beschriebene, da sie auch die Neigung des Objektes bezüglich der
Achse 41 berücksichtigt. In manchen Betriebssituationen ist jedoch auch die in
Block 180 gemachte Näherung ausreichend.
Claims (16)
1. Vorrichtung zur Positionierung eines Messkopfes auf einer berührungs
freien dreidimensionalen Messmaschine, wobei der Messkopf (15) der
Messmaschine (1, 10) in einem dreidimensionalen Messraum (T) bewegbar ist, die
Messmaschine (1, 10) eine Einrichtung zur Bestimmung der Position des Mess
kopfes (15) bezüglich eines ersten Referenzsystems X, Y, Z der Messmaschine (1,
10) und definiert durch einen ersten kartesischen Referenzrahmen definiert durch
rechtwinklige X, Y, Z-Koordinatenachsen aufweist;
wobei die Messmaschine (1, 10) auch wenigstens einen durch den Messkopf (15) getragenen visuellen Sensor (25) aufweist, der wenigstens eine Fernsehkamera (31) und eine Erzeugungseinrichtung (33) zur Erzeugung wenigstens eines Laserstrahls (35) aufweist;
wobei die Kamera (31) ein zweidimensionales Bild (Im) des dreidimen sionalen Messraumes (T) aufnimmt, das zweidimensionale Bild (Im) wenigstens einen Referenzpunkt (CI) entsprechend dem Ursprung eines zweiten Referenzsystems X', Y', Z' des visuellen Sensors (25) aufweist und eine erste und eine zweite Koordinatenachse X', Y' senkrecht zueinander und in der durch das zweidimensionale Bild (Im) definierten Ebene hat;
gekennzeichnet durch eine Verarbeitungs- und Steuereinrichtung (52, PC) aufweisend:
wobei die Messmaschine (1, 10) auch wenigstens einen durch den Messkopf (15) getragenen visuellen Sensor (25) aufweist, der wenigstens eine Fernsehkamera (31) und eine Erzeugungseinrichtung (33) zur Erzeugung wenigstens eines Laserstrahls (35) aufweist;
wobei die Kamera (31) ein zweidimensionales Bild (Im) des dreidimen sionalen Messraumes (T) aufnimmt, das zweidimensionale Bild (Im) wenigstens einen Referenzpunkt (CI) entsprechend dem Ursprung eines zweiten Referenzsystems X', Y', Z' des visuellen Sensors (25) aufweist und eine erste und eine zweite Koordinatenachse X', Y' senkrecht zueinander und in der durch das zweidimensionale Bild (Im) definierten Ebene hat;
gekennzeichnet durch eine Verarbeitungs- und Steuereinrichtung (52, PC) aufweisend:
- 1. eine Anzeigeeinrichtung (100), die mit einer Visualisierungseinrichtung (54a) zusammenwirkt, um einem Benutzer das durch die Kamera (31) aufgenommene zweidimensionale Bild (Im) anzuzeigen;
- 2. eine Darstellungseinrichtung (110) zur Anzeige einer Zeigereinrichtung (P) auf dem zweidimensionalen Bild (Im);
- 3. eine durch den Benutzer betätigte Steuereinrichtung (55), um die Zeiger einrichtung (P) auf dem angezeigten zweidimensionalen Bild (Im) zu bewegen (120, 130) und Abschnitte des angezeigten zweidimensionalen Bildes (Im) anzugeben;
- 4. eine Auswahl-Einrichtung (140) zur Auswahl eines interessierenden Punktes (xp, yp) auf dem angezeigten zweidimensionalen Bild (Im), der durch die Zeiger einrichtung (P) angegeben wird;
- 5. eine automatische Steuereinrichtung (150-220) zur automatischen Bewe gung (220) des Messkopfes in eine solche Position innerhalb des dreidimen sionalen Messraumes, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' in dem dreidimensionalen Raum an einem physikalischen Punkt (Pf) entsprechend dem durch die Zeigereinrichtung (P) ausgewählten interessierenden Punkt (xp, yp) auf dem zweidimensionalen Bild positioniert ist.
2. Vorrichtung gemäß Anspruch 1, dadurch gekennzeichnet, dass die
automatische Steuereinrichtung (150-220) aufweist:
- 1. eine Erfassungseinrichtung (150, 160) zur Bestimmung der Koordinaten (xp, yp, dp) des ausgewählten (140) interessierenden Punktes auf dem zweidimen sionalen Bild (Im);
- 2. eine Wandlereinrichtung (170, 200) zur Umwandlung der auf dem zweidimensionalen Bild (Im) bestimmten Koordinaten (xp, yp, dp) in drei dimensionale Koordinaten (xm, ym, zm) bezüglich des zweiten Referenzsystems;
- 3. eine weitere Wandlereinrichtung (210) zur Umwandlung der dreidimensiona len Koordinaten (xm, ym, zm) bezüglich des zweiten Referenzsystems in dreidimensionale Koordinaten (Xm, Ym, Dm) bezüglich des ersten Referenz systems, um so Koordinaten (Xm, Ym, Dm) zu erzeugen, die eine Wieder positionierungs-Position definieren;
- 4. eine Steuereinrichtung (220) zur Bewegung des Messkopfes derart, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' an der Position positioniert ist, die durch die Koordinaten (Xm, Ym, Dm) definiert ist, die diese Wiederpositionierungs-Position definieren.
3. Vorrichtung gemäß Anspruch 2, wobei der Laserstrahl auf ein Objekt
fällt, das in dem dreidimensionalen Messraum gemessen wird, um wenigstens eine
Laserlinie (50) auf dem Objekt zu erzeugen, wobei die Erfassungseinrichtung (150,
160) aufweist:
- 1. eine erste Erfassungseinrichtung (160) zur Bestimmung der Position (dp) der Laserlinie (50) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im);
4. Vorrichtung gemäß Anspruch 3, aufweisend eine Zuweisungseinrichtung
(180) zur Zuweisung der durch die Laserlinie bestimmten ersten dreidimensionalen
Koordinate (zm) zu dem physikalischen Punkt (Pf) in dem dreidimensionalen Raum
entsprechend dem mittels der Zeigereinrichtung (P) ausgewählten interessierenden
Punkt (xp, yp) auf dem zweidimensionalen Bild.
5. Vorrichtung gemäß Anspruch 3, wobei eine weitere Erzeugungsein
richtung (33b) zur Erzeugung eines weiteren Laserstrahls (35b) vorgesehen ist;
der Laserstrahl (35a) auf ein in dem dreidimensionalen Raum gemessenes Objekt fällt, um eine erste Linie (50a) auf dem Objekt zu erzeugen, und der weitere Laserstrahl (35b) auf das Objekt fällt, um eine zweite Laserlinie (50b) auf dem Objekt zu erzeugen;
die Erfassungseinrichtung (150, 160) den Ort der ersten Laserlinie (50a) und der zweiten Laserlinie (50b) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im) bestimmt, um eine erste dreidimensionale Koordinate (zm) des physikalischen Punktes entlang der Z'-Achse zu bestimmen.
der Laserstrahl (35a) auf ein in dem dreidimensionalen Raum gemessenes Objekt fällt, um eine erste Linie (50a) auf dem Objekt zu erzeugen, und der weitere Laserstrahl (35b) auf das Objekt fällt, um eine zweite Laserlinie (50b) auf dem Objekt zu erzeugen;
die Erfassungseinrichtung (150, 160) den Ort der ersten Laserlinie (50a) und der zweiten Laserlinie (50b) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im) bestimmt, um eine erste dreidimensionale Koordinate (zm) des physikalischen Punktes entlang der Z'-Achse zu bestimmen.
6. Vorrichtung gemäß Anspruch 5, wobei die Erfassungseinrichtung die
folgenden Operationen ausführt:
- 1. Messung einer ersten Entfernung (dp1) zwischen einem ersten Punkt (L1) auf der ersten Laserlinie (50a) und dem Referenzpunkt (CI) auf dem zweidimensionalen Bild (Im), wobei der erste Punkt (L1) eine Koordinate entlang einer ersten Achse (X') des zweiten Referenzsystems gleich einer ersten Koordinate (xp) entlang der ersten Achse (X') des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes hat;
- 2. Umwandlung der auf dem zweidimensionalen Bild bestimmten ersten Entfernung (dp1) in eine Entfernung bezüglich des zweiten Referenzsystems X', Y', Z', um eine erste Dimension (21) zu berechnen;
- 3. Berechnung einer ersten Hilfsachse (X") durch den ersten Punkt (L1) paralell zu der ersten Achse (X') des zweiten Referenzsystems;
- 4. Berechnung des Schnittpunktes (L20) der ersten Hilfsachse (X") und der zweiten Laserlinie (50b);
- 5. Berechnung einer zweiten Hilfsachse (Y") durch den Schnittpunkt (L20) und paralell zu einer zweiten Achse (Y') des zweiten Referenzsystems X', Y' Z';
- 6. Messung einer zweiten Entfernung (dp2) zwischen einem zweiten Punkt (L2) auf der zweiten Laserlinie (50b) und der zweiten Hilfsachse (Y") auf dem zweidimensionalen Bild (Im), wobei der zweite Punkt (L2) eine Koordinate entlang einer zweiten Achse (Y') des zweiten Referenzsystems gleich einer zweiten Koordinate (yp) des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes entlang der zweiten Achse (Y') hat;
- 7. Umwandlung der auf dem zweidimensionalen Bild bestimmten zweiten Entfernung (dp2) in eine Entfernung bezogen auf das zweite Referenzsystem X', Y', Z', um eine zweite Dimension (22) zu berechnen;
- 8. Zusammenfügung der ersten (21) und der zweiten (22) Dimension, um die erste dreidimensionale Koordinate (zm) des physikalischen Punktes (Pf) entlang der Z'-Achse zu erhalten.
7. Vorrichtung gemäß einem der Ansprüche 2-6, wobei die Erfassungs
einrichtung (150) ausserdem aufweist:
- 1. eine zweite Erfassungseinrichtung (150) zur Bestimmung der Positionen (xp, yp) der Zeigereinrichtung (P) bezüglich des Referenzpunktes des zweidimensionalen Bildes (Im) und entlang der Koordinatenachsen des zweidimensionalen Bildes (Im);
8. Vorrichtung gemäß einem der vorangehenden Ansprüche, wobei die
Kamera (31) den dreidimensionalen Raum (38), insbesondere einen Raum in Form
eines Raumwinkels mit einer zugehörigen optischen Achse (41) aufnimmt;
wobei der wenigstens eine Laserstrahl (35) eine zugehörige Symmetrieachse (44; 44a; 44b) aufweist, die den dreidimensionalen Raum (38) schneidet;
wobei der Punkt, an dem sich die optische Achse (41) und die Symmetrie achse (44) treffen, den Ursprung eines zweiten kartesischen Referenzrahmens (X', Y'; Z') des Referenzsystems definiert;
wobei der Ursprung des zweiten kartesischen Referenzrahmens auf dem zweidimensionalen Bild (Im) dem zweiten Referenzpunkt (CI) entspricht;
und der zweite kartesische Referenzrahmen durch senkrechte Koordinaten achsen X', Y', Z' definiert ist, von denen die Z'-Achse entlang der optischen Achse (41) orientiert ist.
wobei der wenigstens eine Laserstrahl (35) eine zugehörige Symmetrieachse (44; 44a; 44b) aufweist, die den dreidimensionalen Raum (38) schneidet;
wobei der Punkt, an dem sich die optische Achse (41) und die Symmetrie achse (44) treffen, den Ursprung eines zweiten kartesischen Referenzrahmens (X', Y'; Z') des Referenzsystems definiert;
wobei der Ursprung des zweiten kartesischen Referenzrahmens auf dem zweidimensionalen Bild (Im) dem zweiten Referenzpunkt (CI) entspricht;
und der zweite kartesische Referenzrahmen durch senkrechte Koordinaten achsen X', Y', Z' definiert ist, von denen die Z'-Achse entlang der optischen Achse (41) orientiert ist.
9. Verfahren zur Positionierung eines Messkopfes auf einer
berührungsfreien dreidimensionalen Messmaschine, wobei der Messkopf (15) der
Messmaschine (1, 10) in einem dreidimensionalen Messraum (T) bewegbar ist, die
Messmaschine (10) eine Einrichtung zur Bestimmung der Position des Messkopfes
(15) bezüglich eines ersten Referenzsystems X, Y, Z der Messmaschine (1, 10)
aufweist und welches durch einen ersten kartesischen Referenzrahmen definiert
durch senkrechte Koordinatenachsen X, Y, Z definiert ist;
wobei die Messmaschine (1, 10) auch wenigstens einen durch den Messkopf (15) getragenen visuellen Sensor (25) und wenigstens eine Fernsehkamera (31) und eine Quelle (33) für einen Laserstrahl (35) aufweist;
wobei die Kamera (31) ein zweidimensionales Bild (Im) des dreidimensiona len Messraumes (T) aufnimmt, das zweidimensionale Bild (Im) wenigstens einen Referenzpunkt (CI) entsprechend dem Ursprung eines zweiten Referenzsystems X', Y', Z' des visuellen Sensors (25) aufweist und wenigstens eine erste und eine zweite Koordinatenachse X', Y' senkrecht zueinander und in einer durch das zweidimensionale Bild (Im) definierten Ebene aufweist;
gekennzeichnet durch die Schritte:
wobei die Messmaschine (1, 10) auch wenigstens einen durch den Messkopf (15) getragenen visuellen Sensor (25) und wenigstens eine Fernsehkamera (31) und eine Quelle (33) für einen Laserstrahl (35) aufweist;
wobei die Kamera (31) ein zweidimensionales Bild (Im) des dreidimensiona len Messraumes (T) aufnimmt, das zweidimensionale Bild (Im) wenigstens einen Referenzpunkt (CI) entsprechend dem Ursprung eines zweiten Referenzsystems X', Y', Z' des visuellen Sensors (25) aufweist und wenigstens eine erste und eine zweite Koordinatenachse X', Y' senkrecht zueinander und in einer durch das zweidimensionale Bild (Im) definierten Ebene aufweist;
gekennzeichnet durch die Schritte:
- 1. Anzeige (100) des durch die Kamera (31) aufgenommenen zweidimensiona len Bildes (Im) auf einer Visualisierungseinrichtung (54a);
- 2. Darstellung (110) einer Zeigereinrichtung (P) auf dem angezeigten zweidimensionalen Bild (Im), die mittels einer manuellen Steuerung (55) auf dem zweidimensionalen Bild bewegbar ist (120, 130), um Abschnitte des zweidimensionalen Bildes (Im) anzugeben;
- 3. Auswahl (140) eines interessierenden Punktes (xp, yp), der auf dem zweidimensionalen Bild (im) angezeigt wird mittels der Zeigereinrichtung (P);
- 4. automatische Bewegung (220) des Messkopfes (150-210) in eine solche Position innerhalb des dreidimensionalen Messraumes, dass der Ursprung (O') des zweiten Referenzsystems X', Y', Z' in dem dreidimensionalen Raum an einem physikalischen Punkt (Pf) entsprechend dem ausgewählten interessierenden Punkt (xp, yp) auf dem zweidimensionalen Bild positioniert ist.
10. Verfahren gemäß Anspruch 9, wobei der Schritt der automatischen
Bewegung (220) des Messkopfes (150-210) die Schritte aufweist:
- 1. Bestimmung (150) der Koordinaten (xp, yp, dp) des ausgewählten (140) interessierenden Punktes auf dem zweidimensionalen Bild (Im);
- 2. Umwandlung (170, 190) der auf dem zweidimensionalen Bild (Im) bestimmten Koordinaten (xp, yp, dp) in dreidimensionale Koordinaten (Xm, Ym, Zm) bezüglich des zweiten Referenzsystems;
- 3. Umwandlung (200) der dreidimensionalen Koordinaten (xm, ym, zm) bezüglich des zweiten Referenzsystems X', Y', Z' in dreidimensionale Koordinaten (Xm, Ym, Dm) bezüglich des ersten Referenzsystems X, Y, Z, um so eine Wiederpositionierungs-Position zu erhalten;
11. Verfahren gemäß Anspruch 10, wobei der Schritt der Bestimmung (150)
der Koordinaten (xp, yp, dp) des ausgewählten (140) interessierenden Punktes auf
dem zweidimensionalen Bild (Im) die Unterschritte aufweist:
- 1. Einstrahlung des Laserstrahls auf ein gemessenes Objekt in dem dreidimensionalen Raum, um eine Laserlinie (50) auf dem Objekt zu erzeugen;
- 2. Bestimmung (160) der Position (dp) der Laserlinie (50) bezüglich des Referenzpunktes des zweidimensionalen Bildes (Im);
- 3. Umwandlung (170) der bestimmten Position (dp) der Laserlinie in eine entlang der Z'-Achse des zweiten Referenzsystems X', Y', Z' gemessenen Entfernung, um eine erste dreidimensionale Koordinate (zm) bezüglich des zweiten Referenzsystems zu erhalten.
12. Verfahren gemäß Anspruch 11, ferner aufweisend den Schritt der
Zuweisung (180) der mittels der Laserlinie bestimmten ersten dreidimensionalen
Koordinate (zm) zu dem physikalischen Punkt (Pf) in dem dreidimensionalen Raum
entsprechend dem auf dem zweidimensionalen Bild mittels der Zeigereinrichtung
(P) ausgewählten interessierenden Punkt auf dem zweidimensionalen Bild.
13. Verfahren gemäß Anspruch 11, wobei der Schritt der Bestimmung (150)
der Koordinaten (xp, yp, dp) des auf dem zweidimensionlen Bild (Im) ausgewählten
(140) interessierenden Punktes die Unterschritte aufweist:
- 1. Erzeugung (33a) eines ersten Laserstrahls (35a) und Einstrahlung des ersten Laserstrahls (35a) auf ein Objekt, um eine erste in dem zweidimensionalen Bild (Im) sichtbare Laserlinie (50a) zu erzeugen;
- 2. Erzeugung (33b) eines zweiten Laserstrahls (35b) und Einstrahlung des zweiten Laserstrahls (35b) auf das Objekt um eine zweite in dem zweidimensiona len Bild (Im) sichtbare Laserlinie (50b) zu erzeugen;
- 3. Bestimmung der Position der ersten Laserlinie (50a) und der zweiten Laserlinie (50b) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im), um eine erste dreidimensionalen Koordinate (zm) des physikalischen Punktes (Pf) entlang der Z'-Achse zu bestimmen.
14. Verfahren gemäß Anspruch 13, wobei der Schritt der Bestimmung einer
ersten dreidimensionalen Koordinate (zm) die Unterschritte aufweist:
- 1. Messung einer ersten Entfernung (dp1) zwischen einem ersten Punkt (L1) auf der ersten Laserlinie (50a) und dem Referenzpunkt (CI) auf dem zweidimen sionalen Bild (Im), wobei der erste Punkt (L1) eine Koordinate entlang einer ersten Achse X' des zweiten Referenzsystems X', Y', Z' gleich einer ersten Koordinate (xp) entlang der ersten Achse (X') des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes hat;
- 2. Umwandlung der auf dem zweidimensionalen Bild bestimmten ersten Entfernung (dp1) in eine Entfernung bezüglich des zweiten Referenzsystems X', Y', Z', um eine erste Dimension (21) zu berechnen;
- 3. Berechnung einer ersten Hilfsachse (X") durch den ersten Punkt (L1) und paralell zu der ersten Achse (X') des zweiten Referenzsystems;
- 4. Berechnung des Schnittpunktes (L20) der ersten Hilfsachse (X") und der zweiten Laserlinie (50b);
- 5. Berechnung einer zweiten Hilfsachse (Y") durch den Schnittpunkt (L20) und paralell zu einer zweiten Achse (Y') des zweiten Referenzsystems X', Y', Z';
- 6. Messung einer zweiten Entfernung (dp2) zwischen einem zweiten Punkt (L2) auf der zweiten Laserlinie (50b) und der zweiten Hilfsachse (Y") auf dem zweidimensionalen Bild (Im), wobei der zweite Punkt (L2) eine Koordinate entlang der zweiten Achse (Y') des zweiten Referenzsystems gleich einer zweiten Koordinate (yp) entlang der zweiten Achse (Y') des durch die Zeigereinrichtung (P) angegebenen interessierenden Punktes hat;
- 7. Umwandlung der auf dem zweidimensionalen Bild bestimmten zweiten Entfernung (dp2) in eine Entfernung bezüglich des zweiten Referenzsystems (X', Y', Z'), um eine zweite Dimension (22) zu berechnen; und
- 8. Zusammenfügung der ersten (21) und der zweiten (22) Dimension, um eine erste dreidimensionale Koordinate (zm) des physikalischen Punktes (Pf) entlang der Z'-Achse zu erhalten.
15. Verfahren gemäß einem der Ansprüche 11-14, wobei der Schritt der
Bestimmung (150) der Koordinaten (xp, yp, dp) des auf dem zweidimensionalen
Bild (Im) ausgewählten (140) interessierenden Punktes die Unterschritte aufweist:
- 1. Bestimmung (150) der Positionen (xp, yp) der Zeigereinrichtung (P) bezüglich des Referenzpunktes (CI) des zweidimensionalen Bildes (Im) und entlang von zwei Koordinatenachsen des zweidimensionalen Bildes (Im); und
- 2. Umwandlung (200) der bestimmten Positionen (xp, yp) in jeweilige entlang der X'- und Y'-Achsen des zweiten Referenzsystems gemessene Entfernungen, um eine zweite und eine dritte dreidimensionale Koordinate (xm, ym) bezüglich des zweiten Referenzsystems zu erhalten.
16. Verfahren gemäß einem der Ansprüche 9-15, wobei die Kamera (31)
den dreidimensionalen Raum (38), insbesondere einen Raum in Form eines
Raumwinkels mit einer zugehörigen optischen Achse (41) aufnimmt;
der Laserstrahl (35) eine zugehörige Symmetrieachse (44) aufweist, die den dreidimensionalen Raum (38) schneidet;
der Punkt, an dem sich die optische Achse (41) und die Symmetrieachse (44) treffen, den Ursprung eines zweiten kartesischen Referenzrahmens X', Y', Z' des zweiten Referenzsystems des visuellen Sensors definiert;
der Ursprung des zweiten kartesischen Referenzrahmens auf dem zweidi mensionalen Bild (Im) dem Referenzpunkt entspricht;
der zweite kartesische Referenzrahmen durch senkrechte Koordinatenachsen X', Y', Z' definiert wird, von denen eine Z'-Achse entlang der optischen Achse (41) orientiert ist.
der Laserstrahl (35) eine zugehörige Symmetrieachse (44) aufweist, die den dreidimensionalen Raum (38) schneidet;
der Punkt, an dem sich die optische Achse (41) und die Symmetrieachse (44) treffen, den Ursprung eines zweiten kartesischen Referenzrahmens X', Y', Z' des zweiten Referenzsystems des visuellen Sensors definiert;
der Ursprung des zweiten kartesischen Referenzrahmens auf dem zweidi mensionalen Bild (Im) dem Referenzpunkt entspricht;
der zweite kartesische Referenzrahmen durch senkrechte Koordinatenachsen X', Y', Z' definiert wird, von denen eine Z'-Achse entlang der optischen Achse (41) orientiert ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT1998TO000693A IT1303239B1 (it) | 1998-08-07 | 1998-08-07 | Dispositivo e metodo per il posizionamento di una testa di misura inuna macchina per la misura tridimensionale senza contatto. |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19937265A1 true DE19937265A1 (de) | 2000-02-10 |
Family
ID=11416985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19937265A Withdrawn DE19937265A1 (de) | 1998-08-07 | 1999-08-06 | Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine |
Country Status (6)
Country | Link |
---|---|
US (1) | US6628322B1 (de) |
JP (1) | JP2000097636A (de) |
DE (1) | DE19937265A1 (de) |
FR (1) | FR2782160B1 (de) |
GB (1) | GB2340624B (de) |
IT (1) | IT1303239B1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002025207A1 (de) * | 2000-09-22 | 2002-03-28 | Werth Messtechnik Gmbh | Verfahren zum messen einer objektgeometrie mittels eines koordinationsmessgerätes |
WO2003011514A1 (en) * | 2001-07-26 | 2003-02-13 | Gsi Lumonics Ltd | System and method for delivering an energy beam to selected impinge points on a work piece |
EP2000869A1 (de) * | 2007-05-25 | 2008-12-10 | General Electric Company | System und Verfahren zum Messen von Maschinenwerkzeugen mit einer Kamera |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002027269A1 (de) * | 2000-09-28 | 2002-04-04 | Carl Zeiss | Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel und zwei parameterfeldern |
FI113293B (fi) | 2001-04-19 | 2004-03-31 | Mapvision Oy | Menetelmä pisteen osoittamiseksi mittausavaruudessa |
JP4167954B2 (ja) | 2003-09-02 | 2008-10-22 | ファナック株式会社 | ロボット及びロボット移動方法 |
US7693325B2 (en) * | 2004-01-14 | 2010-04-06 | Hexagon Metrology, Inc. | Transprojection of geometry data |
CN100468327C (zh) * | 2005-11-10 | 2009-03-11 | 鸿富锦精密工业(深圳)有限公司 | 量测程序生成***及方法 |
CN101318263B (zh) * | 2007-06-08 | 2011-12-07 | 深圳富泰宏精密工业有限公司 | 激光雕刻***及采用其进行激光雕刻的方法 |
WO2009128104A1 (en) * | 2008-04-18 | 2009-10-22 | Sea Vision S.R.L. | Manipulator and related operation |
DE202008005750U1 (de) * | 2008-04-25 | 2008-07-10 | Dmg Microset Gmbh | Vorrichtung zur Vermessung und/oder Einstellung eines Werkzeugs |
SE534606C2 (sv) * | 2010-05-20 | 2011-10-18 | Minalyze Ab | Anordning och metod för provanalys vid prospektering |
US8401692B2 (en) | 2010-09-09 | 2013-03-19 | Flow International Corporation | System and method for tool testing and alignment |
US20130027548A1 (en) * | 2011-07-28 | 2013-01-31 | Apple Inc. | Depth perception device and system |
FR2986064B1 (fr) | 2012-01-24 | 2014-09-26 | Scantech | Dispositif de mesure a balayage de caracteristiques d'un materiau en feuille |
CN102865812B (zh) * | 2012-06-05 | 2015-05-20 | 厦门钨业股份有限公司 | 一种用于三维测量仪的刀具中心点寻找方法及其装置 |
EP2770296A1 (de) * | 2013-02-25 | 2014-08-27 | Siemens Aktiengesellschaft | Verfahren zur Objektmarkierung mittels 3D-Oberflächeninspektionssystem mittels 2D-Aufnahmen und Verfahren |
CN103307976B (zh) * | 2013-04-16 | 2015-09-16 | 杭州先临三维科技股份有限公司 | 粮仓中粮食存储量的监测方法 |
CN103292729A (zh) * | 2013-05-16 | 2013-09-11 | 厦门大学 | 一种非球面法向误差检测装置 |
CN103528514B (zh) * | 2013-10-12 | 2016-09-21 | 南京理工大学 | 机器视觉多视场协同机构及装有该机构的测量与检测装置 |
CN105277162B (zh) * | 2014-06-06 | 2018-01-05 | 天津大格科技有限公司 | 三维扫描仪移动装置 |
CN104121854B (zh) * | 2014-07-28 | 2016-08-10 | 湖北工业大学 | 汽车大梁装配孔孔位、孔径精密测量***及方法 |
CN104608120B (zh) * | 2015-02-05 | 2017-04-26 | 天津市康凯特软件科技有限公司 | 一种手机测试机械手装置及使用方法 |
EP3907570A1 (de) | 2015-02-12 | 2021-11-10 | Glowforge Inc. | Cloud-gesteuerte laserherstellung |
US10509390B2 (en) | 2015-02-12 | 2019-12-17 | Glowforge Inc. | Safety and reliability guarantees for laser fabrication |
JP6478725B2 (ja) * | 2015-03-09 | 2019-03-06 | キヤノン株式会社 | 計測装置及びロボット |
CN104748783A (zh) * | 2015-04-13 | 2015-07-01 | 武汉海达数云技术有限公司 | 一种柔性模块化激光移动测量装置 |
EP3398775B1 (de) | 2015-12-30 | 2021-05-05 | Revotek Co., Ltd | Bioprinter und kalibrierverfahren dafür |
CN105806251A (zh) * | 2016-03-11 | 2016-07-27 | 西北工业大学 | 基于线激光传感器的四轴测量***及其测量方法 |
EP3485112B1 (de) | 2016-07-15 | 2021-08-25 | Fastbrick IP Pty Ltd | Fahrzeug mit eingebauter ziegelsteinlegemaschine |
WO2018009980A1 (en) | 2016-07-15 | 2018-01-18 | Fastbrick Ip Pty Ltd | Boom for material transport |
CN109477714B (zh) * | 2016-07-28 | 2022-02-18 | 瑞尼斯豪公司 | 非接触式测头和操作方法 |
WO2018098399A1 (en) | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Controlled deceleration of moveable components in a computer numerically controlled machine |
WO2018098398A1 (en) | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Preset optical components in a computer numerically controlled machine |
WO2018098393A1 (en) | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Housing for computer-numerically-controlled machine |
WO2018098394A1 (en) | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Fabrication with image tracing |
WO2018098397A1 (en) * | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Calibration of computer-numerically-controlled machine |
WO2018098395A1 (en) | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Improved engraving in a computer numerically controlled machine |
WO2018098396A1 (en) | 2016-11-25 | 2018-05-31 | Glowforge Inc. | Multi-user computer-numerically-controlled machine |
IT201700047233A1 (it) * | 2017-05-02 | 2018-11-02 | Ids Georadar S R L | Metodo perfezionato per l’esecuzione di indagini georadar e relativa apparecchiatura |
US11441899B2 (en) | 2017-07-05 | 2022-09-13 | Fastbrick Ip Pty Ltd | Real time position and orientation tracker |
CN111226090B (zh) | 2017-08-17 | 2023-05-23 | 快砖知识产权私人有限公司 | 具有改进的横滚角测量的激光*** |
WO2019033165A1 (en) | 2017-08-17 | 2019-02-21 | Fastbrick Ip Pty Ltd | CONFIGURATION OF INTERACTION SYSTEM |
WO2019071313A1 (en) | 2017-10-11 | 2019-04-18 | Fastbrick Ip Pty Ltd | MACHINE FOR CARRYING OBJECTS AND CARROUSEL WITH SEVERAL COMPARTMENTS FOR USE WITH THE SAME |
CN110749282A (zh) * | 2019-11-04 | 2020-02-04 | 和卓生物科技(上海)有限公司 | 一种吸头校准设备 |
DE102020132736B4 (de) | 2019-12-11 | 2023-04-20 | Dmt Gmbh & Co. Kg | Mobiles Analysesystem von heterogenen Gesteins- und/oder Bodenproben |
US11740608B2 (en) | 2020-12-24 | 2023-08-29 | Glowforge, Inc | Computer numerically controlled fabrication using projected information |
US11698622B2 (en) | 2021-03-09 | 2023-07-11 | Glowforge Inc. | Previews for computer numerically controlled fabrication |
US11721519B2 (en) | 2021-08-05 | 2023-08-08 | Synchrotron Research, Inc. | Sparse sampling using a programmatically randomized signal modulating a carrier signal |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4961155A (en) * | 1987-09-19 | 1990-10-02 | Kabushiki Kaisha Toyota Chuo Kenkyusho | XYZ coordinates measuring system |
US5460758A (en) * | 1990-12-21 | 1995-10-24 | Eos Gmbh Electro Optical Systems | Method and apparatus for production of a three-dimensional object |
US5631973A (en) * | 1994-05-05 | 1997-05-20 | Sri International | Method for telemanipulation with telepresence |
JP3109758B2 (ja) * | 1992-02-19 | 2000-11-20 | 富士写真フイルム株式会社 | 画像入力装置 |
IT1279210B1 (it) * | 1995-05-16 | 1997-12-04 | Dea Spa | Dispositivo e metodo di visione per la misura tridimensionale senza contatto. |
US6044170A (en) * | 1996-03-21 | 2000-03-28 | Real-Time Geometry Corporation | System and method for rapid shape digitizing and adaptive mesh generation |
US5805289A (en) * | 1997-07-07 | 1998-09-08 | General Electric Company | Portable measurement system using image and point measurement devices |
-
1998
- 1998-08-07 IT IT1998TO000693A patent/IT1303239B1/it active IP Right Grant
-
1999
- 1999-08-04 FR FR9910136A patent/FR2782160B1/fr not_active Expired - Fee Related
- 1999-08-05 JP JP11222951A patent/JP2000097636A/ja active Pending
- 1999-08-06 DE DE19937265A patent/DE19937265A1/de not_active Withdrawn
- 1999-08-06 GB GB9918633A patent/GB2340624B/en not_active Expired - Fee Related
- 1999-08-06 US US09/369,270 patent/US6628322B1/en not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002025207A1 (de) * | 2000-09-22 | 2002-03-28 | Werth Messtechnik Gmbh | Verfahren zum messen einer objektgeometrie mittels eines koordinationsmessgerätes |
US7064845B2 (en) | 2000-09-22 | 2006-06-20 | Werth Messtechnik Gmbh | Method for measuring the geometry of an object by means of a co-ordination measuring device |
WO2003011514A1 (en) * | 2001-07-26 | 2003-02-13 | Gsi Lumonics Ltd | System and method for delivering an energy beam to selected impinge points on a work piece |
EP2000869A1 (de) * | 2007-05-25 | 2008-12-10 | General Electric Company | System und Verfahren zum Messen von Maschinenwerkzeugen mit einer Kamera |
Also Published As
Publication number | Publication date |
---|---|
IT1303239B1 (it) | 2000-11-02 |
US6628322B1 (en) | 2003-09-30 |
FR2782160B1 (fr) | 2005-04-15 |
GB2340624B (en) | 2002-08-07 |
ITTO980693A0 (it) | 1998-08-07 |
FR2782160A1 (fr) | 2000-02-11 |
GB9918633D0 (en) | 1999-10-13 |
ITTO980693A1 (it) | 2000-02-07 |
GB2340624A (en) | 2000-02-23 |
JP2000097636A (ja) | 2000-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19937265A1 (de) | Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine | |
DE60127644T2 (de) | Lehrvorrichtung für einen Roboter | |
EP1931503B1 (de) | Verfahren zum bestimmen eines virtuellen tool-center-points | |
DE19618283B4 (de) | Dreidimensionale kontaktlose Messvorrichtung und Verfahren zur Messung hiermit | |
DE102013021917B4 (de) | Robotersystemanzeigevorrichtung | |
DE4439557C2 (de) | Verfahren und Einrichtung zum Eichen der Vergrößerung von Zoomoptik-Systemen | |
DE19950793B4 (de) | Röntgeneinrichtung und Verfahren zur Bestimmung von Abbildungsparametern | |
DE69826753T2 (de) | Optischer Profilsensor | |
DE102007033486B4 (de) | Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild | |
EP1379835B1 (de) | Verfahren zur automatischen regelung von fokus und beleuchtung, sowie zur objektivierten antastung des kantenortes in der optischen präzisionsmesstechnik | |
WO2002027269A1 (de) | Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel und zwei parameterfeldern | |
EP2082687A1 (de) | Überlagerte Darstellung von Aufnahmen | |
DE102009012590A1 (de) | Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen | |
DE69725953T2 (de) | Bildanzeigeverfahren und -gerät | |
DE202019105838U1 (de) | Anordnung mit einem Koordinatenmessgerät oder Mikroskop | |
EP3640583A1 (de) | Verfahren zur 3d-erfassung eines messobjekts | |
EP0355377B1 (de) | Verfahren zur optischen Prüfung von Flachbaugruppen | |
DE10048096A1 (de) | Verfahren zur Kalibrierung eines messenden Sensors auf einem Koordinatenmeßgerät | |
DE102017100885B4 (de) | Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen | |
WO2020216840A1 (de) | Verfahren zur bereitstellung eines visuellen feedbacks | |
DE102015109612A1 (de) | Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera | |
DE102007058293A1 (de) | Kalibriervorrichtung und Verfahren zum Abgleichen eines Roboterkoordinatensystems | |
DE102005020844B3 (de) | Genauigkeitsverbesserung von Robotern | |
WO2009018894A1 (de) | Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts | |
DE102017122627B4 (de) | Optisches Messsystem und Messverfahren |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G01B 11/00 AFI20051017BHDE |
|
8127 | New person/name/address of the applicant |
Owner name: HEXAGON METROLOGY S.P.A., MONCALIERI, IT |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20150303 |