DE19581099B4 - Optisches Oberflächenabtastgerät und Vermessungsverfahren - Google Patents

Optisches Oberflächenabtastgerät und Vermessungsverfahren Download PDF

Info

Publication number
DE19581099B4
DE19581099B4 DE19581099T DE19581099T DE19581099B4 DE 19581099 B4 DE19581099 B4 DE 19581099B4 DE 19581099 T DE19581099 T DE 19581099T DE 19581099 T DE19581099 T DE 19581099T DE 19581099 B4 DE19581099 B4 DE 19581099B4
Authority
DE
Germany
Prior art keywords
camera
profile
optical surface
orientations
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19581099T
Other languages
English (en)
Other versions
DE19581099T1 (de
Inventor
William Richard Fright
Bruce Clinton Mccallum
Mark Arthur Nixon
Nigel Brent Price
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of DE19581099T1 publication Critical patent/DE19581099T1/de
Application granted granted Critical
Publication of DE19581099B4 publication Critical patent/DE19581099B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2522Projection by scanning of the object the position of the object changing and being recorded

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)

Abstract

Optisches Oberflächenabtastgerät, das folgendes enthält:
ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen;
eine Kamera, die das Profil in zwei Dimensionen abbildet;
ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.

Description

  • Die Erfindung betrifft ein optisches Oberflächenabtastgerät und ein Vermessungsverfahren zum Abtasten eines dreidimensionalen Objektes, um Daten zu erhalten, aus denen die Form des Objekts hergeleitet werden kann.
  • Die vorliegende Erfindung betrifft insbesondere, aber nicht ausschließlich, ein Verfahren und eine Vorrichtung, das bzw. die zwischen ihren eigentlichen Bestandteilen und dem abgetasteten Objekt keine feste oder vorbestimmte geometrische Beziehung erfordert. Jeder Bestandteil bzw. alle Bestandteile des Abtastsystems und/oder des Objekts können willkürlich im Raum bewegt werden und deshalb in der Hand gehalten werden. Ein derartiges System eignet sich insbesondere dazu, Messungen von unregelmäßigen Objekten wie zum Beispiel dem Körper eines Menschen oder dergleichen zu erhalten.
  • Herkömmliche Laser-Oberflächenabtastgeräte enthalten in der Regel eine starre Baugruppe aus Laser und Kamera. Diese Haugruppe ist in der Regel raummäßig befestigt, und das abgetastete Objekt wird auf einer mechanischen Plattform gedreht oder verschoben. Alternativ dazu ist das Objekt befestigt und die Baugruppe aus Laser und Kamera wird mechanisch um das Objekt herum oder an ihm entlang bewegt. Die Bewegung liegt üblicherweise in Form einer Rotation um eine Achse (innerhalb des Objekts) oder einer Translation in einer Richtung (entlang des Objekts) vor. In beiden Fällen basiert der herkömmliche Abtastprozeß auf einem vorbestimmten Wissen über die geometrischen Beziehungen zwischen den Bestandteilen der Abtastvorrichtung.
  • Zu den Beispielen für derartige Laser-Abtastgeräte mit fester Achse gehören WO 94/15173, US 4,705,401 , GB 2,240,623 A und US 5,193,120 .
  • Sofern es sich bei dem abgetasteten Objekt nicht um eine einfache Oberfläche handelt, bei der jeder Punkt auf seiner Oberfläche von der Abtastvorrichtung im Verlauf eines vollständigen Abtastdurchganges "gesehen" werden kann, ist ein Abtastgerät mit fester Achse nicht in der Lage, die gesamte Oberfläche eines Objektes in einer Abtastausrichtung zu messen. Dies stellt beim Abtasten von komplexen Objekten (zum Beispiel eines ganzen menschlichen Kopfes) eine bedeutende Einschränkung dar. Es ist unwahrscheinlich, daß Merkmale wie zum Beispiel Vorsprünge und Einbuchtungen in Situationen sichtbar sind, in denen eine Abtasteinrichtung einem festen vorbestimmten Weg folgt.
  • Weiterhin kann ein festes Abtastmuster oder eine feste Abtastgeometrie Variationen bei Objekteinzelheiten bzw. -bereichen auf der Oberfläche des Objekts berücksichtigten, die möglicherweise durch von der Oberfläche des Objekts hervorstehende, dazwischenkommende Merkmale verdeckt werden.
  • Schulz (WO 92/07233) sorgt zu einem gewissen Grad für eine begrenzte Bewegungsfreiheit einer Baugruppe aus Laser und Kamera durch Verfolgen der Position und Ausrichtung mehrerer an der Abtastbaugruppe befestigter Lichtquellen. Der Ort der Lichtquellen (und damit der Abtastbaugruppe) im dreidimensionalen Raum wird mit Hilfe von in einer vorbestimmten statischen Beziehung zum festen Objekt angeordneten festen photoelektronischen Sensoren bestimmt. Die Lichtquellen werden mit den Sensoren zeitgemultiplext, und der räumliche Ort wird von den drei Orten der Lichtquellen hergeleitet. Deshalb müssen alle drei Lichtquellen, die an der Abtastbaugruppe befestigt sind, für alle festen photoelektronischen Sensoren sichtbar sein. In der Regel wird es zu Situationen kommen, bei denen mindestens eine Lichtquelle durch das Objekt selbst, den Bediener oder das Neigen der Baugruppe verdeckt wird. Die Vorteile des Abtastgerätes nach Schulz gegenüber einem Abtastgerät mit fester Geome trie scheinen somit lediglich bei bestimmten Anwendungen vorzuliegen.
  • Eine weitere bedeutsame Einschränkung, die das Abtastsystem nach Schulz aufweist, besteht darin, daß das Objekt während des Abtastens bezüglich des von den photoelektronischen Sensoren definierten Bezugsrahmens stillstehen muß. Dies kann, insbesondere bei Anwendungen im medizinischen Bereich, zu Schwierigkeiten führen, und zwar aufgrund der Möglichkeit, daß sich der abgetastete Teil des Patienten bewegt. Es wäre dementsprechend wünschenswert, wenn ein Objekt abgetastet werden könnte, das möglicherweise im Raum willkürlich angeordnet und ausgerichtet ist, wobei eine solche Willkürlichkeit so zu verstehen ist, daß sie ein Objekt einschließt, das sich möglicherweise bewegt, oder daß zumindest allgemein sinnvolle Alternativen bereitgestellt werden.
  • Die vorliegende Erfindung versucht, die Einschränkungen und Nachteile, die dem Stand der Technik eigen sind, zu meistern, indem ein Mittel und ein Verfahren zum Abtasten eines willkürlich angeordneten und ausgerichteten Objekts bereitgestellt wird, wobei die Bestandteile des Abtastgerätes im Raum willkürlich angeordnet und ausgerichtet sind.
  • Die vorliegende Erfindung stellt auch ein Abtastsystem bereit, das bei Umgebungslicht funktionieren kann und beim Prozeß der Abbildung des abgetasteten Teils des Objekts für optische Störungen weniger anfällig ist.
  • Die vorliegende Erfindung stellt auch eine nichtoptische Technik zum Bestimmen der räumlichen Orte und Ausrichtungen der Bestandteile von Abtastsystem und Objekt bereit.
  • Offenbarung der Erfindung
  • Gemäß einem Aspekt stellt die Erfindung ein optisches Oberflächen-Abtastgerät mit folgendem bereit:
    ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen;
    eine Kamera, die das Profil in zwei Dimensionen abbildet;
    ein räumliches Lokalisierungssystem, das ausgelegt ist, mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander zu gewinnen, wobei die dreidimensionalen Koordinaten des Profils von den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden.
  • Gemäß einem weiteren Aspekt stellt die Erfindung ein optisches Oberflächenabtastgerät mit folgendem bereit:
    ein Beleuchtungsmittel, das ausgelegt ist, ein stiftförmiges Lichtstrahlenbüschel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbüschel und einem abgetasteten Objekt einen Fleck mit dreidimensionalen Koordinaten erzeugt, die auf der Achse des Strahlenbüschels liegen;
    eine Kamera, die den Fleck in einer oder zwei Dimensionen abbildet;
    ein räumliches Lokalisierungssystem, das ausgelegt ist, mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander zu gewinnen, wobei die dreidimensionalen Koordinaten des Flecks von den ein- oder zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden.
  • Gemäß einem weiteren Aspekt enthält das optische Oberflächenabtastgerät folgendes:
    ein oder mehrere Beleuchtungsmittel, die jeweils so ausgelegt sind, entweder ein fächerförmiges Lichtstrahlenbündel oder ein stiftförmiges Lichtstrahlenbüschel auszusenden, wodurch die Kreuzung zwischen jedem Lichtstrahlbüschel oder Lichtstrahlbündel und dem abgetasteten Objekt ein Profil oder einen Fleck mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des dieses Profil erzeugenden Strahlbüschels liegen oder auf der Achse des diesen Fleck erzeugenden Bündels liegen;
    mehrere Kameras, die die Profile oder Flecke bilden;
    Mittel zum Unterscheiden zwischen den Beleuchtungsquellen,
    ein räumliches Lokalisierungssystem, das ausgelegt ist, mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen zwischen Objekt, Beleuchtungsmittel und Kameras zu gewinnen;
    wobei die dreidimensionalen Koordinaten jedes Profils oder Flecks von den zweidimensionalen oder ein-/zweidimensionalen Koordinaten des entsprechenden Bildes und den relativen Positionen und Ausrichtungen von Kameras, Beleuchtungsmittel und Objekt hergeleitet werden.
  • Das Mittel zum Unterscheiden zwischen den Beleuchtungsquellen verwendet bevorzugt die zeitliche Multiplexierung der Beleuchtungsquellen oder verschiedenen Wellenlängenquellen.
  • Kamera und Beleuchtungsmittel werden vorzugsweise in fester Beziehung gehalten.
  • Das Beleuchtungsmittel und die Kamera(s) sind in fester Beziehung auf einer handgehaltenen Baugruppe befestigt.
  • Die handgehaltene Baugruppe enthält vorzugsweise zwei Kameras und ein Beleuchtungsmittel, wobei das Beleuchtungsmittel zwischen den Kameras positioniert ist und die Kameras und das Beleuchtungsmittel so ausgerichtet sind, daß die Kameras ein bzw. einen durch die Kreuzung des Strahlenbündels bzw. Strahlenbüschels und des abgetasteten Objekts erzeugtes Profil bzw. erzeugten Fleck abbilden.
  • Position und Ausrichtung der handgehaltenen Baugruppe werden vorzugsweise mit Hilfe des räumlichen Lokalisierungssystems bestimmt.
  • Das räumliche Lokalisierungssystem ist vorzugsweise so ausgelegt, daß seine Arbeitsweise nicht von der Aufrechterhaltung einer Sichtverbindung zwischen seinen Bestandteilen abhängt.
  • Das räumliche Lokalisierungssystem umfaßt vorzugs weise mehrere Sender und mehrere Empfänger.
  • Das räumliche Lokalisierungssystem verwendet nichtoptische elektromagnetische Felder.
  • Bei dem Beleuchtungsmittel handelt es sich vor zugsweise um einen Laser.
  • Das fächerförmige Strahlenbündel wird vorzugsweise mit Hilfe einer Zylinderlinse oder einem ähnlichen Mittel erzeugt.
  • Das optische Oberflächenabtastgerät enthält vorzugsweise mindestens ein optisches Bandpaßfilter pro Kame ra.
  • Das Bandpaßfilter umfaßt vorzugsweise Interferenz filter, die ausgelegt sind, um den Kontrast des von der Kamera gebildeten Profils abzustimmen.
  • Das eine oder die mehreren optischen Bandpaßfilter sind vorzugsweise unmittelbar vor der Kamera angeordnet.
  • Die vorliegende Erfindung stellt weiterhin ein Vermessungsverfahren für dreidimensionale Objekte bereit, das folgende Schritte umfaßt:
    Abbilden des durch Kreuzung eines von einem Beleuchtungsmittel ausgesendeten fächerförmigen Lichtstrahlenbündels oder stiftförmigen Lichtstrahlenbüschels mit dem abzutastenden Objekt erzeugten Profils oder Fleckes;
    Messen der relativen Positionen und Ausrichtungen von Kamera, Beleuchtungsmittel und Objekt mittels nichtoptischer elektromagnetischer Felder;
    Berechnen von dreidimensionalen Koordinaten des Profils oder des Fleckes;
    Wiederholen der obigen Schritte für verschiedene Positionen und/oder Ausrichtungen von Kamera und/oder Beleuchtungsmittel und/oder Objekt.
  • Die relative Position und Ausrichtung von Objekt, Beleuchtungsmittel und Kamera werden vorzugsweise mit Hilfe des räumlichen Lokalisierungssystems für jedes aufgezeichnete Bild eines Profils oder eines Fleckes gewonnen. Weitere Aufgaben und Vorteile der Erfindung gehen aus der folgenden Beschreibung hervor, die beispielhaft und unter Bezugnahme auf die Zeichnungen präsentiert werden, in denen:
  • Kurze Beschreibung der Zeichnungen
  • 1: ein Schemadiagramm einer Ausführungsform eines optischen Oberflächenabtastgeräts mit einem Beleuchtungsmittel und einer Kamera veranschaulicht;
  • 2: ein Schemadiagramm einer Ausführungsform eines optischen Oberflächenabtastgeräts mit einem einzelnen Beleuchtungsmittel und zwei Kameras veranschaulicht, die in einem einzelnen Abtastkopf ausgeführt sind;
  • 3: eine perspektivische Ansicht des Systems in 1 bei Verwendung zum Abtasten eines sphärischen Objekts mit einem fächerförmigen Strahlenbündel veranschaulicht.
  • Unter Bezugnahme auf 1 ist 100 das abzutastende Objekt. Die Hauptbestandteile des Abtastsystems sind wie folgt: Eine Beleuchtungsbaugruppe 110 enthält einen Laser 101 niedriger Leistung, der durch eine Zylinderlinse 102 gerichtet wird, wodurch ein fächerförmiges Strahlenbündel erzeugt wird. Weitere Verfahren zur Erzeugung eines Strahlenbündels werden in Betracht gezogen. So kann zum Beispiel eine punktförmige Quelle mit einer schlitzförmigen Apertur und einem Kollimator das erwünschte fächerförmige Strahlenbündel erzeugen. Eine Abbildungsbaugruppe 109 enthält eine zweidimensionale elektronische Kamera 103 (flächiges Array), bei der ein optisches Bandpaß-Interferenzfilter 104 die Linse überdeckt.
  • Das räumliche Lokalisierungssystem umfaßt einen räumlichen Lokalisierungssender 105 und räumliche Lokalisierungsempfänger 106, 107 und 108.
  • Eine räumliche Lokalisierungselektronikeinheit 111 und eine Laser-Zeilenabfrageelektronik 112 sind an eine Steuerelektronik und Stromversorgung 113 angeschlossen; 114 entspricht einem Digitalrechner.
  • Durch Verwendung von räumlichen Lokalisierungseinrichtungen 105, 106, 107 und 108 kann die relative Position und Ausrichtung (6 Freiheitsgrade) von Objekt 100, Laser 101 und Kamera(s) 103 gewonnen werden. Das räumliche Lokalisierungssystem kann einer elektronischen Einrichtung entsprechen, wie zum Beispiel einem Polhemus "Fastrak" auf der Grundlage wechselnder elektrischer Felder oder einem Ascension "Bird" auf der Grundlage gepulster statischer elektrischer Felder.
  • Unter Bezugnahme auf 1 bezeichnen die gestrichelten Kästen 109 und 110 die Bestandteile, die zu tragbaren handgehaltenen Baugruppen kombiniert werden, die jeweils einem räumlichen Lokalisierungsempfänger 107 und 108 zugeordnet sind. Die Abbildungsbaugruppe 109 besteht in diesem Fall aus Abbildungsbestandteilen (Kamera 103 und Filter 104) und dem räumlichen Lokalisierungsempfänger 108. Die Beleuchtungsbaugruppe 110 besteht aus Beleuchtungsbestandteilen (Laser 101 und Zylinderlinse 102) und dem räumlichen Lokalisierungempfänger 107.
  • Eine dreidimensionale Darstellung des Systems von 1 wird in 3 gezeigt. Eine Zylinderlinse 302 spreizt den von dem Laser 301 ausgesendeten Strahl zum fächerförmigen Strahlenbündel 303, so daß die Kreuzung zwischen dem Strahlenbündel und dem abgetasteten Objekt 300 ein Profil 304 erzeugt. Die Kamera enthält eine Linse 307, ein CCD-Array 306 (charge-coupled device) und ein Filter 308 vor der Kamera. Das Bild 305 des Profils 304 wird von der Kamera gewonnen, wenn sie das Objekt unter einem Versatzwinkel sieht. Die zweidimensionalen Koordinaten des Bildes des Profils werden aufgezeichnet.
  • Objekt 300, Laser 301 und Kamera (306 und 307) sind räumlichen Lokalisierungsempfängern 310, 311 bzw. 312 zugeordnet, wodurch ihre Ausrichtung und ihre Position im Raum in Echtzeit gemessen werden können. Somit können der Laser und die Kamera willkürlich im Raum bewegt werden, um erwünschte Profile aufzuzeichnen, wodurch eine rekonstruierte Oberfläche aufgebaut wird. Alternativ dazu kann das Objekt bewegt werden, um die gewünschten Profile aufzuzeichnen.
  • Bei Verwendung werden die Profile 304 aufgezeichnet, indem das fächerförmige Laser-Strahlenbündel auf das Objekt gerichtet wird, während gleichzeitig die Kamera so positioniert wird, daß sie das Profil sehen kann. Die Nützlichkeit des vorliegenden Systems wird durch Situationen veranschaulicht, bei denen Merkmale des Objekts bei Verwen dung eines festen Beleuchtungs-/Abbildungssystems möglicherweise entweder die Beleuchtung oder das Blickfeld der Kamera verdecken. Wenn eine derartige Geometrie angetroffen wird, kann die Beleuchtung und/oder die Kamera und/oder das Objekt in eine Ausrichtung oder Position bewegt werden, wo die Kamera das Profil sehen kann.
  • Das räumliche Lokalisierungssystem 310, 311, 312 und 313 stellt die erforderlichen räumlichen Lokalisierungs- und Ausrichtungsinformationen für Objekt, Kamera und Laser bereit, woraufhin die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Bildelementkoordinaten in dem CCD-Array 306 der Kamera bestimmt werden.
  • Das Abtastgerät kann ein Interferenzfilter 308 enthalten, das ein Abtasten unter Bedingungen mit Umgebungslicht gestattet. Ein weiterer Zweck des Interferenzfilters besteht darin, wie unten erörtert, den Kontrast des von der Kamera gesehenen Profils abzugleichen.
  • Interferenzfilter haben für außeraxiales Licht einen schmaleren Wellenlängendurchlaßbereich, und dieser Effekt wird ausgenutzt. Die Intensität des Profils nimmt in der Regel mit der Entfernung von seinem Zentrum ab. Wenn deshalb ein Filter so gewählt wird, daß es einen Durchlaßbereich mit einem Zentrum oberhalb der Laserwellenlänge aufweist, werden die distalen Enden des Laserprofils durch das Filter weniger gedämpft. Dadurch wird der Kontrast des von der Kamera gesehenen Laserprofils abgeglichen. Nach Kenntnis der Anmelder ist eine derartige Anwendung eines Interferenzfilters neuartig.
  • Unter Bezugnahme auf 1 wird das Ausgangssignal von jeder zweidimensionalen Kamera 103 (wie zum Beispiel einem CCD-Array) durch die Zeilenabfrageelektronik 112 entsprechend verarbeitet, um eine Liste von Bildelementen (zweidimensionale Kamerakoordinaten) zu erstellen, an denen die Intensität einen gewissen Schwellwert (konstant oder adaptiv) übersteigt.
  • Die Steuerelektronikeinheit 113 führt Aufgaben aus wie zum Beispiel das Synchronisieren der Kameras, Laser und räumlichen Lokalisierungsempfänger, das Überwachen von Schaltern, das Zuführen von Strom, die Vorverarbeitung und Anschaltung dieses Datenstroms an den digitalen Eingangs-/Ausgangsanschluß des digitalen Hostrechners 114. Der digitale Rechner ist so programmiert, daß er die dreidimensionalen Koordinaten der Oberfläche des Objekts rekonstruiert. Bei einer derartigen Rekonstruktion können in der Technik bekannte Transformationsmethoden eingesetzt werden, die jeden von der Kamera gesehenen zweidimensionalen Punkt im Profil in einen dreidimensionalen Punkt im Bezugsrahmen der Kamera und danach in einen dreidimensionalen Punkt im Bezugsrahmen des Objekts umwandeln.
  • Der Rekonstruktionsprozeß muß diejenigen Koordinaten eines dreidimensionalen Punktes im Bezugsrahmen des Objekts bestimmen, die jedem Bildelement entsprechen, das von der Laser-Zeilenabfrageelektronik identifiziert worden ist.
  • Dies kann auf verschiedene Weise bewerkstelligt werden. Wenn beispielsweise ein einfaches lineares Modell der Kamera angenommen wird, so kann ein Strahl vom Ort des Bildelements durch das Zentrum der Linse verfolgt werden, wodurch die Kreuzung des Strahls mit der Ebene des Lasers die dreidimensionale Koordinate des beleuchteten Flecks auf dem Objekt bestimmt, wobei die Kamerakoordinaten und die Laserebene unter Verwendung der räumlichen Lokalisierungsinformationen in das Koordinatensystem des Objekts transformiert worden sind.
  • Alternativ dazu kann auch eine "Nachschlagetabelle" verwendet werden, um von Bildelementkoordinaten in dreidimensionale Koordinaten im Bezugsrahmen der Kamera zu transformieren, woraufhin dann diese Koordinaten unter Verwendung der räumlichen Lokalisierungsinformation in das Koordinatensystem des Objektes transformiert werden können.
  • Die Nachschlagetabelle kann durch einen empirischen Kalibrierprozeß erstellt werden. Es können deshalb nicht lineare Effekte wie zum Beispiel Linsenverzerrung berücksichtigt sowie auch ein schnelleres Mittel der Datenumwandlung im Rechner vorgesehen werden.
  • Es versteht sich, daß der Ort des abgetasteten Objekts mit Hilfe des räumlichen Lokalisierungssystems ständig bestimmt wird. Deshalb steht es dem Objekt so lange frei, sich während des Abtastprozesses zu bewegen, wie der dem Objekt zugeordnete Empfänger in einer festen Beziehung zu dem Objekt bleibt.
  • Es muß verstanden werden, daß sowohl die Anzahl an Kameras und Lasern und/oder die Geometrie des Systems gegebenenfalls verändert werden kann. Wenn zum Beispiel zwei oder mehr beliebige Bestandteile über den ganzen Abtastvorgang hinweg eine feste relative räumliche Beziehung beibehalten, dann können die Position und Ausrichtung der kombinierten Baugruppe durch einen einzelnen räumlichen Lokalisierungsempfänger aufgezeichnet werden (wobei die relativen Orte und Ausrichtungen der Bestandteile der Baugruppe schon vorher festliegen und bestimmt worden sind).
  • 2 zeigt eine Ausführungsform, bei der die Kameras 202 und 203 und der Laser 204 an einer (gepunkteten) handgehaltenen Baugruppe 205 befestigt sind. Bei dieser Auslegung liegt die geometrische Beziehung zwischen dem Laserstrahlenbündel und den Kameras fest und ist bekannt. Dementsprechend können bei der Geschwindigkeit der Bildverarbeitung Einsparungen herbeigeführt werden.
  • Das in 2 gezeigte System gleicht in den meisten Punkten dem in 1, mit der Ausnahme, daß eine zusätzliche Zeilenabfrageelektronik 215 erforderlich ist und die hangehaltene Baugruppe 205 einen einzelnen räumlichen Lokalisierungsempfänger 208 erfordert.
  • Die in 2 gezeigte Ausführungsform ist ebenfalls vorteilhaft, insofern die Abtastbaugruppe in einem zweckmäßigen "Paket" oder "Stab" enthalten ist. Jedoch ist die vorliegende Erfindung nicht auf eine derartige Konstruktion beschränkt, und es kann Anwendungen geben, bei denen eine oder mehrere willkürlich angeordnete Kameras und/oder Laser erforderlich sind.
  • Bei der Erstausführung der Anmelder (die dem in 2 gezeigten Beispiel entspricht) sind ein einzelner Laser 204 und eine Zylinderlinse 206 zwischen zwei Kameras 203 und 202 positioniert, wobei der Laser und die Kameras in fester Beziehung zueinander stehen und auf einer tragbaren handgehaltenen Baugruppe, die durch den gestrichelten Kasten 205 angedeutet ist, befestigt sind. Ort und Ausrichtung von 205 werden durch den räumlichen Lokalisierungsempfänger 208 bestimmt. Der Ort des Objekts 200 wird durch einen zweiten räumlichen Lokalisierungsempfänger 201 bestimmt, wobei der Sender 209 während des ganzen Abtastvorgangs festliegt. Jede Kamera ist von dem Laser etwa 250 mm beabstandet, und die optische Achse jeder Kamera ist unter einem derartigen Winkel angeordnet, daß sie die Ebene des Strahlenbündels unter einem eingeschlossenen Winkel von etwa 30 Grad schneidet.
  • Im Betrieb wird die handgehaltene Einheit 205 so ausgerichtet, daß das fächerförmige Strahlenbündel das Objekt 200 kreuzt. Jede Kamera 203 und 202 bildet das Profil mit einem bekannten und festen Versatzwinkel ab. Die Profile werden mit einer Rate abgetastet, die ausreicht, daß für den Fall, daß die handgehaltene Einheit im rechten Winkel zur Ebene des Strahls bewegt wird (d.h. das Laserstrahlenbündel streicht über das Objekt), der abgetastete Bereich als eine Reihe von Profilen betrachtet werden kann, die jeweils abgebildet und rekonstruiert werden und somit die abgetastete Oberfläche bilden.
  • Alternativ dazu könnte der räumliche Lokalisierungssender anstelle eines getrennten Empfängers direkt am Objekt angebracht werden.
  • Bei einer alternativen Ausführungsform wird das Objekt während des gesamten Verlaufs des Abtastprozesses in fester Beziehung zum Sender gehalten. Analog dazu kann ein beliebiger Bestandteil des Abtastsystems selber (Kamera oder Laser) während des ganzen Abtastvorgangs ortsfest gehalten werden. Seine Position und Ausrichtung ist somit eine willkürliche Konstante und muß von dem räumlichen Lokalisierungssystem nicht aufgezeichnet werden.

Claims (18)

  1. Optisches Oberflächenabtastgerät, das folgendes enthält: ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen; eine Kamera, die das Profil in zwei Dimensionen abbildet; ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
  2. Optisches Oberflächenabtastgerät, das folgendes enthält: ein Beleuchtungsmittel, das so ausgelegt ist, dass es ein stiftförmiges Lichtstrahlenbüschel aussendet, wodurch die Kreuzung zwischen dem Strahlenbüschel und einem abgetasteten Objekt einen Fleck mit dreidimensionalen Koordinaten erzeugt, die auf der Achse des Strahlenbüschels liegen; eine Kamera, die den Fleck in einer oder zwei Dimensionen abbildet; ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Flecks aus den ein- oder zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Flecken eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
  3. Optisches Oberflächenabtastgerät, das folgendes enthält: ein oder mehrere Beleuchtungsmittel, die jeweils so ausgelegt sind, dass sie entweder ein fächerförmiges Lichtstrahlenbündel oder ein stiftförmiges Lichtstrahlenbüschel aussenden, wodurch die Kreuzung zwischen jedem Lichtstrahlenbündel oder Lichtstrahlenbüschel und dem abgetasteten Objekt ein Profil oder einen Fleck mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des dieses Profil erzeugenden Strahlenbündels oder auf der Achse des diesen Fleck erzeugenden Strahlenbüschels liegen; mehrere Kameras, die die Profile oder Flecken abbilden; Mittel zum Unterscheiden zwischen den Beleuchtungsmitteln; ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Be leuchtungsmittel(n) und Kameras zueinander gewinnt, wobei die dreidimensionalen Koordinaten eines jeden Profils oder Flecks aus den zweidimensionalen Koordinaten oder aus den ein-/zweidimensionalen Koordinaten des entsprechenden Bildes und der relativen Positionen und Ausrichtungen von Kameras, Beleuchtungsmittel und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen oder Flecken eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
  4. Optisches Oberflächenabtastgerät nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass das fächerförmige Lichtstrahlenbündel mittels einer Zylinderlinse erzeugt wird.
  5. Optisches Oberflächenabtastgerät nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das räumliche Lokalisierungssystem wiederholte Messungen der relativen Positionen und Ausrichtungen zwischen dem Objekt, Beleuchtungsmittel(n) und Kamera(s) vornimmt, dergestalt, dass die dreidimensionale Darstellung der Oberfläche des Objekts erhalten wird, auch wenn sich das Objekt bewegt.
  6. Optisches Oberflächenabtastgerät nach Anspruch 3, dadurch gekennzeichnet, dass das Mittel zum Unterscheiden zwischen den Beleuchtungsmitteln die Zeitmultiplexierung der Beleuchtungsmittel oder Lichtquellen unterschiedlicher Wellenlänge verwendet.
  7. Optisches Oberflächenabtastgerät nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Kamera(s) und Beleuchtungsmittel in fester Beziehung gehalten werden.
  8. Optisches Oberflächenabtastgerät nach Anspruch 7, dadurch gekennzeichnet, dass Beleuchtungsmittel und Kamera(s) in fester Beziehung auf einer handgehaltenen Baugruppe befestigt sind.
  9. Optisches Oberflächenabtastgerät nach Anspruch 8, dadurch gekennzeichnet, dass die handgehaltene Baugruppe zwei Kameras und ein Beleuchtungsmittel enthält, wobei das Beleuchtungsmittel zwischen den Kameras positioniert ist und die Kameras und das Beleuchtungsmittel so ausgerichtet sind, dass die Kameras ein durch die Kreuzung des fächerförmigen Strahlenbündels und des abgetasteten Objekts erzeugtes Profil oder einen durch die Kreuzung des stiftförmigen Strahlenbüschels und des abgetasteten Objekts erzeugten Fleck abbilden.
  10. Optisches Oberflächenabtastgerät nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass Ort und Ausrichtung der handgehaltenen Baugruppe mit Hilfe des räumlichen Lokalisierungssystems bestimmt werden.
  11. Optisches Oberflächenabtastgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das räumliche Lokalisierungssystem so ausgelegt ist, dass seine Arbeitsweise nicht von der Aufrechterhaltung einer Sichtverbindung zwischen seinen Bestandteilen abhängt.
  12. Optisches Oberflächenabtastgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das räumliche Lokalisierungssystem mehrere Sender und mehrere Empfänger umfaßt.
  13. Optisches Oberflächenabtastgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Beleuchtungsmittel ein Laser ist.
  14. Optisches Oberflächenabtastgerät einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es mindestens einen optischen Bandpaßfilter pro Kamera enthält.
  15. Optisches Oberflächenabtastgerät nach Anspruch 14, dadurch gekennzeichnet, dass das Bandpaßfilter Interferenzfilter umfaßt, die so ausgelegt sind, dass sie den Kontrast des von der Kamera abgebildeten Profils abgleichen.
  16. Optisches Oberflächenabtastgerät nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass das eine oder die mehreren optischen Bandpaßfilter unmittelbar vor der Kamera angeordnet sind.
  17. Vermessungsverfahren für dreidimensionale Objekte, das folgende Schritte umfaßt: Abbilden des durch Kreuzung eines von einem Beleuchtungsmittel ausgesendeten fächerförmigen Lichtstrahlenbündels oder stiftförmigen Lichtstrahlenbüschels mit dem abzutastenden Objekt erzeugten Profils oder Fleckes; Messen der relativen Positionen und Ausrichtungen einer das Profil oder den Fleck abbildenden Kamera, des Beleuchtungsmittels und des Objekts, mit Hilfe nichtoptischer elektromagnetischer Felder; Berechnen von dreidimensionalen Koordinaten des Profils oder des Fleckes, beruhend auf dessen Bild und den relativen Positionen und Ausrichtungen der Kamera, des Beleuchtungsmittels und des abzutastenden Objekts; Wiederholen der obigen Schritte für verschiedene Positionen und/oder Ausrichtungen von Kamera und/oder Beleuchtungsmittel und/oder Objekt.
  18. Vermessungsverfahren für dreidimensionale Objekte nach Anspruch 17, dadurch gekennzeichnet, dass die relative Position und Ausrichtung von Objekt, Beleuchtungsmittel und Kamera mit Hilfe eines räumlichen Lokalisierungssystems für jedes Bild eines Profils oder eines Flecks gewonnen wird.
DE19581099T 1994-09-28 1995-09-28 Optisches Oberflächenabtastgerät und Vermessungsverfahren Expired - Fee Related DE19581099B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
NZ26456494 1994-09-28
NZ264564 1994-09-28
PCT/NZ1995/000097 WO1996010205A1 (en) 1994-09-28 1995-09-28 Arbitrary-geometry laser surface scanner

Publications (2)

Publication Number Publication Date
DE19581099T1 DE19581099T1 (de) 1997-09-18
DE19581099B4 true DE19581099B4 (de) 2006-07-27

Family

ID=19924949

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19581099T Expired - Fee Related DE19581099B4 (de) 1994-09-28 1995-09-28 Optisches Oberflächenabtastgerät und Vermessungsverfahren

Country Status (7)

Country Link
US (1) US5969822A (de)
AU (1) AU3621795A (de)
CA (1) CA2201107C (de)
DE (1) DE19581099B4 (de)
GB (1) GB2308186B (de)
NZ (1) NZ293713A (de)
WO (1) WO1996010205A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007025520A1 (de) * 2007-05-31 2008-12-04 Khs Ag Verfahren zum Ausrichten von Behältern sowie Vorrichtung zum Durchführen des Verfahrens
DE102008047816A1 (de) * 2008-09-18 2010-04-08 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
CN110966960A (zh) * 2019-12-31 2020-04-07 广东省航空航天装备技术研究所 光学成像***

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US6553138B2 (en) * 1998-12-30 2003-04-22 New York University Method and apparatus for generating three-dimensional representations of objects
NO313113B1 (no) * 1999-07-13 2002-08-12 Metronor Asa System for scanning av store objekters geometri
DE50000335D1 (de) 2000-04-05 2002-09-05 Brainlab Ag Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte
US6594516B1 (en) * 2000-07-18 2003-07-15 Koninklijke Philips Electronics, N.V. External patient contouring
US7625335B2 (en) 2000-08-25 2009-12-01 3Shape Aps Method and apparatus for three-dimensional optical scanning of interior surfaces
ATE539562T1 (de) 2001-03-02 2012-01-15 3Shape As Verfahren zum individuellen anpassen von hörmuscheln
FI113293B (fi) * 2001-04-19 2004-03-31 Mapvision Oy Menetelmä pisteen osoittamiseksi mittausavaruudessa
KR20030033174A (ko) * 2001-10-18 2003-05-01 이정현 반사 표면을 갖는 문화유물의 3차원 형상 측정 방법
WO2003054683A2 (en) * 2001-12-07 2003-07-03 Canesta Inc. User interface for electronic devices
US7881896B2 (en) 2002-02-14 2011-02-01 Faro Technologies, Inc. Portable coordinate measurement machine with integrated line laser scanner
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
AU2003217587A1 (en) * 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
US20040066500A1 (en) * 2002-10-02 2004-04-08 Gokturk Salih Burak Occupancy detection and measurement system and method
US7439074B2 (en) * 2003-09-30 2008-10-21 Hoa Duc Nguyen Method of analysis of alcohol by mass spectrometry
US10277290B2 (en) 2004-04-02 2019-04-30 Rearden, Llc Systems and methods to exploit areas of coherence in wireless systems
US9826537B2 (en) 2004-04-02 2017-11-21 Rearden, Llc System and method for managing inter-cluster handoff of clients which traverse multiple DIDO clusters
US8654815B1 (en) 2004-04-02 2014-02-18 Rearden, Llc System and method for distributed antenna wireless communications
US10425134B2 (en) 2004-04-02 2019-09-24 Rearden, Llc System and methods for planned evolution and obsolescence of multiuser spectrum
US9819403B2 (en) 2004-04-02 2017-11-14 Rearden, Llc System and method for managing handoff of a client between different distributed-input-distributed-output (DIDO) networks based on detected velocity of the client
US7340316B2 (en) * 2004-06-28 2008-03-04 Hanger Orthopedic Group, Inc. System and method for producing medical devices
US20060055706A1 (en) * 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the motion of a performer
US7375826B1 (en) * 2004-09-23 2008-05-20 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) High speed three-dimensional laser scanner with real time processing
WO2006069491A1 (en) * 2004-12-31 2006-07-06 Intel Corporation Remote logging mechanism
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
GB0517992D0 (en) * 2005-09-05 2005-10-12 Sld Ltd Laser imaging
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
US8659668B2 (en) * 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
CA2625775A1 (en) 2005-10-14 2007-04-19 Applied Research Associates Nz Limited A method of monitoring a surface feature and apparatus therefor
DE102006031142B4 (de) * 2006-07-05 2012-02-16 Prüf- und Forschungsinstitut Pirmasens e.V. Verfahren und Vorrichtung zur dreidimensionalen Vermessung und Erfassung der kompletten Objektoberfläche eines kugelförmigen Messobjektes wie eines Sportballs
US20100231692A1 (en) * 2006-07-31 2010-09-16 Onlive, Inc. System and method for performing motion capture and image reconstruction with transparent makeup
EP2062158B1 (de) * 2006-07-31 2012-09-05 OnLive, Inc. System und verfahren zur durchführung einer bewegungserfassung und zur bildrekonstruktion
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
AU2007300379A1 (en) * 2006-09-27 2008-04-03 Georgia Tech Research Corporation Systems and methods for the measurement of surfaces
US7256899B1 (en) * 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
US7578178B2 (en) * 2007-09-28 2009-08-25 United Technologies Corporation Method of inspecting turbine internal cooling features using non-contact scanners
US8505209B2 (en) 2009-10-27 2013-08-13 N.E. Solutionz, Llc Skin and wound assessment tool
US8276287B2 (en) * 2009-10-27 2012-10-02 N.E. Solutionz, Llc Skin and wound assessment tool
US9161716B2 (en) 2009-10-27 2015-10-20 N.E. Solutionz, Llc Diagnostic imaging system for skin and affliction assessment
EP2501288B1 (de) 2009-11-19 2016-12-21 Modulated Imaging Inc. Verfahren und vorrichtung zur analyse trüber medien durch einzelelementerkennung mithilfe strukturierter beleuchtung
EP2365278A1 (de) * 2010-02-22 2011-09-14 Snap-on Equipment Srl a unico socio Système de scanner
US8467992B1 (en) * 2010-09-15 2013-06-18 The Boeing Company Vision based location and measurement device and methods
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
MX2018016101A (es) 2012-11-07 2022-05-19 Modulated Imaging Inc Eficiente formacion modulada de imagenes.
US11189917B2 (en) 2014-04-16 2021-11-30 Rearden, Llc Systems and methods for distributing radioheads
US10488535B2 (en) 2013-03-12 2019-11-26 Rearden, Llc Apparatus and method for capturing still images and video using diffraction coded imaging techniques
US9973246B2 (en) 2013-03-12 2018-05-15 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
US9923657B2 (en) 2013-03-12 2018-03-20 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
RU2767777C2 (ru) 2013-03-15 2022-03-21 Риарден, Ллк Системы и способы радиочастотной калибровки с использованием принципа взаимности каналов в беспроводной связи с распределенным входом - распределенным выходом
ITTO20130202A1 (it) * 2013-03-15 2014-09-16 Torino Politecnico Dispositivo e sistema di scansione tridimensionale, e relativo metodo.
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
EP3606410B1 (de) 2017-04-04 2022-11-02 Aranz Healthcare Limited Anatomische oberflächenbeurteilungsverfahren, vorrichtungen und systeme
CN107170035B (zh) * 2017-07-12 2023-08-25 朱培恒 一种高反光物体扫描方法及其***
DE102018105132B4 (de) * 2018-03-06 2023-07-13 Haag-Streit Gmbh Triangulationsvorrichtung
US12039726B2 (en) 2019-05-20 2024-07-16 Aranz Healthcare Limited Automated or partially automated anatomical surface assessment methods, devices and systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4705401A (en) * 1985-08-12 1987-11-10 Cyberware Laboratory Inc. Rapid three-dimensional surface digitizer
GB2240623A (en) * 1990-01-31 1991-08-07 Neil Starsmore An imaging process for detecting the shape of three dimensional objects
WO1992007233A1 (en) * 1990-10-15 1992-04-30 Schulz Waldean A Method and apparatus for three-dimensional non-contact shape sensing
US5193120A (en) * 1991-02-27 1993-03-09 Mechanical Technology Incorporated Machine vision three dimensional profiling system
WO1994015173A1 (en) * 1992-12-18 1994-07-07 3D Scanners Ltd. Scanning sensor
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US35816A (en) * 1862-07-08 Improved washing-machine
US3821469A (en) * 1972-05-15 1974-06-28 Amperex Electronic Corp Graphical data device
US4017858A (en) * 1973-07-30 1977-04-12 Polhemus Navigation Sciences, Inc. Apparatus for generating a nutating electromagnetic field
US3983474A (en) * 1975-02-21 1976-09-28 Polhemus Navigation Sciences, Inc. Tracking and determining orientation of object using coordinate transformation means, system and process
FR2416480A1 (fr) * 1978-02-03 1979-08-31 Thomson Csf Dispositif de localisation de source rayonnante et systeme de reperage de direction comportant un tel dispositif
US4402608A (en) * 1980-10-02 1983-09-06 Solid Photography Inc. Room scanning system using multiple camera and projector sensors
US4585350A (en) * 1983-01-28 1986-04-29 Pryor Timothy R Pulsed robotic inspection
NL8302228A (nl) * 1983-06-22 1985-01-16 Optische Ind De Oude Delft Nv Meetstelsel voor het onder gebruikmaking van een op driehoeksmeting berustend principe, contactloos meten van een door een oppervlakcontour van een objectvlak gegeven afstand tot een referentieniveau.
DE3342675A1 (de) * 1983-11-25 1985-06-05 Fa. Carl Zeiss, 7920 Heidenheim Verfahren und vorrichtung zur beruehrungslosen vermessung von objekten
US4753528A (en) * 1983-12-13 1988-06-28 Quantime, Inc. Laser archery distance device
US4649504A (en) * 1984-05-22 1987-03-10 Cae Electronics, Ltd. Optical position and orientation measurement techniques
US4775235A (en) * 1984-06-08 1988-10-04 Robotic Vision Systems, Inc. Optical spot scanning system for use in three-dimensional object inspection
DE3423135A1 (de) * 1984-06-22 1986-01-02 Dornier Gmbh, 7990 Friedrichshafen Verfahren zum auslesen einer entfernungsbildzeile
US4705395A (en) * 1984-10-03 1987-11-10 Diffracto Ltd. Triangulation data integrity
JPS6186606A (ja) * 1984-10-05 1986-05-02 Hitachi Ltd 非接触形状測定方法
DE3502634A1 (de) * 1985-01-26 1985-06-20 Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln Optisch-elektronischer entfernungsmesser
US4782239A (en) * 1985-04-05 1988-11-01 Nippon Kogaku K. K. Optical position measuring apparatus
SE447848B (sv) * 1985-06-14 1986-12-15 Anders Bengtsson Instrument for metning av ytors topografi
US4743771A (en) * 1985-06-17 1988-05-10 View Engineering, Inc. Z-axis height measurement system
WO1987001194A1 (en) * 1985-08-12 1987-02-26 David Andrew Addleman Rapid three-dimensional surface digitizer
US4737032A (en) * 1985-08-26 1988-04-12 Cyberware Laboratory, Inc. Surface mensuration sensor
JPH0619243B2 (ja) * 1985-09-19 1994-03-16 株式会社トプコン 座標測定方法及びその装置
US4709156A (en) * 1985-11-27 1987-11-24 Ex-Cell-O Corporation Method and apparatus for inspecting a surface
US4794262A (en) * 1985-12-03 1988-12-27 Yukio Sato Method and apparatus for measuring profile of three-dimensional object
US4760851A (en) * 1986-03-31 1988-08-02 Faro Medical Technologies Inc. 3-dimensional digitizer for skeletal analysis
SE469321B (sv) * 1986-04-14 1993-06-21 Joenkoepings Laens Landsting Saett och anordning foer att framstaella en modifierad tredimensionell avbildning av ett elastiskt deformerbart foeremaal
US4822163A (en) * 1986-06-26 1989-04-18 Robotic Vision Systems, Inc. Tracking vision sensor
US4767934A (en) * 1986-07-02 1988-08-30 Honeywell Inc. Active ranging system
US4733969A (en) * 1986-09-08 1988-03-29 Cyberoptics Corporation Laser probe for determining distance
US4761072A (en) * 1986-09-30 1988-08-02 Diffracto Ltd. Electro-optical sensors for manual control
US4764015A (en) * 1986-12-31 1988-08-16 Owens-Illinois Television Products Inc. Method and apparatus for non-contact spatial measurement
DE3703422A1 (de) * 1987-02-05 1988-08-18 Zeiss Carl Fa Optoelektronischer abstandssensor
US4745290A (en) * 1987-03-19 1988-05-17 David Frankel Method and apparatus for use in making custom shoes
US4836778A (en) * 1987-05-26 1989-06-06 Vexcel Corporation Mandibular motion monitoring system
US4829373A (en) * 1987-08-03 1989-05-09 Vexcel Corporation Stereo mensuration apparatus
ZA889529B (en) * 1987-12-21 1989-09-27 Univ Western Australia Vision system
US4982188A (en) * 1988-09-20 1991-01-01 Grumman Aerospace Corporation System for measuring positional characteristics of an ejected object
FR2642833B1 (fr) * 1989-02-06 1991-05-17 Vision 3D Procede d'etalonnage d'un systeme d'acquisition tridimensionnelle de forme et systeme d'acquisition pour la mise en oeuvre dudit procede
US5307072A (en) * 1992-07-09 1994-04-26 Polhemus Incorporated Non-concentricity compensation in position and orientation measurement systems
US5402582A (en) * 1993-02-23 1995-04-04 Faro Technologies Inc. Three dimensional coordinate measuring apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4705401A (en) * 1985-08-12 1987-11-10 Cyberware Laboratory Inc. Rapid three-dimensional surface digitizer
GB2240623A (en) * 1990-01-31 1991-08-07 Neil Starsmore An imaging process for detecting the shape of three dimensional objects
WO1992007233A1 (en) * 1990-10-15 1992-04-30 Schulz Waldean A Method and apparatus for three-dimensional non-contact shape sensing
US5193120A (en) * 1991-02-27 1993-03-09 Mechanical Technology Incorporated Machine vision three dimensional profiling system
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
WO1994015173A1 (en) * 1992-12-18 1994-07-07 3D Scanners Ltd. Scanning sensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007025520A1 (de) * 2007-05-31 2008-12-04 Khs Ag Verfahren zum Ausrichten von Behältern sowie Vorrichtung zum Durchführen des Verfahrens
DE102008047816A1 (de) * 2008-09-18 2010-04-08 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE102008047816B4 (de) * 2008-09-18 2011-08-25 Steinbichler Optotechnik GmbH, 83115 Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
US9671220B2 (en) 2008-09-18 2017-06-06 Steinbichler Optotechnik Gmbh Device for determining the 3D coordinates of an object, in particular of a tooth
CN110966960A (zh) * 2019-12-31 2020-04-07 广东省航空航天装备技术研究所 光学成像***

Also Published As

Publication number Publication date
US5969822A (en) 1999-10-19
GB2308186B (en) 1999-06-09
DE19581099T1 (de) 1997-09-18
CA2201107C (en) 2002-11-12
AU3621795A (en) 1996-04-19
CA2201107A1 (en) 1996-04-04
NZ293713A (en) 1997-09-22
WO1996010205A1 (en) 1996-04-04
GB2308186A (en) 1997-06-18
GB9705754D0 (en) 1997-05-07

Similar Documents

Publication Publication Date Title
DE19581099B4 (de) Optisches Oberflächenabtastgerät und Vermessungsverfahren
EP2079981B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE69207176T2 (de) Optischer Sensor
EP2101867B1 (de) Sehhilfe mit dreidimensionaler bilderfassung
EP1597539B1 (de) Verfahren und optisches system zur vermessung der topographie eines messobjekts
DE69432961T2 (de) Anordnung zur Bestimmung der gegenseitigen Lage von Körpern
DE69826753T2 (de) Optischer Profilsensor
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322A1 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP2710331A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE112014003823T5 (de) Echtzeitprüfführung eines Triangulationsscanners
DE4417944A1 (de) Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
EP1342150A2 (de) Messverfahren zur ermittlung der position eines objektes vor einem bildschirm und vorrichtung zur durchführung des verfahrens
DE102010018899A1 (de) Vorrichtung und Verfahren zur Bewegungskorrektur bei MRT-Messungen
DE10317137A1 (de) Röntgeneinrichtung und Verfahren zum Herstellen eines Oberflächenbildes
DE102016217628B4 (de) Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem
DE102010028904A1 (de) Bewegunganalyse- und/oder -Verfolgungssystem
DE3807578C2 (de)
EP2019961B1 (de) Verfahren zum erzeugen von bildinformationen
DE69829313T2 (de) Dreidimensionales abbildungssystem durch zeilenweise bildabtastung
DE10195135B4 (de) Vorrichtung und Verfahren zur Aufnahme einer dreidimensionalen Figur auf einer zweidimensionalen Oberfläche, die die Herstellung von Kleidungsschnittmustern ermöglichen
EP0920642B1 (de) 3-d ultraschallaufnahmegerät
WO1999003066A1 (de) Verfahren und vorrichtung zum erfassen einer reflektierenden fläche eines menschen
DE68904205T2 (de) Verfahren zum digitalisieren der oberflaeche eines dreidimensionalen gegenstandes und aufnahmevorrichtung zur anwendung dieses verfahrens.

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G01B 1125

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120403