DE19581099B4 - Optisches Oberflächenabtastgerät und Vermessungsverfahren - Google Patents
Optisches Oberflächenabtastgerät und Vermessungsverfahren Download PDFInfo
- Publication number
- DE19581099B4 DE19581099B4 DE19581099T DE19581099T DE19581099B4 DE 19581099 B4 DE19581099 B4 DE 19581099B4 DE 19581099 T DE19581099 T DE 19581099T DE 19581099 T DE19581099 T DE 19581099T DE 19581099 B4 DE19581099 B4 DE 19581099B4
- Authority
- DE
- Germany
- Prior art keywords
- camera
- profile
- optical surface
- orientations
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
- G01B11/2522—Projection by scanning of the object the position of the object changing and being recorded
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
Abstract
Optisches
Oberflächenabtastgerät, das folgendes
enthält:
ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen;
eine Kamera, die das Profil in zwei Dimensionen abbildet;
ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen;
eine Kamera, die das Profil in zwei Dimensionen abbildet;
ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
Description
- Die Erfindung betrifft ein optisches Oberflächenabtastgerät und ein Vermessungsverfahren zum Abtasten eines dreidimensionalen Objektes, um Daten zu erhalten, aus denen die Form des Objekts hergeleitet werden kann.
- Die vorliegende Erfindung betrifft insbesondere, aber nicht ausschließlich, ein Verfahren und eine Vorrichtung, das bzw. die zwischen ihren eigentlichen Bestandteilen und dem abgetasteten Objekt keine feste oder vorbestimmte geometrische Beziehung erfordert. Jeder Bestandteil bzw. alle Bestandteile des Abtastsystems und/oder des Objekts können willkürlich im Raum bewegt werden und deshalb in der Hand gehalten werden. Ein derartiges System eignet sich insbesondere dazu, Messungen von unregelmäßigen Objekten wie zum Beispiel dem Körper eines Menschen oder dergleichen zu erhalten.
- Herkömmliche Laser-Oberflächenabtastgeräte enthalten in der Regel eine starre Baugruppe aus Laser und Kamera. Diese Haugruppe ist in der Regel raummäßig befestigt, und das abgetastete Objekt wird auf einer mechanischen Plattform gedreht oder verschoben. Alternativ dazu ist das Objekt befestigt und die Baugruppe aus Laser und Kamera wird mechanisch um das Objekt herum oder an ihm entlang bewegt. Die Bewegung liegt üblicherweise in Form einer Rotation um eine Achse (innerhalb des Objekts) oder einer Translation in einer Richtung (entlang des Objekts) vor. In beiden Fällen basiert der herkömmliche Abtastprozeß auf einem vorbestimmten Wissen über die geometrischen Beziehungen zwischen den Bestandteilen der Abtastvorrichtung.
- Zu den Beispielen für derartige Laser-Abtastgeräte mit fester Achse gehören WO 94/15173,
US 4,705,401 ,GB 2,240,623 A US 5,193,120 . - Sofern es sich bei dem abgetasteten Objekt nicht um eine einfache Oberfläche handelt, bei der jeder Punkt auf seiner Oberfläche von der Abtastvorrichtung im Verlauf eines vollständigen Abtastdurchganges "gesehen" werden kann, ist ein Abtastgerät mit fester Achse nicht in der Lage, die gesamte Oberfläche eines Objektes in einer Abtastausrichtung zu messen. Dies stellt beim Abtasten von komplexen Objekten (zum Beispiel eines ganzen menschlichen Kopfes) eine bedeutende Einschränkung dar. Es ist unwahrscheinlich, daß Merkmale wie zum Beispiel Vorsprünge und Einbuchtungen in Situationen sichtbar sind, in denen eine Abtasteinrichtung einem festen vorbestimmten Weg folgt.
- Weiterhin kann ein festes Abtastmuster oder eine feste Abtastgeometrie Variationen bei Objekteinzelheiten bzw. -bereichen auf der Oberfläche des Objekts berücksichtigten, die möglicherweise durch von der Oberfläche des Objekts hervorstehende, dazwischenkommende Merkmale verdeckt werden.
- Schulz (WO 92/07233) sorgt zu einem gewissen Grad für eine begrenzte Bewegungsfreiheit einer Baugruppe aus Laser und Kamera durch Verfolgen der Position und Ausrichtung mehrerer an der Abtastbaugruppe befestigter Lichtquellen. Der Ort der Lichtquellen (und damit der Abtastbaugruppe) im dreidimensionalen Raum wird mit Hilfe von in einer vorbestimmten statischen Beziehung zum festen Objekt angeordneten festen photoelektronischen Sensoren bestimmt. Die Lichtquellen werden mit den Sensoren zeitgemultiplext, und der räumliche Ort wird von den drei Orten der Lichtquellen hergeleitet. Deshalb müssen alle drei Lichtquellen, die an der Abtastbaugruppe befestigt sind, für alle festen photoelektronischen Sensoren sichtbar sein. In der Regel wird es zu Situationen kommen, bei denen mindestens eine Lichtquelle durch das Objekt selbst, den Bediener oder das Neigen der Baugruppe verdeckt wird. Die Vorteile des Abtastgerätes nach Schulz gegenüber einem Abtastgerät mit fester Geome trie scheinen somit lediglich bei bestimmten Anwendungen vorzuliegen.
- Eine weitere bedeutsame Einschränkung, die das Abtastsystem nach Schulz aufweist, besteht darin, daß das Objekt während des Abtastens bezüglich des von den photoelektronischen Sensoren definierten Bezugsrahmens stillstehen muß. Dies kann, insbesondere bei Anwendungen im medizinischen Bereich, zu Schwierigkeiten führen, und zwar aufgrund der Möglichkeit, daß sich der abgetastete Teil des Patienten bewegt. Es wäre dementsprechend wünschenswert, wenn ein Objekt abgetastet werden könnte, das möglicherweise im Raum willkürlich angeordnet und ausgerichtet ist, wobei eine solche Willkürlichkeit so zu verstehen ist, daß sie ein Objekt einschließt, das sich möglicherweise bewegt, oder daß zumindest allgemein sinnvolle Alternativen bereitgestellt werden.
- Die vorliegende Erfindung versucht, die Einschränkungen und Nachteile, die dem Stand der Technik eigen sind, zu meistern, indem ein Mittel und ein Verfahren zum Abtasten eines willkürlich angeordneten und ausgerichteten Objekts bereitgestellt wird, wobei die Bestandteile des Abtastgerätes im Raum willkürlich angeordnet und ausgerichtet sind.
- Die vorliegende Erfindung stellt auch ein Abtastsystem bereit, das bei Umgebungslicht funktionieren kann und beim Prozeß der Abbildung des abgetasteten Teils des Objekts für optische Störungen weniger anfällig ist.
- Die vorliegende Erfindung stellt auch eine nichtoptische Technik zum Bestimmen der räumlichen Orte und Ausrichtungen der Bestandteile von Abtastsystem und Objekt bereit.
- Offenbarung der Erfindung
- Gemäß einem Aspekt stellt die Erfindung ein optisches Oberflächen-Abtastgerät mit folgendem bereit:
ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen;
eine Kamera, die das Profil in zwei Dimensionen abbildet;
ein räumliches Lokalisierungssystem, das ausgelegt ist, mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander zu gewinnen, wobei die dreidimensionalen Koordinaten des Profils von den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden. - Gemäß einem weiteren Aspekt stellt die Erfindung ein optisches Oberflächenabtastgerät mit folgendem bereit:
ein Beleuchtungsmittel, das ausgelegt ist, ein stiftförmiges Lichtstrahlenbüschel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbüschel und einem abgetasteten Objekt einen Fleck mit dreidimensionalen Koordinaten erzeugt, die auf der Achse des Strahlenbüschels liegen;
eine Kamera, die den Fleck in einer oder zwei Dimensionen abbildet;
ein räumliches Lokalisierungssystem, das ausgelegt ist, mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander zu gewinnen, wobei die dreidimensionalen Koordinaten des Flecks von den ein- oder zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden. - Gemäß einem weiteren Aspekt enthält das optische Oberflächenabtastgerät folgendes:
ein oder mehrere Beleuchtungsmittel, die jeweils so ausgelegt sind, entweder ein fächerförmiges Lichtstrahlenbündel oder ein stiftförmiges Lichtstrahlenbüschel auszusenden, wodurch die Kreuzung zwischen jedem Lichtstrahlbüschel oder Lichtstrahlbündel und dem abgetasteten Objekt ein Profil oder einen Fleck mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des dieses Profil erzeugenden Strahlbüschels liegen oder auf der Achse des diesen Fleck erzeugenden Bündels liegen;
mehrere Kameras, die die Profile oder Flecke bilden;
Mittel zum Unterscheiden zwischen den Beleuchtungsquellen,
ein räumliches Lokalisierungssystem, das ausgelegt ist, mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen zwischen Objekt, Beleuchtungsmittel und Kameras zu gewinnen;
wobei die dreidimensionalen Koordinaten jedes Profils oder Flecks von den zweidimensionalen oder ein-/zweidimensionalen Koordinaten des entsprechenden Bildes und den relativen Positionen und Ausrichtungen von Kameras, Beleuchtungsmittel und Objekt hergeleitet werden. - Das Mittel zum Unterscheiden zwischen den Beleuchtungsquellen verwendet bevorzugt die zeitliche Multiplexierung der Beleuchtungsquellen oder verschiedenen Wellenlängenquellen.
- Kamera und Beleuchtungsmittel werden vorzugsweise in fester Beziehung gehalten.
- Das Beleuchtungsmittel und die Kamera(s) sind in fester Beziehung auf einer handgehaltenen Baugruppe befestigt.
- Die handgehaltene Baugruppe enthält vorzugsweise zwei Kameras und ein Beleuchtungsmittel, wobei das Beleuchtungsmittel zwischen den Kameras positioniert ist und die Kameras und das Beleuchtungsmittel so ausgerichtet sind, daß die Kameras ein bzw. einen durch die Kreuzung des Strahlenbündels bzw. Strahlenbüschels und des abgetasteten Objekts erzeugtes Profil bzw. erzeugten Fleck abbilden.
- Position und Ausrichtung der handgehaltenen Baugruppe werden vorzugsweise mit Hilfe des räumlichen Lokalisierungssystems bestimmt.
- Das räumliche Lokalisierungssystem ist vorzugsweise so ausgelegt, daß seine Arbeitsweise nicht von der Aufrechterhaltung einer Sichtverbindung zwischen seinen Bestandteilen abhängt.
- Das räumliche Lokalisierungssystem umfaßt vorzugs weise mehrere Sender und mehrere Empfänger.
- Das räumliche Lokalisierungssystem verwendet nichtoptische elektromagnetische Felder.
- Bei dem Beleuchtungsmittel handelt es sich vor zugsweise um einen Laser.
- Das fächerförmige Strahlenbündel wird vorzugsweise mit Hilfe einer Zylinderlinse oder einem ähnlichen Mittel erzeugt.
- Das optische Oberflächenabtastgerät enthält vorzugsweise mindestens ein optisches Bandpaßfilter pro Kame ra.
- Das Bandpaßfilter umfaßt vorzugsweise Interferenz filter, die ausgelegt sind, um den Kontrast des von der Kamera gebildeten Profils abzustimmen.
- Das eine oder die mehreren optischen Bandpaßfilter sind vorzugsweise unmittelbar vor der Kamera angeordnet.
- Die vorliegende Erfindung stellt weiterhin ein Vermessungsverfahren für dreidimensionale Objekte bereit, das folgende Schritte umfaßt:
Abbilden des durch Kreuzung eines von einem Beleuchtungsmittel ausgesendeten fächerförmigen Lichtstrahlenbündels oder stiftförmigen Lichtstrahlenbüschels mit dem abzutastenden Objekt erzeugten Profils oder Fleckes;
Messen der relativen Positionen und Ausrichtungen von Kamera, Beleuchtungsmittel und Objekt mittels nichtoptischer elektromagnetischer Felder;
Berechnen von dreidimensionalen Koordinaten des Profils oder des Fleckes;
Wiederholen der obigen Schritte für verschiedene Positionen und/oder Ausrichtungen von Kamera und/oder Beleuchtungsmittel und/oder Objekt. - Die relative Position und Ausrichtung von Objekt, Beleuchtungsmittel und Kamera werden vorzugsweise mit Hilfe des räumlichen Lokalisierungssystems für jedes aufgezeichnete Bild eines Profils oder eines Fleckes gewonnen. Weitere Aufgaben und Vorteile der Erfindung gehen aus der folgenden Beschreibung hervor, die beispielhaft und unter Bezugnahme auf die Zeichnungen präsentiert werden, in denen:
- Kurze Beschreibung der Zeichnungen
-
1 : ein Schemadiagramm einer Ausführungsform eines optischen Oberflächenabtastgeräts mit einem Beleuchtungsmittel und einer Kamera veranschaulicht; -
2 : ein Schemadiagramm einer Ausführungsform eines optischen Oberflächenabtastgeräts mit einem einzelnen Beleuchtungsmittel und zwei Kameras veranschaulicht, die in einem einzelnen Abtastkopf ausgeführt sind; -
3 : eine perspektivische Ansicht des Systems in1 bei Verwendung zum Abtasten eines sphärischen Objekts mit einem fächerförmigen Strahlenbündel veranschaulicht. - Unter Bezugnahme auf
1 ist100 das abzutastende Objekt. Die Hauptbestandteile des Abtastsystems sind wie folgt: Eine Beleuchtungsbaugruppe110 enthält einen Laser101 niedriger Leistung, der durch eine Zylinderlinse102 gerichtet wird, wodurch ein fächerförmiges Strahlenbündel erzeugt wird. Weitere Verfahren zur Erzeugung eines Strahlenbündels werden in Betracht gezogen. So kann zum Beispiel eine punktförmige Quelle mit einer schlitzförmigen Apertur und einem Kollimator das erwünschte fächerförmige Strahlenbündel erzeugen. Eine Abbildungsbaugruppe109 enthält eine zweidimensionale elektronische Kamera103 (flächiges Array), bei der ein optisches Bandpaß-Interferenzfilter104 die Linse überdeckt. - Das räumliche Lokalisierungssystem umfaßt einen räumlichen Lokalisierungssender
105 und räumliche Lokalisierungsempfänger106 ,107 und108 . - Eine räumliche Lokalisierungselektronikeinheit
111 und eine Laser-Zeilenabfrageelektronik112 sind an eine Steuerelektronik und Stromversorgung113 angeschlossen;114 entspricht einem Digitalrechner. - Durch Verwendung von räumlichen Lokalisierungseinrichtungen
105 ,106 ,107 und108 kann die relative Position und Ausrichtung (6 Freiheitsgrade) von Objekt100 , Laser101 und Kamera(s)103 gewonnen werden. Das räumliche Lokalisierungssystem kann einer elektronischen Einrichtung entsprechen, wie zum Beispiel einem Polhemus "Fastrak" auf der Grundlage wechselnder elektrischer Felder oder einem Ascension "Bird" auf der Grundlage gepulster statischer elektrischer Felder. - Unter Bezugnahme auf
1 bezeichnen die gestrichelten Kästen109 und110 die Bestandteile, die zu tragbaren handgehaltenen Baugruppen kombiniert werden, die jeweils einem räumlichen Lokalisierungsempfänger107 und108 zugeordnet sind. Die Abbildungsbaugruppe109 besteht in diesem Fall aus Abbildungsbestandteilen (Kamera103 und Filter104 ) und dem räumlichen Lokalisierungsempfänger108 . Die Beleuchtungsbaugruppe110 besteht aus Beleuchtungsbestandteilen (Laser101 und Zylinderlinse102 ) und dem räumlichen Lokalisierungempfänger107 . - Eine dreidimensionale Darstellung des Systems von
1 wird in3 gezeigt. Eine Zylinderlinse302 spreizt den von dem Laser301 ausgesendeten Strahl zum fächerförmigen Strahlenbündel303 , so daß die Kreuzung zwischen dem Strahlenbündel und dem abgetasteten Objekt300 ein Profil304 erzeugt. Die Kamera enthält eine Linse307 , ein CCD-Array306 (charge-coupled device) und ein Filter308 vor der Kamera. Das Bild305 des Profils304 wird von der Kamera gewonnen, wenn sie das Objekt unter einem Versatzwinkel sieht. Die zweidimensionalen Koordinaten des Bildes des Profils werden aufgezeichnet. - Objekt
300 , Laser301 und Kamera (306 und307 ) sind räumlichen Lokalisierungsempfängern310 ,311 bzw.312 zugeordnet, wodurch ihre Ausrichtung und ihre Position im Raum in Echtzeit gemessen werden können. Somit können der Laser und die Kamera willkürlich im Raum bewegt werden, um erwünschte Profile aufzuzeichnen, wodurch eine rekonstruierte Oberfläche aufgebaut wird. Alternativ dazu kann das Objekt bewegt werden, um die gewünschten Profile aufzuzeichnen. - Bei Verwendung werden die Profile
304 aufgezeichnet, indem das fächerförmige Laser-Strahlenbündel auf das Objekt gerichtet wird, während gleichzeitig die Kamera so positioniert wird, daß sie das Profil sehen kann. Die Nützlichkeit des vorliegenden Systems wird durch Situationen veranschaulicht, bei denen Merkmale des Objekts bei Verwen dung eines festen Beleuchtungs-/Abbildungssystems möglicherweise entweder die Beleuchtung oder das Blickfeld der Kamera verdecken. Wenn eine derartige Geometrie angetroffen wird, kann die Beleuchtung und/oder die Kamera und/oder das Objekt in eine Ausrichtung oder Position bewegt werden, wo die Kamera das Profil sehen kann. - Das räumliche Lokalisierungssystem
310 ,311 ,312 und313 stellt die erforderlichen räumlichen Lokalisierungs- und Ausrichtungsinformationen für Objekt, Kamera und Laser bereit, woraufhin die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Bildelementkoordinaten in dem CCD-Array306 der Kamera bestimmt werden. - Das Abtastgerät kann ein Interferenzfilter
308 enthalten, das ein Abtasten unter Bedingungen mit Umgebungslicht gestattet. Ein weiterer Zweck des Interferenzfilters besteht darin, wie unten erörtert, den Kontrast des von der Kamera gesehenen Profils abzugleichen. - Interferenzfilter haben für außeraxiales Licht einen schmaleren Wellenlängendurchlaßbereich, und dieser Effekt wird ausgenutzt. Die Intensität des Profils nimmt in der Regel mit der Entfernung von seinem Zentrum ab. Wenn deshalb ein Filter so gewählt wird, daß es einen Durchlaßbereich mit einem Zentrum oberhalb der Laserwellenlänge aufweist, werden die distalen Enden des Laserprofils durch das Filter weniger gedämpft. Dadurch wird der Kontrast des von der Kamera gesehenen Laserprofils abgeglichen. Nach Kenntnis der Anmelder ist eine derartige Anwendung eines Interferenzfilters neuartig.
- Unter Bezugnahme auf
1 wird das Ausgangssignal von jeder zweidimensionalen Kamera103 (wie zum Beispiel einem CCD-Array) durch die Zeilenabfrageelektronik112 entsprechend verarbeitet, um eine Liste von Bildelementen (zweidimensionale Kamerakoordinaten) zu erstellen, an denen die Intensität einen gewissen Schwellwert (konstant oder adaptiv) übersteigt. - Die Steuerelektronikeinheit
113 führt Aufgaben aus wie zum Beispiel das Synchronisieren der Kameras, Laser und räumlichen Lokalisierungsempfänger, das Überwachen von Schaltern, das Zuführen von Strom, die Vorverarbeitung und Anschaltung dieses Datenstroms an den digitalen Eingangs-/Ausgangsanschluß des digitalen Hostrechners114 . Der digitale Rechner ist so programmiert, daß er die dreidimensionalen Koordinaten der Oberfläche des Objekts rekonstruiert. Bei einer derartigen Rekonstruktion können in der Technik bekannte Transformationsmethoden eingesetzt werden, die jeden von der Kamera gesehenen zweidimensionalen Punkt im Profil in einen dreidimensionalen Punkt im Bezugsrahmen der Kamera und danach in einen dreidimensionalen Punkt im Bezugsrahmen des Objekts umwandeln. - Der Rekonstruktionsprozeß muß diejenigen Koordinaten eines dreidimensionalen Punktes im Bezugsrahmen des Objekts bestimmen, die jedem Bildelement entsprechen, das von der Laser-Zeilenabfrageelektronik identifiziert worden ist.
- Dies kann auf verschiedene Weise bewerkstelligt werden. Wenn beispielsweise ein einfaches lineares Modell der Kamera angenommen wird, so kann ein Strahl vom Ort des Bildelements durch das Zentrum der Linse verfolgt werden, wodurch die Kreuzung des Strahls mit der Ebene des Lasers die dreidimensionale Koordinate des beleuchteten Flecks auf dem Objekt bestimmt, wobei die Kamerakoordinaten und die Laserebene unter Verwendung der räumlichen Lokalisierungsinformationen in das Koordinatensystem des Objekts transformiert worden sind.
- Alternativ dazu kann auch eine "Nachschlagetabelle" verwendet werden, um von Bildelementkoordinaten in dreidimensionale Koordinaten im Bezugsrahmen der Kamera zu transformieren, woraufhin dann diese Koordinaten unter Verwendung der räumlichen Lokalisierungsinformation in das Koordinatensystem des Objektes transformiert werden können.
- Die Nachschlagetabelle kann durch einen empirischen Kalibrierprozeß erstellt werden. Es können deshalb nicht lineare Effekte wie zum Beispiel Linsenverzerrung berücksichtigt sowie auch ein schnelleres Mittel der Datenumwandlung im Rechner vorgesehen werden.
- Es versteht sich, daß der Ort des abgetasteten Objekts mit Hilfe des räumlichen Lokalisierungssystems ständig bestimmt wird. Deshalb steht es dem Objekt so lange frei, sich während des Abtastprozesses zu bewegen, wie der dem Objekt zugeordnete Empfänger in einer festen Beziehung zu dem Objekt bleibt.
- Es muß verstanden werden, daß sowohl die Anzahl an Kameras und Lasern und/oder die Geometrie des Systems gegebenenfalls verändert werden kann. Wenn zum Beispiel zwei oder mehr beliebige Bestandteile über den ganzen Abtastvorgang hinweg eine feste relative räumliche Beziehung beibehalten, dann können die Position und Ausrichtung der kombinierten Baugruppe durch einen einzelnen räumlichen Lokalisierungsempfänger aufgezeichnet werden (wobei die relativen Orte und Ausrichtungen der Bestandteile der Baugruppe schon vorher festliegen und bestimmt worden sind).
-
2 zeigt eine Ausführungsform, bei der die Kameras202 und203 und der Laser204 an einer (gepunkteten) handgehaltenen Baugruppe205 befestigt sind. Bei dieser Auslegung liegt die geometrische Beziehung zwischen dem Laserstrahlenbündel und den Kameras fest und ist bekannt. Dementsprechend können bei der Geschwindigkeit der Bildverarbeitung Einsparungen herbeigeführt werden. - Das in
2 gezeigte System gleicht in den meisten Punkten dem in1 , mit der Ausnahme, daß eine zusätzliche Zeilenabfrageelektronik215 erforderlich ist und die hangehaltene Baugruppe205 einen einzelnen räumlichen Lokalisierungsempfänger208 erfordert. - Die in
2 gezeigte Ausführungsform ist ebenfalls vorteilhaft, insofern die Abtastbaugruppe in einem zweckmäßigen "Paket" oder "Stab" enthalten ist. Jedoch ist die vorliegende Erfindung nicht auf eine derartige Konstruktion beschränkt, und es kann Anwendungen geben, bei denen eine oder mehrere willkürlich angeordnete Kameras und/oder Laser erforderlich sind. - Bei der Erstausführung der Anmelder (die dem in
2 gezeigten Beispiel entspricht) sind ein einzelner Laser204 und eine Zylinderlinse206 zwischen zwei Kameras203 und202 positioniert, wobei der Laser und die Kameras in fester Beziehung zueinander stehen und auf einer tragbaren handgehaltenen Baugruppe, die durch den gestrichelten Kasten205 angedeutet ist, befestigt sind. Ort und Ausrichtung von205 werden durch den räumlichen Lokalisierungsempfänger208 bestimmt. Der Ort des Objekts200 wird durch einen zweiten räumlichen Lokalisierungsempfänger201 bestimmt, wobei der Sender209 während des ganzen Abtastvorgangs festliegt. Jede Kamera ist von dem Laser etwa 250 mm beabstandet, und die optische Achse jeder Kamera ist unter einem derartigen Winkel angeordnet, daß sie die Ebene des Strahlenbündels unter einem eingeschlossenen Winkel von etwa 30 Grad schneidet. - Im Betrieb wird die handgehaltene Einheit
205 so ausgerichtet, daß das fächerförmige Strahlenbündel das Objekt200 kreuzt. Jede Kamera203 und202 bildet das Profil mit einem bekannten und festen Versatzwinkel ab. Die Profile werden mit einer Rate abgetastet, die ausreicht, daß für den Fall, daß die handgehaltene Einheit im rechten Winkel zur Ebene des Strahls bewegt wird (d.h. das Laserstrahlenbündel streicht über das Objekt), der abgetastete Bereich als eine Reihe von Profilen betrachtet werden kann, die jeweils abgebildet und rekonstruiert werden und somit die abgetastete Oberfläche bilden. - Alternativ dazu könnte der räumliche Lokalisierungssender anstelle eines getrennten Empfängers direkt am Objekt angebracht werden.
- Bei einer alternativen Ausführungsform wird das Objekt während des gesamten Verlaufs des Abtastprozesses in fester Beziehung zum Sender gehalten. Analog dazu kann ein beliebiger Bestandteil des Abtastsystems selber (Kamera oder Laser) während des ganzen Abtastvorgangs ortsfest gehalten werden. Seine Position und Ausrichtung ist somit eine willkürliche Konstante und muß von dem räumlichen Lokalisierungssystem nicht aufgezeichnet werden.
Claims (18)
- Optisches Oberflächenabtastgerät, das folgendes enthält: ein Beleuchtungsmittel, das ausgelegt ist, ein fächerförmiges Lichtstrahlenbündel auszusenden, wodurch die Kreuzung zwischen dem Strahlenbündel und einem abgetasteten Objekt ein Profil mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des Strahlenbündels liegen; eine Kamera, die das Profil in zwei Dimensionen abbildet; ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Profils aus den zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
- Optisches Oberflächenabtastgerät, das folgendes enthält: ein Beleuchtungsmittel, das so ausgelegt ist, dass es ein stiftförmiges Lichtstrahlenbüschel aussendet, wodurch die Kreuzung zwischen dem Strahlenbüschel und einem abgetasteten Objekt einen Fleck mit dreidimensionalen Koordinaten erzeugt, die auf der Achse des Strahlenbüschels liegen; eine Kamera, die den Fleck in einer oder zwei Dimensionen abbildet; ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Beleuchtungsmittel und Kamera zueinander gewinnt, wobei die dreidimensionalen Koordinaten des Flecks aus den ein- oder zweidimensionalen Koordinaten des Bildes und den relativen Positionen und Ausrichtungen von Beleuchtungsmittel, Kamera und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Flecken eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
- Optisches Oberflächenabtastgerät, das folgendes enthält: ein oder mehrere Beleuchtungsmittel, die jeweils so ausgelegt sind, dass sie entweder ein fächerförmiges Lichtstrahlenbündel oder ein stiftförmiges Lichtstrahlenbüschel aussenden, wodurch die Kreuzung zwischen jedem Lichtstrahlenbündel oder Lichtstrahlenbüschel und dem abgetasteten Objekt ein Profil oder einen Fleck mit dreidimensionalen Koordinaten erzeugt, die in der Ebene des dieses Profil erzeugenden Strahlenbündels oder auf der Achse des diesen Fleck erzeugenden Strahlenbüschels liegen; mehrere Kameras, die die Profile oder Flecken abbilden; Mittel zum Unterscheiden zwischen den Beleuchtungsmitteln; ein räumliches Lokalisierungssystem, das so ausgelegt ist, dass es mittels nichtoptischer elektromagnetischer Felder die relativen Positionen und Ausrichtungen von Objekt, Be leuchtungsmittel(n) und Kameras zueinander gewinnt, wobei die dreidimensionalen Koordinaten eines jeden Profils oder Flecks aus den zweidimensionalen Koordinaten oder aus den ein-/zweidimensionalen Koordinaten des entsprechenden Bildes und der relativen Positionen und Ausrichtungen von Kameras, Beleuchtungsmittel und Objekt hergeleitet werden, und wobei durch das Abtasten der Oberfläche des Objekts mit dem Beleuchtungsmittel aus einer Vielzahl von Profilen oder Flecken eine dreidimensionale Darstellung der Oberfläche erhalten werden kann.
- Optisches Oberflächenabtastgerät nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass das fächerförmige Lichtstrahlenbündel mittels einer Zylinderlinse erzeugt wird.
- Optisches Oberflächenabtastgerät nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das räumliche Lokalisierungssystem wiederholte Messungen der relativen Positionen und Ausrichtungen zwischen dem Objekt, Beleuchtungsmittel(n) und Kamera(s) vornimmt, dergestalt, dass die dreidimensionale Darstellung der Oberfläche des Objekts erhalten wird, auch wenn sich das Objekt bewegt.
- Optisches Oberflächenabtastgerät nach Anspruch 3, dadurch gekennzeichnet, dass das Mittel zum Unterscheiden zwischen den Beleuchtungsmitteln die Zeitmultiplexierung der Beleuchtungsmittel oder Lichtquellen unterschiedlicher Wellenlänge verwendet.
- Optisches Oberflächenabtastgerät nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Kamera(s) und Beleuchtungsmittel in fester Beziehung gehalten werden.
- Optisches Oberflächenabtastgerät nach Anspruch 7, dadurch gekennzeichnet, dass Beleuchtungsmittel und Kamera(s) in fester Beziehung auf einer handgehaltenen Baugruppe befestigt sind.
- Optisches Oberflächenabtastgerät nach Anspruch 8, dadurch gekennzeichnet, dass die handgehaltene Baugruppe zwei Kameras und ein Beleuchtungsmittel enthält, wobei das Beleuchtungsmittel zwischen den Kameras positioniert ist und die Kameras und das Beleuchtungsmittel so ausgerichtet sind, dass die Kameras ein durch die Kreuzung des fächerförmigen Strahlenbündels und des abgetasteten Objekts erzeugtes Profil oder einen durch die Kreuzung des stiftförmigen Strahlenbüschels und des abgetasteten Objekts erzeugten Fleck abbilden.
- Optisches Oberflächenabtastgerät nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass Ort und Ausrichtung der handgehaltenen Baugruppe mit Hilfe des räumlichen Lokalisierungssystems bestimmt werden.
- Optisches Oberflächenabtastgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das räumliche Lokalisierungssystem so ausgelegt ist, dass seine Arbeitsweise nicht von der Aufrechterhaltung einer Sichtverbindung zwischen seinen Bestandteilen abhängt.
- Optisches Oberflächenabtastgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das räumliche Lokalisierungssystem mehrere Sender und mehrere Empfänger umfaßt.
- Optisches Oberflächenabtastgerät nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Beleuchtungsmittel ein Laser ist.
- Optisches Oberflächenabtastgerät einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es mindestens einen optischen Bandpaßfilter pro Kamera enthält.
- Optisches Oberflächenabtastgerät nach Anspruch 14, dadurch gekennzeichnet, dass das Bandpaßfilter Interferenzfilter umfaßt, die so ausgelegt sind, dass sie den Kontrast des von der Kamera abgebildeten Profils abgleichen.
- Optisches Oberflächenabtastgerät nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass das eine oder die mehreren optischen Bandpaßfilter unmittelbar vor der Kamera angeordnet sind.
- Vermessungsverfahren für dreidimensionale Objekte, das folgende Schritte umfaßt: Abbilden des durch Kreuzung eines von einem Beleuchtungsmittel ausgesendeten fächerförmigen Lichtstrahlenbündels oder stiftförmigen Lichtstrahlenbüschels mit dem abzutastenden Objekt erzeugten Profils oder Fleckes; Messen der relativen Positionen und Ausrichtungen einer das Profil oder den Fleck abbildenden Kamera, des Beleuchtungsmittels und des Objekts, mit Hilfe nichtoptischer elektromagnetischer Felder; Berechnen von dreidimensionalen Koordinaten des Profils oder des Fleckes, beruhend auf dessen Bild und den relativen Positionen und Ausrichtungen der Kamera, des Beleuchtungsmittels und des abzutastenden Objekts; Wiederholen der obigen Schritte für verschiedene Positionen und/oder Ausrichtungen von Kamera und/oder Beleuchtungsmittel und/oder Objekt.
- Vermessungsverfahren für dreidimensionale Objekte nach Anspruch 17, dadurch gekennzeichnet, dass die relative Position und Ausrichtung von Objekt, Beleuchtungsmittel und Kamera mit Hilfe eines räumlichen Lokalisierungssystems für jedes Bild eines Profils oder eines Flecks gewonnen wird.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NZ26456494 | 1994-09-28 | ||
NZ264564 | 1994-09-28 | ||
PCT/NZ1995/000097 WO1996010205A1 (en) | 1994-09-28 | 1995-09-28 | Arbitrary-geometry laser surface scanner |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19581099T1 DE19581099T1 (de) | 1997-09-18 |
DE19581099B4 true DE19581099B4 (de) | 2006-07-27 |
Family
ID=19924949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19581099T Expired - Fee Related DE19581099B4 (de) | 1994-09-28 | 1995-09-28 | Optisches Oberflächenabtastgerät und Vermessungsverfahren |
Country Status (7)
Country | Link |
---|---|
US (1) | US5969822A (de) |
AU (1) | AU3621795A (de) |
CA (1) | CA2201107C (de) |
DE (1) | DE19581099B4 (de) |
GB (1) | GB2308186B (de) |
NZ (1) | NZ293713A (de) |
WO (1) | WO1996010205A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007025520A1 (de) * | 2007-05-31 | 2008-12-04 | Khs Ag | Verfahren zum Ausrichten von Behältern sowie Vorrichtung zum Durchführen des Verfahrens |
DE102008047816A1 (de) * | 2008-09-18 | 2010-04-08 | Steinbichler Optotechnik Gmbh | Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns |
CN110966960A (zh) * | 2019-12-31 | 2020-04-07 | 广东省航空航天装备技术研究所 | 光学成像*** |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9515311D0 (en) | 1995-07-26 | 1995-09-20 | 3D Scanners Ltd | Stripe scanners and methods of scanning |
US6553138B2 (en) * | 1998-12-30 | 2003-04-22 | New York University | Method and apparatus for generating three-dimensional representations of objects |
NO313113B1 (no) * | 1999-07-13 | 2002-08-12 | Metronor Asa | System for scanning av store objekters geometri |
DE50000335D1 (de) | 2000-04-05 | 2002-09-05 | Brainlab Ag | Referenzierung eines Patienten in einem medizinischen Navigationssystem mittels aufgestrahlter Lichtpunkte |
US6594516B1 (en) * | 2000-07-18 | 2003-07-15 | Koninklijke Philips Electronics, N.V. | External patient contouring |
US7625335B2 (en) | 2000-08-25 | 2009-12-01 | 3Shape Aps | Method and apparatus for three-dimensional optical scanning of interior surfaces |
ATE539562T1 (de) | 2001-03-02 | 2012-01-15 | 3Shape As | Verfahren zum individuellen anpassen von hörmuscheln |
FI113293B (fi) * | 2001-04-19 | 2004-03-31 | Mapvision Oy | Menetelmä pisteen osoittamiseksi mittausavaruudessa |
KR20030033174A (ko) * | 2001-10-18 | 2003-05-01 | 이정현 | 반사 표면을 갖는 문화유물의 3차원 형상 측정 방법 |
WO2003054683A2 (en) * | 2001-12-07 | 2003-07-03 | Canesta Inc. | User interface for electronic devices |
US7881896B2 (en) | 2002-02-14 | 2011-02-01 | Faro Technologies, Inc. | Portable coordinate measurement machine with integrated line laser scanner |
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
AU2003217587A1 (en) * | 2002-02-15 | 2003-09-09 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
US7526120B2 (en) * | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
US20040066500A1 (en) * | 2002-10-02 | 2004-04-08 | Gokturk Salih Burak | Occupancy detection and measurement system and method |
US7439074B2 (en) * | 2003-09-30 | 2008-10-21 | Hoa Duc Nguyen | Method of analysis of alcohol by mass spectrometry |
US10277290B2 (en) | 2004-04-02 | 2019-04-30 | Rearden, Llc | Systems and methods to exploit areas of coherence in wireless systems |
US9826537B2 (en) | 2004-04-02 | 2017-11-21 | Rearden, Llc | System and method for managing inter-cluster handoff of clients which traverse multiple DIDO clusters |
US8654815B1 (en) | 2004-04-02 | 2014-02-18 | Rearden, Llc | System and method for distributed antenna wireless communications |
US10425134B2 (en) | 2004-04-02 | 2019-09-24 | Rearden, Llc | System and methods for planned evolution and obsolescence of multiuser spectrum |
US9819403B2 (en) | 2004-04-02 | 2017-11-14 | Rearden, Llc | System and method for managing handoff of a client between different distributed-input-distributed-output (DIDO) networks based on detected velocity of the client |
US7340316B2 (en) * | 2004-06-28 | 2008-03-04 | Hanger Orthopedic Group, Inc. | System and method for producing medical devices |
US20060055706A1 (en) * | 2004-09-15 | 2006-03-16 | Perlman Stephen G | Apparatus and method for capturing the motion of a performer |
US7375826B1 (en) * | 2004-09-23 | 2008-05-20 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) | High speed three-dimensional laser scanner with real time processing |
WO2006069491A1 (en) * | 2004-12-31 | 2006-07-06 | Intel Corporation | Remote logging mechanism |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
GB0517992D0 (en) * | 2005-09-05 | 2005-10-12 | Sld Ltd | Laser imaging |
WO2007030026A1 (en) * | 2005-09-09 | 2007-03-15 | Industrial Research Limited | A 3d scene scanner and a position and orientation system |
US8659668B2 (en) * | 2005-10-07 | 2014-02-25 | Rearden, Llc | Apparatus and method for performing motion capture using a random pattern on capture surfaces |
CA2625775A1 (en) | 2005-10-14 | 2007-04-19 | Applied Research Associates Nz Limited | A method of monitoring a surface feature and apparatus therefor |
DE102006031142B4 (de) * | 2006-07-05 | 2012-02-16 | Prüf- und Forschungsinstitut Pirmasens e.V. | Verfahren und Vorrichtung zur dreidimensionalen Vermessung und Erfassung der kompletten Objektoberfläche eines kugelförmigen Messobjektes wie eines Sportballs |
US20100231692A1 (en) * | 2006-07-31 | 2010-09-16 | Onlive, Inc. | System and method for performing motion capture and image reconstruction with transparent makeup |
EP2062158B1 (de) * | 2006-07-31 | 2012-09-05 | OnLive, Inc. | System und verfahren zur durchführung einer bewegungserfassung und zur bildrekonstruktion |
US20080071559A1 (en) * | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
AU2007300379A1 (en) * | 2006-09-27 | 2008-04-03 | Georgia Tech Research Corporation | Systems and methods for the measurement of surfaces |
US7256899B1 (en) * | 2006-10-04 | 2007-08-14 | Ivan Faul | Wireless methods and systems for three-dimensional non-contact shape sensing |
US7578178B2 (en) * | 2007-09-28 | 2009-08-25 | United Technologies Corporation | Method of inspecting turbine internal cooling features using non-contact scanners |
US8505209B2 (en) | 2009-10-27 | 2013-08-13 | N.E. Solutionz, Llc | Skin and wound assessment tool |
US8276287B2 (en) * | 2009-10-27 | 2012-10-02 | N.E. Solutionz, Llc | Skin and wound assessment tool |
US9161716B2 (en) | 2009-10-27 | 2015-10-20 | N.E. Solutionz, Llc | Diagnostic imaging system for skin and affliction assessment |
EP2501288B1 (de) | 2009-11-19 | 2016-12-21 | Modulated Imaging Inc. | Verfahren und vorrichtung zur analyse trüber medien durch einzelelementerkennung mithilfe strukturierter beleuchtung |
EP2365278A1 (de) * | 2010-02-22 | 2011-09-14 | Snap-on Equipment Srl a unico socio | Système de scanner |
US8467992B1 (en) * | 2010-09-15 | 2013-06-18 | The Boeing Company | Vision based location and measurement device and methods |
US8687172B2 (en) | 2011-04-13 | 2014-04-01 | Ivan Faul | Optical digitizer with improved distance measurement capability |
US9179844B2 (en) | 2011-11-28 | 2015-11-10 | Aranz Healthcare Limited | Handheld skin measuring or monitoring device |
MX2018016101A (es) | 2012-11-07 | 2022-05-19 | Modulated Imaging Inc | Eficiente formacion modulada de imagenes. |
US11189917B2 (en) | 2014-04-16 | 2021-11-30 | Rearden, Llc | Systems and methods for distributing radioheads |
US10488535B2 (en) | 2013-03-12 | 2019-11-26 | Rearden, Llc | Apparatus and method for capturing still images and video using diffraction coded imaging techniques |
US9973246B2 (en) | 2013-03-12 | 2018-05-15 | Rearden, Llc | Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology |
US9923657B2 (en) | 2013-03-12 | 2018-03-20 | Rearden, Llc | Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology |
RU2767777C2 (ru) | 2013-03-15 | 2022-03-21 | Риарден, Ллк | Системы и способы радиочастотной калибровки с использованием принципа взаимности каналов в беспроводной связи с распределенным входом - распределенным выходом |
ITTO20130202A1 (it) * | 2013-03-15 | 2014-09-16 | Torino Politecnico | Dispositivo e sistema di scansione tridimensionale, e relativo metodo. |
US10013527B2 (en) | 2016-05-02 | 2018-07-03 | Aranz Healthcare Limited | Automatically assessing an anatomical surface feature and securely managing information related to the same |
US11116407B2 (en) | 2016-11-17 | 2021-09-14 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
EP3606410B1 (de) | 2017-04-04 | 2022-11-02 | Aranz Healthcare Limited | Anatomische oberflächenbeurteilungsverfahren, vorrichtungen und systeme |
CN107170035B (zh) * | 2017-07-12 | 2023-08-25 | 朱培恒 | 一种高反光物体扫描方法及其*** |
DE102018105132B4 (de) * | 2018-03-06 | 2023-07-13 | Haag-Streit Gmbh | Triangulationsvorrichtung |
US12039726B2 (en) | 2019-05-20 | 2024-07-16 | Aranz Healthcare Limited | Automated or partially automated anatomical surface assessment methods, devices and systems |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4705401A (en) * | 1985-08-12 | 1987-11-10 | Cyberware Laboratory Inc. | Rapid three-dimensional surface digitizer |
GB2240623A (en) * | 1990-01-31 | 1991-08-07 | Neil Starsmore | An imaging process for detecting the shape of three dimensional objects |
WO1992007233A1 (en) * | 1990-10-15 | 1992-04-30 | Schulz Waldean A | Method and apparatus for three-dimensional non-contact shape sensing |
US5193120A (en) * | 1991-02-27 | 1993-03-09 | Mechanical Technology Incorporated | Machine vision three dimensional profiling system |
WO1994015173A1 (en) * | 1992-12-18 | 1994-07-07 | 3D Scanners Ltd. | Scanning sensor |
DE4301538A1 (de) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US35816A (en) * | 1862-07-08 | Improved washing-machine | ||
US3821469A (en) * | 1972-05-15 | 1974-06-28 | Amperex Electronic Corp | Graphical data device |
US4017858A (en) * | 1973-07-30 | 1977-04-12 | Polhemus Navigation Sciences, Inc. | Apparatus for generating a nutating electromagnetic field |
US3983474A (en) * | 1975-02-21 | 1976-09-28 | Polhemus Navigation Sciences, Inc. | Tracking and determining orientation of object using coordinate transformation means, system and process |
FR2416480A1 (fr) * | 1978-02-03 | 1979-08-31 | Thomson Csf | Dispositif de localisation de source rayonnante et systeme de reperage de direction comportant un tel dispositif |
US4402608A (en) * | 1980-10-02 | 1983-09-06 | Solid Photography Inc. | Room scanning system using multiple camera and projector sensors |
US4585350A (en) * | 1983-01-28 | 1986-04-29 | Pryor Timothy R | Pulsed robotic inspection |
NL8302228A (nl) * | 1983-06-22 | 1985-01-16 | Optische Ind De Oude Delft Nv | Meetstelsel voor het onder gebruikmaking van een op driehoeksmeting berustend principe, contactloos meten van een door een oppervlakcontour van een objectvlak gegeven afstand tot een referentieniveau. |
DE3342675A1 (de) * | 1983-11-25 | 1985-06-05 | Fa. Carl Zeiss, 7920 Heidenheim | Verfahren und vorrichtung zur beruehrungslosen vermessung von objekten |
US4753528A (en) * | 1983-12-13 | 1988-06-28 | Quantime, Inc. | Laser archery distance device |
US4649504A (en) * | 1984-05-22 | 1987-03-10 | Cae Electronics, Ltd. | Optical position and orientation measurement techniques |
US4775235A (en) * | 1984-06-08 | 1988-10-04 | Robotic Vision Systems, Inc. | Optical spot scanning system for use in three-dimensional object inspection |
DE3423135A1 (de) * | 1984-06-22 | 1986-01-02 | Dornier Gmbh, 7990 Friedrichshafen | Verfahren zum auslesen einer entfernungsbildzeile |
US4705395A (en) * | 1984-10-03 | 1987-11-10 | Diffracto Ltd. | Triangulation data integrity |
JPS6186606A (ja) * | 1984-10-05 | 1986-05-02 | Hitachi Ltd | 非接触形状測定方法 |
DE3502634A1 (de) * | 1985-01-26 | 1985-06-20 | Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln | Optisch-elektronischer entfernungsmesser |
US4782239A (en) * | 1985-04-05 | 1988-11-01 | Nippon Kogaku K. K. | Optical position measuring apparatus |
SE447848B (sv) * | 1985-06-14 | 1986-12-15 | Anders Bengtsson | Instrument for metning av ytors topografi |
US4743771A (en) * | 1985-06-17 | 1988-05-10 | View Engineering, Inc. | Z-axis height measurement system |
WO1987001194A1 (en) * | 1985-08-12 | 1987-02-26 | David Andrew Addleman | Rapid three-dimensional surface digitizer |
US4737032A (en) * | 1985-08-26 | 1988-04-12 | Cyberware Laboratory, Inc. | Surface mensuration sensor |
JPH0619243B2 (ja) * | 1985-09-19 | 1994-03-16 | 株式会社トプコン | 座標測定方法及びその装置 |
US4709156A (en) * | 1985-11-27 | 1987-11-24 | Ex-Cell-O Corporation | Method and apparatus for inspecting a surface |
US4794262A (en) * | 1985-12-03 | 1988-12-27 | Yukio Sato | Method and apparatus for measuring profile of three-dimensional object |
US4760851A (en) * | 1986-03-31 | 1988-08-02 | Faro Medical Technologies Inc. | 3-dimensional digitizer for skeletal analysis |
SE469321B (sv) * | 1986-04-14 | 1993-06-21 | Joenkoepings Laens Landsting | Saett och anordning foer att framstaella en modifierad tredimensionell avbildning av ett elastiskt deformerbart foeremaal |
US4822163A (en) * | 1986-06-26 | 1989-04-18 | Robotic Vision Systems, Inc. | Tracking vision sensor |
US4767934A (en) * | 1986-07-02 | 1988-08-30 | Honeywell Inc. | Active ranging system |
US4733969A (en) * | 1986-09-08 | 1988-03-29 | Cyberoptics Corporation | Laser probe for determining distance |
US4761072A (en) * | 1986-09-30 | 1988-08-02 | Diffracto Ltd. | Electro-optical sensors for manual control |
US4764015A (en) * | 1986-12-31 | 1988-08-16 | Owens-Illinois Television Products Inc. | Method and apparatus for non-contact spatial measurement |
DE3703422A1 (de) * | 1987-02-05 | 1988-08-18 | Zeiss Carl Fa | Optoelektronischer abstandssensor |
US4745290A (en) * | 1987-03-19 | 1988-05-17 | David Frankel | Method and apparatus for use in making custom shoes |
US4836778A (en) * | 1987-05-26 | 1989-06-06 | Vexcel Corporation | Mandibular motion monitoring system |
US4829373A (en) * | 1987-08-03 | 1989-05-09 | Vexcel Corporation | Stereo mensuration apparatus |
ZA889529B (en) * | 1987-12-21 | 1989-09-27 | Univ Western Australia | Vision system |
US4982188A (en) * | 1988-09-20 | 1991-01-01 | Grumman Aerospace Corporation | System for measuring positional characteristics of an ejected object |
FR2642833B1 (fr) * | 1989-02-06 | 1991-05-17 | Vision 3D | Procede d'etalonnage d'un systeme d'acquisition tridimensionnelle de forme et systeme d'acquisition pour la mise en oeuvre dudit procede |
US5307072A (en) * | 1992-07-09 | 1994-04-26 | Polhemus Incorporated | Non-concentricity compensation in position and orientation measurement systems |
US5402582A (en) * | 1993-02-23 | 1995-04-04 | Faro Technologies Inc. | Three dimensional coordinate measuring apparatus |
-
1995
- 1995-09-28 CA CA002201107A patent/CA2201107C/en not_active Expired - Fee Related
- 1995-09-28 NZ NZ293713A patent/NZ293713A/en not_active IP Right Cessation
- 1995-09-28 GB GB9705754A patent/GB2308186B/en not_active Expired - Fee Related
- 1995-09-28 AU AU36217/95A patent/AU3621795A/en not_active Abandoned
- 1995-09-28 US US08/809,784 patent/US5969822A/en not_active Expired - Lifetime
- 1995-09-28 DE DE19581099T patent/DE19581099B4/de not_active Expired - Fee Related
- 1995-09-28 WO PCT/NZ1995/000097 patent/WO1996010205A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4705401A (en) * | 1985-08-12 | 1987-11-10 | Cyberware Laboratory Inc. | Rapid three-dimensional surface digitizer |
GB2240623A (en) * | 1990-01-31 | 1991-08-07 | Neil Starsmore | An imaging process for detecting the shape of three dimensional objects |
WO1992007233A1 (en) * | 1990-10-15 | 1992-04-30 | Schulz Waldean A | Method and apparatus for three-dimensional non-contact shape sensing |
US5193120A (en) * | 1991-02-27 | 1993-03-09 | Mechanical Technology Incorporated | Machine vision three dimensional profiling system |
DE4301538A1 (de) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen |
WO1994015173A1 (en) * | 1992-12-18 | 1994-07-07 | 3D Scanners Ltd. | Scanning sensor |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007025520A1 (de) * | 2007-05-31 | 2008-12-04 | Khs Ag | Verfahren zum Ausrichten von Behältern sowie Vorrichtung zum Durchführen des Verfahrens |
DE102008047816A1 (de) * | 2008-09-18 | 2010-04-08 | Steinbichler Optotechnik Gmbh | Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns |
DE102008047816B4 (de) * | 2008-09-18 | 2011-08-25 | Steinbichler Optotechnik GmbH, 83115 | Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns |
US9671220B2 (en) | 2008-09-18 | 2017-06-06 | Steinbichler Optotechnik Gmbh | Device for determining the 3D coordinates of an object, in particular of a tooth |
CN110966960A (zh) * | 2019-12-31 | 2020-04-07 | 广东省航空航天装备技术研究所 | 光学成像*** |
Also Published As
Publication number | Publication date |
---|---|
US5969822A (en) | 1999-10-19 |
GB2308186B (en) | 1999-06-09 |
DE19581099T1 (de) | 1997-09-18 |
CA2201107C (en) | 2002-11-12 |
AU3621795A (en) | 1996-04-19 |
CA2201107A1 (en) | 1996-04-04 |
NZ293713A (en) | 1997-09-22 |
WO1996010205A1 (en) | 1996-04-04 |
GB2308186A (en) | 1997-06-18 |
GB9705754D0 (en) | 1997-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19581099B4 (de) | Optisches Oberflächenabtastgerät und Vermessungsverfahren | |
EP2079981B1 (de) | Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur | |
DE102012112321B4 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
DE69207176T2 (de) | Optischer Sensor | |
EP2101867B1 (de) | Sehhilfe mit dreidimensionaler bilderfassung | |
EP1597539B1 (de) | Verfahren und optisches system zur vermessung der topographie eines messobjekts | |
DE69432961T2 (de) | Anordnung zur Bestimmung der gegenseitigen Lage von Körpern | |
DE69826753T2 (de) | Optischer Profilsensor | |
DE202012104890U1 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
DE102012112322A1 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
EP2710331A1 (de) | Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche | |
DE112014003823T5 (de) | Echtzeitprüfführung eines Triangulationsscanners | |
DE4417944A1 (de) | Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie | |
EP1342150A2 (de) | Messverfahren zur ermittlung der position eines objektes vor einem bildschirm und vorrichtung zur durchführung des verfahrens | |
DE102010018899A1 (de) | Vorrichtung und Verfahren zur Bewegungskorrektur bei MRT-Messungen | |
DE10317137A1 (de) | Röntgeneinrichtung und Verfahren zum Herstellen eines Oberflächenbildes | |
DE102016217628B4 (de) | Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem | |
DE102010028904A1 (de) | Bewegunganalyse- und/oder -Verfolgungssystem | |
DE3807578C2 (de) | ||
EP2019961B1 (de) | Verfahren zum erzeugen von bildinformationen | |
DE69829313T2 (de) | Dreidimensionales abbildungssystem durch zeilenweise bildabtastung | |
DE10195135B4 (de) | Vorrichtung und Verfahren zur Aufnahme einer dreidimensionalen Figur auf einer zweidimensionalen Oberfläche, die die Herstellung von Kleidungsschnittmustern ermöglichen | |
EP0920642B1 (de) | 3-d ultraschallaufnahmegerät | |
WO1999003066A1 (de) | Verfahren und vorrichtung zum erfassen einer reflektierenden fläche eines menschen | |
DE68904205T2 (de) | Verfahren zum digitalisieren der oberflaeche eines dreidimensionalen gegenstandes und aufnahmevorrichtung zur anwendung dieses verfahrens. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G01B 1125 |
|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20120403 |