DE69726025T2 - Verfahren und vorrichtung zum erhalten einer dreidimensionalen form - Google Patents

Verfahren und vorrichtung zum erhalten einer dreidimensionalen form Download PDF

Info

Publication number
DE69726025T2
DE69726025T2 DE69726025T DE69726025T DE69726025T2 DE 69726025 T2 DE69726025 T2 DE 69726025T2 DE 69726025 T DE69726025 T DE 69726025T DE 69726025 T DE69726025 T DE 69726025T DE 69726025 T2 DE69726025 T2 DE 69726025T2
Authority
DE
Germany
Prior art keywords
pattern
image
scene
relative
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69726025T
Other languages
English (en)
Other versions
DE69726025D1 (de
Inventor
Raphael Marc PROESMANS
Seraphina Luc VAN GOOL
Jules Andre OOSTERLINCK
Pieter Filip DEFOORT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eyetronics Nv Heverlee Be
Original Assignee
Katholieke Universiteit Leuven
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Katholieke Universiteit Leuven filed Critical Katholieke Universiteit Leuven
Publication of DE69726025D1 publication Critical patent/DE69726025D1/de
Application granted granted Critical
Publication of DE69726025T2 publication Critical patent/DE69726025T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
  • Manipulator (AREA)

Description

  • Die Verwendung von dreidimensionalen Bildern oder Gestalten wird immer wichtiger, auch für neue Anwendungsbereiche, wie das Zeigen von Objekten im Internet, in der Virtual Reality, der Filmindustrie usw..
  • Dreidimensionale Gestaltbeschreibungen werden normalerweise mit zwei oder mehreren Kameras oder durch die Verwendung von Lasersystemen erstellt. Bestehende Systeme können sehr kostspielig sein, ein zeitaufwendiges Kalibrierverfahren benötigen und schwierig zu transportieren sein, während in manchen Fällen die Szene statisch sein muss, das Arbeitsspeichervolumen für die Szene bestimmt wird oder nicht ausreichende Informationen bezüglich der Topologie der Gestalt erhalten werden.
  • Ein Beispiel einer verwandten Forschung ist ein Artikel von A. Blake und andere „Trinocular Active Range-Sensing", IEEE Transactions on Pattern Analysis and Machine Intelligence, Band 15, Nr. 5, S. 477–483, 1993. Nach diesem Verfahren werden zwei Reihen paralleler Linien sequentiell projiziert. Die Linien im Bild können durch Sicherstellen, dass die projizierten Linien und epipolar Linien sich seitlich kreuzen, identifiziert werden. Die Linien sollten deswegen nicht zu nahe beieinander sein.
  • Ein weiteres Beispiel ist ein Artikel von Vuori und Smith „Three Dimensional Imaging System with Structured Lighting and Practical Constraints", Journal of Electronic Imaging 6 (1), 5. 140–144, 1997. Nach diesem Verfahren wird ein einzelnes Muster projiziert, aber Einschränkungen sind den Dimensionen der Szene zum Aufnehmen und den relativen Abständen zwischen den Musterelementen auferlegt. Dies ermöglicht vorherzusagen, in welchem Teil der Bildebene jedes einzelne Musterelement projiziert wird.
  • Außerdem beginnen bekannte Systeme und Verfahren oft bei absoluten Messungen und Dimensionen, welche nicht immer und in erster Linie nicht dann benötigt werden, wenn die Anwendung auf das Zeigen und nicht das Messen der Objekte gerichtet ist.
  • Im Artikel von Zen Chen und anderen mit dem Titel „Polyhedral Face Reconstruction and Modeling from a Single Image with Structured Light", IEEE Transactions on Systems, Man and Cybernetics, Band 23 Nr. 3, Mai/Juni 1993, New York, US Seiten 864–872 ein ist ein Verfahren zum Erstellen von Bildern von polyedrischen Objekten beschrieben. Das Verfahren ist auf ebene Flecken auf dem Objekt angewiesen und eignet sich nicht für Freiform-Oberflächen.
  • Der Artikel von Whoi-Yul Yura Kim mit dem Titel „Experiment with Cross-Stripe Structured Light System Using Coon's Patch Formalism", 1990 IEEE International Conference on Systems, Conf. Proceedings, Nov. 4–7, 1990 beschreibt ein weiteres System zum Erstellen von Bildern mittels eines Triangulationsverfahrens. Bei diesem Verfahren muss eine eindeutige Zuordnung zwischen projizierten und beobachteten Mustern bekannt sein.
  • Die vorliegende Erfindung liefert ein Verfahren zum Erstellen einer dreidimensionalen Gestalt oder Bildes eines Objekts oder einer Szene, wobei ein oder mehrere vorbestimmte Muster von Komponenten mit einer bekannten relativen Positionierung auf das Objekt oder die Szene projiziert werden, gekennzeichnet durch: das Erstellen eines oder mehrerer Bilder des Objekts oder der Szene, wobei zumindest ein Teil des Objekts oder der Szene Freiform-Oberflächen enthält, und das Berechnen der dreidimensionalen Gestalt oder des dreidimensionalen Bildes auf der Basis der relativen Abstände zwischen Musterkomponenten, wie sie in dem einen oder den mehreren erstellten Bildern beobachtet werden.
  • Die Erfindung liefert zudem ein System zum Erstellen einer dreidimensionalen Gestalt einer Szene oder eines Objekts einschließlich Freiform-Oberflächen mit:
    • – zumindest einem Mustergenerator zum Projizieren eines Musters von Komponenten mit einer bekannten relativen Positionierung auf die Szene oder das Objekt;
    • – zumindest einer Abbildungsvorrichtung zum Beobachten der Szene oder des Objekts zum Erstellen von einem oder mehreren Bildern; gekennzeichnet durch:
    • – eine Berechnungseinrichtung zum Bestimmen des dreidimensionalen Bildes oder der dreidimensionalen Gestalt der Szene oder des Objekts einschließlich Freiform-Oberflächen davon auf der Basis der relativen Abstände zwischen den Komponenten, wie in einem oder mehreren Bildern beobachtet.
  • Die benötigte Hardware ist einfach und das System nach der vorliegenden Erfindung ist daher nicht sehr kostspielig.
  • Nach der vorliegenden Erfindung ist es nicht länger erforderlich Komponenten des projizierten Musters, wie z. B. Linien oder Punkte, entweder über einen Code im Muster selbst oder über durch die Szene und/oder Anordnung auferlegte Einschränkungen oder ein Vorwissen darüber einzeln zu identifizieren. Beim Verfahren nach der vorliegenden Erfindung kann die Gestalt über die relativen Positionen der Komponenten im Muster, beispielsweise durch Bestimmen der relativen Sequenz der Musterlinien erstellt werden.
  • Nach der vorliegenden Erfindung wird ein einzelnes Bild ausreichen, um ein dreidimensionales Bild oder eine dreidimensionale Gestaltbeschreibung zu erstellen und eine Erstellungszeit wird benötigt, welche nicht länger als die zum Erstellen eines einzelnen Bildes erforderte Zeit ist.
  • Da die Aufnahmezeit eines einzelnen Bildes begrenzt bleiben kann und da Rekonstruktionen für eine schnelle Aufeinanderfolge verschiedener Bilder durchgeführt werden können, können sich bewegende Objekte und ihre dreidimensionalen Bewegungen und Wechsel der Gestalt rekonstruiert werden.
  • Nach der vorliegenden Erfindung kann das Kalibrierverfahren einfach gehalten werden und wenige Einschränkungen müssen der relativen Position des/der Mustergenerators/Mustergeneratoren und der Kameras) auferlegt werden.
  • Nach der vorliegenden Erfindung kann das projizierte Muster sehr einfach und stark verkettet gehalten werden, wie z. B. ein Liniengitternetz. Infolge der Einfachheit kann die hohe Auflösung des Musters und dadurch der dreidimensionalen Rekonstruktion beibehalten werden. Aufgrund der starken Verkettung des Musters wird ermöglicht die genaue Oberflächentopologie eindeutig als eine Komponente der Ausgabe zu bestimmen.
  • Nach der vorliegenden Erfindung ist die absolute Position der Musterkomponenten innerhalb der Gesamtheit des Musters von zweitrangiger Bedeutung. Dreidimensionale Gestaltbeschreibungen können ohne solche Informationen, bis auf einen Skalierungsfaktor, durch Annehmen eines (pseudo-)orthographischen Modells für die Geometrie der Musterprojektion und Bildformation erzeugt werden. Perspektiveffekte in dieser Geometrie werden vorzugsweise begrenzt gehalten.
  • Nach der vorliegenden Erfindung kann sowohl die dreidimensionale Gestalt als auch die Oberflächentextur der Szenen bestimmt werden. Es ist hierin möglich Schwierigkeiten des Abgleichs der Gestalt und Textur zu beseitigen, da die Gestalt und Textur unter Verwendung der gleichen Kamera (s) bestimmt werden. Die endgültige Ausgabe, welche eine dreidimensionale Gestaltbeschreibung mit oder ohne Textur sein kann, kann natürliche in jedem beliebigen Format einschließlich Formaten, welche beispielweise für graphische Arbeitsplatzstationen oder das Internet geeignet sind, gemacht werden.
  • Nach einer bevorzugten Ausführungsform kann die Oberflächentextur darüber hinaus vom gleichen Bild erstellt werden, welches zur Bestimmung der dreidimensionalen Gestalt verwendet wird. Ein ähnliches Verfahren kann auch für Fälle erweitert werden, bei welchen ein Muster mit einer absoluten Bildauflösung der Komponenten verwendet wird. Es wird offensichtlich sein, dass sich das Verfahren zum Erstellen einer farbigen oder multispektralen Oberflächentextur, d. h. das Zusammensetzten von verschiedenen Spektralbasisbildern, nicht wesentlich von den Verfahren für ein Einbasisbild unterscheidet.
  • Nach einer bevorzugten Ausführungsform ist das projizierte Muster gleichmäßig und besteht aus ähnlichen Grundformen, wie z. B. Rechtecken und Quadraten, welche durch die Zusammensetzung von zwei zueinander senkrechten Reihen paralleler Zentrallinien gebildet werden.
  • Nach einer bevorzugten Ausführungsform findet das Kalibrieren statt, indem dem System zwei Ebenen zwischen welchen der Winkel bekannt ist, beispielsweise ein rechter Winkel, gezeigt werden. Die für die Gestaltauflösung benötigten Parameter können hieraus bestimmt werden, wie z. B. der Winkel der Reflektion der projizierten Strahlen relativ zur Bildebene und, wenn nötig, das Höhen-Breiten-Verhältnis der Pixel.
  • Weitere Vorteile, Eigenschaften und Details der vorliegenden Erfindung werden basierend auf der folgenden Beschreibung der bevorzugten Ausführungsform derselben mit Bezug auf die beiliegenden Zeichnungen erklärt werden, in welchen:
  • 1 eine schematische Ansicht einer bevorzugten Ausführungsform des Verfahrens nach der vorliegenden Erfindung zeigt;
  • 2 ein Beispiel eines Details eines mit der Anordnung in 1 erstellten Bildes zeigt;
  • die 3a3d eine Detailansicht mit den Ergebnissen der Liniendetektoren und der Kombination derselben nach einem ersten Korrekturschritt zeigen;
  • 4 ein Beispiel einer Diskontinuität im erfassten Muster zeigt;
  • die 5a, b, c ein den Gitteraufbau erklärendes Diagramm zeigen;
  • die 6a6b ein Diagramm zeigen, welches das Verfeinern der Positionen des Gitters zeigen;
  • 7 ein die Versorgung der Gitterpunkte mit einem Label erklärendes Diagramm zeigt;
  • die 8a8b das Ergebnis des gesamten Verfahrens der Gitterextraktion für ein Detailbild zeigen;
  • die 9a9b zwei Bilder zeigen, welche den Schritt zum Erstellen einer Oberflächentextur erklären;
  • die 10ah Beispiele erhaltener Ergebnisse zeigen.
  • In der Anordnung der 1 wird ein Muster durch einen Projektor auf die Szene geworfen und durch eine Kamera in einer Bildebene eingefangen. In dieser Ausführungsform wurden der Projektor und die Kamera in einem Abstand von ca. 4 m von der Szene positioniert. Der Winkel zwischen der Projektionsrichtung und der Blickrichtung betrug ca. 7°. Das projizierte Muster war ein im wesentlichen quadratisches Gitter bestehend aus 600 horizontalen und 600 vertikalen Linien, welche unter Verwendung von lithographischen Techniken auf einem Dia mit einer Linienstärke von 10 μm angeordnet sind und in gegenseitigen Abständen von 50 μm platziert sind. In dieser Ausführungsform wurde ein 512 × 512 Bild gebildet, welches zum größeren Teil durch den Teil der Szene zur Rekonstruktion aufgenommen wurde, und üblicherweise wurden 100 horizontal und 100 vertikal projizierte Linien effektiv im Bild gesehen.
  • 2 zeigt ein Detail eines unter den oben beschriebenen Bedingungen aufgenommenen Bildes.
  • 3a zeigt solch ein Bild detaillierter und die Erwiderung der Horizontallinien- und Vertikalliniendetektoren wird in den 3b und 3c gezeigt. Nach dem Bestimmen der Zentrallinie dieser Erwiderungen und einem ersten Füllen der Lücken werden die Zentrallinien in einer anfänglichen Rekonstruktion des Bildmusters (d) kombiniert.
  • Aufgrund von z. B. einem Störgeräusch oder anderen Gründen werden Diskontinuitäten in den ermittelten Musterlinien in Bereichen vorhanden sein, in welchen die Erwiderung eines Liniendetektors relativ schwach ist. 4 zeigt ein Beispiel zweier Linien, welche in diesem Fall in der Nähe ihres Schnittpunkts unterbrochen werden. Wie in 4 gezeigt, wird die unmittelbare Nähe der zwei Endpunkte des Segments einer Linie in der derzeit bevorzugten Ausführungsform der Erfindung über einen Bereich in der Linie einer Breite s gescannt. Wenn Punkte anderer Liniensegmente in diesem Verfahren getroffen werden, wird eine Marke basierend auf Eigenschaften dazu zugeordnet, wie beispielsweise der Unterschied im Neigungswinkel ε der Liniensegmente nahe der Diskontinuität, der Abstand zu den Endpunkten dieser Segmente, der Intensitätsunterschied des gegebenen Endpunktes und des Endpunktes eines Kandidatsegments und die Durchschnittsintensität entlang der geradlinigen Verbindung zwischen den Endpunkten. Zwei Segmente werden miteinander verbunden, wenn die Summe der Marken optimal ist. Solch ein Ergebnis wird bereits in der 3d gezeigt.
  • 5 zeigt wie die Kreuzungen oder Schnittpunkte konstruiert sind. 5a zeigt das Kreuzen zweier Linien. Solche Schnittpunkte werden in einer Gitterrepräsentation zusammengebracht, wobei jeder Gitterpunkt maximal vier Nachbarn (N, E, S und W) aufweist, wie in der 5b gezeigt. Gitterpunkte, welche Scheitelpunkte eines vollen Vierecks sind, sind bei aufeinanderfolgenden Korrekturschritten von besonderer Bedeutung. Diese werden als Reflektionsstellen durch die aufeinanderfolgende Auswahl des Nachbarn E, seinem Nachbarn S, seinem Nachbarn W, seinem Nachbarn N (c) ermittelt.
  • 6 zeigt einen am Gitter angewandten Verfeinerungsschritt. Dieser Schritt behandelt das Gitter als ein System von verbundenen Linien, deren Position durch Ausziehen ihrer Kontinuität relativ zu ihrer ursprünglich diskreten Darstellung, in 6a gezeigt, und durch Hinzufügen einer Anziehungskraft verfeinert werden, welche auch den verfeinerten Linienpositionen eine Präferenz für Positionen mit Bildintensitäten der gleichen Polarität, wie die Linien im Muster, gibt. Das Ergebnis dieses Verbesserungsschritts wird in 6b gezeigt.
  • Die Gitterpunkte sind mit Labeln oder Nummern versehen, wie in 7 gezeigt. Ein zufälliger Gitterpunkt im Bild wird als Referenzpunkt O(0,0) ausgewählt. Den anderen Gitterpunkten werden zwei Label gegeben, ein „horizontales" Label i und ein „vertikales" Label j, welche die relative Position relativ zur Referenz angeben. Die horizontalen Linienlabel i werden mit jedem Schritt E erhöht oder mit jedem Schritt W schrittweise verringert, welche zum Erreichen des Gitterpunktes vom Referenzpunkt erforderlich sind. Die vertikalen Linienlabels j werden mit jedem Schritt N erhöht oder mit jedem Schritt S schrittweise verringert, welche zur Erreichung des Gitterpunktes vom Referenzpunkt benötigt werden. Das Definieren der Labels beläuft sich auf dem Definieren der Kohärenz des Gitters.
  • 7 zeigt ebenso ein Beispiel, bei welchem sich unterschiedliche Labels aus dem Auswählen eines anderen Weges, beispielsweise für den Punkt P, ergeben können. Hierin ist der umschriebene Weg zur rechten zuverlässiger, da er die mit weiß gekennzeichneten falschen Teile des Gitters umgeht. Die Zuverlässigkeit des Weges wird basierend auf der Zuverlässigkeit der einzelnen Gitterpunkte entlang dem Weg bestimmt und verringert sich je mehr Verbindungen zu angrenzenden Gitterpunkten fehlen und je weniger die einzeln ermittelten Vierecke im beobachteten Muster Ähnlichkeit mit Quadraten zeigen, wenn aus der Projektionsrichtung betrachtet. Die Label werden bei Bedarf iterativ/rekursiv korrigiert. Altere Label werden hierin durch neue Label überschrieben, wenn letztere zuverlässiger sind.
  • 8b zeigt das endgültig ermittelte Gitter für das Detailbild in 8a.
  • Für weitere Details in Bezug auf das Definieren der Gitterreferenz wird Bezug auf die Anlage genommen, welche den Artikel der Erfinder „Active Acquisition of 3D Shape for Moving Objects" enthält.
  • Nachdem das Gitter somit präzise definiert wurde, kann die dreidimensionale Gestalt desselben berechnet werden.
  • Die dreidimensionale Gestalt der sichtbaren mit dem Muster beleuchteten Oberfläche wird basierend auf den dreidimensionalen Positionen der Gitterpunkte rekonstruiert. In der bevorzugten Ausführungsform werden die relativen Positionen der letzteren von den Schnittpunkten von zwei parallelen Strahlenbündeln erhalten, wobei das eine die Musterprojektionsstrahlen und das andere die Bildprojektionsstrahlen darstellt und welche so sind, dass sie einen Winkel bilden, welcher durch Kalibrieren definiert ist, und dass ihre Schnittpunkte mit den erfassten Positionen der Gitterpunkte im Bild übereinstimmen.
  • Für weitere Details bezüglich der Definition der in der bevorzugten Ausführungsform verwendeten dreidimensionalen Gestaltbeschreibung und des Kalibrierens wird Bezug auf die Anlage genommen, welche den Artikel der Erfinder „One-Shot Active 3D Shape Acquisition" enthält.
  • Nachdem das Gitter somit präzise definiert wurde, wird in einer bevorzugten Ausführungsform die Textur auch aus dem gleichen Bild extrahiert, welches für die Gestaltauflösung verwendet wurde.
  • Im Bild wird der Querschnitt eines Intensitätsprofils eines Musterstreifens ein Gaußscher Querschnitt sein, welcher durch die folgende Funktion angenähert wird:
  • Figure 00120001
  • Bei einem Versuch wurde n = 2 ausgewählt und die Funktion war eine Gaußsche Funktion. Die Intensitätsschwächung der Musterstreifen wurde anschließend durch Übereinanderlegen dieses Profils über die gewonnenen Gitterlinien modelliert. Das Ergebnis für das Gitter der 8b wird in der 9a gezeigt. Je größer die Schwächung, desto weniger repräsentativ gilt die Bildintensität für die wirkliche Textur. Um die Textur zu bestimmen, wird eine Interpolation der Intensitäten als Ausgangspunkt genommen, wobei die relativen Schwächungen und die Abstände zu dem Punkt, an welchem die Intensität wiederhergestellt wird, in Betracht gezogen werden. Das Ergebnis dient nur dazu einen nicht linearen Diffusionsvorgang an der Intensität einzuleiten, welcher die übrigen Spuren der Musterstreifen beseitigt. Das Ergebnis für das Bild der 8a wird in der 9b gezeigt.
  • Schließlich wird die gewonnene Textur auf der Oberfläche angeordnet („abgebildet").
  • Für weitere Details bezüglich dem Bestimmen der Oberflächentextur wird Bezug auf den Anhang genommen, welcher den Artikel der Erfinder „A Sensor that Extracts Both 3D Shape and Surface Texture" enthält.
  • 10 zeigt mit dieser Ausführungsform erhaltene Ergebnisse. Die 10a und 10b zeigen zwei Eingabebilder für eine Hand und ein Gesicht. Die 10c und 10d zeigen zwei Ansichten der Gestaltbeschreibung, welche für die Hand erhalten wurde, und die 10e und 10f die Gestaltbeschreibung des Gesichts. Die 10g und 10h zeigen zwei Ansichten der durch die Textur bedeckten (durch die Textur abgebildeten) Gestaltbeschreibung des Gesichts.
  • Unter Verwendung zusätzlicher Schritte, kann ein Perspektiveffekt bei der Projektion und Sichtgeometrie bei der oben beschriebenen bevorzugten Ausführungsform des Verfahrens und der Vorrichtung in Betracht gezogen werden. Unter Verwendung von Datenadditionen können absolute Dimensionen und absolute Abstände erhalten werden, so dass der unbekannte Skalierungsfaktor der Gestaltbeschreibung verschwindet.
  • Es ist natürlich weiterhin möglich Codes zum Projektionsmuster hinzuzufügen, was die Identifizierung von Musterkomponenten ermöglicht. Andere Projektionen und/oder Bilder können gleichzeitig verwendet werden. Die Oberflächentextur kann auch von Bildern erhalten werden, bei welchen das Muster nicht sichtbar ist- beispielsweise durch die Verwendung von nicht sichtbaren Wellenlängen oder durch Ausschalten des Musters- und/oder die Textur kann durch Herausfiltern des Musters auf andere Weisen, als die in dieser Ausführungsform beschriebenen extrahiert werden.

Claims (26)

  1. Verfahren zum Erstellen einer dreidimensionalen Gestalt oder eines dreidimensionalen Bildes eines Objektes oder einer Szene, wobei ein oder mehrere vorbestimmte Muster von Komponenten mit einer bekannten relativen Positionierung auf das Objekt oder die Szene projiziert werden, gekennzeichnet durch das Erstellen eines oder mehrerer Bilder des Objekts oder der Szene, wobei zumindest ein Teil des Objekts oder der Szene Freiform-Oberflächen enthält; und das Berechnen der dreidimensionalen Gestalt oder des dreidimensionalen Bildes auf der Basis von relativen Abständen zwischen Musterkomponenten, wie sie in dem einen oder den mehreren erstellten Bildern beobachtet werden.
  2. Verfahren nach Anspruch 1, wobei die absoluten Dimensionen der Gestalt oder des Bildes durch Fixieren eines geeigneten Skalierungsfaktors erhalten werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei relative räumliche Positionen der Punkte auf dem dreidimensionalen Objekt direkt aus relativen beobachteten Positionen der Komponenten in dem Bild berechnet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein einzelnes Muster projiziert wird und eine dreidimensionale Gestalt des Objekts auf der Basis eines einzelnen erstellten Bildes rekonstruiert wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Sequenz dreidimensionaler Gestalten aus Bildern rekonstruiert wird, die zeitsequentiell erstellt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein oder mehrere Muster der Linien auf die Szene oder das Objekt projiziert werden und die dreidimensionale Gestalt auf der Basis von beobachteten relativen Abständen zwischen den Linien und/oder Schnittpunkten der Linien des Musters erstellt wird.
  7. Verfahren nach Anspruch 6, wobei der Schritt des Berechnens der Gestalt oder des Bildes den Schritt des Berechnens der dreidimensionalen Gestalt des Objekts oder der Szene auf der Basis der Berechnung relativer dreidimensionaler Positionen der Schnittpunkte aufweist, wobei die relativen dreidimensionalen Positionen der Schnittpunkte aus einem pseudoorthographischen oder einem orthographischen geometrischen Modell mit den Schnittpunkten von ersten und zweiten parallelen Strahlenbündeln abgeleitet werden, wobei das erste parallele Strahlenbündel Musterprojektionsstrahlen repräsentiert und das zweite parallele Strahlenbündel die Bildprojektionsstrahlen repräsentiert.
  8. Verfahren nach Anspruch 6 oder 7, wobei das Muster von Linien ein Gitter gerader Linien ist.
  9. Verfahren nach Anspruch 8, wobei das Gitter aus zwei zueinander senkrechten Reihen paralleler Linien besteht.
  10. Verfahren nach einem der Ansprüche 6 bis 9, wobei Musterlinien und/oder deren Schnittpunkte aus dem Bild bzw. den Bildern extrahiert werden.
  11. Verfahren nach Anspruch 10, wobei verschiedene Linien und/oder Schnittpunkte gemeinsam extrahiert werden.
  12. Verfahren nach Anspruch 10, wobei die Schnittpunkte der Linien bestimmt werden und ihre relativen Positionen in dem Muster bzw. den Mustern mit relativen sequentiellen Nummern assoziiert werden.
  13. Verfahren nach einem der Ansprüche 6 bis 12, wobei die Position der Linien durch eine Vereinheitlichungstechnik verfeinert werden.
  14. Verfahren nach einem der Ansprüche 1 bis 13, wobei eine Textur durch Ausfiltern des Musters erhalten wird.
  15. Verfahren nach einem der Ansprüche 1 bis 14, wobei ein Code dem projizierten Muster bzw. den projizierten Mustern hinzugefügt wird.
  16. Verfahren nach einem der Ansprüche 1 bis 15, wobei das System durch Vorgeben von zwei Ebenen, welche einen bekannten Winkel aufspannen, kalibriert wird.
  17. Verfahren nach einem der Ansprüche 1 bis 16, wobei die Kalibration des Systems lediglich die Bestimmung der Höhen-Breiten-Proportion der Pixel einer Vorrichtung zum Erstellen des Bildes und die relative Richtung der Musterprojektion und Bilderstellung erfordert.
  18. System zum Erhalten einer dreidimensionalen Gestalt einer Szene oder eines Objektes einschließlich Freiform-Oberflächen, mit: – zumindest einem Mustergenerator zum Projizieren eines Musters von Komponenten mit einer bekannten relativen Positionierung auf die Szene oder das Objekt; – zumindest einer Abbildungsvorrichtung zum Beobachten der Szene oder des Objekts zum Erstellen von einem oder mehreren Bildern; gekennzeichnet durch: – eine Berechnungseinrichtung zum Bestimmen des dreidimensionalen Bildes oder der Gestalt der Szene oder des Objekts einschließlich Freiform-Oberflächen davon auf der Basis der relativen Abstände zwischen den Komponenten, wie in einem oder mehreren der Bilder beobachtet.
  19. System nach Anspruch 18, dadurch gekennzeichnet, dass das System zum Bestimmen der Zuverlässigkeit der Positionierung der Komponenten in dem erstellten Bild gestaltet ist.
  20. System nach Anspruch 18 oder 19, dadurch gekennzeichnet, dass nur ein Mustergenerator und eine Abbildungsvorrichtung verwendet werden.
  21. System nach einem der Ansprüche 18 bis 20, dadurch gekennzeichnet, dass der Mustergenerator und die Abbildungsvorrichtung eine derartige relative Anordnung aufweisen, dass zumindest ein Teil des Musters durch die Abbildungsvorrichtung beobachtet wird und die Projektions- und Abbildungsrichtungen nicht insgesamt zusammenfallen.
  22. System nach einem der Ansprüche 18 bis 21, dadurch gekennzeichnet, dass der Mustergenerator zum Projizieren von Strahlung gestaltet ist, die für das menschliche Auge unsichtbar ist.
  23. System nach einem der Ansprüche 18 bis 22, wobei das System zum Extrahieren einer Textur des Objekts oder der Szene aus dem Bild gestaltet ist.
  24. System nach einem der Ansprüche 18 bis 23, dadurch gekennzeichnet, dass der Mustergenerator zum Ein- und Ausschalten des Musters gestaltet ist.
  25. System nach Anspruch 24, dadurch gekennzeichnet, dass das System zum Extrahieren einer Textur oder von Oberflächenmustern während der Periode, wenn kein Muster projiziert wird, gestaltet ist.
  26. System nach einem der Ansprüche 18 bis 25, wobei das System zum Berechnen der dreidimensionalen Gestalt des Objekts oder der Szene auf der Basis der Berechnung relativer dreidimensionaler Positionen von den Schnittpunkten gestaltet ist, wobei die relativen dreidimensionalen Positionen der Schnittpunkte aus einem pseudo-orthographischen oder einem orthographischen geometrischen Modell mit den Schnittpunkten erster und zweiter paralleler Strahlenbündel abgeleitet werden, wobei das erste parallele Strahlenbündel Musterprojektionsstrahlen repräsentiert und das zweite parallele Strahlenbündel die Bildprojektionsstrahlen repräsentiert.
DE69726025T 1996-06-13 1997-06-12 Verfahren und vorrichtung zum erhalten einer dreidimensionalen form Expired - Lifetime DE69726025T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP96201643 1996-06-13
EP96201643 1996-06-13
PCT/BE1997/000070 WO1997047942A1 (en) 1996-06-13 1997-06-12 Method and system for acquiring a three-dimensional shape description

Publications (2)

Publication Number Publication Date
DE69726025D1 DE69726025D1 (de) 2003-12-11
DE69726025T2 true DE69726025T2 (de) 2004-09-16

Family

ID=8224076

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69726025T Expired - Lifetime DE69726025T2 (de) 1996-06-13 1997-06-12 Verfahren und vorrichtung zum erhalten einer dreidimensionalen form

Country Status (12)

Country Link
US (1) US6510244B2 (de)
EP (1) EP1009969B1 (de)
JP (1) JP2000512012A (de)
KR (1) KR20000016663A (de)
AT (1) ATE253721T1 (de)
AU (1) AU712090B2 (de)
BR (1) BR9709679A (de)
CA (1) CA2256587A1 (de)
DE (1) DE69726025T2 (de)
IL (1) IL127534A (de)
NO (1) NO985746L (de)
WO (1) WO1997047942A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10317078B4 (de) * 2003-04-11 2013-03-28 Karlsruher Institut für Technologie, Institut für Mess- und Regelungstechnik Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
DE102017129737A1 (de) * 2017-12-13 2019-06-13 Hauni Maschinenbau Gmbh Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie
DE102021108232A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Messgerät zur 3D-Erfassung einer Oberfläche

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2785674B1 (fr) * 1998-11-06 2000-12-08 Eastman Kodak Co Procede de restitution d'informations relatives a un objet en trois dimensions
US6957177B1 (en) * 1999-12-10 2005-10-18 Microsoft Corporation Geometric model database for use in ubiquitous computing
DE10000790C2 (de) * 2000-01-11 2003-11-13 Map Medizin Technologie Gmbh Atemmasekenanordnung und Verfahren zur Bereitstellung derselben
US6900802B2 (en) * 2000-08-04 2005-05-31 Pts Corporation Method of determining relative Z-ordering in an image and method of using same
US6993179B1 (en) * 2000-08-07 2006-01-31 Koninklijke Philips Electronics N.V. Strapdown system for three-dimensional reconstruction
US6909801B2 (en) * 2001-02-05 2005-06-21 National Instruments Corporation System and method for generating a low discrepancy curve on an abstract surface
US6917710B2 (en) * 2001-02-05 2005-07-12 National Instruments Corporation System and method for scanning a region using a low discrepancy curve
US7034831B2 (en) * 2001-02-05 2006-04-25 National Instruments Corporation System and method for generating a low discrepancy curve in a region
US6950552B2 (en) * 2001-02-05 2005-09-27 National Instruments Corporation System and method for precise location of a point of interest
US6959104B2 (en) * 2001-02-05 2005-10-25 National Instruments Corporation System and method for scanning a region using a low discrepancy sequence
EP1236970A1 (de) 2001-02-26 2002-09-04 Leuze electronic GmbH + Co. Bilderverarbeitungssystem
JP3519698B2 (ja) * 2001-04-20 2004-04-19 照明 與語 3次元形状測定方法
US7127100B2 (en) * 2001-06-25 2006-10-24 National Instruments Corporation System and method for analyzing an image
FR2830079B1 (fr) * 2001-09-26 2004-04-30 Holo 3 Procede et dispositif de mesure d'au moins une grandeur geometrique d'une surface optiquement reflechissante
DE10212364A1 (de) * 2002-03-20 2003-10-16 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur Bestimmung der Absolut-Koordinaten eines Objekts
CA2391133C (en) * 2002-06-21 2011-02-15 Jiwei Yang Method and apparatus for measuring the thickness of compressed objects
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
TW200413694A (en) * 2003-01-17 2004-08-01 Xsense Technology Corp Three-dimensional scanning system and its method
EP1524494A1 (de) * 2003-10-17 2005-04-20 inos Automationssoftware GmbH Verfahren zur Kalibrierung einer Kamera-Lasereinheit in Bezug auf einem Kalibrierungsobjekt
GB2410794A (en) * 2004-02-05 2005-08-10 Univ Sheffield Hallam Apparatus and methods for three dimensional scanning
US7182465B2 (en) * 2004-02-25 2007-02-27 The University Of North Carolina Methods, systems, and computer program products for imperceptibly embedding structured light patterns in projected color images for display on planar and non-planar surfaces
US8152305B2 (en) * 2004-07-16 2012-04-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for full spectrum projection
EP1619623A1 (de) * 2004-07-22 2006-01-25 Icos Vision Systems N.V. Vorrichtung zur dreidimensionalen Vermessung in einem elektronischen Bauteil
US9024949B2 (en) * 2004-10-13 2015-05-05 Sony Corporation Object representation using distance functions
US7620209B2 (en) * 2004-10-14 2009-11-17 Stevick Glen R Method and apparatus for dynamic space-time imaging system
US7430312B2 (en) * 2005-01-07 2008-09-30 Gesturetek, Inc. Creating 3D images of objects by illuminating with infrared patterns
US8270768B2 (en) * 2005-01-12 2012-09-18 Koninklijke Philips Electronics N. V. Depth perception
US20060153427A1 (en) * 2005-01-12 2006-07-13 Zanzucchi Peter J Image methods for determining contour of terrain
FR2891645B1 (fr) * 2005-09-30 2007-12-14 Thales Sa Procede et dispositif d'evaluation de la liceite de la situation d'un mobile sur la surface d'un aeroport.
US20070171526A1 (en) * 2006-01-26 2007-07-26 Mass Institute Of Technology (Mit) Stereographic positioning systems and methods
US20070273894A1 (en) * 2006-05-23 2007-11-29 Johnson James T Method and apparatus for remote spatial calibration and imaging
US8284194B2 (en) * 2006-09-21 2012-10-09 Thomson Licensing Method and system for three-dimensional model acquisition
EP1923836A1 (de) * 2006-11-20 2008-05-21 Agfa HealthCare NV Selektion aus fusionierten, in 3D-Volumen dargestellten Bildern und Aktualisierung der entsprechenden Ansichten in Übereinstimmung mit einer Selektionsaktion
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
CA2670214A1 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US7877210B2 (en) * 2007-01-11 2011-01-25 Siemens Industry, Inc. System and method for projecting b-rep outlines to detect collisions along a translational path
WO2008102366A2 (en) * 2007-02-25 2008-08-28 Humaneyes Technologies Ltd. A method and a system for calibrating and/or visualizing a multi image display and for reducing ghosting artifacts
WO2009013744A2 (en) 2007-07-23 2009-01-29 Humaneyes Technologies Ltd. Multi view displays and methods for producing the same
EP2183544B1 (de) * 2007-08-17 2015-07-15 Renishaw PLC Kontaktlose messvorrichtung und verfahren
DE602007012546D1 (de) * 2007-09-20 2011-03-31 Biocompatibles Uk Ltd Vorrichtung und Verfahren zur Messung der Kollagendicke
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
US8244066B2 (en) * 2008-03-24 2012-08-14 The Aerospace Corporation Adaptive membrane shape deformation system
FR2929421B1 (fr) * 2008-03-25 2012-04-27 Thales Sa Procede de reconstruction synthetique tridimensionnelle d'objets exposes a une onde electromagnetique et/ou elastique
JP5317169B2 (ja) * 2008-06-13 2013-10-16 洋 川崎 画像処理装置、画像処理方法およびプログラム
US8339616B2 (en) * 2009-03-31 2012-12-25 Micrometric Vision Technologies Method and apparatus for high-speed unconstrained three-dimensional digitalization
WO2010129363A2 (en) * 2009-04-28 2010-11-11 The Regents Of The University Of California Markerless geometric registration of multiple projectors on extruded surfaces using an uncalibrated camera
WO2010151780A2 (en) 2009-06-25 2010-12-29 The University Of North Carolina At Chapel Hill Methods and systems for using actuated surface-attached posts for assessing biofluid rheology
US8363957B2 (en) * 2009-08-06 2013-01-29 Delphi Technologies, Inc. Image classification system and method thereof
GB0915904D0 (en) * 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
US8812015B2 (en) 2009-10-01 2014-08-19 Qualcomm Incorporated Mobile device locating in conjunction with localized environments
US9116003B2 (en) 2009-10-01 2015-08-25 Qualcomm Incorporated Routing graphs for buildings
US8880103B2 (en) 2009-10-12 2014-11-04 Qualcomm Incorporated Method and apparatus for transmitting indoor context information
EP2512142A4 (de) * 2009-12-08 2014-02-26 Korea Electronics Telecomm Vorrichtung und verfahren zur extraktion eines texturbilds und eines tiefenbilds
JP5578844B2 (ja) * 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9389085B2 (en) 2010-01-22 2016-07-12 Qualcomm Incorporated Map handling for location based services in conjunction with localized environments
KR20120020627A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 3d 영상 포맷을 이용한 영상 처리 장치 및 방법
EP2646769B1 (de) * 2010-11-29 2020-01-01 Hewlett-Packard Development Company, L.P. System und verfahren zur erzeugung einer dreidimensionalen bilddatei
AT511223B1 (de) 2011-03-18 2013-01-15 A Tron3D Gmbh Vorrichtung zum aufnehmen von bildern von dreidimensionalen objekten
WO2012135014A2 (en) * 2011-03-25 2012-10-04 Tk Holdings Inc. Image sensor calibration system and method
JP6170281B2 (ja) * 2011-05-10 2017-07-26 キヤノン株式会社 三次元計測装置、三次元計測装置の制御方法、およびプログラム
US8754954B2 (en) * 2011-05-16 2014-06-17 National Research Council Of Canada High resolution high contrast edge projection
AU2012260548B2 (en) * 2011-05-24 2015-07-09 Koninklijke Philips N.V. 3D scanner using structured lighting
CA2835306C (en) 2011-06-07 2016-11-15 Creaform Inc. Sensor positioning for 3d scanning
US9305449B2 (en) * 2011-07-20 2016-04-05 Kurt A. Goszyk Laser obstacle detector
US8385732B2 (en) 2011-07-29 2013-02-26 Hewlett-Packard Development Company, L.P. Image stabilization
US8675997B2 (en) 2011-07-29 2014-03-18 Hewlett-Packard Development Company, L.P. Feature based image registration
US9295532B2 (en) 2011-11-10 2016-03-29 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
US9349182B2 (en) 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
WO2013076605A1 (en) * 2011-11-23 2013-05-30 Creaform Inc. Method and system for alignment of a pattern on a spatial coded slide image
US9217636B2 (en) 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
CA2875820C (en) 2012-07-04 2018-08-21 Creaform Inc. 3-d scanning and positioning system
WO2014013363A1 (en) 2012-07-18 2014-01-23 Creaform Inc. 3-d scanning and positioning interface
JP6055228B2 (ja) * 2012-08-07 2016-12-27 中央発條株式会社 形状計測装置
JP6394005B2 (ja) * 2014-03-10 2018-09-26 株式会社リコー 投影画像補正装置、投影する原画像を補正する方法およびプログラム
WO2015183550A1 (en) * 2014-05-27 2015-12-03 Bourbaki 13, Inc. Determining three-dimensional information from projections or placement of two-dimensional patterns
WO2016032470A1 (en) 2014-08-28 2016-03-03 Carestream Health, Inc. 3- d intraoral measurements using optical multiline method
TWI503518B (zh) * 2014-12-29 2015-10-11 Pixart Imaging Inc 測距方法與裝置
CN104729430B (zh) * 2015-03-26 2017-09-22 中国科学院电工研究所 一种塔式太阳能热发电用定日镜面形检测方法
CN105464374B (zh) * 2015-11-20 2018-02-06 河北省电力勘测设计研究院 建筑方格网控制点测量平差后的改正方法
EP3902249A1 (de) * 2016-03-01 2021-10-27 Magic Leap, Inc. Tiefenmesssysteme und -verfahren
CH713447B1 (de) * 2017-02-09 2020-08-14 Besi Switzerland Ag Verfahren und Vorrichtung für die Montage von Halbleiterchips.
CN109996060B (zh) * 2017-12-30 2021-09-03 深圳多哚新技术有限责任公司 一种虚拟现实影院***及信息处理方法
JP6880512B2 (ja) * 2018-02-14 2021-06-02 オムロン株式会社 3次元測定装置、3次元測定方法及び3次元測定プログラム
JP2020102014A (ja) 2018-12-21 2020-07-02 富士通株式会社 生体認証装置、生体認証プログラム、及び生体認証方法
CN111121664A (zh) * 2019-12-18 2020-05-08 南京理工大学 一种类干涉镜面面型检测方法
DE102021205046A1 (de) * 2021-05-18 2022-11-24 Wmf Gmbh Vorrichtung, Verfahren und Getränkeautomat zur Volumenbestimmung eines Behälters

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4640620A (en) * 1983-12-29 1987-02-03 Robotic Vision Systems, Inc. Arrangement for rapid depth measurement using lens focusing
US4584704A (en) * 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
FR2591329B1 (fr) * 1985-12-10 1992-05-22 Canon Kk Appareil et procede de traitement d'informations tridimensionnelles
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
US5003166A (en) 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US5619625A (en) * 1993-05-28 1997-04-08 Ricoh Company, Ltd. Method for interpolating smooth free-form surfaces into curve mesh including composite curves
JP2919284B2 (ja) * 1994-02-23 1999-07-12 松下電工株式会社 物体認識方法
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10317078B4 (de) * 2003-04-11 2013-03-28 Karlsruher Institut für Technologie, Institut für Mess- und Regelungstechnik Verfahren und Vorrichtung zur Analyse reflektierender Oberflächen
DE102017129737A1 (de) * 2017-12-13 2019-06-13 Hauni Maschinenbau Gmbh Vorrichtung zur berührungslosen, optischen 3D-Erfassung einer Stirnfläche eines sich queraxial bewegenden, stabförmigen Artikels der tabakverarbeitenden Industrie
DE102021108232A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Messgerät zur 3D-Erfassung einer Oberfläche

Also Published As

Publication number Publication date
DE69726025D1 (de) 2003-12-11
BR9709679A (pt) 2000-01-11
AU712090B2 (en) 1999-10-28
KR20000016663A (ko) 2000-03-25
NO985746L (no) 1999-02-12
WO1997047942A1 (en) 1997-12-18
EP1009969A1 (de) 2000-06-21
IL127534A (en) 2001-08-26
IL127534A0 (en) 1999-10-28
AU3085297A (en) 1998-01-07
EP1009969B1 (de) 2003-11-05
US6510244B2 (en) 2003-01-21
US20020057832A1 (en) 2002-05-16
JP2000512012A (ja) 2000-09-12
ATE253721T1 (de) 2003-11-15
NO985746D0 (no) 1998-12-08
CA2256587A1 (en) 1997-12-18

Similar Documents

Publication Publication Date Title
DE69726025T2 (de) Verfahren und vorrichtung zum erhalten einer dreidimensionalen form
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
DE102008015499C5 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE102009023896B4 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
DE69826753T2 (de) Optischer Profilsensor
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
DE10330011B4 (de) Verfahren zur Hinderniserkennung und Geländeklassifikation
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE10020893A1 (de) Verfahren zur optischen Formerfassung von Gegenständen
EP3433574B1 (de) Vorrichtung zur 3-dimensionalen vermessung eines objekts, verfahren und computerprogramm mit bildbasierter auslösung
DE102008031942A1 (de) Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
WO2005080916A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
CH666350A5 (de) Stereophotogrammetrisches aufnahme- und auswerteverfahren sowie auswertevorrichtung.
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE19637682A1 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE102008002725A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP2019961B1 (de) Verfahren zum erzeugen von bildinformationen
DE102018123717B4 (de) Kalibriervorlage und Kalibrierverfahren zum geometrischen Kalibrieren einer Vielzahl von Kameras eines Kamera-Arrays
DE4426424C2 (de) Vorrichtung zur rasterstereografischen Vermessung von Körperoberflächen
EP2504659B1 (de) Vorrichtung und verfahren zur messung und kompensation von bewegungseinflüssen bei phasenschiebe-profilometern und dessen anwendung auf mobile, freihandgeführte profilometrie
DE102017010683A1 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
EP2660560A1 (de) Verfahren zur Ermittlung der Oberflächengeometrie eines Tunnelabschnitts
DE102010029627B4 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts
DE102012013079B4 (de) Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: EYETRONICS NV, HEVERLEE, BE

8328 Change in the person/name/address of the agent

Representative=s name: MICHALSKI HUETTERMANN & PARTNER PATENTANWAELTE, 40