DE102012102580A1 - Method for measuring an object and intraoral scanner - Google Patents

Method for measuring an object and intraoral scanner Download PDF

Info

Publication number
DE102012102580A1
DE102012102580A1 DE102012102580A DE102012102580A DE102012102580A1 DE 102012102580 A1 DE102012102580 A1 DE 102012102580A1 DE 102012102580 A DE102012102580 A DE 102012102580A DE 102012102580 A DE102012102580 A DE 102012102580A DE 102012102580 A1 DE102012102580 A1 DE 102012102580A1
Authority
DE
Germany
Prior art keywords
pattern
sensor
intraoral scanner
lens array
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102012102580A
Other languages
German (de)
Inventor
Klaus Zaeper
Dr. Vollmann Markus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Degudent GmbH
Original Assignee
Degudent GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Degudent GmbH filed Critical Degudent GmbH
Priority to DE102012102580A priority Critical patent/DE102012102580A1/en
Priority to PCT/EP2013/055369 priority patent/WO2013143882A1/en
Publication of DE102012102580A1 publication Critical patent/DE102012102580A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0605Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for spatially modulated illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/0066Depth determination through adaptive focusing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Epidemiology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zum Messen der Form von zumindest einem Abschnitt eines Objektes durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor. Um mit konstruktiv einfachen Maßnahmen genau den zumindest einen Abschnitt des Objektes messen zu können, wird vorgeschlagen, dass das auf den Sensor rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips analysiert wird.The invention relates to a method of measuring the shape of at least a portion of an object by projecting a pattern on the portion and imaging the backprojected pattern onto a sensor. In order to be able to measure the at least one section of the object with structurally simple measures, it is proposed that the pattern backprojected onto the sensor be analyzed on the basis of the plenoptic principle.

Description

Die Erfindung bezieht sich auf ein Verfahren zum Messen der Form von zumindest einem Abschnitt eines Objektes durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor. Auch nimmt die Erfindung Bezug auf einen Intraoral-Scanner, umfassend einen Erzeuger eines auf einen Dentalbereich abzubildenden Musters, einen Sensor und eine diesem vorgeordnete erste Optik.The invention relates to a method of measuring the shape of at least a portion of an object by projecting a pattern on the portion and imaging the backprojected pattern onto a sensor. Also, the invention relates to an intraoral scanner comprising a generator of a pattern to be imaged onto a dental region, a sensor, and a first optic disposed thereon.

Es ist bekannt, ein Muster auf einem Objekt wie dentalen Bereich abzubilden, um sodann das rückprojizierte Muster eine Lochmaske durchsetzen zu lassen. Die im Fokus der Lochmaske rückprojizierten Muster wie Lichtpunkte, die im Fokus der Lochmaske liegen, passieren diese mit hoher Intensität, um sodann auf den Sensor zu fallen. Lichtpunkte außerhalb des Fokus strahlen nur mit geringer Intensität auf den Sensor. Der Sensor und/oder die Lochmaske werden iterativ axial verschoben, wobei Intensitätsmaxima die Fokusebenen ergeben, aus der sodann der Z-Abstand berechnet werden kann. Alternativ besteht die Möglichkeit, das Muster mittels eines Objektivs auf den Gegenstand abzubilden, das eine große chromatische Aberration aufweist, so dass sich eine wellenlängenabhängige Fokussierung und somit ein multifokales Muster ergibt. In Abhängigkeit von den Wellenlängenpeaks kann sodann die Fokusebene ermittelt werden ( DE-A-10 2007 019 267 ).It is known to image a pattern on an object, such as the dental area, in order then to have the back-projected pattern pass through a shadow mask. The patterns projected back in the focus of the shadow mask, such as points of light that lie in the focus of the shadow mask, pass through them with high intensity and then fall onto the sensor. Points of light out of focus radiate only with low intensity on the sensor. The sensor and / or the shadow mask are moved iteratively axially, with intensity maxima resulting in the focal planes, from which the Z distance can then be calculated. Alternatively, it is possible to image the pattern on the object by means of a lens, which has a large chromatic aberration, resulting in a wavelength-dependent focusing and thus a multifocal pattern. Depending on the wavelength peaks, the focal plane can then be determined ( DE-A-10 2007 019 267 ).

Der vorliegenden Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und einen Intraoral-Scanner der eingangs genannten Art so weiterzubilden, dass die dreidimensionale Form von zumindest einem Abschnitt eines Objekts nach einem alternativen Verfahren gemessen werden kann, wobei sich konstruktive Vereinfachungen ergeben sollen.The present invention is based on the object, a method and an intraoral scanner of the type mentioned in such a way that the three-dimensional shape of at least a portion of an object can be measured by an alternative method, which should result in constructive simplifications.

Zur Lösung der Aufgabe wird verfahrensmäßig im Wesentlichen vorgeschlagen, dass das auf den Sensor rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips analysiert wird. Erfindungsgemäß wendet man das plenoptische Prinzip an, um virtuelle Fokusebenen für die rückprojizierten Bildpunkte des Musters zu berechnen und so die gewünschten Tiefeninformationen zu erhalten.In order to achieve the object, in terms of method it is essentially proposed that the pattern backprojected onto the sensor be analyzed on the basis of the plenoptic principle. According to the invention, the plenoptic principle is used to calculate virtual focal planes for the backprojected pixels of the pattern and thus to obtain the desired depth information.

Es ist vorgesehen, dass das rückprojizierte Muster, das aus einzelnen Lichtelementen wie Lichtpunkten besteht, mittels einer Optik auf den Sensor abgebildet wird, wobei der Optik ein Linsenarray vor- oder nachgeordnet ist.It is envisaged that the backprojected pattern, which consists of individual light elements such as light spots, is imaged by means of optics on the sensor, wherein the optics is arranged upstream or downstream of a lens array.

Das Muster wird vorzugsweise mittels monochromatischen Lichts auf den Abschnitt abgebildet. Dabei besteht die Möglichkeit, auf den Abschnitt ein statisches oder variierendes Muster zu projizieren. Insbesondere ist vorgesehen, dass das Muster durch auf den Abschnitt projizierte Laserpunkte erzeugt wird. Dabei sollten die Laserpunkte einen genügenden Abstand zueinander aufweisen, damit die über das Linsenarray auf den Sensor projizierten Teilbilder überlappungsfrei abgebildet werden, so dass die Auswertung vereinfacht und beschleunigt wird.The pattern is preferably imaged on the section by means of monochromatic light. It is possible to project a static or varying pattern onto the section. In particular, it is provided that the pattern is generated by laser dots projected onto the section. The laser points should have a sufficient distance from one another so that the partial images projected onto the sensor via the lens array are imaged without overlapping, so that the evaluation is simplified and accelerated.

Weisen die Linsen des Linsenarrays vorzugsweise gleiche Brennweiten auf, so besteht auch die Möglichkeit, dass diese unterschiedliche Brennweiten besitzen. Hierdurch lassen sich die individuellen Projektionspositionen in den von den einzelnen Linsen des Linsenarrays abgebildeten Teilbildern stärker differenzieren und somit die Genauigkeit der Auswertung steigern.If the lenses of the lens array preferably have the same focal lengths, there is also the possibility that they have different focal lengths. As a result, the individual projection positions in the partial images imaged by the individual lenses of the lens array can be differentiated more strongly, and thus the accuracy of the evaluation can be increased.

Um eine einfachere Auswertung der Teilbilder zur Bestimmung der dreidimensionalen Form des Abschnitts des Objekts zu ermöglichen, sieht die Erfindung bevorzugterweise vor, dass mittels der Hough-Transformation die Fokusebenen der rückprojizierten Elemente des Musters ermittelt werden.In order to allow a simpler evaluation of the partial images for determining the three-dimensional shape of the portion of the object, the invention preferably provides that the focal planes of the back-projected elements of the sample are determined by means of the Hough transformation.

Es besteht aber auch die Möglichketi, mittels dem Fourier-Slice-Theorem die Fokusebenen der rückprojizierten Elemente des Musters zu ermitteln.However, it is also possible to use the Fourier slice theorem to determine the focal planes of the backprojected elements of the pattern.

Insbesondere ist vorgesehen, dass das Verfahren zum Scannen dentaler Objekte, insbesondere zum intraoralen Scannen eines Dentalbereichs verwendet wird.In particular, it is provided that the method is used for scanning dental objects, in particular for intraoral scanning of a dental area.

Ein Intraoralscanner der eingangs genannten Art zeichnet sich dadurch aus, dass in dem Intraoralscanner ein Linsenarray angeordnet ist, das mit dem Sensor eine Lichtfeldkamera bildet.An intraoral scanner of the type mentioned above is characterized in that a lens array is arranged in the intraoral scanner, which forms a light field camera with the sensor.

Hierzu sieht die Erfindung insbesondere vor, dass in einem Intraoralscanner ein Erzeuger des Musters und die Optik, das Linsenarray und der Sensor integriert werden, dass der Intraoralscanner kabellos betrieben wird und Signale des Sensors durch Fernzugriff wie WLAN oder Bluetooth an einen Rechner übertragen werden.For this purpose, the invention provides, in particular, that in an intraoral scanner a generator of the pattern and the optics, the lens array and the sensor are integrated, that the intraoral scanner is operated wirelessly and signals from the sensor are transmitted to a computer by remote access, such as WLAN or Bluetooth.

Dabei kann das Linsenarray in Bezug auf die optische Achse der Optik vor- oder nachgeordnet sein. In this case, the lens array with respect to the optical axis of the optics may be upstream or downstream.

Das Muster, das auf den zu messenden Dentalbereich projiziert wird, besteht vorzugsweise aus Laserpunkten, insbesondere monochromatischer Strahlung, wobei blau zu bevorzugen ist.The pattern which is projected onto the dental area to be measured preferably consists of laser spots, in particular monochromatic radiation, blue being preferred.

Das Muster selbst kann ein statisches oder ein variierendes Muster sein.The pattern itself can be a static or a varying pattern.

Das Linsenarray kann aus Linsen bestehen, die gleiche Brennweiten aufweisen. Es besteht jedoch auch die Möglichkeit, das Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten das Linsenarray bilden.The lens array may consist of lenses having the same focal lengths. However, there is also the possibility that lenses or lens groups with differing focal lengths form the lens array.

Ferner sollte der Intraoralscanner eine zweite das Muster auf das Objekt abbildende Optik enthalten.Furthermore, the intraoral scanner should contain a second pattern reflecting the pattern on the object.

Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen – für sich und/oder in Kombination – sondern auch aus der nachfolgenden Beschreibung. Es zeigen:For more details, advantages and features of the invention will become apparent not only from the claims, the features to be taken these features - alone and / or in combination - but also from the following description. Show it:

1 bis 3 Prinzipdarstellungen zur Erläuterung der Epipolar-Geometrie, 1 to 3 Schematic diagrams for explaining the epipolar geometry,

4 eine Prinzipdarstellung der Funktion einer plenoptischen Kamera, 4 a schematic representation of the function of a plenoptic camera,

5 eine erste Ausführungsform einer Intraoralkamera nach dem plenoptischen Prinzip mit vorgeschaltetem Linsenarray, 5 A first embodiment of an intraoral camera according to the plenoptic principle with an upstream lens array,

6 Prinzipdarstellungen der plenoptischen Funktion, 6 Schematic representations of the plenoptic function,

7, 8 Prinzipdarstellungen eines Lichtfeldes, 7 . 8th Schematic representations of a light field,

9 eine Prinzipdarstellung zur Ermittlung einer virtuellen Fokusebene, 9 a schematic diagram for determining a virtual focal plane,

10 eine zweite Ausführungsform eines Intraoralscanners in Prinzipdarstellung und 10 a second embodiment of an intraoral scanner in schematic representation and

11 ein Ablaufdiagramm. 11 a flowchart.

Erfindungsgemäß werden zum Ermitteln der dreidimensionalen Form zumindest eines Abschnitts eines Objektes, insbesondere eines semitransparenten Objektes wie dentalen Objektes, Grundprinzipien der Optik angewendet, auf die nachstehend eingegangen wird.According to the invention, basic principles of optics are applied to determine the three-dimensional shape of at least one section of an object, in particular of a semitransparent object such as a dental object, which will be discussed below.

Wird ein Objektpunkt gleichzeitig in zwei Kameras abgebildet, gibt es grundlegende Beziehungen, die mit Hilfe der so genannten Epipolar-Geometrie beschrieben werden. Dies wird anhand der 1 erläutert.If an object point is simultaneously imaged in two cameras, there are fundamental relationships that are described using the so-called epipolar geometry. This is based on the 1 explained.

Der Projektionspunkt x des Bildpunktes X auf den Sensor S, S' einer der beiden nicht dargestellten Kameras wird – vereinfacht gesehen – nach dem Lochkamera-Prinzip durch den Strahl vom Bildpunkt zum Projektionszentrum C der Kamera beschrieben. Das Projektionszentrum ist dabei bei unveränderter Kameraeinstellung für alle Bildpunkte stets an der gleichen Position.The projection point x of the pixel X on the sensor S, S 'of one of the two cameras, not shown is - simplified - described by the pinhole camera principle by the beam from the pixel to the projection center C of the camera. The projection center is always in the same position for all pixels with unchanged camera setting.

Da alle Punkte, die auf der Geraden g liegen auf den gleichen Punkt x projiziert werden, kann mit nur einer Kamera prinzipiell keinerlei Tiefen-Information gewonnen werden. So sind in der obigen Abbildung die Punkte X und Y für die linke Kamera nicht unterscheidbar.Since all points lying on the line g are projected onto the same point x, in principle no depth information can be obtained with just one camera. Thus, in the figure above, the X and Y points are indistinguishable for the left camera.

Kommt nun jedoch eine zweite Kamera aus anderem Blickwinkel ins Spiel, werden hier die Punkte X und Y auf verschiedene Bildpunkte x' und y' projiziert. Bei bekannten Projektionszentren C und C' kann daher aus den korrespondierenden Bildpunkten x und x' unter optimalen Bedingungen die dreidimensionale Position des Objektpunktes X genau bestimmt werden: Der Punkt liegt im Schnittpunkt der Geraden g (Cx ⇀) und C'x' ⇀. Man gewinnt also Tiefeninformation, wobei die Bedingungen natürlich niemals so optimal sind wie dargestellt: Insbesondere werden sich unter praktischen Bedingungen die Geraden Cx ⇀ und C'x' ⇀ in vielen Fällen gar nicht schneiden, so dass der Punkt X oft nur angenähert als Punkt X ^ des kleinsten Abstandes zwischen den beiden Geraden bestimmbar wird.If, however, a second camera comes into play from a different angle, the points X and Y are projected onto different pixels x 'and y'. In known projection centers C and C ', therefore, the three-dimensional position of the object point X can be precisely determined from the corresponding pixels x and x' under optimal conditions: the point lies at the intersection of the straight lines g (Cx ⇀) and C'x '⇀. Thus, one obtains depth information, whereby the conditions are of course never as optimal as shown: In particular, under practical conditions, the lines Cx ⇀ and C'x '⇀ will not intersect in many cases, so that the point X often approximates only point X. ^ the smallest distance between the two lines can be determined.

Sollen nun mehrere Objektpunkte gleichzeitig vermessen werden, wird die Auswertung dadurch erschwert, dass für jeden Bildpunkt x in der einen Kamera viele hierzu möglicherweise passende Punkte in der anderen Kamera existieren und es schwer wird, den tatsächlich hiermit korrespondierenden, d. h. tatsächlich ebenfalls vom Objektpunkt X projizierten Punkt x' herauszufinden. If now several object points are to be measured at the same time, the evaluation is made more difficult by the fact that for each pixel x in one camera many potentially matching points in the other camera exist and it becomes difficult to actually project the same, ie actually projected from the object point X as well Find out point x '.

Ist z. B. x in 1 die linke Kamera-Projektion eines Objekt-Punktes X und wird nun statt x' die Projektion y' eines ganz anderen Objekt-Punktes miteinander korrespondierend verrechnet, erhält man als Koordinaten für X komplett falsche Koordinaten. Zur stereoskopischen dreidimensionalen Vermessung mehrerer Objektpunkte ist es daher wichtig, für jeden Bildpunkt in der linken Kamera auch den hiermit tatsächlich korrespondierenden Bildpunkt in der rechten Kamera zu finden.Is z. Eg x in 1 the left camera projection of an object point X and is now instead of x 'the projection y' of a very different object point correspondingly offset each other, obtained as coordinates for X completely wrong coordinates. For the stereoscopic three-dimensional measurement of several object points, it is therefore important to find for each pixel in the left camera also the hereby actually corresponding pixel in the right camera.

Um für einen Bildpunkt x die geometrische Position im zweiten Bild zu bestimmen, lässt sich die Suche aber auf eine Gerade 1' reduzieren: Die mit Bildpunkt x korrespondierende so genannte Epipolar-Gerade. Die Gerade ist 1' hierbei durch den Schnitt der von C, C' und x aufgespannten Ebene mit der Sensorebene der rechten Kamera bestimmt. Alle möglichen mit Bildpunkten im linken Bild korrespondierenden Epipolar-Geraden im rechten Bild schneiden sich dabei im so genannten Epipol e', der zugleich der Projektionspunkt des linken Projektionszentrum C im rechten Bild darstellt.In order to determine the geometrical position in the second image for one pixel x, however, the search can be reduced to a straight line 1 ': the so-called epipolar straight line corresponding to pixel x. The straight line is 1 'in this case determined by the intersection of the C, C' and x plane spanned with the sensor plane of the right camera. All possible epipolar lines corresponding to pixels in the left image in the right image intersect in the so-called epipole e ', which at the same time represents the projection point of the left projection center C in the right image.

Sind beide Sensorebenen parallel zueinander ausgerichtet, vereinfachen sich die Epipolar-Geraden, da sie genau parallel zu den Bildzeilen des Sensors verlaufen. Beim so genannten Stereonormalfall, bei dem die Sensorebenen parallel ausgerichtet sind und auch die Projektionszentren auf einer Höhe liegen (3) lässt sich die Suche nach korrespondierenden Punkten durch die Angabe korrespondierender Bildzeilen vereinfachen. In der Praxis lässt sich diese Bedingung jedoch nur näherungsweise erreichen, da eine Verschiebung der Projektionszentren und unterschiedliche Abbildungsfehler bei verschiedenen Linsensystemen zu Abweichungen führen.If both sensor planes are aligned parallel to one another, the epipolar straight lines are simplified, since they run exactly parallel to the image lines of the sensor. In the case of the so-called stereo normal case, in which the sensor planes are aligned in parallel and also the projection centers are at a height ( 3 ), the search for corresponding points can be simplified by specifying corresponding picture lines. In practice, however, this condition can only be approximately achieved since a shift of the projection centers and different aberrations in different lens systems lead to deviations.

Nach dem plenoptischen Ansatz von Georgiev et al. [„Spatio-angular resolution tradeoffs in integral photography”, 2006] wird vor dem eigentlichen Objektiv ein Linsenarray angebracht (4). Georgiev et al. konnten dabei zeigen, dass dies äquivalent zu einem System von mehreren leicht zueinander verschobenen Kameras ist. Auf dem Sensor wird hierbei der aufgenommene Bildabschnitt mehrfach dargestellt, wobei je nach Entfernung der Objektpunkte die Positionen der projizierten Bildpunkte untereinander variieren. Bei Verwendung einer solchen Kamera mit vorgelagertem Mikrolinsen-Array lassen sich mit Hilfe der Epipolar-Geometrie und den parallel zueinander ausgerichteten Sensorebenen (Stereonormalfall nur näherungsweise) korrespondierende Bildpunkte und damit die Tiefeninformationen berechnen. Die tatsächliche Tiefeninformation kann durch Minimierungs-Algorithmen über alle Punkt-Paare berechnet bzw. allgemein weiter präzisiert werden.According to the plenoptic approach of Georgiev et al. ["Spatio-angular resolution tradeoffs in integral photography", 2006] a lens array is placed in front of the actual objective ( 4 ). Georgiev et al. could show that this is equivalent to a system of several slightly shifted cameras. In this case, the recorded image section is shown several times on the sensor, the positions of the projected pixels varying with each other depending on the distance of the object points. When using such a camera with microlens array upstream can be using the epipolar geometry and the parallel aligned sensor levels (stereo normal case only approximately) corresponding pixels and thus calculate the depth information. The actual depth information can be calculated or minimized in general by minimization algorithms over all point pairs.

Das diesbezügliche Prinzip der plenoptischen Kamera wird erfindungsgemäß bei einem Intraoral-Scanner eingesetzt, wie dieser prinzipiell der 5 zu entnehmen ist. Hierzu wird zur einfachen Detektion korrespondierender Punkte mittels eines Muster-Projektors 1 ein statisches oder variierendes Muster auf ein dentales Objekt 5 projiziert. Bei genügend großer Kamera-Auflösung bzw. hinreichend großer Texturierung des dentalen Objekts könnte der Muster-Projektor ggf. sogar durch eine einheitliche Beleuchtungs-Quelle ersetzt werden.The relevant principle of the plenoptic camera according to the invention is used in an intraoral scanner, as this principle of 5 can be seen. For this purpose, the simple detection of corresponding points by means of a pattern projector 1 a static or varying pattern on a dental object 5 projected. If the camera resolution or sufficiently large texturing of the dental object is sufficiently large, the pattern projector could possibly even be replaced by a uniform illumination source.

Allerdings sollte eine zusätzliche Muster-Projektion bei oftmals glatten nur schwach texturierten Objekten – wie bei Zähnen – erfolgen, um eindeutige korrespondierende Punkte detektieren zu können.However, an additional pattern projection should often be done on smooth objects that are only slightly textured - as in the case of teeth - in order to be able to detect unambiguous corresponding points.

Als Muster-Projektor können dabei Laser mit vorgeschalteter Optik oder aber andere herkömmliche Musterprojektoren mit LEDs oder anderen Lichtquellen verwendet werden. Das reflektierte Muster wird dann über ein Linsensystem 3 zunächst gebündelt und wird – ggf. über einen Strahlteiler 2 abgelenkt – von einem Kamerasystem, bestehend aus einem Linsensystem 7 und Fotosensor 8, erfasst. Dem Kamerasystem ist dabei ein Linsen-Array 6 vorgeschaltet. Durch dieses Linsenarray 6 werden auf der Bildebene, in der sich ein Sensor 8 wie CCD-Sensor befindet, mehrere Bilder erzeugt, die für sich selbst eine Einheit bilden und das projizierte Muster abbilden. Innerhalb jedes Unterbildes sind die jeweiligen relativen Bildpositionen je nach Distanz des reflektierten Musters – und damit dentalen Objektpunktes – leicht unterschiedlich, woraus man die 3D-Information erhält.As a pattern projector while lasers with upstream optics or other conventional pattern projectors with LEDs or other light sources can be used. The reflected pattern is then transmitted through a lens system 3 initially bundled and will - if necessary, via a beam splitter 2 distracted - by a camera system consisting of a lens system 7 and photosensor 8th , detected. The camera system is a lens array 6 upstream. Through this lens array 6 be on the picture plane, in which there is a sensor 8th Like the CCD sensor, it creates multiple images that are self-consistent and map the projected pattern. Within each sub-image, the respective relative image positions are slightly different depending on the distance of the reflected pattern - and thus the dental object point - from which one obtains the 3D information.

Die mehrfach projizierten Bilder werden sodann stereoskopisch bzw. multifokal ausgewertet, indem in jedem Teilbild jeweils korrespondierende Punkte – wie oben skizziert – miteinander verrechnet werden. Aufgrund der gegebenen parallelen Bildebenen, da auf gleichen Sensor projiziert, gestaltet sich die Suche nach korrespondierenden Bildpunkten relativ einfach. Die sodann für jeden 2D-Bildpunkt bestimmbaren 3D-Koordinaten erhält man durch Minimierungs-Algorithmen auf der Grundlage schneller Matrix-Berechnungen. Insgesamt gestaltet sich die Berechnung bis hin zur 3D-Information der projizierten Musterpunkte relativ einfach und damit schnell genug, um live die Punktwolke zu erhalten, die mit Verschiebung des Intraoral-Scanners zum kompletten 3D-Modell des Dentalobjektes ergänzt wird. Die Punktewolken der jeweiligen Scandaten werden hierzu gematcht.The multiply projected images are then evaluated stereoscopically or multifocal by corresponding points in each sub-image - as outlined above - are offset against each other. Due to the given parallel image planes, as projected onto the same sensor, the search for corresponding pixels is relatively easy. The then determinable for each 2D pixel 3D- Coordinates are obtained by minimization algorithms based on fast matrix calculations. Overall, the calculation up to the 3D information of the projected pattern points is relatively simple and thus fast enough to get live the point cloud, which is supplemented with displacement of the intraoral scanner to the complete 3D model of the dental object. The point clouds of the respective scan data are matched for this purpose.

Die Auswertung lässt sich noch weiter beschleunigen, wenn das projizierte Muster weiter vereinfacht wird, indem z. B. nur einzelne Laserpunkte projiziert werden, die einen genügend großen Abstand haben, damit sie in allen Teilbildern überlappungsfrei abgebildet werden.The evaluation can be further accelerated if the projected pattern is further simplified by, for. B. only individual laser dots are projected, which have a sufficiently large distance, so that they are imaged without overlapping in all fields.

Mit steigender Anzahl an Linsen im vorgeschalteten Linsen-Array 6 steigt die Genauigkeit der errechneten Tiefeninformation auch bei sonst teilweise uneindeutigen Projektionen. Zugleich sinkt aber die spatiale (geometrische) Auflösung der Punkte. Somit ist jeweils – je auch nach vorhandener Auflösung des Fotosensors 8 – der optimale Ausgleich zu bestimmen.With increasing number of lenses in the upstream lens array 6 increases the accuracy of the calculated depth information even with otherwise partially ambiguous projections. At the same time, however, the spatial (geometric) resolution of the points decreases. Thus, each - depending on the existing resolution of the photo sensor 8th - to determine the optimal balance.

Die vorgeschalteten Linsen des Linsenarray 6 können jeweils unterschiedliche Brennweiten aufweisen. Hierdurch lassen sich ggf. die individuellen Projektions-Positionen in den Teilbilder stärker differieren und die Genauigkeit der Auswertung steigern.The upstream lenses of the lens array 6 can each have different focal lengths. In this way, if necessary, the individual projection positions in the partial images can be more different and the accuracy of the evaluation increased.

Ist anhand der 4 erläutert worden, dass das Linsenarray 6 vor dem Linsensystem 7, also zwischen dem mit dem Muster beaufschlagten dentalen Objekt 5 und dem Linsensystem 7 positioniert ist, so besteht auch die Möglichkeit, ein Mikrolinsen-Array 6' zwischen dem Fotosensor 8 und einem Linsensystem 7' anzuordnen, wie nachstehend erläutert wird.Is based on the 4 been explained that the lens array 6 in front of the lens system 7 that is, between the dental object loaded with the pattern 5 and the lens system 7 is positioned, so there is also the possibility of a microlens array 6 ' between the photosensor 8th and a lens system 7 ' as explained below.

Im Zusammenhang mit der diesbezüglichen und der 10 zu entnehmenden Anordnung gelangen erfindungsgemäß Prinzipien der an und für sich bekannten Lichtfeldkamera zur Anwendung, wobei auf Grundlagen Bezug genommen wird, die der Disseration von R. Ng „Digital light field photography,” 2006 , zu entnehmen sind.In connection with the relevant and the 10 to be taken arrangement according to the invention principles of the well-known light field camera for use, reference being made to the principles of the dissolution of R. Ng "Digital light field photography," 2006 , are to be taken.

In seiner Dissertation beschreibt Ren Ng das Prinzip seiner Lichtfeldkamera, das zum Verständnis mitsamt einiger Begriffsdefinitionen im Folgenden stark vereinfacht erläutert wird.In his dissertation, Ren Ng describes the principle of his lightfield camera, which is explained in a simplified way for the understanding, together with a few definitions of terms.

Die plenoptische Funktion wurde erstmals 1991 von Adelson und Bergen („The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991) definiert. Sie beschreibt die Intensität eines Lichtstrahls mit beliebiger Wellenlänge λ, zu jedem Zeitpunkt t in jedem möglichen Winkel θ und ϕ, der auf eine Kamera am Ort x, y, z fällt:
l7 = L7(θ, ϕ, x, y, z, t, λ)
The plenoptic function was first reported in 1991 by Adelson and Bergen ("The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991) Are defined. It describes the intensity of a light beam of arbitrary wavelength λ, at every instant t at every possible angle θ and φ which falls on a camera at location x, y, z:
l 7 = L 7 (θ, φ, x, y, z, t, λ)

Damit hat diese allgemeinste Beschreibung eines Lichtstrahls im Raum sieben Dimensionen. Durch Einschränkung auf statische Szenen und Vernachlässigung der Wellenlänge (diese wird oft nicht benötigt oder kann bei Bedarf z. B. vom CCD-Sensor erfasst werden) verbleibt dann noch die dargestellte fünfdimensionale plenoptische Funktion:
l = L(x, y, z, θ, ϕ) (s. 6, Quelle: http:/de.wikipedia.ord/wiki/Plenoptische_Kamera ).
Thus, this most general description of a ray of light in space has seven dimensions. By limiting to static scenes and neglecting the wavelength (this is often not needed or can be detected by the CCD sensor, if necessary), the five-dimensional plenoptic function shown remains:
l = L (x, y, z, θ, φ) (s. 6 , Source: http: /de.wikipedia.ord/wiki/Plenoptische_Kamera ).

Der Begriff Lichtfeld wurde 1936 von A. Gershun („The Light Field”, Journal of Mathematics and Physics, Seiten 51–151) geprägt. Begrenzt man die Beschreibung der Lichtstrahlen auf ein definiertes Volumen und transformiert die sphärischen Koordinaten in planare Bildkoordinaten, lassen sich die Lichtstrahlen durch zwei Ebenen (u, v) und (x, y) parametrisieren, wobei ein Lichtstrahl durch einen Punkt auf der u, v-Ebene und der x, y-Ebene festgelegt ist (7). Das Volumen zwischen den beiden Ebenen wird als Lichtfeld bezeichnet.The term light field was 1936 of A. Gershun ("The Light Field", Journal of Mathematics and Physics, pages 51-151) embossed. If the description of the light rays is limited to a defined volume and transforms the spherical coordinates into planar image coordinates, the light rays can be parameterized by two planes (u, v) and (x, y), whereby a light ray passes through a point on the u, v Level and the x, y level is set ( 7 ). The volume between the two planes is called a light field.

Diese Parametrisierung kann verwendet werden, um die in eine Kamera eintreffenden Lichtstrahlen einzeln zu beschreiben. Vorausgesetzt die Kamera ist fest fokussiert, d. h. der Abstand zwischen Objektiv und Sensor statisch fixiert, kann ein Lichtstrahl durch den Eintrittspunkt an der Blende und den Punkt seines Auftreffens am Sensor eindeutig charakterisiert werden. 8 stellt dies vereinfacht als 2D-Lichtfeld dar. Die Blendenebene wird als (u, v)-Ebene, die Sensorebene als (x, y)-Ebene betrachtet, wobei das bei notwendigerweise festem Fokus zu betrachtende konstante Volumen zwischen den Ebenen das Lichtfeld bezeichnet. Durch die vorgegebene Bildauflösung des Bildsensors kann die plenoptische Funktion dabei zugleich auch als Abtasttheorem für optische Strahlen betrachtet werden.This parameterization can be used to individually describe the beams of light entering a camera. Provided the camera is firmly focused, ie the distance between lens and sensor is fixed statically, a light beam can be unambiguously characterized by the entry point at the diaphragm and the point of its impact on the sensor. 8th This is simplified as a 2D light field. The aperture plane is considered to be the (u, v) plane, the sensor plane the (x, y) plane, and the constant volume between the planes, which is necessarily fixed, is called the light field. Due to the predetermined image resolution of the image sensor, the plenoptic function can also be considered as a sampling theorem for optical beams.

Ren Ng beschreibt in seiner Dissertation (s. o.) eine Lichtfeldkamera, bei der vor der Sensorebene ein Mikrolinsen-Array angeordnet ist. Statt an dieser Stelle in herkömmlicher Weise direkt auf ein Sensorelement zu treffen wird jeder Bildpunkt durch dieses Linsengitter nochmals gebrochen und trifft dann je nach Einfallswinkel auf unterschiedliche Sensorelemente. Man kann sich dieses Mikrolinsenarray wie ein Array aus vielen Kleinst-Kameras vorstellen, die jeweils auf einen individuellen, sich aber überlappenden Teilbereich der u/v-Ebene im Blendenbereich der Kamera gerichtet sind. Hierdurch lässt sich neben dem Eintrittspunkt in der x/y-Ebene auch der jeweilige Punkt in der u/v-Ebene für jeden Lichtstrahl, d. h. das Lichtfeld bestimmen. Ren Ng describes in his dissertation (see above) a light field camera in which a micro lens array is arranged in front of the sensor plane. Instead of meeting at this point in a conventional manner directly on a sensor element each pixel is refracted by this lens grid again and then meets depending on the angle of incidence on different sensor elements. One can think of this microlens array as an array of many micro-cameras, each directed to an individual, but overlapping portion of the u / v plane in the aperture region of the camera. As a result, in addition to the entry point in the x / y plane, the respective point in the u / v plane can also be determined for each light beam, ie the light field.

Der Photosensor hat natürlich nur eine gewisse Auflösung, die sich durch Verwendung in einer Lichtfeld-Kamera aufteilt. Die spatiale (räumliche) Auflösung wird durch die Größe der Mikrolinsen bestimmt. Im Vergleich zur herkömmlichen Kamera ist diese stark verkleinert, da die Mikrolinsen zur Auflösung des Lichtfeldes stets auf mehrere Sensorelemente einstrahlen. Die spatiale Auflösung des Sensors verringert sich entsprechend um diesen Faktor. Die Genauigkeit zur Bestimmung der u/v-Ebene wird dagegen durch die Anzahl der Sensorelemente bestimmt, auf die jede Mikrolinse einstrahlt. Auf je mehr Sensorelemente jede Mikrolinse einstrahlt, umso höher wird damit die Auflösung der u/v-Ebene und steigt damit letztlich auch die Tiefeninformation. Umso stärker sinkt aber auch die spatiale Auflösung der x/y-Ebene. Somit ist je nach Anwendung stets der optimale Ausgleich zwischen beiden Auflösungen zu bestimmen.Of course, the photosensor has only a certain resolution, which is divided by use in a light field camera. Spatial (spatial) resolution is determined by the size of the microlenses. Compared to the conventional camera, this is greatly reduced because the microlenses always radiate to the resolution of the light field on multiple sensor elements. The spatial resolution of the sensor decreases accordingly by this factor. In contrast, the accuracy for determining the u / v plane is determined by the number of sensor elements that each microlens irradiate. The more sensor elements each of the microlenses emit, the higher the resolution of the u / v plane, and thus ultimately the depth information. However, the spatial resolution of the x / y plane decreases all the more. Thus, depending on the application, the optimum balance between the two resolutions must always be determined.

Aufgrund der zusätzlichen Information über die u/v-Ebene ist es möglich, bei einer Lichtfeld-Kamera auch im Nachhinein die Fokusebene zu verändern. Bei einem einzelnen Pixel einer herkömmlichen Kamera werden auf der x/y-Ebene sämtliche Intensitäten aller eintreffenden Lichtstrahlen miteinander addiert, was im Lichtfeld betrachtet im Prinzip (abgesehen von einem Vignettierungs-Faktor cos4θ und anderen Einflüssen) einer Integration über alle Strahlen der u/v-Ebene entspricht:

Figure 00110001
Due to the additional information about the u / v plane, it is possible to change the focal plane later in a light field camera. In a single pixel of a conventional camera, all the intensities of all incident light beams are added together on the x / y plane, which in principle (apart from a vignetting factor cos 4 θ and other influences) of integration over all beams of the u / v level corresponds to:
Figure 00110001

Nach der 9 lässt sich bei bekanntem Lichtfeld auf der Aufnahmeebene das Lichtfeld einer virtuellen Fokusebene mit ∝ = F' / F berechnen durch:

Figure 00120001
After 9 With a known light field on the recording plane, the light field of a virtual focal plane with .alpha. = F '/ F calculate by:
Figure 00120001

Hieraus ergibt sich bei vereinfachter Betrachtung ohne Vignettierung und anderen Einflüssen für die Lichtintensität an der Position x'/y' auf der virtuellen Fokusebene:

Figure 00120002
This results in a simplified view without vignetting and other influences on the light intensity at the position x '/ y' on the virtual focal plane:
Figure 00120002

Es sei angemerkt, dass für die praktische Berechnung der einzelnen virtuellen Fokusebenen das so genannte Fourier-Slice-Theorem Anwendung findet. Bei diesem macht man sich zu Nutze, dass die Fouriertransformierten der jeweiligen Fokusebenen bestimmten fest definierten Schnitten durch den 4-dimensionalen Fourierraum des 4D-Lichtfeldes entsprechen. Man erhält die virtuellen Fokusebenen, indem auf das Lichtfeld zunächst eine 4D-Fouriertransformation angewandt wird, danach eine Koordinaten-Transformation und abschließend für jeden 2D-Schnitt eine inverse Fourier-Transformation.It should be noted that the so-called Fourier slice theorem is used for the practical calculation of the individual virtual focal planes. In this case, one makes use of the fact that the Fourier transforms of the respective focal planes correspond to certain firmly defined sections through the 4-dimensional Fourier space of the 4D light field. The virtual focus planes are obtained by first applying to the light field a 4D Fourier transformation, then a coordinate transformation and finally an inverse Fourier transformation for each 2D section.

Diese Berechnung gestaltet sich allerdings relativ rechenintensiv.However, this calculation is relatively computationally intensive.

Erfindungsgemäß wird die Lichtfeldkamera in dem Verfahren nach Ng zur Vermessung dreidimensionaler Strukturen auf dem Dentalbereich angewendet, wobei aufgrund des Lichtfeldes und damit möglicher Refokussierung entsprechende Tiefeninformationen gewonnen werden, wie dies bereits zuvor und insbesondere im Zusammenhang mit den 6 bis 8 erläutert worden ist.According to the invention, the light field camera is used in the method according to Ng for measuring three-dimensional structures on the dental area, wherein due to the light field and thus possible refocusing corresponding depth information is obtained, as previously and in particular in connection with the 6 to 8th has been explained.

Der 10 ist ein Ausführungsbeispiel rein prinzipiell zu entnehmen, das bei einem Intraoral-Scanner zum Einsatz gelangen kann, indem eine Lichtfelderfassung durch ein Mikrolinsenarray erfolgt. Dabei werden entsprechend der Darstellung der 5 für gleiche Elemente gleiche Bezugszeichen verwendet.Of the 10 is purely exemplary infer an embodiment, which can be used in an intraoral scanner used by a light field detection is performed by a microlens array. In this case, according to the representation of 5 same reference numerals are used for the same elements.

Folglich wird mittels des Muster-Projektors 1 ein statisches oder variierendes, einfaches Muster auf das dentale Objekt 5 projiziert. Das dabei vom dentalen Objekt rückprojizierte Muster gelangt z. B. über einen Umlenk-Spiegel 4, möglicherweise Polarisations-/Farb- oder andere Filter, das Linsensystem 3 und ggf. den Strahlteiler 2 in eine Lichtfeldkamera, bestehend aus einem Linsensystem 7 , zur Fokussierung, dem Fotosensor 8 zur Bilderfassung und einem Mikrolinsen-Array 6' zur Erfassung der benötigten Lichtfeld-Information, wie zuvor ausführlich erläutert worden ist. Consequently, by means of the pattern projector 1 a static or varying, simple pattern on the dental object 5 projected. The thereby backprojected from the dental object pattern passes z. B. via a deflection mirror 4 , possibly polarization / color or other filters, the lens system 3 and optionally the beam splitter 2 in a light field camera, consisting of a lens system 7 , for focusing, the photosensor 8th for image capture and a microlens array 6 ' for detecting the required light field information, as previously explained in detail.

Die Verwendung eines einfachen Musters erfüllt hierbei zweierlei:

  • 1. Die Sicherstellung einer deutlichen Textur zum optimalen Auffinden der Fokusebene und damit der Tiefeninformation
  • 2. Die vereinfachte und damit deutlich verschnellerte Analyse durch Berechnung nur einzelner, deutlicher Abschnitte anstatt des gesamten Bildes mitsamt allen Fokus-Ebenen
Using a simple pattern does two things:
  • 1. Ensuring a clear texture for optimal finding of the focal plane and thus the depth information
  • 2. The simplified and thus significantly faster analysis by calculating only individual, clear sections instead of the entire image, including all focus levels

Zur Musterprojektion kann z. B. ein Array aus Laserpunkten oder ein Lasergitter verwendet werden, wie es mit entsprechend vorgeschalteter Optik Stand der Technik ist. Auch andere herkömmliche Musterprojektoren mit LEDs oder anderen Lichtquellen, die ein Muster auf einer Ebene scharf projizieren und auf anderen Ebenen rasch unscharf werden, sind entsprechend denkbar.For pattern projection z. As an array of laser spots or a laser grating are used, as it is state of the art with corresponding upstream optics. Other conventional pattern projectors with LEDs or other light sources, which project a pattern on one level and are quickly blurred on other levels, are accordingly conceivable.

Besteht das Muster vorzugsweise aus Bildpunkten kreisförmiger Geometrie, so können andere Geometrien gleichfalls zum Einsatz gelangen. Insbesondere besteht die Möglichkeit, Muster bestehend aus Lichtstrichen oder -kreuzen auf das dentale Objekt abzubilden.If the pattern preferably consists of pixels of circular geometry, then other geometries can likewise be used. In particular, it is possible to image patterns consisting of light lines or crosses on the dental object.

Neben der Projektion eines statischen Musters ist auch ein sich dynamisch veränderndes Projektionsmuster denkbar, durch das auch bei unbewegtem Scanner-Kopf Tiefen-Informationen von weiteren Zwischen-Punkten gewonnen werden. Es sollten vorzugsweise Lücken zwischen den projizierten Musterpunkten vorhanden sein, damit eine einfache Verarbeitbarkeit möglich wird, um folglich den Informationsgehalt zu vereinfachen.In addition to the projection of a static pattern, a dynamically changing projection pattern is also conceivable, by means of which depth information of further intermediate points is obtained even when the scanner head is motionless. There should preferably be gaps between the projected pattern points to allow easy processability, thus simplifying the information content.

Unter sich verändernden oder variierenden Mustern versteht man ganz allgemein, dass nicht konstant das gleiche Muster, sondern wechselnde Muster projiziert werden. Dies kann mittels eines Mustergenerators erreicht werden, mittels dessen die Muster nicht stets an die gleichen x/y-Koordinaten projiziert werden. Vielmehr werden die Positionen variiert, um auch beim Grobmuster Informationen über Zwischenbereiche zu erhalten.Changing or varying patterns are generally understood to mean that patterns are not constantly projected, but alternating patterns are projected. This can be achieved by means of a pattern generator by means of which the patterns are not always projected onto the same x / y coordinates. Rather, the positions are varied in order to obtain information on intermediate areas, even in the case of the coarse pattern.

Vorzugsweise sollte ein monochromer Mustergenerator zum Einsatz gelangen. Dieser hat den Vorteil, dass der Intraoralscanner durch Farb- und ggf. Polarisationsfilter unempfindlicher gegenüber Streulicht und anderen Störquellen gemacht werden kann, indem das rückprojizierte Muster eindeutiger schon physikalisch herausgefiltert werden kann.Preferably, a monochrome pattern generator should be used. This has the advantage that the intra-oral scanner can be made less sensitive to scattered light and other sources of interference by color filters and, if necessary, by polarization filters, since the back-projected pattern can be filtered out even more clearly physically.

Die Verwendung mehrerer, verschiedenfarbiger Muster ist gleichfalls möglich. Hierdurch ergibt sich der Vorteil, gleichzeitig mehrere Muster getrennt auszuwerten, um so die Punktdichte des projizierten Musters weiter zu erhöhen. Dies führt zu einer deutlich gesteigerten Anzahl an Messpunkten und damit dichteren 3D-Punktewolke. Voraussetzung hierfür ist ein Farbsensor als Sensor 8. Zur größeren Fehlertoleranz könnten die mehrfachen Muster ggf. auch unterschiedlich fokussiert sein.The use of several different colored patterns is also possible. This has the advantage of simultaneously evaluating several patterns separately so as to further increase the dot density of the projected pattern. This leads to a significantly increased number of measuring points and thus denser 3D point cloud. This requires a color sensor as a sensor 8th , For greater fault tolerance, the multiple patterns could possibly also be differently focused.

Auch ist es ggfs. sinnvoll, das Muster nicht senkrecht auf das dentale Objekt einzustrahlen, sondern unter einem gewissen, leicht gekippten Winkel. Dies erhöht die Auflösung der Tiefeninformation, da neben des je nach Fokusebene unterschiedlichen u/v-Ebenen-Lichtfeldes zusätzlich eine je nach Fokusebene unterschiedliche x/y-Translation vorhanden ist. Je nach Auflösung des Sensors und Größe der verwendeten Mikrolinsen – die damit die x/y-Auflösung verringern bzw. die u/v-Auflösung erhöhen –, ergibt sich hieraus ein Auflösungs-Vorteil für die resultierende Punktwolke.It may also make sense not to irradiate the pattern perpendicular to the dental object, but at a certain, slightly tilted angle. This increases the resolution of the depth information since, in addition to the different u / v plane light field depending on the focal plane, there is additionally an x / y translation that differs depending on the focal plane. Depending on the resolution of the sensor and the size of the microlenses used - which thus reduce the x / y resolution or increase the u / v resolution - this results in a resolution advantage for the resulting point cloud.

Die Kippung sollte jedoch derart begrenzt sein, dass eine Abschattung in Bereichen wie Zahnzwischenräumen unterbleibt.However, the tilt should be limited so as to avoid shading in areas such as interdental spaces.

Zu dem Haupt-Linsensystem 7, 7' vorgeordneten Mikrolinsenarray 6 bzw. nachgeordnetem Mikrolinsenarray 6' und dem Sensor 8 ist Folgendes ergänzend anzumerken. Grundsätzlich ist als Sensor 8 jeder Sensor mit seinen in der normalen Fotografie anfallenden Vor- und Nachteilen geeignet. Bei einer einfachen Musterprojektion kann ein Graustufen-Sensor verwendet werden, da dieser im Vergleich zu einem Farbsensor höher auflösend und preiswerter ist. Wird ein Muster verschiedener Wellenlängen benutzt, gelangt ein Farbsensor zum Einsatz. Zu bevorzugen ist ein Foveon CMOS-Sensor, der übereinander liegende Farbsensorschichten besitzt und im Farbfall eine höhere Auflösung als ein CCD-Farbsensor mit nebeneinander liegenden Farbpixeln besitzt.To the main lens system 7 . 7 ' upstream microlens array 6 or subordinate microlens array 6 ' and the sensor 8th the following should also be noted. Basically, as a sensor 8th every sensor with its advantages and disadvantages in normal photography suitable. In a simple pattern projection, a grayscale sensor can be used because it is higher resolution and less expensive compared to a color sensor. If a pattern of different wavelengths is used, one arrives Color sensor for use. Preferable is a Foveon CMOS sensor, which has superimposed color sensor layers and color has a higher resolution than a CCD color sensor with adjacent color pixels.

Von der Auflösung her gilt der Grundsatz, dass je höher die Auflösung ist, umso größer ist die prinzipielle Auflösung der Tiefeninformation, wobei auch die Anzahl der Mikrolinsen zu berücksichtigen ist. Bevorzugt sollte ein möglichst hoch auflösender Sensor 8 zum Einsatz gelangen. Bezüglich des Linsenarrays 6, 6' ist Folgendes anzumerken. Je mehr Pixel des Sensors 8 unter eine Linse des Linsenarrays 6, 6' liegen, also einer Linse zugeordnet sind und somit ein Superpixel bilden, umso größer ist die Auflösung der Tiefeninformation. Es gilt somit, dass je größer eine Mikrolinse ist, umso mehr Tiefeninformationen gewinnt man. Allerdings ist die Anzahl der Mikrolinsen bei vorgegebener Größe des Sensors, also deren Pixelanzahl im Vergleich zu einem Mikrolinsenarray mit kleiner flächiger Erstreckung jeder Linse geringer. Bei einer geringen Anzahl von Mikrolinsen verliert man jedoch die spatiale (geometrische) x/y-Auflösung. Dies kann dadurch ausgeglichen werden, dass das projizierte Muster gröber gewählt wird.From the point of view of resolution, the principle applies that the higher the resolution, the greater the fundamental resolution of the depth information, whereby the number of microlenses must also be taken into account. Preferred should be a high resolution sensor 8th to be used. Regarding the lens array 6 . 6 ' the following should be noted. The more pixels of the sensor 8th under a lens of the lens array 6 . 6 ' lie, so are associated with a lens and thus form a superpixel, the greater the resolution of the depth information. Thus, the larger a microlens, the more depth information one gains. However, the number of microlenses for a given size of the sensor, so the number of pixels compared to a microlens array with a small areal extent of each lens is lower. However, with a small number of microlenses, one loses the spatial (geometric) x / y resolution. This can be compensated by making the projected pattern coarser.

Der Sensor 8 sollte daher möglichst hoch auflösend sein. Bevorzugt ist jedoch, dass jede Mikrolinse möglichst viele Sensorelemente abdeckt, die ein Superpixel darstellen, da größere Linsen wiederum durch einen größeren Musterabstand korrigiert werden können.The sensor 8th should therefore be as high resolution as possible. However, it is preferable for each microlens to cover as many sensor elements as possible, which represent a superpixel, since larger lenses can in turn be corrected by a larger pattern spacing.

Zur Bestimmung der virtuellen Fokusebene und damit des z-Abstandes – die x/y-Koordinate wird durch die Koordinaten des Teilbildes auf dem Fotosensor 8 ermittelt – kann das zuvor erläuterte Fourier-Slice-Theorem zur Anwendung gelangen. Es besteht jedoch auch die Möglichkeit, durch ein vereinfachtes Muster schneller notwendige Tiefeninformationen bzw. eine 3D-Punktwolke zu erhalten. Dabei ist von folgendem Ansatz auszugehen.To determine the virtual focal plane and thus the z-distance - the x / y coordinate is determined by the coordinates of the partial image on the photosensor 8th determined - the previously explained Fourier slice theorem can be applied. However, there is also the possibility of obtaining a simplified pattern faster necessary depth information or a 3D point cloud. The following approach should be used.

Je nachdem, ob ein Punkt fokussiert wurde, werden die von diesem Punkt ausgehenden Strahlen auf einen Punkt der x/y-Ebene fokussiert oder aber auf mehrere Pixel des Sensors wie CCD-Sensor verteilt. Demnach stellt bei einem einfachen Muster für einen gegebenen Bildpunkt (x, y) diejenige virtuelle Ebene mit der größten Lichtintensität die gesuchte Fokusebene dar, sofern keine Einflüsse aus anderen Quellen vorliegen.Depending on whether a point has been focused, the rays emanating from this point are focused on a point of the x / y plane or distributed to several pixels of the sensor such as CCD sensor. Thus, in a simple pattern for a given pixel (x, y), the virtual plane with the greatest light intensity represents the searched focal plane, unless there are influences from other sources.

Nach den Erläuterungen im Zusammenhang mit der 9 wird für jeden Musterpunkt (x, y) derjenige Abstand αF gesucht, für den E(∝F)(x, y) maximal wird:

Figure 00160001
According to the explanations related to the 9 For each pattern point (x, y), the distance αF is sought for which E (αF) (x, y) becomes maximal:
Figure 00160001

Hieraus ist unter Berücksichtigung der Ausführungen im Zusammenhang mit den 6 bis 8 die gesuchte Tiefeninformation g(x, y) direkt bestimmbar durch

Figure 00160002
This is taking into account the statements in connection with the 6 to 8th the sought depth information g (x, y) directly determinable by
Figure 00160002

Zur Bestimmung von

Figure 00160003
wird eine Hough-Transformation bevorzugt. Hierzu wird zunächst ein diskreter dreidimensionalen Hough-Raum über den Parametern x, y und α aufgespannt und mit jeweils 0 initialisiert. Anschließend wird über alle denkbaren Parameter-Kombinationen (x, y, u, v, a) iteriert, wobei der Hough-Raum an der Stelle (x, y, a) jeweils um den gemessenen Wert
Figure 00170001
erhöht wird. Fokus-Punkte können dadurch detektiert werden, dass lokale Maxima (x ^, y ^, a ^)i in dem so gewonnenen Hough-Akkumulator bestimmt werden. Aus diesen lokalen Maxima lassen sich sodann in direkter Weise zuge hörige Punkte (xw, yw, zw)i im 3D-Raum bestimmen, wobei zunächst
Figure 00170002
berechnet und anschließend (xw, yw, zw)i mittels der bekannten Lochkamera-Rückprojektion vom Bildpunkt (x ^, y ^) in der Entfernung zwi bestimmt wird.For the determination of
Figure 00160003
a Hough transformation is preferred. For this purpose, first a discrete three-dimensional Hough space is spanned over the parameters x, y and α and initialized with 0 in each case. Subsequently, iterates over all conceivable parameter combinations (x, y, u, v, a), the Hough space at the point (x, y, a) in each case around the measured value
Figure 00170001
is increased. Focus points can be detected by determining local maxima (x ^, y ^, a ^) i in the Hough accumulator thus obtained. From these local maxima, it is then possible to directly determine impaired points (x w , y w , z w ) i in 3D space, wherein first
Figure 00170002
and then ( xw , yw , zw ) i is determined by means of the known pinhole rear projection from the pixel (x ^, y ^) at the distance z wi .

Die notwendige Iteration über alle denkbaren Kombination von fünf Parametern erscheint zunächst sehr aufwändig und rechenintensiv. Die möglichen u, v-Kombinationen bei der beschriebenen Lichtfeld-Kamera stellen jedoch lediglich Unterbilder auf dem Gesamt-Sensor-Bild dar. Somit stellt die Iteration über alle denkbaren Parameter (x, y, u, v) lediglich eine Iteration über alle Pixel des Sensors dar mit entsprechender Indexierung auf (x, y, u, v). Auch für α kommen nur wenige diskrete Werte in Frage.The necessary iteration over any conceivable combination of five parameters initially appears very time-consuming and computationally intensive. However, the possible u, v combinations in the described light field camera only represent subimages on the overall sensor image. Thus, the iteration over all conceivable parameters (x, y, u, v) represents only one iteration over all the pixels of the Sensor dar with corresponding indexing on (x, y, u, v). Also for α only a few discrete values come into question.

Da auch andere Hough-Transformationen mit Iterationen über alle Sensorelemente z. B. zum Auffinden von Linien und Kreisen beinahe in Echtzeit ablaufen, ist eine Online-Berechnung der entsprechenden 3D-Punktewolke aus den Fokuspunkten des beschriebenen Hough-Raumes möglich.Since other Hough transformations with iterations over all sensor elements z. B. for finding lines and circles run almost in real time, an online calculation of the corresponding 3D point cloud from the focus points of the described Hough space is possible.

Denkbar ist zudem, dass sich bei entsprechender Kalibration bestimmte lokale Bildmuster direkt 3D-Objekt-Koordinaten zuordnen lassen.It is also conceivable that with appropriate calibration, certain local image patterns can be assigned directly to 3D object coordinates.

Insgesamt können bei beiden Verfahren (Hough-Transformation oder direkte Zuordnung nach Kalibration) das Muster so einfach aufgebaut sein bzw. die einzelnen projizierten Musterpunkte einen solchen Mindestabstand haben, dass die lokalen Intensitäts-Maxima tatsächlich Fokuspunkte darstellen und sich nicht durch Überlagerung verschiedener Musterpunkte ergeben. Ein sicherer Abstand lässt sich aus der notwendigen Genauigkeit und Breite für α und der sich daraus ergebenden möglichen Minimaldistanz im Hough-Raum abschätzen.Overall, in both methods (Hough transformation or direct assignment after calibration), the pattern can be constructed so simply or the individual projected pattern points have such a minimum distance that the local intensity maxima actually represent focus points and do not result from superposition of different pattern points. A safe distance can be estimated from the necessary accuracy and width for α and the resulting minimum possible distance in Hough space.

Die zuvor erläuterten Verfahren zur Ermittlung der virtuellen Fokusebenen und damit die Berechnung der Tiefeninformationen (z-Achse) unter Berücksichtigung des Fourier-Slice-Theorems von Ng bzw. des Hough-Raums gelten insbesondere dann, wenn das Mikrolinsen-Array der Hauptoptik nachgeordnet, also unmittelbar vor dem Sensor positioniert ist. Unabhängig hiervon ist die erfindungsgemäße Lehre insbesondere unter Anwendung der angepassten Hough-Transformation realisierbar, die eigenerfinderisch ist.The previously explained methods for determining the virtual focal planes and thus the calculation of the depth information (z-axis) taking into account the Fourier-Slice theorem of Ng or the Hough space apply in particular when the microlens array is arranged downstream of the main optics, ie positioned directly in front of the sensor. Regardless of this, the teaching according to the invention can be realized in particular using the adapted Hough transformation, which is self-inventive.

In herkömmlichen Kameras können Objektpunkte scharf abgebildet, d. h. fokussiert werden, indem der Abstand zwischen Sensorebene und Objektiv angepasst wird. Ein Gegenstand wird nach der Gaußschen Linsenformel für dünne Linsen genau dann scharf abgebildet, wenn Gegenstandsweite g (Abstand Gegenstand zu Blende) und Bildweite b (Abstand Sensorebene zu Blende) der folgenden Gleichung entsprechen: 1 / g + 1 / b = 1 / f, wobei f der Brennweite der Linse entspricht.In conventional cameras, object points can be sharply imaged, ie focused, by adjusting the distance between the sensor plane and the objective. An object is sharply imaged according to the Gaussian lens formula for thin lenses if object distance g (distance object to aperture) and image distance b (distance sensor plane to aperture) correspond to the following equation: 1 / g + 1 / b = 1 / f, where f is the focal length of the lens.

Sofern Objektpunkte exakt fokussiert sind, d. h. scharf abgebildet werden, lässt sich damit der Objektabstand g bestimmen mittels g = bf / b–f Dieses Prinzip wird z. B. bei der Erfassung kleinster Strukturen wie z. B. Papierfasern angewandt, die mittels eines exakt fokussierbaren Lichtmikroskops nanometergenau vermessen werden können, indem für jede Struktur genau deren schärfster Punkt angefahren wird.If object points are exactly focused, ie sharply imaged, then the object distance g can be determined by means of g = bf / b-f This principle is z. B. in the detection of the smallest structures such. For example, paper fibers can be used, which can be measured nanometer-accurate by means of an exactly focusable light microscope by approaching exactly the sharpest point of each structure.

Bei einer herkömmlichen Kamera kann bei bekanntem Projektionszentrum – dieses kann durch eine Kamera-Kalibration ermittelt werden – für jeden Bildpunkt nach dem Lochkamera-Modell zwar ermittelt werden, aus welcher Richtung der Hauptstrahl eintraf (1, 2). Sämtliche aus verschiedenen Richtungen auf das Sensorelement eintreffenden Lichtstrahlen können jedoch nicht unterschieden werden, sondern werden in ihrer Lichtintensität einfach addiert. Das Lichtfeld kann daher aufgrund der nicht bestimmbaren u/v-Ebene nicht näher spezifiziert werden.In a conventional camera, with a known projection center - this can be determined by a camera calibration - for each pixel after the pinhole camera model can be determined from which direction the main beam arrived ( 1 . 2 ). However, all incoming light rays from different directions on the sensor element can not be distinguished, but are simply added in their light intensity. The light field can therefore not be specified further because of the indeterminable u / v level.

Insbesondere, wenn Punkte nicht fokussiert wurden, „verschwimmen” die Bildpunkte mit deren Nachbarpunkten und werden unscharf dargestellt. D. h. die von einem einzelnen Objektpunkt ausgesandten und auf der (gedachten) u/v-Ebene eintreffenden Lichtstrahlen werden gleich auf mehrere Punkte der x/y-Ebene projiziert.In particular, when points have not been focused, the pixels "blur" with their neighboring points and are out of focus. Ie. those sent from a single object point and Light rays arriving at the (imaginary) u / v plane are immediately projected onto several points of the x / y plane.

Zwar lassen sich bei vereinzelten Objektpunkten mit wenig umgebenden Störfaktoren auch aus dem sich ergebenden Unscharf-Bildverlauf Rückschlüsse auf den Objekt-Abstand gewinnen (vgl. z. B. „Depth from Defocus” in C. Wähler, 3D Computer Vision, Heidelberg: Springer, 2009, Seiten 162 ff ). Dies ist aber zum einen relativ ungenau und setzt im Allgemeinen gut separierbare einzelne Punkte voraus.Although it is possible to draw conclusions about the object distance for isolated object points with little surrounding disturbing factors from the resulting unsharp image course (cf. "Depth from Defocus" in C. Wähler, 3D Computer Vision, Heidelberg: Springer, 2009, pages 162 ff ). On the one hand, however, this is relatively inaccurate and generally requires well separable individual points.

Der Verfahrensablauf, der beim intraoralen Scannen unter Verwendung des plenoptischen Prinzips durchgeführt wird, wird rein prinzipiell noch einmal anhand der 11 erläutert.The procedure, which is carried out in intraoral scanning using the plenoptic principle, is purely in principle once again based on the 11 explained.

Im Verfahrensschritt a) wird ein Muster auf ein dentales Bild projiziert. Beispiele von entsprechenden Mustern, bei denen es sich um Punkte, um Geraden oder Kreuze handelt, sind beispielhaft dargestellt.In method step a), a pattern is projected onto a dental image. Examples of corresponding patterns that are points, lines, or crosses are exemplified.

An das Muster sollte die Anforderung gestellt werden, dass es einfach ist, um eine schnelle und einfache Detektion und Auswertung zu ermöglichen.The pattern should be made the requirement that it be easy to enable quick and easy detection and evaluation.

Ferner sollte das projizierte Muster auf den Messbereich scharf eingestellt werden bzw. das Muster innerhalb eines gewissen Bereichs scharf abgebildet sein und nicht ineinander übergehende Verläufe aufweisen. Mit anderen Worten sind hochfrequente Teile innerhalb einer Fourier-Analyse des projizierten Musters, die z. B. scharfen Kanten und Linien entsprechen, von Vorteil, da Unschärfe wie ein Tiefpassfilter wirkt, d. h. vorrangig hochfrequente Anteile beeinflusst. Je schärfer die Details sind, umso präziser lässt sich die Fokusebene bestimmen. Ferner sollte die definierte Fokusebene des auf das dentale Objekt projizierten Musters im mittleren Abtastbereich mit rascher Defokussierung jenseits des Schärfebereichs liegen.Furthermore, the projected pattern should be focused on the measurement area or the pattern should be sharply imaged within a certain range and not have merging gradients. In other words, high frequency parts are within a Fourier analysis of the projected pattern, e.g. B. sharp edges and lines, is advantageous because blur acts as a low-pass filter, d. H. primarily high-frequency components influenced. The sharper the details, the more precise the focal plane can be determined. Furthermore, the defined focal plane of the pattern projected onto the dental object should lie in the middle scanning region with rapid defocusing beyond the focal range.

Als Lichtquelle zur Erzeugung des Musters kann eine feine Lochmaske benutzt werden, die von der Strahlung der Lichtquelle durchsetzt wird. Der Lochmaske ist sodann eine Linse nachgeordnet, mittels der fokussiert wird.As a light source for generating the pattern, a fine shadow mask can be used, which is penetrated by the radiation of the light source. The shadow mask is then followed by a lens by means of which is focused.

Es besteht auch die Möglichkeit, ein von Laserstrahlung erzeugtes Muster zu benutzen. Das Lasermuster kann z. B. aus Punkten oder Kreuzen mit begrenztem Schärfebereich bestehen.It is also possible to use a pattern generated by laser radiation. The laser pattern can z. B. consist of points or crosses with limited focus range.

Im Verfahrensschritt b) wird das auf das dentale Objekt projizierte Muster vom dentalen Objekt zurückprojiziert. Je nach Abstand von der vorgegebenen Fokusebene wird das Muster unscharf auf den Sensor abgebildet, d. h., die Lichtintensität des Musters „verschmiert” über mehrere Pixel. Fällt die das Muster bildende Strahlung geneigt auf das Objekt, wird das zurückprojizierte Muster zudem verzerrt.In method step b), the pattern projected onto the dental object is projected back from the dental object. Depending on the distance from the given focal plane, the pattern is blurred on the sensor, d. h., the light intensity of the pattern "blurs" over several pixels. If the radiation forming the pattern is inclined to the object, the back-projected pattern will also be distorted.

Es können Polarisations-, Farb- oder andere Filter dem Objekt vorgeordnet werden, um z. B. Störstrahlung zu minimieren.Polarization, color, or other filters may be pre-ordered on the object, e.g. B. to minimize interference.

Die projizierte Strahlung wird im Verfahrensschritt c) durch ein oder mehrere Linsensysteme gebündelt. Anstelle der Integration der Lichtintensität wird jeder Bildpunkt durch die Linsen des Mikrolinsenarrays 6', nochmals gebrochen, und trifft je nach Einfallswinkel auf unterschiedliche Sensorelemente. Neben der Position dieser als Superpixel zu bezeichnenden unterschiedlichen Sensorelemente kann die Richtung der Lichtstrahlen bestimmt werden. Das vorgeschaltete Mikrolinsenarray ermöglicht die lichtfeld/plenoptische Analyse mit nachträglicher Fokusänderung. Superpixel bedeutet folglich, dass mehrere Pixel des Sensors in Abhängigkeit von der flächigen Erstreckung der jeweiligen Linse zusammengefasst sind. In der x/y-Richtung, d. h. der spatialen Auflösung, liegt die Auflösung vor, die durch die Anzahl an Mikrolinsen vorgegeben ist (Darstellung zum Verfahrensschritt c) ist der Quelle entnommen: R. Ng, Digital light field photography, 2006, S. 27, Fig. 3.2 ).The projected radiation is collimated in process step c) by one or more lens systems. Instead of integrating the light intensity, each pixel is passed through the lenses of the microlens array 6 ' , again broken, and meets depending on the angle of incidence on different sensor elements. In addition to the position of these different sensor elements to be designated as superpixels, the direction of the light beams can be determined. The upstream microlens array enables light field / plenoptic analysis with subsequent focus change. Superpixel therefore means that several pixels of the sensor are combined as a function of the areal extent of the respective lens. In the x / y direction, ie the spatial resolution, the resolution is present, which is predetermined by the number of microlenses (representation for method step c) is taken from the source: R. Ng, Digital light field photography, 2006, p. 27, Fig. 3.2 ).

Im Verfahrensschritt d) werden sodann virtuelle Fokusebenen berechnet. Je nach Entfernung der rückprojizierten Objektpunkte ergibt sich ein unterschiedliches Muster auf der Sensorebene. Dieses hängt bei senkrechter Strahlung hauptsächlich vom Grad der Fokussierung ab, daneben auch vom Winkel der Projektion. Aufgrund der Lichtfeldtechnik lassen sich aus diesen Informationen durch bekannte Verfahren virtuelle Fokusebenen errechnen. Dabei wird bevorzugterweise die Hough-Transformation verwendet (Quelle der unteren Darstellung zum Verfahrensschritt d): Digital light field photography, 2006, S. 27, Fig. 3.2 ).In method step d) then virtual focal planes are calculated. Depending on the distance of the backprojected object points, a different pattern results on the sensor level. In vertical radiation, this depends mainly on the degree of focusing, and also on the angle of the projection. Due to the light field technique can be calculated from this information by known methods virtual focal planes. In this case, the Hough transformation is preferably used (source of the lower representation for method step d): Digital light field photography, 2006, p. 27, Fig. 3.2 ).

Sodann werden im Verfahrensschritt e) 3D-Einzelpunkte ermittelt. Die axiale Position, also z-Koordinate, lässt sich durch virtuelle Fokusebenen eingrenzen. Durch die x-y-Koordinate wird sodann die Position der Pixel berechnet, in der das Teilbild scharf abgebildet ist, also in der virtuellen Fokusebene.Then, in method step e), 3D individual points are determined. The axial position, ie z-coordinate, can be limited by virtual focal planes. The x-y coordinate then calculates the position of the pixels in which the partial image is sharply imaged, ie in the virtual focal plane.

Die Genauigkeit der z-Koordinate, also der Entfernungsmessung hängt vorrangig von der Anzahl der Sensorelemente und die der Mikrolinsen ab, wird aber auch – insbesondere bei geneigter Projektion des Musters auf das Objekt – von der lateralen „Superpixel”-Position (Mikrolinse) bestimmt. The accuracy of the z-coordinate, ie the distance measurement depends primarily on the number of sensor elements and the microlenses, but is also - especially in inclined projection of the pattern on the object - determined by the lateral "superpixel" position (microlens).

Eine Interpolation auf Subpixel-Ebene kann die Genauigkeit steigern.Interpolation at sub-pixel level can increase accuracy.

Unabhängig hiervon ist insbesondere vorgesehen, dass der Abstand zwischen den einzelnen Elementen des Musters, also den projizierten Punkten, die jedoch nicht die Geometrie eines Punktes aufweisen müssen, sondern z. B. kreuzförmig oder linienförmig sein können, bevorzugterweise so zu wählen ist, dass im zu erfassenden Abtastbereich jeweils überlappungsfreie Projektionen erfolgen.Regardless of this, it is provided in particular that the distance between the individual elements of the pattern, ie the projected points, which need not have the geometry of a point, but z. B. may be cross-shaped or linear, is preferably to be chosen so that in the scanning region to be detected each overlap-free projections.

Schließlich wird im Verfahrensschritt f) beim Scannen durch Registrierung bzw. Matchen die 3D-Form des zu messenden Abschnitts des Objektes wie dentalen Bereichs erfasst.Finally, in method step f) during scanning by registration or matching, the 3D shape of the portion of the object to be measured, such as the dental area, is detected.

Aufgrund der erfindungsgemäßen Lehre werden im Vergleich zu bekannten Verfahren weniger komplexe Linsensysteme benötigt. Somit kann ein kostengünstiges und relativ leichtes Handgerät zur Verfügung gestellt werden, das als Intraoralscanner Verwendung findet. Die feinmechanische Ausrichtung zwischen den projizierten Mustern und dem Mikrolinsenarray kann problemlos erfolgen.Due to the teachings of the invention less complex lens systems are needed compared to known methods. Thus, a low cost and relatively lightweight handset can be provided which finds use as an intraoral scanner. The fine mechanical alignment between the projected patterns and the microlens array can be done easily.

Der Einsatz eines monochromatischen Lasers oder anderer einfacher Musterprojektionen ermöglicht es, diese in den Oralscanner zu integrieren, ohne dass es der nach dem Stand der Technik erforderlichen Lichtleiterkabel bedarf. Der Intraoralscanner kann sogar dann kabellos arbeiten, wenn die Daten durch Fernzugriff wie WLAN oder BLUETOOTH erfasst werden.The use of a monochromatic laser or other simple pattern projections makes it possible to integrate them into the oral scanner, without the need for the optical cable required in the prior art. The intraoral scanner can operate wirelessly even when the data is captured remotely, such as WLAN or BLUETOOTH.

Dabei zeigt die monochromatische Lichtquelle erhebliche Vorteile sowohl hinsichtlich der Kosten als auch der Handhabbarkeit im Vergleich zu solchen, die nach dem Stand der Technik bei Intraoralscannern zum Einsatz gelangen können, wie Xenon-Lichtquellen.In this case, the monochromatic light source shows considerable advantages both in terms of cost and of manageability in comparison to those which can be used in the prior art with intraoral scanners, such as xenon light sources.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102007019267 A [0002] DE 102007019267 A [0002]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Georgiev et al. [„Spatio-angular resolution tradeoffs in integral photography”, 2006] [0036] Georgiev et al. ["Spatio-angular resolution tradeoffs in integral photography", 2006] [0036]
  • R. Ng „Digital light field photography,” 2006 [0045] R. Ng "Digital light field photography," 2006 [0045]
  • Adelson und Bergen („The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991) [0047] Adelson and Bergen ("The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991). [0047]
  • http:/de.wikipedia.ord/wiki/Plenoptische_Kamera [0048] http: /de.wikipedia.ord/wiki/Plenoptische_Kamera [0048]
  • A. Gershun („The Light Field”, Journal of Mathematics and Physics, Seiten 51–151) [0049] A. Gershun (The Light Field, Journal of Mathematics and Physics, pp. 51-151) [0049]
  • „Depth from Defocus” in C. Wähler, 3D Computer Vision, Heidelberg: Springer, 2009, Seiten 162 ff [0087] "Depth from Defocus" in C. Wähler, 3D Computer Vision, Heidelberg: Springer, 2009, pages 162 ff [0087]
  • R. Ng, Digital light field photography, 2006, S. 27, Fig. 3.2 [0096] R. Ng, Digital light field photography, 2006, p. 27, Fig. 3.2 [0096]
  • Digital light field photography, 2006, S. 27, Fig. 3.2 [0097] Digital light field photography, 2006, p. 27, Fig. 3.2 [0097]

Claims (17)

Verfahren zum Messen der Form von zumindest einem Abschnitt eines Objektes (5) durch Projektion eines Musters auf den Abschnitt und Abbilden des rückprojizierten Musters auf einen Sensor (8), dadurch gekennzeichnet, dass das auf den Sensor (8) rückprojizierte Muster unter Zugrundelegung des plenoptischen Prinzips analysiert wird.Method for measuring the shape of at least a portion of an object ( 5 by projecting a pattern onto the section and imaging the backprojected pattern onto a sensor ( 8th ), characterized in that on the sensor ( 8th ) backprojected patterns are analyzed on the basis of the plenoptic principle. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das rückprojizierte Muster zumindest eine Optik (7, 7') durchsetzt, der ein Linsenarray (6, 6') vor- oder nachgeordnet wird.A method according to claim 1, characterized in that the back-projected pattern at least one optic ( 7 . 7 ' ), which is a lens array ( 6 . 6 ' ) is preceded or subordinated. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass auf den Abschnitt des Objekts (5) ein statisches oder variierendes Muster abgebildet wird.Method according to claim 1 or 2, characterized in that the portion of the object ( 5 ) a static or varying pattern is displayed. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Muster durch auf den Abschnitt des Objekts (5) projizierte Laserpunkte erzeugt wird.Method according to at least one of the preceding claims, characterized in that the pattern passes through onto the portion of the object ( 5 ) projected laser spots is generated. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Linsenarray (6, 6') aus Linsen gebildet wird, die gleiche Brennweiten aufweisen.Method according to at least one of the preceding claims, characterized in that the lens array ( 6 . 6 ' ) is formed of lenses having the same focal lengths. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Linsenarray (6, 6') aus Linsen gebildet wird, die oder Untergruppen dieser von voneinander abweichender Brennweiten aufweisen.Method according to at least one of the preceding claims, characterized in that the lens array ( 6 . 6 ' ) is formed from lenses having or subgroups of these differing focal lengths. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf den Abschnitt des Objekts (5) gleichzeitig zumindest zwei Muster mit voneinander abweichenden Wellenlängen oder Wellenlängenbereichen projiziert werden.Method according to at least one of the preceding claims, characterized in that the portion of the object ( 5 ) simultaneously at least two patterns are projected with divergent wavelengths or wavelength ranges. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass unter Verwendung des Hough-Raums und mittels einer Hough-Transformation virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.Method according to at least one of the preceding claims, characterized in that, using the Hough space and by means of a Hough transformation, virtual focal planes of the backprojected elements of the pattern are calculated. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels des Fourier-Slice-Theorems virtuelle Fokusebenen der rückprojizierten Elemente des Musters berechnet werden.Method according to at least one of the preceding claims, characterized in that virtual focal planes of the backprojected elements of the pattern are calculated by means of the Fourier slice theorem. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren zum Scannen dentaler Objekte (5), insbesondere zum intraoralen Scannen eines Dentalbereichs verwendet wird.Method according to at least one of the preceding claims, characterized in that the method for scanning dental objects ( 5 ), in particular for intraoral scanning of a dental area is used. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in einem Intraoralscanner ein Mustererzeuger (1), die zumindest eine Optik (7, 7'), das Linsenarray (6, 6') und der Sensor (8) integriert werden, dass der Intraoralscanner kabellos betrieben wird und dass Signale des Sensors durch Fernzugriff wie WLAN oder BLUETOOTH an einen Rechner übertragen werden.Method according to at least one of the preceding claims, characterized in that in an intraoral scanner a pattern generator ( 1 ), which at least one optic ( 7 . 7 ' ), the lens array ( 6 . 6 ' ) and the sensor ( 8th ), that the intraoral scanner is operated wirelessly and that signals from the sensor are transmitted to a computer by remote access, such as WLAN or BLUETOOTH. Intraoralscanner, umfassend einen Erzeuger (1) eines auf einen dentalen Bereich (5) abzubildenden Musters, zumindest eine erste Optik (7, 7') und einen dieser nachgeordneten rückprojiziertes Muster erfassenden Sensor (8), dadurch gekennzeichnet, dass das Linsenarray (6, 6') mit der ersten Optik (7, 7') und dem Sensor (8) eine Lichtfeldkamera bildet.Intraoral scanner, comprising a producer ( 1 ) one on a dental area ( 5 ) pattern to be imaged, at least a first appearance ( 7 . 7 ' ) and a sensor that detects this backprojected pattern ( 8th ), characterized in that the lens array ( 6 . 6 ' ) with the first optics ( 7 . 7 ' ) and the sensor ( 8th ) forms a light field camera. Intraoralscanner nach Anspruch 12, dadurch gekennzeichnet, dass das Linsenarray (6, 6') in dem Intraoralscanner der ersten Optik (7, 7') vor- oder nachgeordnet ist.Intraoral scanner according to claim 12, characterized in that the lens array ( 6 . 6 ' ) in the intraoral scanner of the first optics ( 7 . 7 ' ) is upstream or downstream. Intraoralscanner nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass das Muster aus Laserpunkten, insbesondere monochromatischer Strahlung besteht.Intraoral scanner according to claim 12 or 13, characterized in that the pattern consists of laser spots, in particular monochromatic radiation. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass das Muster ein statisches oder variierendes Muster ist. Intraoral scanner according to at least one of claims 12 to 14, characterized in that the pattern is a static or varying pattern. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass das Linsenarray (6, 6') aus Linsen mit gleichen Brennweiten oder aus Linsen oder Linsengruppen mit voneinander abweichenden Brennweiten besteht.Intraoral scanner according to at least one of claims 12 to 15, characterized in that the lens array ( 6 . 6 ' ) consists of lenses with the same focal lengths or lenses or lens groups with different focal lengths. Intraoralscanner nach zumindest einem der Ansprüche 12 bis 16, dadurch gekennzeichnet, dass der Intraoralscanner eine das Muster auf den dentalen Bereich (5) projizierende zweite Optik (3) aufweist.Intraoral scanner according to at least one of claims 12 to 16, characterized in that the intraoral scanner a the pattern on the dental area ( 5 ) projecting second optics ( 3 ) having.
DE102012102580A 2012-03-26 2012-03-26 Method for measuring an object and intraoral scanner Ceased DE102012102580A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102012102580A DE102012102580A1 (en) 2012-03-26 2012-03-26 Method for measuring an object and intraoral scanner
PCT/EP2013/055369 WO2013143882A1 (en) 2012-03-26 2013-03-15 Method for the scanning measurement of a dental object, and intraoral scanner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012102580A DE102012102580A1 (en) 2012-03-26 2012-03-26 Method for measuring an object and intraoral scanner

Publications (1)

Publication Number Publication Date
DE102012102580A1 true DE102012102580A1 (en) 2013-09-26

Family

ID=47915186

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012102580A Ceased DE102012102580A1 (en) 2012-03-26 2012-03-26 Method for measuring an object and intraoral scanner

Country Status (2)

Country Link
DE (1) DE102012102580A1 (en)
WO (1) WO2013143882A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005616A1 (en) * 2013-04-04 2014-10-23 DüRR DENTAL AG Dental camera system
DE102014119013A1 (en) 2014-12-18 2016-06-23 Universität Rostock Method for producing an orthodontic appliance
US10835352B2 (en) 2018-03-19 2020-11-17 3D Imaging and Simulation Corp. Americas Intraoral scanner and computing system for capturing images and generating three-dimensional models
DE102020133627A1 (en) 2020-12-15 2022-06-15 Infinisense Technologies GmbH Method and intraoral scanner for capturing the topography of the surface of a translucent, in particular dental, object

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107296585A (en) * 2017-08-11 2017-10-27 四川大学 Oral cavity scanning means and oral cavity scanning system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004059526A1 (en) * 2004-12-09 2006-06-14 Sirona Dental Systems Gmbh Measuring device and method according to the basic principle of confocal microscopy
DE102007019267A1 (en) 2007-04-24 2008-10-30 Degudent Gmbh Measuring arrangement and method for three-dimensional measuring of an object
DE102007054907A1 (en) * 2007-11-15 2009-05-28 Sirona Dental Systems Gmbh Method for the optical measurement of objects using a triangulation method
EP2377464A1 (en) * 2010-03-19 2011-10-19 Carestream Health, Inc. 3-D imaging using double telecentric optics and depth from focus measurements

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10356412A1 (en) * 2003-11-24 2005-06-23 Universität Stuttgart Confocal arrangement for e.g. three-dimensional tooth shape measurement, has telecentric aperture arranged in internal focal plane of objective lenses to limit numerical aperture of lens, facing object, around specific value
US7646550B2 (en) * 2006-02-13 2010-01-12 3M Innovative Properties Company Three-channel camera systems with collinear apertures

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004059526A1 (en) * 2004-12-09 2006-06-14 Sirona Dental Systems Gmbh Measuring device and method according to the basic principle of confocal microscopy
DE102007019267A1 (en) 2007-04-24 2008-10-30 Degudent Gmbh Measuring arrangement and method for three-dimensional measuring of an object
DE102007054907A1 (en) * 2007-11-15 2009-05-28 Sirona Dental Systems Gmbh Method for the optical measurement of objects using a triangulation method
EP2377464A1 (en) * 2010-03-19 2011-10-19 Carestream Health, Inc. 3-D imaging using double telecentric optics and depth from focus measurements

Non-Patent Citations (16)

* Cited by examiner, † Cited by third party
Title
"Depth from Defocus" in C. Wähler, 3D Computer Vision, Heidelberg: Springer, 2009, Seiten 162 ff
A. Gershun ("The Light Field", Journal of Mathematics and Physics, Seiten 51-151)
Adelson und Bergen ("The plenoptic function and the elements of early vision, Cambridge: MIT Press, 1991)
Digital light field photography, 2006, S. 27, Fig. 3.2
Georgiev et al. ["Spatio-angular resolution tradeoffs in integral photography", 2006]
http:/de.wikipedia.ord/wiki/Plenoptische_Kamera
K. Harding et al.; "3D imaging system for biometric applications"; SPIE Defense, Security, and Sensing, 2010, S. 76900J-1 - 76900J-12 *
K. Harding et al.; "3D imaging system for biometric applications"; SPIE Defense, Security, and Sensing, 2010, S. 76900J-1 – 76900J-12
L. Nalpantidis et al.; "Obtaining reliable depth maps for robotic applications from a quad-camera system"; Intelligent Robotics and Applications, 2009, S. 906 - 916 *
L. Nalpantidis et al.; "Obtaining reliable depth maps for robotic applications from a quad-camera system"; Intelligent Robotics and Applications, 2009, S. 906 – 916
R. Ng "Digital light field photography," 2006
R. Ng et al.; "Light field photography with a hand-held plenoptic camera"; Computer Science Technical Report CSTR, Vol. 2, 2005, S. 1 - 11 *
R. Ng et al.; "Light field photography with a hand-held plenoptic camera"; Computer Science Technical Report CSTR, Vol. 2, 2005, S. 1 – 11
R. Ng, Digital light field photography, 2006, S. 27, Fig. 3.2
R. Ng; "Fourier slice photography"; ACM Transactions on Graphics (TOG), Vol. 24, No. 3, 2005, S. 735 - 744 *
R. Ng; "Fourier slice photography"; ACM Transactions on Graphics (TOG), Vol. 24, No. 3, 2005, S. 735 – 744

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013005616A1 (en) * 2013-04-04 2014-10-23 DüRR DENTAL AG Dental camera system
US9220414B2 (en) 2013-04-04 2015-12-29 Duerr Dental Ag Dental camera system
DE102014119013A1 (en) 2014-12-18 2016-06-23 Universität Rostock Method for producing an orthodontic appliance
US10835352B2 (en) 2018-03-19 2020-11-17 3D Imaging and Simulation Corp. Americas Intraoral scanner and computing system for capturing images and generating three-dimensional models
DE102020133627A1 (en) 2020-12-15 2022-06-15 Infinisense Technologies GmbH Method and intraoral scanner for capturing the topography of the surface of a translucent, in particular dental, object

Also Published As

Publication number Publication date
WO2013143882A1 (en) 2013-10-03

Similar Documents

Publication Publication Date Title
DE102006007170B4 (en) Method and arrangement for fast and robust chromatic confocal 3D metrology
DE102006007172B4 (en) Method and arrangement for rapid, spatially resolved, areal, spectroscopic analysis, or for spectral imaging or for 3D detection by means of spectroscopy
EP3186952B1 (en) Image capturing device and method for image capturing
DE102006055758B4 (en) Method for calibrating cameras and projectors
DE102010040518A1 (en) Image recording device, image display method and recording medium, and image recording program recorded thereon
DE102008002730A1 (en) Distance image generating method for three-dimensional reconstruction of object surface from correspondence of pixels of stereo image, involves selecting one of structural elements such that each element exhibits different intensity value
DE102015107517B3 (en) Apparatus and method for image acquisition with increased depth of field
DE102008002725B4 (en) Method and device for 3D reconstruction
EP0449859B1 (en) Process and device for observing moire patterns on test surfaces by moireing with phase shifts
DE102012106584A1 (en) Method and apparatus for image reconstruction
WO2014000738A2 (en) Method for capturing images of a preferably structured surface of an object and device for image capture
DE102012102580A1 (en) Method for measuring an object and intraoral scanner
DE102014113256A1 (en) Image recording device and method for image recording with reflex suppression
EP0805996A1 (en) Process and device for imaging an object
DE102008036275A1 (en) Optical sensor and method for measuring profiles
EP2019961A1 (en) Method for generating image information
DE102019208114B4 (en) Device and method for 3D measurement of object coordinates
DE19749974C2 (en) Method and apparatus for generating a 3D point cloud
DE102020201097B4 (en) Arrangement and method for optical determination of object coordinates
DE102006013318A1 (en) Static scene reconstruction method for testing work pieces, involves reconstructing scene of a two-dimensional image data by method of shape from motion when scene exhibits region with intensity gradients
DE102013105102A1 (en) Method and device for determining features on objects to be measured
WO2020254445A1 (en) Stereo camera system
DE102006013316A1 (en) Three-dimensional reconstruction of static scenes through standardized combination of DFD (depth from defocus) and SFM (shape from motion) methods, involves using DFD and SFD methods in processing two-dimensional image of static scene
DE102016109131B4 (en) Method for the three-dimensional detection of an object
EP4227636B1 (en) Determination of depth values of a surface area of a workpiece

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final