DE102021120835A1 - Method and system for acquiring 3D surface data of an object to be measured - Google Patents

Method and system for acquiring 3D surface data of an object to be measured Download PDF

Info

Publication number
DE102021120835A1
DE102021120835A1 DE102021120835.1A DE102021120835A DE102021120835A1 DE 102021120835 A1 DE102021120835 A1 DE 102021120835A1 DE 102021120835 A DE102021120835 A DE 102021120835A DE 102021120835 A1 DE102021120835 A1 DE 102021120835A1
Authority
DE
Germany
Prior art keywords
sensor device
referencing
sensor
orientation
until
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021120835.1A
Other languages
German (de)
Inventor
Jörg Friemel
Christoph Prall
Jens Garstka
Hendrik Kleene
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Optics Sensortechnik GmbH
Original Assignee
Smart Optics Sensortechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Optics Sensortechnik GmbH filed Critical Smart Optics Sensortechnik GmbH
Priority to DE102021120835.1A priority Critical patent/DE102021120835A1/en
Publication of DE102021120835A1 publication Critical patent/DE102021120835A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/227Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/77Design aspects, e.g. CAD, of hearing aid tips, moulds or housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/65Housing parts, e.g. shells, tips or moulds, or their manufacture
    • H04R25/652Ear tips; Ear moulds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/65Housing parts, e.g. shells, tips or moulds, or their manufacture
    • H04R25/658Manufacture of housing parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/65Housing parts, e.g. shells, tips or moulds, or their manufacture
    • H04R25/658Manufacture of housing parts
    • H04R25/659Post-processing of hybrid ear moulds for customisation, e.g. in-situ curing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein System mit einer handhaltbaren Sensoreinrichtung und einer Referenzierungseinrichtung zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, insbesondere eines Ohrinneren, bzw. auch dessen Komponenten (Sensoreinrichtung und/oder Referenzierungseinrichtung) bzw. ein entsprechendes Verfahren mit welchem einzelne Aufnahmen einfacher, schneller und zuverlässiger zusammengefügt werden können, um ein möglichst genaues und umfassendes 3D-Models des Objekts zu erstellen. Die handhaltbare Sensoreinrichtung weist erste Mittel auf, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen. Die Referenzierungseinrichtung zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, weist zweite Mittel auf, um die Position und Orientierung einer Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen.The present invention relates to a system with a hand-held sensor device and a referencing device for acquiring 3D surface data of an object to be measured, in particular the inside of an ear, or also its components (sensor device and/or referencing device) or a corresponding method with which individual recordings can be recorded more easily , can be assembled faster and more reliably to create the most accurate and complete 3D model of the object possible. The hand-held sensor device has first means for determining the position and orientation of the sensor device in space relative to the referencing device. The referencing device for acquiring 3D surface data of an object to be measured has second means for determining the position and orientation of a sensor device in space relative to the referencing device.

Description

Die vorliegende Erfindung betrifft grundsätzlich das Gebiet der 3-dimensionalen(3D)-Scan-Technologie, insbesondere für die Audiologie. Genauer betrifft die vorliegende Erfindung die Erstellung eines 3D-Modells der Beschaffenheit des gesamten Ohres bestehend aus Trommelfell, Ohrkanal und der Ohrmuschel („digitale Abdrucknahme“) bzw. die Datenaufnahme hierfür.The present invention relates fundamentally to the field of 3-dimensional (3D) scanning technology, in particular for audiology. More precisely, the present invention relates to the creation of a 3D model of the structure of the entire ear consisting of the eardrum, ear canal and the auricle (“digital impression taking”) or the data acquisition for this.

Eine wichtige Aufgabe eines Hörgeräteakustikers besteht darin, eine sogenannte Otoplastik bzw. Ohrpassstück für Hörgeräte anzufertigen. Dabei ist die Otoplastik derjenige Teil des Hörgeräts, der bei Im-Ohr-Hörgeräten (IdO) direkt im Ohr anliegt. Bei Hinter-dem-Ohr-Hörgeräten (HdO) liegt sie hinter dem Ohr an. Die optimale Anpassung bzw. Sitz der Otoplastik dient nicht nur der Verbesserung des Tragekomforts, sondern sorgt auch für eine Leistungsverbesserung des Hörgeräts.An important task of a hearing aid acoustician is to make a so-called otoplastic or ear mold for hearing aids. The earmold is the part of the hearing aid that fits directly into the ear with in-the-ear (ITE) hearing aids. With behind-the-ear (BTE) hearing aids, it fits behind the ear. The optimal adjustment or fit of the earmold not only improves the wearing comfort, but also improves the performance of the hearing aid.

Aktuell von der Anmelderin produzierte 3D-Tischscanner im Bereich der Audiologie erfassen die 3D-Beschaffenheit des Außenohres bis hin zum Beginn des Gehörgangs in einem indirekten Verfahren. Dabei wird die 3D-Beschaffenheit des Ohres mittels eines Negativsilikonabdruckes vom Patienten abgenommen. Hierzu wird eine Zwei-Komponenten-Silikonmasse in das Ohr des Patienten gegeben. Diese Masse härtet über einen bestimmten Zeitraum aus und wird im Anschluss aus dem Ohr entfernt. Diese so ausgehärtete Masse entspricht einem Negativabdruck des Ohres, welcher im Anschluss in einem 3D-Tischscanner erfasst werden kann. Mit den so erhaltenen Daten kann dann die Otoplastik angefertigt werden.3D desktop scanners currently produced by the applicant in the field of audiology record the 3D nature of the outer ear up to the beginning of the auditory canal in an indirect method. The 3D condition of the ear is taken from the patient using a negative silicone impression. For this purpose, a two-component silicone mass is placed in the patient's ear. This mass hardens over a certain period of time and is then removed from the ear. This hardened mass corresponds to a negative impression of the ear, which can then be recorded in a 3D table scanner. The earmold can then be made with the data obtained in this way.

Im Stand der Technik ist grundsätzlich auch ein Scanner bekannt, welcher zumindest die äußere Beschaffenheit des Ohres optisch vermessen kann. Dieser ermöglicht eine direkte Erfassung der 3D-Beschaffenheit des Ohres, ohne zwischengeschaltete Prozesskette mit einer physikalischen Abdrucknahme. Als druckschriftlicher Nachweis hierfür wird auf die US 2016/0051134 A1 hingewiesen. Dieser Scanner besitzt allerdings eine Vielzahl von Nachteilen. Zum einen ist die Bedienung unhandlich, weil die handgehaltene Scaneinrichtung schwer und unhandlich ist, insbesondere da sehr viele Komponenten, z.B. ein Bildschirm, darin integriert sind. Zum anderen kann nur der äußere Teil des Ohres vermessen werden, da die Scaneinrichtung nicht tief in den Ohrkanal eindringen kann. Besonders bei den hochmodernen Hörgeräten, welche nahe am oder auf dem Trommelfell eines Anwenders sitzen, ist die vollständige Vermessung des Ohrkanals besonders wichtig. Darüber hinaus ist die Zusammensetzung der Einzelaufnahmen, um eine vollständige Information über die 3D-Beschaffenheit des Innenohrs zu erhalten, bei diesem Scanner extrem kompliziert, da in den Einzelaufnahmen jeweils nur eine ringförmige Höhenlinie erfasst wird. Außerdem müssen zum Zusammenfügen der Einzelaufnahmen ortsfeste optische Markierungen außerhalb des Ohres bei den Einzelaufnahmen immer mitaufgenommen werden, was die Möglichkeit stark einschränkt das Ohrinnere bzw. den Ohrkanal zu erfassen.In principle, a scanner is also known in the prior art, which can optically measure at least the external condition of the ear. This enables the 3D condition of the ear to be captured directly, without an intermediate process chain involving physical impression taking. As printed proof of this, reference is made to the U.S. 2016/0051134 A1 pointed out. However, this scanner has a number of disadvantages. On the one hand, operation is unwieldy because the hand-held scanning device is heavy and unwieldy, especially since a large number of components, such as a screen, are integrated into it. On the other hand, only the outer part of the ear can be measured since the scanning device cannot penetrate deep into the ear canal. The complete measurement of the ear canal is particularly important with the ultra-modern hearing aids, which sit close to or on the eardrum of a user. In addition, the composition of the individual images in order to obtain complete information about the 3D nature of the inner ear is extremely complicated with this scanner, since only one ring-shaped contour line is recorded in each individual image. In addition, in order to combine the individual recordings, stationary optical markings outside of the ear must always be included in the individual recordings, which severely limits the possibility of capturing the inside of the ear or the ear canal.

Der Erfindung liegt daher die Aufgabe zugrunde, die Nachteile des Standes der Technik zu vermeiden und insbesondere ein System zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, insbesondere eines Ohrinneren, bzw. auch dessen Komponenten (Sensoreinrichtung und/oder Referenzierungseinrichtung) bzw. ein entsprechendes Verfahren derart weiterzubilden, dass einzelne Aufnahmen einfacher, schneller und zuverlässiger zusammengefügt werden können, um ein möglichst genaues und umfassendes 3D-Model des Objekts zu erstellen.The invention is therefore based on the object of avoiding the disadvantages of the prior art and in particular of a system for acquiring 3D surface data of an object to be measured, in particular an ear interior, or also its components (sensor device and/or referencing device) or a develop the corresponding method in such a way that individual recordings can be combined more easily, quickly and reliably in order to create a 3D model of the object that is as accurate and comprehensive as possible.

Diese Aufgabe wird durch ein System nach Anspruch 24, eine handhaltbare Sensoreinrichtung nach Anspruch 1 und eine Referenzierungseinrichtung nach Anspruch 13 gelöst. Ferner wird diese Aufgabe durch ein Verfahren zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts nach Anspruch 27 und eine entsprechende Vorrichtung nach Anspruch 32 gelöst.This object is achieved by a system according to claim 24, a hand-held sensor device according to claim 1 and a referencing device according to claim 13. Furthermore, this object is achieved by a method for acquiring 3D surface data of an object to be measured according to claim 27 and a corresponding device according to claim 32.

Die Erfindung betrifft insbesondere eine handhaltbare Sensoreinrichtung zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, wobei die Sensoreinrichtung erste Mittel aufweist, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu einer Referenzierungseinrichtung zu bestimmen. Durch die Erfassung von Position und Orientierung der Sensoreinrichtung im Raum relativ zu einer Referenzierungseinrichtung ist insbesondere bei Aufnahmen des Objekts durch die Sensoreinrichtung eine weitere Informationsquelle verfügbar, um ein 3D-Model des Objekts durch Zusammenfügen der Einzelaufnahmen zu erstellen.The invention relates in particular to a hand-held sensor device for acquiring 3D surface data of an object to be measured, the sensor device having first means for determining the position and orientation of the sensor device in space relative to a referencing device. By detecting the position and orientation of the sensor device in space relative to a referencing device, a further source of information is available, particularly when the sensor device is recording the object, in order to create a 3D model of the object by merging the individual recordings.

Bevorzugt ist dabei ferner, dass die ersten Mittel wenigstens drei Ultraschallemitter aufweisen. Durch Ultraschalllaufzeitmessung mittel an einer Referenzierungseinrichtung ausgebildeten Ultraschallempfängern lässt sich die Position und Orientierung der Sensoreinrichtung erfassen. Die Ultraschalllaufzeitmessungen dienen dabei zur Grobbestimmung der dreidimensionalen Raumlage der Sensoreinrichtung, d.h. insbesondere eines optischen Stereosensors, in Relation zu dem zu vermessenden Objekt über eine am Objekt angebrachte Referenzierungseinrichtung.It is also preferred that the first means have at least three ultrasonic emitters. The position and orientation of the sensor device can be detected by ultrasonic propagation time measurement using ultrasonic receivers formed on a referencing device. The ultrasonic transit time measurements serve to roughly determine the three-dimensional spatial position of the sensor device, i.e. in particular an optical stereo sensor, in relation to the object to be measured via a referencing device attached to the object.

Zur einfachen Handhabbarkeit weist die Sensoreinrichtung einen Grundkörper in Form einer Röhre auf. Diese Röhre besitzt vorzugsweisen einen Durchmesser von wenigen Millimetern, sodass diese in einen Ohrkanal einfach eingeführt werden kann.For easy handling, the sensor device has a base body in the form of a tube. This tube preferably has a diameter of a few millimeters so that it can be easily inserted into an ear canal.

Vorzugsweise weist die Sensoreinrichtung wenigstens drei Stege auf, welche von einem Ende des Grundkörpers im Wesentlichen senkrecht abstehen. Dabei ist bevorzugt, dass die wenigstens drei Stege im Wesentlichen in einer Ebene angeordnet sind und vorzugsweise jeweils in einem Winkel von ungefähr 90 Grad oder ungefähr 120 Grad zueinander angeordnet sind. Vorzugsweise sind dabei die wenigstens drei Ultraschallemitter an von dem Grundkörper abgewandten jeweiligen Enden der wenigstens drei Stege angeordnet sind. Durch die Beabstandung der Ultraschallemitter und die Versetzung kann die Position und Orientierung der Sensoreinrichtung optimal erfasst werden.The sensor device preferably has at least three webs which protrude essentially perpendicularly from one end of the base body. It is preferred that the at least three webs are arranged essentially in one plane and are preferably arranged at an angle of approximately 90 degrees or approximately 120 degrees to one another. The at least three ultrasonic emitters are preferably arranged at the respective ends of the at least three webs facing away from the base body. Due to the spacing of the ultrasonic emitters and the offset, the position and orientation of the sensor device can be optimally detected.

Ferner ist bevorzugt, dass die Anordnung der wenigstens drei Stege derart ist, dass ein erster und ein zweiter der wenigstens drei Stege zusammen mit dem Grundkörper eine Ebene bilden und ein dritter Steg mit dem Grundkörper eine dazu senkrechte Ebene bildet.Furthermore, it is preferred that the arrangement of the at least three webs is such that a first and a second of the at least three webs form a plane together with the base body and a third web forms a plane perpendicular to the base body.

Gemäß einer bevorzugten Ausführungsform der Erfindung sind in dem Grundkörper der Sensoreinrichtung eines oder mehrere der folgenden Gruppe vorgesehen: Bilderfassungsmittel, Projektionsmittel zur Projektion eines strukturierten Musters auf das Objekt und/oder Beleuchtungsmittel für das Objekt. Vorzugsweise sind dabei die Bilderfassungsmittel zur optischen Erfassung der 3D-Oberflächendaten des Objekts vorgesehen sind und vorzugsweise wenigstens zwei Kameras mit überlappendem Erfassungsbereich aufweisen. Auf diese Weise lassen sich stereoskopische Aufnahmen anfertigen, d.h. Aufnahmen mit Information über die 3D-Oberflächenstruktur des zu vermessenden Objekts.According to a preferred embodiment of the invention, one or more of the following group are provided in the base body of the sensor device: image acquisition means, projection means for projecting a structured pattern onto the object and/or lighting means for the object. The image acquisition means are preferably provided for the optical acquisition of the 3D surface data of the object and preferably have at least two cameras with an overlapping acquisition area. In this way, stereoscopic recordings can be made, i.e. recordings with information about the 3D surface structure of the object to be measured.

Ferner ist bevorzugt, dass die Bestimmung der Position der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zur Steuerung eines Cursors auf einem Bildschirm verwendet wird. Vorteilhafterweise weist die Sensoreinrichtung ein Bedienelement, vorzugsweise ein kapazitiv sensitives Flächenelement, auf. Die Sensoreinrichtung kann dann im Raum bewegt werden, um einen Cursor auf einem Bildschirm zu bewegen. Durch das Bedienelement kann dann beispielsweise auf eine Schaltfläche, über der sich der Cursor befindet, geklickt werden und eine Auswahl erfolgen. Das Sensorelement erhält in dieser Ausführungsform eine zusätzliche „Mausfunktionalität“.Furthermore, it is preferred that the determination of the position of the sensor device in space relative to the referencing device is used to control a cursor on a screen. The sensor device advantageously has an operating element, preferably a capacitively sensitive surface element. The sensor device can then be moved in space to move a cursor on a screen. The operating element can then be used, for example, to click on a button over which the cursor is located and make a selection. In this embodiment, the sensor element has an additional “mouse functionality”.

Ferner ist bevorzugt, dass die Sensoreinrichtung wenigstens einen taktilen Sensor aufweist, wobei vorzugsweise der taktile Sensor zur Detektion von Berührung des Objekts vorgesehen ist. Eine derartige Berührung ist grundsätzlich unerwünscht, sodass die Detektion einer Berührung der Vermeidung einer Berührung dienen kann. Allerdings ergibt sich durch die Detektion einer Berührung auch eine weitere Information über die 3D-Beschaffenheit des Objekts da ja im Zeitpunkt der Berührung die Position und Orientierung der Sensoreinrichtung bekannt ist.Furthermore, it is preferred that the sensor device has at least one tactile sensor, the tactile sensor preferably being provided for detecting contact with the object. Such a touch is fundamentally undesirable, so that the detection of a touch can serve to avoid a touch. However, the detection of a touch also results in further information about the 3D nature of the object since the position and orientation of the sensor device is known at the time of the touch.

Die Erfindung betrifft insbesondere auch eine mit einer Sensoreinrichtung zusammenarbeitende Referenzierungseinrichtung zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objektes, wobei die Referenzierungseinrichtung zweite Mittel aufweist, um die Position und Orientierung einer Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen. Die ersten und zweiten Mittel arbeiten zusammen, um mittels Ultraschalllaufzeitmessung die Position und Orientierung einer Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen. Die Referenzierungseinrichtung ist an dem zu vermessenden Objekt angebracht und die Bestimmung der Position und Orientierung einer Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung bestimmt damit auch die die Position und Orientierung einer Sensoreinrichtung im Raum relativ zu dem zu vermessenden Objekt.The invention also relates in particular to a referencing device that works together with a sensor device for acquiring 3D surface data of an object to be measured, the referencing device having second means for determining the position and orientation of a sensor device in space relative to the referencing device. The first and second means work together in order to determine the position and orientation of a sensor device in space relative to the referencing device by means of ultrasonic time-of-flight measurement. The referencing device is attached to the object to be measured and the determination of the position and orientation of a sensor device in space relative to the referencing device thus also determines the position and orientation of a sensor device in space relative to the object to be measured.

Bevorzugt ist dabei, dass die zweiten Mittel wenigstens drei Ultraschallempfänger und vorzugsweise, zur Erhöhung der Messgenauigkeit der Ultraschalllaufzeitmessung, eine Vielzahl von Ultraschallempfängern aufweisen. Diese sind vorzugsweise ringförmig angeordnet.It is preferred that the second means have at least three ultrasonic receivers and preferably a large number of ultrasonic receivers to increase the measuring accuracy of the ultrasonic transit time measurement. These are preferably arranged in a ring.

Gemäß einer messtechnisch bevorzugten Ausführungsform der Erfindung weist die Referenzierungseinrichtung ferner Kalibrierungsmittel auf, um die Bestimmung der Position und Orientierung der Sensoreinrichtung zu kalibrieren. Dabei ist vorzugsweise die Sensoreinrichtung ein optischer Sensor und die Kalibrierungsmittel weisen wenigstens eine optische Markierung aufweist. Die Ultraschalllaufzeitmessung wird daher über eine gleichzeitige optische Messung kalibriert. Eine derartige Kalibrierung ist deshalb besonders vorteilhaft, da die Laufzeit von Ultraschallsignalen von der Temperatur und der Feuchtigkeit der Luft, in welcher sie sich ausbreiten, abhängt. Die Erfindung verwendet bevorzugt die optischen Bilderfassungsmittel, welche ohnehin zur Vermessung des Ohrs vorgesehen sind, um optische Markierungen an bekannten Positionen zu erkennen, während die Position und Orientierung der Sensoreinrichtung per Ultraschall bestimmt wird, sodass die Ultraschalllaufzeitmessungen anfänglich kalibriert werden können. Im Unterschied zum Stand der Technik werden die optischen Markierungen nicht zusammen mit den Aufnahmen des Objekts und nur vor Beginn der eigentlichen Messung, d.h. zeitlich (vorab) und örtlich (weiter weg vom Ohr) getrennt, aufgenommen.According to an embodiment of the invention that is preferred in terms of measurement technology, the referencing device also has calibration means in order to calibrate the determination of the position and orientation of the sensor device. In this case, the sensor device is preferably an optical sensor and the calibration means have at least one optical marking. The ultrasonic transit time measurement is therefore calibrated using a simultaneous optical measurement. Such a calibration is particularly advantageous because the propagation time of ultrasonic signals depends on the temperature and humidity of the air in which they propagate. The invention preferably uses the optical imaging means, which are already provided for measuring the ear, to detect optical markings at known positions, while the position and orientation of the sensor device is determined ultrasonically, so that the ultrasonic transit time measurements can be initially calibrated. In contrast to the status of technology, the optical markings are not recorded together with the recordings of the object and only before the start of the actual measurement, ie separately in terms of time (in advance) and location (further away from the ear).

In einer konstruktiv bevorzugten Variante der Erfindung ist die Referenzierungseinrichtung als eine an dem Objekt anbringbare Halteeinrichtung ausgebildet. Vorzugsweise ist die Referenzierungseinrichtung an einem Kopf eines Anwenders tragbarer Bügel ausgebildet. Vorteilhafterweise weist dabei der Bügel an einem Ende einen Ring auf, welcher vorzugsweise in bestimmungsgemäßer Anbringlage um das Objekt, welches vorzugsweise das Ohr eines Anwenders ist, angeordnet ist. Zur besseren Befestigung weist vorzugsweise der Bügel an einem dem einen Ende gegenüberliegenden Ende eine Gegenhalteauflage aufweist. Bevorzugt ist dabei, dass die zweiten Mittel und die Kalibrierungsmittel an dem Ring ausgebildet sind. Ferner weist die Referenzierungseinrichtung einen Bildschirm auf. Vorteilhafterweise ist der Bildschirm oberhalb des Rings und auf derselben Seite des Bügels wie der Ring angeordnet. Der Kopf eines Anwenders wird hierbei zur Halterung von Komponenten, insbesondere des Bildschirms, verwendet. Im Unterschied zum Stand der Technik ist hierbei besonders vorteilhaft, dass insbesondere der Bildschirm nicht mehr in der handgehaltenen Sensoreinrichtung verbaut ist, sodass diese leicht und handlich ausgebildet sein kann.In a structurally preferred variant of the invention, the referencing device is designed as a holding device that can be attached to the object. The referencing device is preferably formed on a head of a wearable bracket user. Advantageously, the bracket has a ring at one end, which is preferably arranged around the object, which is preferably the ear of a user, in the intended mounting position. For better attachment, the bracket preferably has a counter-support support at an end opposite the one end. It is preferred that the second means and the calibration means are formed on the ring. Furthermore, the referencing device has a screen. Advantageously, the screen is placed above the ring and on the same side of the temple as the ring. A user's head is used to hold components, in particular the screen. In contrast to the prior art, it is particularly advantageous here that the screen in particular is no longer installed in the hand-held sensor device, so that it can be designed to be light and handy.

Die Erfindung betrifft insbesondere auch ein System zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, wobei das System eine handhaltbare Sensoreinrichtung und eine Referenzierungseinrichtung aufweist, wobei die Sensoreinrichtung erste Mittel aufweist, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen und wobei die Referenzierungseinrichtung zweite Mittel aufweist, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen. Die ersten und zweiten Mittel arbeiten zusammen, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung. Vorzugsweise sind die ersten und zweiten Mittel Ultraschallemitter und -empfänger und die 3D-Raumlage (Position und Orientierung) der Sensoreinrichtung wird durch Ultraschalllaufzeitmessungen ermittelt.The invention also relates in particular to a system for acquiring 3D surface data of an object to be measured, the system having a hand-held sensor device and a referencing device, the sensor device having first means for determining the position and orientation of the sensor device in space relative to the referencing device determine and wherein the referencing device has second means to determine the position and orientation of the sensor device in space relative to the referencing device. The first and second means cooperate to determine the position and orientation of the sensor device in space relative to the referencing device. The first and second means are preferably ultrasonic emitters and receivers, and the 3D spatial position (position and orientation) of the sensor device is determined by ultrasonic propagation time measurements.

Ferner ist bevorzugt, dass das System, welches vorzugsweise ein In-Ohr-Scanner oder ein Intraoralscanner ist, ferner eines oder mehrere der folgenden aufweist:

  • - Mittel zum Übertragen von Bildern, welche von den Bilderfassungsmitteln der Sensoreinrichtung erfasst wurden, zur Anzeige auf dem Bildschirm der Referenzierungseinrichtung;
  • - Mittel zum Ansteuern eines Cursors auf dem Bildschirm der Referenzierungseinrichtung mittels der Sensoreinrichtung durch die bestimmte Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung;
  • - Mittel zum Betätigen eines Cursors auf dem Bildschirm der Referenzierungseinrichtung mittels Detektion der Betätigung des Bedienelements der Sensoreinrichtung;
  • - Mittel zum Erfassen von Aufnahmen des Objekts mit den Bilderfassungsmitteln der Sensoreinrichtung, wobei bei jeder Aufnahme die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung mitbestimmt wird;
  • - Mittel, welche die wenigstens drei Ultraschallemitter zur Emission von Ultraschallsignalen ansteuern und aus der mittels der Vielzahl Ultraschallempfängern ermittelten Laufzeiten der Ultraschallsignale die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung bestimmen;
  • - Mittel zum Zusammensetzen der Aufnahmen zur Erstellung eines 3D-Models des Objekts. Diese Mittel sind vorzugsweise außerhalb der Sensoreinrichtung und der Referenzierungseinrichtung und zwar vorteilhafterweise in einer externen Steuereinheit und/oder einem PC.
Furthermore, it is preferred that the system, which is preferably an in-ear scanner or an intraoral scanner, also has one or more of the following:
  • - means for transmitting images captured by the image capture means of the sensor device for display on the screen of the referencing device;
  • - Means for controlling a cursor on the screen of the referencing device by means of the sensor device through the determined position and orientation of the sensor device in space relative to the referencing device;
  • - Means for actuating a cursor on the screen of the referencing device by detecting the actuation of the operating element of the sensor device;
  • - Means for capturing images of the object with the image capturing means of the sensor device, with the position and orientation of the sensor device in space relative to the referencing device also being determined for each recording;
  • Means which control the at least three ultrasonic emitters to emit ultrasonic signals and determine the position and orientation of the sensor device in space relative to the referencing device from the propagation times of the ultrasonic signals determined by means of the plurality of ultrasonic receivers;
  • - Means for assembling the recordings to create a 3D model of the object. These means are preferably outside the sensor device and the referencing device, specifically advantageously in an external control unit and/or a PC.

Die Erfindung betrifft insbesondere auch ein Verfahren zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, mit einer handhaltbare Sensoreinrichtung und einer Referenzierungseinrichtung aufweist, wobei die Sensoreinrichtung erste Mittel aufweist, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen und wobei die Referenzierungseinrichtung zweite Mittel aufweist, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen, wobei das Verfahren folgende Schritte aufweist:

  1. (a) Erfassen von Aufnahmen des Objekts mit den Bilderfassungsmitteln der Sensoreinrichtung, wobei bei jeder Aufnahme die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung mitbestimmt wird; und
  2. (b) Zusammensetzen der Aufnahmen zur Erstellung eines 3D-Models des Objekts unter Verwendung der in Schritt (a) miterfassten Position und Orientierung der Sensoreinrichtung.
The invention also relates in particular to a method for acquiring 3D surface data of an object to be measured, having a hand-held sensor device and a referencing device, the sensor device having first means for determining the position and orientation of the sensor device in space relative to the referencing device and wherein the referencing device has second means to determine the position and orientation of the sensor device in space relative to the referencing device, the method having the following steps:
  1. (a) capturing images of the object with the image capturing means of the sensor device, with the position and orientation of the sensor device in space relative to the referencing device also being determined for each image; and
  2. (b) Compiling the recordings to create a 3D model of the object using the position and orientation of the sensor device also recorded in step (a).

Bevorzugt wird vor Beginn des Verfahrens folgender Schritt durchgeführt:

  • - Kalibrieren der Erfassung der Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung durch Anhalten der Sensoreinrichtung an wenigstens eine vorgegebene Stelle der Referenzierungseinrichtung und Erfassen mit den Bilderfassungsmitteln der Sensoreinrichtung von wenigstens einer optischen Markierung, welche an der wenigstens einen vorgegebenen Stelle der Referenzierungseinrichtung angeordnet ist, bei gleichzeitiger Erfassung der Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung.
The following step is preferably carried out before the start of the method:
  • - Calibrating the detection of the position and orientation of the sensor device in space relative to the referencing device by stopping the sensor device at at least one specified point on the referencing device and capturing with the image capturing means of the sensor device at least one optical marking which is arranged at the at least one specified point on the referencing device is, with simultaneous detection of the position and orientation of the sensor device in space relative to the referencing device.

Vorzugsweise erfolgt dabei die Erfassung der Position und Orientierung der Sensoreinrichtung im Raum mittels Ultraschalllaufzeitmessung.In this case, the position and orientation of the sensor device in space is preferably detected by means of ultrasonic time-of-flight measurement.

Ferner ist bevorzugt, dass im Schritt (a) jeweils eine Aufnahme des Objekts mit den Bilderfassungsmitteln der Sensoreinrichtung zwei Bilder aufweist, welche von zwei Kameras mit überlappendem Erfassungsbereich aufgenommen wurden.Furthermore, it is preferred that in step (a) each recording of the object with the image recording means of the sensor device has two images which were recorded by two cameras with an overlapping recording area.

Vorzugsweise wird während der Aufnahme der Bildererfassungsmittel ein strukturiertes Muster auf das Objekt projiziert.A structured pattern is preferably projected onto the object during the recording of the image acquisition means.

Weitere bevorzugte Ausführungsformen der Erfindung sind in den abhängigen Patentansprüchen offenbart.Further preferred embodiments of the invention are disclosed in the dependent claims.

Die Erfindung, sowie weitere Merkmale, Ziele, Vorteile und Anwendungsmöglichkeiten derselben, wird bzw. werden nachfolgend anhand einer Beschreibung von bevorzugten Ausführungsbeispielen unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. In den Zeichnungen bezeichnen dieselben Bezugszeichen dieselben bzw. entsprechende Elemente. The invention, as well as further features, aims, advantages and possible applications of the same, will be explained in more detail below using a description of preferred exemplary embodiments with reference to the attached drawings. In the drawings, the same reference numbers designate the same or corresponding elements.

Dabei bilden alle beschriebenen und/oder bildlich dargestellten Merkmale für sich oder in beliebiger sinnvoller Kombination den Gegenstand der vorliegenden Erfindung und zwar unabhängig von ihrer Zusammenfassung in den Patentansprüchen oder deren Rückbeziehung. In den Zeichnungen zeigen:

  • 1 eine schematische Ansicht eines bevorzugten Ausführungsbeispiels der vorliegenden Erfindung, welche ein In-Ohr-Scannersystem mit insbesondere einer handgehaltenen Sensoreinrichtung und einer Referenzierungseinrichtung zeigt;
  • 2 eine schematische perspektivische Ansicht von vorne auf die handgehaltene Sensoreinrichtung gemäß 1;
  • 3 eine schematische Querschnittsansicht der Referenzierungseinrichtung gemäß 1; und
  • 4 eine schematisches Blockschaltbild des In-Ohr-Scannersystems gemäß 1.
All of the features described and/or illustrated form the subject matter of the present invention, either alone or in any meaningful combination, regardless of their summary in the claims or their back-reference. In the drawings show:
  • 1 a schematic view of a preferred embodiment of the present invention, which shows an in-ear scanner system with in particular a hand-held sensor device and a referencing device;
  • 2 a schematic perspective view from the front of the hand-held sensor device according to FIG 1 ;
  • 3 a schematic cross-sectional view of the referencing device according to FIG 1 ; and
  • 4 a schematic block diagram of the in-ear scanner system according to FIG 1 .

Anhand der beigefügten Zeichnungen wird im Folgenden ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung in Form eines Audiologie- bzw. (In-)Ohr-Scanners, welcher die 3D-Beschaffenheit eines Ohres 11 eines Patienten direkt am Patienten erfassen kann, ohne hierfür innerhalb der Prozesskette einen physikalischen Abdruck der 3D-Beschaffenheit des Ohres 11 abnehmen zu müssen, näher erläutert. Bestandteile dieses Ohr-Scanners sind insbesondere zwei Komponenten, im Folgenden als handgehaltene Sensoreinrichtung bzw. Handstück 20 und Referenzierungseinrichtung 8 bezeichnet. Die Referenzierungseinrichtung 8 weist eine feste Bezugsposition relativ zum Ohr 11 des Patienten auf und dient der Lagebestimmung des Handstückes 20 relativ zum Ohr 11. Hierzu besitzt das Handstück 20 drei oder mehr Signalgeneratoren 21, 22, 23. Die Referenzierungseinrichtung 8 besitzt drei oder mehr Empfangseinheiten, vorzugsweise sechs Empfangseinheiten 10, 12, 14, 16, 18, 19. Die Empfangseinheiten 10, 12, 14, 16, 18, 19 der Referenzierungseinrichtung 8 empfangen die von den Signalgeneratoren 21, 22, 23 des Handstückes 20 ausgehenden Signale im zeitlichen Verlauf zu einer gemeinsamen Zeitbasis relativ zur Signalgenerierung. Die Laufzeitmessung aus den Signalstrecken der jeweiligen Kombinationen aus Signalgeneratoren und Empfangseinheiten erlaubt eine eindeutige Lagebestimmung des Handstückes 8 relativ zur Referenzierungseinrichtung 8 und somit zum Ohr 11. Zur Kalibration der Lagebestimmung besitzt die Referenzierungseinrichtung 8 einen oder mehr feste und eindeutige Referenzpunkte 9, 13, 17, an die das Handstück 20 angehalten werden kann. Durch Messung der Laufzeiten der Signalstrecken der jeweiligen Kombinationen aus Signalgeneratoren und Empfangseinheiten des Handstückes 20 bei Anhalten an die festen, eindeutigen Positionen dieser Referenzpunkte 9, 13, 17 kann die Lagebestimmung des Handstücks 20 kalibriert werden. Das Handstück 20 selbst besitzt eine Messspitze 3, welche an die Ohrmuschel 11 angehalten oder in den Ohrkanal 15 bis vor das Trommelfell eingeführt werden kann. Die Messspitze 3 besitzt zwei oder mehr Kameras 2, welche einen überlappenden Erfassungsbereich aufweisen. Zur Orientierung der in das Ohr 11 eingeführten Messspitze 3 ist an der Referenzierungseinrichtung 8 ein Bildschirm 27 angebracht, welcher ein Live-Bild des überlappenden Erfassungsbereichs der Kameras 2 an der Messspitze 3 anzeigt. Eine oder mehrere Lichtquellen, z.B. in Form einer Glasfaser 5, an der Messspitze 3 führen zu einer homogenen Ausleuchtung des überlappenden Erfassungsbereiches. Hierdurch ist eine stereoskopische Erfassung und somit Messung der 3D-Beschaffenheit der im Erfassungsbereich befindlichen Oberfläche möglich. Hierbei werden einzelne Oberflächenpunkte als eindeutige Merkmale (Features) in den jeweiligen Erfassungsbereichen der Kameras 2 zugeordnet und über Triangulation die Entfernung zur Messspitze 3 bestimmt. Um bei strukturlosen Oberflächen eine Erhöhung der Merkmaldichte zu erreichen, ist die Messspitze 3 mit einer oder mehreren zusätzlichen Lichtquellen ausgestattet, welche eine strukturierte Beleuchtung aufweisen. Eine so beleuchtete strukturlose Oberfläche wird hierdurch strukturiert und somit die erfassbare eindeutige Merkmaldichte erhöht. Durch Bewegung der Messspitze 3 können den jeweiligen Erfassungsbereichen benachbarte Oberflächensegmente sequentiell erfasst werden. Durch die zuvor beschriebene gleichzeitige Lagebestimmung des Handstückes 20 und somit der Messspitze 3 ist eine Kombination dieser sequentiell erfassten Oberflächensegmente zu einem gemeinsamen 3D-Modell möglich. Zur Erfassung von zusätzlichen Oberflächenpunkten und/oder zur Erfassung von Bereichen außerhalb der überlappenden Erfassungsbereiche der Kameras 2 ist die Messspitze 3 zusätzlich mit einem berührungssensitiven Sensor 7 ausgestattet. Bei Berührung mit der zu erfassenden Oberfläche durch diesen Sensor 7 sowie der gleichzeitigen Lagebestimmung des Handstückes 20 können einzelne Messpunkte der Oberfläche erfasst werden. Durch Bewegung der Messspitze 3 und sensorische Erfassung weiterer Berührungspunkte können somit auch hier benachbarte Oberflächenpunkte sequentiell erfasst werden und zu einem gemeinsamen 3D-Datensatz der Oberfläche kombiniert werden. Bedient wird das Gesamtsystem dieses Audiologie-Scanners im Zusammenspiel mit Handstück, Referenzierungseinrichtung und dem an der Referenzierungseinrichtung angebrachten Bildschirm 27. Hierbei wird die jeweilige Lage des Handstückes im Raum in eine korrespondierende Position eines Cursors 28 auf dem Bildschirm 27 übertragen. Einzelne auf dem Bildschirm 27 angezeigte Menüpunkte (hier exemplarisch gezeigt; 29, 30) und/oder Funktionen werden über die jeweilige Lage des Handstückes im Raum ausgewählt. Eine Auswahl-Bestätigung erfolgt über ein einzelnes oder mehrere am Handstück angebrachte Bedienelemente, welche bei Berührung reagieren. Ebenfalls über ein einzelnes oder mehrere Bedienelemente wird zwischen Navigations-Modus und Auslösen eines 3D-Scans gewechselt. Zur Ablaufsteuerung bzw. Ansteuerung der Komponenten und Datenerfassung ist eine Steuereinheit 32 und ein PC 33 vorgesehen.Based on the accompanying drawings, a preferred embodiment of the present invention in the form of an audiology or (in) ear scanner, which can capture the 3D nature of a patient's ear 11 directly on the patient, without having to do this within the process chain physical impression of the 3D nature of the ear 11 to have removed, explained in more detail. Parts of this ear scanner are, in particular, two components, referred to below as hand-held sensor device or handpiece 20 and referencing device 8 . The referencing device 8 has a fixed reference position relative to the patient's ear 11 and is used to determine the position of the handpiece 20 relative to the ear 11. For this purpose, the handpiece 20 has three or more signal generators 21, 22, 23. The referencing device 8 has three or more receiving units, preferably six receiving units 10, 12, 14, 16, 18, 19. The receiving units 10, 12, 14, 16, 18, 19 of the referencing device 8 receive the signals emanating from the signal generators 21, 22, 23 of the handpiece 20 over time a common time base relative to signal generation. The propagation time measurement from the signal paths of the respective combinations of signal generators and receiving units allows a clear determination of the position of the handpiece 8 relative to the referencing device 8 and thus to the ear 11. To calibrate the determination of the position, the referencing device 8 has one or more fixed and clear reference points 9, 13, 17, at which the handpiece 20 can be stopped. By measuring the propagation times of the signal paths of the respective combinations of signal generators and receiving units of the handpiece 20 when stopping at the fixed, unambiguous positions of these reference points 9, 13, 17, the determination of the position of the handpiece 20 can be calibrated. The handpiece 20 itself has a measuring tip 3, which can be held against the auricle 11 or inserted into the ear canal 15 up to the eardrum. The measuring tip 3 has two or more cameras 2, which have an overlapping detection area. In order to orientate the measuring tip 3 inserted into the ear 11 , a screen 27 is attached to the referencing device 8 and displays a live image of the overlapping detection area of the cameras 2 on the measuring tip 3 . One or more light sources, for example in the form of a glass fiber 5, on the measuring tip 3 lead to a homogeneous illumination of the overlapping detection area. Through this stereoscopic detection and thus measurement of the 3D condition of the surface in the detection area is possible. Here, individual surface points are assigned as unambiguous characteristics (features) in the respective detection areas of the cameras 2 and the distance to the measuring tip 3 is determined via triangulation. In order to achieve an increase in feature density in the case of unstructured surfaces, the measuring tip 3 is equipped with one or more additional light sources which have structured illumination. An unstructured surface illuminated in this way is structured as a result, and the detectable, unambiguous feature density is thus increased. By moving the measuring tip 3, surface segments adjacent to the respective detection areas can be detected sequentially. The previously described simultaneous determination of the position of the handpiece 20 and thus of the measuring tip 3 makes it possible to combine these sequentially recorded surface segments into a common 3D model. The measuring tip 3 is additionally equipped with a touch-sensitive sensor 7 for detecting additional surface points and/or for detecting areas outside the overlapping detection areas of the cameras 2 . When this sensor 7 touches the surface to be detected and the position of the handpiece 20 is determined at the same time, individual measuring points of the surface can be detected. By moving the measuring tip 3 and detecting other contact points by sensors, neighboring surface points can also be detected sequentially here and combined to form a common 3D data set of the surface. The overall system of this audiology scanner is operated in conjunction with the handpiece, referencing device and screen 27 attached to the referencing device. Individual menu items displayed on the screen 27 (shown here as an example; 29, 30) and/or functions are selected via the respective position of the handpiece in space. A selection is confirmed via one or more operating elements attached to the handpiece, which react when touched. You can also switch between navigation mode and triggering a 3D scan using a single or multiple operating elements. A control unit 32 and a PC 33 are provided for sequence control or activation of the components and data acquisition.

Die 1, 2, 3 und 4 zeigen schematisch ein Ausführungsbeispiel des Konzepts eines Audiologie-Scanners als Gegenstand dieser Erfindungsmeldung, welcher die 3D-Beschaffenheit des Ohres eines Patienten direkt am Patienten erfassen kann, unter Nutzung eines Handstücks 20 mit Messspitze 3 und einer Referenzierungseinrichtung 8 mit Haltebügel 26 und Gegenhalteauflage 31 zur Lagebestimmung des Handstückes relativ zum zu scannenden Ohr 11 und Ohrkanal 15. Die Messspitze 3 (siehe die schematisch vergrößerte Darstellung der 1) besteht in diesem Ausführungsbeispiel aus einer metallischen Führung in Form eines Röhrchens 1, welches an die Ohrmuschel des Ohres 11 angehalten oder in den Ohrkanal 15 eines Ohrs 11 eingeführt werden kann. Am Öffnungsende dieses Röhrchens 1 sind zwei Kameras 2 mit überlappendem Erfassungsbereich eingelassen, welche stereoskopische Aufnahmen zur 3D-Datengenerierung des Ohres mit Ohrmuschel 11 und Ohrkanal 15 ermöglichen. Zur Ausleuchtung des überlappenden Erfassungsbereiches der beiden Kameras 2 wird hier eine Glasfaser eingesetzt, deren Austrittsende 5 in Richtung des überlappenden Erfassungsbereiches zeigt. Durch Einkopplung von Licht am anderen Ende der Glasfaser wird so eine homogene Ausleuchtung des überlappenden Erfassungsbereiches der beiden Kameras 2 erzielt. Eine Mikroprojektionseinheit 6, bestehend aus einem Lichtemitter, vorgeschalteter Maske mit einem strukturierten Muster sowie einer abbildenden Optik, erzeugt im überlappenden Erfassungsbereich der beiden Kameras 2 eine strukturierte Beleuchtung. Zum Schutz der Kameras 2 sowie der Glasfaser 5 und Mikroprojektionseinheit 6 dient ein diesen Einheiten vorgelagertes, planparalleles Schutzglas 4. Neben diesen Komponenten 2, 4, 5, 6 zur optischen Erfassung der 3D-Beschaffenheit innerhalb des Erfassungsbereiches der beiden Kameras, besitzt diese Messspitze 3 einen berührungssensitiven Sensor 7. Dies kann beispielsweise ein kapazitiver Sensor sein, der bei Kontakt mit dem Patienten im Ohrkanal 15 über eine kapazitive Kopplung die Berührung detektieren kann. Diese beschriebene Messspitze 3 des Handstücks 20 ist über Verstrebungen mit drei orthogonal ausgerichteten Signalemittern 21, 22, 23 verbunden. In diesem Ausführungsbeispiel können dies sequentiell Impulse emittierende Ultraschallemitter sein. Die von diesen Emittern 21, 22, 23 ausgehenden Impulse werden von einer Referenzierungseinrichtung 8 detektiert, welches ortsfest über einen Haltebügel 26 mit einer Gegenhalteauflage 31 relativ zu einem zu erfassenden Ohr 11 eines Kopfes 25 platziert ist. Dieses System besteht in diesem Ausführungsbeispiel aus sechs Empfangseinheiten 10, 12, 14, 16, 18, 19 in Form von Ultraschallempfängern, welche ringförmig miteinander verbunden sind. Diese erfassen die von den Signalemittern 21, 22, 23 ausgehende Impulse im zeitlichen Verlauf zu einer gemeinsamen Zeitbasis relativ zur Signalgenerierung. Die Laufzeitmessung aus den Signalstrecken der jeweiligen Kombinationen aus Signalgeneratoren 21, 22, 23 und Empfangseinheiten 10, 12, 14, 16, 18, 19 erlaubt eine eindeutige Lagebestimmung des Handstückes 20 relativ zur Referenzierungseinrichtung 8 und somit zum Ohr 11. Zur Kalibration der Lagebestimmung besitzt die Referenzierungseinrichtung 8 in diesem Ausführungsbeispiel drei feste und eindeutige Referenzpunkte 9, 13, 17 in Form von modifizierten Punktcodierungen (Quick-Response-Codes, QR-Codes), welche die Kameras 2 bei Annäherung in ihrer lokalen 3D-Ausrichtung in Bezug zum Handstück 20 erfassen können. Durch diese optische Messung dieser drei Referenzpunkte 9, 13, 17 mit gleichzeitiger Messung der Laufzeit aus den Signalstrecken der jeweiligen Kombinationen aus Signalgeneratoren 21, 22, 23 und Empfangseinheiten 10, 12, 14, 16, 18, 19 kann die Lagebestimmung des Handstücks kalibriert werden. Bedient wird das Gesamtsystem dieses Audiologie-Scanners im Zusammenspiel mit Handstück 20, Referenzierungseinrichtung 8 und dem an der Referenzierungseinrichtung 8 angebrachten Bildschirm 27. Hierbei wird die jeweilige Lage des Handstückes 20 im Raum in eine korrespondierende Position eines Cursors 28 auf dem Bildschirm 27 übertragen. Referenzierungseinrichtung 8 und Bildschirm 27 sind in diesem Ausführungsbeispiel fest über einen Haltebügel 26 relativ zueinander mechanisch verbunden. Einzelne auf dem Bildschirm 27 angezeigte Menüpunkte (hier exemplarisch gezeigt; 29, 30) können hierdurch über die jeweilige Lage des Handstückes im Raum und der korrespondierenden Position des Cursors 28 auf dem Bildschirm 27 ausgewählt werden. Eine Auswahl-Bestätigung erfolgt in diesem Ausführungsbeispiel über ein einzelnes Bedienelement am Handstück 20 in Form einer kapazitiv sensitiven Fläche 24. Ebenfalls über dieses einzelne Bedienelement 24 wird zwischen Navigations-Modus und Auslösen eines 3D-Scans gewechselt.The 1 , 2 , 3 and 4 schematically show an embodiment of the concept of an audiology scanner as the subject of this invention disclosure, which can capture the 3D nature of a patient's ear directly on the patient, using a handpiece 20 with a measuring tip 3 and a referencing device 8 with a bracket 26 and counter-support pad 31 for position determination of the handpiece relative to the ear 11 and ear canal 15 to be scanned. The measuring tip 3 (see the schematically enlarged representation of the 1 ) consists in this embodiment of a metallic guide in the form of a tube 1, which can be stopped at the auricle of the ear 11 or inserted into the ear canal 15 of an ear 11. At the opening end of this tube 1, two cameras 2 with an overlapping detection area are let in, which enable stereoscopic recordings for 3D data generation of the ear with auricle 11 and ear canal 15. To illuminate the overlapping detection area of the two cameras 2, a glass fiber is used here, the exit end 5 of which points in the direction of the overlapping detection area. By coupling light at the other end of the glass fiber, homogeneous illumination of the overlapping detection area of the two cameras 2 is achieved. A micro-projection unit 6, consisting of a light emitter, an upstream mask with a structured pattern and imaging optics, generates structured illumination in the overlapping detection area of the two cameras 2. A plane-parallel protective glass 4 in front of these units serves to protect the cameras 2 as well as the glass fiber 5 and micro-projection unit 6. In addition to these components 2, 4, 5, 6 for the optical detection of the 3D condition within the detection range of the two cameras, this has a measuring tip 3 a touch-sensitive sensor 7. This can be a capacitive sensor, for example, which can detect contact with the patient in the ear canal 15 via a capacitive coupling. This described measuring tip 3 of the handpiece 20 is connected to three orthogonally aligned signal emitters 21, 22, 23 via struts. In this exemplary embodiment, these can be ultrasonic emitters that sequentially emit pulses. The pulses emanating from these emitters 21, 22, 23 are detected by a referencing device 8, which is placed stationary relative to an ear 11 of a head 25 to be detected via a retaining bracket 26 with a counter-support pad 31. In this exemplary embodiment, this system consists of six receiving units 10, 12, 14, 16, 18, 19 in the form of ultrasonic receivers, which are connected to one another in a ring. These record the pulses emitted by the signal emitters 21, 22, 23 over time on a common time base relative to the signal generation. The transit time measurement from the signal paths of the respective combinations of signal generators 21, 22, 23 and receiving units 10, 12, 14, 16, 18, 19 allows an unambiguous determination of the position of the handpiece 20 relative to the referencing unit direction 8 and thus to the ear 11. To calibrate the position determination, the referencing device 8 in this exemplary embodiment has three fixed and unambiguous reference points 9, 13, 17 in the form of modified point codes (quick response codes, QR codes), which the cameras 2 can detect in their local 3D orientation in relation to the handpiece 20 when approaching. This optical measurement of these three reference points 9, 13, 17 with simultaneous measurement of the propagation time from the signal paths of the respective combinations of signal generators 21, 22, 23 and receiving units 10, 12, 14, 16, 18, 19 can be used to calibrate the position of the handpiece . The entire system of this audiology scanner is operated in conjunction with the handpiece 20, the referencing device 8 and the screen 27 attached to the referencing device 8. The respective position of the handpiece 20 in space is transferred to a corresponding position of a cursor 28 on the screen 27. In this exemplary embodiment, the referencing device 8 and the screen 27 are mechanically connected in a fixed manner relative to one another via a holding bracket 26 . Individual menu items displayed on the screen 27 (shown here as an example; 29, 30) can thereby be selected via the respective position of the handpiece in space and the corresponding position of the cursor 28 on the screen 27. In this exemplary embodiment, a selection is confirmed via a single control element on the handpiece 20 in the form of a capacitively sensitive surface 24. This single control element 24 is also used to switch between navigation mode and triggering a 3D scan.

Das als Gegenstand dieser Erfindung beschriebene Ausführungsbeispiel eines neuartigen Audiologie-Scanners, welcher die 3D-Beschaffenheit des Ohres eines Patienten direkt am Patienten erfassen kann, ist auf weitere Einsatzgebiete direkt adaptierbar. So ermöglicht die Erstellung von 3D-Daten mittels Stereoskopie gekoppelt mit einem Lagekontrollsystem nicht nur eine 3D-Datenerfassung in der Audiologie. Der Grundgedanke der vorliegenden Erfindung ist auch auf weitere begrenzte Scanvolumina anwendbar. So ist es ebenfalls denkbar, die Erfindung bei einem Intraoral-Scanner im Dentalbereich zu verwenden. So könnte ein Lagekontrollsystem in Kombination mit einem scannenden Handstück die Scangenauigkeit gegenüber marktüblichen Intraoral-Systemen deutlich erhöhen. Neben diesem Einsatzgebiet sind aber auch weitere industrielle Einsatzmöglichkeiten in begrenzten Scanvolumina denkbar.The exemplary embodiment of a novel audiology scanner described as the subject of this invention, which can record the 3D nature of a patient's ear directly on the patient, can be directly adapted to other areas of use. The creation of 3D data using stereoscopy coupled with a position control system not only enables 3D data acquisition in audiology. The basic idea of the present invention is also applicable to other limited scan volumes. So it is also conceivable to use the invention in an intraoral scanner in the dental field. A position control system in combination with a scanning handpiece could significantly increase the scanning accuracy compared to conventional intraoral systems. In addition to this area of application, other industrial applications with limited scan volumes are also conceivable.

Die Erfindung wurde vorstehend anhand von bevorzugten Ausführungsformen derselben näher erläutert. Für einen Fachmann ist es jedoch offensichtlich, dass unterschiedliche Abwandlungen und Modifikationen gemacht werden können, ohne von dem der Erfindung zugrundeliegenden Gedanken abzuweichen.The invention was explained in more detail above on the basis of preferred embodiments thereof. However, it is obvious to a person skilled in the art that various alterations and modifications can be made without departing from the idea on which the invention is based.

BezugszeichenlisteReference List

11
Röhretube
22
Bilderfassungsmittel bzw. KameraImage acquisition means or camera
33
Messspitzemeasuring tip
44
Schutzglasprotective glass
55
Austrittsende der GlasfaserExit end of the fiber optic
66
Projektionsmittel bzw. MikroprojektionseinheitProjection means or micro projection unit
77
berührungsempfindlicher Sensortouch-sensitive sensor
88th
Referenzierungseinrichtungreferencing device
9, 13, 179, 13, 17
Referenzpunkte bzw. -markierungenReference points or markings
10, 12, 14, 16, 18, 1910, 12, 14, 16, 18, 19
Empfangseinheitenreceiving units
1111
Ohr(muschel)Auricle)
1515
Ohrkanalear canal
2020
Handstück bzw. handgehaltene SensoreinrichtungHandpiece or hand-held sensor device
21, 22, 2321, 22, 23
Ultraschallemitter bzw. SignalemitterUltrasonic emitters or signal emitters
2424
Bedienelementcontrol element
2525
KopfHead
2626
Haltebügelmounting bracket
2727
BildschirmScreen
2828
Cursorcursor
29, 3029, 30
Menüpunktemenu items
3131
Gegenauflagecounter support
3232
Steuereinheitcontrol unit
3333
PCpersonal computer

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 20160051134 A1 [0004]US20160051134A1 [0004]

Claims (32)

Handhaltbare Sensoreinrichtung zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, dadurch gekennzeichnet, dass die Sensoreinrichtung erste Mittel aufweist, um die Position und Orientierung der Sensoreinrichtung im Raum relativ zu einer Referenzierungseinrichtung zu bestimmen.Hand-held sensor device for acquiring 3D surface data of an object to be measured, characterized in that the sensor device has first means for determining the position and orientation of the sensor device in space relative to a referencing device. Sensoreinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die ersten Mittel wenigstens drei Ultraschallemitter aufweisen.sensor device claim 1 , characterized in that the first means have at least three ultrasonic emitters. Sensoreinrichtung nach Anspruch 1 und/oder 2, dadurch gekennzeichnet, dass die Sensoreinrichtung einen Grundkörper in Form einer Röhre aufweist.sensor device claim 1 and/or 2, characterized in that the sensor device has a base body in the form of a tube. Sensoreinrichtung nach einem oder mehreren der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Sensoreinrichtung wenigstens drei Stege aufweist, welche von einem Ende des Grundkörpers im Wesentlichen senkrecht abstehen.Sensor device according to one or more of Claims 1 until 3 , characterized in that the sensor device has at least three webs which protrude substantially perpendicularly from one end of the base body. Sensoreinrichtung nach Anspruch 4, dadurch gekennzeichnet, dass die wenigstens drei Stege im Wesentlichen in einer Ebene angeordnet sind und vorzugsweise jeweils in einem Winkel von ungefähr 90 Grad oder ungefähr 120 Grad zueinander angeordnet sind.sensor device claim 4 , characterized in that the at least three webs are arranged essentially in one plane and are preferably each arranged at an angle of approximately 90 degrees or approximately 120 degrees to one another. Sensoreinrichtung nach Anspruch 2 und einem oder mehreren der Ansprüche 4 bis 5, dadurch gekennzeichnet, dass die wenigstens drei Ultraschallemitter an von dem Grundkörper abgewandten jeweiligen Enden der wenigstens drei Stege angeordnet sind.sensor device claim 2 and one or more of the Claims 4 until 5 , characterized in that the at least three ultrasonic emitters are arranged on the respective ends of the at least three webs facing away from the base body. Sensoreinrichtung nach einem oder mehreren der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass in dem Grundkörper eines oder mehrere der folgenden Gruppe vorgesehen sind: Bilderfassungsmittel, Projektionsmittel zur Projektion eines strukturierten Musters auf das Objekt und/oder Beleuchtungsmittel für das Objekt.Sensor device according to one or more of claims 3 until 6 , characterized in that one or more of the following groups are provided in the base body: image acquisition means, projection means for projecting a structured pattern onto the object and/or lighting means for the object. Sensoreinrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Bilderfassungsmittel zur optischen Erfassung der 3D-Oberflächendaten des Objekts vorgesehen sind und vorzugsweise wenigstens zwei Kameras mit überlappendem Erfassungsbereich aufweisen.sensor device claim 7 , characterized in that the image acquisition means are provided for the optical acquisition of the 3D surface data of the object and preferably have at least two cameras with an overlapping acquisition area. Sensoreinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung der Position der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zur Steuerung eines Cursors auf einem Bildschirm verwendet wird.Sensor device according to one of the preceding claims, characterized in that the determination of the position of the sensor device in space relative to the referencing device is used to control a cursor on a screen. Sensoreinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinrichtung ein Bedienelement, vorzugsweise ein kapazitiv sensitives Flächenelement, aufweist.Sensor device according to one of the preceding claims, characterized in that the sensor device has an operating element, preferably a capacitively sensitive surface element. Sensoreinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinrichtung wenigstens einen taktilen Sensor aufweist.Sensor device according to one of the preceding claims, characterized in that the sensor device has at least one tactile sensor. Sensoreinrichtung nach Anspruch 11, dadurch gekennzeichnet, dass der taktile Sensor zur Detektion von Berührung des Objekts vorgesehen ist.sensor device claim 11 , characterized in that the tactile sensor is provided for detecting contact with the object. Referenzierungseinrichtung zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, dadurch gekennzeichnet, dass die Referenzierungseinrichtung zweite Mittel aufweist, um die Position und Orientierung einer Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung zu bestimmen.Referencing device for acquiring 3D surface data of an object to be measured, characterized in that the referencing device has second means for determining the position and orientation of a sensor device in space relative to the referencing device. Referenzierungseinrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die zweiten Mittel eine Vielzahl von Ultraschallempfängern aufweisen.referencing device Claim 13 , characterized in that the second means have a plurality of ultrasonic receivers. Referenzierungseinrichtung nach Anspruch 13 und/oder 14, dadurch gekennzeichnet, dass die Referenzierungseinrichtung ferner Kalibrierungsmittel aufweist, um die Bestimmung der Position und Orientierung der Sensoreinrichtung zu kalibrieren.referencing device Claim 13 and/or 14, characterized in that the referencing device also has calibration means in order to calibrate the determination of the position and orientation of the sensor device. Referenzierungseinrichtung nach einem oder mehreren der Ansprüche 13 bis 15, dadurch gekennzeichnet, dass die Sensoreinrichtung ein optischer Sensor ist und die Kalibrierungsmittel wenigstens eine optische Markierung aufweisen.Referencing device according to one or more of Claims 13 until 15 , characterized in that the sensor device is an optical sensor and the calibration means have at least one optical marking. Referenzierungseinrichtung nach einem oder mehreren der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass die Referenzierungseinrichtung als eine an dem Objekt anbringbare Halteeinrichtung ausgebildet ist.Referencing device according to one or more of Claims 13 until 16 , characterized in that the referencing device is designed as a holding device that can be attached to the object. Referenzierungseinrichtung nach Anspruch 17, dadurch gekennzeichnet, dass die Referenzierungseinrichtung an einem Kopf eines Anwenders tragbarer Bügel ausgebildet ist.referencing device Claim 17 , characterized in that the referencing device is formed on a head of a wearable bracket user. Referenzierungseinrichtung nach Anspruch 18, dadurch gekennzeichnet, dass der Bügel an einem Ende einen Ring aufweist, welcher vorzugsweise in bestimmungsgemäßer Anbringlage um das Objekt, welches vorzugsweise das Ohr eines Anwenders ist, angeordnet ist.referencing device Claim 18 , characterized in that the bracket has a ring at one end, which is preferably arranged in the intended mounting position around the object, which is preferably the ear of a user. Referenzierungseinrichtung nach Anspruch 18 und/oder 19, dadurch gekennzeichnet, dass der Bügel an einem dem einen Ende gegenüberliegenden Ende eine Gegenhalteauflage aufweist.referencing device Claim 18 and/or 19, characterized in that the bracket has a counter-support support at an end opposite the one end. Referenzierungseinrichtung nach Anspruch 19 und/oder 20, dadurch gekennzeichnet, dass die zweiten Mittel und die Kalibrierungsmittel an dem Ring ausgebildet sind.referencing device claim 19 and/or 20, characterized in that the second means and the calibration means are formed on the ring. Referenzierungseinrichtung nach einem oder mehreren der Ansprüche 13 bis 21, dadurch gekennzeichnet, dass die Referenzierungseinrichtung ferner einen Bildschirm aufweist.Referencing device according to one or more of Claims 13 until 21 , characterized in that the referencing device further comprises a screen. Referenzierungseinrichtung nach einem oder mehreren der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass der Bildschirm oberhalb des Rings und auf derselben Seite des Bügels wie der Ring angeordnet ist.Referencing device according to one or more of claims 19 until 22 , characterized in that the screen is arranged above the ring and on the same side of the temple as the ring. System zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, wobei das System eine Sensoreinrichtung nach einem oder mehreren der Ansprüche 1 bis 12 und eine Referenzierungseinrichtung nach einem oder mehreren der Ansprüche 13 bis 23 aufweist.System for acquiring 3D surface data of an object to be measured, the system having a sensor device according to one or more of Claims 1 until 12 and a referencing device according to one or more of Claims 13 until 23 having. System nach Anspruch 24, wobei das System ferner eines oder mehrere der folgenden aufweist: - Mittel zum Übertragen von Bildern, welche von den Bilderfassungsmitteln der Sensoreinrichtung erfasst wurden, zur Anzeige auf dem Bildschirm der Referenzierungseinrichtung; - Mittel zum Ansteuern eines Cursors auf dem Bildschirm der Referenzierungseinrichtung mittels der Sensoreinrichtung durch die bestimmte Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung; - Mittel zum Betätigen eines Cursors auf dem Bildschirm der Referenzierungseinrichtung mittels Detektion der Betätigung des Bedienelements der Sensoreinrichtung; - Mittel, welche die wenigstens drei Ultraschallemitter zur Emission von Ultraschallsignalen ansteuern und aus der mittels der Vielzahl Ultraschallempfängern ermittelten Laufzeiten der Ultraschallsignale die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung bestimmen; - Mittel zum Erfassen von Aufnahmen des Objekts mit den Bilderfassungsmitteln der Sensoreinrichtung, wobei bei jeder Aufnahme die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung mitbestimmt wird; - Mittel zum Zusammensetzen der Aufnahmen zur Erstellung eines 3D-Models des Objekts.system after Claim 24 wherein the system further comprises one or more of the following: - means for transmitting images captured by the image capturing means of the sensor device for display on the screen of the referencing device; - Means for controlling a cursor on the screen of the referencing device by means of the sensor device through the determined position and orientation of the sensor device in space relative to the referencing device; - Means for actuating a cursor on the screen of the referencing device by detecting the actuation of the operating element of the sensor device; Means which control the at least three ultrasonic emitters to emit ultrasonic signals and determine the position and orientation of the sensor device in space relative to the referencing device from the propagation times of the ultrasonic signals determined by means of the plurality of ultrasonic receivers; - Means for capturing images of the object with the image capturing means of the sensor device, with the position and orientation of the sensor device in space relative to the referencing device also being determined for each recording; - Means for assembling the recordings to create a 3D model of the object. System nach Anspruch 25, wobei das System ein In-Ohr-Scanner oder ein Intraoralscanner ist.system after Claim 25 , where the system is an in-ear scanner or an intraoral scanner. Verfahren zur Erfassung von 3D-Oberflächendaten eines zu vermessenden Objekts, mit einem System nach einem oder mehreren der Ansprüche 24 bis 26, gekennzeichnet durch Folgende Schritte: (a) Erfassen von Aufnahmen des Objekts mit den Bilderfassungsmitteln der Sensoreinrichtung, wobei bei jeder Aufnahme die Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung mitbestimmt wird; und (b) Zusammensetzen der Aufnahmen zur Erstellung eines 3D-Models des Objekts unter Verwendung der in Schritt (a) miterfassten Position und Orientierung der Sensoreinrichtung.Method for acquiring 3D surface data of an object to be measured, with a system according to one or more of claims 24 until 26 , characterized by the following steps: (a) capturing images of the object with the image capturing means of the sensor device, with the position and orientation of the sensor device in space relative to the referencing device also being determined for each recording; and (b) assembling the recordings to create a 3D model of the object using the position and orientation of the sensor device also recorded in step (a). Verfahren nach Anspruch, dadurch gekennzeichnet, dass vor Beginn des Verfahrens folgender Schritt durchgeführt wird: - Kalibrieren der Erfassung der Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung durch Anhalten der Sensoreinrichtung an wenigstens eine vorgegebene Stelle der Referenzierungseinrichtung und Erfassen mit den Bilderfassungsmitteln der Sensoreinrichtung von wenigstens einer optischen Markierung, welche an der wenigstens einen vorgegebenen Stelle der Referenzierungseinrichtung angeordnet ist, bei gleichzeitiger Erfassung der Position und Orientierung der Sensoreinrichtung im Raum relativ zu der Referenzierungseinrichtung.Method according to Claim, characterized in that the following step is carried out before the start of the method: - calibrating the detection of the position and orientation of the sensor device in space relative to the referencing device by stopping the sensor device at at least one predetermined point on the referencing device and recording with the image detection means of the Sensor device of at least one optical marking, which is arranged at the at least one predetermined point of the referencing device, with simultaneous detection of the position and orientation of the sensor device in space relative to the referencing device. Verfahren nach Anspruch 27 und/oder 28, dadurch gekennzeichnet, dass Erfassung der Position und Orientierung der Sensoreinrichtung im Raum mittels Ultraschalllaufzeitmessung erfolgt.procedure after Claim 27 and/or 28, characterized in that the position and orientation of the sensor device in space is detected by means of ultrasonic time-of-flight measurement. Verfahren nach einem oder mehreren der Ansprüche 27 bis 29, dadurch gekennzeichnet, dass im Schritt (a) jeweils eine Aufnahme des Objekts mit den Bilderfassungsmitteln der Sensoreinrichtung zwei Bilder aufweist, welche von zwei Kameras mit überlappendem Erfassungsbereich aufgenommen wurden.Method according to one or more of the claims 27 until 29 , characterized in that in step (a) a recording of the object with the image recording means of the sensor device has two images which were recorded by two cameras with an overlapping recording area. Verfahren nach Anspruch 30, dadurch gekennzeichnet, dass während der Aufnahme der Bildererfassungsmittel ein strukturiertes Muster auf das Objekt projiziert wird.procedure after Claim 30 , characterized in that a structured pattern is projected onto the object during the recording of the image acquisition means. Vorrichtung aufweisend eine Sensoreinrichtung nach einem oder mehreren der Ansprüche 1 bis 12 und eine Referenzierungseinrichtung nach einem oder mehreren der Ansprüche 13 bis 23 zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 27 bis 31.Device comprising a sensor device according to one or more of Claims 1 until 12 and a referencing device according to one or more of Claims 13 until 23 to the Implementation of the method according to one or more of claims 27 until 31 .
DE102021120835.1A 2021-08-10 2021-08-10 Method and system for acquiring 3D surface data of an object to be measured Pending DE102021120835A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021120835.1A DE102021120835A1 (en) 2021-08-10 2021-08-10 Method and system for acquiring 3D surface data of an object to be measured

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021120835.1A DE102021120835A1 (en) 2021-08-10 2021-08-10 Method and system for acquiring 3D surface data of an object to be measured

Publications (1)

Publication Number Publication Date
DE102021120835A1 true DE102021120835A1 (en) 2023-02-16

Family

ID=85040070

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021120835.1A Pending DE102021120835A1 (en) 2021-08-10 2021-08-10 Method and system for acquiring 3D surface data of an object to be measured

Country Status (1)

Country Link
DE (1) DE102021120835A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE20306638U1 (en) 2003-04-28 2003-06-26 Gfe Medizintechnik Gmbh Preparative planning apparatus for operations on soft parts of body, especially breast implants or liposuction, generates preoperative visualization on display after input of planning parameters and control commands
EP2026034A2 (en) 2007-08-16 2009-02-18 Steinbichler Optotechnik Gmbh Device for determining the 3D coordinates of an object, in particular a tooth
US20140200408A1 (en) 2012-03-12 2014-07-17 United Sciences, Llc Otoscanner With Fan And Ring Laser
US20150057533A1 (en) 2011-03-23 2015-02-26 United Sciences, Llc Optical scanning device
US20160051134A1 (en) 2014-08-19 2016-02-25 United Sciences, Llc Guidance of three-dimensional scanning device
JP2020151008A (en) 2019-03-18 2020-09-24 株式会社モリタ製作所 Image processing system, display system, image processing method and image processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE20306638U1 (en) 2003-04-28 2003-06-26 Gfe Medizintechnik Gmbh Preparative planning apparatus for operations on soft parts of body, especially breast implants or liposuction, generates preoperative visualization on display after input of planning parameters and control commands
EP2026034A2 (en) 2007-08-16 2009-02-18 Steinbichler Optotechnik Gmbh Device for determining the 3D coordinates of an object, in particular a tooth
US20150057533A1 (en) 2011-03-23 2015-02-26 United Sciences, Llc Optical scanning device
US20140200408A1 (en) 2012-03-12 2014-07-17 United Sciences, Llc Otoscanner With Fan And Ring Laser
US20160051134A1 (en) 2014-08-19 2016-02-25 United Sciences, Llc Guidance of three-dimensional scanning device
JP2020151008A (en) 2019-03-18 2020-09-24 株式会社モリタ製作所 Image processing system, display system, image processing method and image processing program

Similar Documents

Publication Publication Date Title
DE19950793B4 (en) X-ray device and method for determining imaging parameters
EP2212646B1 (en) Method for optical measurement of objects using a triangulation method
EP1599708B1 (en) Method and device for imaged representation of acoustic objects
WO2008058882A1 (en) Measuring a hollow space by means of cylindrically symmetrical triangulation
EP0755530A1 (en) Method of determining measurement-point position data and device for measuring the magnification of an optical beam path
EP2079981B1 (en) Device and method for the contactless detection of a three-dimensional contour
EP1523285B1 (en) Measuring device for a model and machining device equipped with the same
EP2564763B1 (en) Ophthalmological analysis apparatus and method
EP1805480B1 (en) Method and device for detecting the contour data and/or optical characteristics of a three-dimensional semi-transparent object
EP2903493B1 (en) Stereoscopic imaging system
DE102015212806A1 (en) System and method for scanning anatomical structures and displaying a scan result
WO1995031934A2 (en) Digitised sensing process and arrangement for the three-dimensional shape in space of bodies or body parts
DE112009000100T5 (en) Navigate between images of an object in 3D space
DE102012214473B4 (en) Method for measuring a dental object using a dental camera
EP2584957A1 (en) Device and method for combined optical and nuclear image acquisition
DE102010025752A1 (en) endoscope
DE102016113000A1 (en) Endoscopic device and method for endoscopic examination
DE102014102425B4 (en) Microscope system and microscopy method using digital markers
EP2846729B1 (en) Method for measuring a dental situation
WO2011023784A2 (en) Method and arrangement for determining a combined data record for a masticatory organ to be measured
DE102016118616A1 (en) Measuring device for an optical measuring system
DE112015006164T5 (en) Method for measuring a scanning path of an optical scanning device, device for measuring a scanning path and method for calibrating an image
DE19948620A1 (en) Dental facility
DE102021120835A1 (en) Method and system for acquiring 3D surface data of an object to be measured
EP3303990B1 (en) Lighting control when using optical measuring devices

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0005120000

Ipc: A61B0005107000

R016 Response to examination communication