DE102015222782A1 - Verfahren zur Visualisierung einer Zahnsituation - Google Patents
Verfahren zur Visualisierung einer Zahnsituation Download PDFInfo
- Publication number
- DE102015222782A1 DE102015222782A1 DE102015222782.0A DE102015222782A DE102015222782A1 DE 102015222782 A1 DE102015222782 A1 DE 102015222782A1 DE 102015222782 A DE102015222782 A DE 102015222782A DE 102015222782 A1 DE102015222782 A1 DE 102015222782A1
- Authority
- DE
- Germany
- Prior art keywords
- data set
- face
- tooth
- facial
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/24—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4547—Evaluating teeth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2074—Interface software
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Epidemiology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Dentistry (AREA)
- Primary Health Care (AREA)
- Radiology & Medical Imaging (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Rheumatology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Physical Education & Sports Medicine (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Visualisierung einer Zahnsituation, wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz (1) abgespeichert wird, mittels eines Gesichtserkennungsverfahrens Merkmalspunkte (3) innerhalb des Gesichtsdatensatzes (1) automatisch erkannt werden, anhand der Merkmalspunkte (3) ein zwischen Lippen liegender Mundraum (4) automatisch erkannt wird, anhand der Merkmalspunkte (3) eine Position des Gesichts im Gesichtsdatensatz (1) und eine dreidimensionale Richtung (5) einer Ausrichtung des Gesichts im Gesichtsdatensatz (1) automatisch erkannt wird, ein virtueller Zahndatensatz (2) der Zahnsituation gemäß der dreidimensionalen Richtung (5) der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Gesichtsdatensatz (1) positioniert wird, der Mundraum innerhalb des Gesichtsdatensatzes (1) durch den Zahndatensatz (2) teilweise überlagert und/oder überlagert und/oder ersetzt und das Ergebnis als Visualisierungsdatensatz angezeigt wird.
Description
- Technisches Gebiet
- Die Erfindung betrifft ein Verfahren zur Visualisierung einer Zahnsituation, wobei ein virtueller Zahndatensatz der Zahnsituation vorliegt und wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz abgespeichert wird.
- Stand der Technik
- Bisherige Verfahren zur Visualisierung einer Zahnsituation, beispielsweise zur Visualisierung der Wirkung eines geplanten Zahnersatzes im Gesicht eines Patienten, zeigen meist eine starre oder zumindest drehbare Aufnahme des Patientengesichts, in welches eine virtuelle Zahnsituation mit korrekter Ausrichtung und Positionierung eingefügt ist.
- Ein Verfahren zur Visualisierung einer Zahnsituation ist beispielsweise aus der
DE 20 2008 014 344 U1 , derDE 10 2013 102 421 A1 oder derUS 2012/0095732 A1 - Verschiedene Verfahren zur automatischen Erkennung von Eigenheiten eines Gesichts bzw. von Merkmalspunkten eines Gesichts, in Bildern des Gesichts sind beispielsweise aus D. Vukadinovic und M. Pantic, „Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers" (2005) IEEE International Conference on Systems, Man and Cybernetics, aus M. Dantone et al, „Real-time Facial Feature Detection using Conditional Regression Forests" (2012) IEEE Conference on Computer Vision and Pattern Recognition oder aus der
US 2010/030578 A1 - Aufgabe der vorliegenden Erfindung ist es den Stand der Technik weiterzubilden und zu verbessern.
- Darstellung der Erfindung
- Ein Gegenstand der Erfindung ist ein Verfahren zur Visualisierung einer Zahnsituation, wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz abgespeichert wird, wobei mittels eines Gesichtserkennungsverfahrens Merkmalspunkte innerhalb des Gesichtsdatensatzes automatisch erkannt werden, wobei anhand der Merkmalspunkte ein zwischen Lippen liegender Mundraum automatisch erkannt wird, wobei anhand der Merkmalspunkte eine Position des Gesichts im Gesichtsdatensatz und eine dreidimensionale Richtung einer Ausrichtung des Gesichts im Gesichtsdatensatz automatisch erkannt wird, wobei der Zahndatensatz gemäß der dreidimensionalen Richtung der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Gesichtsdatensatz positioniert wird, wobei der Mundraum innerhalb des Gesichtsdatensatzes durch den Zahndatensatz teilweise überlagert und/oder überlagert und/oder ersetzt und das Ergebnis als Visualisierungsdatensatz angezeigt wird.
- Es sei angemerkt, dass es sich bei der Zahnsituation um eine beliebige Zahnsituation handeln kann, sowohl um einzelne oder mehrere Zähne, als auch um ein Abbild eines vollständigen Gebisses. Beispielsweise kann es sich um einen rein virtuell geplanten oder von einem Modell mittels eines Scans erzeugten Datensatz eines geplanten Zahnersatzes handeln. Es kann auch ein beispielsweise mittels einer Kamera erzeugter Datensatz der tatsächlichen Zahnsituation sein. Letzterer kann beispielsweise um Zahnersatzteile ergänzt oder manipuliert worden sein, um z.B. das geplante Ergebnis einer kieferorthopädischen Behandlung wiederzugeben.
- Die Merkmalspunkte, häufig auch als Facial Feature Points (FFP) oder als biometrische Merkmalspunkte bezeichnet, sind Punkte, welche im Rahmen eines zweidimensionalen oder dreidimensionalen Gesichtserkennungsverfahrens innerhalb eines Gesichts automatisch, d.h. mittels eines Rechners und ohne Interaktion des Anwenders, erkennbar sind, z.B. die Nasenspitze, die Mundwinkel, die Augen etc.
- Ein Vorteil des erfindungsgemäßen Verfahren ist, dass eine geplante Zahnsituation für einen Patienten oder einen behandelnden Arzt oder Zahntechniker innerhalb des Patientengesichts visualisiert werden kann. Die Kombination von aktuellen, die Realität abbildenden Daten mit virtuellen Daten wird häufig als Augmented Reality, also angereicherte Realität bezeichnet. Die Wirkung der geplanten Zahnsituation wird insbesondere durch vollständige Überlagerung oder Ersetzen der aktuellen Zahnsituation durch die geplante Zahnsituation veranschaulicht. Durch eine teilweise Überlagerung der aktuellen Zahnsituation können eine geplante Zahnsituation und eine aktuelle Zahnsituation gleichzeitig dargestellt werden. Beispielsweise können die geplante Zahnsituation und die aktuelle Zahnsituation, also der Bereich des Gesichtsdatensatzes, der sich innerhalb der Mundhöhle befindet, unterschiedlich eingefärbt und transparent dargestellt werden. Hierdurch kann beispielsweise während der Durchführung einer Präparation der aktuellen Zahnsituation die Übereinstimmung oder Abweichung von einer geplanten Zahnsituation überprüft werden.
- Vorteilhafterweise ist der Gesichtsdatensatz zweidimensional oder dreidimensional. Ein zweidimensionaler Datensatz ist einfach bzw. mit einer einfachen Vorrichtung, z.B. einer Kamera, erzeugbar, während durch einen dreidimensionalen Datensatz eine bessere Qualität des Visualisierungdatensatzes erreicht werden kann.
- Vorteilhafterweise ist der Zahndatensatz dreidimensional. So kann der Zahndatensatz auf einfache Weise in einer an die Ausrichtung des Gesichts im Gesichtsdatensatz angepassten Ausrichtung mit dem Gesichtsdatensatz kombiniert bzw. im Rahmen des Visualisierungsdatensatzes dargestellt werden.
- Vorteilhafterweise wird das Verfahren in zeitlichen Abständen wiederholt ausgeführt. Eine kontinuierliche bzw. wiederholte Erzeugung eines Visualisierungsdatensatzes zu einem aktualisierten, also neu aufgenommenen Bild des Gesichts ergibt eine Art virtuelles Spiegelbild des Gesichts. So kann der Patient den Kopf drehen bzw. bewegen, den Mund öffnen etc. und bekommt immer ein an die aktuelle Ausrichtung bzw. den aktuellen Ausdruck des Gesichts angepasste Darstellung seines Gesichts mit der darin passend eingeblendeten geplanten Zahnsituation gezeigt. Die Wiederholungen können beispielsweise automatisch, z.B. in immer gleichen zeitlichen Abständen durchgeführt werden. Es könnte aber auch ein Auslösemechanismus für die Wiederholungen vorgesehen sein. Dies könnte z.B. zu unterschiedlichen zeitlichen Abständen führen.
- Vorteilhafterweise betragen die zeitlichen Abstände höchstens 42 ms, wodurch eine für Videos übliche Bildrate von 24Hz und damit eine Darstellung in Echtzeit erreicht wird.
- Vorteilhafterweise werden für die automatische Erkennung des Mundraums mindestens vier Merkmalspunkte automatisch erkannt, um eine korrekte Erkennung sicherzustellen.
- Vorteilhafterweise wird mindestens ein dreidimensionaler Zusatzdatensatz gemäß der dreidimensionalen Richtung der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Visualisierungsdatensatz positioniert, wobei der Gesichtsdatensatz und/oder der Zahndatensatz in dem Visualisierungsdatensatz durch den Zusatzdatensatz teilweise überlagert und/oder überlagert und/oder ersetzt wird. So können auf einfache Weise zusätzliche Informationen innerhalb des Visualisierungsdatensatzes dargestellt und einem Anwender auf anschauliche Weise präsentiert werden.
- Vorteilhafterweise ist der Zusatzdatensatz eine aus einem Volumendatensatz segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung einer Zahnwurzel, eine aus einer magnetresonanztomographischen Aufnahme segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung eines Kiefernervs, eine Darstellung eines Kiefergelenks oder eine Darstellung eines Bohrers oder einen Bohrlochs. Zur Planung oder Überwachung kann beispielsweise ein geplanter Verlauf eines Bohrlochs oder eine mittels eines Sensors ermittelte aktuelle Position eines Bohrers in dem Visualisierungsdatensatz angezeigt werden.
- Kurzbeschreibung der Zeichnungen
- Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt. Es zeigt
-
1 eine schematische Darstellung einer ersten Ausführungsform eines erfindungsgemäßen Verfahrens, -
2 eine schematische Ansicht eines digitalen Datensatzes eines zur Versorgung eines Patienten entworfenen Zahnersatzes, -
3 eine schematische Ansicht eines zweidimensionalen digitalen Datensatz eines Patientengesichts, -
4A , B eine schematische Ansicht eines Gesichtsdatensatzes mit Merkmalspunkten zur Ermittlung der Ausrichtung des Gesichts innerhalb des Gesichtsdatensatzes und -
5 eine schematische Ansicht einer Visualisierung eines geplanten Zahnersatzes. - Ausführungsbeispiele
- In
1 ist eine erste Ausführungsform eines erfindungsgemäßen Verfahrens skizziert. - Gemäß einem Verfahrensschritt S1 wird ein dreidimensionaler Zahndatensatz
1 eines für einen Patienten entworfenen Zahnersatzes bereitgestellt. Ein Beispiel für einen dreidimensionalen Zahndatensatz1 ist in2 skizziert. - Um einem Patienten das mit dem Zahnersatz zu erzielende Ergebnis zu veranschaulichen, wird gemäß einem Verfahrensschritt S2 durch Aufnahme eines zweidimensionalen Bilds des Patientengesichts ein Gesichtsdatensatz
2 oder durch Aufnahme einer Reihe von zweidimensionalen Bildern in kurzen zeitlichen Abständen eine Reihe von Gesichtsdatensätzen2 bereitgestellt, wobei zu jedem Bild der Reihe jeweils ein Gesichtsdatensatz2 erzeugt wird. Die Aufnahme eines oder mehrerer zweidimensionaler Bilder kann beispielsweise mit einer Kamera erfolgen. Das Gesicht kann z.B. mittels einer Kamera gefilmt werden. Ein Gesichtsdatensatz3 ist beispielhaft in3 dargestellt. - Mittels eines Gesichtserkennungsverfahrens werden in einem Verfahrensschritt S3 Merkmalspunkte
3 , also charakteristische Punkte des Gesichts, wie die Mundwinkel, innerhalb des Gesichtsdatensatzes2 erkannt. Anhand der erkannten Merkmalspunkte3 wird in einem Verfahrensschritt S4 der Mund bzw. die Lippen im Gesichtsdatensatz2 erkannt. - Wie in den
4A und4B anhand zweier unterschiedlich ausgerichteter Gesichter veranschaulicht, wird anhand der Merkmalspunkte3 in einem Verfahrensschritt S5 eine dreidimensionale Richtung5 der Ausrichtung des Patientengesichts im Gesichtsdatensatz2 ermittelt. Während für ein frontal ausgerichtetes Gesicht die Richtung5 der Ausrichtung beispielsweise senkrecht zur Bildebene des Gesichtsdatensatzes2 und aus der Bildebene heraus verläuft, liegt die Richtung5 für ein im Profil aufgenommenes Gesicht innerhalb der Bildebene. In Verfahrensschritt S5 wird somit aus dem zweidimensionalen Bild des Gesichts auf die dreidimensionale Orientierung des Gesichts geschlossen. - Wie in
5 skizziert, wird anschließend an den Verfahrensschritt S4 in einem Verfahrensschritt S6 ein zwischen den Lippen liegender Bereich als Mundraum4 innerhalb des Gesichtsdatensatzes2 segmentiert und ausgeschnitten. - In einem Verfahrensschritt S7 wird der Zahndatensatz
1 zu der Bildebene des Gesichtsdatensatzes2 so gedreht und positioniert, dass die Ausrichtung des Zahndatensatzes1 zu der ermittelten Richtung5 der Ausrichtung des Gesichts und die Position zu der Position des Mundraums4 passt. - Die relative Ausrichtung des Zahnersatzes zum Gesicht wird hierfür in Verfahrensschritt S8 festgelegt, beispielsweise anhand einer Beziehung einer Ausrichtung des Zahndatensatzes
1 innerhalb der Bildebene zu einer Richtung der Ausrichtung des Gesichts innerhalb des Gesichtsdatensatzes2 . Die Beziehung zu der Ausrichtung des Gesichts im Gesichtsdatensatz kann beispielsweise anhand von vorhandenen verbleibenden oder zu ersetzenden Zähnen erfolgen. Entsprechende Daten werden hinterlegt, so dass die Ausrichtung des Zahndatensatzes1 in Verfahrensschritt S7 automatisch anhand der hinterlegten Daten und der ermittelten Ausrichtung5 des Gesichts innerhalb des Gesichtsdatensatzes2 erfolgt. Verfahrensschritt S8 ist somit nicht für jeden erzeugten Gesichtsdatensatz erneut auszuführen und daher in1 gestrichelt dargestellt. - Ebenfalls möglich ist es, die Ausrichtung gemäß Verfahrensschritt S8 einmal per Hand vorzunehmen. Anschließend wird die so hergestellte relative Ausrichtung des Zahndatensatzes
1 zu der Richtung5 der Ausrichtung des Gesichts innerhalb des Gesichtsdatensatzes2 gespeichert, so dass anschließend bei einer Änderung der Ausrichtung des Gesichts und einer dadurch verursachten Änderung der Richtung5 eine Positionierungen des Zahndatensatzes automatisch erfolgen kann. - In einem Verfahrensschritt S9 wird der ausgerichtete dreidimensionale Zahndatensatz
1 hinter dem Gesichtsdatensatz dargestellt. Der aus dem Gesichtsdatensatz2 und dem Zahndatensatz1 mit ausgeschnittenem Mundraum4 zusammengesetzte und in5 schematisch dargestellte Datensatz wird hier als Visualisierungsdatensatz bezeichnet. - Vor dem Zusammenfügen und Darstellen des Gesichtsdatensatzes
2 und des Zahndatensatzes1 wird der Zahndatensatz2 gemäß einer Weiterbildung in einem Verfahrensschritt S10 überarbeitet. Typischerweise handelt es sich bei dem bereitgestellten Zahndatensatz2 um einen in einem CAD-Verfahren und für ein CAM-Verfahren erzeugten Datensatz, also um einen Datensatz, der für ein computergestütztes Herstellungsverfahren erzeugt wird. Ein für die computergestützte Herstellung zu verwendender Datensatz muss lediglich Informationen hinsichtlich der Form, also der Position der Oberfläche aufweisen. Für das erfindungsgemäße Verfahren ist es jedoch vorteilhaft, wenn der Zahndatensatz1 ein möglichst realistisches Erscheinungsbild aufweist. Hierfür wird der gemäß Verfahrensschritt S1 bereitgestellte Zahndatensatz1 gemäß dem optionalen Verfahrensschritt S10 entsprechend überarbeitet. - Wird der Gesichtsdatensatz gemäß Verfahrensschritt S2 in regelmäßigen zeitlichen Abständen wiederholt bereitgestellt und zumindest die Verfahrensschritte S3, S4, S5, S6, S7 und S9 jeweils für jeden neuen Gesichtsdatensatz ausgeführt, so kann, so entspricht das Anzeigemittel einem virtuellen Spiegel bzw. der ständig neu erzeugte Visualisierungsdatensatz einem virtuellen Spiegelbild. Der Patient kann den Kopf bewegen und/oder den Mund öffnen und schließen und so die Wirkung des geplanten Zahnersatzes aus verschiedenen Perspektiven betrachten. Insbesondere wenn ein Aufnahmemittel zur Erzeugung der Bilder des Patientengesichts mit einem möglichst kleinen Abstand zu dem Anzeigemittel angeordnet ist, wird die Wirkung eines Spiegelbilds erreicht, welches das Patientengesicht in einer aktuellen Ausrichtung und ergänzt um den geplanten Zahnersatz wiedergibt.
- Wird in Verfahrensschritt S6 der Mundraum
4 des Gesichtsdatensatze2 nicht ausgeschnitten, sondern lediglich erkannt und teilweise durch den Zahndatensatz1 überlagert, so kann eine Abweichung einer aktuellen Zahnsituation von einer geplanten Zahnsituation veranschaulicht werden. Hierzu werden beispielsweise der Mundraum4 sowie der Zahndatensatz1 teiltransparent und gleichzeitig angezeigt, beispielsweise unterschiedlich eingefärbt. Diese Darstellung ermöglicht eine einfache Kontrolle einer Präparation in Echtzeit bzw. eine Echtzeit-Kontrolle der aktuellen Zahnsituation während der Durchführung einer Präparation der Zahnsituation. - Ferner ist es möglich einen Zusatzdatensatz in den Visualisierungsdatensatz einzufügen, indem der Zusatzdatensatz entsprechend der ermittelten Richtung
5 der Ausrichtung des Gesichts und der Position des Gesichts im Gesichtsdatensatz2 ausgerichtet und dem Gesichtsdatensatz2 und/oder dem Zahndatensatz1 überlagert wird. - Hierdurch können zusätzliche Informationen, z.B. über den Kiefernerv, das Kiefergelenk, Zahnwurzeln, die Lage eines geplanten Bohrlochs oder die Position und Ausrichtung eines aktuell Bohrers während seiner Verwendung, anschaulich dargestellt werden.
- Bezugszeichenliste
-
- 1
- Zahndatensatz
- 2
- Gesichtsdatensatz
- 3
- Merkmalspunkte
- 4
- Mundraum
- 5
- Richtung einer Ausrichtung eines Gesichts innerhalb des Gesichtsdatensatzes
- S1–S9
- Verfahrensschritte
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 202008014344 U1 [0003]
- DE 102013102421 A1 [0003]
- US 2012/0095732 A1 [0003]
- US 2010/030578 A1 [0004]
- Zitierte Nicht-Patentliteratur
-
- D. Vukadinovic und M. Pantic, „Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers“ (2005) IEEE International Conference on Systems, Man and Cybernetics [0004]
- M. Dantone et al, „Real-time Facial Feature Detection using Conditional Regression Forests“ (2012) IEEE Conference on Computer Vision and Pattern Recognition [0004]
Claims (11)
- Verfahren zur Visualisierung einer Zahnsituation, wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz (
1 ) abgespeichert wird, dadurch gekennzeichnet, – dass mittels eines Gesichtserkennungsverfahrens Merkmalspunkte (3 ) innerhalb des Gesichtsdatensatzes (1 ) automatisch erkannt werden, – dass anhand der Merkmalspunkte (3 ) ein zwischen Lippen liegender Mundraum (4 ) automatisch erkannt wird, – dass anhand der Merkmalspunkte (3 ) eine Position des Gesichts im Gesichtsdatensatz (1 ) und eine dreidimensionale Richtung (5 ) einer Ausrichtung des Gesichts im Gesichtsdatensatz (1 ) automatisch erkannt wird, – dass ein virtueller Zahndatensatz (2 ) der Zahnsituation gemäß der dreidimensionalen Richtung (5 ) der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Gesichtsdatensatz (1 ) positioniert wird, – dass der Mundraum innerhalb des Gesichtsdatensatzes (1 ) durch den Zahndatensatz (2 ) teilweise überlagert und/oder überlagert und/oder ersetzt und das Ergebnis als Visualisierungsdatensatz angezeigt wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Gesichtsdatensatz (
1 ) zweidimensional oder dreidimensional ist. - Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Zahndatensatz (
2 ) dreidimensional ist. - Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Verfahren in zeitlichen Abständen wiederholt ausgeführt wird.
- Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die zeitlichen Abstände höchstens 42 ms beträgt.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass für die automatische Erkennung des Mundraums (
4 ) mindestens vier Merkmalspunkte (3 ) automatisch erkannt werden. - Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass mindestens ein dreidimensionaler Zusatzdatensatz gemäß der dreidimensionalen Richtung (
5 ) der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Visualisierungsdatensatz positioniert wird und dass der Gesichtsdatensatzes (1 ) und/oder der Zahndatensatz (2 ) in dem Visualisierungsdatensatz durch den Zusatzdatensatz teilweise überlagert und/oder überlagert und/oder ersetzt wird. - Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Zusatzdatensatz eine aus einem Volumendatensatz segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung einer Zahnwurzel ist.
- Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass der Zusatzdatensatz eine aus einer magnetresonanztomograhpischen Aufnahme segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung eines Kiefernervs ist.
- Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass der Zusatzdatensatz eine Darstellung eines Kiefergelenks ist.
- Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass der Zusatzdatensatz eine Darstellung eines Bohrers oder eines Bohrlochs ist.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015222782.0A DE102015222782A1 (de) | 2015-11-18 | 2015-11-18 | Verfahren zur Visualisierung einer Zahnsituation |
CN201680067682.5A CN108289722B (zh) | 2015-11-18 | 2016-11-17 | 用于观测牙齿情况的方法 |
PCT/EP2016/077934 WO2017085160A1 (de) | 2015-11-18 | 2016-11-17 | Verfahren zur visualisierung einer zahnsituation |
US15/775,601 US10980422B2 (en) | 2015-11-18 | 2016-11-17 | Method for visualizing a tooth situation |
JP2018520504A JP6857178B2 (ja) | 2015-11-18 | 2016-11-17 | 歯の状態を視覚化する方法 |
EP16815727.9A EP3376989A1 (de) | 2015-11-18 | 2016-11-17 | Verfahren zur visualisierung einer zahnsituation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015222782.0A DE102015222782A1 (de) | 2015-11-18 | 2015-11-18 | Verfahren zur Visualisierung einer Zahnsituation |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015222782A1 true DE102015222782A1 (de) | 2017-05-18 |
Family
ID=57588948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015222782.0A Withdrawn DE102015222782A1 (de) | 2015-11-18 | 2015-11-18 | Verfahren zur Visualisierung einer Zahnsituation |
Country Status (6)
Country | Link |
---|---|
US (1) | US10980422B2 (de) |
EP (1) | EP3376989A1 (de) |
JP (1) | JP6857178B2 (de) |
CN (1) | CN108289722B (de) |
DE (1) | DE102015222782A1 (de) |
WO (1) | WO2017085160A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019218031A1 (en) * | 2018-05-14 | 2019-11-21 | Iliev Georgi | System for production of three-dimensional digital dental models |
EP3632369A1 (de) | 2018-10-02 | 2020-04-08 | SIRONA Dental Systems GmbH | Verfahren zur integration von fotografischen gesichtsbildern und/oder filmen einer person in die planung von odontologischen und/oder kosmetischen zahnbehandlungen und/oder zur herstellung von zahnersätzen für die besagte person |
DE102019126111A1 (de) * | 2019-09-27 | 2021-04-01 | Urban Technology GmbH | Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
CN109717966B (zh) * | 2017-10-27 | 2021-04-30 | 华硕电脑股份有限公司 | 用于牙齿整形的影像仿真方法及其影像仿真装置 |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
DK3530232T3 (da) | 2018-02-21 | 2021-08-02 | Ivoclar Vivadent Ag | Fremgangsmåde til at justere en tredimensionel model af en tandstilling af en patient til et billede af ansigtet af patienten optaget af et kamera |
CN109124805B (zh) * | 2018-07-13 | 2021-02-26 | 四川大学 | 数字化镜像cad/cam临时牙的制作方法 |
JP2022502797A (ja) * | 2018-09-24 | 2022-01-11 | サージカル シアター,インコーポレイテッド | 360vr容積メディアエディタ |
USD896254S1 (en) * | 2018-10-30 | 2020-09-15 | Perfect Mobile Corp. | Display screen with graphical user interface |
EP3689287B1 (de) | 2019-01-30 | 2022-07-27 | DENTSPLY SIRONA Inc. | System zum vorschlagen und visualisieren von zahnbehandlungen |
CN110459083B (zh) * | 2019-08-22 | 2020-08-04 | 北京众绘虚拟现实技术研究院有限公司 | 一种视觉-触觉融合的增强现实口腔手术技能训练模拟器 |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
CN111568397A (zh) * | 2020-04-21 | 2020-08-25 | 上海上实龙创智慧能源科技股份有限公司 | 一种人体健康体征数据采集***及方法 |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
WO2022092763A1 (ko) * | 2020-10-29 | 2022-05-05 | 주식회사 메디트 | 이미지 처리 방법 및 이를 사용한 장치 |
KR102512838B1 (ko) * | 2020-10-29 | 2023-03-22 | 주식회사 메디트 | 이미지 처리 방법 및 이를 사용한 장치 |
KR20230163182A (ko) * | 2022-05-23 | 2023-11-30 | 주식회사 메가젠임플란트 | 인공지능을 적용한 3차원 얼굴스캔 자동매칭장치 및 그 장치의 구동방법, 그리고 매체에 저장된 컴퓨터프로그램 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004098378A2 (en) * | 2003-05-02 | 2004-11-18 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis treatment planning and therapeutics |
US20100030578A1 (en) | 2008-03-21 | 2010-02-04 | Siddique M A Sami | System and method for collaborative shopping, business and entertainment |
DE202008014344U1 (de) | 2008-10-28 | 2010-03-25 | Edinger-Strobl, Verena, Mag. DDr. | Gebissbild-Simulationsvorrichtung |
US20120095732A1 (en) | 2009-03-20 | 2012-04-19 | 3Shape A/S | System and method for effective planning, visualization, and optimization of dental restorations |
DE102013102421A1 (de) | 2013-03-11 | 2014-09-11 | Polymetric GmbH | Verfahren zur Überlagerung von digitalisierten Darstellungen und Referenzmarkereinrichtung |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7717708B2 (en) * | 2001-04-13 | 2010-05-18 | Orametrix, Inc. | Method and system for integrated orthodontic treatment planning using unified workstation |
JP4093273B2 (ja) * | 2006-03-13 | 2008-06-04 | オムロン株式会社 | 特徴点検出装置、特徴点検出方法および特徴点検出プログラム |
GB0707454D0 (en) * | 2007-04-18 | 2007-05-23 | Materialise Dental Nv | Computer-assisted creation of a custom tooth set-up using facial analysis |
US8253778B2 (en) * | 2008-03-21 | 2012-08-28 | Takahashi Atsushi | Three-dimensional digital magnifier operation supporting system |
KR100926978B1 (ko) * | 2008-04-08 | 2009-11-17 | 삼성전자주식회사 | 영상 수집 제어 방법 및 장치 |
US8092215B2 (en) | 2008-05-23 | 2012-01-10 | Align Technology, Inc. | Smile designer |
US8108778B2 (en) | 2008-09-30 | 2012-01-31 | Yahoo! Inc. | System and method for context enhanced mapping within a user interface |
US8088551B2 (en) | 2008-10-09 | 2012-01-03 | Micron Technology, Inc. | Methods of utilizing block copolymer to form patterns |
WO2010042990A1 (en) | 2008-10-16 | 2010-04-22 | Seeing Machines Limited | Online marketing of facial products using real-time face tracking |
JP4794678B1 (ja) * | 2010-05-24 | 2011-10-19 | 株式会社ソニー・コンピュータエンタテインメント | 映像処理装置、映像処理方法、および映像通信システム |
CN103079494B (zh) | 2010-06-29 | 2016-09-14 | 3形状股份有限公司 | 2d图像布置 |
WO2012090211A1 (en) | 2010-12-29 | 2012-07-05 | Santiago Jeevan Kumar | Augmented reality computer model facebow system for use in dentistry |
KR101223937B1 (ko) * | 2011-02-22 | 2013-01-21 | 주식회사 모르페우스 | 안면보정 이미지 제공방법 및 그 시스템 |
JP2013236749A (ja) * | 2012-05-15 | 2013-11-28 | Denso Corp | 歯科インプラント手術支援装置 |
DE102012110491A1 (de) | 2012-11-02 | 2014-05-08 | Carsten Dursteler | Verfahren und Vorrichtung zur kosmetischen Zahnanalyse und Zahnberatung |
ES2905116T3 (es) | 2013-03-08 | 2022-04-07 | 3Shape As | Visualización de una restauración dental 3D sobre una imagen 2D |
JP5883816B2 (ja) * | 2013-03-11 | 2016-03-15 | 株式会社ミウラ | 顎変形症術後顔貌予測方法及びシステム |
US9378576B2 (en) * | 2013-06-07 | 2016-06-28 | Faceshift Ag | Online modeling for real-time facial animation |
AU2015221370A1 (en) * | 2014-02-21 | 2016-09-15 | Trispera Dental Inc. | Augmented reality dental design method and system |
US9808326B2 (en) * | 2014-03-18 | 2017-11-07 | President And Fellows Of Harvard College | 3D dentofacial system and method |
-
2015
- 2015-11-18 DE DE102015222782.0A patent/DE102015222782A1/de not_active Withdrawn
-
2016
- 2016-11-17 CN CN201680067682.5A patent/CN108289722B/zh active Active
- 2016-11-17 US US15/775,601 patent/US10980422B2/en active Active
- 2016-11-17 EP EP16815727.9A patent/EP3376989A1/de not_active Withdrawn
- 2016-11-17 JP JP2018520504A patent/JP6857178B2/ja active Active
- 2016-11-17 WO PCT/EP2016/077934 patent/WO2017085160A1/de active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004098378A2 (en) * | 2003-05-02 | 2004-11-18 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis treatment planning and therapeutics |
US20100030578A1 (en) | 2008-03-21 | 2010-02-04 | Siddique M A Sami | System and method for collaborative shopping, business and entertainment |
DE202008014344U1 (de) | 2008-10-28 | 2010-03-25 | Edinger-Strobl, Verena, Mag. DDr. | Gebissbild-Simulationsvorrichtung |
US20120095732A1 (en) | 2009-03-20 | 2012-04-19 | 3Shape A/S | System and method for effective planning, visualization, and optimization of dental restorations |
DE102013102421A1 (de) | 2013-03-11 | 2014-09-11 | Polymetric GmbH | Verfahren zur Überlagerung von digitalisierten Darstellungen und Referenzmarkereinrichtung |
Non-Patent Citations (4)
Title |
---|
D. Vukadinovic und M. Pantic, „Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers" (2005) IEEE International Conference on Systems, Man and Cybernetics |
Dantone, M, Gall, J., Fanellis, G. Van Gool L.Real-time Facial Feature Detection using Conditional Regression Forests2012, IEEE Conference on Computer Vision and Pattern RecognitionS. 2578 - 2585 * |
M. Dantone et al, „Real-time Facial Feature Detection using Conditional Regression Forests" (2012) IEEE Conference on Computer Vision and Pattern Recognition |
Vukadinovic, D. und Pantic M.Fully Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers2005, IEEE International Conference on Systems, Man and CyberneticsS. 1692 – 1698 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019218031A1 (en) * | 2018-05-14 | 2019-11-21 | Iliev Georgi | System for production of three-dimensional digital dental models |
EP3632369A1 (de) | 2018-10-02 | 2020-04-08 | SIRONA Dental Systems GmbH | Verfahren zur integration von fotografischen gesichtsbildern und/oder filmen einer person in die planung von odontologischen und/oder kosmetischen zahnbehandlungen und/oder zur herstellung von zahnersätzen für die besagte person |
DE102019126111A1 (de) * | 2019-09-27 | 2021-04-01 | Urban Technology GmbH | Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses |
Also Published As
Publication number | Publication date |
---|---|
WO2017085160A1 (de) | 2017-05-26 |
US10980422B2 (en) | 2021-04-20 |
JP2018534050A (ja) | 2018-11-22 |
CN108289722A (zh) | 2018-07-17 |
EP3376989A1 (de) | 2018-09-26 |
JP6857178B2 (ja) | 2021-04-14 |
US20180249912A1 (en) | 2018-09-06 |
CN108289722B (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015222782A1 (de) | Verfahren zur Visualisierung einer Zahnsituation | |
EP3589232B1 (de) | Verfahren zur konstruktion einer restauration | |
EP3134027B1 (de) | Verfahren zur durchführung einer optischen dreidimensionalen aufnahme | |
WO2013181678A1 (de) | Verfahren zum fortsetzen von aufnahmen zum erfassen von dreidimensionalen geometrien von objekten | |
EP2863831B1 (de) | Verfahren zur überprüfung von zahnstellungen | |
EP2914203A1 (de) | Verfahren und vorrichtung zur kosmetischen zahnanalyse | |
EP3618758B1 (de) | Verfahren zur konstruktion eines dentalen bauteils | |
EP2914201B1 (de) | Verfahren zur ermittlung mindestens eines relevanten einzelbildes eines dentalen objekts | |
EP2978384B1 (de) | Verfahren zur planung einer wurzelbehandlung eines patienten | |
EP2651331B1 (de) | Vorrichtung und verfahren zur bearbeitung eines virtuellen, dreidimensionalen zahnmodells mittels eines virtuellen werkzeugs | |
WO2014139944A1 (de) | Verfahren zur überlagerung von digitalisierten darstellungen und referenzmarkereinrichtung | |
DE102014102111B4 (de) | Verfahren zur Visualisierung zahnmedizinisch relevanter anatomischer Relationen und/oder Strukturen | |
EP3682453B1 (de) | Verfahren zur ermittlung und visualisierung von zahnbewegungen und geplanten zahnumstellungen | |
EP3454776B1 (de) | Computerimplementiertes verfahren zur festlegung einer zahnaufstellung | |
DE102019126111A1 (de) | Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses | |
WO2012126970A1 (de) | Verfahren zur bearbeitung eines zahnmodells mittels eines virtuellen werkzeugs | |
DE102018204098A1 (de) | Bildausgabeverfahren während einer dentalen Anwendung und Bildausgabevorrichtung | |
EP3636202B1 (de) | Dentales fuehrungssystem zur zahnpraeparation | |
EP4076269B1 (de) | Verfahren zur definition mindestens einer grenzfläche im inneren eines künstlichen zahnelements | |
EP3599443A1 (de) | Verfahren zum optischen erfassen der oberflächengeometrie von zahnfleisch | |
DE19923978A1 (de) | Verfahren zur computergestützten patientenspezifischen Darstellung und Planung zahnärztlicher und/oder zahnprothetischer Arbeiten | |
DE102013203888B4 (de) | Computer-implementiertes Verfahren zum Festlegen der Anbringungspositionen einer Mehrzahl von Angriffselementen für einen Drahtbogen einer zahnmedizinischen Apparatur auf zugeordneten Zähnen eines Patienten sowie Anzeige mit linearer Nebeneinanderanordnung der Zähne | |
WO2013021022A2 (de) | Datenbank und verfahren zur erzeugung einer virtuellen dentalen objektdarstellung aus einer aufnahme | |
DE102013109484A1 (de) | Verfahren zum Einpassen eines Zahnersatzes in eine Reparaturstelle | |
WO2000061030A1 (de) | Verfahren zur computergestützten patientenspezifischen darstellung und planung zahnärztlicher und/oder zahnprothetischer arbeiten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: JONES DAY RECHTSANWAELTE PATENTANWAELTE, DE |
|
R082 | Change of representative | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |