DE102015222782A1 - Verfahren zur Visualisierung einer Zahnsituation - Google Patents

Verfahren zur Visualisierung einer Zahnsituation Download PDF

Info

Publication number
DE102015222782A1
DE102015222782A1 DE102015222782.0A DE102015222782A DE102015222782A1 DE 102015222782 A1 DE102015222782 A1 DE 102015222782A1 DE 102015222782 A DE102015222782 A DE 102015222782A DE 102015222782 A1 DE102015222782 A1 DE 102015222782A1
Authority
DE
Germany
Prior art keywords
data set
face
tooth
facial
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015222782.0A
Other languages
English (en)
Inventor
Sascha Schneider
Evgenij Derzapf
Ravid Aloni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sirona Dental Systems GmbH
Original Assignee
Sirona Dental Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sirona Dental Systems GmbH filed Critical Sirona Dental Systems GmbH
Priority to DE102015222782.0A priority Critical patent/DE102015222782A1/de
Priority to CN201680067682.5A priority patent/CN108289722B/zh
Priority to PCT/EP2016/077934 priority patent/WO2017085160A1/de
Priority to US15/775,601 priority patent/US10980422B2/en
Priority to JP2018520504A priority patent/JP6857178B2/ja
Priority to EP16815727.9A priority patent/EP3376989A1/de
Publication of DE102015222782A1 publication Critical patent/DE102015222782A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Visualisierung einer Zahnsituation, wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz (1) abgespeichert wird, mittels eines Gesichtserkennungsverfahrens Merkmalspunkte (3) innerhalb des Gesichtsdatensatzes (1) automatisch erkannt werden, anhand der Merkmalspunkte (3) ein zwischen Lippen liegender Mundraum (4) automatisch erkannt wird, anhand der Merkmalspunkte (3) eine Position des Gesichts im Gesichtsdatensatz (1) und eine dreidimensionale Richtung (5) einer Ausrichtung des Gesichts im Gesichtsdatensatz (1) automatisch erkannt wird, ein virtueller Zahndatensatz (2) der Zahnsituation gemäß der dreidimensionalen Richtung (5) der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Gesichtsdatensatz (1) positioniert wird, der Mundraum innerhalb des Gesichtsdatensatzes (1) durch den Zahndatensatz (2) teilweise überlagert und/oder überlagert und/oder ersetzt und das Ergebnis als Visualisierungsdatensatz angezeigt wird.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren zur Visualisierung einer Zahnsituation, wobei ein virtueller Zahndatensatz der Zahnsituation vorliegt und wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz abgespeichert wird.
  • Stand der Technik
  • Bisherige Verfahren zur Visualisierung einer Zahnsituation, beispielsweise zur Visualisierung der Wirkung eines geplanten Zahnersatzes im Gesicht eines Patienten, zeigen meist eine starre oder zumindest drehbare Aufnahme des Patientengesichts, in welches eine virtuelle Zahnsituation mit korrekter Ausrichtung und Positionierung eingefügt ist.
  • Ein Verfahren zur Visualisierung einer Zahnsituation ist beispielsweise aus der DE 20 2008 014 344 U1 , der DE 10 2013 102 421 A1 oder der US 2012/0095732 A1 bekannt.
  • Verschiedene Verfahren zur automatischen Erkennung von Eigenheiten eines Gesichts bzw. von Merkmalspunkten eines Gesichts, in Bildern des Gesichts sind beispielsweise aus D. Vukadinovic und M. Pantic, „Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers" (2005) IEEE International Conference on Systems, Man and Cybernetics, aus M. Dantone et al, „Real-time Facial Feature Detection using Conditional Regression Forests" (2012) IEEE Conference on Computer Vision and Pattern Recognition oder aus der US 2010/030578 A1 bekannt.
  • Aufgabe der vorliegenden Erfindung ist es den Stand der Technik weiterzubilden und zu verbessern.
  • Darstellung der Erfindung
  • Ein Gegenstand der Erfindung ist ein Verfahren zur Visualisierung einer Zahnsituation, wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz abgespeichert wird, wobei mittels eines Gesichtserkennungsverfahrens Merkmalspunkte innerhalb des Gesichtsdatensatzes automatisch erkannt werden, wobei anhand der Merkmalspunkte ein zwischen Lippen liegender Mundraum automatisch erkannt wird, wobei anhand der Merkmalspunkte eine Position des Gesichts im Gesichtsdatensatz und eine dreidimensionale Richtung einer Ausrichtung des Gesichts im Gesichtsdatensatz automatisch erkannt wird, wobei der Zahndatensatz gemäß der dreidimensionalen Richtung der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Gesichtsdatensatz positioniert wird, wobei der Mundraum innerhalb des Gesichtsdatensatzes durch den Zahndatensatz teilweise überlagert und/oder überlagert und/oder ersetzt und das Ergebnis als Visualisierungsdatensatz angezeigt wird.
  • Es sei angemerkt, dass es sich bei der Zahnsituation um eine beliebige Zahnsituation handeln kann, sowohl um einzelne oder mehrere Zähne, als auch um ein Abbild eines vollständigen Gebisses. Beispielsweise kann es sich um einen rein virtuell geplanten oder von einem Modell mittels eines Scans erzeugten Datensatz eines geplanten Zahnersatzes handeln. Es kann auch ein beispielsweise mittels einer Kamera erzeugter Datensatz der tatsächlichen Zahnsituation sein. Letzterer kann beispielsweise um Zahnersatzteile ergänzt oder manipuliert worden sein, um z.B. das geplante Ergebnis einer kieferorthopädischen Behandlung wiederzugeben.
  • Die Merkmalspunkte, häufig auch als Facial Feature Points (FFP) oder als biometrische Merkmalspunkte bezeichnet, sind Punkte, welche im Rahmen eines zweidimensionalen oder dreidimensionalen Gesichtserkennungsverfahrens innerhalb eines Gesichts automatisch, d.h. mittels eines Rechners und ohne Interaktion des Anwenders, erkennbar sind, z.B. die Nasenspitze, die Mundwinkel, die Augen etc.
  • Ein Vorteil des erfindungsgemäßen Verfahren ist, dass eine geplante Zahnsituation für einen Patienten oder einen behandelnden Arzt oder Zahntechniker innerhalb des Patientengesichts visualisiert werden kann. Die Kombination von aktuellen, die Realität abbildenden Daten mit virtuellen Daten wird häufig als Augmented Reality, also angereicherte Realität bezeichnet. Die Wirkung der geplanten Zahnsituation wird insbesondere durch vollständige Überlagerung oder Ersetzen der aktuellen Zahnsituation durch die geplante Zahnsituation veranschaulicht. Durch eine teilweise Überlagerung der aktuellen Zahnsituation können eine geplante Zahnsituation und eine aktuelle Zahnsituation gleichzeitig dargestellt werden. Beispielsweise können die geplante Zahnsituation und die aktuelle Zahnsituation, also der Bereich des Gesichtsdatensatzes, der sich innerhalb der Mundhöhle befindet, unterschiedlich eingefärbt und transparent dargestellt werden. Hierdurch kann beispielsweise während der Durchführung einer Präparation der aktuellen Zahnsituation die Übereinstimmung oder Abweichung von einer geplanten Zahnsituation überprüft werden.
  • Vorteilhafterweise ist der Gesichtsdatensatz zweidimensional oder dreidimensional. Ein zweidimensionaler Datensatz ist einfach bzw. mit einer einfachen Vorrichtung, z.B. einer Kamera, erzeugbar, während durch einen dreidimensionalen Datensatz eine bessere Qualität des Visualisierungdatensatzes erreicht werden kann.
  • Vorteilhafterweise ist der Zahndatensatz dreidimensional. So kann der Zahndatensatz auf einfache Weise in einer an die Ausrichtung des Gesichts im Gesichtsdatensatz angepassten Ausrichtung mit dem Gesichtsdatensatz kombiniert bzw. im Rahmen des Visualisierungsdatensatzes dargestellt werden.
  • Vorteilhafterweise wird das Verfahren in zeitlichen Abständen wiederholt ausgeführt. Eine kontinuierliche bzw. wiederholte Erzeugung eines Visualisierungsdatensatzes zu einem aktualisierten, also neu aufgenommenen Bild des Gesichts ergibt eine Art virtuelles Spiegelbild des Gesichts. So kann der Patient den Kopf drehen bzw. bewegen, den Mund öffnen etc. und bekommt immer ein an die aktuelle Ausrichtung bzw. den aktuellen Ausdruck des Gesichts angepasste Darstellung seines Gesichts mit der darin passend eingeblendeten geplanten Zahnsituation gezeigt. Die Wiederholungen können beispielsweise automatisch, z.B. in immer gleichen zeitlichen Abständen durchgeführt werden. Es könnte aber auch ein Auslösemechanismus für die Wiederholungen vorgesehen sein. Dies könnte z.B. zu unterschiedlichen zeitlichen Abständen führen.
  • Vorteilhafterweise betragen die zeitlichen Abstände höchstens 42 ms, wodurch eine für Videos übliche Bildrate von 24Hz und damit eine Darstellung in Echtzeit erreicht wird.
  • Vorteilhafterweise werden für die automatische Erkennung des Mundraums mindestens vier Merkmalspunkte automatisch erkannt, um eine korrekte Erkennung sicherzustellen.
  • Vorteilhafterweise wird mindestens ein dreidimensionaler Zusatzdatensatz gemäß der dreidimensionalen Richtung der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Visualisierungsdatensatz positioniert, wobei der Gesichtsdatensatz und/oder der Zahndatensatz in dem Visualisierungsdatensatz durch den Zusatzdatensatz teilweise überlagert und/oder überlagert und/oder ersetzt wird. So können auf einfache Weise zusätzliche Informationen innerhalb des Visualisierungsdatensatzes dargestellt und einem Anwender auf anschauliche Weise präsentiert werden.
  • Vorteilhafterweise ist der Zusatzdatensatz eine aus einem Volumendatensatz segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung einer Zahnwurzel, eine aus einer magnetresonanztomographischen Aufnahme segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung eines Kiefernervs, eine Darstellung eines Kiefergelenks oder eine Darstellung eines Bohrers oder einen Bohrlochs. Zur Planung oder Überwachung kann beispielsweise ein geplanter Verlauf eines Bohrlochs oder eine mittels eines Sensors ermittelte aktuelle Position eines Bohrers in dem Visualisierungsdatensatz angezeigt werden.
  • Kurzbeschreibung der Zeichnungen
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt. Es zeigt
  • 1 eine schematische Darstellung einer ersten Ausführungsform eines erfindungsgemäßen Verfahrens,
  • 2 eine schematische Ansicht eines digitalen Datensatzes eines zur Versorgung eines Patienten entworfenen Zahnersatzes,
  • 3 eine schematische Ansicht eines zweidimensionalen digitalen Datensatz eines Patientengesichts,
  • 4A, B eine schematische Ansicht eines Gesichtsdatensatzes mit Merkmalspunkten zur Ermittlung der Ausrichtung des Gesichts innerhalb des Gesichtsdatensatzes und
  • 5 eine schematische Ansicht einer Visualisierung eines geplanten Zahnersatzes.
  • Ausführungsbeispiele
  • In 1 ist eine erste Ausführungsform eines erfindungsgemäßen Verfahrens skizziert.
  • Gemäß einem Verfahrensschritt S1 wird ein dreidimensionaler Zahndatensatz 1 eines für einen Patienten entworfenen Zahnersatzes bereitgestellt. Ein Beispiel für einen dreidimensionalen Zahndatensatz 1 ist in 2 skizziert.
  • Um einem Patienten das mit dem Zahnersatz zu erzielende Ergebnis zu veranschaulichen, wird gemäß einem Verfahrensschritt S2 durch Aufnahme eines zweidimensionalen Bilds des Patientengesichts ein Gesichtsdatensatz 2 oder durch Aufnahme einer Reihe von zweidimensionalen Bildern in kurzen zeitlichen Abständen eine Reihe von Gesichtsdatensätzen 2 bereitgestellt, wobei zu jedem Bild der Reihe jeweils ein Gesichtsdatensatz 2 erzeugt wird. Die Aufnahme eines oder mehrerer zweidimensionaler Bilder kann beispielsweise mit einer Kamera erfolgen. Das Gesicht kann z.B. mittels einer Kamera gefilmt werden. Ein Gesichtsdatensatz 3 ist beispielhaft in 3 dargestellt.
  • Mittels eines Gesichtserkennungsverfahrens werden in einem Verfahrensschritt S3 Merkmalspunkte 3, also charakteristische Punkte des Gesichts, wie die Mundwinkel, innerhalb des Gesichtsdatensatzes 2 erkannt. Anhand der erkannten Merkmalspunkte 3 wird in einem Verfahrensschritt S4 der Mund bzw. die Lippen im Gesichtsdatensatz 2 erkannt.
  • Wie in den 4A und 4B anhand zweier unterschiedlich ausgerichteter Gesichter veranschaulicht, wird anhand der Merkmalspunkte 3 in einem Verfahrensschritt S5 eine dreidimensionale Richtung 5 der Ausrichtung des Patientengesichts im Gesichtsdatensatz 2 ermittelt. Während für ein frontal ausgerichtetes Gesicht die Richtung 5 der Ausrichtung beispielsweise senkrecht zur Bildebene des Gesichtsdatensatzes 2 und aus der Bildebene heraus verläuft, liegt die Richtung 5 für ein im Profil aufgenommenes Gesicht innerhalb der Bildebene. In Verfahrensschritt S5 wird somit aus dem zweidimensionalen Bild des Gesichts auf die dreidimensionale Orientierung des Gesichts geschlossen.
  • Wie in 5 skizziert, wird anschließend an den Verfahrensschritt S4 in einem Verfahrensschritt S6 ein zwischen den Lippen liegender Bereich als Mundraum 4 innerhalb des Gesichtsdatensatzes 2 segmentiert und ausgeschnitten.
  • In einem Verfahrensschritt S7 wird der Zahndatensatz 1 zu der Bildebene des Gesichtsdatensatzes 2 so gedreht und positioniert, dass die Ausrichtung des Zahndatensatzes 1 zu der ermittelten Richtung 5 der Ausrichtung des Gesichts und die Position zu der Position des Mundraums 4 passt.
  • Die relative Ausrichtung des Zahnersatzes zum Gesicht wird hierfür in Verfahrensschritt S8 festgelegt, beispielsweise anhand einer Beziehung einer Ausrichtung des Zahndatensatzes 1 innerhalb der Bildebene zu einer Richtung der Ausrichtung des Gesichts innerhalb des Gesichtsdatensatzes 2. Die Beziehung zu der Ausrichtung des Gesichts im Gesichtsdatensatz kann beispielsweise anhand von vorhandenen verbleibenden oder zu ersetzenden Zähnen erfolgen. Entsprechende Daten werden hinterlegt, so dass die Ausrichtung des Zahndatensatzes 1 in Verfahrensschritt S7 automatisch anhand der hinterlegten Daten und der ermittelten Ausrichtung 5 des Gesichts innerhalb des Gesichtsdatensatzes 2 erfolgt. Verfahrensschritt S8 ist somit nicht für jeden erzeugten Gesichtsdatensatz erneut auszuführen und daher in 1 gestrichelt dargestellt.
  • Ebenfalls möglich ist es, die Ausrichtung gemäß Verfahrensschritt S8 einmal per Hand vorzunehmen. Anschließend wird die so hergestellte relative Ausrichtung des Zahndatensatzes 1 zu der Richtung 5 der Ausrichtung des Gesichts innerhalb des Gesichtsdatensatzes 2 gespeichert, so dass anschließend bei einer Änderung der Ausrichtung des Gesichts und einer dadurch verursachten Änderung der Richtung 5 eine Positionierungen des Zahndatensatzes automatisch erfolgen kann.
  • In einem Verfahrensschritt S9 wird der ausgerichtete dreidimensionale Zahndatensatz 1 hinter dem Gesichtsdatensatz dargestellt. Der aus dem Gesichtsdatensatz 2 und dem Zahndatensatz 1 mit ausgeschnittenem Mundraum 4 zusammengesetzte und in 5 schematisch dargestellte Datensatz wird hier als Visualisierungsdatensatz bezeichnet.
  • Vor dem Zusammenfügen und Darstellen des Gesichtsdatensatzes 2 und des Zahndatensatzes 1 wird der Zahndatensatz 2 gemäß einer Weiterbildung in einem Verfahrensschritt S10 überarbeitet. Typischerweise handelt es sich bei dem bereitgestellten Zahndatensatz 2 um einen in einem CAD-Verfahren und für ein CAM-Verfahren erzeugten Datensatz, also um einen Datensatz, der für ein computergestütztes Herstellungsverfahren erzeugt wird. Ein für die computergestützte Herstellung zu verwendender Datensatz muss lediglich Informationen hinsichtlich der Form, also der Position der Oberfläche aufweisen. Für das erfindungsgemäße Verfahren ist es jedoch vorteilhaft, wenn der Zahndatensatz 1 ein möglichst realistisches Erscheinungsbild aufweist. Hierfür wird der gemäß Verfahrensschritt S1 bereitgestellte Zahndatensatz 1 gemäß dem optionalen Verfahrensschritt S10 entsprechend überarbeitet.
  • Wird der Gesichtsdatensatz gemäß Verfahrensschritt S2 in regelmäßigen zeitlichen Abständen wiederholt bereitgestellt und zumindest die Verfahrensschritte S3, S4, S5, S6, S7 und S9 jeweils für jeden neuen Gesichtsdatensatz ausgeführt, so kann, so entspricht das Anzeigemittel einem virtuellen Spiegel bzw. der ständig neu erzeugte Visualisierungsdatensatz einem virtuellen Spiegelbild. Der Patient kann den Kopf bewegen und/oder den Mund öffnen und schließen und so die Wirkung des geplanten Zahnersatzes aus verschiedenen Perspektiven betrachten. Insbesondere wenn ein Aufnahmemittel zur Erzeugung der Bilder des Patientengesichts mit einem möglichst kleinen Abstand zu dem Anzeigemittel angeordnet ist, wird die Wirkung eines Spiegelbilds erreicht, welches das Patientengesicht in einer aktuellen Ausrichtung und ergänzt um den geplanten Zahnersatz wiedergibt.
  • Wird in Verfahrensschritt S6 der Mundraum 4 des Gesichtsdatensatze 2 nicht ausgeschnitten, sondern lediglich erkannt und teilweise durch den Zahndatensatz 1 überlagert, so kann eine Abweichung einer aktuellen Zahnsituation von einer geplanten Zahnsituation veranschaulicht werden. Hierzu werden beispielsweise der Mundraum 4 sowie der Zahndatensatz 1 teiltransparent und gleichzeitig angezeigt, beispielsweise unterschiedlich eingefärbt. Diese Darstellung ermöglicht eine einfache Kontrolle einer Präparation in Echtzeit bzw. eine Echtzeit-Kontrolle der aktuellen Zahnsituation während der Durchführung einer Präparation der Zahnsituation.
  • Ferner ist es möglich einen Zusatzdatensatz in den Visualisierungsdatensatz einzufügen, indem der Zusatzdatensatz entsprechend der ermittelten Richtung 5 der Ausrichtung des Gesichts und der Position des Gesichts im Gesichtsdatensatz 2 ausgerichtet und dem Gesichtsdatensatz 2 und/oder dem Zahndatensatz 1 überlagert wird.
  • Hierdurch können zusätzliche Informationen, z.B. über den Kiefernerv, das Kiefergelenk, Zahnwurzeln, die Lage eines geplanten Bohrlochs oder die Position und Ausrichtung eines aktuell Bohrers während seiner Verwendung, anschaulich dargestellt werden.
  • Bezugszeichenliste
  • 1
    Zahndatensatz
    2
    Gesichtsdatensatz
    3
    Merkmalspunkte
    4
    Mundraum
    5
    Richtung einer Ausrichtung eines Gesichts innerhalb des Gesichtsdatensatzes
    S1–S9
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 202008014344 U1 [0003]
    • DE 102013102421 A1 [0003]
    • US 2012/0095732 A1 [0003]
    • US 2010/030578 A1 [0004]
  • Zitierte Nicht-Patentliteratur
    • D. Vukadinovic und M. Pantic, „Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers“ (2005) IEEE International Conference on Systems, Man and Cybernetics [0004]
    • M. Dantone et al, „Real-time Facial Feature Detection using Conditional Regression Forests“ (2012) IEEE Conference on Computer Vision and Pattern Recognition [0004]

Claims (11)

  1. Verfahren zur Visualisierung einer Zahnsituation, wobei ein Bild eines Patientengesichts aufgenommen und als Gesichtsdatensatz (1) abgespeichert wird, dadurch gekennzeichnet, – dass mittels eines Gesichtserkennungsverfahrens Merkmalspunkte (3) innerhalb des Gesichtsdatensatzes (1) automatisch erkannt werden, – dass anhand der Merkmalspunkte (3) ein zwischen Lippen liegender Mundraum (4) automatisch erkannt wird, – dass anhand der Merkmalspunkte (3) eine Position des Gesichts im Gesichtsdatensatz (1) und eine dreidimensionale Richtung (5) einer Ausrichtung des Gesichts im Gesichtsdatensatz (1) automatisch erkannt wird, – dass ein virtueller Zahndatensatz (2) der Zahnsituation gemäß der dreidimensionalen Richtung (5) der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Gesichtsdatensatz (1) positioniert wird, – dass der Mundraum innerhalb des Gesichtsdatensatzes (1) durch den Zahndatensatz (2) teilweise überlagert und/oder überlagert und/oder ersetzt und das Ergebnis als Visualisierungsdatensatz angezeigt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Gesichtsdatensatz (1) zweidimensional oder dreidimensional ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Zahndatensatz (2) dreidimensional ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Verfahren in zeitlichen Abständen wiederholt ausgeführt wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die zeitlichen Abstände höchstens 42 ms beträgt.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass für die automatische Erkennung des Mundraums (4) mindestens vier Merkmalspunkte (3) automatisch erkannt werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass mindestens ein dreidimensionaler Zusatzdatensatz gemäß der dreidimensionalen Richtung (5) der Ausrichtung des Gesichts ausgerichtet und gemäß der Position des Gesichts zu dem Visualisierungsdatensatz positioniert wird und dass der Gesichtsdatensatzes (1) und/oder der Zahndatensatz (2) in dem Visualisierungsdatensatz durch den Zusatzdatensatz teilweise überlagert und/oder überlagert und/oder ersetzt wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass der Zusatzdatensatz eine aus einem Volumendatensatz segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung einer Zahnwurzel ist.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass der Zusatzdatensatz eine aus einer magnetresonanztomograhpischen Aufnahme segmentierte und zu einer aktuellen Zahnsituation hinsichtlich der Position korrelierte Darstellung eines Kiefernervs ist.
  10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass der Zusatzdatensatz eine Darstellung eines Kiefergelenks ist.
  11. Verfahren nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, dass der Zusatzdatensatz eine Darstellung eines Bohrers oder eines Bohrlochs ist.
DE102015222782.0A 2015-11-18 2015-11-18 Verfahren zur Visualisierung einer Zahnsituation Withdrawn DE102015222782A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102015222782.0A DE102015222782A1 (de) 2015-11-18 2015-11-18 Verfahren zur Visualisierung einer Zahnsituation
CN201680067682.5A CN108289722B (zh) 2015-11-18 2016-11-17 用于观测牙齿情况的方法
PCT/EP2016/077934 WO2017085160A1 (de) 2015-11-18 2016-11-17 Verfahren zur visualisierung einer zahnsituation
US15/775,601 US10980422B2 (en) 2015-11-18 2016-11-17 Method for visualizing a tooth situation
JP2018520504A JP6857178B2 (ja) 2015-11-18 2016-11-17 歯の状態を視覚化する方法
EP16815727.9A EP3376989A1 (de) 2015-11-18 2016-11-17 Verfahren zur visualisierung einer zahnsituation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015222782.0A DE102015222782A1 (de) 2015-11-18 2015-11-18 Verfahren zur Visualisierung einer Zahnsituation

Publications (1)

Publication Number Publication Date
DE102015222782A1 true DE102015222782A1 (de) 2017-05-18

Family

ID=57588948

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015222782.0A Withdrawn DE102015222782A1 (de) 2015-11-18 2015-11-18 Verfahren zur Visualisierung einer Zahnsituation

Country Status (6)

Country Link
US (1) US10980422B2 (de)
EP (1) EP3376989A1 (de)
JP (1) JP6857178B2 (de)
CN (1) CN108289722B (de)
DE (1) DE102015222782A1 (de)
WO (1) WO2017085160A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019218031A1 (en) * 2018-05-14 2019-11-21 Iliev Georgi System for production of three-dimensional digital dental models
EP3632369A1 (de) 2018-10-02 2020-04-08 SIRONA Dental Systems GmbH Verfahren zur integration von fotografischen gesichtsbildern und/oder filmen einer person in die planung von odontologischen und/oder kosmetischen zahnbehandlungen und/oder zur herstellung von zahnersätzen für die besagte person
DE102019126111A1 (de) * 2019-09-27 2021-04-01 Urban Technology GmbH Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
CN109717966B (zh) * 2017-10-27 2021-04-30 华硕电脑股份有限公司 用于牙齿整形的影像仿真方法及其影像仿真装置
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
DK3530232T3 (da) 2018-02-21 2021-08-02 Ivoclar Vivadent Ag Fremgangsmåde til at justere en tredimensionel model af en tandstilling af en patient til et billede af ansigtet af patienten optaget af et kamera
CN109124805B (zh) * 2018-07-13 2021-02-26 四川大学 数字化镜像cad/cam临时牙的制作方法
JP2022502797A (ja) * 2018-09-24 2022-01-11 サージカル シアター,インコーポレイテッド 360vr容積メディアエディタ
USD896254S1 (en) * 2018-10-30 2020-09-15 Perfect Mobile Corp. Display screen with graphical user interface
EP3689287B1 (de) 2019-01-30 2022-07-27 DENTSPLY SIRONA Inc. System zum vorschlagen und visualisieren von zahnbehandlungen
CN110459083B (zh) * 2019-08-22 2020-08-04 北京众绘虚拟现实技术研究院有限公司 一种视觉-触觉融合的增强现实口腔手术技能训练模拟器
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
CN111568397A (zh) * 2020-04-21 2020-08-25 上海上实龙创智慧能源科技股份有限公司 一种人体健康体征数据采集***及方法
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
WO2022092763A1 (ko) * 2020-10-29 2022-05-05 주식회사 메디트 이미지 처리 방법 및 이를 사용한 장치
KR102512838B1 (ko) * 2020-10-29 2023-03-22 주식회사 메디트 이미지 처리 방법 및 이를 사용한 장치
KR20230163182A (ko) * 2022-05-23 2023-11-30 주식회사 메가젠임플란트 인공지능을 적용한 3차원 얼굴스캔 자동매칭장치 및 그 장치의 구동방법, 그리고 매체에 저장된 컴퓨터프로그램

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004098378A2 (en) * 2003-05-02 2004-11-18 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis treatment planning and therapeutics
US20100030578A1 (en) 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
DE202008014344U1 (de) 2008-10-28 2010-03-25 Edinger-Strobl, Verena, Mag. DDr. Gebissbild-Simulationsvorrichtung
US20120095732A1 (en) 2009-03-20 2012-04-19 3Shape A/S System and method for effective planning, visualization, and optimization of dental restorations
DE102013102421A1 (de) 2013-03-11 2014-09-11 Polymetric GmbH Verfahren zur Überlagerung von digitalisierten Darstellungen und Referenzmarkereinrichtung

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7717708B2 (en) * 2001-04-13 2010-05-18 Orametrix, Inc. Method and system for integrated orthodontic treatment planning using unified workstation
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
GB0707454D0 (en) * 2007-04-18 2007-05-23 Materialise Dental Nv Computer-assisted creation of a custom tooth set-up using facial analysis
US8253778B2 (en) * 2008-03-21 2012-08-28 Takahashi Atsushi Three-dimensional digital magnifier operation supporting system
KR100926978B1 (ko) * 2008-04-08 2009-11-17 삼성전자주식회사 영상 수집 제어 방법 및 장치
US8092215B2 (en) 2008-05-23 2012-01-10 Align Technology, Inc. Smile designer
US8108778B2 (en) 2008-09-30 2012-01-31 Yahoo! Inc. System and method for context enhanced mapping within a user interface
US8088551B2 (en) 2008-10-09 2012-01-03 Micron Technology, Inc. Methods of utilizing block copolymer to form patterns
WO2010042990A1 (en) 2008-10-16 2010-04-22 Seeing Machines Limited Online marketing of facial products using real-time face tracking
JP4794678B1 (ja) * 2010-05-24 2011-10-19 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像通信システム
CN103079494B (zh) 2010-06-29 2016-09-14 3形状股份有限公司 2d图像布置
WO2012090211A1 (en) 2010-12-29 2012-07-05 Santiago Jeevan Kumar Augmented reality computer model facebow system for use in dentistry
KR101223937B1 (ko) * 2011-02-22 2013-01-21 주식회사 모르페우스 안면보정 이미지 제공방법 및 그 시스템
JP2013236749A (ja) * 2012-05-15 2013-11-28 Denso Corp 歯科インプラント手術支援装置
DE102012110491A1 (de) 2012-11-02 2014-05-08 Carsten Dursteler Verfahren und Vorrichtung zur kosmetischen Zahnanalyse und Zahnberatung
ES2905116T3 (es) 2013-03-08 2022-04-07 3Shape As Visualización de una restauración dental 3D sobre una imagen 2D
JP5883816B2 (ja) * 2013-03-11 2016-03-15 株式会社ミウラ 顎変形症術後顔貌予測方法及びシステム
US9378576B2 (en) * 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
AU2015221370A1 (en) * 2014-02-21 2016-09-15 Trispera Dental Inc. Augmented reality dental design method and system
US9808326B2 (en) * 2014-03-18 2017-11-07 President And Fellows Of Harvard College 3D dentofacial system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004098378A2 (en) * 2003-05-02 2004-11-18 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis treatment planning and therapeutics
US20100030578A1 (en) 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
DE202008014344U1 (de) 2008-10-28 2010-03-25 Edinger-Strobl, Verena, Mag. DDr. Gebissbild-Simulationsvorrichtung
US20120095732A1 (en) 2009-03-20 2012-04-19 3Shape A/S System and method for effective planning, visualization, and optimization of dental restorations
DE102013102421A1 (de) 2013-03-11 2014-09-11 Polymetric GmbH Verfahren zur Überlagerung von digitalisierten Darstellungen und Referenzmarkereinrichtung

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
D. Vukadinovic und M. Pantic, „Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers" (2005) IEEE International Conference on Systems, Man and Cybernetics
Dantone, M, Gall, J., Fanellis, G. Van Gool L.Real-time Facial Feature Detection using Conditional Regression Forests2012, IEEE Conference on Computer Vision and Pattern RecognitionS. 2578 - 2585 *
M. Dantone et al, „Real-time Facial Feature Detection using Conditional Regression Forests" (2012) IEEE Conference on Computer Vision and Pattern Recognition
Vukadinovic, D. und Pantic M.Fully Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers2005, IEEE International Conference on Systems, Man and CyberneticsS. 1692 – 1698 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019218031A1 (en) * 2018-05-14 2019-11-21 Iliev Georgi System for production of three-dimensional digital dental models
EP3632369A1 (de) 2018-10-02 2020-04-08 SIRONA Dental Systems GmbH Verfahren zur integration von fotografischen gesichtsbildern und/oder filmen einer person in die planung von odontologischen und/oder kosmetischen zahnbehandlungen und/oder zur herstellung von zahnersätzen für die besagte person
DE102019126111A1 (de) * 2019-09-27 2021-04-01 Urban Technology GmbH Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses

Also Published As

Publication number Publication date
WO2017085160A1 (de) 2017-05-26
US10980422B2 (en) 2021-04-20
JP2018534050A (ja) 2018-11-22
CN108289722A (zh) 2018-07-17
EP3376989A1 (de) 2018-09-26
JP6857178B2 (ja) 2021-04-14
US20180249912A1 (en) 2018-09-06
CN108289722B (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
DE102015222782A1 (de) Verfahren zur Visualisierung einer Zahnsituation
EP3589232B1 (de) Verfahren zur konstruktion einer restauration
EP3134027B1 (de) Verfahren zur durchführung einer optischen dreidimensionalen aufnahme
WO2013181678A1 (de) Verfahren zum fortsetzen von aufnahmen zum erfassen von dreidimensionalen geometrien von objekten
EP2863831B1 (de) Verfahren zur überprüfung von zahnstellungen
EP2914203A1 (de) Verfahren und vorrichtung zur kosmetischen zahnanalyse
EP3618758B1 (de) Verfahren zur konstruktion eines dentalen bauteils
EP2914201B1 (de) Verfahren zur ermittlung mindestens eines relevanten einzelbildes eines dentalen objekts
EP2978384B1 (de) Verfahren zur planung einer wurzelbehandlung eines patienten
EP2651331B1 (de) Vorrichtung und verfahren zur bearbeitung eines virtuellen, dreidimensionalen zahnmodells mittels eines virtuellen werkzeugs
WO2014139944A1 (de) Verfahren zur überlagerung von digitalisierten darstellungen und referenzmarkereinrichtung
DE102014102111B4 (de) Verfahren zur Visualisierung zahnmedizinisch relevanter anatomischer Relationen und/oder Strukturen
EP3682453B1 (de) Verfahren zur ermittlung und visualisierung von zahnbewegungen und geplanten zahnumstellungen
EP3454776B1 (de) Computerimplementiertes verfahren zur festlegung einer zahnaufstellung
DE102019126111A1 (de) Verfahren, Computerprogrammprodukt und Simulationssystem zur Erstellung und Ausgabe eines dreidimensionalen Modells eines Gebisses
WO2012126970A1 (de) Verfahren zur bearbeitung eines zahnmodells mittels eines virtuellen werkzeugs
DE102018204098A1 (de) Bildausgabeverfahren während einer dentalen Anwendung und Bildausgabevorrichtung
EP3636202B1 (de) Dentales fuehrungssystem zur zahnpraeparation
EP4076269B1 (de) Verfahren zur definition mindestens einer grenzfläche im inneren eines künstlichen zahnelements
EP3599443A1 (de) Verfahren zum optischen erfassen der oberflächengeometrie von zahnfleisch
DE19923978A1 (de) Verfahren zur computergestützten patientenspezifischen Darstellung und Planung zahnärztlicher und/oder zahnprothetischer Arbeiten
DE102013203888B4 (de) Computer-implementiertes Verfahren zum Festlegen der Anbringungspositionen einer Mehrzahl von Angriffselementen für einen Drahtbogen einer zahnmedizinischen Apparatur auf zugeordneten Zähnen eines Patienten sowie Anzeige mit linearer Nebeneinanderanordnung der Zähne
WO2013021022A2 (de) Datenbank und verfahren zur erzeugung einer virtuellen dentalen objektdarstellung aus einer aufnahme
DE102013109484A1 (de) Verfahren zum Einpassen eines Zahnersatzes in eine Reparaturstelle
WO2000061030A1 (de) Verfahren zur computergestützten patientenspezifischen darstellung und planung zahnärztlicher und/oder zahnprothetischer arbeiten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: JONES DAY RECHTSANWAELTE PATENTANWAELTE, DE

R082 Change of representative
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee