ES2922376T3 - Modelación en 3D de un objeto usando características texturales - Google Patents

Modelación en 3D de un objeto usando características texturales Download PDF

Info

Publication number
ES2922376T3
ES2922376T3 ES19214718T ES19214718T ES2922376T3 ES 2922376 T3 ES2922376 T3 ES 2922376T3 ES 19214718 T ES19214718 T ES 19214718T ES 19214718 T ES19214718 T ES 19214718T ES 2922376 T3 ES2922376 T3 ES 2922376T3
Authority
ES
Spain
Prior art keywords
digital representation
data
site
textural
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19214718T
Other languages
English (en)
Inventor
Rune Fisker
Tais Clausen
Nikolaj Deichmann
Mikkel Bille Stegmann
Karl-Josef Hollenbeck
Thomas Højgaard Allin
Lars Schjøth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3Shape AS
Original Assignee
3Shape AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3Shape AS filed Critical 3Shape AS
Application granted granted Critical
Publication of ES2922376T3 publication Critical patent/ES2922376T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C5/00Filling or capping teeth
    • A61C5/70Tooth crowns; Making thereof
    • A61C5/77Methods or devices for making crowns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y80/00Products made by additive manufacturing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Dentistry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Se divulga un método y un sistema para el modelado 3D de un objeto 3D adaptado para ser insertado o usado por un paciente. El modelado 3D aplica información de una o más características de una representación digital 2D adquirida que comprende datos de textura de la ubicación donde el objeto 3D está adaptado para ser organizado. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Modelación en 3D de un objeto usando características texturales
Esta invención generalmente se refiere a un método para modelación en 3D de un objeto adaptado para ser insertado en una cavidad de un paciente o llevado por un paciente. Más particularmente, la invención se refiere a obtener representaciones digitales de al menos una parte del lugar en donde el objeto es adaptado para ser colocado.
El diseño y la modelación de los dientes son conocidos en el campo de las restauraciones dentales. Cuando un paciente requiere una restauración dental, tal como coronas, puentes, pilares, o implantes, el dentista preparará los dientes, por ejemplo un diente dañado es triturado para hacer una preparación en la que una corona es pegada. Un tratamiento alternativo es insertar implantes, tales como tornillos de titanio, en la mandíbula del paciente y montar coronas o puentes en los implantes. Después de preparar los dientes o insertar un implante, el dentista puede hacer una impresión de la mandíbula superior, la mandíbula inferior y un registro de mordida o una única impresión en una bandeja de doble cara, también conocida bandeja triple. Las impresiones son enviadas a los técnicos dentales que manufacturan las restauraciones, por ejemplo el puente. El primer paso para manufacturar la restauración es tradicionalmente fundir los modelos dentales superior e inferior a partir de impresiones de la mandíbula superior y la inferior, respectivamente. Los modelos están usualmente hechos de yeso y a menudo alineados en un articulador dental usando el registro de la mordida para simular la mordida real y el movimiento de masticación. El técnico dental realiza la restauración dental dentro del articulador para asegurar una apariencia visual agradable y la funcionalidad de la mordida.
La tecnología CAD para manufacturar las restauraciones dentales está rápidamente expandiendo la mejora de la calidad, reduciendo el coste y facilitando la posibilidad de manufacturar en materiales atractivos de otro modo no disponibles. El primer paso en el proceso CAD de manufacturación es crear un modelo tridimensional de la dentadura del paciente. Esto tradicionalmente se hace explorando en 3D uno o ambos de los modelos dentales de yeso. Las réplicas en tridimensionales de los dientes son importadas en un programa, en donde se diseña la restauración dental completa, tal como una subestructura de puente. El diseño de la restauración final en 3D es manufacturado a continuación por ejemplo usando una fresadora, una impresora en 3D, una manufacturación de prototipo rápida u otro equipo de manufacturación. Los requerimientos de precisión para las restauraciones dentales son muy altos siendo de otro modo la restauración dental no atractiva visualmente, el encaje sobre los dientes podría causar dolor o causar infecciones.
El documento WO0019935A expone un método aplicado por un computador para uso en la creación de un modelo digital de un componente individual de la dentadura de un paciente, comprendiendo el método: (a) recibir un conjunto de datos que forma una representación tridimensional (3D) de la dentadura del paciente; (b) aplicar una prueba aplicada por un computador al conjunto de datos para identificar los elementos de datos que representan porciones de un componente individual de la dentadura del paciente; y (c) crear un modelo digital del componente individual basado en los elementos de los datos identificados.
El documento US7234937B se refiere a un sistema para uso en la diagnosis y el tratamiento de planificación de un paciente humano y comprende: un sistema informático de uso general que tiene un procesador y una interfaz de usuario; una memoria accesible a dicho sistema informático de uso general que almacena a) un primer conjunto de datos digitales que representan una información de la imagen craneofacial del paciente obtenida de un primer dispositivo de obtención de imágenes, y b) un segundo conjunto de datos digitales que representan una información de la imagen craneofacial del paciente obtenida de un segundo dispositivo de imágenes diferente de dicho primer dispositivo de imágenes, representando al menos en parte dichos conjuntos de datos primero y segundo las estructuras anatómicas craneofaciales comunes de dicho paciente, incluyendo al menos uno de dichos conjuntos primero y segundo de datos digitales los datos que representan la apariencia visual externa o configuración superficial de la cara del paciente, en donde dichos conjuntos primero y segundo de datos digitales son cada uno obtenidos en diferentes puntos en el tiempo y no son captados de una forma correlacionada; y un conjunto de instrucciones de computador almacenadas en un medio de almacenamiento leíble por una máquina accesible a dicho sistema informático de uso general, en donde dicho conjunto de instrucciones comprende unas instrucciones para hacer que dicho sistema informático general: 1) automáticamente, y/o con la ayuda de la interacción del operador, superponga dicho primer conjunto de datos digitales y dicho segundo conjunto de datos digitales para proporcionar una representación digital compuesta combinada de dichas estructuras craneofaciales anatómicas creadas a partir de dichos conjuntos de datos digitales primero y segundo, obtenido cada uno en diferentes puntos en el tiempo y no captados en una forma correlacionada en un sistema de coordenadas común; en donde dicho conjunto de instrucciones comprende unas instrucciones para crear una cara 3D virtual al menos a partir de una porción de dichas estructuras anatómicas craneofaciales usando una estrategia activa de coincidencia del modelo; 2) mostrar dicha representación digital compuesta, combinada de dichas estructuras anatómicas craneofaciales, incluyendo dicha cara virtual en 3D, a un usuario de dicho sistema.
El documento US2009133260A expone unos sistemas y métodos para fabricar una prótesis de restauración. El sistema incluye un explorador para intraoralmente captar información del color y la translucencia junto con una forma tridimensional (3D) de la dentadura que se está reconstruyendo. El sistema también incluye un módulo de diseño ayudado por un computador (CAD) para recibir información del color y la translucencia y la forma en 3D para obtener una representación precisa del color de la prótesis para revisar, en donde la información del color, la translucencia y la superficie es combinada en una única prescripción digital que es electrónicamente transferida a un laboratorio o sistema CAD/CAM para fabricación. El sistema proporciona la capacidad para la forma en 3D, las características de color y translucencia de la prótesis final para ser medidas y cuantitativamente comparadas con los requerimientos prescritos.
El documento US2008024768 expone exploradores ópticos, particularmente para proporcionar una representación digital de objetos tridimensionales en la cavidad oral incluyendo color y textura.
No obstante, sigue siendo un problema mejorar y expandir el uso de los datos geométricos y los datos texturales para la tecnología relacionada con el paciente.
La invención es definida por las reivindicaciones adjuntas.
Para completar y ayudar a entender la invención, la presente descripción puede presentar ejemplos que no están cubiertos por las reivindicaciones. Por lo tanto, estos ejemplos no son parte de la invención.
Se expone un método para la modelación en 3D de un objeto en 3D adaptado para ser insertado en o ser llevado por un paciente, en donde el método comprende:
- obtener una representación digital en 3D de al menos una parte del lugar en el que el objeto en 3D es adaptado para ser colocado, en donde la representación digital en 3D comprende los datos geométricos del lugar; - obtener una representación digital en 2D de al menos una parte del lugar en el que el objeto está adaptado para ser dispuesto, en donde la representación digital en 2D comprende los datos texturales relativos a una o más características del lugar;
en donde una cobertura deseada del lugar se consigue obteniendo cada una de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos desde uno o más puntos de vista relativos al lugar;
- alinear la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos;
- combinar al menos una parte de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D comprendiendo los datos geométricos para obtener una representación digital combinada en 3D que comprende los datos geométricos y los datos texturales del lugar;
- visualizar la representación combinada en 3D que comprende los datos geométricos y los datos texturales del lugar; y
- una modelación en 3D del objeto en 3D de modo que el objeto modelado en 3D es adaptado para ser insertado en o llevado por un paciente, en donde dicha modelación en 3D aplica la información de la una o más características de la representación digital obtenida en 2D que comprende los datos texturales.
Se expone un método para la modelación en 3D de un objeto en 3D adaptado para ser insertado en o llevado por un paciente, en donde el método comprende los pasos de:
- obtener una representación digital en 3D de al menos una parte del lugar en donde el objeto es adaptado para ser colocado, en donde la representación digital en 3D comprende los datos geométricos del lugar;
- obtener una representación digital en 2D de al menos una parte del lugar en donde el objeto es adaptado para ser colocado, en donde la representación digital en 2D comprende los datos texturales del lugar;
en donde la obtención de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos es realizada reposicionando el lugar y los medios de obtención relativos entre sí para obtener una cobertura deseada del lugar;
- alinear y combinar al menos parte de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos para obtener una representación digital en 3D que comprende los datos geométricos y los datos texturales del lugar;
- visualizar la representación combinada en 3D que comprende los datos geométricos y los datos texturales del lugar; y
- aplicar la información de una o más características de la representación digital en 2D que comprende los datos texturales del lugar, cuando se modela el objeto en 3D.
En algunas realizaciones el lugar es automáticamente situado de nuevo con relación a una unidad de obtención durante la obtención de la representación digital en 2D que comprende los datos texturales y durante la obtención de la representación digital en 3D que comprende los datos geométricos, de modo que al menos una de las representaciones digitales es obtenida automáticamente desde un número de diferentes puntos de vista y se obtiene la cobertura deseada.
Se expone un método para la modelación en 3D de un objeto en 3D adaptado a ser insertado en o llevado por un paciente, en donde el método comprende:
- obtener una representación digital en 3D de al menos una parte del lugar en el que el objeto en 3D está adaptado para ser dispuesto, en donde la representación digital en 3D comprende los datos geométricos del lugar; - obtener una representación digital en 2D de al menos una parte del lugar en el que el objeto está adaptado para ser colocado, en donde la representación digital en 2D comprende los datos texturales relativos a una o más características del lugar;
en donde una cobertura deseada del lugar se consigue obteniendo cada una de la representación digital en 2D de los datos texturales y la representación digital en 3D que comprende los datos geométricos de uno o más puntos de vista diferentes con relación al lugar;
- alinear la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos; y
- la modelación en 3D del objeto de modo que el objeto en 3D modelado sea adaptado para ser insertado en o llevado por un paciente, en donde dicha modelación en 3d aplica la información de las una o más características procedentes de la representación digital en 2D obtenida que comprende los datos texturales.
En algunas realizaciones, al menos una parte de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos son combinadas para obtener una representación digital en 3D combinada que comprende los datos geométricos y los datos texturales del lugar, y en donde el método comprende visualizar la representación combinada en 3D que comprende los datos geométricos y los datos texturales del lugar.
Se expone un sistema para la modelación en 3D de un objeto en 3D adaptado para ser insertado en o llevado por un paciente, en donde el sistema comprende:
- una unidad de iluminación configurada para iluminar al menos parte de un volumen de exploración del sistema;
- una unidad de obtención configurada para obtener una representación digital en 2D que comprende los datos texturales y una representación digital en 3d que comprende los datos geométricos de un lugar colocado en el volumen de exploración;
- una primera unidad de procesador de señales digitales configurada para:
- analizar las representaciones digitales en 2D y las representaciones digitales en 3D obtenidas,
- alinear la representación digital en 2D y la representación digital en 3D; y
- combinar al menos parte de la representación digital en 2D y la representación digital en 3D para obtener una representación digital combinada en 3D que comprende los datos geométricos y los datos texturales del lugar;
- un dispositivo de visualización para visualizar la representación combinada en 3D que comprende los datos geométricos y los datos texturales del lugar; y
- una segunda unidad de procesador de señales digitales configurada para modelar en 3D el objeto en 3D, de modo que el objeto modelado en 3D sea adaptado para ser insertado en o llevado por un paciente, en donde dicha modelación en 3D comprende aplicar la información procedente de la representación digital obtenida en 2D. En el contexto de la presente invención la frase “volumen de exploración” puede referirse al volumen en el que un lugar puede ser iluminado con una luz procedente de la o las fuentes de luz y la luz reflejada desde el lugar puede ser recibida por las cámaras, de modo que la representación digital en 2D y la representación digital en 3D puedan ser obtenidas de un lugar dispuesto en el volumen de exploración.
En el contexto de la presente invención la frase “aplicación de información de una o más características de la representación digital en 2D” puede referirse al caso en el que la representación digital en 2D proporciona la información de las una o más características.
La característica puede ser parte del lugar o definida en el lugar, un modelo físico o una impresión del lugar, y la representación digital en 2D obtenida que comprende los datos texturales puede proporcionar la información de las una o más características.
En el contexto de la presente invención, las frases “objeto” y “objeto en 3D” pueden usarse indistintamente.
En el contexto de la presente invención, las frases “modelación” y “modelación en 3D” pueden usarse indistintamente.
Una característica que tiene una geometría que permite que la característica sea identificada en una representación digital del lugar puede ser referida como una característica geométrica.
Una característica que tiene una textura que permite que la característica sea identificada en una representación digital del lugar puede ser referida como una característica textural.
Una característica puede tener una geometría y una textura. Una característica puede así ser referida como una característica geométrica y una característica textural cuando la característica tiene una geometría y una textura que permite que la característica sea identificada en una representación digital del lugar.
El lugar puede ser la parte o en la parte del cuerpo de los pacientes en donde el objeto en 3D es adaptado para ser insertado o llevado por el paciente.
En el contexto de la presente invención la frase “una característica del lugar” puede referirse a situaciones en las que la característica es una parte integrada del lugar, tal como por ejemplo la línea de margen de un diente preparado para una restauración, a situaciones en las que la característica es definida directamente en el lugar, tal como por ejemplo una parte de un aparato de ortodoncia o una línea dibujada sobre un diente de un paciente por un técnico dental, o situaciones en la que la característica está definida en un modelo físico o una impresión del lugar, tal como una línea dibujada en un modelo de yeso de un conjunto de dientes.
La frase “el lugar” puede referirse al lugar propiamente dicho, a un modelo físico del lugar o una impresión del lugar. Por ejemplo puede la frase “obtener una representación digital en 2D del lugar” referirse a una situación en la que se obtiene una representación digital en 2D del lugar, de un modelo físico del lugar, o de una impresión del lugar. La frase “datos texturales del lugar” puede por tanto referirse a situaciones en las que la característica que tiene una textura es una parte integrada del lugar, y en donde las características son definidas por ejemplo por un técnico dental directamente en el lugar o en un modelo físico o una impresión del lugar. Por ejemplo, una característica puede ser una línea coloreada dibujada en un modelo físico de un conjunto de dientes, en donde la característica es un contorno de una dentadura parcial retirable, y la textura de la característica es el color en el que el contorno está definido. La característica no es por tanto una parte integrada del lugar, es decir la boca del paciente, pero es definida más tarde sobre el modelo físico. En el contexto de la presente invención, la línea dibujada puede además ser considerada como una característica del lugar.
La representación digital en 2D que comprende los datos texturales del lugar puede comprender una o más imágenes en 2D del lugar o de un modelo físico o una impresión del lugar. Las una o más imágenes en 2D pueden ser obtenidas a partir del mismo o de diferentes puntos de vista relativos al lugar.
La representación digital en 2D que comprende los datos texturales puede ser obtenida a partir de los mismos puntos de vista que la representación digital en 3D que comprende los datos geométricos. Esto puede facilitar una alineación relativamente recta hacia delante de la representación digital en 2D y la representación digital en 3D. La representación digital en 2D que comprende los datos texturales puede ser obtenida desde puntos de vista que no sean los mismos que los puntos de vista desde los cuales se obtiene la representación digital en 3D que comprende los datos geométricos.
Una imagen en 2D que comprende los datos relativos a la textura del lugar pueden ser referidos como una imagen textural o una imagen de la textura.
Por lo tanto, es una ventaja que las características de la representación digital en 2D que comprende los datos texturales de un lugar puedan ser usados para facilitar la modelación en 3D de un objeto que está adaptado para ser colocado en ese lugar. Cuando se usan datos texturales del lugar cuando se modela el objeto, el resultado de la modelación puede ser mejorado debido a los diferentes tipos de datos que son usados, por lo que pueden ser detectados diferentes tipos de características del lugar y tenidos en cuenta para el proceso de modelado del objeto. La textura se define como la percepción, forma y aspecto de la superficie del lugar, por lo que la textura puede comprender la suavidad, aspereza, blandura, color, etc. del lugar. La textura puede referirse a las propiedades mantenidas y las sensaciones causadas por la superficie externa del lugar recibidas a través del sentido del tacto. La textura puede también ser usada para describir la percepción de las sensaciones no táctiles. La textura puede comprender un patrón, color u otras propiedades visuales de la superficie del lugar. De este modo los datos texturales son datos que describen la textura de la superficie del lugar.
La geometría se define como el tamaño, forma, posición relativa de las características, y las propiedades de espacio, y por lo tanto se refiere a longitudes áreas y volúmenes del lugar. Los datos geométricos son datos que describen la geometría de la superficie del lugar.
La representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos del lugar pueden ser obtenidos desde cualquier punto de vista por medio de la reposición del lugar y los medios de obtención, tal como la fuente de luz y la cámara usadas para obtener las representaciones digitales, relativas de uno con respecto a otro. El reposicionamiento puede ser realizado automáticamente usando al menos un sistema de movimiento biaxial en por ejemplo un explorador. De este modo el explorador puede comprender un sistema de movimiento biaxial o triaxial adaptado a realizar la obtención automáticamente de las representaciones digitales del lugar desde cualquier punto de vista.
De este modo puede ser una ventaja que el mismo sistema de movimiento sea usado para reposicionar el lugar para la obtención de los datos geométricos y texturales. El sistema de movimiento puede estar dispuesto en un explorador de 3D en el que está colocado un modelo o una impresión para ser explorado. El sistema de movimiento puede realizar el movimiento traslacional y/o rotacional del modelo o impresión o de los medios de obtención, es decir la fuente de luz y/o la cámara para obtener la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos. Por lo tanto el reposicionamiento puede ser del lugar para el que los datos están siendo captados, por ejemplo el modelo o impresión, y/o el reposicionamiento puede ser de los medios de obtención, la o las fuentes de luz y la cámara. Cuando se tienen dos o tres ejes en el sistema de movimiento, el modelo o impresión puede ser explorado desde los lados y desde la parte superior.
Una cobertura deseada del lugar puede ser una cobertura total de todo el lugar o de parte del lugar, o solamente la cobertura de un área específica del lugar. Una cobertura deseada puede ser obtenida captando por ejemplo tres o cuatro imágenes texturales, que pueden a continuación ser montadas formando una imagen textural compuesta. Más o menos imágenes texturales pueden ser captadas para obtener una cobertura deseada.
La alineación y la combinación pueden describir cómo las dos representaciones digitales, las representaciones digitales en 3D que comprenden los datos geométricos y las representaciones digitales en 2D que comprenden los datos texturales del lugar, son procesadas con el fin de obtener una representación digital en 3D combinada que comprenda los datos geométricos y los datos texturales.
El alineamiento puede ser definido como el ajuste de una representación digital de un lugar en relación con otra representación digital del lugar, de modo que las estructuras de las representaciones digitales sean coincidentes. Así las estructuras comunes o similares de la representación digital en 3D que comprende los datos geométricos del lugar y la representación digital en 2D que comprende los datos texturales del lugar están alineadas.
La alineación y combinación de las representaciones puede mejorar la visualización y la precisión de la detección de las características.
En el contexto de la presente invención, la frase “visualizando la representación combinada en 3D” puede referirse a una visualización de todos los datos proporcionados por la representación en 3D combinada o a una visualización o a una visualización de una parte de los datos proporcionados por la representación en 3D combinada. La representación visualizada en 3D combinada puede por lo tanto proporcionar una visualización de la información extraída más bien que todos los datos que pueden ser proporcionados desde la representación digital en 2D.
Aplicando la información de las una o más características texturales del lugar, cuando se modela el objeto, puede ser definido como cuando se modela el objeto que está adaptado para ser insertado, llevado o colocado en el lugar, la información de las características texturales del lugar se usa de modo que el objeto se ajuste en el lugar teniendo en cuenta las características texturales del lugar. El ajuste del objeto puede significar que la inserción o llevar el objeto no cause dolor al paciente, y que la inserción o llevar el objeto sea estéticamente agradable.
Entre los odontólogos la modelación de un objeto puede comprender la modelación de una o más restauraciones dentales o la restauración de subestructuras, la modelación de uno o más implantes o pilares de implantes, los aparatos de ortodoncia de modelación o el movimiento de ortodoncia de modelación de uno o más dientes, la modelación de una dentadura, por ejemplo una dentadura total o parcial fija o parcial retirable, o la modelación de uno o más dientes en una dentadura.
De este modo la modelación puede comprender la modelación de restauraciones, aparatos de ortodoncia, implantes, dentaduras etc. Cuando la modelación por diseño 3D ayudado por computador (CAD) comprende por ejemplo restauraciones, las restauraciones modeladas virtualmente, tales como las coronas y puentes, pueden ser manufacturadas por medio de la manufacturación ayudada por computador (CAM), y las restauraciones o aparato manufacturados pueden entonces eventualmente ser insertados en la boca del paciente por un dentista.
El paso de aplicar la información de las una o más características del lugar cuando se modela el objeto y otros pasos del método puede ser realizado digitalmente en un computador y mostrado en una interfaz de usuario tal como una pantalla, de modo que el usuario u operador obtenga una representación visual de los conjuntos de datos y las operaciones diferentes realizadas en los conjuntos de datos puedan entonces finalizar o comprobar la modelación del objeto.
El método puede comprender la manufacturación del objeto en 3D modelado y/o la planificación del tratamiento del lugar usando uno o más objetos manufacturados por medio del método.
También se expone un método de manufacturación de un objeto en 3D adaptado para ser insertado o llevado por un paciente, en donde el método de manufacturación comprende los pasos del método para modelar en 3D el objeto en 3D y un paso de manufacturación del objeto en 3D modelado.
Como una alternativa de la fraseología de obtención de una representación digital de al menos una parte del lugar en el que el objeto es adaptado para ser colocado, el método puede comprender la obtención de una representación digital del lugar en donde el objeto es adaptado para ser colocado.
La representación digital en 3D del lugar y el modelo en 3D del objeto en 3D puede ser mediante una representación de base triangular, en donde la superficie en 3D es parametrizada por un número de vértices, que están conectados por triángulos.
De este modo las exploraciones geométricas son exploraciones de la superficie que proporcionan una representación de la superficie. Cuando se modela el objeto por ajuste en el lugar, es así la superficie del objeto lo que está siendo modelado, o la modelación es realizada sobre la superficie del objeto o fuera de la superficie del objeto. Para realizar la modelación fuera de la superficie, puede realizarse digitalmente un desplazamiento de la superficie. En el desplazamiento una copia de la superficie es colocada a una distancia de la superficie, de modo que la modelación pueda ser realizada sobre una forma similar a la forma de la superficie, pero sin modelar la superficie del objeto propiamente dicho.
En por ejemplo los exploradores CT, se explora un volumen y de este modo se realiza una representación volumétrica y no una representación de la superficie.
El documento WO0019935 antes descrito expone un método de obtención de conjuntos de datos que forma representaciones en 3D de la dentición del paciente y para identificar elementos de datos que representan componentes individuales, en donde el componente individual puede ser un diente individual o un tejido de las encías. Así este método está relacionado con representaciones en 3D para identificar por ejemplo un diente individual y así no está relacionado con la detección de características del diente, por ejemplo detectado a partir de una representación en 2D. El método se usa para crear aparatos de ortodoncia para aplicar un plan de tratamiento. El documento US7234937 antes descrito expone un sistema para almacenar y combinar representaciones de datos diferentes de información de una imagen craneofacial de un paciente que incluye una apariencia visual externa o una configuración de la superficie de la cara del paciente para crear una cara virtual en 3D. De este modo este documento se relaciona con la imagen craneofacial, y el documento por ejemplo no expone el uso de la información de características o modelación de un objeto.
En el documento US2009133260A también descrito antes, la información del color y la translucencia y la forma en 3D se usan para convertir una representación de color precisa de la prótesis para revista, de modo que el usuario pueda revisar si el color de la prótesis es correcto.
El documento US2004107080 se refiere a la manufactura de piezas del oído y expone un método para la modelación ayudada por computador de piezas de oído personalizadas que comprende al menos una parte que está individualmente adaptada a un canal de audición y/o un meato, en donde el método comprende un número de pasos que incluyen los pasos de: a) obtener un modelo de computador tridimensional, un modelo 3D del lugar, es decir de al menos parte del canal de audición, en donde el modelo en 3D del lugar tiene una superficie exterior. El documento también expone que en algunas realizaciones una impresión del oído o del canal de audición, que se usa para generar la representación digital en 3D del canal, es explorada de modo que se proporciona exploración de la textura, que incluye una exploración del color. Además, en algunas realizaciones la textura marcada en la impresión se usa para la colocación inicial, y en algunas realizaciones el método comprende asignar los colores y/o texturizando hasta la superficie del armazón. El documento US2004107808 por ejemplo no expone que la obtención de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos son realizados por la reposición automática del lugar y los medios de obtención relativos uno con respecto al otro para obtener una cobertura deseada del lugar. Además, el documento no expone una representación digital combinada y alineada en 3D.
En alguna realización el método comprende extraer la información de las una o más características de la representación digital en 2D que comprende los datos texturales.
De este modo la información de las una o más características puede ser extraída antes de aplicar la información de las características cuando se modela el objeto en 3D.
En algunas realizaciones la extracción de la información se realiza automáticamente.
La extracción automática de la información de una o más características del lugar puede ser definida como que una o más de las características del lugar es detectada automáticamente de la representación digital en 2d que comprende los datos texturales.
La información puede ser extraída a partir de las características que son definidas usando un patrón bastante complejo en el lugar. Una característica puede por ejemplo ser definida usando un bucle cerrado para marcar los bordes de la característica y el número de líneas de intersección colocadas para formar una rejilla dentro de este borde. Una característica puede también ser definida usando una línea que comprende un número de segmentos de línea disyuntivos. Para una línea que comprende un número de segmentos de línea disyuntivos, la línea completa puede ser formada uniendo los segmentos de la línea. Esto puede ser realizado estimando los gradientes del segmento de línea contigua en los extremos enfrentados entre sí. Cuando los vectores gradiente son sustancialmente paralelos, los dos segmentos de línea son posiblemente secciones de la misma línea, y pueden por tanto ser unidos virtualmente. Cuando un número de líneas que interseccionan forman una rejilla, los gradientes de los segmentos de línea entre las intersecciones pueden ser determinados y la evaluación de la disposición relativa de las líneas en las intersecciones puede comprender identificar las diferentes partes de la intersección a partir del gradiente de las líneas entre las intersecciones.
Alternativamente, la extracción de información de las una o más características es realizada manualmente por el operador.
En algunas realizaciones el método comprende trasladar una o más características en 2D desde la representación digital en 2D que comprende los datos texturales en características en 3D.
Puede ser una ventaja que las características de la representación digital en 2D puedan ser transformadas en características en 3D, ya que por lo tanto la información procedente de la representación digital en 2D puede ser aplicada en la modelación en 3D del objeto en 3D. Las una o más características en 2D pueden comprender un punto en 2D, una curva en 2D o una acanaladura en 2D. La característica en 3D comprende un punto en 3D, una curva en 3D o una acanaladura en 3D, tal como una acanaladura en 3D extraída de los datos texturales de la representación digital en 2D.
En el contexto de la presente invención la frase “una característica en 2D” puede referirse a la forma de una característica del lugar como captada en una imagen en 2D de la representación digital en 2D que comprende los datos texturales. Cada una de estas imágenes en 2D puede comprender parte de la información de la característica y esta parte puede ser extraída como dicha característica en 2D. La combinación puede comprender proyectar las características en 2D desde una o más imágenes en 2D sobre la representación digital en 3D. Las características en 2D pueden ser trasladadas a características en 3D basado en una representación digital en 3D combinada, en donde la representación digital en 3D combinada puede comprender la representación digital en 3D sobre la cual se proyectan las características en 2D desde una o más imágenes en 2D de la representación digital en 2D. La información de la representación digital en 2D puede ser la característica en 3D, de modo que la modelación en 3D aplica la característica en 3D.
En algunas realizaciones la combinación de la representación digital en 2D y de la representación digital en 3D para obtener una representación digital en 3D combinada comprende proyectar la información extraída de la representación digital en 2D sobre la representación digital en 3D.
Así la combinación de las dos representaciones puede comprender proyectar una de las representaciones sobre la otra representación, por ejemplo proyectando la representación digital en 2D que comprende los datos texturales del lugar sobre la representación digital en 3D que comprende los datos geométricos del lugar.
Un sistema para obtener la representación digital en 3D que comprende los datos geométricos y la representación digital en 2D que comprende los datos texturales puede comprender varios componentes tales como una o más unidades de iluminación, unidades de obtención, y una unidad de posicionamiento para la traslación y/o la rotación del lugar con relación a las unidades de iluminación y obtención. Una proyección directa de una parte de la representación digital en 2D sobre la representación digital en 3D del lugar formada a partir de dicha representación digital en 3D es posible cuando el conocimiento detallado de la disposición del lugar y las unidades del sistema están disponibles. En algunas realizaciones el sistema está completamente caracterizado para proporcionar este conocimiento y la relativa disposición de por ejemplo las unidades de posicionamiento, las fuentes de luz de la unidad de iluminación y las cámaras de la unidad de obtención son por tanto conocidas para cada representación digital obtenida o parte de una representación digital. Las posiciones relativas de las unidades de obtención y el lugar pueden así ser identificados para cada parte obtenida de la representación digital en 2D y la representación digital obtenida en 2D o las partes de la representación digital en 2D pueden ser proyectadas directamente sobre el digital en 3D.
Un modo de probar una proyección precisa de las representaciones digitales en 2D de la representación digital en 3D es integrar un modelo virtual del sistema en el soporte lógico, de modo que la orientación del lugar relativa a la o las cámaras usadas para obtener las imágenes en 2D de la representación digital en 2D es conocida para cada imagen en 2D obtenida de la representación digital en 2D. El soporte lógico puede a continuación proyectar las imágenes en 2D o partes de las imágenes en 2D de la representación digital en 2D sobre la representación digital en 3D. El soporte lógico puede también ser configurado para aplicar otros pasos del método de acuerdo con la presente invención. La distorsión de la lente puede ser tenida en cuenta y por ejemplo ser incluida en el modelo virtual del sistema.
En algunas realizaciones la representación digital en 3D es obtenida explorando un modelo físico del lugar, explorando una impresión del lugar, y/o realizando una exploración directa del lugar.
Cuando la representación digital en 2D se proporciona obteniendo las imágenes en 2D de un modelo físico o una impresión del lugar, la característica puede ser definida sobre el modelo físico o una impresión del lugar antes de obtener las imágenes en 2D. Esto es, la característica no puede ser parte del lugar sino algo que es añadido antes de la obtención de la representación digital en 2D. La característica puede también ser algo que es añadido al lugar antes de obtener un modelo físico o impresión del lugar o antes de una obtención directa de la representación digital en 2D.
En el contexto de la presente invención, la frase “obtener una representación digital en 2D de al menos una parte del lugar en donde el objeto es adaptado para ser dispuesto, en donde la representación digital en 2D comprende los datos texturales del lugar” puede también referirse al caso en el que los datos texturales del lugar son definidos sobre un modelo físico o una impresión del lugar o directamente en el lugar antes de una exploración directa del lugar. Los datos texturales pueden ser definidos por un operador, tal como un técnico dentista, por ejemplo dibujando las características sobre un modelo físico del lugar.
En algunas realizaciones la obtención de la representación digital en 3D que comprende los datos geométricos del lugar y la representación digital en 2D que comprende los datos texturales del lugar es realizada por medio de un sistema adaptado para obtener los datos geométricos y los datos texturales.
El sistema puede comprender una unidad de obtención configurada para obtener las representaciones digitales del lugar y una unidad de posicionamiento configurada para posicionar el lugar relativo a la unidad de obtención, y el método comprende disponer el lugar, un modelo físico o una impresión del lugar, en relación con el sistema. La unidad de obtención y la unidad de posicionamiento pueden ser parte de un explorador en 3D. La unidad de obtención puede comprender una o más cámaras adaptadas para obtener los datos geométricos y los datos texturales.
En algunas realizaciones el lugar es automáticamente reposicionado con relación a la unidad de obtención durante la obtención de la representación digital en 2D que comprende los datos texturales y durante la obtención de la representación digital en 3D que comprende los datos geométricos, de modo que al menos una de las representaciones digitales es obtenida automáticamente desde un número de puntos de vista diferentes y se obtiene la cobertura deseada. La representación digital en 2D y la representación digital en 3D pueden ser obtenidas automáticamente desde un número de puntos de vista diferentes.
En algunas realizaciones la unidad de posicionamiento proporciona un reposicionamiento automático del lugar con relación a la unidad de obtención.
Dentro de la odontología el técnico dental puede dibujar características directamente sobre un modelo físico o una impresión del lugar, cuyas características dibujadas pueden ser anotaciones indicadas, y en donde las características pueden ser líneas para ser usadas para modelar el objeto. Las líneas pueden por ejemplo ser la línea de margen de preparación para una restauración dental, o el conector principal, abrazaderas y rejillas de retención para una dentadura parcial. Así, estas características dibujadas, tales como líneas, pueden ser usadas como información de la textura.
Cuando se usa una exploración directa, tal como una exploración intraoral, la textura puede estar presente en los dientes en la forma de colores, sombras, propiedades del material, etc. La característica puede ser una línea dibujada directamente sobre los dientes o sobre el tejido suave del paladar del paciente. Por ejemplo, cuando el objeto en 3D comprende una parte retirable, una forma preferida de la retirable parcial puede ser indicada sobre los dientes y el tejido suave.
Cuando se usa la exploración de impresión la textura está presente sobre la impresión en la forma de por ejemplo una estructura fina de la superficie del material de impresión. Dentro de la odontología la trituración de un diente o la trituración de una línea de preparación producen una estructura superficial más áspera, en donde se hace la trituración, y esta estructura áspera es transferida al material de impresión cuando se hace una impresión de los dientes. La parte de un diente que no está triturada tiene una superficie más suave que la superficie áspera de la trituración.
En algunas realizaciones la obtención de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos del lugar comprenden la obtención de imágenes en 2D y la exploración, respectivamente, del lugar desde un número de puntos de vista diferentes. La obtención de la representación digital en 2D puede comprender la obtención de una o más imágenes en 2D de un modelo físico del lugar o de una impresión del lugar, y/o la obtención de imágenes en 2D directamente del lugar. Las imágenes en 2D pueden ser obtenidas usando una o más cámaras.
Una ventaja de esto es que cuando se obtienen imágenes en 2D y se explora respectivamente, el lugar desde diferentes puntos de vista, entonces se pueden obtener los datos para todas o las características relevantes del lugar. Los diferentes puntos de vista pueden comprender ángulos diferentes, etc.
En algunas realizaciones la parte de la representación digital en 2D que comprende los datos texturales que está combinada con la representación digital en 3D comprende una o más secciones de las imágenes en 2D de la representación digital en 2D obtenida. Las una o más secciones de las imágenes en 2D pueden ser las secciones que se refieren a la característica del lugar.
En algunas realizaciones la modelación en 3D del objeto en 3D es realizada automáticamente basada en las una o más características.
Una ventaja de esta realización es que el usuario no necesita realizar cualquier modelación manual del objeto en 3D en la interfaz de usuario, cuando la modelación puede ser realizada totalmente automática. Si tiene lugar una modelación automática, entonces el usuario puede comprobar que la modelación es satisfactoria, y tal vez realizar pequeñas correcciones en la modelación.
En algunas realizaciones la modelación en 3D comprende definir uno o más bordes del objeto en 3D basado en la información.
El método puede comprender proporcionar un modelo en 3D del objeto en 3D, y la modelación en 3D puede comprender adaptar el modelo en 3D proporcionado del objeto en 3D basado en la información. El modelo en 3D proporcionado puede ser proporcionado desde una librería.
La adaptación del modelo en 3D proporcionado del objeto en 3D puede comprender la conformación de los bordes del modelo en 3D proporcionado del objeto en 3D basado en la información. Esto puede por ejemplo ser realizado usando un soporte lógico de computador que permita al usuario identificar la información, tal como dicha acanaladura en 3D, como el borde del objeto en 3D.
La modelación automática puede comprender la modelación del objeto en 3D basada en la información extraída de la representación digital en 2D que comprende los datos texturales del lugar. La información extraída puede relacionarse con un contorno del objeto en 3D modelado, tal como por ejemplo el perímetro de una restauración que es modelada para ser posicionada en un diente preparado en donde la característica es la línea de margen del diente preparado. La información extraída puede ser en la forma de una acanaladura en 2D que sigue la característica en una imagen en 2D de la representación digital en 2D o de una acanaladura en 3D que sigue la característica en la representación digital en 3D que comprende los datos geométricos.
Una vez que el borde del objeto en 3D es extraído de la acanaladura en 3D, el objeto en 3D puede ser definido usando unos algoritmos normales tales como unos algoritmos que pueden ser aplicados usando un soporte lógico del computador. El objeto en 3D o al menos partes del objeto pueden ser formadas usando información procedente de librerías, tal como cuando una estructura de una parte es definida por la información procedente de una librería y el perímetro de la parte es definido por la acanaladura en 3D. Éste puede por ejemplo ser el caso de la rejilla de retención de una dentadura parcialmente retirable, en donde una estructura con agujeros de la superficie puede ser proporcionada desde una librería mientras que el perímetro puede ser obtenido de una acanaladura en 3D.
En situaciones en las que el objeto en 3D es un objeto usado dentro de la odontología, tal como una restauración o una dentadura parcial retirable, la forma del objeto en 3D puede ser parcialmente extraído de la representación digital en 3D que comprende los datos geométricos y parcialmente de la acanaladura en 3D. Ésa es la punta o borde de incisión y las superficies labiales, proximales y linguales de una preparación del diente pueden ser extraídas de la representación digital en 3D que comprende los datos geométricos mientras la superficie de la restauración que está frente a la línea de margen del diente o pilar es extraída desde la característica.
En algunas realizaciones el objeto en 3D es adaptado para sustituir un objeto anatómico del cuerpo del paciente. De este modo el objeto puede ser una cadera artificial para sustituir una cadera rota, o un dispositivo respiratorio para sustituir el tracto respiratorio o una parte de él, o una prótesis del pecho para sustituir un pecho que ha sido eliminado debido a por ejemplo un tumor maligno. De este modo los objetos pueden ser usados como sustituciones si el objeto anatómico original está roto o atacado por una enfermedad.
Sin embargo, el objeto puede también sustituir a un objeto anatómico por simples razones cosméticas, tal como sustituir o remodelar pechos, botones, labios, nariz, cara, estómago, muslos, etc. usando por ejemplo la cirugía plástica.
En algunas realizaciones el objeto en 3D es adaptado para ser insertado en una cavidad del cuerpo del paciente.
Ejemplos de objetos que son adaptados para ser insertados en una cavidad corporal son los dispositivos auditivos para ser insertados en el canal auditivo, restauraciones dentales, implantes dentales, aparatos de ortodoncia, etc. para ser insertados en la boca, dispositivos anticonceptivos, tal como un diafragma, para ser insertados en una vagina de una mujer, un ojo de cristal para ser insertado en una cuenca ocular vacía, etc.
En algunas realizaciones el lugar es la boca del paciente.
En algunas realizaciones el lugar es uno o más dientes del paciente.
El lugar puede ser una preparación del diente preparado para una restauración tal como una corona o un puente. En algunas realizaciones el lugar es un canal auditivo del paciente.
En algunas realizaciones la información de la extracción de una o más características del lugar comprende la detección de la característica.
Una ventaja de esta realización es que la detección de la característica comprende métodos que computan las abstracciones de la información de imagen y realizan las decisiones locales de cada punto de la imagen, en donde las decisiones relativas a si hay una característica de un tipo dado en ese punto o no. De este modo, la característica resultante pueden ser subconjuntos del campo de la imagen, por ejemplo en forma de puntos aislados, curvas continuas o zonas conectadas.
En algunas realizaciones la extracción de información de las características es realizada detectando las características que están presentes en la representación digital combinada en 3D y/o en la representación digital en 3D que comprende los datos geométricos.
Una ventaja de esta realización es que las características pueden ser detectadas comparando los datos texturales y los datos geométricos en cada punto del lugar. Por ejemplo, los datos geométricos y los datos texturales pueden mostrar una característica, por ejemplo una curva, en el mismo lugar, y esto puede significar que la característica es geométrica y textural, y puede también ser una confirmación de que la característica es una característica real en el lugar, por ejemplo en el modelo o impresión, y no sólo un error. Si por ejemplo solamente los datos geométricos muestran una característica en ese lugar, y por lo tanto esto significa que no hay ahí una característica textural, o solamente los datos texturales pueden mostrar una característica en ese lugar, y esto significa que la característica no es geométrica o espacial sino sólo textural, por ejemplo el color visible. El último puede ser el caso, cuando el técnico dental ha dibujado algunas características sobre por ejemplo un modelo de los dientes por ejemplo para indicar dónde debería ser dispuesta una dentadura parcial retirable sobre el modelo y eventualmente en la boca del paciente. Muchos técnicos detales pueden preferir trabajar manualmente con un modelo de yeso, y cuando dibujan el contorno de por ejemplo una dentadura parcial retirable en el modelo de yeso, entonces el dibujo es detectado o captado cuando se realiza la obtención de los datos texturales.
En algunas realizaciones la detección de la característica comprende examinar cada pixel en una o más de las representaciones digitales para detectar si hay al menos parte de una característica presente en ese pixel.
En algunas realizaciones las una o más características son seleccionadas del grupo de líneas, contornos, curvas, bordes, crestas, esquinas, o puntos.
Es una ventaja que las diferentes características puedan ser detectadas por medio de un detector de características que puede ser un algoritmo de soporte lógico. Los detectores de características pueden ser clasificados en dos categorías diferentes: detectores basados en la intensidad y detectores basados en la estructura. Los detectores basados en la intensidad analizan la geometría diferencial local o los patrones de intensidad para encontrar puntos o zonas que satisfagan alguna unicidad y criterios de estabilidad. Los detectores basados en la estructura analizan las características estructurales tales como líneas, bordes y curvas para definir los denominados puntos o zonas de interés.
Los bordes pueden ser definidos como puntos en los que hay un contorno o borde entre dos zonas de la imagen, y los bordes pueden así ser definidos como conjuntos de puntos en la imagen que tienen una magnitud de gradiente fuerte. Algunos algoritmos pueden enlazar puntos de gradiente alto juntos para formar una descripción más completa de un borde.
Los algoritmos pueden plantear restricciones en las propiedades de un borde, tal como la forma, suavidad, y valor del gradiente.
Las esquinas son características puntuales en una imagen en 2D, que tienen una estructura local en 2D. Después de realizar la detección de los bordes, los bordes pueden ser analizados para detectar cambios rápidos en la dirección, por ejemplo una esquina.
Los puntos de interés son puntos que pueden ser detectados buscando niveles de curvatura altos en el gradiente de la imagen. Por ejemplo, una mancha o punto oscuro en un fondo blanco pueden ser detectados mirando la curvatura en el gradiente de la imagen.
Las burbujas o zonas más grandes de los puntos de interés son áreas en una imagen en 2D que pueden ser demasiado lisas para ser detectadas como un punto, pero estas zonas pueden además tener un punto preferido o clave, tal como un máximo local o un centro de gravedad.
Una cresta puede ser definida como una curva unidimensional que representa un eje de simetría y también tiene un atributo de anchura de cresta local asociado con cada punto de la cresta.
Cuando se ha detectado una característica, el resultado puede ser un descriptor de la característica o un vector de la característica que identifica una zona local de la imagen.
Cuando ha sido detectada una característica, un parche de imagen local alrededor de la característica puede ser extraído por medio del procesamiento de la imagen, y el resultado puede ser indicado como un descriptor de la característica o un vector de la característica.
Algunos detectores de características comunes son:
- para detectar bordes: Canny y Sobel;
- para detectar puntos de interés o esquinas: Harris, Shi & Thomasi, curvatura de curva de nivel, y FAST; - para detectar burbujas o zonas más grandes de los puntos de interés: Zonas extremas máximamente estables (MSER) y detector de zona principal basado en la curvatura (PCBR). El MSER es un ejemplo de un detector basado en la intensidad.
En las tareas de detección de características en la iluminación, posición, color y textura pueden causar una variación considerable en las intensidades locales, y por lo tanto la intensidad local puede no proporcionar una señal de detección estable. Los detectores basados en la intensidad pueden por lo tanto fallar en la identificación de características discriminatorias. Una alternativa para captar las señales de la intensidad local es captar señales estructurales semilocales tales como los bordes y las formas curvilíneas. Estas señales estructurales pueden ser más consistentes para las variaciones de intensidad, color y posición. El detector PCBR explota estas señales estructurales de imágenes más fiables.
La información de las una o más características puede comprender una o más acanaladuras en 3D que son extraídas de la representación digital en 2D que comprende los datos texturales usando diversas técnicas. La acanaladura en 3D puede por ejemplo corresponder a marcas con lápiz en un modelo físico del lugar, y el método puede comprender la extracción de la acanaladura en 3D y aplicarla en la modelación en 3D del objeto en 3D. Para algunas aplicaciones, tal como cuando se extrae información de las marcas de lápiz sobre un modelo físico, la presentación de las características en las imágenes en 2D de la representación digital en 2D obtenida puede necesitar ser mejorada por ejemplo resaltando el contraste o la eliminación de ruido de la imagen en 2D. Las características pueden ser detectadas en las imágenes en 2D de la representación digital en 2D y registradas en la representación digital en 3D que comprende los datos geométricos.
Además del procesamiento de la imagen y la detección de características, el método puede comprender la detección de acanaladuras en 3D, en donde la detección de acanaladuras en 3D comprende fusionar dos o más acanaladuras en 2D para proporcionar la acanaladura en 3D.
El procesamiento de la imagen puede comprender un filtrado, tal como un Filtrado de Difusión Mejorando la Coherencia, aplicado para eliminar el ruido del sensor. Además del ruido del sensor, las características pueden comprender unos segmentos que no son coherentes y/o segmentos no son idealmente definidos en el lugar. Cuando por ejemplo se dibuja una línea con un lápiz sobre un modelo físico del lugar, el lápiz puede saltar sobre la superficie del modelo físico dejando así unos espacios en la línea, o el operador puede haber dibujado una línea que consta de unos segmentos que se solapan parcialmente. En el caso de la línea segmentada se puede aplicar un enfoque de gradiente para determinar si las líneas contiguas están orientadas de modo que un segmento esté dispuesto para que pueda ser considerado una ampliación del otro segmento. En tal caso, los dos segmentos de la línea pueden ser considerados como partes de la misma línea.
El procesador de la imagen puede comprender una mejora del contraste en la imagen en 2D, de modo que por ejemplo las marcas de lápiz en un modelo físico del lugar aparezcan más claramente en las imágenes en 2D de la representación digital en 2D. La mejora del contraste puede ser proporcionada por ejemplo por una función sigmoidea modificada, en la que la cantidad de mejora del contraste es decidida por un único parámetro, el parámetro alfa, que va de 0 a 1, en donde los valores alfa que se aproximan a 0 dan un intercambio lineal (no efecto) y un valor alfa de 1 da una función sigmoidea constante.
La nitidez de la imagen que hace la transición entre las marcas y el fondo más obvia puede también mejorar la fiabilidad de la información extraída de las una o más características.
Después del procesamiento de la imagen, las características pueden ser aisladas en las imágenes en 2D, de modo que puedan ser detectadas y la información pueda ser extraída. Una selección automática escala-espacio puede ser usada para la detección de las características.
Dependiendo de la anchura de por ejemplo un trazo de lápiz sobre un modelo físico del lugar, la escala a la que las marcas son mejor identificadas puede ser encontrada automáticamente. La selección escala-espacio puede también ser parte del procesamiento de imágenes.
La detección de las características como crestas o bordes en las imágenes en 2D de la representación digital en 2D puede proporcionar un número de posibles candidatos de pixel para ser identificados como la característica. Estos candidatos necesitan ser clasificados y convertidos en acanaladuras. Esto puede ser hecho en una secuencia que comprende la exclusión de las piezas de línea muy pequeñas. Si esta exclusión ha de producirse puede depender de la calidad de la imagen. Si la calidad de la imagen y/o la definición de las características son tales que las piezas de línea no unidas de las características no pueden ser cerradas o conectadas durante el preprocesamiento de las imágenes en 2D y/o la detección de las características, puede ser ventajoso que la exclusión de las piezas pequeñas de la línea no se produzca.
Una clasificación aproximada puede ser usada para excluir candidatos cuya posición en 3D es una faceta con un ángulo muy empinado para el rayo del ojo de la cámara usada para obtener la imagen en 2D. Esto excluirá los bordes de silueta así como los datos de baja calidad.
Las acanaladuras en 3D posibles que corresponden a por ejemplo la marca del lápiz de un técnico dental puede entonces ser identificada usando los datos geométricos de la representación digital en 3D y las crestas/bordes en 2D detectados en combinación. En la identificación de las acanaladuras en 3D, pueden tener que establecerse ciertas reglas con el fin de manejar los cruces de líneas, esquinas, y burbujas.
Los parches de la imagen que muestran secciones de la superficie del lugar pueden ser encontrados a partir de las imágenes en 2D de la representación digital en 2D que comprende los datos texturales. Los parches de la imagen pueden ser alineados de modo que los parches relativos a las secciones contiguas del lugar estén alineados lado a lado. El tejido de la textura puede entonces ser aplicado con el fin de asegurar que cualesquiera transiciones visibles que aparecen en la línea de borde entre los parches de imágenes contiguas sean hechos menos visibles. Tal transición visible podría por ejemplo ser una transición entre una sección representada en una imagen con una iluminación más intensa del lugar y una sección representada en una imagen con una iluminación menos intensa del lugar. El tejido de la textura puede estar hecho para suavizar la transición visible entre las diferentes secciones de la representación digital en 3D combinada con el fin de mejorar la apariencia de la representación digital en 3D visualizada. Durante la extracción de información, tales transiciones podrían también en algunos casos llevar a una falsa identificación de la transición como una característica del lugar. El tejido de la textura puede ser realizado comparando las intensidades de los pixeles dentro de dos parches contiguos y asignando valores de intensidad a los pixeles a lo largo de la transición entre dos parches de modo que se obtenga un cambio suave en la intensidad de los pixeles.
Las acanaladuras en 3D pueden ser optimizadas por un operador que usa los puntos de control en la acanaladura en 3D en donde la posición de estos puntos de control relativos al lugar puede ser optimizada usando una herramienta de puntero, tal como un ratón, o usando la introducción de datos por ejemplo un teclado.
La modelación en 3D del objeto puede comprender la definición de una parte del objeto por la acanaladura en 3D extraída. El método puede por lo tanto comprender automáticamente la adaptación de la forma de esa parte de la acanaladura en 3D.
En algunas realizaciones las una o más características comprenden una línea de margen de diente o boquilla. La línea de margen es la línea de margen de preparación, que el dentista ha triturado en el diente del paciente para preparar el diente para una restauración, por ejemplo una corona o puente. El técnico dental puede dibujar una línea física con un bolígrafo de color en un modelo físico de yeso para marcar la línea de margen de un diente preparado. La textura del modelo o boquilla o diente en donde una línea de margen de preparación ha sido triturada es más áspera que la superficie que la rodea, que es suave, tal como el esmalte en el diente. Una línea de preparación puede ser hecha usando una herramienta dental que típicamente es no menor que 1 mm en diámetro. Entonces, la línea del margen de preparación puede ser detectada estudiando la textura del modelo o boquilla o diente. La microtextura puede también ser detectada. Las marcas de quemaduras de la trituración de la línea de preparación pueden también ser detectadas en una exploración de la textura.
De este modo las marcas de trituración de la línea de margen pueden ser fotografiadas o captadas como características texturales usando una fuente de luz regular y una cámara, en donde la cámara por ejemplo tenga una alta resolución. Sin embargo, un explorador en 3D que comprende una fuente de luz y una cámara para explorar las características geométricas pueden también ser usados para explorar las líneas de margen de preparación como las características geométricas.
Cuando se detecta una línea de margen de preparación en por ejemplo la representación de los datos geométricos, la línea de margen puede automáticamente ser marcada, por ejemplo como una línea roja clara, en la representación digital del lugar.
En algunas realizaciones las una o más características comprenden las sombras de los dientes del paciente.
Una ventaja de esta realización es que si por ejemplo los datos texturales de las características son obtenidos realizando una exploración directa de los dientes presentes o existentes del paciente, entonces la sombre o color de los dientes puede ser captada como datos texturales y de este modo como características texturales, y esta información puede ser usada para modelar o aplicar la sombra correcta del objeto, por ejemplo una restauración, dientes artificiales en una dentadura total o parcial, un implante etc. Esto puede ser un método muy eficiente y rápido para determinar la sombra correcta del objeto, lo que es particularmente importante para las aplicaciones dentales. En algunas realizaciones las una o más características son dibujadas en el lugar, en un modelo físico del lugar, o en una impresión del lugar por un usuario antes de la obtención de la representación digital en 2D que comprende los datos texturales.
Una ventaja de esto es que el técnico dental puede diseñar el objeto manualmente dibujando o triturando o proporcionando otras marcas texturales en el modelo físico, si él o ella lo prefieren.
En algunas realizaciones las características son parte del objeto en 3D que va a ser modelado. Éste puede por ejemplo ser diferentes partes de una dentadura parcial retirable o de un aparato de ortodoncia que están dispuestos para formar parte del lugar del que las representaciones digitales son obtenidas. Estas partes pueden entonces ser identificadas en la representación digital en 3D combinada, y en la modelación del objeto en 3D estas partes pueden ser modificadas o mantenidas dependiendo de la preferencia del operador.
El objeto en 3D puede comprender una dentadura parcialmente retirable de modo que las una o más características pueden ser conectores principales, abrazaderas y/o rejillas de retención, y de modo que la modelación en 3D comprenda uno o más bordes de la dentadura parcial retirable de la característica en 3D.
En algunas realizaciones las una o más características son usadas para modelar una dentadura parcial retirable, y las una o más características son conectores principales, abrazaderas y/o rejillas de retención.
Una ventaja de esto es que una dentadura parcial puede ser un objeto complejo que tiene varios componentes diferentes, y puede ser más rápida e intuitivamente más fácil para el técnico dental primero diseñar y modelar manualmente este dispositivo dental más bien complejo en vez de una interfaz gráfica de usuario.
En algunas realizaciones el objeto en 3D comprende un aparato de ortodoncia o soporte, de modo que las una o más características son usadas para modelar tal aparato de ortodoncia o soporte, y las una o más características son una o más posiciones del soporte, una o más posiciones del tornillo, marco de metal, estantes de plástico, armazones, placas de mordida, varillas de empuje, y/o muelles. La modelación en 3D puede comprender la definición de las posiciones del soporte y/o la posición del tornillo de la característica en 3D.
Una ventaja de esto es que un aparato de ortodoncia puede ser un objeto complejo que tiene varios componentes diferentes, y puede ser más rápido e intuitivamente más fácil para el técnico dental primero diseñar y modelar manualmente este dispositivo más bien complejo en lugar de una interfaz gráfica de usuario.
En algunas realizaciones están dibujadas características diferentes con diferentes colores por el usuario.
Una ventaja de esto es que las diferentes características pueden fácilmente ser distinguidas debido a los diferentes colores.
Además, los colores usados para dibujar sobre la impresión o el modelo deberían ser colores con contraste con el modelo o impresión y con el color de fondo en el compartimento, por ejemplo en el explorador, en donde la impresión o modelo es explorado, de modo que el dibujo pueda actualmente ser representado por una imagen o registrado. Por ejemplo los dibujos marrones pueden no proporcionar un contraste suficiente con un modelo oscuro o un compartimento con un fondo negro. Una definición de contraste es que es la diferencia en las propiedades visuales lo que hace un elemento, o su representación en una imagen, distinguible de otros elementos y el fondo. De este modo el elemento puede ser una impresión o un modelo físico de los dientes o los dientes mismamente. En la percepción visual del mundo real, el contraste es determinado por la diferencia en el color y el brillo del elemento y otros elementos dentro del mismo campo de visión.
En algunas realizaciones la característica es un límite entre las diferentes estructuras del lugar.
En algunas realizaciones la característica es un límite entre los diferentes materiales del lugar.
Un límite puede también ser indicado como una transición, un relieve, o un cambio en la altura y/o el material en el lugar.
Una línea de margen de preparación puede ser un límite, ya que hay una transición entre una parte triturada, la línea de margen de preparación áspera, y una parte no triturada, el esmalte suave del diente.
Las arrugas del paladar pueden ser un límite ya que las arrugas del paladar son un tipo de relieve, en donde la superficie cambia en altura. La detección de arrugas del paladar puede ser usada para modelar por ejemplo una dentadura parcial para un paciente, que estará junto al paladar.
La transición entre la papila de las encías y los dientes puede ser un límite, ya que aquí están presentes materiales diferentes, el esmalte duro de la superficie de los dientes y el tejido suave de la encía o relativo a la encía.
El límite puede ser parte del lugar y por lo tanto está directamente definido en el lugar. El límite puede también ser definido sobre un modelo físico en el lugar o en una impresión del lugar.
En algunas realizaciones la obtención de la representación digital en 3D que comprende los datos geométricos y la obtención de la representación digital en 2D que comprende los datos texturales son realizadas secuencialmente. Así las representaciones digitales pueden ser obtenidas en dos registros separados, usando un medio de registro o dos o más medios de registro, que pueden ser colocados bien como dispositivos separados o colocados como un dispositivo.
Alternativamente la obtención de la representación digital en 3D que comprende los datos geométricos y la obtención de la representación digital en 2d que comprende los datos texturales son realizadas simultáneamente. En algunas realizaciones al menos una de las representaciones digitales es obtenida iluminando al menos parte del lugar, un modelo físico del lugar, o una impresión del lugar con luz, de modo que la representación digital en 2D que comprende los datos texturales y/o la representación digital en 3D que comprende los datos geométricos pueden ser obtenidas iluminando el lugar con luz.
En algunas realizaciones la luz usada para obtener al menos una de las representaciones digitales es una luz multiespectral que comprende una luz en N longitudes de onda, en donde el número N es igual a o mayor de 2. En algunas realizaciones el método comprende usar diferentes colores o códigos de color para identificar las características, en donde los colores o códigos de color diferentes corresponden a las N longitudes de onda de la luz multiespectral. De modo que el color usado para identificar una característica refleja la luz en una longitud de onda, mientras que el color usado para identificar otra característica refleja la luz en otra longitud de onda.
El tipo de iluminación para ser usado cuando la exploración es dependiente de si una impresión o un modelo es explorada o de si se realiza la exploración directa del lugar, por ejemplo los dientes. Si se usa un explorador en 3D para explorar una impresión o un modelo, el compartimento en el que la impresión o modelo está colocado para explorarlo podría ser por ejemplo negro o blanco. Si el compartimento es de color blanco la luz para la exploración puede ser reflejada difusamente dentro del compartimento. La luz reflejada difusamente puede ser una ventaja para obtener imágenes de la textura sobre la impresión o modelo. No obstante, si el compartimento es de color negro entonces puede no haber reflexión de luz. De este modo para diferentes fines de exploración, tal como la exploración geométrica o la exploración de la textura, en donde el color puede ser explorado o registrado, el color y la forma del compartimento del explorador podrían ventajosamente ser cambiables, tal como para ser apropiado para los diferentes modos de exploración o de modos de obtención de imágenes.
Un dispositivo de exploración en 3D configurado para obtener la representación digital en 3D puede estar basado en la proyección de una o más láminas de luz u otro patrón conocido de luz sobre el lugar. La fuente de iluminación puede ser un láser de baja potencia en el espectro de la luz visible, o la iluminación del lugar para la obtención de los datos geométricos y/o los datos texturales puede ser realizada usando un tipo diferente de laser, un diodo laser, o diodos emisores de luz, LED, que emiten luz roja, verde, y azul.
El sensor para recibir, medir, y convertir la luz reflejada o la señal desde el lugar puede ser una cámara de cinco megapíxeles con una resolución de 35 micrómetros. Puede haber más de una cámara para captar la luz reflejada desde el lugar, pero las cámaras pueden todas captar los datos geométricos y los datos texturales del lugar.
En algunas realizaciones las N longitudes de onda en la luz multiespectral usada para la iluminación del lugar son provistas en una secuencia, tal como una secuencia que comprende luz roja, verde y azul. Cada paso en la secuencia puede ser realizado sin cualquier solape o con un solape con el paso precedente y/o el paso siguiente en la secuencia. En caso de pasos de solape puede ser requerido que la sincronización de la obtención de imágenes en 2D de la representación digital en 2D sea tal que las imágenes en 2D sean obtenidas mientras la luz en solamente una longitud de onda ilumina el lugar. Los pasos de solapamiento pueden también ser usados en relación con casos en los que los códigos de color con dos o más colores se usan para la identificación de las diferentes partes de la característica o diferentes características.
Alternativa y/o adicionalmente, otros picos espectrales pueden también ser empleados, por ejemplo cerca del infrarrojo (NIR) o ultravioleta (UV). El calibrado dependiente de la longitud de onda del sistema óptico puede ser realizado con el fin de asegurar la correspondencia espacial de las medidas de la reflectividad superficial registradas.
Además la información del color puede ser obtenida simultáneamente mediante el uso de múltiples sensores y divisores del haz, o mediante el uso de conjunto de filtros de color (CFA), que pueden estar dispuestos en una disposición de tipo Bayer.
En algunas realizaciones, N es 3, de modo que la luz multiespectral comprende una luz en una primera longitud de onda, luz en una segunda longitud de onda, y luz en una tercera longitud de onda. Cuando N es igual a 3, la secuencia puede ser una primera longitud de onda, una segunda longitud de onda, y una tercera longitud de onda. Las diferentes permutaciones de este orden son también posibles, de modo que la luz en la segunda longitud de onda sea seguida por la luz en la primera longitud de onda, la cual a su vez es seguida por la luz en la tercera longitud de onda.
La secuencia puede así ser primera longitud de onda, tercera longitud de onda y segunda longitud de onda.
La secuencia puede así ser segunda longitud de onda, primera longitud de onda y tercera longitud de onda.
La secuencia puede así ser segunda longitud de onda, tercera longitud de onda y primera longitud de onda.
La secuencia puede así ser tercera longitud de onda, segunda longitud de onda y primera longitud de onda.
La secuencia puede así ser tercera longitud de onda, primera longitud de onda y segunda longitud de onda.
La primera, segunda y tercera longitudes de onda pueden estar en el intervalo del rojo, verde y azul de las longitudes de onda, respectivamente.
En algunas realizaciones las longitudes de onda N en la luz multiespectral son proporcionadas simultáneamente. En algunas realizaciones, las N longitudes de onda en la luz multiespectral son proporcionadas en una fuente de luz blanca, de modo que el lugar es iluminado con las N longitudes de onda y cualesquiera otras longitudes de onda de la fuente de luz blanca.
La fuente de luz blanca puede comprender unos diodos blancos que emiten luz sobre una parte significativa de la parte visible del espectro electromagnético.
Una imagen en 2D puede ser obtenida para cada una de dichas N longitudes de onda.
En algunas realizaciones una imagen en 2D es obtenida para cada una de dichas N longitudes de onda, como para cada una de luz roja, verde y azul.
La obtención de datos relativos a las características, por ejemplo líneas, tal como aparecen o están presentes en la representación resultante en 2D o 3D, puede ser posible usando una iluminación de luz regular y por ejemplo obteniendo una representación negro/blanco. Pero con el fin de captar el color correcto de las líneas, por ejemplo si están dibujadas sobre la impresión o modelo usando un bolígrafo, los colores pueden ser obtenidos usando una iluminación secuencial, en donde la luz roja, verde y azul procedente de los diodos de luz es detectada separadamente.
En algunas realizaciones las imágenes en 2D obtenidas para cada una de las N longitudes de onda en la luz multiespectral, tal como para la luz roja, verde y azul, son unidas conjuntamente en una imagen común en 2D. La representación digital en 2D puede comprender una o más imágenes comunes en 2D, comprendiendo cada imagen común en 2D unas imágenes en 2D obtenidas en cada una de las N longitudes de onda.
En el contexto de la presente invención las expresiones “luz azul” y “luz con una longitud de onda en el intervalo del azul” pueden ser usadas en relación con las ondas electromagnéticas que se propagan con una longitud de onda en el intervalo de aproximadamente 450 nm hasta aproximadamente 490 nm.
En el contexto de la presenta invención la expresión “luz verde” y “luz con una longitud de onda en el intervalo del verde” pueden ser usadas en relación con las ondas electromagnéticas que se propagan con una longitud de onda en el intervalo de aproximadamente 490 nm hasta aproximadamente 560 nm.
En el contexto de la presenta invención la expresión “luz roja” y “luz con una longitud de onda en el intervalo del rojo” pueden ser usadas en relación con las ondas electromagnéticas que se propagan con una longitud de onda en el intervalo de aproximadamente 635 nm hasta aproximadamente 700 nm.
En algunas realizaciones el método comprende el tejido de la textura, que comprende tejer una o más características conjuntamente entre imágenes contiguas en 2D basado en los datos texturales de la representación digital en 2D.
Una ventaja de estas realizaciones es que la textura tal como el color en la imagen resultante en 2D parece ser natural y correcta, y la dispersión superficial de por ejemplo la piel es tenida en cuenta. El objeto del tejido de la textura y de procesos similares es filtrar todos los cambios en apariencia que son debidos a las propiedades del punto de vista o la luz, es decir modulaciones de la superficie que son un resultado de procesos externos, más que de las propiedades inherentes a la superficie del objeto. El tejido de la textura suaviza las transiciones entre imágenes diferentes, de modo que las transiciones se hacen suaves con respecto a la textura, tal como texturas diferentes, por ejemplo color etc. Así, con el fin de captar los datos texturales de todo el lugar, un número de imágenes en 2D puede ser obtenido y tejido conjuntamente, por ejemplo cuatro imágenes texturales pueden ser captadas para cubrir todo el lugar. El procesamiento de imágenes puede ser usado para eliminar los efectos especulares de la superficie del lugar del que se están captando los datos.
Las exploraciones del lugar obtenidas desde diferentes puntos de vista relativos al lugar usando por ejemplo un láser como la primera fuente de luz pueden ser unidas conjuntamente, y varias exploraciones geométricas pueden ser obtenidas para cubrir todo el lugar, y así las características geométricas pueden ser unidas conjuntamente.
El tejido de la textura se describe por ejemplo en Marco Callieri, Paolo Cignoni, Claudio Rocchini, Roberto Scopigno: Tejedor, un constructor de texturas de Actas del Primer Simposio Internacional sobre Procesamiento de Datos en Visualización y Transmisión de Procesamiento de datos en 3D (3DPVT'02), 2002, IEEE Computer Society.
En algunas realizaciones el método comprende la modulación de laser de la luz usada para obtener la representación digital en 3D que comprende los datos geométricos. Una ventaja de esta realización es que la modulación de laser puede ayudar con la obtención de la geometría sobre superficies con una reflectividad no uniforme, pudiendo de este modo la fuente de laser ser modulada durante la obtención de información geométrica con objeto de compensar las variaciones en reflectividad, en un ajuste difuso y especular. Esto, a su vez, permitirá la obtención de la geometría de los objetos que muestran un intervalo dinámico mayor que el del sensor de la cámara. El mismo método puede ser empleado para la obtención de la textura, aunque aquí puede ser un requerimiento añadido del conocimiento detallado con respecto a la cantidad de luz emitida.
La modulación de laser puede ser realizada usando un modulador que es un dispositivo que es usado para modular un haz de luz, en donde el haz puede ser llevado sobre el espacio libre, o propagado a través de una guía de ondas óptica. El modulador puede manipular los diferentes parámetros del haz de luz, tales como la amplitud, fase, polarización etc. La modulación de la intensidad de un haz de luz puede ser obtenida modulando la corriente que acciona la fuente de luz, por ejemplo un diodo de laser.
En algunas realizaciones el método comprende la modulación de la luz usada para obtener la representación digital 2D que comprende los datos texturales.
En algunas realizaciones la obtención de la representación digital en 3D comprende los datos geométricos del lugar, y la representación digital en 2D que comprende los datos texturales del lugar es realizada por medio de un explorador adaptado a captar los datos geométricos y los datos texturales.
En algunas realizaciones la obtención de los datos geométricos y los datos texturales es realizada por medio de una cámara adaptada para captar los datos geométricos y los datos texturales.
La cámara puede ser una cámara de color de cinco megapíxeles.
Alternativamente se pueden disponer dos o más cámaras que tengan resoluciones diferentes para captar los datos para diferentes tipos de características o para diferentes características geométricas o texturales.
En algunas realizaciones la obtención de los datos geométrico es realizada por medio de una primera fuente de luz, y la obtención de los datos texturales es realizada por medio de una segunda fuente de luz.
La segunda fuente de luz puede comprender una matriz de diodos, en donde la matriz de diodos comprende un número de primeros diodos, un número de segundos diodos y un número de terceros diodos, en donde los diodos primeros, segundos y terceros están adaptados para emitir luz en una primera, segunda y tercera longitud de onda, respectivamente.
La segunda fuente de luz puede comprender un difusor dispuesto para proporcionar una difusión de la luz emitida, tal como una difusión de la luz emitida desde una fuente de luz blanca o desde una matriz de diodos rojos, verdes y azules.
Los datos geométricos pueden ser captados usando un láser, en donde un número de exploraciones captadas desde diferentes ángulos pueden ser unidas conjuntamente en un modelo ensamblado. Además, la representación digital en 2D que comprende los datos texturales puede ser obtenida usando una fuente regular de luz blanca, y el resultado puede ser una imagen en 2D. Unas pocas imágenes en 2D pueden ser apropiadas para cubrir todo el lugar, y el tejido textural puede ser realizado para evitar transiciones incoherentes o malas entre las imágenes en 2D.
Alternativamente, la misma fuente de luz puede ser usada para captar los datos geométricos y los datos texturales. Una ventaja de usar sólo una fuente de luz es que los datos geométricos y los datos texturales pueden ser captados simultáneamente, en tanto que cuando se usan dos fuentes de luz, las fuentes de luz no pueden ser encendidas al mismo tiempo, ya que una de las fuentes de luz puede perturbar la captación de los datos que usa la otra fuente de luz.
Alternativa y/o adicionalmente, los filtros de color pueden ser empleados permitiendo la obtención simultánea de los datos de geometría y de textura.
Alternativa y/o adicionalmente, la luz puede ser proporcionada en la unidad de obtención, por ejemplo un anillo de luz alrededor de la óptica receptora de la o las cámaras. Una ventaja de esto es que el ángulo de la luz/cámara puede ser minimizado y por lo tanto se puede minimizar la cantidad de oscuridad profunda en las cavidades profundas.
La fuente de luz puede ser una luz blanca, tal como una luz blanca estructurada o una luz blanca en combinación con una rejilla.
En algunas realizaciones la unidad de posicionamiento comprende al menos un sistema de movimiento biaxial, de modo que el posicionamiento del lugar durante la obtención de la representación digital en 3D que comprende los datos geométricos y la representación digital en 2D que comprende los datos texturales es realizada automáticamente por medio del al menos un sistema de movimiento biaxial.
En algunas realizaciones el método comprende que la obtención de los datos geométricos y los datos texturales sea realizada automáticamente por medio de al menos un sistema de movimiento biaxial.
Puede ser una ventaja que la obtención y el sistema de movimiento funcionen automáticamente, de modo que ningún operador tenga que seleccionar manualmente cada posición. El sistema de movimiento puede ser por ejemplo un sistema de movimiento biaxial o triaxial, ya que de este modo los datos del lugar pueden por ejemplo ser captados desde los lados y desde arriba.
En algunas realizaciones el método comprende proporcionar una exploración facial en 3D del paciente para facilitar la visualización del resultado de la modelación del objeto en 3D. Puede ser una ventaja usar una exploración facial en 3D del paciente cuando se modelan por ejemplo restauraciones, una dentadura parcial, aparatos de ortodoncia etc., debido a que el objeto modelado puede entonces ser visto o inspeccionado en conexión con la cara y el aspecto total del paciente.
En algunas realizaciones la representación digital en 3D que comprende los datos geométricos del lugar, y/o la representación digital en 2D que comprende los datos texturales del lugar es/son obtenidos por medio de una exploración facial en 3D.
En algunas realizaciones el método es adaptado para ser usado para la modelación en 3D dentro de la odontología. En algunas realizaciones la odontología comprende las restauraciones, implantes, ortodoncias, tal como la colocación de un soporte y aparatos, y dentaduras parciales, tales como las dentaduras parciales retirables.
Dentro de las restauraciones es una ventaja el que la línea de margen de preparación pueda ser detectada a partir de la representación de los datos geométricos y los datos texturales.
Dentro de la ortodoncia es una ventaja que el técnico dental pueda dibujar sobre un modelo físico en el que deberían ser colocados el aparato o los soportes, o que la segmentación del diente pueda ser automáticamente realizada usando las representaciones de los datos geométricos y los datos texturales.
En la modelación de un objeto en 3D usado dentro de la odontología, un borde de una o más partes del objeto en 3D puede ser definido por la información extraída, tal como la acanaladura en 3D.
La modelación en 3D puede comprender la extracción de una pluralidad de características, tal como una pluralidad de líneas dibujadas sobre un modelo físico del lugar, en donde un número de características se refieren a una parte del objeto en 3D. Por ejemplo, cuando se modela una dentadura parcial retirable, la rejilla de retención puede ser definida por un número de líneas dibujadas sobre un modelo físico de los dientes y el paladar. Cuando un número de características son detectadas, tienen que ser representadas en las partes específicas del objeto en 3D basadas en el conocimiento de las partes específicas y/o basadas en el lugar, longitud, color, y forma de la característica. Las diferentes partes de una dentadura parcial retirable, tal como la rejilla de retención, la ventana, el conector principal y los conectores menores pueden por ejemplo ser definidos usando colores diferentes. También pueden ser identificadas a partir del conocimiento de que la ventana está en el paladar y que la rejilla de retención está en la encía. Cuando el objeto modelado en 3D es una dentadura parcial retirable, la característica en 3D puede ser una acanaladura en 3D que define el perímetro de una parte de la dentadura parcial retirable, tal como por ejemplo la rejilla de retención o el conector principal.
Las diferentes partes de un objeto en 3D pueden también ser definidas usando marcas de identificación, tales como dos o más círculos, cruces, cuadrados, triángulos dispuestos concéntricamente, y así sucesivamente. También se puede usar el número de elementos en la marca de identificación, de modo que por ejemplo la rejilla de retención de una dentadura parcial retirable tenga una marca, el conector principal tenga dos, y así sucesivamente.
En algunas realizaciones la característica comprende unas marcas de identificación dispuestas dentro de un borde sustancialmente cerrado de la característica. El borde cerrado puede por ejemplo ser un bucle cerrado dibujado sobre un modelo físico del lugar. Las marcas de identificación pueden ser seleccionadas del grupo de círculos, cruces, cuadrados, triángulos dispuestos concéntricamente, el número de elementos en la marca de identificación, tal como el número de puntos.
Un bucle cerrado puede por ejemplo ser dibujado para marcar el borde de las diferentes partes de una dentadura parcial retirable, y las diferentes marcas de identificación pueden ser usadas para identificar estas partes diferentes. El conector principal puede por ejemplo ser identificado usando un punto, la rejilla de retención usando dos puntos y una ventana usando tres puntos.
Además, el método puede por ejemplo ser usado para determinar la oclusión de un paciente colocando un papel de calco de color entre los dientes superiores e inferiores del paciente, y cuando el paciente muerde con sus dientes conjuntamente, el papel transmitirá el color a los puntos de colisión en los dientes, y este color transmitido puede ser captado como datos texturales. La determinación de la oclusión puede ser realizada bien directamente en la boca y así en los dientes reales del paciente, o puede ser realizada sobre un modelo físico de los dientes, por ejemplo un modelo de yeso, usando por ejemplo un articulador.
En algunas realizaciones el método es adaptado para ser usado para la modelación en 3D de dispositivos auditivos. La característica puede entonces definir el contorno de una cara interior o una cara exterior del dispositivo auditivo de ayuda, la posición o forma de la sección en cruz de la salida, o un distintivo de identificación para el dispositivo de ayuda para la audición.
La característica puede ser definida sobre un modelo físico o una impresión del canal auditivo en relación con el cual el dispositivo de ayuda en la audición es adaptado para ser dispuesto. El dispositivo de ayuda en la audición puede ser un dispositivo en el oído, un dispositivo en el canal, o un dispositivo detrás del oído. La característica puede relacionarse con diferentes partes del dispositivo de ayuda a la audición, tal como por ejemplo el armazón, un molde para el oído o una placa frontal integrada del dispositivo.
En algunas realizaciones la información es extraída por un operador desde la representación en 3D combinada visualizada que comprende los datos geométricos y los datos texturales. El operador puede por ejemplo identificar piezas diferentes de información como relativas a la misma característica. Esto puede por ejemplo ser hecho mientras se visualiza el modelo combinado en una pantalla gráfica.
El método puede también ser usado para la modelación de zapatos personalizados con un ajuste perfecto para el paciente, en donde las características geométricas y texturales de los pies del paciente son obtenidas bien por una exploración directa o haciendo una impresión de los pies y después explorando la impresión o produciendo un modelo físico a partir de la impresión y después explorando el modelo físico. También se obtienen los datos texturales de los pies.
En algunas realizaciones el método es aplicado sobre un producto de programa informático que comprende unos medios de código de programa para hacer que un sistema de procesamiento de datos realice el método de cualquiera de las anteriores reivindicaciones, cuando dichos medios de código de programa son ejecutados en el sistema de procesamiento de datos.
La primera y/o la segunda unidad del procesador de señales digitales pueden ser configuradas para extraer la información de la una o más características de la representación digital en 2d .
La primera y la segunda unidades del procesador digital pueden ser unas partes integradas de un dispositivo de procesamiento de señales digitales, de modo que el dispositivo de procesamiento de la señal digital esté configurado para analizar y combinar las representaciones digitales obtenidas y para modelar el objeto en 3D.
La unidad de obtención puede comprender:
- unos medios para obtener una representación digital en 3D de al menos una parte de un lugar dispuesto en dicho volumen de exploración, en donde la representación digital en 3D comprende los datos geométricos del lugar; y
- unos medios para obtener una representación digital en 2D de al menos una parte del lugar colocado en dicho volumen de exploración, en donde la representación digital en 2D comprende los datos texturales del lugar. La unidad de obtención puede comprender un primer conjunto de cámaras dispuestas para recibir la luz desde el volumen de exploración y para obtener dicha representación digital en 3D que comprende los datos geométricos y dicha representación digital en 2D que comprende los datos texturales de un lugar. El primer conjunto de cámaras es entonces parte de los medios para obtener una representación digital en 3D y los medios para obtener una representación digital en 2D. El primer conjunto de cámaras puede comprender dos cámaras dispuestas con relación al volumen de exploración y la primera fuente de luz de modo que sea posible una exploración en 3D de un lugar situado en el volumen de exploración.
El sistema puede comprender una o más cámaras adicionales además del primer conjunto de cámaras, tal como una segunda cámara o un segundo conjunto de cámaras.
En algunas realizaciones la unidad de obtención está configurada para obtener los datos texturales de N características diferentes de un lugar, en donde cada característica tiene un único color o código de color, y para distinguir entre dichas N características diferentes basadas en dicho color o código de color. Las características pueden ser definidas usando por ejemplo diferentes tintas o pinturas de color.
Igualmente, la unidad de obtención puede ser configurada para adquirir los datos texturales para N partes diferentes de una característica de un lugar, en donde cada parte tiene un color o código de color único, y para distinguir entre dichas N partes diferentes basadas en dicho color código de color. En lo que sigue la descripción está a menudo enfocada en la obtención de datos relativos a características diferentes, pero los comentarios hechos pueden aplicarse igualmente al caso en el que se obtengan los datos para diferentes partes de una característica.
En algunas realizaciones la unidad de iluminación del sistema comprende una primera fuente de luz adaptada para proporcionar luz para la obtención de los datos geométricos de un lugar, y una segunda fuente de luz adaptada para proporcionar luz para la obtención de los datos texturales.
La luz usada para iluminar el lugar puede por lo tanto comprender la luz emitida desde la primera fuente de luz y la segunda fuente de luz.
El lugar puede ser iluminado simultáneamente por las fuentes de luz primera y segunda, o una a la vez.
Una fuente de luz que está adaptada para proporcionar luz para la obtención de los datos geométricos de un lugar puede ser configurada para emitir luz en rayos sustancialmente paralelos.
Una fuente de luz adaptada para proporcionar luz para la obtención de los datos texturales puede ser configurada para proporcionar una luz difusa en donde las direcciones de los diferentes rayos están distribuidas más al azar. La primera y la segunda fuentes de luz pueden ser dispuestas de modo que el eje óptico de la primera fuente de luz y el eje óptico de la segunda fuente de luz interseccionen en un volumen de exploración.
En algunas realizaciones la primera fuente de luz comprende un láser monocromático que emite luz en una primera longitud de onda de laser. La luz procedente de dicho laser monocromático puede propagarse en rayos sustancialmente paralelos permitiendo una determinación precisa de la geometría de un lugar.
La primera longitud de onda de laser puede estar en el intervalo del verde de las longitudes de onda, en el intervalo del rojo de las longitudes de onda, o en el intervalo del azul de las longitudes de onda. Un láser rojo puede, en el tiempo actual, proporcionar un sistema rentable ya que tales láseres a menudo pueden ser comprados a un precio inferior que por ejemplo un láser azul. Un láser verde puede tener la ventaja de proporcionar una resolución espacial mejor cuando las cámaras de color se usan para la obtención de las representaciones digitales.
La segunda fuente de luz puede estar dispuesta con un ángulo diferente con relación al volumen de exploración que la primera fuente de luz pero que esa luz procedente de la segunda fuente de luz pueda ser reflejada desde un lugar en el volumen de exploración hacia las cámaras de la unidad de obtención.
En algunas realizaciones la segunda fuente de luz comprende una fuente de luz de banda ancha, tal como una fuente de luz blanca, que entrega luz en un intervalo de longitudes de onda. La segunda fuente de luz puede estar configurada para proporcionar luz en todas las longitudes de onda de los colores o códigos de color usados para las características definidas en una disposición multicolor.
Para algunas aplicaciones relativas a la obtención de los datos texturales puede ser preferido que la luz sea difusa. La segunda fuente de luz puede ser adaptada para proporcionar una luz difusa.
La segunda fuente de luz puede ser configurada para proporcionar luz en longitudes de onda aisladas de modo que un espectro de la distribución de intensidad de la señal de luz emitida en relación con la longitud de onda comprenda un número de picos.
La segunda fuente de luz puede ser realizada usando un diseño que comprende un número de fuentes emitiendo cada una luz en una única longitud de onda o en un intervalo de longitudes de onda relativamente estrechas, en donde las señales emitidas desde cada una de estas fuentes es combinada para proporcionar la luz emitida desde la segunda fuente de luz. La segunda fuente de luz puede ser realizada usando un diseño que utiliza un efecto resonante tal como un resonador Fabry Perot.
En algunas realizaciones la segunda fuente de luz comprende una matriz de diodos, en donde la matriz de diodos comprende un número de primeros diodos, un número de segundos diodos y un número de terceros diodos, en donde los primeros, segundos y terceros diodos están adaptados para emitir luz en una longitud de onda de los diodos primero, segundo y tercero, respectivamente.
En algunas realizaciones la segunda fuente de luz comprende un difusor dispuesto para proporcionar una difusión de la luz emitida, tal como la luz emitida desde una fuente de luz blanca o una matriz de diodos. Tal luz difusa entregada desde la segunda fuente de luz puede ser adecuada para obtener información relativa a la textura del lugar.
En algunas realizaciones cada cámara en el primer conjunto de cámaras comprende una cámara de color que comprende una matriz de filtros de color (CFA) dispuesta en una disposición de tipo Bayer en la parte frontal de un elemento fotosensitivo configurado para detectar señales electromagnéticas.
Cuando se usa un filtro Bayer puede ser ventajoso que la primera fuente de luz emita luz en longitudes de onda en la banda de paso del verde del filtro Bayer, ya que el filtro Bayer proporciona que la resolución espacial proporcionada por la cámara sea el doble de la resolución obtenida usando una primera fuente de luz que emite luz con una longitud de onda que corresponde a la luz roja o azul.
En algunas realizaciones donde hay una o más cámaras, en el primer conjunto de cámaras una es una cámara monocroma. Cada una de las cámaras puede ser monocroma.
En algunas realizaciones el sistema comprende una placa de exploración situada de modo que un lugar dispuesto sobre dicha placa de exploración esté situado en dicho volumen de exploración, de modo que la luz procedente de la primera y la segunda fuentes de luz pueda ser reflejada desde un modelo físico en la placa de exploración hacia la unidad de obtención del sistema. La colocación de la placa de exploración puede por lo tanto ser tal que al menos una parte del modelo físico o de una impresión situada sobre la placa de exploración esté situada en el volumen de exploración del sistema.
En algunas realizaciones la unidad de control está adaptada para controlar el movimiento y la rotación de esta placa de exploración.
En algunas realizaciones el sistema comprende una unidad de posicionamiento para el movimiento biaxial de la placa de exploración de modo que la obtención de la representación digital en 3D que comprende los datos geométricos y de la representación digital en 2D que comprende los datos texturales de un número de posiciones pueda ser realizada automáticamente.
En algunas realizaciones el sistema comprende una unidad de posicionamiento configurada para colocar el lugar en un número de diferentes posiciones relativas a la unidad de obtención, de modo que una cobertura deseada del lugar pueda ser obtenida obteniendo la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos del número de posiciones diferentes.
En algunas realizaciones el sistema comprende una unidad de control configurada para controlar la matriz de diodos y la unidad de posicionamiento.
La unidad de control puede ser configurada para proporcionar que el primero, segundo y tercer diodos emitan una luz secuencialmente, de modo que se emita una secuencia de señales de luz. La secuencia puede ser la primera longitud de onda, la segunda longitud de onda, y la tercera longitud de onda.
La unidad de control puede ser configurada para hacer que la secuencia sea repetida un número de veces, tal como una vez para cada disposición relativa del conjunto óptico del sistema y de la placa exploradora.
En el contexto de la presente invención la expresión “conjunto óptico” puede referirse al conjunto de unidades usadas para proporcionar la iluminación del lugar y para obtener las representaciones digitales en 2D y 3D del lugar. El conjunto óptico puede comprender la unidad de obtención y las fuentes de luz del sistema.
En algunas realizaciones la segunda fuente de luz está diseñada de modo que el primero, segundo y tercer diodos estén dispuestos de acuerdo con una disposición Bayer.
En algunas realizaciones un procesador de señales digitales del sistema está configurado para el análisis en tiempo real de las representaciones digitales en 2D y las representaciones digitales en 3D obtenidas.
El primer conjunto de cámaras puede ser usado para obtener la representación digital en 2D y la representación digital en 3D. Cuando se coloca un filtro Bayer enfrente de los elementos fotosensitivos de las cámaras puede ser ventajoso usar un láser que emite luz en el intervalo de la longitud de onda del verde como la primera fuente de luz ya que esto puede proporcionar una mayor resolución espacial en comparación con un láser rojo debido al diseño de un filtro Bayer, en el que el doble de secciones permite que la luz verde pase a través del filtro ya que hay secciones que permiten que la luz roja pase a través.
Una exploración de un modelo físico o una impresión de un lugar pueden entonces ser requeridas con el fin de asegurar que las representaciones obtenidas proporcionen datos para la característica total. Éste puede por ejemplo ser el caso de cuando la característica es una línea de margen en un modelo físico de un diente preparado para una corona.
En algunas realizaciones el sistema comprende un sistema de movimiento para al menos un movimiento biaxial de modo que la obtención de la representación digital en 3D que comprende los datos geométricos y de la representación digital en 2D que comprende los datos texturales de un número de posiciones pueda ser realizada automáticamente.
En algunas realizaciones el sistema comprende una unidad de control configurada para controlar la matriz de diodos y el sistema de movimiento.
La unidad de control puede ser configurada para disponer que el primero, segundo y tercer diodos emitan una luz secuencialmente, de modo que sea emitida una secuencia de señales de luz. La secuencia puede ser tal que la longitud de onda de la luz emitida desde la segunda fuente de luz sea la primera longitud de onda, la segunda longitud de onda, y la tercera longitud de onda. Cualquier secuencia de longitudes de onda puede en principio ser usada dependiendo del objeto de la iluminación secuencial a la luz de la segunda fuente de luz. Preferiblemente, la secuencia usada tiene que ser conocida por el procesador o microprocesador de señales digitales que une cada una de las representaciones digitales en 2D a la o las longitudes de onda usadas cuando se obtiene cada una de ellas. La unidad de control puede ser configurada para hacer que la secuencia se repita un número de veces, tal como al menos una vez para cada disposición relativa del conjunto óptico y la placa de exploración.
Los diodos primero, segundo y tercero están dispuestos de acuerdo con una disposición Bayer, alternando los diodos rojo y verde en un número de filas que están separadas por filas en las que alternan diodos verdes y azules. El usado de una fuente de luz de banda ancha, tal como una fuente de luz blanca, o una fuente de luz configurada para emitir luz en un número de longitudes de onda discretas, tal como una matriz de diodos puede ser ventajoso cuando los diferentes colores definen la característica del lugar.
La característica puede por ejemplo comprender una sección que tiene un color que difiere del color de una sección diferente de la característica y del color de las zonas circundantes del modelo físico del lugar. Tal sección que tiene un color puede por ejemplo ser una línea coloreada dibujada sobre un modelo físico del lugar. Una sección coloreada refleja la luz sobre un intervalo limitado de longitudes de onda. Fuera de este intervalo limitado la reflexión puede ser despreciable de modo que cuando la sección coloreada es iluminada con una luz que tiene longitudes de onda fuera de este intervalo limitado parecerá oscura en comparación a como cuando es iluminada con una luz dentro del intervalo.
Si la segunda fuente de luz comprende unos diodos que son accionados para secuencialmente emitir una luz con diferentes longitudes de onda y el primer conjunto de cámaras comprende unas cámaras negra y blanca, diferentes representaciones digitales en 2d que comprenden los datos texturales pueden ser obtenidas por las cámaras negra y blanca, en donde cada representación digital en 2D que comprende los datos texturales es obtenida en un color de la luz emitida desde la segunda fuente de luz.
La obtención de representaciones digitales en 2D usando la luz en diferentes longitudes de onda lo hace posible para definir diferentes tipos de características o diferentes partes de características que usan diferentes colores en el lugar o en por ejemplo un modelo físico del lugar. La característica puede comprender una línea coloreada definida sobre un modelo físico del lugar, tal como una línea que tiene un color que permite que la característica sea identificada desde la parte restante del modelo físico.
Consecuentemente si una característica es identificada sobre el modelo físico usando los tres colores diferentes, de modo que cada color se corresponda con las diferentes partes de la característica, las diferentes partes de la característica pueden ser identificadas a partir de las tres representaciones digitales en 2D diferentes que pueden ser obtenidas usando colores diferentes desde la segunda fuente de luz.
Unas características diferentes pueden de la misma manera ser identificadas a partir de las representaciones digitales en 2D diferentes que comprenden los datos texturales si cada característica es identificada usando un color específico de la característica, por ejemplo en un modelo físico del lugar.
En algunas realizaciones el sistema comprende un procesador de señales digital configurado para el análisis en tiempo real de las representaciones digitales en 2D y las representaciones digitales en 3D obtenidas.
La parte diferente del sistema óptico puede también ser integrada en un explorador portátil, en donde el cambio entre disposiciones relativas diferentes del sistema y el lugar (o un modelo o impresión del lugar) se obtiene moviendo el explorador portátil. La integración de un explorador portátil puede requerir que algunos de los componentes del sistema sean de un tamaño reducido. En un sistema de explorador portátil el procesador o microprocesador de señales digitales puede ser colocado en la empuñadura del explorador o en una caja de procesamiento separada.
Algunas realizaciones del conjunto óptico del sistema pueden utilizar filtros afinables que pueden ser controlados por la unidad de control de modo que los filtros afinables estén sincronizados con la obtención de las representaciones digitales en 2D. El primer conjunto de cámaras puede entonces ser de cámaras monocromas y la banda de paso de los filtros afinables se cambia de modo que las representaciones digitales en 2D sean obtenidas para un número de diferentes bandas de paso. Una banda de paso puede cubrir parte del intervalo de las longitudes de onda que corresponden a la luz roja, mientras que otra puede corresponder a la luz verde, y otra más a la luz azul. Cuando se usan filtros afinables, la segunda fuente de luz puede ser una fuente de banda ancha que imita una luz sobre un intervalo de las longitudes de onda que cubre todos los intervalos de banda de paso del filtro afinable, o al menos cubre los colores usados para definir las características por ejemplo sobre un modelo físico del lugar.
La presente invención se refiere a diferentes aspectos que incluyen el método antes descrito y en lo que sigue, y los correspondientes métodos, dispositivos, sistemas, usos y/o medios de productos, cada uno proporcionando uno o más o más de los beneficios y ventajas descritos en conexión con el primer aspecto mencionado, y cada uno teniendo una o más realizaciones correspondientes a las realizaciones descritas en conexión con el primer aspecto mencionado y/o expuesto en las reivindicaciones anejas.
En particular, se expone aquí un sistema para realizar la modelación en 3D de un objeto en 3D adaptado para ser insertado en o llevado por un paciente, en donde el sistema comprende:
- unos medios para obtener una representación digital en 3D de al menos una parte del lugar en el que el objeto es adaptado para ser colocado, en donde la representación digital en 3D comprende los datos geométricos del lugar;
- unos medios para obtener una representación digital en 2D de al menos una parte del lugar en el que el objeto es adaptado para ser colocado, en donde la representación digital 2D comprende los datos texturales del lugar;
en donde la obtención de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos es realizada reposicionando el lugar y los medios de obtención relativos entre sí para obtener una cobertura deseada del lugar;
- unos medios para alinear y combinar la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos para obtener una representación digital en 3D combinada que comprende los datos geométricos y los datos texturales del lugar;
- unos medios para visualizar la representación visual en 3D combinada que comprende los datos geométricos y los datos texturales del lugar; y
- unos medios para aplicar la información de una o más características de la representación digital en 2D que comprende los datos texturales del lugar, cuando se modela el objeto en 3D.
La obtención de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos puede ser realizada situando de nuevo automáticamente el lugar y los medios de obtención relativos entre sí para obtener la cobertura deseada del lugar.
Los medios para obtener una representación digital en 3D pueden comprender un dispositivo de obtención configurado para obtener una representación digital en 3D de un lugar.
Los medios para obtener una representación digital en 2D pueden comprender un dispositivo de obtención configurado para obtener una representación digital en 2D de un lugar.
los medios para alinear y combinar la representación digital en 2D que comprende los datos texturales y la representación digital en 3D puede comprender unos datos del dispositivo de procesamiento configurado para alinear y combinar una representación digital en 2D y una representación digital en 3D.
Los medios para visualizar la representación combinada en 3D pueden comprender un dispositivo de visualización configurado para visualizar una representación en 3D, tal como una interfaz gráfica de usuario, tal como una pantalla de computador.
Los medios para aplicar información de una o más características de la representación digital en 2D pueden comprender un dispositivo configurado para aplicar información cuando se modela el objeto en 3D.
El sistema puede ser configurado para disponer que la modelación en 3D sea aplicada por un computador.
En algunas realizaciones, la unidad de obtención, la unidad de posicionamiento, y la primera y la segunda fuentes de luz, están dispuestas en un explorador en 3D.
La primera y/o la segunda unidad del procesador de señales digitales pueden ser configuradas para extraer la información de la una o más características de la representación digital en 2d .
En algunas realizaciones las unidades primera y segunda del procesador digital son unas partes integradas de un dispositivo de procesamiento de señales digitales. El dispositivo de procesamiento de señales digitales puede por lo tanto realizar el análisis y la modelación en 3D del objeto en 3D.
En algunas realizaciones la unidad de obtención comprende:
- unos medios para obtener una representación digital en 3D de al menos una parte de un lugar dispuesto en dicho volumen de exploración, en donde la representación digital en 3D comprende los datos geométricos del lugar; y
- unos medios para obtener una representación digital en 2D de al menos una parte de un lugar dispuesto en dicho volumen de exploración, en donde la representación digital en 2D comprende los datos texturales del lugar. En algunas realizaciones la unidad de obtención comprende un primer conjunto de cámaras dispuestas para recibir luz desde el volumen de exploración y para obtener la representación digital en 3D que comprende los datos geométricos y dicha representación digital en 2D que comprende los datos texturales de un lugar.
En algunas realizaciones la unidad de iluminación comprende una primera fuente de luz adaptada para proporcionar luz para la obtención de los datos geométricos de un lugar, y una segunda fuente de luz adaptada para proporcionar luz para la obtención de los datos texturales.
El eje óptico de la primera fuente de luz y el eje óptico de la segunda fuente de luz pueden interseccionar en el volumen de exploración.
En el contexto de la presente invención, la expresión “eje óptico” puede referirse a una línea imaginaria que define el camino a lo largo del cual la luz se propaga a través del sistema. El eje óptico de la primera fuente de luz puede por lo tanto ser una línea que conecta la primera fuente de luz y un punto en la placa de exploración del sistema, en donde el punto está en el volumen que está iluminado por la primera fuente de luz.
En algunas realizaciones la primera fuente de luz comprende un láser monocromático que emite luz en una primera longitud de onda de laser.
La primera longitud de onda de laser puede estar en el intervalo del verde de las longitudes de onda, en el intervalo del rojo de las longitudes de onda, o en el intervalo del azul de las longitudes de onda, o en el intervalo del infrarrojo de las longitudes de onda, o en el intervalo del ultravioleta de las longitudes de onda.
En algunas realizaciones la segunda fuente de luz comprende una fuente de luz de banda ancha, tal como una fuente de luz blanca.
La unidad de obtención puede estar configurada para obtener los datos texturales para N características diferentes de un lugar, en donde cada característica tiene un único color o código de color, y para distinguir entre dichas N características diferentes basadas en dicho color o código de color. El color o códigos de color pueden ser definidos usando tintas o pinturas coloreadas, o el color o códigos de color pueden darse naturalmente en el lugar.
En algunas realizaciones la segunda fuente de luz está configurada para emitir una luz que permita que las características que tienen un único color o código de color sean identificadas desde una representación digital en 2D basada en la longitud de onda de la luz emitida desde la segunda fuente de luz.
La segunda fuente de luz puede comprender una matriz de diodos, en donde la matriz de diodos comprende un número de primeros diodos, un número de segundos diodos, un número de segundos diodos y un número de terceros diodos, en donde los primeros, segundos y terceros diodos están adaptados para emitir luz en una primera, segunda y tercera longitud de onda del diodo, respectivamente.
En algunas realizaciones la segunda fuente de luz comprende un difusor dispuesto para proporcionar una difusión de la luz emitida.
El uso de la luz difusiva para la adquisición de la representación digital en 2D puede proporcionar que los datos texturales de la representación digital en 2D sean más detallados que cuando se usa un haz de rayos paralelos. Al menos una de las cámaras en el primer conjunto de cámaras, tal como ambas cámaras en el primer conjunto de cámaras, puede comprender una cámara de color que comprende una matriz de filtros de color (CFA) dispuestos en una disposición tipo Bayer enfrente de un elemento fotosensitivo configurado para detectar señales electromagnéticas.
Al menos una de las cámaras en el primer conjunto de cámaras es una cámara monocroma. Cada cámara en el primer conjunto de cámaras puede ser una cámara monocroma.
En algunas realizaciones el sistema comprende una placa de exploración dispuesta de modo que un lugar dispuesto en dicha placa de exploración sea posicionado en dicho volumen de exploración.
La placa de exploración puede ser parte del explorador en 3D.
En algunas realizaciones el sistema comprende una unidad de posicionamiento configurada para posicionar el lugar en un número de posiciones y/o orientaciones diferentes con relación a la unidad de obtención, de modo que se pueda obtener una cobertura deseada del lugar obteniendo la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos con el lugar dispuesto en diferentes posiciones y/o orientaciones relativas a la unidad de obtención.
La unidad de posicionamiento puede ser configurada para al menos un movimiento biaxial de la placa de exploración de modo que la obtención de la representación digital en 3D que comprende los datos geométricos y la representación digital en 2D que comprende los datos texturales desde un número de puntos de vista puedan ser realizadas automáticamente.
En algunas realizaciones el sistema comprende una unidad de control configurada para controlar el conjunto de diodos y la unidad de posicionamiento.
La unidad de control puede ser configurada para disponer que los diodos primero, segundo y tercero emitan luz secuencialmente, de modo que se emita una secuencia de señales de luz. La secuencia puede ser la primera longitud de onda, la segunda longitud de onda, y la tercera longitud de onda, o cualquiera de dichas permutaciones. La unidad de control puede ser configurada para disponer que la secuencia sea repetida un número de veces, tal como una vez para cada disposición relativa del conjunto óptico del sistema y de la placa de exploración.
Los diodos primero, segundo y tercero de la segunda fuente de luz pueden estar dispuestos de acuerdo con una disposición Bayer.
El procesador de la primera señal digital y el dispositivo de procesamiento de señales digitales pueden ser configurados para un análisis en tiempo real de las representaciones digitales en 2D y las representaciones digitales en 3D.
Se ha expuesto el sistema para realizar la modelación en 3D de un objeto en 3D adaptado para ser insertado o llevado por un paciente, en donde el sistema comprende:
- medios para obtener una representación digital en 3D de al menos una parte del lugar en el que los objetos en 3D están adaptados para ser colocados, en donde la representación digital en 3D comprende los datos geométricos del lugar;
- medios para obtener una representación digital en 2D de al menos una parte del lugar en el que el objeto es adaptado para ser dispuesto, en donde la representación digital en 2D comprende los datos texturales relativos a una o más características del lugar;
en donde se obtiene una cobertura deseada del lugar obteniendo cada una de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos desde un número de diferentes puntos de vista relativos al lugar;
- medios para alinear la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos;
- medios para combinar al menos una parte de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos para obtener una representación digital en 3D combinada que comprende los datos geométricos y los datos texturales del lugar;
- medios para visualizar la representación en 3D combinada que comprende los datos geométricos y los datos texturales del lugar; y
- medios para la modelación en 3D del objeto en 3D de modo que el objeto modelado en 3D sea adaptado para ser insertado en o llevado por un paciente, en donde dicha modelación en 3D aplica la información de las una o más características a partir de la representación digital en 2D que comprende los datos texturales.
También se ha expuesto un producto de programa informático que comprende unos medios de código de programa para hacer que un sistema de procesamiento realice el método cuando dichos medios de código de programa sean ejecutados en el sistema de procesamiento de datos, y un producto de programa informático que comprende un medio leíble por un computador que lo tiene almacenado en los medios de código de programa.
También se ha expuesto un sistema en el que la fluorescencia es usada para la adquisición de una representación digital en 2D que comprende los datos texturales.
Los efectos de la fluorescencia pueden también ser utilizados cuando la característica comprende un material fluorescente. La característica puede por ejemplo ser definida usando tinta fluorescente sobre un modelo físico del lugar.
Una característica que comprende un material fluorescente que tiene una banda de excitación que incluye la longitud de onda de la primera fuente de luz puede proporcionar un desplazamiento de Stoke de la longitud de onda de la primera fuente de luz. En contraste, la luz reflejada desde el lugar mantiene su longitud de onda. Usando varias configuraciones ópticas conocidas por una persona experta es entonces posible extraer los datos geométricos y los datos texturales usando solamente la primera fuente de luz para iluminar el lugar. Como la fluorescencia típicamente es unos órdenes de magnitud más débil que la luz reflejada puede ser ventajoso detectar la luz reflejada usando el primer conjunto de cámaras, mientras que la señal de fluorescencia es detectada usando un segundo conjunto de cámaras. El segundo conjunto de cámaras puede comprender un filtro dispuesto para bloquear la luz dentro de la longitud de onda de la primera fuente de luz, o unos filtros pueden ser colocados entre el lugar y el segundo conjunto de cámaras. La fluorescencia puede también ser detectada usando unas únicas segundas cámaras, es decir de modo que el segundo conjunto de cámaras contenga solamente una cámara. En una realización la característica se define usando una pintura o tinta que comprende un material fluorescente configurado para la excitación de dos fotones y la primera fuente de luz emite luz con una longitud de onda en el intervalo del infrarrojo, de modo que cuando sean absorbidos dos fotones infrarrojos, se emite un fotón en el intervalo visible. La representación en 3D que comprende los datos geométricos es entonces obtenida detectando los fotones infrarrojos reflejados desde el lugar, mientras que los datos textuales puedan ser directamente obtenidos y relacionados con los datos geométricos.
Breve descripción de los dibujos
Los objetos, características y ventajas anteriores y/o adicionales de la presente invención serán a continuación explicados por la siguiente descripción detallada ilustrativa y no limitativa de realizaciones de la presente invención, con referencia a los dibujos anejo, en los que:
La Figura 1 muestra un ejemplo de un diagrama de flujos del método.
La Figura 2 muestra unos ejemplos de un modelo de dientes con las características texturales.
La Figura 3 muestra un ejemplo de modelación en 3D de una dentadura parcial retirable.
La Figura 4 muestra un ejemplo de una dentadura parcial retirable modelada.
La Figura 5 muestra unos ejemplos de una línea de margen de preparación como una característica.
La Figura 6 muestra un ejemplo de tejido de la textura.
La Figura 7 muestra un ejemplo de una configuración para explorar un lugar usando una primera y una segunda fuentes de luz.
Las Figuras 8 a 10 muestran esquemáticamente unas vistas generales de algunas configuraciones de la segunda fuente de luz que son capaces de emitir luz con su intensidad distribuida en un intervalo de longitudes de onda. La Figura 11 muestra unas fotos del conjunto óptico de un sistema de acuerdo con la presente invención.
La Figura 12 muestra unos ejemplos de colocaciones de la matriz de diodos en la segunda fuente de luz.
La Figura 13 muestra un esquema de un sistema que usa la fluorescencia de dos fotones para obtener una representación digital en 3D combinada que comprende los datos geométricos y los datos texturales.
La Figura 14 muestra una mejora del contraste para imágenes en 2D de un modelo físico de una preparación del diente.
La Figura 15 muestra un atlas de la textura para un modelo físico de una preparación del diente.
Las Figuras 16 y 17 muestran unas captaciones de pantalla del soporte lógico del computador usadas para aplicar el método de acuerdo con la presente invención.
En la descripción que sigue se hace referencia a las figuras que se acompañan, las cuales muestra a modo de ilustración cómo puede ser puesta en práctica la invención.
La Figura 1 muestra un ejemplo de un diagrama de flujos del método. El método es para la modelación en 3D de un objeto, el cual está adaptado para ser insertado en o llevado por un paciente.
En el paso 101 se obtiene una representación digital en 3D de al menos una parte del lugar en el que se obtiene el objeto que es adaptado para ser colocado, en donde la representación digital en 3D comprende los datos geométricos del lugar.
En el paso 102 se obtiene una representación digital en 2D de al menos una parte del lugar en donde se obtiene el objeto es adaptado para ser colocado, en donde la representación digital en 2D comprende los datos texturales relativos a una o más características del lugar.
Una cobertura deseada del lugar se consigue obteniendo cada una de las representaciones digitales en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos de uno o más puntos de vista diferentes relativos al lugar. El reposicionamiento del lugar con relación al sistema que es usado para obtener las representaciones digitales puede ser realizado manual o automáticamente.
En el paso 103 la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos están alineadas.
En el paso 104 al menos una parte de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos son combinadas para obtener una representación digital en 3D combinada que comprende los datos geométricos y los datos texturales del lugar. En el paso 105 se visualiza la representación digital en 2D que comprende los datos geométricos y los datos texturales del lugar. Las representaciones digitales pueden ser mostradas sobre una interfaz gráfica de usuario, tal como una pantalla de computador.
En el paso 106 el objeto en 3D es modelado en 3D de modo que el objeto modelado en 3D es adaptado para ser insertado en o llevado por un paciente, en donde dicho modelo en 3D aplica la información de las una o más características proporcionadas por la representación digital en 2D obtenida que comprende los datos texturales. La alineación, la combinación, la visualización y la aplicación de la información de la una o más características de la representación en 2D para modelación pueden ser acciones virtuales digitales realizadas por medio del soporte lógico.
La Figura 2 muestra ejemplos de un modelo de dientes con características texturales.
La Figura 2a) muestra el modelo 201 que comprende los dientes 202, la encía 203, y el paladar 204 de la boca de un paciente. El modelo 201 puede ser un modelo físico o un modelo virtual.
La Figura 2b) muestra el modelo 201 con los dientes 202, la encía 203, y el paladar 204 de la boca de un paciente. En el paladar 204 se dibuja una característica 205. La característica 205 muestra dónde en el paladar 204 y con qué forma una parte de la dentadura parcial retirable debería ser colocada. Ahora no faltan los dientes 202 en el modelo 201, pero uno o más de los dientes 202 pueden ser sustituidos por dientes artificiales en una dentadura parcial, por ejemplo si alguno de los dientes está roto, débil o muerto.
El contorno de la característica 205 de la dentadura parcial retirable se puede dibujar sobre un modelo físico 201 por un técnico dental o se puede dibujar digitalmente sobre un modelo virtual 201 mostrado en una pantalla de ordenador.
Una exploración en 3D del modelo físico 201 que usa un explorador de laser para obtener los datos geométricos del modelo solamente puede captar los datos de las características geométricas del modelo.
Para obtener los datos texturales de la o las características 205, por ejemplo el contorno dibujado de la dentadura parcial, una representación digital en 2D puede ser obtenida captando las imágenes en 2D del modelo.
Cuando se obtienen los datos geométricos y texturales, las características en 2D pueden ser conseguidas a partir de los datos texturales para ser usados en la modelación del objeto en 3D que debería ajustarse al lugar explorado. La Figura 2c) muestra una imagen de la textura del modelo físico 201 con los dientes 202, la encía 203, y el paladar 204 de la boca de un paciente. Las características 205 han sido dibujadas sobre el paladar 204 y alrededor de algunos de los dientes 202. Las características 205 muestran dónde y con qué forma en el paladar 204 y alrededor de los dientes 202 se debería colocar una dentadura parcial. Solamente cinco dientes 202 están presentes sobre el modelo 201, y así faltan varios dientes en el modelo 201, y uno o más de los dientes que faltan serán sustituidos por dientes artificiales en la dentadura parcial.
El contorno de las características 205 de la dentadura parcial ha sido dibujado sobre el modelo físico 201 por ejemplo por un técnico dental o dentista.
Esta imagen de la textura muestra claramente las características que son dibujadas física y manualmente sobre el modelo.
Para la modelación en 3D de algunos casos puede ser ventajoso dibujar las líneas sobre el modelo físico en diferentes colores para aumentar el nivel de información que puede ser conseguido de la o las representaciones digitales en 2D obtenidas.
La Figura 2d) muestra otro resultado de una imagen de la textura o exploración del modelo 201 con dientes 202, la encía 203, y el paladar 204 de la boca de un paciente. Sobre el paladar 204 se han dibujado las características 205. Las características 205 muestran dónde en el paladar 204 una parte de una dentadura parcial debería ser colocada. Nueve dientes 202 están presentes en el modelo 201, y por lo tanto varios dientes faltan en el modelo 201, y uno o más de los dientes que faltan pueden ser sustituidos por dientes artificiales en la dentadura parcial.
El contorno de las características 205 de la dentadura parcial ha sido dibujado sobre el modelo físico 201 por ejemplo por un técnico dental o dentista.
Esta imagen o exploración de la textura muestran claramente las características que están dibujadas física y manualmente sobre el modelo.
La Figura 2e) es un enfoque de la característica 205 vista en la Figura 2d). Las imágenes de la textura son obtenidas usando una cámara de 5 megapíxeles.
La Figura 3 muestra un ejemplo de modelación en 3D de una dentadura parcial retirable.
La Figura 3a) muestra la dentadura parcial retirable 306 vista desde arriba.
La Figura 3b) muestra la dentadura parcial retirable 306 en una vista lateral.
La Figura 3c) muestra un ejemplo de bloqueo de cortes bajos 307 y la exposición de cortes bajos 307 para la planificación de la abrazadera 308.
Después de que el modelo físico con la textura dibujada, por ejemplo líneas, ha sido explorado, la dentadura parcial retirable 306 puede ser modelada digitalmente.
El primer explorador dental en 3D pueda ser usado para explorar un modelo físico de yeso o alternativamente una impresión para proporcionar la representación digital en 3D del lugar en el que la dentadura parcial retirable 306 es para ser llevada por el paciente.
El explorador puede explorar unas características geométricas y unas características texturales para asegurar una imagen óptima del modelo 301 con dientes 302 y con la textura 305 dibujada, tal como líneas, para diseñar todos los componentes de la dentadura parcial retirable con una alta precisión en pocos minutos, tal como solamente 100 segundos. Los componentes de la dentadura parcial retirable comprenden unas abrazaderas 308 para la unión a los dientes 302, unas rejillas de retención 309 que se extienden sobre las encías en donde no hay dientes, el conector principal 310 sobre el paladar conectando las rejillas de retención 309 y las abrazaderas 308.
Las Figuras 3a), 3b) y 3c) muestran que el proceso de diseño digital puede intuitivamente imitar los pasos manuales, incluyendo el bloqueo de los cortes bajos 307, exponiendo los cortes bajos 307 para la planificación de la abrazadera 308, el diseño de la rejilla de retención 309 con un espacio 311 de resina automática, la aplicación del conector principal 310 y, finalmente, la adición de abrazaderas 308 a la estructura 309 de la rejilla. El flujo de trabajo completamente virtual permite al técnico dental trabajar sobre la pantalla como si él/ella estuvieran usando herramientas de cera tradicionales.
Cuando se diseña la rejilla de retención 309, el primer paso puede ser seleccionar de una lista de patrones de rejilla predefinidos y aplicar una malla al modelo digital para un ajuste perfecto. A continuación, el siguiente paso puede ser marcar el área para el conector principal 310 usando por ejemplo una herramienta de edición rápida. El sistema automáticamente la diseña para una resistencia óptima.
Si las líneas, esto es las características texturales 305, no han sido ya dibujadas sobre el modelo físico, entonces las líneas para el emplazamiento de la abrazadera 308 pueden ser dibujadas virtualmente. Las abrazaderas 308 predefinidas o personalizadas son aplicadas al modelo cuando las líneas están presentes. Por medio de una vista previa interactiva de ajuste fino de cada característica de la retirable 306 puede ser realizada mediante puntos de control.
Una sección recta en 2D del modelo digital 301 en 3D puede ser mostrada, y la línea 312 indica dónde puede ser hecha una sección recta.
La modelación de una dentadura parcial retirable 306 como se muestra aquí es una personalización altamente productiva y fiable de las dentaduras parciales retirables 306, que proporcionan laboratorios con un control digital preciso sobre los procesos mientras que se reduce el tiempo de producción y los costes. El proceso puede cubrir todos los pasos para el diseño óptimo de las estructuras metálicas y flexibles.
El método proporciona un alto grado de flexibilidad y un flujo de trabajo digital que representa los procesos practicados familiares a los técnicos de laboratorio.
El diseño digital elimina la necesidad de una segunda nueva fabricación del modelo que ahorra tiempo y dinero. Las altas características de precisión y medida del sistema proporcionan un control dimensional completo sobre el diseño de la abrazadera 308 y el conector 310 y asegura unos buenos resultados, tal como una alta estética, fácil extracción, masticación adecuada y un ajuste perfecto.
La investigación completamente digital identifica con precisión los cortes bajos 307, facilita el bloqueo con cera virtual para la fácil extracción, y permite que la exposición al corte bajo 307 para un diseño óptimo de la abrazadera 308.
De este modo el método proporciona un diseño más rápido y fácil de parciales 306 que ajustan perfectamente, proporciona un diseño parcial rápido reduciendo el tiempo del proceso manual, proporciona que las representaciones intuitivas del flujo de trabajo del proceso manual, proporciona que los puntos ideales de bloqueo y las áreas de retención puedan ser identificados en un tiempo mínimo, reduce las órdenes de reajustes y de volver a hacer, y aumenta la satisfacción del dentista y el paciente.
La Figura 4 muestra un ejemplo de una dentadura parcial retirable modelada.
La Figura 4a) muestra un ejemplo de un modelo digital CAD de la dentadura parcial retirable 406.
La Figura 4b) muestra un ejemplo de la dentadura parcial retirable 406 unida a un modelo 401 de los dientes 402 de un paciente, las encías 403 y el paladar 404.
La dentadura parcial retirable 406 comprende unas abrazaderas 408 para la unión a los dientes 402, unas rejillas de retención 409 que se extienden sobre las encías en donde no hay dientes, el conector principal 410 en el paladar 404 que conecta las rejillas de contención 409 y las abrazaderas 408.
La Figura 5 muestra unos ejemplos de una línea de margen de preparación como una característica.
La Figura 5a) muestra un dibujo CAD de una boquilla o diente 502 que está preparada significando que ha sido triturada de modo que una restauración, tal como una corona, pueda ser colocada sobre el diente 502. La preparación del diente 502 proporciona una línea 505 de margen de preparación que es una característica que puede ser detectada como una característica geométrica y/o como una característica textural cuando se explora o se obtienen imágenes del diente 502. En la figura 5a) la línea 505 de margen de preparación es también marcada con una línea coloreada, y en puntos sobre los pequeños marcadores 513 de la línea indican la dirección perpendicular de la línea de margen en ese punto. La flecha 514 indica la dirección perpendicular general de la línea de margen 505 o la dirección de inserción del diente 502.
Las Figuras 5b)-5e) muestran un número de imágenes de textura desde diferentes puntos de vista de una boquilla 502 que ha sido preparada suponiendo que ha sido triturada de modo que una restauración, tal como una corona, puede ser colocada sobre la boquilla 502. La preparación de la boquilla 502 proporciona una línea 505 de margen de preparación que es una característica que puede ser detectada como una característica geométrica y/o una característica textural cuando se explora o se obtienen imágenes del diente 502. La línea 505 de margen de preparación es también bosquejada o dibujada sobre la boquilla 502 con un color creando un contraste con el color de la boquilla y/o el fondo.
Los efectos especulares que son dominantes en la Figura 5d) pueden ser eliminados por medio del tejido de la textura entre las diferentes imágenes.
Las Figuras 5f)-5i) muestran un número de exploraciones de la textura desde diferentes puntos de vista de otra boquilla 502 que ha sido preparada suponiendo que ha sido triturada de modo que una restauración, tal como una corona, puede ser colocada sobre la boquilla 502. La preparación de la boquilla 502 proporciona una línea 505 de margen de preparación que es una característica que puede ser detectada como una característica geométrica y/o una característica textural cuando se explora o se obtienen imágenes del diente 502. La línea 505 de margen de preparación es también bosquejada o dibujada sobre la boquilla 502 con un color que crea un contraste con el color de la boquilla y/o el fondo.
Las Figuras 5j)-5m) muestran un número de exploraciones de la textura desde diferentes puntos de vista de una impresión de un número de dientes, en donde uno de los dientes es un diente preparado 502. La impresión del diente preparado 502 muestra la línea 505 del margen de preparación que es una característica que puede ser detectada como una característica geométrica y/o como una característica textural cuando la exploración u obtención de imágenes de la impresión del diente preparado 502. La línea del margen de preparación puede también ser bosquejada o dibujada sobre la impresión con un color creando un contraste con el color de la impresión y/o el fondo.
La Figura 6 muestra un ejemplo del tejido de la textura.
La Figura 6a) muestra un ejemplo en el que un número, por ejemplo tres, las imágenes 615 de la textura han sido obtenidas de la cara de una persona desde diferentes puntos de vista, y en donde las imágenes 615 han sido reunidas en una imagen de la textura compuesta. Las transiciones 616 entre las diferentes imágenes 615 de la textura pueden ser vistas, ya que los colores o tonos no son los mismos en los límites de las imágenes diferentes 615.
La Figura 6b) muestra un ejemplo en el que las imágenes 615 de textura única de la Figura 6a) han sido sometidas a un tejido de la textura, de modo que las transiciones 616 que eran dominantes en la figura 6a) no pueden o apenas no pueden ser vistas en la imagen 617 de la textura procesada. Los colores y los tonos de las diferentes imágenes 615 de la textura han sido suavizados en la imagen final 617 de la textura de modo que los colores y tonos coincidan en los límites de las diferentes imágenes 615 de la textura.
La Figura 7 muestra un ejemplo de una preparación para la exploración de un lugar usando una primera y una segunda fuente de luz. En este ejemplo el sistema está configurado para obtener unas representaciones digitales de un modelo físico o una impresión del lugar. En lo que sigue el sistema es descrito en relación con un modelo físico del lugar, pero la descripción proporcionada es igualmente válida para la obtención de representaciones digitales a partir de una impresión del lugar.
El conjunto óptico 720 del sistema comprende una primera fuente de luz 721, una segunda fuente de luz 722 y un tercer conjunto de cámaras 7231, 7232. El eje óptico de la primera fuente de luz y el eje óptico de la segunda fuente de luz interseccionan en un volumen de exploración. La placa de exploración 7241 está dispuesta de modo que un modelo físico 724 colocado sobre esta placa de exploración esté dentro de este volumen de exploración y el modelo físico pueda ser iluminado por la luz desde la primera fuente de luz 721 y desde la segunda fuente de luz 722. El primer conjunto de cámaras 7231, 7232 está dispuesto de modo que sus elementos fotosensitivos 7321, 7322 puedan recibir luz desde el volumen de exploración, tal como la luz reflejada desde el modelo físico 724 colocado sobre la placa de exploración 7241. El sistema comprende además un elemento mecánico tal como una unidad de posicionamiento (no incluida en la figura por simplicidad) para trasladar y/o rotar la placa de exploración 7241 y por lo tanto el modelo físico 724 y el conjunto óptico 720 relacionados uno con otro. La primera fuente de luz 721 puede ser un láser monocromático. La segunda fuente de luz 722 puede ser una fuente de luz de banda ancha, tal como una fuente de luz blanca, o una fuente de luz que proporcione una luz con múltiples longitudes de onda distintas, tal como una fuente de luz que comprenda un número de diodos que emitan luz con diferentes longitudes de onda. Para algunas aplicaciones, la luz emitida desde la segunda fuente de luz es preferiblemente difusa, lo que permite una detección detallada de la textura de una característica sobre el modelo físico, tal como por ejemplo la aspereza de la superficie en una línea de margen.
La representación digital en 3D que comprende los datos geométricos puede ser obtenida explorando tal laser monocromo de la primera fuente de luz 721 sobre el lugar 724 mientras se registran las señales reflejadas desde el lugar hacia el primer conjunto de cámaras 7231, 7232.
El sistema puede ser usado para los pasos del método de acuerdo con la presente invención relativa a obtener la representación digital en 2D que comprenden los datos texturales y las representaciones digitales en 3D que comprenden los datos geométricos. El sistema puede ser configurado de modo que las representaciones digitales en 3D que comprenden los datos geométricos sean obtenidas antes que las representaciones digitales en 2D que comprenden los datos texturales.
Ambas cámaras del primer conjunto de cámaras pueden ser usadas para la adquisición de una imagen en 2D de la representación digital en 2D que comprende los datos texturales, de modo que se reduce el tiempo empleado para obtener una representación digital en 2D que comprende un gran número de las imágenes en 2D. El uso de las imágenes en 2d obtenidas de ambas cámaras puede requerir un conocimiento detallado de la posición y la orientación de las cámaras con relación al lugar.
Una cobertura deseada del lugar puede ser conseguida obteniendo la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos del lugar desde un número de puntos de vista diferentes. La representación digital en 3D puede ser adquirida recogiendo las partes individuales de la representación digital en 3D desde un número de puntos de vista diferentes. Las partes individuales de la representación digital en 3D pueden entonces ser fusionadas para formar la representación digital en 3D que comprende los datos geométricos del lugar. Cada parte individual puede ser analizada para detectar un patrón de luz que usa un algoritmo de seguimiento normal. Cuando el patrón de luz es conocido, potencialmente con una precisión subpixel, las coordenadas en 3D correspondientes pueden ser reconstruidas usando una geometría proyectiva bien conocida. Una reconstrucción precisa de las coordenadas en 3D usualmente requiere una alta calidad de las cámaras y el calibrado de la fuente de luz. A continuación las coordenadas en 3D reconstruidas a partir de las partes individuales relativas de la representación digital en 3D obtenidas en los mismos o diferentes puntos de vista pueden ser fusionadas. La fusión puede ser realizada combinando las partes individuales teniendo en consideración su posición relativa. Finalmente las coordenadas en 3D pueden ser trianguladas usando un algoritmo de triangulación normal para formar la geometría final de la representación digital en 3D.
Un registro de una parte de la representación digital en 2D que comprende los datos texturales en la representación digital en 3D del lugar puede proporcionar un modelo en 3D que comprende los datos texturales. Las imágenes en 2D de la representación digital en 2D que comprenden los datos texturales puede ser registradas en el modelo 3D una a una, o los datos texturales de las una o más representaciones digitales en 2D pueden ser combinados para proporcionar una característica de modelos en 3D que entonces puede ser aplicada a las representaciones digitales en 3D que comprenden los datos geométricos.
Las representaciones digitales obtenidas pueden ser analizadas en un procesador o microprocesador de señales digitales. El análisis puede ser realizado en tiempo real.
Las Figuras 8 a 10 muestran unas visiones generales esquemáticas de algunas configuraciones de la segunda fuente de luz que son capaces de emitir luz con su intensidad distribuida en un intervalo de longitudes de onda. Tales configuraciones pueden ser ventajosas cuando los datos texturales de las características son definidos usando colores diferentes.
Cuando una característica es definida por ejemplo por una línea coloreada dibujada por un usuario sobre un modelo físico del lugar, la característica proporcionará solamente una fuerte reflexión de luz con una longitud de onda correspondiente al color de la línea. Por ejemplo, una línea roja sobre un modelo físico solamente refleja la luz roja, y la luz emitida desde la segunda fuente de luz debe incluir las longitudes de onda en el intervalo del rojo con el fin de tener una reflexión desde la línea roja de esta característica.
Los ejemplos de las Figuras 8 a 10 describen unas configuraciones en las que se usan tres colores para definir las diferentes partes de una característica o característica diferente, pero esta elección es solamente con fines ilustrativos.
En la Figura 8 la segunda fuente de luz 822 comprende una matriz de diodos que comprende un número de primeros diodos 826 que emiten luz con una longitud de onda en el intervalo del rojo, un número de segundos diodos 827 que emiten luz con una longitud de onda en el intervalo del verde, y un número de terceros diodos 828 que emiten luz con una longitud de onda en el intervalo del azul. Un difusor 825 está dispuesto para proporcionar una difusión de la luz emitida desde el conjunto de diodos de modo que el modelo físico 824 dispuesto en la placa de exploración 8241 sea iluminado por un haz 8221 que comprende luz difusa desde la segunda fuente de luz. El difusor puede ser fabricado a partir de un plástico o vidrio opalizado de unos pocos milímetros de espesor. Todos los diodos de la matriz son accionados para emitir luz continuamente por una unidad de control configurada para controlar la matriz de diodos. La unidad de control no se muestra en la figura por simplicidad. La unidad de control puede opcionalmente también ser configurada para controlar el primer conjunto de cámaras 8231, 8232. El primer conjunto de cámaras 8231, 8232 están dispuestas para recibir la luz reflejada desde el modelo físico 824 situado sobre la placa de exploración 8241.
Las cámaras 8231, 8232 del primer conjunto de cámaras son cámaras de color de modo que la luz en todas las longitudes de onda emitidas desde la matriz de diodos pueda ser detectada por la cámara e identificada a partir de la longitud de onda de las señales individuales.
Tal diseño del conjunto óptico es ventajoso para obtener datos texturales de un modelo físico en el cual están definidas una primera, una segunda, y una tercera característica que usan los colores rojo, verde y azul, respectivamente. La parte roja de la imagen en 2D obtenida por las cámaras de color se refiere a la primera característica, la parte verde a la segunda característica, y la parte azul a la tercera característica. Las diferentes partes en cada imagen en 2D obtenida están por tanto relacionadas con las diferentes características y la información para todas las tres características puede ser obtenida de una imagen en 2D. Varias imágenes en 2D en color obtenidas desde diferentes puntos de vista relativos pueden todavía ser necesarias con el fin de obtener la cobertura deseada.
Esta colocación que continuamente tiene luz emitida desde todos los tres tipos de diodos, es decir en todas las tres longitudes de onda, en la segunda fuente de luz y cámaras de color en el primer conjunto de cámaras puede tener la ventaja de que cada representación digital en 2D obtenida del modelo físico puede proporcionar los datos texturales de las características definidas que usan los diferentes colores. La obtención de los datos texturales relativos a las diferentes características puede por tanto ser realizada en paralelo.
La Figura 9 muestra un sistema en el que la matriz de diodos es similar a la matriz de diodos ilustrada en la Figura 8. Los diodos de la matriz son no obstante accionados secuencialmente en lugar de continuamente como está descrito en la Figura 8. Los diodos pueden ser accionados de modo que el modelo físico en cada momento solamente sea iluminado desde un tipo de los diodos, es decir iluminado con luz en una longitud de onda solamente. La unidad de control asegura que los diodos primero, segundo y tercero 926, 927, 928 emiten luz secuencialmente, de modo que el modelo físico es iluminado por una secuencia de señales de luz, en donde la secuencia por ejemplo puede ser la primera longitud de onda, la segunda longitud de onda, y la tercera longitud de onda. La secuencia puede ser repetida un número de veces, tal como una para cada modelo físico de la colocación relativa y la segunda fuente de luz y las cámaras. El difusor 925 de la segunda fuente de luz 922 hace que la luz en el haz 9221 que sale de la segunda fuente de luz sea difusa.
La obtención de las representaciones digitales en 2D que usan las cámaras 9231, 9232 y el accionamiento de los diodos de la segunda fuente de luz 922 están cronometrados de modo que una representación digital en 2D sea obtenida por cada paso en la secuencia de señales de luz. Una representación digital en 2D es por tanto obtenida para cada una de las longitudes de onda que es emitida por la matriz de diodos. Como cada una de estas representaciones digitales en 2D está correlacionada con una única longitud de onda de la segunda fuente de luz, no hay necesidad de cámaras de color, y las cámaras 9231, 9232 pueden ser cámaras monocromas.
Una línea coloreada aparecerá como gris oscura en una imagen en 2D obtenida por las cámaras monocromas cuando la segunda fuente de luz emite luz con una longitud de onda que está fuera del intervalo de longitudes de onda en donde este color refleja la luz. Una línea que tiene un color en el que coincide una longitud de onda de la luz emitida desde la segunda fuente de luz aparecerá luz gris clara en la imagen en 2D obtenida. Los procedimientos normales para procesar una imagen en 2D de escala de grises que comprende líneas en gris claro y gris oscuro pueden entonces ser aplicados para identificar el color de las líneas dibujadas desde su apariencia monocroma en las representaciones digitales en 2D que son obtenidas mientras se ilumina el modelo físico con luz en las diferentes longitudes de onda de la segunda fuente de luz.
Esta disposición de la segunda fuente de luz y del primer conjunto de cámaras puede tener la ventaja de que el modelo físico puede ser explorado usando tres colores para proporcionar el triple de la información que puede ser aportada con un color solamente, mientras que además se usan las cámaras monocromas más simples. La información relativa a las tres diferentes características del mismo modelo físico del lugar puede ser obtenida y distinguida una de otra usando una cámara monocroma.
Para el canal del verde, este enfoque puede doblar la cantidad de información, mientras que para los canales del azul y el rojo tenemos cuatro veces más información. En total, esto da 0,5*2 2*0,25*4 = 3 veces.
La reducida complejidad del explorador cuando se usan cámaras monocromas puede ser a costa de un tiempo de proceso ampliado ya que los datos son obtenidos secuencialmente en lugar de en paralelo como se ve en la Figura 8.
En la Figura 10 la segunda fuente de luz 1022 comprende una fuente de luz blanca 1030 y un difusor 1025 dispuesto para proporcionar una difusión de la luz emitida desde la fuente de luz blanca 1030 para proporcionar un haz de luz difusa 10221. El primer conjunto de cámaras 10231, 10232 son cámaras de color.
La fuente de luz blanca 1030 es capaz de emitir luz en un intervalo de longitudes de onda que cubra las longitudes de onda del azul al rojo, de modo que los colores rojo, verde y azul puedan ser usados para identificar diferentes características en el modelo físico. Las cámaras 10231, 10232 pueden ser cámaras de color, en cuyo caso el sistema sólo difiere del de la Figura 8 con respecto a la segunda fuente de luz.
Una alternativa al uso de cámaras de color es usar cámaras monocromas y colocar filtros, tal como filtros Bayer en el camino óptico entre el volumen de exploración y las cámaras. Los filtros Bayer proporcionan entonces una correlación entre la posición en los elementos fotosensitivos 10321, 10322 en donde se recibe una señal y la longitud de onda de la señal recibida. Solamente un número de los píxeles de los elementos fotosensitivos 10321, 10322 recibirá luz roja, mientras que otros recibirán solamente luz verde y otros solamente recibirán luz azul. Un calibrado en donde los elementos fotosensitivos 10321, 10322 están expuestos a fuentes de luz monocromática (rojo, verde, azul) aunque los filtros Bayer establecen la correlación longitud de onda - pixel, de modo que las señales detectadas por los diferentes píxeles de los elementos fotosensitivos 10321, 10322 están unidas a los diferentes colores de la luz reflejada por el modelo físico 1024. La correlación puede ser almacenada en el primer conjunto de cámaras o en una unidad de procesador de señales digitales usadas para analizar las representaciones digitales en 2D obtenidas por el primer conjunto de cámaras.
En la Figura 10 los filtros podrían estar dispuestos entre la placa de exploración 10241 y los elementos fotosensitivos 10321, 10322 de las cámaras 10231, 10232.
La fuente de luz blanca 1030 debería entonces preferiblemente ser capaz de emitir luz en un intervalo de longitudes de onda que cubriera las longitudes de onda del azul al rojo, es decir todo el espacio de longitudes de onda del filtro Bayer.
Este diseño del sistema tiene la ventaja de que la electrónica es más simple que la del diseño ilustrado en la Figura 9 y que las representaciones pueden ser obtenidas tan rápido como en el diseño de la Figura 8.
Las cámaras de color están a menudo hechas de una microplaqueta CCD monocroma y un filtro Bayer colocado enfrente de esta microplaqueta.
La Figura 11 muestra unas imágenes del conjunto óptico de un sistema de acuerdo con la presente invención. Las imágenes están tomadas desde ángulos diferentes y muestran los componentes del conjunto óptico. La primera fuente de luz 1121 es un láser rojo que emite luz con una longitud de onda de 650 nm. Las cámaras 11231, 11232 del primer conjunto de cámaras están dispuestas en los lados opuestos de la primera fuente de luz 1121 para permitir la obtención de imágenes estéreo de la superficie de un modelo físico 1124 dispuesto en la placa de exploración 11241. La segunda fuente de luz 1122 tiene un difusor 1125 dispuesto a hacer que la luz emitida sea difusa. Aquí la representación digital en 3D que comprende los datos geométricos y la representación digital en 2D que comprende los datos texturales son obtenidas usando el primer conjunto de cámaras 11231, 11232. La primera fuente de luz 1121 y la segunda fuente de luz 1122 están dispuestas en unos ángulos diferentes con relación a la placa de exploración 11241 de modo que la luz procedente de ambas fuentes pueda ser reflejada desde un modelo físico 1124 en la placa de exploración hacia las cámaras 11231, 11232.
En una configuración del conjunto óptico la segunda fuente de luz 1122 tiene unos diodos que emiten luz en las longitudes de onda roja, verde o azul, en donde los diodos son accionados para emitir luz secuencialmente. Las cámaras 11231, 11232 pueden entonces ser cámaras monocromas.
En una configuración del conjunto óptico la segunda fuente de luz 1122 tiene unos diodos que continuamente emiten luz blanca durante la obtención de la representación digital en 2D. Las cámaras 11231, 11232 pueden entonces ser cámaras de color, de modo que las características marcadas en colores diferentes pueden ser distinguidas en la representación digital en 2D obtenida. Las cámaras de color 11231, 11232 pueden tener unos conjuntos de filtros de color (CFA) dispuestos en una disposición de tipo Bayer enfrente de su elemento fotosensitivo. En este caso la resolución espacial proporcionada por la luz en las longitudes de onda verde es el doble de la resolución espacial proporcionada por la luz en las longitudes de onda roja y azul, tal como para algunas aplicaciones podría ser preferido usar un láser verde en lugar de un láser rojo como la primera fuente de luz 1121.
La Figura 12 muestra unos ejemplos de una disposición del conjunto de diodos en la segunda fuente de luz.
En la Figura 12b está ilustrada una disposición de diodos rojos 12501, diodos verdes 12502 y diodos azules 12503 en una matriz 9x12 en una placa de circuitos 1250 con los diodos rojo, verde y azul dispuestos similares a las distribuciones de estos colores en un filtro Bayer.
La Figura 12b muestra una imagen de una placa de circuitos 1250 de la segunda fuente de luz, en donde los diodos blancos 12504 están dispuestos en una matriz 4x10.
La Figura 13 muestra un esquema de un sistema que usa la fluorescencia de dos fotones para obtener una representación digital en 3D que comprende datos geométricos y datos texturales.
Una característica es definida en el modelo físico 1324 del lugar usando una pintura o tinta que comprende un material fluorescente configurado para la para la excitación de dos fotones y la primera fuente de luz 1321 emite luz con una longitud de onda en el intervalo infrarrojo. Cuando los dos fotones infrarrojos son absorbidos, un fotón en el intervalo visible es emitido desde la característica.
La representación en 3D obtenida detectando los fotones infrarrojos reflejados desde el lugar pueden directamente ser combinados con la representación en 3D obtenida detectando la fluorescencia procedente de la característica. Una característica sobre la comprensión de un material fluorescente que tiene una banda de excitación que incluye la longitud de onda de la primera fuente de onda 1321 puede proporcionar un desplazamiento Stoke de la longitud de onda de la primera fuente de luz. Por el contrario, la luz reflejada desde el lugar mantiene su longitud de onda. Usando diversas configuraciones ópticas conocidas por el personal experto es entonces posible extraer los datos geométricos y los datos texturales usando solamente la primera fuente de luz para iluminar el lugar.
Como la fluorescencia típicamente es unos órdenes de magnitud más débil que la luz reflejada puede ser ventajoso detectar la luz reflejada utilizando el primer conjunto de cámaras, mientras la señal de fluorescencia es detectada usando un segundo conjunto de cámaras. El segundo conjunto de cámaras puede comprender un filtro dispuesto para bloquear la luz dentro de la longitud de onda de la primera fuente de luz, o los filtros pueden ser colocados entre el lugar y el segundo conjunto de cámaras.
Varias partes de los conjuntos ópticos ilustrados en las Figuras 7 a 13 pueden también ser integradas en un explorador portátil, en donde el cambio entre las diferentes disposiciones relativas del sistema y el lugar (o un modelo o impresión del lugar) se obtiene moviendo el explorador portátil. La integración en un explorador portátil puede requerir que algunos de los componentes del sistema sean reducidos en tamaño. En un sistema de explorador portátil, un procesador o un microprocesador de señales digitales configurados para analizar las representaciones digitales en 2D obtenidas pueden ser colocados en la empuñadura del explorador o en una caja de procesamiento separada.
La Figura 14 muestra una mejora del contraste para imágenes en 2D de un modelo físico del lugar.
Aquí el lugar es una preparación del diente y el objeto en 3D una restauración tal como una corona o un puente. El modelo físico es una boquilla del diente preparado en cuya boquilla la línea de margen ha sido marcada usando un bolígrafo. Cada imagen en 2D de la representación digital en 2D obtenida es procesada para mejorar la visibilidad la línea de margen (la característica) antes de que la representación digital en 2D sea proyectada sobre la representación digital en 3D que comprende los datos geométricos. Algún procesamiento de imágenes puede también ser realizado después de esta proyección. Para este modelo físico la mejora del contraste parece ser mejor para valores alfa en el intervalo de 0,2 a 0,6. Cuando la acanaladura en 3D de la línea de margen ha sido extraída de los datos texturales, la restauración es modelada usando técnicas normales.
La Figura 15 muestra un atlas de la textura para un modelo físico de una preparación del diente. El atlas de la textura es formado combinando parches de imagen de las imágenes en 2D obtenidas del modelo físico. Los parches de imágenes 15421, 15422, 15423, 15424, y 15425 cubren la línea de margen 1543 marcada sobre el modelo físico usando un lápiz, con la numeración indicando el orden de las imágenes en 2D a lo largo de la línea de margen. El tejido de la textura ha sido aplicado para asegurar que la textura de los parches de la imagen es sin costura, que por ejemplo puede ser visto en imagen 15425 en 2D en donde la sección brillante alargada 15426 es debida a una apariencia algo más brillante del parche contiguo 15421.
Cuando es proyectada sobre la representación digital en 3D, la posición de la característica, es decir la línea de margen 1543, puede ser extraída en la forma de una acanaladura en 3D.
La Figura 16 muestra captaciones de pantalla del soporte lógico del computador usado para aplicar el método de acuerdo con la presente invención.
La característica es aquí una línea de margen dibujada sobre un modelo físico de un diente preparado. Una representación digital en 3D que comprende los datos geométricos 1644 y una representación geométrica en 3D combinada que comprende los datos geométricos y texturales 1645 como vistos desde la misma posición (virtual) relativa a las representaciones digitales. En la representación digital en 3D combinada en donde los datos texturales son proyectados sobre la representación digital en 3D que comprende los datos geométricos, la línea de margen 1643 puede ser vista. A partir de esta representación digital en 3D combinada, una acanaladura en 3D de la línea de margen puede ser extraída usando algoritmos aplicados del computador.
La Figura 17 muestra unas captaciones de pantalla del soporte lógico usadas para aplicar el método de acuerdo con la presente invención.
Esta figura muestra parte de una acanaladura en 3D extraída de los datos texturales de la representación digital en 2D obtenida. La acanaladura en 3D 1746 que sigue la característica del lugar, es decir la línea de margen, es obtenida automáticamente a partir de los datos de textura de la representación digital en 2D proyectando la representación digital en 2D sobre la representación digital en 3D que comprende los datos geométricos.
La Figura 17b muestra un primer plano de la acanaladura en 3D extraída 1746 con los puntos de control 1747. La forma de la acanaladura en 3D puede ser ajustada moviendo los puntos de control 1747 con relación a la representación digital en 3D de la preparación del diente. La modelación en 3D de la restauración, es decir del objeto en 3D, puede comprender una definición de las superficies de la restauración basada en la representación digital en 3D que comprende los datos geométricos y de una forma objetivo de la restauración, mientras que se usa la acanaladura en 3D para definir la forma de la restauración en la parte enfrente de la línea de margen.
Aunque algunas realizaciones han sido descritas y mostradas con detalle, la invención no está limitada a éstas, aunque también pueden ser realizadas de otras maneras dentro del alcance de la materia objeto definida en las siguientes reivindicaciones. En particular, se ha de entender que otras realizaciones pueden ser utilizadas y que se pueden realizar modificaciones estructurales y funcionales sin apartarse del alcance de la presente invención.
En los diversos medios que enumeran las reivindicaciones del dispositivo, varios de estos medios pueden ser realizados por uno y el mismo artículo del soporte físico. El simple hecho de que ciertas medidas sean citadas en reivindicaciones mutuamente diferentes o descritas en diferentes realizaciones no indica que una combinación de estas medidas no pueda ser usada como una ventaja.
Se debería resaltar que el término “comprende/comprendiendo” cuando se usa en esta especificación es tomado para especificar la presencia de características, números enteros, pasos, componentes manifestados pero no impide la presencia o adición de una o más de otras características, números enteros, pasos, componentes o grupos de ellos.
Las características del método antes descrito y en lo que sigue pueden ser aplicadas en el soporte lógico y realizadas en un sistema de procesamiento de datos u otros medios de procesamiento causados por la ejecución de instrucciones ejecutables por un computador. Las instrucciones pueden ser medios de código de programa cargados en una memoria, tal como una RAM, desde un medio de almacenamiento o desde otro computador por medio de una red de computadores. Alternativamente, las características descritas pueden ser aplicadas por circuitos cableados en lugar del soporte lógico o en combinación con el soporte lógico.

Claims (13)

REIVINDICACIONES
1. Un método implementado por computador para la modelación en 3D de un objeto 3D adaptado para ser insertado en o llevado por un paciente, en donde el método comprende:
- obtener (101) una representación digital en 3D de al menos una parte del lugar en donde el objeto en 3D es adaptado para ser colocado, en donde la representación digital en 3D comprende los datos geométricos del lugar; - obtener (102) una representación digital en 2D de al menos una parte del lugar en donde el objeto es adaptado para ser colocado, en donde la representación digital en 2D comprende los datos texturales relativos a una o más características del lugar;
en donde una cobertura deseada del lugar se consigue obteniendo cada una de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos de uno o más puntos de vista relativos al lugar;
- alinear (103) la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos;
- combinar (104) solo una parte de la representación digital en 2D que comprende los datos texturales y la representación digital en 3D que comprende los datos geométricos para obtener una representación digital en 3D que comprende los datos geométricos y los datos texturales del lugar;
- visualizar (105) la representación en 3D combinada que comprende los datos geométricos y los datos texturales del lugar;
- modelar en 3D (106) el objeto en 3D de modo que el objeto modelado en 3D sea adaptado para ser insertado en o llevado por un paciente, en donde dicha modelación en 3D aplica la información de una o más características de la representación digital en 2D obtenida que comprende los datos texturales;
extraer la información de la una o más características de la representación digital en 2D que comprende los datos texturales,
en donde la una o más características en 2D comprenden un punto en 2D, una curva en 2D y una acanaladura en 2D.
2. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde la extracción de la información de la una o más características se realiza automáticamente.
3. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde la representación digital en 2D se obtiene adquiriendo una o más imágenes en 2D de un modelo físico del lugar o de una impresión del lugar, y/o adquiriendo imágenes 2D directamente del lugar.
4. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde la parte de la representación digital en 2D que comprende datos texturales que se combina con la representación digital en 3D comprende una o más secciones de las imágenes en 2D de la representación digital en 2D adquirida.
5. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde la combinación de la representación digital en 2D y la representación digital en 3D para obtener una representación en 3D combinada comprende proyectar la información extraída desde la representación digital en 2D sobre la representación digital en 3D.
6. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde la representación digital en 3D es obtenida explorando un modelo físico del lugar, explorando una impresión del lugar, y/o realizando una exploración directa del lugar.
7. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde el lugar es uno o más dientes del paciente.
8. El método implementado por computador de acuerdo con cualquiera de las anteriores reivindicaciones, en donde extraer información de una o más características del lugar comprende la detección de características.
9. Un producto de programa informático que comprende medios de código de programa para hacer que un sistema de procesamiento de datos realice el método de cualquiera de las anteriores reivindicaciones, cuando dichos medios de código de programa se ejecutan en el sistema de procesamiento de datos.
10. Un sistema para modelación en 3D de un objeto en 3D adaptado para ser insertado en o ser llevado por un paciente, en donde el sistema comprende:
- una unidad de iluminación configurada para iluminar al menos parte de un volumen de exploración del sistema;
- una unidad de adquisición configurada para adquirir (102) una representación digital en 2D que comprende datos texturales y una representación digital en 3D (101) que comprende datos geométricos de un lugar dispuesto en el volumen de exploración;
- una primera unidad de procesador de señal digital configurada para:
• analizar las representaciones digitales en 2D y las representaciones digitales en 3D adquiridas,
• alinear (103) las representaciones digitales en 2D y las representaciones digitales en 3D; y
• extraer información de una o más características de la representación digital en 2D que comprende datos texturales; y
• combinar (104) solo una parte de la representación digital en 2D y la representación digital en 3D para obtener una representación digital en 3D combinada que comprende tanto datos geométricos como datos texturales del lugar;
- un dispositivo de visualización para visualizar (105) la representación en 3D combinada que comprende los datos geométricos y los datos texturales extraídos del lugar; y
- una segunda unidad de procesador de señal digital configurada para modelar en 3D (106) el objeto en 3D de manera que el objeto modelado en 3D esté adaptado para ser insertado en o ser llevado por un paciente, donde dicho modelado en 3D comprende aplicar información de la representación digital en 2D adquirida.
11. El sistema de acuerdo con la reivindicación 10, en donde las partes del sistema, tal como la unidad de adquisición, la unidad de posicionamiento, y la primera y segunda fuente de luz, son proporcionadas en un explorador 3D.
12. El sistema de acuerdo con cualquiera de las reivindicaciones 10 a 11, en donde la unidad de adquisición comprende:
- medios para adquirir una representación digital en 3D de al menos una parte de un lugar dispuesto en dicho volumen de exploración, donde la representación digital en 3D comprende datos geométricos del lugar; y
- medios para adquirir una representación digital en 2D de al menos una parte de un lugar dispuesto en dicho volumen de exploración, donde la representación digital en 2D comprende datos texturales del lugar.
13. El sistema de acuerdo con las reivindicaciones 10 a 12, en donde la unidad de adquisición comprende un primer conjunto de cámaras dispuestas colocadas para recibir luz del volumen de exploración y para adquirir tanto dicha representación digital en 3d que comprende datos geométricos como dicha representación digital en 2D que comprende datos texturales de un lugar.
ES19214718T 2010-07-12 2011-07-11 Modelación en 3D de un objeto usando características texturales Active ES2922376T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DKPA201000617 2010-07-12
US36373510P 2010-07-13 2010-07-13

Publications (1)

Publication Number Publication Date
ES2922376T3 true ES2922376T3 (es) 2022-09-14

Family

ID=45468948

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19214718T Active ES2922376T3 (es) 2010-07-12 2011-07-11 Modelación en 3D de un objeto usando características texturales

Country Status (7)

Country Link
US (1) US10776533B2 (es)
EP (3) EP2593035B1 (es)
JP (2) JP6363341B2 (es)
KR (1) KR101844549B1 (es)
CN (1) CN103228228B (es)
ES (1) ES2922376T3 (es)
WO (1) WO2012007003A1 (es)

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2442720B1 (en) 2009-06-17 2016-08-24 3Shape A/S Focus scanning apparatus
US9403238B2 (en) 2011-09-21 2016-08-02 Align Technology, Inc. Laser cutting
GB201120375D0 (en) * 2011-11-25 2012-01-11 Invibio Ltd Prosthodontic device
US9375300B2 (en) 2012-02-02 2016-06-28 Align Technology, Inc. Identifying forces on a tooth
US9220580B2 (en) 2012-03-01 2015-12-29 Align Technology, Inc. Determining a dental treatment difficulty
DE102012207499B3 (de) 2012-05-07 2013-09-05 Sirona Dental Systems Gmbh Verfahren zur Vermessung einer Zahnsituation
US9414897B2 (en) 2012-05-22 2016-08-16 Align Technology, Inc. Adjustment of tooth position in a virtual dental model
US9404741B2 (en) 2012-07-25 2016-08-02 Siemens Aktiengesellschaft Color coding for 3D measurement, more particularly for transparent scattering surfaces
US9135498B2 (en) 2012-12-14 2015-09-15 Ormco Corporation Integration of intra-oral imagery and volumetric imagery
US9668829B2 (en) * 2012-12-19 2017-06-06 Align Technology, Inc. Methods and systems for dental procedures
CN103049896B (zh) * 2012-12-27 2015-09-16 浙江大学 三维模型的几何数据和纹理数据自动配准算法
KR102241837B1 (ko) 2013-02-13 2021-04-19 쓰리세이프 에이/에스 컬러를 기록하는 포커스 스캐닝 장치
US10157330B2 (en) * 2013-03-15 2018-12-18 James R. Glidewell Dental Ceramics, Inc. Method and apparatus for shape analysis, storage and retrieval of 3D models with application to automatic dental restoration design
WO2014169244A2 (en) * 2013-04-12 2014-10-16 Orthera Inc. Pressure plate device for orthotic selection
EP2799032A1 (en) * 2013-04-29 2014-11-05 3M Innovative Properties Company A method of capturing data from a patient's dentition and system for performing such method
US9710959B2 (en) * 2013-09-27 2017-07-18 Intel Corporation Compressed 3D graphics rendering exploiting psychovisual properties
JP6478984B2 (ja) * 2013-09-30 2019-03-06 ケアストリーム ヘルス インク Hdrイメージングを使用しかつハイライトを除去する口腔内撮像方法及びシステム
US9707061B2 (en) 2013-12-27 2017-07-18 James R. Glidewell Dental Ceramics, Inc. Apparatus and methods of making denture devices
US9326834B2 (en) 2013-12-27 2016-05-03 James R. Glidewell Dental Ceramics, Inc. Apparatus and methods of making denture devices
US9737382B2 (en) 2013-12-27 2017-08-22 James R. Glidewell Dental Ceramics, Inc. Apparatus and methods of making denture devices
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
EP3107484B1 (en) 2014-02-21 2022-03-30 Trispera Dental Inc. Augmented reality dental design method and system
DE102014207022A1 (de) * 2014-04-11 2015-10-29 Siemens Aktiengesellschaft Tiefenbestimmung einer Oberfläche eines Prüfobjektes
JP5880791B1 (ja) * 2014-04-14 2016-03-09 コニカミノルタ株式会社 立体造形物の製造装置および製造方法
US11122180B2 (en) * 2014-05-02 2021-09-14 Dentsply Sirona Inc. Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3D scan
US10772506B2 (en) 2014-07-07 2020-09-15 Align Technology, Inc. Apparatus for dental confocal imaging
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
US10192003B2 (en) * 2014-09-08 2019-01-29 3M Innovative Properties Company Method of aligning intra-oral digital 3D models
US9610141B2 (en) 2014-09-19 2017-04-04 Align Technology, Inc. Arch expanding appliance
US10449016B2 (en) 2014-09-19 2019-10-22 Align Technology, Inc. Arch adjustment appliance
US9744001B2 (en) 2014-11-13 2017-08-29 Align Technology, Inc. Dental appliance with cavity for an unerupted or erupting tooth
US20170341183A1 (en) * 2014-12-12 2017-11-30 Velo3D, Inc. Control Systems for Three-Dimensional Printing
US10504386B2 (en) 2015-01-27 2019-12-10 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
US10074178B2 (en) * 2015-01-30 2018-09-11 Dental Imaging Technologies Corporation Intra-oral image acquisition alignment
EP3257020A1 (en) * 2015-02-11 2017-12-20 Analogic Corporation Three-dimensional object image generation
US10959818B2 (en) 2015-03-09 2021-03-30 3Drpd, Inc. Computer-aided design and manufacturing of removable partial denture frameworks with enhanced biomechanical properties
WO2016144382A1 (en) * 2015-03-09 2016-09-15 Carestream Health, Inc. Apparatus and method of texture mapping for dental 3d scanner
EP3257026B1 (en) * 2015-06-04 2020-11-18 Hewlett-Packard Development Company, L.P. Generating three dimensional models
US10248883B2 (en) 2015-08-20 2019-04-02 Align Technology, Inc. Photograph-based assessment of dental treatments and procedures
TWI550253B (zh) * 2015-08-28 2016-09-21 國立中正大學 三維影像掃描裝置及其掃描方法
US11554000B2 (en) 2015-11-12 2023-01-17 Align Technology, Inc. Dental attachment formation structure
US11931222B2 (en) 2015-11-12 2024-03-19 Align Technology, Inc. Dental attachment formation structures
US9965837B1 (en) * 2015-12-03 2018-05-08 Quasar Blu, LLC Systems and methods for three dimensional environmental modeling
US11087445B2 (en) 2015-12-03 2021-08-10 Quasar Blu, LLC Systems and methods for three-dimensional environmental modeling of a particular location such as a commercial or residential property
US10607328B2 (en) 2015-12-03 2020-03-31 Quasar Blu, LLC Systems and methods for three-dimensional environmental modeling of a particular location such as a commercial or residential property
CN107835931B (zh) * 2015-12-04 2020-11-10 安娜·斯蒂布娃 监测三维实体的线性尺寸的方法
US11596502B2 (en) 2015-12-09 2023-03-07 Align Technology, Inc. Dental attachment placement structure
US11103330B2 (en) 2015-12-09 2021-08-31 Align Technology, Inc. Dental attachment placement structure
CN105547193A (zh) * 2015-12-15 2016-05-04 宁波频泰光电科技有限公司 一种彩色3d测量***
CN105547195B (zh) * 2015-12-15 2018-04-17 宁波频泰光电科技有限公司 一种彩色3d测量***
CN105571522A (zh) * 2015-12-15 2016-05-11 宁波频泰光电科技有限公司 一种彩色3d测量***
CN105547194B (zh) * 2015-12-15 2018-03-27 宁波频泰光电科技有限公司 一种彩色3d测量***
CN105547191B (zh) * 2015-12-15 2018-03-27 宁波频泰光电科技有限公司 一种彩色3d测量***
CN105547192B (zh) * 2015-12-15 2018-04-17 宁波频泰光电科技有限公司 一种彩色3d测量***
US9904867B2 (en) * 2016-01-29 2018-02-27 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
US11025812B2 (en) * 2016-02-12 2021-06-01 Sony Corporation Imaging apparatus, imaging method, and imaging system
CN105662632A (zh) * 2016-04-20 2016-06-15 杭州师范大学 一种用于牙颌模型的颜色信息扫描装置及方法
EP3988048B1 (en) 2016-06-17 2024-01-17 Align Technology, Inc. Orthodontic appliance performance monitor
US10470847B2 (en) 2016-06-17 2019-11-12 Align Technology, Inc. Intraoral appliances with sensing
US11691343B2 (en) 2016-06-29 2023-07-04 Velo3D, Inc. Three-dimensional printing and three-dimensional printers
PL3578131T3 (pl) 2016-07-27 2021-06-28 Align Technology, Inc. Skaner wewnątrzustny z możliwościami diagnostyki stomatologicznej
US10507087B2 (en) 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
JP2019524368A (ja) * 2016-08-26 2019-09-05 ビタ ツァーンファブリク ハー.ラウター ゲーエムベーハー ウント コー カーゲーVita Zahnfabrik H.Rauter Gmbh & Co.Kg 歯ユニットおよび義歯床の製造方法
CN113648088B (zh) 2016-11-04 2023-08-22 阿莱恩技术有限公司 用于牙齿图像的方法和装置
US11559378B2 (en) 2016-11-17 2023-01-24 James R. Glidewell Dental Ceramics, Inc. Scanning dental impressions
US11376101B2 (en) 2016-12-02 2022-07-05 Align Technology, Inc. Force control, stop mechanism, regulating structure of removable arch adjustment appliance
WO2018102811A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Methods and apparatuses for customizing rapid palatal expanders using digital models
WO2018102702A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Dental appliance features for speech enhancement
EP3547952B1 (en) 2016-12-02 2020-11-04 Align Technology, Inc. Palatal expander
CN106725920B (zh) * 2016-12-07 2019-11-08 上海牙典医疗器械有限公司 一种正畸矫治器的设计制作方法
CN106618760B (zh) * 2016-12-07 2019-11-08 上海牙典医疗器械有限公司 一种设计正畸矫治方案的方法
US10548700B2 (en) 2016-12-16 2020-02-04 Align Technology, Inc. Dental appliance etch template
CN110832348B (zh) * 2016-12-30 2023-08-15 辉达公司 用于自主车辆的高清晰度地图的点云数据丰富
US10456043B2 (en) 2017-01-12 2019-10-29 Align Technology, Inc. Compact confocal dental scanning apparatus
US10779718B2 (en) 2017-02-13 2020-09-22 Align Technology, Inc. Cheek retractor and mobile device holder
US10613515B2 (en) 2017-03-31 2020-04-07 Align Technology, Inc. Orthodontic appliances including at least partially un-erupted teeth and method of forming them
CN108986123A (zh) * 2017-06-01 2018-12-11 无锡时代天使医疗器械科技有限公司 牙颌三维数字模型的分割方法
CN109003676B (zh) * 2017-06-06 2021-11-05 苏州笛卡测试技术有限公司 一种牙齿美学设计方法与装置
US11045283B2 (en) 2017-06-09 2021-06-29 Align Technology, Inc. Palatal expander with skeletal anchorage devices
US11996181B2 (en) 2017-06-16 2024-05-28 Align Technology, Inc. Automatic detection of tooth type and eruption status
WO2019005808A1 (en) 2017-06-26 2019-01-03 Align Technology, Inc. BIOCAPTOR PERFORMANCE INDICATOR FOR INTRABUCCAL DEVICES
CN109462987B (zh) * 2017-06-28 2021-01-15 卡利玛股份有限公司 义眼制造方法
US11529219B2 (en) * 2017-06-29 2022-12-20 Dental Imaging Technologies Corporation Automatic intraoral 3D scanner using light sheet active triangulation
US10885521B2 (en) 2017-07-17 2021-01-05 Align Technology, Inc. Method and apparatuses for interactive ordering of dental aligners
US11419702B2 (en) 2017-07-21 2022-08-23 Align Technology, Inc. Palatal contour anchorage
CN110996836B (zh) 2017-07-27 2023-04-11 阿莱恩技术有限公司 用于通过光学相干断层扫描术来处理正畸矫正器的***和方法
CN115462921A (zh) 2017-07-27 2022-12-13 阿莱恩技术有限公司 牙齿着色、透明度和上釉
US11116605B2 (en) 2017-08-15 2021-09-14 Align Technology, Inc. Buccal corridor assessment and computation
US11123156B2 (en) 2017-08-17 2021-09-21 Align Technology, Inc. Dental appliance compliance monitoring
KR20200100595A (ko) * 2017-08-17 2020-08-26 트로피 구강내 표면 스캐닝을 위한 스텐실
US10813720B2 (en) 2017-10-05 2020-10-27 Align Technology, Inc. Interproximal reduction templates
WO2019084326A1 (en) 2017-10-27 2019-05-02 Align Technology, Inc. OTHER BORE ADJUSTMENT STRUCTURES
US11576752B2 (en) 2017-10-31 2023-02-14 Align Technology, Inc. Dental appliance having selective occlusal loading and controlled intercuspation
CN111315315B (zh) 2017-11-01 2022-08-23 阿莱恩技术有限公司 自动治疗规划
US11534974B2 (en) 2017-11-17 2022-12-27 Align Technology, Inc. Customized fabrication of orthodontic retainers based on patient anatomy
CN111417357B (zh) 2017-11-30 2022-07-26 阿莱恩技术有限公司 用于监测口腔矫治器的传感器
US11099708B2 (en) 2017-12-15 2021-08-24 Hewlett-Packard Development Company, L.P. Patterns for locations on three-dimensional objects
US11432908B2 (en) 2017-12-15 2022-09-06 Align Technology, Inc. Closed loop adaptive orthodontic treatment methods and apparatuses
US10980613B2 (en) 2017-12-29 2021-04-20 Align Technology, Inc. Augmented reality enhancements for dental practitioners
KR20200115580A (ko) 2018-01-26 2020-10-07 얼라인 테크널러지, 인크. 구강 내 진단 스캔 및 추적
US11937991B2 (en) 2018-03-27 2024-03-26 Align Technology, Inc. Dental attachment placement structure
AU2019251474A1 (en) 2018-04-11 2020-10-29 Align Technology, Inc. Releasable palatal expanders
US20210247504A1 (en) * 2018-05-09 2021-08-12 Ams Sensors Asia Pte. Ltd Three-dimensional imaging and sensing applications using polarization specific vcsels
US10980612B2 (en) * 2018-08-13 2021-04-20 Align Technology, Inc. Face tracking and reproduction with post-treatment smile
WO2020093321A1 (zh) * 2018-11-08 2020-05-14 成都频泰鼎丰企业管理中心(有限合伙) 三维测量设备
CN109528330A (zh) * 2018-12-20 2019-03-29 成都登特牙科技术开发有限公司 可摘局部义齿支架的数字化设计方法
JP7290958B2 (ja) * 2019-03-01 2023-06-14 クラレノリタケデンタル株式会社 歯科技工物の形状データの配置方法及びそれに用いる切削加工機
US20200402649A1 (en) * 2019-04-26 2020-12-24 Andrew C. Johnson System and method for providing dental services to a patient
US11176738B2 (en) * 2019-05-15 2021-11-16 Fittin, Llc Method for calculating the comfort level of footwear
WO2020240351A1 (en) * 2019-05-31 2020-12-03 3M Innovative Properties Company Automated creation of tooth restoration dental appliances
WO2020247788A1 (en) * 2019-06-06 2020-12-10 Bluebeam, Inc. Methods and systems for processing images to perform automatic alignment of electronic images
US11622843B2 (en) 2019-06-25 2023-04-11 James R. Glidewell Dental Ceramics, Inc. Processing digital dental impression
US11540906B2 (en) 2019-06-25 2023-01-03 James R. Glidewell Dental Ceramics, Inc. Processing digital dental impression
US11534271B2 (en) 2019-06-25 2022-12-27 James R. Glidewell Dental Ceramics, Inc. Processing CT scan of dental impression
EP4003701A4 (en) 2019-07-26 2023-11-08 Velo3d Inc. QUALITY ASSURANCE IN THE FORMATION OF THREE-DIMENSIONAL OBJECTS
US12007224B2 (en) * 2019-10-24 2024-06-11 Shining 3D Tech Co., Ltd. Three-dimensional scanner and three-dimensional scanning method
US11735306B2 (en) 2019-11-25 2023-08-22 Dentsply Sirona Inc. Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches
CN111568570A (zh) * 2020-04-29 2020-08-25 深圳易美智汇技术有限公司 一种基于互联网平台的矫治器生产***及方法
US11544846B2 (en) 2020-08-27 2023-01-03 James R. Glidewell Dental Ceramics, Inc. Out-of-view CT scan detection
EP3984495A1 (de) 2020-10-13 2022-04-20 Ivoclar Vivadent AG Verfahren zum gestalten einer dentalen restauration
WO2022098039A1 (ko) * 2020-11-05 2022-05-12 주식회사 메디트 데이터 처리 방법
US11055850B1 (en) * 2021-01-06 2021-07-06 Oxilio Ltd Systems and methods for tooth segmentation
WO2022219459A1 (en) * 2021-04-12 2022-10-20 3M Innovative Properties Company Color management process for customized dental restorations
CN113317890B (zh) * 2021-05-31 2022-12-13 正雅齿科科技(上海)有限公司 一种牙龈纹理坐标的计算方法及***
KR102622131B1 (ko) * 2021-09-03 2024-01-08 연세대학교 산학협력단 디지털 가공부를 이용한 금속프레임부 강화틀니의 제조방법 및 그 제조방법으로 제조된 강화틀니
US11534267B1 (en) * 2022-02-08 2022-12-27 Oxilio Ltd Systems and methods for determining an orthodontic treatment plan
US20240070980A1 (en) * 2022-08-25 2024-02-29 Imagoworks Inc. Automated method for generating prothesis from three dimensional scan data and computer readable medium having program for performing the method
US11860098B1 (en) * 2023-01-13 2024-01-02 Tencent America LLC Method and device for three-dimensional object scanning with invisible markers
TWI834493B (zh) * 2023-02-08 2024-03-01 國立成功大學 基於多組編碼圖案的三維重建系統及方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6409504B1 (en) 1997-06-20 2002-06-25 Align Technology, Inc. Manipulating a digital dentition model to form models of individual dentition components
US6744914B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. Method and system for generating a three-dimensional object
US7234937B2 (en) 1999-11-30 2007-06-26 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
ATE539562T1 (de) 2001-03-02 2012-01-15 3Shape As Verfahren zum individuellen anpassen von hörmuscheln
US7156655B2 (en) * 2001-04-13 2007-01-02 Orametrix, Inc. Method and system for comprehensive evaluation of orthodontic treatment using unified workstation
US7080979B2 (en) 2001-04-13 2006-07-25 Orametrix, Inc. Method and workstation for generating virtual tooth models from three-dimensional tooth data
US20040067463A1 (en) 2002-10-04 2004-04-08 Farel Rosenberg Computer programmed system for orthodontic correction of malocclusions utilizing snap-on features
ATE406850T1 (de) 2004-06-17 2008-09-15 Cadent Ltd Verfahren und gerät zur farbbildformung einer dreidimensionalen struktur
US7862336B2 (en) 2004-11-26 2011-01-04 Cadent Ltd. Method and system for providing feedback data useful in prosthodontic procedures associated with the intra oral cavity
WO2006065955A2 (en) 2004-12-14 2006-06-22 Orthoclear Holdings, Inc. Image based orthodontic treatment methods
US8257083B2 (en) * 2005-10-24 2012-09-04 Biomet 3I, Llc Methods for placing an implant analog in a physical model of the patient's mouth
US8446410B2 (en) 2006-05-11 2013-05-21 Anatomage Inc. Apparatus for generating volumetric image and matching color textured external surface
GB0609988D0 (en) * 2006-05-19 2006-06-28 Materialise Nv Method for creating a personalized digital planning file for simulation of dental implant placement
US8442283B2 (en) * 2006-08-30 2013-05-14 Anatomage Inc. Patient-specific three-dimensional dentition model
EP2101678B1 (en) * 2007-01-10 2019-05-08 Nobel Biocare Services AG Method and system for dental planning and production
GB0707454D0 (en) 2007-04-18 2007-05-23 Materialise Dental Nv Computer-assisted creation of a custom tooth set-up using facial analysis
EP2171689B1 (en) 2007-06-29 2020-06-03 Midmark Corporation Synchronized views of video data and three-dimensional model data
JP2010532681A (ja) * 2007-06-29 2010-10-14 スリーエム イノベイティブ プロパティズ カンパニー 歯科用モデルのための、ビデオ補助境界マーキング
US20090133260A1 (en) * 2007-11-26 2009-05-28 Ios Technologies, Inc 3D dental shade matching and apparatus
JP2009216485A (ja) 2008-03-10 2009-09-24 Toppan Printing Co Ltd 微小物体の形状不良判定検査装置
JP5396585B2 (ja) 2008-05-02 2014-01-22 株式会社ジオ技術研究所 地物特定方法
EP2280651A2 (en) 2008-05-16 2011-02-09 Geodigm Corporation Method and apparatus for combining 3d dental scans with other 3d data sets
EP2358295A2 (en) * 2008-11-18 2011-08-24 Ibur, Llc Dental device and method for linking physical and digital data for diagnostic, treatment planning, patient education, communication, manufacturing, and data transfer purposes
JP2010134382A (ja) 2008-12-08 2010-06-17 Olympus Corp 観察装置
CN103079494B (zh) * 2010-06-29 2016-09-14 3形状股份有限公司 2d图像布置
BR112013000960A2 (pt) * 2010-07-12 2017-07-11 9104 6516 Quebec Inc método e sistema de análise dental
US20130295518A1 (en) * 2012-03-29 2013-11-07 William S. Parker Apparatus and Method for Achieving a Head Up Posture for a 3-D Video Image for Operative Procedures in Dentistry

Also Published As

Publication number Publication date
JP6487580B2 (ja) 2019-03-20
US20130218531A1 (en) 2013-08-22
EP3669819A1 (en) 2020-06-24
CN103228228B (zh) 2016-04-13
EP2593035B1 (en) 2019-12-11
JP6363341B2 (ja) 2018-07-25
EP4029471A1 (en) 2022-07-20
EP2593035A4 (en) 2016-02-10
KR20130034046A (ko) 2013-04-04
US10776533B2 (en) 2020-09-15
EP3669819B1 (en) 2022-04-13
JP2018086283A (ja) 2018-06-07
KR101844549B1 (ko) 2018-04-02
EP4029471B1 (en) 2023-11-22
JP2013534449A (ja) 2013-09-05
EP2593035A1 (en) 2013-05-22
CN103228228A (zh) 2013-07-31
WO2012007003A1 (en) 2012-01-19

Similar Documents

Publication Publication Date Title
ES2922376T3 (es) Modelación en 3D de un objeto usando características texturales
US7912257B2 (en) Real time display of acquired 3D dental data
ES2717447T3 (es) Creación asistida por ordenador de una preparación de diente habitual usando análisis facial
US8532355B2 (en) Lighting compensated dynamic texture mapping of 3-D models
US7698068B2 (en) Method for providing data associated with the intraoral cavity
JP6223331B2 (ja) 歯科分野で使用される三次元測定デバイス
ES2731900T3 (es) Sistema para la planificación, visualización y optimización de restauraciones dentales
ES2848157T3 (es) Procedimientos y sistemas para crear e interactuar con modelos virtuales tridimensionales
ES2933614T3 (es) Diseño virtual de una restauración de poste y muñón utilizando una forma digital 3D
ES2943138T3 (es) Escáner 3D dental con coincidencia de tonos basada en angulares
EP1849411B1 (en) Method for providing data associated with the intraoral cavity
ES2776994T3 (es) Modelación en 3D de un objeto usando características texturales
CN113039587B (zh) 使用口内扫描仪获取3d数据的混合方法
US20230025243A1 (en) Intraoral scanner with illumination sequencing and controlled polarization
WO2023004147A1 (en) Intraoral scanner with illumination sequencing and controlled polarization
ES2822873T3 (es) Diseño virtual de una restauración de poste y muñón utilizando una forma digital 3D
ES2877219T3 (es) Disposición de imágenes en 2D
Ghanoum 3D-reconstruction of human jaw from a single image: integration between statistical shape from shading and shape from shading.