FR2977469A1 - Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire - Google Patents

Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire Download PDF

Info

Publication number
FR2977469A1
FR2977469A1 FR1156201A FR1156201A FR2977469A1 FR 2977469 A1 FR2977469 A1 FR 2977469A1 FR 1156201 A FR1156201 A FR 1156201A FR 1156201 A FR1156201 A FR 1156201A FR 2977469 A1 FR2977469 A1 FR 2977469A1
Authority
FR
France
Prior art keywords
field
measuring device
image
dimensional measuring
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1156201A
Other languages
English (en)
Other versions
FR2977469B1 (fr
Inventor
Francois Duret
Olivier Querbes
Veronique Querbes-Duret
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR1156201A priority Critical patent/FR2977469B1/fr
Application filed by Individual filed Critical Individual
Priority to CN201280043771.8A priority patent/CN104349710A/zh
Priority to JP2014517983A priority patent/JP6223331B2/ja
Priority to EP12784318.3A priority patent/EP2729048B1/fr
Priority to US14/131,269 priority patent/US20140146142A1/en
Priority to PCT/IB2012/001777 priority patent/WO2013008097A1/fr
Publication of FR2977469A1 publication Critical patent/FR2977469A1/fr
Application granted granted Critical
Publication of FR2977469B1 publication Critical patent/FR2977469B1/fr
Priority to IL230371A priority patent/IL230371A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00158Holding or positioning arrangements using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00018Operational features of endoscopes characterised by signal transmission using electrical cables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00172Optical arrangements with means for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • A61B1/0019Optical arrangements with focusing or zooming features characterised by variable lenses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Dispositif de mesure tridimensionnelle utilisé dans le domaine dentaire et destiné à la prise de mesure en absence de projection de lumière active ou structurée, comprenant des moyens de capture d'images ainsi que des moyens de traitement informatique des images . Les moyens de capture d'images (38, 39) consistent en des moyens conçus aptes à permettre de capturer simultanément, ou quasi simultanément, au moins deux images dont l'une est incluse totalement ou partiellement dans l'autre, ladite image incluse décrivant un champ plus étroit que celui de l'autre, et étant d'une plus grande précision que celle de l'autre.

Description

La présente invention a pour objet un nouveau dispositif de mesure tridimensionnelle sécurisé par empreinte optique en couleur de haute précision et à large champ sans contact et sans projection de lumière active structurée, tout particulièrement destiné à la dentisterie. La présente invention assure l'intégrité structurale du corps humain et une précision de l'ordre du micron. Elle est applicable notamment dans le domaine médicale et dentaire pour les prises de vues endobuccales et les aides au diagnostic.
Elle comporte : 1) un système de lecture tridimensionnelle miniaturisé n'utilisant aucune projection de lumière active ou structurée pour le mesurer des dimensions de l'objet composé de a) un ou plusieurs capteurs électroniques de type CCD ou 15 Cmos et son système optique associé. b) éventuellement un éclairage à LEDs ou OLEDs de une ou plusieurs longueurs d'onde permettant de diagnostiquer d'éventuelles pathologies à la surface des dents ou de la gencive, 20 c) un ou plusieurs accéléromètres/gyromètres/magnétomètres 3D pour aider, limiter voir remplacer un ou plusieurs capteurs. 2) une unité centrale de conversion des données analogiques/digitales et de gestion des données 3) des logiciels associés permettant des analyses spatiales 3D 25 en temps quasi réel, des analyses temporelles pour l'analyse des mouvements des objets mesurés, des analyses colorimétriques pour d'analyse de la teinte de ces objets en corrélation directe et temps réel avec les surfaces mesurées en 3D apportant des aides aux diagnostics par une réflexion, pénétration globale ou 30 sélective des rayonnements lumineux LED/OLED judicieusement sélectionnés 4) un ensemble "hardware" et "software" de communication IHM (écran, clavier, modem ...) Cette invention permet de résoudre les problèmes fondamentaux auxquels sont confrontés les systèmes de la prise d'empreinte optique en vue 3D. Elle fournit une information en couleur réelle et temps réel pour la dentisterie. Elle mesure l'objet sans projection d'une lumière active structurée avec une précision d'au moins 10-15 pm sur une profondeur de champ d'au moins 15 mm et une surface d'au moins 20 x 30 mm sur de dents situées à moins de 10 mm de la lentille frontale de la caméra. Il existe une grande variété de méthodes de prise d'empreinte optique en bouche ou sur modèle ayant pour objectif la réalisation de prothèses ou de diagnostic. Est désigné par le terme « empreinte optique », introduit pour la première fois en 1973 par l'inventeur de cette technologie, François Duret dans sa thèse de deuxième cycle (DDS) sous le titre "Empreinte optique" n° 273, la mesure et l'analyse diagnostique en 3D du milieu buccal et médical par des moyen optiques sans contact, en remplacement des méthodes d'empreinte classique par pâte ou par palpage. Dans le domaine dentaire les travaux du Dr Duret, décrits entre autre dans un certain nombre d'articles et dans ses brevets du 9 mai 1980 ( FR 80.10967 ou US 4.663.720 et 4.742.464) , du 14 avril 1982 (BE 0.091.876 - US 4.611.288) du 30 novembre 1982 (EP 0110797, US 5.092.022) du 27 mars 1984 (FR 84.05173) du 13 février 1987 (FR 87.02339 ou US 4.952.149) ou encore du 26 juin 1992 (FR 92.08128 ou PCT WO 94/00074) ont été repris par de nombreux auteurs dès le début des années 1980 comme nous le verrons dans les différentes technologies que nous pouvons résumer comme suit. 1) Les techniques utilisant la projection de lumière active ou 30 structurée. La méthode la plus simple utilisée par ces systèmes est de projeter sur l'objet une lumière structurée qui peut être un point, une ligne voire une grille complète. Cette lumière balayera l'objet et est suivie par une ou plusieurs caméras CCD ou Cmos 2D positionnées avec un angle variant de 3 à 10° par rapport à l'axe de la projection lumineuse. Ces techniques sont très largement connues depuis plusieurs décennies et sont très bien décrites dans l'article de G Hausler and Col « light sectioning with large depth and high resolution » in Appl. Opt. 27 (1988). Elles ont fait l'objet de nombreux développements et sont particulièrement utilisées par les scanners de table dans les laboratoires de prothèse. Une méthode plus sophistiquée consiste à projeter sur les dents une lumière active structurée sous forme de grilles à pas variables. La technique la plus répandue de ce type de projection de frange a été décrite pour la première fois par M.Altschuler and col. Sous le titre « Numerical stereo camera » SPIS vol 283 3-D (1981) Machine perception, publication reprise elle-même par d'autres auteurs comme M Halioua and Col « Automated phase measuring profilométry of 3D diffuse objects » in Appl.Opt. 23 (1984). Elle consiste à projeter une succession de grilles à pas variables. La grille au pas le plus large sert à donner une information générale et la position globale des lignes en z, la grille la plus fine à affiner la précision de lecture. Tous ces travaux et inventions ont conduit à de nombreuses réalisations et à plus de vingt systèmes commercialement disponibles (F.Duret, le fil dentaire n° 63, mai 2011, « la grande aventure de la CFAO à l'IDS de Cologne » 14-26). Nous citerons par exemple les systèmes utilisant un système de balayage par points ( Cera de Cera système, GN1 de GC et Nikon), de balayage par lignes ( Titan de DCS, Ekton de Straumann) de balayage par trames à pas variables ( Cercom de Degudent, Digident de Hint-Els, Everest de Kavo, Lavascan de 3M, Zeno de Wieland ou Wol-ceram de Wol-dent). Ces systèmes ne peuvent pas être utilisés en bouche car ils sont trop lents (de ls à 1 mn). Le moindre bougé du patient ou de l'opérateur empêche la lecture complète et la corrélation des vues nécessaire pour transformer une visualisation de section 2D en image 3D. Par ailleurs il n'existe aucune information entre les lignes ce qui oblige à une succession de lectures dans des directions différentes, ce qui augmente encore significativement le temps de lecture (jusqu'à 4 min par dent pour les lectures complètes). Enfin plus récemment, afin de déterminer plus facilement la position spatiale des franges projetées a été proposée la technique de profilométrie chromatique utilisant les franges de couleurs variables. Elle a été décrite comme profilométrie chromatique par Cohen Sabban, BV F 2758076 et fait l'objet d'une commercialisation sous le nom de Pro50 (Cynovad - Canada). Afin de répondre aux exigences de lectures endobuccales ont été proposés des systèmes plus rapides. Le premier a été commercialisé en France en 1985 sous le nom de système Duret (Vienne - France) et utilisait le système de phase profilométrique en projection conique tel que décrit dans les brevets (FR 82.06707 ou US 4.611.288), (FR 82.20349 ou US 5.092.022) et (FR 87.02339 ou US 4.952.149). Cette technique a été reprise avec un très grand succès par Moermann et Brandestini dans leurs brevets US 4.575.805 et 4.837.732 ou dans leurs ouvrages traitant de la question comme "Die Cerec Computer Reconstruction" en 1989, "CAD/CIM in Aesthetic Dentistry" en 1996 ou encore "State of the art of CAD/CAM restauration" en 2006. Cette méthode a été améliorée progressivement comme nous le voyons dans le brevet de Jones, T.N. de 1999 (US 6.409.504). Il s'agit d'une technique de projection de lumière active et structurée sous la forme d'une trame projetée sur les dents suivant un rayonnement parallèle ou conique avec un léger décalage de phase (en général n/2) et d'effectuer une succession d'acquisition des vues 2D (en 100 ms), la troisième dimension peut être trouvée à la condition que le patient et la caméra soient parfaitement immobiles pendant la prise des vues successives, ce qui reste difficile dans une action clinique d'autant que les organes électro-optiques de la caméra sont mobiles.
D'autres systèmes légèrement différents mais utilisant une projection active structurée en bouche ont été proposés : Le plus simple est le « OralMetrix » qui consiste à projeter un seul type de grille à la surface des dents tel que décrit dans le document FR 84.05173). I1 s'agit donc d'une triangulation active associée à une seule projection de lumière structurée. Une seule caméra lit la déformation de la grille et, par comparaison avec une grille mémorisée, en déduit la distance z. l'acquisition de six images par seconde associée à une vue 2D d'une grille déformée rend le système imprécis et instable durant la prise de vue. Le deuxième système est le « directScan » de la société Hint-Els (USA). Il combine la projection de frange et la corrélation de phase. Cette méthode se déroule en deux temps : projection de deux séries de grilles orthogonales à pas différents les unes derrière les autres puis corrélation des vues obtenues en fonction de la position des points au niveau des pixels des CCD. Il s'agit d'une amélioration de la phase profilométrique mais le temps de traitement est d'environ 200 ms, ce qui rend son utilisation très difficile en bouche. Les mesures sont souvent entachées d'erreur. Le troisième système proposé est le système iTeo de la société Cadent (US.0109559) basé sur le principe de « l'image confocale parallèle » où de nombreux points laser de 50 pm sont projetés à différentes profondeurs de champ. Ce scannage de la zone ciblée, à l'avantage d'avoir un seul axe de prise de vue et de reprise d'images mais prend environ 300 ms. L'appareil ne doit donc pas bouger pendant la prise de vue. De plus, cette technologie étant complexe le système iTero est particulièrement volumineux ce qui limite les prises de vue dans la profondeur de la bouche. Le quatrième système a été proposé par G. Hausler (US 2010.0303341). Il est projeté sur l'arcade plusieurs grilles de lumière structurée de différentes orientations. Ceci permet de retrouver la troisième dimension immédiatement par corrélation entre la première grille déformée et les suivantes. Cette méthode permet de ne faire qu'une seule vue mais elle à l'inconvénient de ne pouvoir mesurer que les points de la grille déformée et non pas l'ensemble des points de l'objet lui-même.
Dans ces méthodes basées sur la projection de lumière active et structurée nous obtenons plusieurs vues 2D permettant de reconstruire en 3D l'objet analysé. Ces méthodes sont d'autant plus précises que la lumière projetée est fine et calibrée et que les organes de déplacements sont stables dans le temps.
Malheureusement aucune ne mesure l'objet lui-même mais seulement la déformation de la lumière projetée ce qui limite le nombre de points mesurés et peut cacher des zones importantes pour la reconstruction exacte de la surface 3D analysée. Par ailleurs très souvent elle oblige à recouvrir l'objet d'une couche blanche dite coating ou d'utiliser des plâtres particuliers si c'est un modèle qui est mesuré. En effet la réflexion spéculaire des dents est très sensible et répond de manière variable à la lumière structurée projetée en fonction de sa propre couleur.
Ceci présente aussi un inconvénient majeur dans la précision de la mesure. La lumière active structurée, de par sa puissance, pénètre dans les couches superficielles de la dent ajoutant de l'imprécision dans la détermination exacte de la surface extérieure.
La calibration de ces appareils est complexe et le montage toujours très complexe et coûteux. Enfin l'angle de projection étant souvent différent de l'angle de reprise de l'image, les effets d'ombre peuvent entraîner des existences de zones d'ombre non codées obligeant à de nombreuses manipulations. Il est à signaler aussi qu'entre les lignes, nous n'avons pas d'information. Certains systèmes ont essayé de limiter la projection de lumière structurée sans la supprimer. Pour cela ils ont associé une très petite partie projetée à une vision stéréoscopique 2D classique.
Il s'agit d'utiliser deux caméras identiques et de projeter une ligne ou une cible de forme variable sur l'objet et de déplacer l'ensemble en balayant la surface de l'objet. Les deux caméras 2D forment un ensemble stéréoscopique classique dont les deux informations sont corrélées grâce à la cible projetée visible dans les deux vues. Ce système est commercialisé par T-scan 3 sensor de Steinbichler Cpt. (Neubeuern - Germany) ou par Uneo (Toulouse - France). Ces méthodes, qui présentent les mêmes inconvénients que les méthodes décrites précédemment, n'ont jamais pu être appliquées à la dentisterie car, en plus, elles manquent de précision et surtout elles obligent à toujours devoir visualiser la cible projetée, ce qui reste difficile sur des surfaces très spéculaires ou régulières comme le sont les dents. 2) Les techniques n'utilisant pas la projection de lumière active ou structurée. La première proposition d'utiliser un système stéréoscopique endobuccale a été proposée par D. Rekow (J. of Dent.Practice Administration ; 4 (2) 52-55 (1984). Dans ce système, il est nécessaire de faire plusieurs acquisitions, avec un référentiel fixé sur les dents, puis de lire ces clichés à l'aide d'un appareil Kodak Eikonix. Cette méthode ancestrale et bien connue sous le nom de stéréoscopie s'est avérée imprécise et très longue à mettre en oeuvre. Cette méthode a été reproposée récemment par Denzen Cao US 2009.0227875 (Sandy - USA) et par Steinbichler Cpt. EP 2.166.303 (Neubeuern - Germany) sans aucune amélioration par rapport au système de Rekow, en particulier la résolution de la profondeur de champ, de la détermination des points de référence et de la précision, problème crucial dans une prise de vue endobuccale correspondant à une stéréoscopie rapprochée, n'ont pas été abordé. Un tel système est irréalisable en bouche si l'on souhaite atteindre une précision de 20 pm sur une profondeur de champ de 20 mm avec objet placé à moins de 5 mm de la lentille frontale.
Les mêmes remarques peuvent être faites des systèmes utilisant la technique dite « 3D from motion » décrite par exemple par C. Tomasi and Col. « Shape and motion from image streams under Orthography : a factorization Method » dans Int. J. of Computer Vision 9 (2) 1992. Ce système n'utilise plus de lumière active, comme vu précédemment, mais seulement un éclairage passif de la zone mesurée par une vision stéréoscopique classique de deux caméras de même résolution. Malheureusement dans des conditions classiques telles que décrites par les auteurs, les corrélations de vue sans cible projetée et l'abondance des zones sans codage rendent impossible l'utilisation de ce système sur les dents. Elle ne résout pas les problèmes évoqués par Rekow. C'est la raison pour laquelle récemment le système par Active Wavefront Sempling (AWS), basé sur le système Biris, commercialisé par 3M avec sa caméra Lava Cos à été introduite sur le marché en 2008 (Rohaly and Co brevet US 7.372.642). Ce système utilise une seule vue balayant, grâce à un disque rotatif, une toute petite partie de l'objet. Le diamètre de la position de la vue dans le plan de netteté (focal) et la variation mécanique de la focale par rapport à l'axe optique du montage permet de connaître la position spatiale de la petite zone mesurée dans une faible profondeur de champ. Malheureusement le système est complexe et coûteux à mettre en oeuvre et la zone de balayage très petite obligeant l'opérateur à avancer lentement sur toutes les zones à mesurer. Que ce soit des systèmes de laboratoire ou des caméras endobuccales, y compris celle que nous avions développée, tous ces systèmes n'offrent pas les qualités requises pour avoir une information de qualité pour réaliser des prothèses ou des diagnostics. Une analyse plus fine montre que ces caméras ont plusieurs inconvénients très importants, dans le principe même des méthodes utilisées. Ces inconvénients sont incontournables car ils sont liés au choix de ces méthodes. a) Tous ces systèmes, que ce soit en bouche, sur la peau ou en 35 laboratoire (sur modèle) utilisent le balayage de la surface par des moyens mécaniques, optiques ou électro optiques. Même si ce balayage de franges ou de trames est très rapide, il n'en reste pas moins qu'il oblige à un mouvement dans la caméra elle-même, mouvement qui peut entraîner des flous ou des déplacements parasites conduisant souvent au rejet d'une partie des vues. b) Ce balayage limite significativement la profondeur de champ déjà considérablement réduite dans une vue macroscopique (de quelques cm cubes). c) ce ne sont pas les points de la surface de l'objet qui sont mesurés mais la déformation d'une projection lumineuse à la surface de cet objet. Cette première caractéristique oblige les développeurs à recouvrir les dents d'une couche blanche dite de "coating", dégradant par principe, la mesure réelle de l'objet. Ceci est d'ailleurs souvent exprimé à la fois comme une imprécision et une gêne dans l'utilisation des caméras en bouche (Beuttell, J Int.J.Cumputerized Dent. 1998 1:35-39). D'ailleurs cette couche est souvent obligatoire si l'on ne veut pas avoir de pénétration, donc d'imprécision, dans la mesure de la position exacte de la surface de la dent, organe cristallin par excellence où un rapport signal sur bruit suffisant. d) ceci a conduit certains fabricants à utiliser des rayonnements rendant la dent "opaque" comme le font les rayons bleus ou les UV. C'est la raison pour laquelle le présent inventeur avait proposé en 1985, présenté à l'ADF, l'utilisation d'un laser Argon. Ceci peut être contraignant pour l'utilisateur, voir dangereux, pour le patient. e) plus encore, le fait de ne pas mesurer l'objet, mais la déformation de la lumière projetée, que ce soit un point, une ligne, une trame de forme variable ou une phase de cette lumière, supprime toutes possibilités d'avoir une correspondance parfaite en temps réel entre la couleur, le teinte de l'objet et sa mesure. La seule teinte que l'on puisse avoir en temps réel est la couleur de la lumière projetée. f) Il n'existe aucune solution immédiate permettant au clinicien de continuer son acte opératoire si l'un des composants est défaillant ce qui est capital durant un acte clinique. g) le passage de la lecture 3D à la lecture 2D en couleur, si on l'utile pour les diagnostics, est totalement impossible en dentisterie car c'est seulement une image monochromatique représentant la lumière des franges que nous récupérerons. h) enfin les techniques d'analyse par profilométrie ou balayage obligent à la prise de plusieurs vues du même endroit pour que l'on puisse extraire la troisième dimension. Cela se traduit pas un risque de déformation des données entre la première vue et la dernière conduisant à de grosses erreurs de corrélation et de précision. Le "bougé" a toujours été l'ennemi de ce type de technologie.
En fin de compte s'il est possible de mesurer une dent, c'est dans la plupart des cas la mesure de la lumière projetée qui est réalisée et non pas la mesure de l'objet lui-même. Dans le cas où nous n'utilisons pas de lumière projetée, nous devons avoir recours à des systèmes de défocalisation complexes et coûteux.
Ceci explique que le coût proposé est particulièrement élevé. Quant aux seuls systèmes stéréoscopiques proposés depuis des dizaines d'années ils n'ont rien d'innovants et sont, de ce fait, imprécis, longs à manipuler, complexes et très coûteux à mettre en oeuvre.
Aucune solution simple et surtout sécurisée n'a été trouvée pour répondre à la proximité dent/caméra, la rapidité d'exécution, la précision exigée, la mesure de la couleur réelle et la profondeur de champ sur une surface assez large. La présente invention a pour but de résoudre les inconvénients précités en proposant une nouvelle méthode stéréoscopique de lecture endobuccale très sécurisée associant une lecture 3D dynamique très rapide voir instantanée, une mesure dans une profondeur de champ correspondant à l'application visée et la possibilité de disposer, en temps quasi réel, d'une visualisation en couleur réelle 3D ou 2D, le tout conduisant à une numérisation très précise, une mémorisation et au transfert des données sans utilisation de lumière active structurée ou d'adjonction de "coating" recouvrant les dents.
Le dispositif de mesure tridimensionnelle utilisé dans le domaine dentaire selon l'invention, est destiné à la prise de mesure en absence de projection de lumière active ou structurée, il comprend des moyens de capture d'images ainsi que des moyens de traitement informatique desdites images, et il se caractérise en ce que lesdits moyens de capture d'images consistent en des moyens conçus aptes à permettre de capturer simultanément, ou quasi simultanément, au moins deux images dont l'une est incluse totalement ou partiellement dans l'autre, ladite image incluse décrivant un champ plus étroit que celui de l'autre, et étant d'une plus grande précision que celle de l'autre. Cette invention répond aux problèmes exposés en proposant une solution modulable, peu onéreuse et utilisable dans tous les cabinets dentaires et médicaux mais aussi comme instrument à main dans les laboratoires de prothèse, sous une forme simplifiée et agréable pour le patient. En particulier elle répond aux nombreux problèmes évoqués précédemment : 1) Par une organisation nouvelle et originale de la stéréoscopie classique dentaire, nous limitons le problème des zones aveugles entre les deux prises de vues correspondant à la différence entre les axes optiques ce qui est crucial pour un objet rapproché des lentilles frontales du montage comme le sont toujours les dents en bouche. 2) Par l'utilisation d'un agencement logiciel original, en cas de panne de l'un des capteurs durant l'acte clinique, il est possible d'obtenir une vue stéréoscopique à l'aide d'un seul capteur, solution simple, peu onéreuse et peu volumineuse en bouche. 3) Par l'adjonction éventuelle d'un accéléromètre/gyromètre/ magnétomètre 3D, il est possible d'accélérer et de faciliter la corrélation des vues les unes avec les autres, en particulier lors de la panne de l'un des capteurs. 4) Par un choix de focales différentes, il est possible de répondre aux problèmes de précision et de rapidité de prise d'empreinte optique clinique en bouche. Cela permet aussi d'associer ou de séparer une prise générale moins précise sur un champ large et une prise rapide et précise sur un champ plus étroit suivant les besoins cliniques. 5) Par le choix de nouvelles lentilles, en particulier les lentilles liquides, il est possible de supprimer les appareillages d'ajustage mécanique complexes et assurant une mesure dans une profondeur de champ efficace en dentisterie sur des objets très proches du système de mesure du fait de l'espace endobuccal très réduit. 6) Par le fait de ne pas utiliser de mesures de déformation de lumière active structurée nous travaillons directement sur la surface réelle et en couleur des images du corps. Ceci permet par exemple de sélectionner manuellement ou automatiquement certaines parties du corps humain, par exemple de reconnaître les dents et la gencive séparément. Cela permet aussi : - De ne pas être obligé de recouvrir l'objet mesuré de "coating", ce qui est imprécis et fastidieux - De ne pas avoir de pénétration de lumière vecteur de mesure, à l'intérieur des dents grâce à l'abandon de la projection de lumière structurée active. - D'utiliser la couleur des zones lues pour faciliter la mise en correspondance des points homologues. ce qui est crucial en bouche où les surfaces restent régulières et uniformes. - De rendre très efficace et de réduire le temps de lecture pour la mesure d'une surface complexe (arcade entière) ou des mouvements de ces surfaces (arcades du haut par rapport aux arcades du bas). - De permettre l'auto calibrage supprimant tout ajustage dans le temps. - D'éviter tout effet de flou dû au « bougé » durant les prises de vue. 7) Par les moyens mis en oeuvre, le dispositif est simple dans sa fabrication ce qui le rend particulièrement résistant. Cela permet aussi : - de réduire significativement le prix de fabrication, donc sur le prix de vente particulièrement depuis la démocratisation des éléments électroniques utilisés comme les CCD, les Cmos ou les LEDs, - de permettre une alimentation réduite pouvant être apportée par une liaison type compatible avec USB tous types de computers ou simplement une alimentation par batterie, - D'avoir des capteurs CCD ou Cmos dans une position spatiale prédéfinie, immuable et figée durant la fabrication, les uns par rapport aux autres, évitant la nécessité de connaître les mouvements de l'objet ou des caméras (les uns par rapport aux autres), ramenant le problème de disparité à un simple problème de corrélation de densité dans le nuage de points. - De pouvoir passer d'une image 3D analyse spatiale en une image 2D, analyse planaire utile pour les diagnostics courants en dentisterie sans avoir recourt à des manipulations softwares. D'avoir la restitution 3D sur des écrans 3D standards ce qui n'est pas la cas, sans traitement complexe des systèmes endobuccaux actuels. La présente invention a pour objet un nouveau dispositif de mesure tridimensionnelle et temporelle par empreintes optiques en couleur en bouche assurant son intégrité structurale, applicable notamment dans le domaine dentaire pour les prises de vues endobuccales, mais aussi assurant dans ces domaines, une aide au diagnostic dentaire. En accordance avec le présent montage "hardware" est proposée une méthode "software" répondant aux exigences de rapidité et de précision nécessaires à l'homme de l'art dentaire et permettant de limiter la vision stéréoscopique à un ou deux capteurs. Elle se compose de : Un système stéréoscopique original miniaturisé composé au moins de deux capteurs dont : 1) l'un visionne un large champ en précision moyenne et l'autre un champ plus étroit avec une plus grande précision inclus totalement ou partiellement dans le champ précédent. Le grand champ permettant une prise de vue générale suffisamment large pour éviter au praticien un long et fastidieux balayage de la bouche. Certaines zones étant particulièrement stratégiques et nécessitant une plus grande précision, est inclus un champ étroit dans le champ large, ce qui permet de relever des informations précises là où il faut sans être obliger de balayer toute la bouche. Cela permet aussi de mieux définir certains points homologues importants pour les corrélations inter vues.
Cela permet aussi au "software" de travailler en temps quasi réel car cette inclusion partielle ou totale du petit champ dans le grand champ permet de connaître très rapidement la position de la zone précise et très localisée dans un espace plus large. Il va de soi que ces capteurs peuvent être multipliés si il est souhaité de mesurer des surfaces cliniques plus larges, tant au niveau du grand champ qu'au niveau du petit champ. 2) Les systèmes optiques, associés aux capteurs, ont des focales différentes pour permettre deux niveaux de précisions différentes. Les images reçues par les capteurs, par exemple les CCD ou les Cmos inclus dans la tête de la caméra, sont donc une image générale ayant une précision moyenne, par exemple de l'ordre de 20 }un et une image complémentaire avec plus d'information et une précision supérieure (5 à 10 }un) incluse totalement ou partiellement dans le champ large. Il est donc inutile de balayer toute la bouche pour avoir des informations précises réclamées seulement par moins de 5% de la surface totale. 3) L'avantage de ce système est de faciliter la corrélation des deux champs car ils sont très semblables mais aussi de limiter le nombre de capteurs sans avoir recours à des systèmes d'horloge ou de lecture pulsée. En effet le rapprochement des deux champs montre qu'un seul capteur à champ large ou deux capteurs peuvent être utilisés sans système électronique complexe. Cela permet aussi d'éviter l'utilisation de miroirs de renvoi de lumière ou d'image toujours fragile et très volumineux en bouche. 4) Les champs sont lus par un ou des capteurs électroniques pouvant être de type CCD ou Cmos couleur ou monochromatique générant les informations nécessaires aux calculs des informations 3D en couleur ou en niveau de gris. Ces capteurs effectuent donc une mesure des intensités en couleur ou en noir et blanc temps réel. La couleur mesurée sera donc la couleur réelle des dents et des gencives.
Ceci est très important car cela permet entre autre : a. de séparer automatiquement les dents de la gencive dans les images. b. De repérer certaines couleurs importantes pour le logiciel de CFAO c. De mesurer la teinte de la dent sur une surface en trois dimensions. 5) Ces informations sont traitées soit par une voie vidéo pour permettre à l'opérateur et à ses assistants de suivre temps réel les mouvements de la caméra dans la bouche, soit, après une conversion analogique digitale par voie numérique permettant d'avoir une reconstitution 3D temps quasi réel en couleur et de pouvoir bénéficier des traitements logiciels de CFAO dentaire, soit un traitement double vidéo et numérique offrant à l'opérateur l'ensemble des informations disponibles. Cela permettra aussi à l'opérateur, comme nous le décrirons au niveau du "software", de connaître et de revenir sur les zones insuffisamment mesurées en temps réel. 6) Le système optique lisant la scène a deux focales différentes. L'avantage de ce dispositif est de pouvoir disposer : a. d'une focale ne nécessitant pas une grande précision, et de pouvoir avoir une focale fixe et unique sans système d'ajustage. En effet il est optiquement possible d'avoir un champ de 20 x 30 x 15 mm à 10 mm de la lentille pour une précision de 20-25 pm. b. D'une focale de grande précision (5 à 10 pm) mais dont la profondeur de champ est incluse dans la précédente. Le balayage en z sera donc toujours simple et connu à priori. Le balayage en z (profondeur de champ) sera donc limité à quelques 5 à niveaux différents. c. D'une focale de grande précision à focale et à zoom variable permettant de choisir et d'augmenter librement la précision désirée. 10 7) Pour faciliter la lecture du praticien en bouche, sans qu'il soit besoin de surveiller son écran, est prévu le dispositif comporte des moyens de projection d'au moins un cercle de lumière colorée entourant le champ de l'image incluse, et/ou le champ de l'autre image: a. Eventuellement et avantageusement de l'existence d'un indicatif, par exemple un cercle rouge, projeté sur la scène de vue indiquant où se situe la lecture précise dans la lecture du champ large. b. Eventuellement et avantageusement de l'existence d'un indicatif, par exemple un cercle bleu, projeté sur la scène de vue indiquant où se situe la bordure du champ large. 8) Pour éviter des interruptions fâcheuses et dangereuses dans la lecture clinique en bouche est adjoint, éventuellement et avantageusement un accéléromètre/gyromètre/magnétomètre 3D afin de faciliter la corrélation des vues, voire de suppléer à une éventuelle panne de l'un des capteurs. Cet appareil, placé à proximité des capteurs, donne une information générale et continue de la position spatiale de la caméra. Cela permet aussi, grâce au "software" présenté, partie indissociable de l'invention, de ne travailler qu'avec un seul capteur, le champ large ou le champ étroit, suivant les besoins cliniques, certains actes nécessitant une étude générale comme en orthodontie, ou un relevé très précis comme pour la reconstitution unitaire localisée. 9) Alors que la mesure sur plâtre bénéficie en général d'un bon éclairage, il n'en n'est pas de même des lectures en bouche. Eventuellement et avantageusement il est prévu l'adjonction d'un éclairage passif et non structuré à LEDs de une ou plusieurs longueurs d'onde permettant de mesurer des surfaces régulières spéculaires ou lambertiennes sans dépôt de coating à la surface de la bouche.
Le fait de ne pas utiliser de lumière structurée évite aussi à l'opérateur d'éteindre son éclairage professionnel ce qui facilite grandement son travail clinique. 10) Les informations relevées au même moment ou avec un décalage extrêmement court évitent tout bougé provoquant un flou rédhibitoire dû au mouvement de l'opérateur ou du patient. 11) Pour limiter les phénomènes de flou est adjoint éventuellement un système hardware anti flou, ou un système « flash LED » avec pulsation très rapide de l'éclairage LED non structuré ou encore un software pouvant être de type : système anti flou dans les appareils photo 12) Est associé à la présente invention, pour traiter les données issues des capteurs et les visualiser : a. une unité centrale de gestion et de conversion des données analogiques/digitales sans nécessité le moindre balayage mécanique, optique ou électro optique de projection de lumière structurée permettant de calculer les 3 dimensions spatiales et éventuellement la quatrième dimension correspondant aux temps des mouvements des objets mesurés. b. un software original permettant l'utilisation d'un seul capteur permettant une visualisation et un relevé 3D en temps quasi réel afin de suppléer à une éventuelle panne de l'un des capteurs ou de limiter le volume de la caméra. c. une transmission des données par câble, téléphone ou Wif i . d. un système hardware de traitement complémentaire, de dialogue/visualisation avec l'opérateur, de transmission et de stockage des données. Un système software original comprenant : 1) Un schéma de reconstruction 3D temps réel à partir de deux flux d'images 2D provenant des deux caméras, 2) Un schéma de reconstruction 3D temps réel à partir d'un flux d'images 2D provenant d'une seule caméra et d'un flux de données d'accélération provenant de l'accéléromètre 3) Un algorithme de recherche de points d'intérêt sur les trois algorithmes de recherche de trace optique (projection sur plusieurs caméras différentes d'un même point 3D) par calcul de points d'intérêt et mise en correspondance à travers les images 4) Un algorithme de séquençage automatique temps réel du flux d'images en sous séquences spatialement cohérentes s) Un algorithme d'estimation parallèle des positions des caméras dans l'espace et des coordonnées des points 3D grâce aux traces optiques 6) Un algorithme d'interpolation 3D de nuages de points 7) Un algorithme de polygonalisation de nuages de points 3D et de calcul de texture 6) Un algorithme de mise à l'échelle de la reconstruction 3D 9) Deux algorithmes de rehaussement de précision spatiale Organisation globale de l'algorithme : Le flux d'images, en provenance de la ou des caméras, est traité en temps réel de manière à produire une première reconstruction 3D visualisable par l'utilisateur au fur et à mesure que celui-ci déplace le système aux alentours de l'objet. Le schéma global de reconstruction 3D temps réel et l'organisation des données varient en fonction de la disponibilité des deux caméras.
Chaque image nouvellement acquise est d'abord traitée par un algorithme de recherche de trace optique. A partir des correspondances, un algorithme de séquençage met alors à jour le séquençage du flux vidéo pour une meilleure performance temporelle. Un algorithme d'estimation parallèle permet ensuite, grâce aux traces optiques a)de retrouver les positions des caméras dans l'espace au moment de l'acquisition b) de générer le nuage de points 3D se projetant sur les traces optiques.
Le nuage de points généré est ensuite interpolé pour obtenir un nuage plus dense, et une fonction implicite d'interpolation est calculée. Grâce à cette fonction, on peut obtenir une polygonalisation texturée de la surface à reconstruire. A cette étape, il est aussi possible de calculer des indices de qualité du nuage de points final. Certains ou certaines zones peuvent ainsi être étiqueté(e)s comme non valides. La surface texturée est enfin affichée à l'écran, avec éventuellement des annotations adaptées pour indiquer les zones encore non valides.
La surface générée en temps réel est une représentation sans dimension spatiale représentant à un facteur d'échelle près la zone reconstruite. Ce facteur d'échelle est calculé par un algorithme lorsque l'acquisition est terminée. Enfin, le modèle 3D final peut voir sa précision rehaussée par un algorithme, de manière à avoir une reconstruction la plus fidèle possible. Cet algorithme recalcule un nuage de points 3D en tenant compte de l'ensemble des vues acquises. Ce nuage est ensuite interpolé par l'algorithme. Enfin, un algorithme de "space carving" vient reconstruire le modèle 3D global.
Il est ainsi proposé un appareil universel dans son champ d'application, répondant à de nombreuses demandes en matière de coût, de précision et d'imagerie diagnostique en dentisterie et médecine.
Ce système peut être par exemple appliqué, dans une forme évolutive, à toute acquisition 3D nécessitant une bonne précision inclue toute surface du corps humain, l'acquisition de données traitant de l'architecture nécessitant une grande précision, ou les procédures de production industrielles. I1 est ainsi possible de balayer l'objet mesuré avec le capteur simple ou multiple, de déplacer l'objet face au(x) capteur(s) ou de déplacer les deux, capteur et objet. Il est rappelé que les éléments permettant cette mesure sont réalisés en temps réel et à précision différente, ce qui permet d'affiner la lecture de certaines zones grâce à la caméra à champ étroit, tout en facilitant, grâce à la caméra à champ large, une rapide corrélation avec les autres images captées. D'autres buts et avantages de la présente invention apparaîtront dans la description qui va suivre, se rapportant à un mode de réalisation du procédé, donné à titre d'exemple indicatif et non limitatif. La compréhension de cette description sera facilitée au vu des dessins joints en annexe et dans lesquels: - La figure la est une représentation d'ensemble du prototype réalisé comprenant la caméra, la connectique, l'ordinateur (ici un portable) et éventuellement un boîtier renfermant les cartes de traitement. - la figure lb est un diagramme représentant le détail de la configuration de l'invention. - La figure 2 représente une vue du prototype réalisé soulignant les dimensions très réduite de la caméra grâce à la technique choisie et permettant son introduction en bouche. - La figure 3 représente une coupe longitudinale de la caméra (1) comportant le système d'acquisition d'images (système optique et capteurs CCD ou Cmos) situé dans la tête en vues directes (3 a et 3b). - La figure 4 représente une coupe frontale de la tête de la caméra (1) suivant la configuration que nous venons de voir dans les dessins 2 et désignant le recouvrement de la zone de lecture large et étroite. - La figure 5 représente la globalité du volume analysé par la caméra de grand champ et la caméra de petit champ. - La figure 6 représente les différents niveaux de profondeur de champ apportés par l'utilisation de la focale variable ou de la lentille liquide analysé par la caméra de grand champ et la caméra de petit champ. - La figure 7 représente l'illustration des vues obtenues par la caméra de grand champ et la caméra de petit champ et la modélisation 3D obtenue. - Les figures 8a, 813 et 8c représentent la détermination automatique par software des points homologues sur modèle en plâtre (8a), en bouche (813) et le nuage de points (8c) résultant. - Les figures 9a et 9b représentent la disposition des LED en éclairage passif (9a) et la cible projetée sur les dents (9b) permettant au praticien de connaître la zone balayée par la caméra de grande précision. 25 - les figures 10a, 10b et 10c représentent une vue obtenue avec la lumière blanche (10a) la lumière bleue (10b) et la lumière composite blanc et bleue (10c). - La figure 11 montre l'orifice à la tête de la caméra permettant le jet d'air afin d'éloigner la salive ou le 30 sang et la vitre de protection chauffante évitant l'apparition de buée durant la prise d'empreinte optique en bouche. 20 - La figure 12 présente le schéma général de la partie software, depuis l'intégration des images acquises jusqu'à la reconstruction 3D finale à l'échelle. - Les figures 13a, 13b et 13c, représentent trois algorithmes d'utilisation des images acquises en temps réel dans le cas où deux caméras sont utilisées simultanément. - La figure 14 représente les deux stratégies de reconstruction possible lorsqu'une seule caméra est utilisée. - La figure 15 montre un exemple de calcul de trace optique par "tracking" de points d'intérêt. - La figure 16 montre les étapes simplifiées de l'algorithme de reconstruction 3D temps réel. 15 - La figure 17 représente l'organisation de l'algorithme de rehaussement de précision. Telle que dans la figure 1, la présente invention, présentée sous la forme d'un prototype, sous la forme d'une photo design et schématisée dans les figures suivantes, est relative à un 20 dispositif de mesure et/ou de diagnostic qui trouvera un intérêt tout particulier dans les domaines de la dentisterie. Comme visible sur la photo la ce dispositif comprend une caméra à focale (1) utilisant la technologie décrite dans l'invention, une connexion (2) entre la caméra (1) et le câble (3) servant 25 d'alimentation et de transfert des données, la connexion (4) entre le câble et l'ordinateur (5) étant de type USB et le boîtier (6) , pouvant être placé en intermédiaire servant à l'adjonction de carte de pilotage du processeur de la caméra et /ou de traitement de l'image si celles-ci ne sont pas placées 30 dans la caméra ou dans l'ordinateur. Cette même caméra peut utiliser une connexion de transmission d'images, ou de données issues des images, sans fil type Wi fi 10 et un système de recharge pour batteries rechargeables pour l'énergie à apporter à la caméra. La partie électronique, qui peut être totalement incluse dans le corps de la caméra (9-12) ou partagée entre la caméra, le boîtier (6) et l'ordinateur (5). Elle comporte un système électronique situé derrière ou à proximité des capteurs, assurant la gestion de ces derniers mais aussi celle des LEDs éclairant la zone de prise d'empreinte. Ce système électronique comporte aussi: - une unité centrale de gestion capable de collecter, stocker et ordonner les données des capteurs dans un langage assimilable par un PC universel. Elle sera capable aussi, et éventuellement, de convertir les données de valeurs analogiques en valeurs numériques si cette fonction n'est pas déportée dans le PC. Le fait de ne pas devoir gérer un système de projection de masques ou de franges réduit significativement l'unité centrale à son strict minimum: la gestion d'une caméra de vue stéréoscopique couleur. - une carte de contrôle de LEDs, sous la dépendance de l'unité centrale et/ou des logiciels du PC, capable de déclencher préférentiellement telle ou telle LED en fonction des programmes mis en oeuvre. En effet les LEDs seront commandées alternativement ou ensemble, ou en ordre variable en fonction du programme mis en oeuvre. La fonction est sous la forme d'un ordre simple mais il est bon de le signaler. - une carte alimentation de type standard capable de fonctionner sous USB ou sous batterie (par exemple AC/DC). Suivant que nous ayons un système libre (sans connexion par fil) ou connecté, l'alimentation restera légère compte tenu de la faible consommation des composants mis en oeuvre. Notre caméra sera donc la première à pouvoir disposer d'une connexion sans fil. - éventuellement une carte mémoire miniaturisée incluse éventuellement dans la caméra, permettant de stocker les vues et de les transférer à l'ordinateur à l'aide d'un support transportable sans avoir besoin de connexion USB ou de communication Wifi.. Un PC standard, portable (5), embarqué ou de bureau, renfermant le logiciel de gestion et de traitement des programmes et des données, peut être joint à l'ensemble si tout n'est pas inclus dans la caméra ou/et le boitier intermédiaire (6) . I1 est capable de restituer les informations sous une forme visible à l'écran, 2D ou 3D, mais aussi d'adresser les mesures à des centres plus ou moins éloignés (internet, Wifi, Ethernet ...) sous une forme standard assimilable à tout système de CFAO (STL..) ou sous une forme spécifique, moyennant des logiciels de traduction de langage. C'est dans cet ordinateur, avant de disposer d'unité de calcul miniaturisé, que se placera le logiciel de restitution 3D et de commande de la caméra.
Ainsi la connexion entre la caméra et l'ordinateur peut se faire avec ou sans fil. Selon l'invention la connexion par fil (3) est préférentiellement par l'intermédiaire d'une connexion USB (4) autoalimentée avec un port spécifique (2) côté caméra (1). Cette connexion spécifique (2) est conçue de telle manière qu'elle est adaptable à toutes formes et design de caméras. De la même manière, et selon l'invention, la connexion peut être sans fil, par exemple en mode Wifi, et ceci n'est pas limitatif. Dans ce cas l'antenne sera incluse dans la caméra ou connectée à la place de la connexion spécifique (2). De même, sur l'ordinateur (5) ou sur le boîtier intermédiaire (6) sera introduite dans la connexion USB une antenne d'envoi et de réception des données correspondant aux ordres donnés par le programme situé dans la caméra, dans l'ordinateur (5) ou le boîtier intermédiaire (6). Cette disposition permettra une communication rapide, conviviale et aisée quelque soient les configurations des cabinets médicaux, dentaires ou des laboratoires de prothèse.
De la même manière et toujours selon l'invention, l'ensemble des cartes de traitement, CPU et visualisation sera implanté dans le boitier intermédiaire (6) de sorte que l'ensemble de l'invention puisse être intégrer à un meuble professionnel comme l'unit des dentistes ou l'établi des prothésistes. Selon l'invention, l'ordinateur (5) sera de type standard avec un écran, inclus ou détaché, de type PC ou autre (Mac ...). Cet ordinateur utilisera des cartes standards spécialement programmées pour piloter la caméra ou des cartes spécifiques de pilotage qui seront placées sur le bus. Dans le cas où l'ordinateur ne pourrait pas être équipé ou s'il est préalablement présent dans l'unité de soin, un boîtier intermédiaire (6) sera positionné entre la caméra et l'ordinateur pour suppléer à ce manque. De la même manière et pour la même fonction, ce boîtier sera positionné en aval de l'ordinateur, et la connexion USB (4) de la connexion sera directement branchée sur le port USB de l'ordinateur sans intermédiaire. Cela permettra de générer un langage spécifique et interprétable par chaque application CAO ou FAO utilisée dans le milieu professionnel. La figure lb présente le détail de la configuration de l'invention. Ce diagramme se compose de deux grandes entités, la caméra (1) et le computer (5) auquel peut être substitué un boîtier spécifique et dédié (6).
Après avoir choisi son menu sur l'interface HIM du computer (48) et mis en route la caméra grâce à son interface Homme/machine (HIM) propre (18), le software image (45) de la caméra commande la mise en route de la procédure de lecture des capteurs grand champ (38) et petit champ (39). Il déclenche en même temps l'éclairage LED (15) spécifique ou non suivant le menu sélectionné. Cette procédure actionnera aussi la mise en route de l'accéléromètre (52) qui adressera ses informations en flux continu ou discontinu au software image 1 (45) pendant toute la procédure, aidant ainsi a la corrélation des vues et pouvant à tout moment se substituer à l'un des capteurs si d'aventure il tombait en panne durant l'acte clinique. Le système optique (38) du grand champ (20) permettra au système software image de connaître la profondeur de champ et d'ajuster, si nous ne mettons pas en oeuvre des lentilles liquides, le control (42) lui-même ajustant grâce à un micro moteur (22) la profondeur de champ du système optique (41) du petit champ (19) sur les structures buccales (21). Chacune des deux images seront captées par les CCD du grand champ (38) et du petit champ (39). Elles seront converties en données digitales par les convertisseurs A/D (43 et/ou 44) et/ou arriveront sous forme analogique sur l'écran vidéo de control (49). Si le hardware supportant le software image 1 (45) utilise un volume trop important pour être localisé dans la caméra (1), la deuxième partie de ce software image (46) sera délocalisée dans un computeur standard (5) ou dédié (6). Les informations issues de ce traitement, telles que décrites dans la suite de cette description détaillée, seront adressées par toutes les voies reconnues (51) aujourd'hui capable d'en effectuer le traitement, que ce soit pour du diagnostic ou pour de la CFAO. Ceci sera réalisé à l'aide d'un modem (50) qui écoulera ses informations, aller et retour, par les voies câblées (internet et Ethernet, Wifi ou téléphoniques). Pour détailler chacune des parties de cette invention, nous nous reporterons à la figure 2 qui présente une option clinique dentaire sous son aspect fonctionnel. Pour réaliser facilement une prise endobuccale, une caméra de lecture 3D doit être peu encombrante. A la différence de tous les systèmes connus, la présente configuration nous permet de disposer d'une caméra 3D couleur de très petite taille puisqu'elle mesure entre 20 et 25 cm, et dispose d'un corps suffisamment large pour assurer une bonne préhension ( par exemple de 2 à 4 cm) pour une épaisseur ne dépassant pas, par exemple, 2 cm. Elle est prolongée d'un bras de 5 à 6 cm permettant de passer le stade des lèvres dans une prise d'empreinte au fond de la bouche. La tête de lecture renferme dans une forme ovoïde non blessante, par exemple de 1 à 2cm d'épaisseur pour une largeur de 2 cm et une longueur de 3 cm environ, tout le système optique, les LED et les capteurs CCD/Cmos.
La section visible dans la figure 3 nous permet de mieux détailler les composants de cette caméra. Dans cette configuration et ceci n'est pas limitatif, nous avons une section présentant la tête de la caméra (7) le bras (8) permettant son introduction en bouche et le corps (9), souvent à l'extérieur de la bouche. La tête présente la section de l'ensemble optique composé ici de deux (10) systèmes optiques comprenant trois ensembles (les lentilles, éventuellement le système d'ajustage de la focale (22) et les 2 capteurs CCD ou Cmos) connectés à la carte de connexion d'images (12) par un câble (11)de préférence blindé pour éviter toutes interférences néfastes à la qualité de l'information transmise. Cette carte sera elle- même reliée à l'ordinateur (5) ou au boîtier spécifique (6) grâce au connecteur spécifique (13) dépendant de la caméra (1). Cette même section longitudinale permet de distinguer les LEDs placées vers le système optique (14) à l'intérieur de la tête protégée par la glace de protection (17) et/ou en périphérie du système optique, en dehors de celui-ci (15).Un bouton (18) permet d'actionner la prise de vue, si nous n'utilisons pas la pédale de commande. Le fait d'utiliser un système de prises de vues sans décalage nous permet de prendre cette image 3D avec le bouton sans risquer le flou pouvant être créé par un mouvement involontaire. La figure 4 illustre avec plus d'exactitude le principe de base de la présente demande d'invention. Nous retrouvons la schématisation de la tête de la caméra (7) et les deux systèmes optiques différents (10). Ces systèmes se composent de bas en haut des lentilles de focalisation et de transmission de l'image et des CCD/Cmos. Ces lentilles sont représentées sans système d'ajustement de focale. Si nous utilisons des lentilles traditionnelles il sera nécessaire d'avoir un système d'ajustage de focale (22) permettant de balayer en « z » un champ de 1 à 5 cm de profondeur de champ. Avantageusement la lentille sera de type liquide (Varioptic - Fr) ou en verre ou verre/plastique moulé avec pupille sur la 5 face d'entrée. Avantageusement la focale se situera entre 0.5 et 5 mm afin de répondre aux exigences du grand et du petit champ dans l'environnement restreint qu'est le milieu buccal. Les LED (15) blanches et bleues sont disposées tout autour du 10 système optique juste derrière la vitre de protection (17) chauffante ou non. Avantageusement elles seront sélectionnées spécifiquement en fonction du type de couleur d'éclairage souhaité. Notons qu'il n'existe aucune projection de lumière structurée 15 mais deux zones visualisées par le système optique et les CCD. Avantageusement la zone étroite et précise (19) est incluse totalement dans la zone large moins précise (20) des dents mesurées par empreinte optique. Comme nous le voyons, l'un des avantages de cette méthode est d'inclure la zone précise dans la 20 zone générale, ce qui facilite grandement la corrélation des deux vues stéréoscopiques. Cela diminue aussi les zones non codées puisque ce que ne prendra pas une caméra sera lu par la seconde. Le simple déplacement de la caméra corrigera les manques de codage éventuels. 25 Eventuellement et avantageusement la zone étroite peut aussi être partiellement incluse de la zone pour des besoins de conception industrielle et d'encombrement. Dans ce cas la zone étroite de mesure précise chevauchera la limite de la zone la plus large moins précise. 30 Eventuellement et avantageusement afin de faciliter cette lecture de la zone précise et étroite, il est possible d'adjoindre un moteur de déplacement de telle sorte que la zone étroite balaye rapidement toute la zone large pendant la prise de vue. Ce moteur de déplacement peut utiliser toutes les techniques de déplacement des lentilles. Eventuellement et avantageusement cette zone étroite peut-être à zoom variable, ce qui permet à l'opérateur de faire varier la précision souhaitée dans cette zone étroite entre 1 et 20 pm, tout en bénéficiant de grand champ de lecture en zone large. Cette caméra stéréoscopique est composée de un ou plusieurs capteurs, deux dans la figure 4, unitaire ou multiples en position prédéfinie qui peuvent être des CCD ou des Cmos, par exemple de 2 Mégapixels à 2.2 pm, (25 à 500 images / seconde) définissant, par leur rafraîchissement, la vitesse de lecture donc la vitesse des prises d'empreintes successives permettant une lecture statique ou dynamique, telle que nous la connaissons pour un appareil photo ou une caméra. Nous pourrons ainsi avoir une vue dynamique en nous déplaçant sur la zone d'analyse, à la différence des systèmes en phase profilométrique qui doivent faire un minium de quatre vues pour extraire le relief, le système utilisé dans la présente invention, se contente d'un seul cliché ou d'un double cliché à deux niveau de précision, évitant tout bougé dans la mesure ou l'intégration de l'information sur le capteur est immédiate et simultanée. Elle est aussi composée d'un ensemble optique ayant de une focale ou d'au moins deux focales différentes, pouvant aller d'une ouverture numérique (O.N.) de 0.001 à 0.1, et permettant de transmettre au (x) capteur(s)de la caméra , sans déformation, les données visualisées sur des deux ou plusieurs champs opératoires. Par exemple pour les vues endobuccales, Dans l'exemple présenté figure 4, ces champs peuvent être décrits de la manière suivante : a. l'un des champs recouvre une large surface, mais de résolution moindre, par exemple et ceci n'est pas limitatif, de 20 pm (O.N. : 0.0125 soit un équivalent focal de F/8) sur un champ de 30x20 mm. b. l'autre champ est plus petit mais plus précis, par exemple et ceci n'est pas limitatif avec une résolution de 10 pm (O.N. : 0.025 soit un équivalent focal de F/4) sur un champ de 15 x 10 mm. La profondeur de champ étant faible, il est prévu une succession de prise de vue à profondeur variable. c. Le petit champ étant inclus totalement dans le grand champ, à tous les niveaux centrés ou non, afin de relever les données permettant la génération des trois dimensions de l'objet (x, y & z) et de faciliter la corrélation en temps réel entre les vues précises et les vues générales à champ plus large. d. L'objectif peut être composé de plusieurs éléments verre ou verre/plastique moulé, la mise au point étant assurée par micro moteur. Eventuellement et avantageusement cette ajustement de la profondeur de champ sur les dents se fera à l'aide d'une lentille liquide afin d'assurer une parfaite adaptation en fonction de la proximité des surfaces endobuccales et d'éviter 20 l'emploi de micromoteur. Eventuellement et avantageusement il peut aussi être composé d'une lentille par exemple thermoplastique dite « free-form » composée d'un sommet plat entouré de n facettes asymétriques assurant, en une seule prise de vue, la visualisation du milieu 25 buccal selon n angles de vue différents. La partie facettée est orientée vers le capteur et le côté plat vers le milieu buccal. Le capteur recevra n images légèrement différentes avec des vues sous un angle différent dépendant de l'angle de découpe de la facette par rapport à la surface plate. Il y a donc en une seule 30 prise de vue le captage et la numérisation possible de n vues stéréoscopiques corrélées instantanément de surfaces différentes évitant l'adjonction d'un deuxième capteur et d'un deuxième système optique. 10 15 Eventuellement et avantageusement Si nous disposons d'un seul capteur ce n'est plus la position prédéfinie du capteur qui définira l'ensemble des vues, tel que nous l'avons vu précédemment, mais les séquences de saisies successives. Ce sont les mouvements de déplacements corrélés à une séquence de prises de vue automatiques, qui définira les différents plans de prises de vue. Par exemple la première image sera prise au temps TO puis un léger déplacement, qui conduira à un changement d'angle de vue, sera accompagnée d'une nouvelle prise de vue au temps TO + 1 seconde (par exemple) et ainsi de suite. Eventuellement et avantageusement un accéléromètre, un gyromètre ou un magnétomètre 3D (52) sera installé à proximité du capteur CCD/Cmos afin d'aider aux corrélations et de suppléer à une panne éventuelle d'un des capteurs. En accordance avec la présente invention, afin d'éviter toute interruption dans l'acte clinique ou pour remplacer l'un des champs (petit ou grand suivant le cas), il s'agira par exemple d'un accéléromètre 3D de fréquence d'acquisition supérieure ou égale à 50Hz, intervalle +/- 10g et d'une précision inférieure ou égale à 3 mg.
Eventuellement et avantageusement, l'information générale de profondeur de champ sera indiquée par l'un des capteurs, par exemple le capteur grand champ, afin que la focale de l'autre capteur, de petit champ, soit pré positionnée dans une zone proche de la réalité analysée par le premier capteur, par exemple de grand champ. La figure 5 représente le volume mesuré dans la bouche d'un patient. Le volume exigu dans lequel le dentiste peut déplacer sa caméra limite considérablement les possibilités d'avoir à la fois un large champ et une précision élevée. Grace au nouveau concept présenté ici, et en respectant les lois de la physique optique, il est possible de mesurer un volume de 20 par 30 mm et une profondeur de champ de 2 mm avec une précision de 20 pm au niveau du champ large. Le champ étroit limite le volume à 10 x 15 x 0.5 mm pour une précision de 10 pm. Ceci n'est donné qu'à titre d'exemple et peut varier considérablement suivant les qualités des systèmes optiques utilisés. Ces valeurs sont conformes aux exigences d'une prise d'empreinte optique en bouche pour la réalisation de bonnes prothèses et de bons diagnostiques.
La profondeur de champs est insuffisante mais elle est imposée par la proximité des dents par rapport au système optique imposé par l'espace entre les dents du haut et celle du bas. Pour résoudre le problème de la profondeur de champ il est proposé sur la figure 6 une succession de prises de vues en faisant varier entre 10 et 20 fois dans la zone précise et entre 5 et 10 fois la zone plus large. Ceci nous assure des précisions de 10 pm (champ étroit petit et précis) et de 20 pm (champ large et moins précis) dans une profondeur de champ allant de 10 à 30 mm ce qui est suffisant en dentisterie.
Eventuellement et avantageusement ces mouvements en profondeur de champ dans le champ étroit et dans le champ large peuvent être synchronisés ou non suivant les besoins de la prise d'empreinte optique. Comme nous le verrons dans le traitement software, cet ajustement peut être limité dans la mesure ou le CCD/Cmos sait reconnaître si la prise d'information est floue ou non. Cela donne une information sur la position des dents par rapport au système optique et permet un pré réglage automatique de la profondeur de champ. Ceci a aussi l'avantage de limiter le balayage en profondeur et de limiter les prises de vues successives. Sur la figure 7 nous avons la représentation de la surface balayée par le champ large (23) et par la succession de vue du champ précis et étroit (24). Comme nous voyons dans l'exemple donné, dix vues sont suffisantes pour couvrir un champ complet avec une précision de 10 pm. En réalité le dentiste positionnera sa vue précise sur la zone du milieu buccale nécessitant le maximum de précision. Cette zone peut être la ligne de finition d'une préparation, mais aussi comme nous le voyons sur la figure 7, les sillons et les cuspides des dents. Comme il sera présenté plus loin dans la description du "software", plus particulièrement sur la figure 13 (stratégie par surfaces empilées), une utilisation judicieuse de cette zone de haute précision contribue grandement à une reconstruction haute-fidélité. La zone commune aux deux caméras est utilisée pour la reconstruction et bénéficie amplement du niveau de détails amené par le champ précis. D'autre part, en déplaçant la tête de manière aléatoire, et de par la fréquence élevée d'acquisition des images, l'utilisateur a une grande chance de couvrir l'ensemble de la zone à reconstruire par la partie commune aux deux caméras. Enfin, si une zone venait à souffrir d'une précision insuffisante, un feedback visuel sera donné à l'utilisateur, qui pourra alors venir focaliser le champ précis sur cette zone pour obtenir la précision suffisante.
Comme cela est visible sur les figures 8a, 813 et 8c, une vue stéréoscopique 3D est possible si il est possible de corréler des points homologues que l'on retrouve dans chacune des vues prises ensemble ou légèrement décalées dans le temps. La figure 8a présente la détermination automatique des points homologues dans deux vues occlusale et linguale des mêmes dents sur un plâtre dentaire (figure 8a - 26). Cette détermination automatique est possible grâce aux softwares, partie intégrante de notre invention. Les lignes que l'on voit réunissent des points identiques et homologues identifiés sur chacune des deux vues. La même représentation peut être faite sur une vue endobuccale (figure 8b - 27) grâce au système software. Eventuellement et avantageusement le "software" permet cette reconnaissance automatique de la zone de mise au point dans la zone de profondeur de champ, en remarquant que tout se passe pour les zones hors champ comme si elles avaient subi un filtre passe bas par rapport aux zones dans le champ ; le spectre local de puissance y a donc une pente plus douce. On calcule ainsi le spectre de puissance dans des « patches » p de l'image (zone carrée de 20*20 pixels, typiquement) dont on approxime la pente ap de décroissance suivant un modèle exponentiel décroissant. On calcule alors le rapport (ap -a0)/ a0, où a0 est la pente de décroissance pour l'image entière. Si ce rapport est inférieur à un certain seuil adapté en fonction de l'image, le patch est alors considéré comme hors zone de mise au point. Le résultat est une représentation d'un nuage de points disposé dans l'espace (figure 8c - 28) dont une partie est très précise (moins de 10 Inn) . Eventuellement et avantageusement cette représentation en nuage 10 de points est réalisée grâce aux techniques de reconstruction 3D décrites en figure x. Eventuellement et avantageusement, cette représentation peut aussi être par une représentation dense, polygonalisée et texturée proche de la représentation visuelle réelle, en surface 15 de Bézier, par Radial Basis Functions, par NURBs, ou par ondelettes. Dans ce cas le software procédera comme décrit dans la figure x pour effectuer cette modélisation. Schématiquement, le nuage de points épars généré par la reconstruction 3D (figure x) est 20 interpolé grâce à la technique décrite dans la figure y. Cette technique présente l'avantage de densifier le nuage de points et de le modéliser par des courbes douces de type Radial Basis Functions. (Sans perte de généralités, la modélisation peut être faite par exemple et ceci n'est pas limitatif, par courbes de 25 Bézier, par Radial Basis Functions, par NURBs, ou par ondelettes.) Une fois le modèle de surface appliqué, on polygonalise grâce à une technique classique (par exemple et ceci n'est pas limitatif, technique de Bloomenthal, bail pivoting, reconstruction de Poisson), puis on calcule et 30 applique une texture comme décrit dans la figure z. L'avantage de ces méthodes de modélisation en temps réel ou quasi réel est de permettre, à partir d'une vue stéréoscopique, une représentation immédiate 3D à l'écran du praticien. Il pourra faire varier l'orientation et zoomer numériquement sur tout ou partie de l'empreinte afin de vérifier et/ou de valider son travail pour la suite de ses opérations cliniques. La figure 9 représente les LED offrant un éclairage suffisant pour une bonne prise de vue stéréoscopique. Pour arriver à une mesure précise et complète, il est nécessaire d'avoir un bon éclairage de la scène. Il ne s'agit absolument pas de projection de lumière structurée mais seulement d'éclairer la scène dans une bouche relativement sombre. Eventuellement et avantageusement l'éclairage sera à LED pour 10 des puissances pouvant varier de 10.000 à 500 000 lux en lumière blanche et de 5.000 à 300.000 lux en lumière bleue. Pour cette raison quelques LEDs sont suffisantes. Sur la figure 9a sont représentées deux LED blanches (29) sur les huit nécessaires pour atteindre 200.000 lux en lumière blanche et 1 15 LED bleue (30) sur les 4 LED bleues nécessaires pour atteindre les 100.000 lux en lumière bleue Eventuellement et avantageusement seront adjointes d'autres LEDs ayant une lumière non structurée mais aux caractéristiques précises en termes de pureté (cohérente ou non), d'espèce 20 (couleur) et d'intensité (puissance). Sur la figure 9a est représentée, par exemple et ceci n'est pas limitatif, une LED verte (31) permettant de développer certaines fonctions d'aide au diagnostic sur une image 3D, reportées sur nos surfaces 3D. Ceci est d'autant plus intéressant que le fait de ne pas 25 utiliser de lumière structurée, il nous est toujours possible de faire des analyses chromatiques en temps réel dans la bouche des patients, tant au niveau de la muqueuse qu'au niveau des structures minérales de la dent ou des matériaux de reconstitutions prothétiques. 30 Eventuellement et avantageusement la lumière sera choisie de telle sorte qu'elle puisse mettre en évidence des fractures ou des dégradations carieuses minérales ou organiques dans le cristal de la dent. Ceci est particulièrement intéressant car la visualisation ne se fera pas sur des images 2D, telle que connue actuellement, mais sur des structures représentées en 3D en soulignant les zones devant être analysées, diagnostiquées ou traitées. Cela permet aussi au praticien de suivre la qualité de son travail et d'avoir la certitude, sur des images 3D, d'avoir traité correctement le mal mis en évidence. Eventuellement et avantageusement cela permet de mettre en évidence des fractures dans les matériaux de reconstitution (comme par exemple une fente dans les céramiques zircones) et d'estimer s'il est nécessaire de ré intervenir sur la reconstitution. Eventuellement et avantageusement en plus de lumière LED diffuse, afin d'aider le praticien à savoir où se trouve la lecture de haute précision (champ étroit dans le champ large) est prévus éventuellement la projection d'une cible (figure 9b - 32a) encadrant cette zone précise. Eventuellement et avantageusement seront adjointes d'autres LEDs ayant une lumière non structurée mais aux caractéristiques précises en termes de pureté (cohérente ou non), d'espèce (couleur) et d'intensité (puissance). Sur la figure 9a est représentée, par exemple et ceci n'est pas limitatif, une LED verte (31) permettant de développer certaines fonctions d'aide au diagnostic sur une image 3D, reportées sur nos surfaces 3D. Eventuellement et avantageusement est prévue la projection d'un cadre entourant le champ large (32b) évitant au praticien de suivre sur l'écran son balayage lors de sa prise d'empreinte en bouche. L'utilisation de ces LEDs, bleues et/ou blanches, a l'avantage de permettre une recherche plus facile des points homologues et d'en déterminer un nombre plus élevé sur une dent qui présente une structure cristalline et légèrement pénétrante. Eventuellement et avantageusement, quoique la pénétration d'une lumière diffuse à LEDs ne soit pas comparable à celle d'une lumière structurée projetée sur une surface de dent, la lumière bleue sera utilisée pour leur donner un aspect plus crayeux évitant l'utilisation de couche de recouvrement appelée coating. Eventuellement et avantageusement, ce système d'éclairage à LED de différentes longueurs d'onde ou de couleurs dont la mixité sera choisie, par exemple, pour créer des effets de fluorescence ou de phosphorescence dans les cristaux de la dent ou dans certaines parties ou pathologies de la gencive. Cela favorisera encore plus la visualisation de surface des tissus minéralisés dans le bleu ou les W, un tissu dentaire fluorescent ayant un d'aspect particulièrement « mat » évitant le dépôt de surface ou de peinture appelée coating. Cette même application nous permet enfin de pénétrer des zones de gencive plutôt fines, comme nous les avons dans le sulcus dentaire. Cela permet à l'opérateur de disposer d'une vue de l'émergence de la dent au travers de la gencive. De même le choix d'une couleur complémentaire judicieusement sélectionnée, par exemple dans les rouges, nous permet de diminuer les effets néfastes du sang et de la salive et facilite la prise d'empreinte optique.
Avantageusement ces LED seront de puissance et de couleur variables afin, à faible puissance, d'éclairer la surface mesurée ou, à forte puissance, de traverser certaines petites épaisseurs de tissu épithélial. Par le montage prévu dans ce procédé, il est prévu, comme le montre les figures 10a, 10b et 10c, une lecture en lumière blanche pour avoir la teinte exacte de l'environnement buccal (33) et, éventuellement, l'adjonction d'une prise de vue en lumière complémentaire, par exemple et ceci n'est pas limitatif en lumière bleue (34) ou une association de cette lumière complémentaire et de la lumière blanche (complémentaire bleue en 35). Eventuellement et avantageusement sera soustraite par traitement numérique l'une ou plusieurs des composantes couleurs adjointes à la lumière blanche afin de disposer et de représenter à l'écran et en temps réel la couleur réelle du milieu buccal mesuré. Eventuellement et avantageusement ce choix de couleur de LED peut être prédéterminé ou automatique. Si le nuage de points est insuffisant au moment d'une lecture en lumière blanche, automatiquement (ou manuellement) le système actionne les LEDs complémentaires, par exemple bleues, et le système reprend la même vue. L'adjonction des vues bleues et blanches multiplie les chances d'augmenter l'information sur les surfaces et la recherche des points homologues. Eventuellement et avantageusement, ces LEDs pourront aussi être d'une longueur d'onde prédéfinie permettant de mettre en évidence les éléments anatomiques naturels (fonds de sillons ou zones de couleurs différenciant tumeurs, gencives ou teintes des dents) ou des marquages réalisés avant la prise d'empreinte et fait à l'aide de marqueurs de couleur spécifiques et prédéfinies. Avantageusement ces marquages pourront être des objets de différentes formes placés dans la zone mesurée, collés ou logés par exemple sur les dents, dans les espaces inter dentaires ou sur les têtes d'implant afin de faciliter la corrélation des vues mais aussi de connaître la position spatiale exacte de ces repères prédéfinis. Dans le cas des implants ou des canaux dentaires, cela permettra de connaître certaines zones inaccessibles à la lecture optique. Le repérage de la marque et la connaissance a priori de la forme porteuse permettront d'en déduire la forme et la position spatiale de la partie cachée. Les combinaisons de lumières permettent de mettre en évidence des détails sur les zones de faible texture, qui n'apparaissent pas sous lumière « naturelle ». Une combinaison optimale sera proposée à l'utilisateur par défaut; toutefois, plusieurs combinaisons pré-établies (pouvant faire ressortir des marquages par exemple) seront proposés.
La combinaison de lumière permet d'autre part d'avoir des informations complémentaires pour chaque bande spectrale. Ainsi, lorsque nous présenterons l'algorithme de recherche de trace optique en figure x, le traitement ne se fait pas sur l'image globale mais bien sur les 3 bandes spectrales en parallèle. Les traces optiques servant à la reconstruction 3D résultent de la combinaison des traces obtenues pour les 3 bandes spectrales. Sur la figure 11 sont représentées deux fonctions complémentaires nécessaires en bouche. Très souvent, durant une prise d'empreinte optique s'invitent trois éléments pouvant dégrader l'information. Il s'agit du sang, suite à la préparation de la dent, de la salive qui naturellement coule dans une bouche ouverte, et de la buée qui apparaît sur une surface plus froide que la bouche.
Pour cette raison et pour une question de confort et de précision est prévu d'associer à la caméra, dans la tête de lecture, un spray d'air ou de liquide dont on peut voir l'orifice (37) qui est dirigé vers la zone de lecture. Cela permet d'évacuer salive ou sang durant la lecture.
De même la vitre protégeant le système optique et les LEDs, dans la tête de la caméra, est prévue chauffante, par exemple entre 20 et 35° suivant les saisons, afin de limiter le dépôt de buée sur cette vitre de protection. La figure 12 montre le schéma général de la partie software. Ce schéma permet à la fois de fournir une reconstruction 3D temps réel au fil de l'acquisition et d'assurer une haute-fidélité spatiale du modèle final. Une première reconstruction est effectuée en temps réel de manière séquentielle : lorsque des images sont acquises (53), une reconstruction 3D régionale (54) est calculée (depuis cette paire seule - si deux caméras - ou avec quelques paires précédentes - si une seule caméra), puis rajoutée à la reconstruction globale telle qu'elle était avant l'acquisition de cette paire. La reconstruction est instantanément affichée à l'écran (55), avec éventuellement des annotations sur sa qualité locale, permettant à l'utilisateur d'identifier visuellement les zones où un second passage serait éventuellement nécessaire. La reconstruction séquentielle est poursuivie jusqu'à ce que l'utilisateur termine l'acquisition des images.
Une fois l'acquisition terminée, on procède aux derniers ajustements du modèle 3D reconstruit : rehaussement de la précision du modèle et estimation du facteur d'échelle. La durée totale d'ajustement final n'excède pas 5 minutes. Tout d'abord, la reconstruction 3D peut nécessiter une mise à l'échelle (56) dans le cas où les images ont été acquises à partir d'une seule caméra. L'estimation du facteur d'échelle à appliquer au modèle 3D reconstruit est effectuée grâce à un filtre par exemple et ceci n'est pas limitatif, de type Kalman et utilise à la fois les mesures issues par exemple et ceci n'est pas limitatif, de l'accéléromètre et celles issues des images (positions relatives des caméras les unes par rapport aux autres). Par ailleurs, la reconstruction 3D temps réel est raffinée pour gagner en précision (57). La technique de gain en précision est 20 détaillée à la figure 17. Les figures 13a, 13b et 13c présentent schématiquement comment les vues acquises depuis les deux caméras peuvent être utilisées. Pour cela trois façons de faire et ce n'est pas limitatif : 25 - Figure 13a : Lorsqu'une paire d'images est nouvellement acquise par les deux caméras, on recherche les traces optiques (points d'intérêt et correspondances) entre les 2 images (algorithme présenté en figure 15). Les points en correspondance permettent alors par triangulation de 30 calculer les points 3D correspondants. La triangulation est extrêmement simple dans le cas de deux caméras, puisqu'on est dans une configuration calibrée où l'on connaît les paramètres intrinsèques (focales et distorsions) et extrinsèques (positions relatives des 35 caméras l'une par rapport à l'autre, par construction de la caméra).
Le nuage de points 3D généré est ensuite interpolé, polygonalisé et texturé (algorithme présenté en figure 16). Un indice de validité q (57) est alors calculé pour tout élément (par exemple et ceci n'est pas limitatif, triangle ou tétraèdre) de la reconstruction 3D
216-Vi-V2 polygonalisée. On choisira q_ - (V = volume, (a+b+c+d)2 a, b, c, d = longueur des côtés du tétraèdre, par exemple, et ceci n'est pas limitatif). Si, en un point, cet indice est inférieur à un certain seuil, l'élément de reconstruction est étiqueté comme non valide, ce qui permettra un feedback visuel en temps réel à l'utilisateur lors de la phase de visualisation, pour que l'utilisateur puisse acquérir de nouvelles vues dans cette zone et ainsi obtenir une qualité suffisante. On dérive aussi un indice global de validité de la reconstruction générée par la paire d'images, en calculant le pourcentage d'éléments non valides par rapport au nombre total d'éléments de reconstruction. Si ce pourcentage est inférieur à un certain seuil, on n'intègrera pas la surface générée à la reconstruction. La surface générée, si elle est valide, est intégrée à la reconstruction partielle par un recalage par exemple et ceci n'est pas limitatif, de type Iterative Closest Point non linéaire suivi d'une simplification (suppression des points 3D redondants ou des outliers). Eventuellement et
avantageusement, l'intégration à la reconstruction partielle pourra être effectuée en effectuant un tracking des positions relatives des caméras par un algorithme similaire à celui présenté à la figure suivante.
Enfin, la phase de reconstruction est suivie d'une phase de visualisation. - Figure 13b : Alternativement, les images depuis les deux caméras peuvent être utilisées indépendamment. Deux reconstructions 3D régionales peuvent être calculées indépendamment pour la caméra grand champ et pour la caméra petit champ, grâce aux algorithmes présentés dans la figure 14. La reconstruction petit champ étant calculée à partir d'images qui s'intègrent dans une position fixe aux images grand champ, elle peut être directement intégrée dans la reconstruction grand champ. La fin de l'algorithme est alors similaire au cas présenté en figure 13a. - Figure 13c : Alternativement, les images de la caméra petit champ peuvent n'être utilisées que de manière sporadique. Lors de l'acquisition, elles sont alors stockées mais pas automatiquement traitées. On n'effectue la reconstruction qu'à partir de la caméra grand champ grâce à un des algorithmes de la figure 14, puis les indices locaux de qualité sont calculés. Pour les éléments non valides, on recherche par projection inverse à quelle partie de l'image 2D grand champ ils appartiennent, puis on recherche dans la banque de données des images petit champ si quelques images (typiquement une dizaine) recouvrent cette zone. Une reconstruction locale est alors calculée à partir de ces images petit champ, puis on recalcule les indices de validité. Si ceux-ci sont supérieurs au seuil, alors la reconstruction petit champ est intégrée dans celle grand champ d'une manière similaire à la figure 13b. La figure 14 détaille les deux stratégies utilisables pour reconstruire le modèle 3D à partir d'une seule caméra. La complexité des algorithmes utilisés dans ce cas-là vient directement de la liberté donnée à l'utilisateur de se servir du système sans aucune contrainte. Ainsi, les mouvements du système ne peuvent être prévus ; en d'autres termes, lorsqu'on acquiert les prises de vue, on ne peut connaître a priori d'où ces vues ont été prises. Il incombe alors aux algorithmes de retrouver l'organisation spatiale précise des vues de manière à assurer une reconstruction fidèle de l'objet. - Cas séquentiel : On se place dans une géométrie projective, ce qui nécessite dès le début de l'acquisition de choisir 5 une paire d'images servant de référence géométrique. Le choix de ces deux premières vues est primordial pour éviter de tomber par la suite dans un problème de minimaux locaux. Parmi les premières images de l'acquisition, la paire d'initialisation est choisie de telle sorte que : o Le nombre de correspondances entre les deux premières vues soit au minimum de 400. o La distance entre ces deux vues soit suffisamment importante : de manière arbitraire, nous attendrons sur les données de l'accéléromètre qu'au moins 5mm aient été parcourus ; à défaut (si l'opérateur reste immobile), nous attendrons qu'au maximum 40 images aient été acquises. A partir de ces deux premières vues, une première estimation de la géométrie est effectuée : 20 o On calcule la trace optique entre ces 2 images (algorithme de la figure 15) o Les matrices de projection P1 et P2 (représentatives de la position spatiale des caméras) sont calculées à partir des correspondances par un algorithme 25 classique des 5 points. o Les points correspondants sont triangulés pour obtenir une première estimation des points 3D. o On met à jour la géométrie par autocalibration, pour passer d'une géométrie projective à une géométrie 30 quasi-métrique (à un facteur d'échelle près). o Le nuage de points 3D généré est ensuite interpolé, polygonalisé et texturé (algorithme de la figure 16). La surface générée est la première estimation de la reconstruction 3D partielle. 35 Ensuite, on enrichit la reconstruction grâce à toute vue i nouvellement acquise : 10 15 - On complète la trace optique en calculant les points d'intérêt sur cette vue et en mettant en correspondance avec la vue précédente (58). - Connaissant les correspondances avec certains points d'intérêt de l'image i-1, et connaissant les coordonnées de points 3D se projetant sur ces points d'intérêt, il est possible d'estimer la matrice de projection Pi par exemple et ceci n'est pas limitatif, par resectioning (59). - Toutes les matrices de projection étant désormais connues jusqu'à l'image i, on rééstime les points 3D de manière linéaire à partir de ces matrices et des traces optiques. En pratique, pour maintenir la contrainte du temps réel, on ne travaille que sur la vue en cours et les n vues précédentes (typiquement, n=3 ou 4). La géométrie totale sur ces n vues (matrices de projection et points 3D) est ensuite affinée par un algorithme non linéaire par exemple et ceci n'est pas limitatif, de type Sparse Bundle Adjustment. - Le nuage de points 3D total est à nouveau interpolé par RBF multiéchelles, puis polygonalisé et texturisé. - Les indices locaux de validité sont calculés, puis advient la phase de visualisation. - Cas par subséquences : La stratégie subséquentielle calcule des reconstructions partielles pour des sous séquences d'images, constituées en isolant des groupes d'images spatialement cohérentes et présentant un nombre important 30 de points correspondants. On procède de la manière suivante : o Algorithme de séquençage : Le flux vidéo est découpé en sous séquences, appelée régions, au fur et à mesure de l'acquisition, après calcul des traces 35 optiques. Si la recherche optique est faite par 25 tracking, une région se termine (60) lorsque le pourcentage de points encore en phase de tracking descend sous 70% ; pour les autres techniques de recherche optique, la région se termine lorsque le nombre de correspondances avec la première image de la région est inférieur à 70% des points d'intérêt de l'image en cours. Lorsque la région en cours est close, une nouvelle région est créée et initialisée avec la nouvelle image acquise. o Dès qu'une région est close (61), on calcule en parallèle les positions relatives des caméras et les points 3D correspondants aux traces optiques retrouvées dans cette région par une factorisation par exemple et ceci n'est pas limitatif, de type Tomasi Kanade. Le nuage de points 3D généré est interpolé, puis polygonalisé et texturé (algorithme de la figure 16). o Les géométries sont différentes par région si on utilise cet algorithme tel quel ; les surfaces générées ne sont donc pas cohérentes dans l'espace. Pour ramener toutes les régions dans la même géométrie (62), on prendra soin de mettre en commun de manière artificielle quelques images (typiquement 3) entre 2 régions adjacentes, ce qui permettra de déduire une homographie de transformation entre paire de régions adjacentes. L'homographie est appliquée à chaque clôture de région à la surface générée, de manière à l'intégrer au modèle global - Les indices locaux de validité sont calculés, puis advient la phase de visualisation. La figure 15 représente un exemple de calcul de trace optique par tracking des points d'intérêt. Les points d'intérêt de l'image en cours y sont représentés par des carrés verts (63), 20 25 30 alors que les traits rouges représentent les positions de ces points d'intérêt dans les images précédentes. La recherche des traces optiques de points 3D remarquables se fait par recherche de points d'intérêt sur toutes les images 2D acquises, puis par recherche des correspondances entre les points d'intérêt de différentes images. Plusieurs schémas sont possibles : - Tracking optique d'angles : L'idée générale est de calculer des points remarquables (angles) sur une image, puis de « suivre » (tracking) ces points sur les images suivantes sans avoir à les redétecter. La phase de tracking se poursuit tant qu'un certain pourcentage de points remarquables de la première image est encore détectable (typiquement 70%) ; en-deçà de ce seuil, une nouvelle phase de détection de points remarquables est menée sur l'image suivante. La détection d'angles se fait en calculant pour tout pixel (x,y) la matrice 2*2 c= ~al-\z (al` 'al' w~âx, ax, ~aY, ,ale ,al` ,al~z w ~ax, ~aY) w ~aY) , où I désigne l'intensité en (x,y) de l'image et W un voisinage de (x,y). Soit al et a2 les 2 valeurs propres de cette matrice ; si ces 2 valeurs sont supérieures à un certain seuil (typiquement 0,15), le point est considéré comme un point remarquable. Pour le tracking, on recherche, entre 2 images i et i+l et 25 pour chaque point remarquable, le déplacement d=(d.,dy) qui minimise 1(1i(x~y) -1. 1+1 (x+ dxly + dy»2 Ce w déplacement est calculé par d=C-l.(b, avec C la matrice 2*2 précédemment évoquée et b=1L `Ii ~x, y~ - Il+i ~x, y» - Il ~x, y~ W ~I t (x, Y) - 1,+I (x, Y) - I +~ (x, Y) Cette technique de tracking optique étant fiable sur de petits déplacements, on palie aux éventualités de grands déplacements en calculant séquentiellement le déplacement d sur une pyramide d'images (d'une version très subsamplée des images jusqu'à la résolution initiale).
Les techniques ci-dessus se basent sur l'hypothèse implicite que le flux d'images est cohérent, i.e. le déplacement entre 2 images successives est faible, et 2 images successives sont de qualité suffisante pour que l'on retrouve une quantité satisfaisante de points en correspondance (au moins 30). En ce qui concerne le déplacement entre 2 images, l'acquisition des images est à une fréquence classique de flux vidéo. On peut donc s'attendre à un déplacement très faible entre 2 images. Pour un déplacement plus conséquent qui entraînerait une impossibilité de trouver des points correspondants avec les images précédentes, on pourra générer une nouvelle région. Pour ce qui est de la qualité insuffisante d'une image (dans l'éventualité d'une image floue par exemple), la phase de mise en correspondance joue le rôle de filtre puisqu'il est clair que très peu de points correspondants seront retrouvés. L'image sera alors stockée sans être traitée, et on attendra l'image suivante qui aura un nombre suffisant de points correspondants. - Points invariants + mise en correspondance aux moindres carrés : Les points d'intérêt sont recherchés sur les images 2D par des techniques bien connues, qui recherchent des points restant invariant par changement d'échelle et d'illumination. Ces techniques présentent l'avantage de pouvoir calculer des descripteurs morphologiques pour chaque point d'intérêt. La mise en correspondance entre points d'intérêt pour une paire d'images donnée est effectuée en recherchant, pour tout point d'intérêt xil de l'image 1, le point d'intérêt xi2 de l'image 2 minimisant la distance à xil aux moindres carrés en termes de descripteurs. Pour éviter les fausses correspondances ou les outliers, on calculera au préalable la matrice fondamentale F entre les images 1 et 2 (qui lie les couples de points d'intérêt par la relation xi1.F.xi2t =0 Si, pour un couple de points d'intérêt xi]. et xi2 potentiellement correspondants aux moindres carrés, le produit xil . F . xi2t est supérieur à 10-5, ce couple est alors rejeté. La recherche de trace optique se fait alors par transition lors de l'acquisition d'une nouvelle image. Lorsqu'on acquiert l'image I;, on suppose que le calcul de trace optique a été effectué pour toutes les images précédentes I1 ... I;_1. On calcule alors les points d'intérêt de I;, que l'on met en correspondance avec l'image I;_l.On complète alors les traces optiques par transition en remarquant que si xi; est en correspondance avec xi;_1 et si xi;_1 est en correspondance avec xi;-2, alors xi; est en correspondance avec xi;-2. - Forts gradients + mise en correspondance par corrélation : On considère comme points d'intérêt d'une image l'ensemble des points où les variations d'intensité sont importantes. En pratique, on calcule pour chaque point de l'image considérée l'écart-type des intensités dans un voisinage de 20*20 pixels autour de ce point. Si l'écart-type est supérieur à un certain seuil (typiquement de l'ordre de 10, pour des intensités codées sur 8 bits), le point est alors considéré comme point d'intérêt. La recherche de correspondances entre 2 images au niveau de leurs points d'intérêt se fait par une technique de corrélation par exemple et ceci n'est pas limitatif, de type Médicis (brevets français déposés le 29.03.2005 EP1756771 (B0453) et EP0600128 (BO471)). La figure 16 montre trois étapes simplifiées de l'algorithme de reconstruction 3D temps réel. La reproduction (65) est une des images 2D de l'acquisition à reconstruire. La reproduction (66) représente le nuage de points généré par un des algorithmes de calcul du nuage de points 3D. La reproduction (67) montre la reconstruction 3D partielle calculée à partir de la reproduction (66) grâce à l'algorithme d'interpolation de nuage de points, de polygonalisation et de texturation détaillé ci-dessous. La modélisation 3D suit trois étapes. Dans la première étape, le nuage de points 3D obtenu par traitement des traces optiques est densifié grâce au calcul d'une fonction implicite f d'interpolation. Grâce à cette fonction implicite, la surface 3D interpolant les points est polygonalisée par la méthode par exemple et ceci n'est pas limitatif, de type Bloomenthal. Enfin, chaque polygone est texturé de manière très simple : par projection des points 3D délimitant le polygone sur les images ayant généré ces points, on délimite une zone polygonale sur ces images. On moyenne alors la texture sur ces zones polygonales, et on l'attribue au polygone. La principale difficulté réside dans l'algorithme utilisé pour l'interpolation et le calcul de la fonction implicite. Cet algorithme est adapté de manière optimale à notre utilisation, car il permet une interpolation en temps réel et, contrairement aux autres techniques d'interpolation, il permet une interpolation dense à partir d'un nuage initial très épars, ce qui est très souvent le cas quand on travaille avec des objets avec peu de texture comme les dents. Nous expliquons ci-dessous l'interpolation générique à la base de cet algorithme, puis son utilisation en pratique dans un schéma multi-échelles : - Interpolation générique : Soit Pi les points du nuage 3D (après estimation de la normale n en ces points), nous allons rechercher la fonction implicite f:R2-*R, basée sur des RadialBasis Functions (RBF) telle que les points X appartenant à la surface soient ceux pour lesquels f(X)=0. On choisit f telle que : f (-x) = [gi (.x) + ~i ] - 06 V l x pi II / avec pieP 06(x)= x ~, 0(x) = (1- r)4 + (4r +1) ~6j Les inconnues à déterminer pour expliciter f sont donc les gi et les Xi.
Estimation des gi : Considérons le point Pi et sa normale 12., choisissons un système (u,v,w) tel que u et v soient perpendiculaires à la normale et w pointe dans la direction de la normale. Soit h une fonction de la forme h(u,v) =Aue+Buv+Cv2 , on cherche en pi les coefficients A, B et C de manière à minimiser la quantité suivante 10, pti - p.)-(w, -h(ui,vi»2 . On calcule alors gi (x) par meP gi(x)=w-h(u,v) . Estimation des ai : Sachant que f (P) = OVP, , on peut estimer les ai par une simple résolution de système linéaire. - Interpolation multi-échelles : L'interpolation générique est en fait menée sur des sous ensembles de points pour améliorer grandement la précision de l'interpolation. On construit tout d'abord un ensemble {Po,"", Pk 1 de la manière suivante : l'ensemble Po est un parallélépipède englobant l'ensemble des points Pi. Entre 2 niveaux successifs k-1 et k, on effectue une subdivision de parallélépipèdes en 8 petits parallélépipèdes.
La fonction f est calculée par une procédure itérative. On part de f°=-1, puis on itère sur les ensembles Pl, en mettant à jour f : f k (x) = f k-1 (x) + O k (x), O k (x) - 1 (g k (x) + 2ki ) p k 1Pi E Pk Les gk sont déterminés comme décrit précédemment sur l'ensemble Pi,, et les ai sont calculés en résolvant le système fk «14' )+ok(14' )=0. 6k Les 6k sont mis à jour de telle sorte que 6k+i =- , et le 2
nombre de niveaux à construire est défini par M = -loge La figure 17 représente les 2 étapes de rehaussement de
précision : - Calcul global de la géométrie (68): Contrairement à toutes les techniques de reconstruction 3D temps réel présentée précédemment, on utilise à la fin de l'acquisition une réestimation des positions spatiales des caméras et des points 3D en se basant non plus sur quelques images (nombre fixe d'images si stratégie séquentielle, région si stratégie subséquentielle), mais sur toutes les images de l'acquisition.
On utilise pour cela un algorithme de type Sparse Bundle Adjustment, avec comme estimation initiale les positions des points 3D et les matrices de projection des caméras tels qu'ils étaient à la fin de l'acquisition. Le nuage de points est enfin densifié par l'algorithme d'interpolation évoqué précédemment. - Space carving (69): Une fois le nuage de point 3D global recalculé, la reconstruction 3D globale consiste en une triangulation de Delaunay du nuage. Cette triangulation fournit un ensemble de polygones bien trop dense, ne tenant pas compte de la visibilité des points. Pour segmenter ce modèle et en extraire seulement l'information visible, on effectue une segmentation de type graph cut en
visant à minimiser l'énergie E=visibilité + photoconsistence + surface, avec : o Visibilité : pour chaque tétraèdre du modèle, on sait depuis quelles caméras il a été reconstruit. Il est donc visible depuis cette caméra et aucun autre tétraèdre ne doit se trouver entre lui et la caméra. Ainsi, pour chaque tétraèdre, le terme de visibilité comptabilise le nombre de tétraèdres entre lui et la caméra. o Photoconsistence : Soit p(T) une mesure de photoconsistence pour un triangle T de la reconstruction. (Classiquement, on peut prendre la moyenne des différences entre la texture de ce triangle les textures des points 2D dont ses sommets sont issus). Le terme d'énergie de photoconsistance à minimiser est égal à Ephoto = p(T) - aire(T) . Dans le care T de la minimisation par graph cut, on minimisera en rajoutant au graphe, pour toute paire de tétraèdres partageant un triangle T, deux noeuds p et q avec une arête de poids Wpq = p(T) . o Aire : on cherche à avoir une surface avec une aire la plus faible possible. On minimisera en rajoutant au graphe, pour toute paire de tétraèdres partageant 20 un triangle T, deux noeuds p et q avec une arête de poids Wpq =aire(T) . La manipulation d'un tel système est extrêmement simple car ses caractéristiques sont réputées fixes et non modifiables par l'opérateur à l'exception du type d'éclairage sélectionné, 25 encore que cette fonction peut être pilotée par une succession d'actions automatiques conduisant au diagnostic désiré. Pour ce faire, l'opérateur (dentiste, prothésiste ou médecin) dispose d'un ordinateur lui indiquant les opérations que peut exécuter la caméra et lui permettant de faire le choix entre une fonction 30 et une autre. Tout ou partie du traitement peut se faire au niveau des cartes incluses dans la caméra le reste du traitement pouvant être éventuellement exécuté par un système générique (portable ou 10 15 ordinateur de bureau standard) ou un système spécifique comportant des cartes spécialement dédiées à l'application de traitement, de transmission et de visualisation des données. Ainsi en fonction "mesure", après avoir sélectionné ce mode d'action, l'opérateur lance la mesure, à l'aide d'un bouton situé sur la caméra, ou d'une pédale en communication avec l'ordinateur, la caméra ou au boîtier intermédiaire, après avoir positionné la caméra sur la zone à mesurer et l'arrête lorsqu'il jugera avoir assez d'informations. Pour cela il cesse la pression ou appuie une deuxième fois. La caméra est, dans ce cas de prises de vues en bouche ou sur un modèle en plâtre, déplacée sur l'arcade afin de collecter les informations 2D, x et y, en couleur sur chacun du (des) capteur(s) qui peuvent être des CCD/Cmos avec ou sans des accéléromètres. Le traitement software permet de calculer en temps quasi réel, les coordonnées 3D (x, y et z) et la couleur de chacun des points mesurés en x et y. Nous obtenons un fichier 3D d'une arcade partielle ou complète en couleur.
Les prises d'images successives, véritable film de la zone à mesurer, permettent un relevé complet des informations nécessaires aux traitements numériques de l'ensemble ou d'une partie de l'objet mesuré en vestibulaire, en lingual et en proximal. Un léger battement lumineux permet d'indiquer à l'opérateur les prises de vues successives. La connaissance de l'ensemble des points de la totalité des surfaces des deux arcades mesurées permet aussi l'opérateur de reprendre certaines zones insuffisamment précises. Ces zones sont identifiées automatiquement par le logiciel par différents systèmes temps réel comme par exemple l'existence d'absence d'information sur des nuages de point (détection large) ou l'existence de points aberrant par rapport à leur voisinage immédiat (détection locale). Cette même détection peut se faire au niveau des courbes de modélisation (Nurbs, radial basis functions, ondelettes ....) . Ces zones seront marquées par une couleur ou autre procédé capable d'attirer l'attention du clinicien. Celui-ci reprendra la caméra et la reconnaissance des nouveaux points par rapport aux points connus permettra de compléter les espaces ou zones imprécises. Cette opération peut être facilitée par une numérotation des zones à relire, un ordre de lecture à suivre, et/ou la présence d'un accéléromètre 3D.
Ces données subissent d'une part une conversion analogique numérique et d'autre part et éventuellement sont traitées sous la forme d'un signal vidéo directement utilisable, en temps réel, par les écrans traditionnels. Le fait d'avoir une image colorée permet aussi à l'opérateur de disposer d'analyse automatique des zones dentaires (blanches en général) et gingivales (rouges en général) ce qui est impossible dans les méthodes actuelles utilisant les projections par lumières structurées. De même par le positionnement d'index de couleurs connues il a la possibilité de faire des analyses discriminatives pour la reconnaissance d'objets dans l'image mais aussi leur position (têtes d'implants ou de tenons, brackets d'orthodontie...) ou encore pour faciliter la corrélation des vues (repères, tracés colorés sur l'objet ou couleurs sélectives comme les fonds de sillons ...) Cette discrimination a un autre avantage au niveau du software. Très souvent les méthodes actuelles ne disposant pas de l'analyse couleur du fait de la projection de lumière structurée, présente des surfaces dites « non connexes » gênant voir empêchant la corrélation automatique des vues. Elles obligent à un nettoyage manuel des vues, opération longue et coûteuse. Le fait de pouvoir différentier la gencive (rouge) des dents (blanche) permettra d'écarter les zones non-connexes en s'appuyant sur l'information couleur. Ainsi dans une surface d'analyse des préparations des dents, toutes les zones non connexes rouges seront automatiquement supprimées. Enfin dans la fonction mesure de notre invention, la précision élevée de 10 pm n'est pas toujours nécessaire et celle du champ large est quelque fois suffisante (20 pm). En dentisterie, le praticien qui souhaite faire un diagnostic ou une empreinte dans le but de réaliser une prothèse ou un implant a besoin de deux types d'approche, l'une rapide lui donnant seulement les informations nécessaires (en terme de surface mesurée et de précision apportée) et l'autre complète et précise. Par exemple la réalisation d'une couronne sur une molaire mandibulaire est réalisable par CFAO dentaire si l'empreinte optique de la zone de préparation est précise, complète et soignée si l'empreinte optique des dents antagonistes donne au moins les mesures des points de contacts (cuspides, sillons) et des formes d'arcades ce qui ne nécessite pas la même attention. De même une empreinte pour un appareil de redressement des dents (orthodontie) ne nécessitera pas autant de précision que celle se rapportant à la réalisation d'un bridge céramique sur des têtes d'implants.
Eventuellement et avantageusement, la présente invention permet de sélectionner indépendamment l'une ou l'autre des précisions, champ large ou champ étroit, grâce au software mis en oeuvre dans le traitement d'image (figure lb). Il est possible de construire rapidement des surfaces de grandes étendues en couleur ou, au contraire, construire en haute précision des zones étroites, en ne mettant en fonction que l'un ou l'autre des capteurs, préférentiellement associé à l'accéléromètre qui aura pour fonction de se substituer au capteur inactivé. Cette substitution n'est pas nécessaire mais représente un complément garantissant la précision de la corrélation des vues. Dans la fonction appelée « diagnostic » il sélectionne sur l'ordinateur le type de diagnostic désiré, par exemple mélanome, et la caméra lancera un balayage de longueur d'onde correspondant à la mise en évidence des zones intéressant les longueurs d'onde présélectionnées et présentes sur une image 3D.
En plus de cela, et grâce à l'analyse 3D de l'objet, le recouvrement des mesures dans le temps permettra de mieux suivre l'évolution de la dite pathologie. Il est en effet admis par les professionnels que l'étude d'une image suspecte peut être faite en 2D mais c'est surtout l'évolution de son volume et de sa couleur qui sert de référence au suivi dans le temps de sa dangerosité. Le fait de disposer d'un volume référé à un centre mathématique (comme par exemple le barye centre) permet de superposer les images sur un centre dépendant de l'objet et non pas de l'observateur afin d'en apprécier objectivement l'évolution du volume, l'analyse de la couleur venant se reporter sur une forme 3D, ce qui n'est pas le cas aujourd'hui des méthodes pratiquées sur des surfaces 2D ou celles utilisant des lumières ou les ondes structurées (CCT, scanner ou IRM).
De même, grâce à la visualisation 3D en couleur de notre invention et en sélectionnant la fonction « analyse de couleur », l'analyse de la teinte des dents sera reportée sur leurs volumes mesurés. Cette mesure sera faite par colorimétrie à l'aide de 3 ou des 4 couleurs LED de base (RGB). Le fait de pouvoir disposer de différentes couleurs de LED donc de plusieurs longueurs d'onde nous pouvons nous rapprocher d'un spectre continu, sans risquer de troubler une lumière active structurée. Nous aurons une analyse spectro colorimétrique indépendante du méta-mérisme.
Avantageusement, et selon l'invention, les LEDs peuvent jouer aussi un rôle important dans la corrélation des vues successives (figure 12) (85). En effet nous savons qu'il existe des méthodes basant les corrélations des vues sur des repères posés dans l'environnement mesuré ou utilisant la similitude retrouvée dans le nuage lui-même, voir même travaillant sur les flous de rebord de vues. Tous ces systèmes sont complexes car ils obligent soit à poser des repères sphériques dans la zone, opération complexe sur le plan clinique, ou à repérer des zones souvent sans relief ou avec un état de surface trop régulier. Le fait de balayer avec des LEDs de longueurs d'onde connues avec une imagerie 3D en couleur permet de simplifier et d'automatiser cette procédure. En effet un simple tracé coloré ou le collage d'une marque peut être repéré et visualisé automatiquement si nous avons pris soin d'utiliser un marquage ou un repérage utilisant une couleur complémentaire, identique additive ou soustractive de la longueur d'onde d'une (ou plusieurs)des LED (79) de balayage. Le repérage sera donc fait par une simple mise en valeur chromatique du repère quel qu'il soit. Ce repérage, qui est toujours dans une même position sur l'objet quel que soit l'angle ou le zoom de nos empreintes optique servira de référence de corrélation. Avantageusement et selon le même principe dans notre invention, il sera possible de suivre les mouvements mandibulaires en plaçant notre caméra dans la zone vestibulaire des mâchoires de la bouche. Nous traçons sur la maxillaire supérieur et sur le maxillaire inférieur des traits de couleur rouge, et ceci n'est qu'un exemple non limitatif, puis nous filmons les mouvements de ces deux maxillaires, en vue vestibulaire, du point de départ jusqu'à la fin du mouvement. La caméra prend des vues où un nuage de points se déplace (le maxillaire inférieur) par rapport à l'autre nuage de points (le maxillaire supérieur considéré par principe immobile). Le fait que notre marquage appartienne, de manière indépendante, à chacun des maxillaires, notre système ne suivra que le déplacement des marquages colorés, mis en valeur au moment de l'éclairement de la LED rouge (dans notre exemple et ceci n'est qu'un exemple). Ce même marquage existant au moment de l'empreinte optique faite séparément du maxillaire supérieur et du maxillaire inférieur, le logiciel de corrélation utilisera ce repérage coloré non seulement pour corréler les images de chacun des maxillaires mais aussi pour visualiser les mouvements en fonction de la quatrième dimension, le temps. Cette opération peut être réalisée sans l'utilisation de marqueur mais seulement grâce à la reconnaissance du nuage de 35 points communs aux maxillaires supérieurs et inférieurs.
Il est possible aussi de mesurer la position en occlusion et le déplacement d'une arcade par rapport à l'autre. Pour ce faire la caméra est positionnée latéralement dents serrées afin de relever les coordonnées des points visibles sur les deux arcades, généralement situés sur les faces vestibulaires des dents. Les points relevés sur les vues vestibulaires étant communs aux vues individuelles de chacune des arcades, il est possible de corréler l'ensemble des points des deux arcades prises individuellement et de disposer ainsi de l'ensemble des points en occlusion, y compris les zones inaccessibles dans la vue vestibulaire dents serrées. Nous avons alors trois types de fichier de points, le fichier de l'arcade supérieures, celui de l'arcade inférieures et celui des 15 deux arcades en occlusion appelée occlusion statique. Si nous positionnons la caméra en vue vestibulaire dents serrées et que nous demandons au patient de déplacer ses dents, nous aurons un quatrième fichier correspondant au déplacement dans le temps de l'arcade supérieure par rapport à l'arcade inférieure. 20 Il suffit de suivre dans le temps, le déplacement des points reconnus dans la vue vestibulaire. Cela donnera l'information des mouvements dynamiques d'occlusion. Cette même opération peut être faire à l'aide d'un occluseur ou d'un articulateur de laboratoire. La caméra suivra le 25 déplacement des points vestibulaires relevés sur les modèles en plâtre installés sur l'articulateur. Partant de cette analyse statique de l'occlusion, il est possible de positionner nos modèles virtuels dans un articulateur virtuel tel que présenté à Chambéry en 1985 et de 30 suivre des mouvements dynamiques en réglant les données essentielles que sont la pente condylienne, l'angle de Bennett ou autres informations essentielles données par un arc facial. Avantageusement, nous pouvons utiliser les points issus de l'analyse 3D provenant de notre invention positionner correctement le modèle virtuel sur l'articulateur virtuel et/ou nous pourrons utiliser les points de repérage tels que définis dans notre brevet EP 0.373.077 ou notre demande de brevet EP 93.913173.6.
Partant de cette mesure d'occlusion statique et dynamique nous pouvons utiliser le procédé décrit dans notre brevet EP 0.369.908 (US 5.143.086) « dispositif de mesure et d'analyse de mouvements du corps humain ou de partie de celui-ci». Cela nous permettra de disposer de toutes les informations cliniques nécessaires à une bonne analyse de l'occlusion du patient. De même et avantageusement dans notre invention, ce même principe de l'intervention du temps dans le suivi des mouvements sera appliqué pour la mesure de la pression sur les pathologies que l'on peut trouver dans la bouche. Nous savons en effet qu'une pathologie peut être, entre autre, identifiée par sa réaction à la pression (retour plus ou moins rapide à sa position d'origine). En suivant dans le temps la réaction "physique" de l'empreinte optique de notre excroissance, nous pourrons aider au diagnostic. Nous avons d'ailleurs pris soin, comme visible dans le dessin 6a (69) de laisser le passage d'un instrument pour effectuer cette action sans que cela soit une obligation bien entendu. La lumière n'a pour but que d'éclairer la scène afin de favoriser le rapport signal sur bruit. En effet il serait possible de pratiquer une mesure sans lumière éclairant la surface mesurée mais le fait de travailler dans des zones sombres comme l'intérieur de la bouche rend nécessaire un éclairage d'ambiance choisi le plus près possible de la lumière du jour, ou en utilisant une lumière dont on connait les caractéristiques spectrales, afin que les rendus de couleurs soient analysables afin qu'en soient extraites les données caractéristiques des tissus analysés.
Cette lumière non structurée permet aussi, comme nous l'avions dit, de travailler avec l'éclairage du cabinet ou du laboratoire. De même, comme nous le voyons, en sélectionnant certaines longueurs d'onde émises par les LEDs présentes autour de la fenêtre de lecture et en augmentant leurs fréquences ou/et leurs intensités, nous pouvons reporter sur une image 3D la visualisation de certaines anatomies ou pathologies se situant à faible profondeur. La connaissance du volume nous donne une indication du positionnement de cette limite pathologique nous permettant d'en prévoir et d'en visualiser l'évolution. Il en est ainsi des réactions de fluorescence de certains tissus aux rayonnements bleus ou W. La fluorescence apparaît non seulement sur la surface mais dans la profondeur de la pathologie nous permettant d'apporter une aide à la thérapeutique à appliquer (exérèse des tissus pathologiques). Connaissant la pénétration de tel ou tel rayonnement, il nous est possible d'en apprécier l'importance et la profondeur par rapport à la surface réelle 3D analysée.
Enfin, et ceci n'est pas limitatif, le fait de disposer de deux images 2D pour construire l'image 3D nous permet, en temps réel, de basculer notre vision sans modification de la caméra à des visualisations 2D couleurs comme l'ensemble des caméras disponibles sur le marché de la dentisterie aujourd'hui. Notre caméra permet donc, du fait qu'elle n'utilise pas de projection de lumières structurées, d'effectuer toutes les fonctions connues aujourd'hui incluant les effets zoom, mais aussi les applications de diagnostics couleurs sur des images 2D comme les détections de caries par fluorescence dans les verts, bleus ou W ( de 500 à 300 nm) ou les visualisations dans les rayonnements rouges et IR (de 600 à 900 nm), suivant les LEDs que nous aurons émulées dans l'analyse. Avantageusement, et ceci reste un point très intéressant de notre invention, il est possible de travailler en 2D couleur à partir de vues 3D. Ceci peut se faire de deux manières différentes: - Comme nous utilisons une lumière du jour (79), sans projection de trames ou autres lumières structurées, l'écran de visualisation (5) dans notre démarche de contrôle durant les prises de vues (78), nous permet d'utiliser cette caméra d'empreinte optique comme une simple caméra 2D limitant significativement le coût d'investissement des praticiens. - nous pouvons aussi effectuer cette visualisation 2D, après traitement numérique et mise en évidence des zones pathologiques mises en valeur par le balayage des LEDs de longueurs d'onde spécifiques. Cette technique n'est évidemment possible qu'à partir d'images 3D. Ce même effet zoom en image couleur ou les émulations pourront être faites sur les images 3D. Il va de soi que le passage de la couleur au niveau de gris ne sera qu'une fonction offset présente dans les logiciels pilotant les traitements d'images issus du fonctionnement de la caméra. Il ressort de la description qui précède que la présente invention, répond parfaitement aux problèmes posés, en ce sens , qu'elle apporte une réelle réponse pour l'optimisation de la lecture 3D dentaire en couleur et dynamique (dans le temps) et l'analyse pathologique des pathologies de la peau à des coûts particulièrement bas dus à un concept pouvant être figé durant la phase de fabrication. I1 ressort aussi de cette description, qu'elle permet, de résoudre les problèmes fondamentaux, comme le contrôle de l'acte clinique, ce d'autant qu'aucune méthode alternative n'a été proposée. Il va de soi que l'invention ne se limite pas au seul mode de mise en oeuvre de ce procédé, ni aux seules formes d'exécution de dispositif pour la mise en oeuvre de ce procédé, écrites ci-dessus à titre d'exemple. Elle embrasse, au contraire, toutes les variantes de mises en oeuvre et de réalisations. C'est ainsi, notamment, qu'il est possible de mesurer les pathologies buccales qu'elles intéressent les tissus durs et les tissus mous.

Claims (16)

  1. REVENDICATIONS1) Dispositif de mesure tridimensionnelle utilisé dans le domaine dentaire et destiné à la prise de mesure en absence de projection de lumière active ou structurée, comprenant des moyens de capture d'images ainsi que des moyens de traitement informatique desdites images, caractérisé en ce que lesdits moyens de capture d'images (38, 39) consistent en des moyens conçus aptes à permettre de capturer simultanément, ou quasi simultanément, au moins deux images dont l'une est incluse totalement ou partiellement dans l'autre, ladite image incluse décrivant un champ plus étroit que celui de l'autre, et étant d'une plus grande précision que celle de l'autre.
  2. 2) Dispositif de mesure tridimensionnelle selon la revendication 1, caractérisé en ce que les moyens de capture d'images consistent en au moins deux capteurs électroniques d'image dont l'un (38) visionne un champ large en précision moyenne et l'autre (39) un champ plus étroit avec une plus grande précision inclus totalement ou partiellement dans ledit champ large, lesdits capteurs étant associés à des systèmes optiques.
  3. 3) Dispositif de mesure tridimensionnelle selon la revendication 2, caractérisé en ce que les systèmes optiques associés aux capteurs, ont des focales différentes pour permettre deux niveaux de précisions différentes.
  4. 4) Dispositif de mesure tridimensionnelle selon la revendication 3, caractérisé en ce que les capteurs électroniques consistent en des capteurs de type CCD ou Cmos couleurs ou monochromatique.
  5. 5) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 4, caractérisé en ce qu'il 30 comporte en outre un accéléromètre/gyromètre/ magnétomètre 3D(52) apte à donner une information générale et continue de la position spatiale des moyens de capture d'images.
  6. 6) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu'il comporte : une unité centrale de gestion et de conversion des données analogique/digitale, - une transmission des données par câble, téléphone ou Wifi, - un système hardware de traitement complémentaire, de 10 dialogue/visualisation avec l'opérateur, de transmission et de stockage des données - une carte d'alimentation capable de fonctionner sous USE ou sous batterie (par exemple AC/DC).
  7. 7) Dispositif de mesure tridimensionnelle selon l'une 15 quelconque des revendications 1 à 6, caractérisé en ce qu'il comporte un éclairage passif et non structuré à LEDs de une ou plusieurs longueurs d'onde permettant de mesurer des surfaces régulières spéculaires ou lambertiennes, et ayant une lumière non structurée mais aux caractéristiques précises en termes de 20 pureté (cohérente ou non), d'espèce (couleur) et d'intensité (puissance) pour la fonction diagnostic sur une image 3D, reportées sur les surfaces 3D.
  8. 8) Dispositif de mesure tridimensionnelle selon la revendication 7, caractérisé en ce que les LEDs sont d'une 25 longueur d'onde prédéfinie.
  9. 9) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 2 à 8, caractérisé en ce que l'un des capteurs est conçu apte à indiquer l'information générale de profondeur de champ, afin que la focale de l'autre capteur soit 30 pré positionnée dans une zone proche de la réalité analysée par le premier capteur.
  10. 10) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 9, caractérisé en ce que le moyen de capture d'images dans le champ le plus étroit et de 35 plus grande précision, est associé à un moyen de déplacement luipermettant de balayer rapidement tout le champ couvert par l'autre moyen de capture.
  11. 11) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 10, caractérisé en ce que le moyen de capture d'images dans le champ le plus étroit et de plus grande précision est associé à un zoom variable.
  12. 12) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 11, caractérisé en ce qu'il comporte des moyens de projection d'au moins un cercle de lumière colorée entourant le champ de l'image incluse, et/ou le champ de l'autre image.
  13. 13) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 12, caractérisé en ce qu'il comporte un système de flash à LED avec pulsation très rapide.
  14. 14) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 13, caractérisé en ce que les systèmes optiques comportent des lentilles de type liquide.
  15. 15) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 13, caractérisé en ce que les systèmes optiques comportent des lentilles en verre ou verre/plastique moulé avec pupille sur la face d'entrée, associées à un micro moteur pour l'ajustage de la profondeur de champ.
  16. 16) Dispositif de mesure tridimensionnelle selon l'une quelconque des revendications 1 à 13, caractérisé en ce que les systèmes optiques comportent des lentilles thermoplastiques dites « free-form » composées d'un sommet plat entouré de facettes asymétriques.
FR1156201A 2011-07-08 2011-07-08 Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire Active FR2977469B1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR1156201A FR2977469B1 (fr) 2011-07-08 2011-07-08 Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire
JP2014517983A JP6223331B2 (ja) 2011-07-08 2012-07-09 歯科分野で使用される三次元測定デバイス
EP12784318.3A EP2729048B1 (fr) 2011-07-08 2012-07-09 Dispositif de mesure en trois dimensions utilisé dans le domaine dentaire
US14/131,269 US20140146142A1 (en) 2011-07-08 2012-07-09 Three-dimensional measuring device used in the dental field
CN201280043771.8A CN104349710A (zh) 2011-07-08 2012-07-09 牙科用三维测量设备
PCT/IB2012/001777 WO2013008097A1 (fr) 2011-07-08 2012-07-09 Dispositif de mesure en trois dimensions utilisé dans le domaine dentaire
IL230371A IL230371A (en) 2011-07-08 2014-01-08 Three-dimensional measuring device for use in dentistry

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1156201A FR2977469B1 (fr) 2011-07-08 2011-07-08 Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire

Publications (2)

Publication Number Publication Date
FR2977469A1 true FR2977469A1 (fr) 2013-01-11
FR2977469B1 FR2977469B1 (fr) 2013-08-02

Family

ID=47172819

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1156201A Active FR2977469B1 (fr) 2011-07-08 2011-07-08 Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire

Country Status (7)

Country Link
US (1) US20140146142A1 (fr)
EP (1) EP2729048B1 (fr)
JP (1) JP6223331B2 (fr)
CN (1) CN104349710A (fr)
FR (1) FR2977469B1 (fr)
IL (1) IL230371A (fr)
WO (1) WO2013008097A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013167555A1 (fr) * 2012-05-07 2013-11-14 Sirona Dental Systems Gmbh Procédé de relevé d'une situation dentaire
US20210361387A1 (en) * 2017-06-09 2021-11-25 Dental Monitoring Method of evaluating an orthodontic appliance

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011077564B4 (de) 2011-06-15 2016-08-25 Sirona Dental Systems Gmbh Verfahren zur optischen dreidimensionalen Vermessung eines dentalen Objekts
KR102241837B1 (ko) 2013-02-13 2021-04-19 쓰리세이프 에이/에스 컬러를 기록하는 포커스 스캐닝 장치
CN104814712A (zh) * 2013-11-07 2015-08-05 南京三维视嘉科技发展有限公司 三维内窥镜及三维成像方法
US9478043B2 (en) * 2014-01-29 2016-10-25 Abdullaibrahim Abdulwaheed Measuring teeth whiteness system and method
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
FR3021518A1 (fr) * 2014-05-27 2015-12-04 Francois Duret Dispositif de visualisation pour faciliter la mesure et le diagnostic 3d par empreinte optique en dentisterie
CN104104909A (zh) * 2014-06-10 2014-10-15 广西小草信息产业有限责任公司 一种监控装置
CH709747A1 (de) * 2014-06-11 2015-12-15 Quarz Partners Ag Verfahren und Vorrichtung zum dreidimensionalen Ausmessen von Zahnreihen.
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
US9629698B2 (en) * 2014-11-04 2017-04-25 James R. Glidewell Dental Ceramics, Inc. Method and apparatus for generation of 3D models with applications in dental restoration design
US9844426B2 (en) 2015-03-12 2017-12-19 Align Technology, Inc. Digital dental tray
DE102015206341A1 (de) * 2015-04-09 2016-10-13 Sirona Dental Systems Gmbh Verfahren und ein Vermessungssystem zur optischen Vermessung eines Objekts
CN104720915B (zh) * 2015-04-13 2017-03-08 吉林大学 一种检测滑杆作用于牙槽嵴黏膜处产生黏膜形变量方法
JP6366546B2 (ja) * 2015-07-13 2018-08-01 株式会社モリタ製作所 口腔内三次元計測装置、口腔内三次元計測方法及び口腔内三次元計測結果の表示方法
CN105125160B (zh) * 2015-08-27 2017-01-18 李翔 一种口腔内窥镜检测***及其检测方法
JP6847404B2 (ja) * 2015-12-24 2021-03-24 株式会社モリタ製作所 三次元計測方法及び三次元計測装置
EP3410919B1 (fr) * 2016-02-01 2023-12-06 Martin, Marco Dispositif d'imagerie dentaire et procédé d'enregistrement d'impressions photographiques
JP6378793B2 (ja) * 2016-05-10 2018-08-22 正樹 神原 歯肉診断支援装置および歯肉診断支援システム
US10238277B2 (en) 2016-05-26 2019-03-26 Dental Smartmirror, Inc. Curing dental material using lights affixed to an intraoral mirror, and applications thereof
US10129448B2 (en) * 2016-07-20 2018-11-13 Dental Imaging Technologies Corporation Optical coherence tomography imaging system
DE102016213399A1 (de) * 2016-07-21 2018-01-25 Sirona Dental Systems Gmbh Vermessungssystem und Verfahren zur Vermessung einer Implantat-Implantat-Situation
CN208942463U (zh) * 2016-07-27 2019-06-07 阿莱恩技术有限公司 口内扫描***和口内扫描装置
US10507087B2 (en) 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
EP3509501A1 (fr) 2016-09-10 2019-07-17 Ark Surgical Ltd. Dispositif d'espace de travail laparoscopique
US10299742B2 (en) * 2016-09-14 2019-05-28 Dental Imaging Technologies Corporation Multiple-dimension imaging sensor with fault condition detection
US10213180B2 (en) 2016-09-14 2019-02-26 Dental Imaging Technologies Corporation Multiple-dimension imaging sensor with operation based on magnetic field detection
US10932733B2 (en) 2016-09-14 2021-03-02 Dental Imaging Technologies Corporation Multiple-dimension imaging sensor with operation based on movement detection
CN106618466A (zh) * 2016-11-25 2017-05-10 宁波蓝野医疗器械有限公司 口腔内环境光学三维扫描***
CN106725920B (zh) * 2016-12-07 2019-11-08 上海牙典医疗器械有限公司 一种正畸矫治器的设计制作方法
ES2896305T3 (es) * 2017-03-09 2022-02-24 Deventiv Sp Z O O Dispositivo de escaneo intraoral, método de funcionamiento de un dispositivo de este tipo y sistema de escáner
CN107295227A (zh) 2017-05-27 2017-10-24 欧阳聪星 一种口腔内窥器
WO2018219157A1 (fr) * 2017-05-27 2018-12-06 欧阳聪星 Endoscope oral
EP3648703B1 (fr) 2017-07-04 2023-04-26 Dentlytec G.P.L. Ltd. Scanner dentaire avec élément capteur ultrasonique pour améliorer les données optiques
EP3658069B1 (fr) * 2017-07-26 2024-06-26 Dentlytec G.P.L. Ltd. Scanner intra-buccal
EP3668345A1 (fr) * 2017-08-17 2020-06-24 Trophy Pochoir pour balayage de surface intrabuccal
WO2019102480A1 (fr) 2017-11-26 2019-05-31 Dentlytec G.P.L. Ltd Brosse à dents suivie et système de suivi de brosse à dents
KR20200115580A (ko) 2018-01-26 2020-10-07 얼라인 테크널러지, 인크. 구강 내 진단 스캔 및 추적
EP3629337A1 (fr) * 2018-09-28 2020-04-01 Ivoclar Vivadent AG Rendu de modèles dentaires
US10835352B2 (en) * 2018-03-19 2020-11-17 3D Imaging and Simulation Corp. Americas Intraoral scanner and computing system for capturing images and generating three-dimensional models
CN112087985B (zh) * 2018-05-10 2023-05-02 3M创新有限公司 经由实时增强可视化的模拟正畸处理
US10547780B2 (en) 2018-05-14 2020-01-28 Abdul Abdulwaheed Body part color measurement detection and method
US10753734B2 (en) 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
JP6803876B2 (ja) * 2018-07-03 2020-12-23 株式会社モリタ製作所 口腔内三次元計測方法及びハンディスキャナ
JP7028086B2 (ja) * 2018-07-06 2022-03-02 日本製鉄株式会社 形状測定装置および形状測定方法
US11357389B1 (en) * 2018-11-20 2022-06-14 Yingjie Sun Sub-millimeter tuning focus apparatus for a medical device
KR102056910B1 (ko) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
CN109613183A (zh) * 2019-01-03 2019-04-12 北京英视睿达科技有限公司 低精度监测设备数据的修定方法及***
CN109907854A (zh) * 2019-03-07 2019-06-21 白广亮 一种牙体预备倒凹检测装置
US11367192B2 (en) * 2019-03-08 2022-06-21 Align Technology, Inc. Foreign object filtering for intraoral scanning
IT201900003379A1 (it) * 2019-03-08 2020-09-08 De Goetzen S R L Apparecchio e metodo per la creazione di immagini dentali
US11382517B2 (en) 2019-03-11 2022-07-12 D4D Technologies, Llc Intra-oral scanning device with integrated optical coherence tomography (OCT)
WO2020218560A1 (fr) * 2019-04-26 2020-10-29 株式会社カイ Dispositif d'analyse de position de dent, procédé de génération de modèle d'extraction de région de dent, procédé d'analyse de position de dent, programme, et support d'enregistrement
US11516395B2 (en) * 2019-07-11 2022-11-29 Mediatek Inc. Electronic apparatus with image stabilization
CN110763136B (zh) * 2019-07-31 2021-06-22 武汉理工大学 一种高精度三维工件尺寸检测***及方法
US20210137653A1 (en) * 2019-11-12 2021-05-13 Align Technology, Inc. Digital 3d models of dental arches with accurate arch width
JP7309628B2 (ja) 2020-01-15 2023-07-18 株式会社モリタ製作所 キャップ、撮像装置、データ生成システム、およびデータ生成方法
CN111700698B (zh) * 2020-05-14 2022-07-08 先临三维科技股份有限公司 齿科扫描方法、装置、***和计算机可读存储介质
US11445165B1 (en) * 2021-02-19 2022-09-13 Dentsply Sirona Inc. Method, system and computer readable storage media for visualizing a magnified dental treatment site
WO2024062326A1 (fr) * 2022-09-21 2024-03-28 Alcon Inc. Systèmes optiques à profil bas pour interventions chirurgicales

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636354A1 (de) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
WO1998011815A1 (fr) * 1996-09-17 1998-03-26 Kaiser Electro-Optics, Inc. Systeme de visualisation endoscopique a haute resolution a grand champ visuel
EP1600804A1 (fr) * 2004-05-27 2005-11-30 STM Medizintechnik Starnberg GmbH Dispositif visuel pour endoscopes
DE102008031054A1 (de) * 2008-01-14 2009-07-16 Kaltenbach & Voigt Gmbh Zahnärztliche Intraoralkamera
US20090227875A1 (en) * 2008-03-04 2009-09-10 Cao Group, Inc. Three-dimensional Imaging System
US20100165080A1 (en) * 2008-12-26 2010-07-01 Fujifilm Corporation Image capturing apparatus and endoscope
EP2213223A1 (fr) * 2009-01-28 2010-08-04 Panasonic Corporation Dispositif de mesure intra-orale et système de mesure intra-orale
DE102009026248A1 (de) * 2009-07-24 2011-01-27 Degudent Gmbh Generierung eines Gesamtdatensatzes

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575805A (en) 1980-12-24 1986-03-11 Moermann Werner H Method and apparatus for the fabrication of custom-shaped implants
FR2525103B1 (fr) 1982-04-14 1985-09-27 Duret Francois Dispositif de prise d'empreinte par des moyens optiques, notamment en vue de la realisation automatique de protheses
FR2536654B1 (fr) 1982-11-30 1987-01-09 Duret Francois Procede de realisation d'une prothese dentaire
US4663720A (en) 1984-02-21 1987-05-05 Francois Duret Method of and apparatus for making a prosthesis, especially a dental prosthesis
CH672722A5 (fr) 1986-06-24 1989-12-29 Marco Brandestini
FR2610821B1 (fr) 1987-02-13 1989-06-09 Hennson Int Procede de prise d'empreinte medicale et dispositif pour sa mise en oeuvre
FR2639211A1 (fr) 1988-11-18 1990-05-25 Hennson Int Procede de correlation des saisies tridimensionnelles d'organes humains et dispositif pour sa mise en oeuvre
FR2639212A1 (fr) 1988-11-18 1990-05-25 Hennson Int Dispositif de mesure et d'analyse de mouvements du corps humain ou de parties de celui-ci
FR2692773B3 (fr) 1992-06-26 1994-08-26 Diret Francois Dispositif de corrélation des saisies tridimensionnelles d'organes humains.
EP0600128A1 (fr) 1992-11-30 1994-06-08 En-Tech Research Institute Inc. Agent pour l'immobilization des déchets industriels
JPH095643A (ja) * 1995-06-26 1997-01-10 Matsushita Electric Ind Co Ltd 立体内視鏡装置
US6409504B1 (en) 1997-06-20 2002-06-25 Align Technology, Inc. Manipulating a digital dentition model to form models of individual dentition components
IL125659A (en) 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
FR2868168B1 (fr) 2004-03-26 2006-09-15 Cnes Epic Appariement fin d'images stereoscopiques et instrument dedie avec un faible coefficient stereoscopique
US7286954B2 (en) * 2005-03-03 2007-10-23 Cadent Ltd. System and method for scanning an intraoral cavity
US7372642B2 (en) 2006-02-13 2008-05-13 3M Innovative Properties Company Three-channel camera systems with non-collinear apertures
EP3085330B1 (fr) * 2006-10-27 2018-06-13 Nobel Biocare Services AG Procédé et appareil pour obtenir des données d'un composant dentaire et d'un modèle dentaire physique
EP2171689B1 (fr) * 2007-06-29 2020-06-03 Midmark Corporation Vues synchronisées de données vidéo et de données de modèle tridimensionnel
DE102007060263A1 (de) * 2007-08-16 2009-02-26 Steinbichler Optotechnik Gmbh Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE102008047816B4 (de) 2008-09-18 2011-08-25 Steinbichler Optotechnik GmbH, 83115 Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
JP5522619B2 (ja) * 2008-12-26 2014-06-18 富士フイルム株式会社 内視鏡システム
DE102009001086B4 (de) * 2009-02-23 2014-03-27 Sirona Dental Systems Gmbh Handgehaltene dentale Kamera und Verfahren zur optischen 3D-Vermessung
US9091536B2 (en) 2009-06-01 2015-07-28 Dentsply International Inc. Method and device for three-dimensional surface detection with a dynamic reference frame
EP3498238A1 (fr) * 2009-06-05 2019-06-19 ZST Holdings, Inc. Appareils et procédés de saillie mandibulaire
DE102009044977A1 (de) * 2009-07-23 2011-01-27 Henkel Ag & Co. Kgaa Kosmetisches Mittel enthaltend Purin und/oder ein Purinderivat und Sclareol
WO2011056574A1 (fr) * 2009-10-26 2011-05-12 Olaf Andrew Hall-Holt Système d'imagerie dentaire et procédé associé

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636354A1 (de) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
WO1998011815A1 (fr) * 1996-09-17 1998-03-26 Kaiser Electro-Optics, Inc. Systeme de visualisation endoscopique a haute resolution a grand champ visuel
EP1600804A1 (fr) * 2004-05-27 2005-11-30 STM Medizintechnik Starnberg GmbH Dispositif visuel pour endoscopes
DE102008031054A1 (de) * 2008-01-14 2009-07-16 Kaltenbach & Voigt Gmbh Zahnärztliche Intraoralkamera
US20090227875A1 (en) * 2008-03-04 2009-09-10 Cao Group, Inc. Three-dimensional Imaging System
US20100165080A1 (en) * 2008-12-26 2010-07-01 Fujifilm Corporation Image capturing apparatus and endoscope
EP2213223A1 (fr) * 2009-01-28 2010-08-04 Panasonic Corporation Dispositif de mesure intra-orale et système de mesure intra-orale
DE102009026248A1 (de) * 2009-07-24 2011-01-27 Degudent Gmbh Generierung eines Gesamtdatensatzes

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013167555A1 (fr) * 2012-05-07 2013-11-14 Sirona Dental Systems Gmbh Procédé de relevé d'une situation dentaire
US10080636B2 (en) 2012-05-07 2018-09-25 Sirona Dental Systems Gmbh Method for measuring a dental situation
US20210361387A1 (en) * 2017-06-09 2021-11-25 Dental Monitoring Method of evaluating an orthodontic appliance

Also Published As

Publication number Publication date
CN104349710A (zh) 2015-02-11
JP6223331B2 (ja) 2017-11-01
EP2729048B1 (fr) 2023-09-20
WO2013008097A1 (fr) 2013-01-17
JP2014524795A (ja) 2014-09-25
EP2729048A1 (fr) 2014-05-14
IL230371A (en) 2017-04-30
FR2977469B1 (fr) 2013-08-02
US20140146142A1 (en) 2014-05-29

Similar Documents

Publication Publication Date Title
FR2977469A1 (fr) Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire
EP2579766B1 (fr) Dispositif de mesures tridimensionnelles et temporelles par empreinte optique en couleur
EP3148402B1 (fr) Dispositif de visualisation de l'interieur d'une bouche d'un patient
EP3253279B1 (fr) Dispositif de visualisation de l'intérieur d'une bouche
US11612326B2 (en) Estimating a surface texture of a tooth
EP4161437B1 (fr) Prise d'empreinte optique de l'arcade dentaire d'un patient
WO2021078778A1 (fr) Procede de generation d'une image dentaire
EP3745995B1 (fr) Porte-empreinte electronique pour le captage d'information dentaire
FR2977473A1 (fr) Dispositif de mesure tridimensionnelle utilise dans le domaine dentaire
EP4161434A1 (fr) Procede de suivi d'un mouvement dentaire
WO2022248513A1 (fr) Procede d'acquisition d'un modele d'une arcade dentaire
FR3135891A1 (fr) Procede d’acquisition d’un modele d’une arcade dentaire
KR20240013207A (ko) 덴탈 아치의 모델을 취득하기 위한 방법

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13