WO2021133086A2 - 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템 - Google Patents

3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템 Download PDF

Info

Publication number
WO2021133086A2
WO2021133086A2 PCT/KR2020/019068 KR2020019068W WO2021133086A2 WO 2021133086 A2 WO2021133086 A2 WO 2021133086A2 KR 2020019068 W KR2020019068 W KR 2020019068W WO 2021133086 A2 WO2021133086 A2 WO 2021133086A2
Authority
WO
WIPO (PCT)
Prior art keywords
scanner
data
subject
light
scanning
Prior art date
Application number
PCT/KR2020/019068
Other languages
English (en)
French (fr)
Other versions
WO2021133086A3 (ko
Inventor
서범식
송명우
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Publication of WO2021133086A2 publication Critical patent/WO2021133086A2/ko
Publication of WO2021133086A3 publication Critical patent/WO2021133086A3/ko
Priority to US17/848,506 priority Critical patent/US20220313401A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Definitions

  • the present invention relates to a data integration method of a three-dimensional oral scanner and a system using the same (DATA INTEGRATION METHOD OF 3-DIMENSIONAL SCANNER AND SYSTEM USING THE SAME), and more particularly, by integrating different types of scan data, any one
  • the present invention relates to a data integration method and a system using the data integration method for allowing other scan data to compensate for an incomplete part of data obtained from scan data.
  • 3D scanning technology is used in various industrial fields such as reverse engineering, measurement, inspection, content creation, CAD/CAM, and the like.
  • a therapist obtains a plaster model using a dental treatment material such as alginate in order to obtain shape information about the patient's affected part (inside the oral cavity, that is, the patient's teeth, gums, jawbone, etc.) do.
  • the therapist made a dental prosthesis based on the obtained plaster model.
  • the size of the prosthesis was determined and manufactured by hand with respect to the plaster model. Therefore, as errors occur due to the manual production of the prosthesis, there is a disadvantage that the prosthesis does not fit accurately when actually applied to the affected part of the patient.
  • the scan data for the entire arch is accurate, but additional measurements are sometimes required. For example, it is necessary to improve the data precision through additional measurement for the interdental part, which is the part between the teeth, the margin of the abutment of the plaster model, and the vicinity of the adjacent tooth contact.
  • the interdental part which is the part between the teeth, the margin of the abutment of the plaster model, and the vicinity of the adjacent tooth contact.
  • metal parts asbutments of implants, crowns, etc.
  • An object of the present invention is to provide a data integration method of a 3D scanner that derives a precise scan result by combining (integrating) scan data of a second scanner with scan data acquired by a first scanner.
  • Another object of the present invention is to provide a data integration system for a three-dimensional scanner in which scan data of a first scanner and a second scanner are collected, converted into three-dimensional voxel data in an operation unit, and data of the same format are combined with each other and supplemented. .
  • the data integration method of the three-dimensional scanner according to the present invention includes a first scanning step of generating first raw data by photographing the entire shape of a subject in a first scanner, and a second scanning step of continuously photographing a partial shape of the subject in a second scanner.
  • the first scanner may include an imaging unit having a predetermined angle and a predetermined distance interval toward the object in order to generate the first raw data by photographing the object.
  • the first scanner may photograph the subject illuminated by the light irradiated through the light projector formed in the first scanner by the imaging unit.
  • the first scanner is coupled to one surface and is rotatable in a clockwise or counterclockwise direction with respect to one axis, and is coupled to a first rotating part bent in one direction, and one end of the first rotating part, based on one axis. It may further include a second rotating part rotatable in a clockwise or counterclockwise direction.
  • the second scanner can freely adjust a photographing angle and a photographing distance of the subject, and may photograph so that the partial shapes of the subject are continuously overlapped.
  • the second scanner can be drawn in and out of the oral cavity, and through one end of the case, the opening is formed so that the appearance of the interior of the oral cavity is incident to the inside in the form of light, the case is disposed inside the case and the opening of the case
  • An imaging unit for receiving light incident through, a light emitting unit disposed on one side of the imaging unit and emitting light to irradiate the inside of the oral cavity through the opening, and the light generated from the light irradiating unit is refracted or reflected to illuminate the subject and an optical element for making the light reflected from the subject incident on the imaging unit may be a handheld scanner.
  • the second raw data may be 3D surface data.
  • the light emitted from the light irradiation unit may be structured light having a specific pattern.
  • the format of the file data converted in the data conversion step may be voxel data in the form of 3D volume data.
  • the data integration method of the three-dimensional scanner according to another embodiment of the present invention, the first scanning step of scanning the object through the first scanner, the three-dimensional object of the object based on the data obtained in the first scanning step A modeling step of forming a model, a second scanning step of scanning a specific area of the subject corresponding to a supplementary area requiring an additional scan in the three-dimensional model through a second scanner, and the data obtained in the second scanning step It may include a supplementary step of supplementing the supplementary area based on the basis.
  • the data obtained in the second scanning step may be superimposed or replaced with at least a part of the data obtained in the first scanning step.
  • the first scanning step may scan the subject in full form at a preset shooting angle and shooting distance
  • the second scanning step may scan the subject in a partial form at a free shooting angle and shooting distance
  • the preset photographing angle and photographing distance of the first scanning step may be variable while the first scanning step is performed.
  • the data integration system of the 3D scanner includes a first scanner that scans a subject at a preset shooting angle and a shooting distance, a second scanner that scans the subject at a free shooting angle and a shooting distance, and the second scanner and a calculation unit for supplementing a supplementary area requiring additional scanning in the 3D model of the subject implemented with scan data of the first scanner with the scan data of the second scanner.
  • first scanner and the second scanner may be connected to a device including the calculating unit wirelessly or by wire.
  • first scanner and the calculating unit may be configured as an integrated device, and the second scanner may be connected to the integrated device wirelessly or by wire.
  • it may further include a display unit for displaying the 3D model.
  • the second scanner is a case in which an opening is formed so that the inside of the oral cavity can be drawn in and out of the oral cavity and incident to the inside in the form of light through one end, the case is disposed inside the case and the opening of the case
  • It may be a handheld scanner including an optical element that illuminates and injects light reflected from the subject onto the imaging unit.
  • the rotating part consisting of the first rotating part and the second rotating part is formed in the first scanner, so that the subject installed on the tray has two or more degrees of freedom. Therefore, the subject can be freely tilted by the imaging unit, so that the subject can be photographed from various angles.
  • the three-dimensional volume data of the object is formed as a whole in the first scanning step, and the three-dimensional volume data of the object is partially formed in the second scanning step, and then By converting and combining the 3D volume data of the subject and the 3D voxel data that can be overwritten, each scanner has the advantage of complementing each other.
  • FIG. 1 is a schematic flowchart of a data integration method of a three-dimensional scanner according to the present invention.
  • FIG. 2 is a perspective view of a first scanner of a data integration method of a three-dimensional scanner according to the present invention.
  • 3A and 3B are user interface display screens according to a scan result of a subject in the first scanner among the data integration methods of the 3D scanner according to the present invention.
  • FIG. 4 is a perspective view of a second scanner of a data integration method of a three-dimensional scanner according to the present invention.
  • FIG. 5 is a schematic diagram of a configuration of a second scanner of a data integration method of a three-dimensional scanner according to the present invention.
  • FIG. 6 is a schematic diagram of a scan performed by a second scanner of a data integration method of a three-dimensional scanner according to the present invention.
  • 7A and 7B are user interface display screens showing a three-dimensional model in which at least one of an adjacent contact part and a supplementary area is supplemented according to a scan result of a subject in the second scanner among the data integration method of the three-dimensional scanner according to the present invention.
  • 7C is a diagram for explaining supplementary data in a supplemental area.
  • FIG. 8 is a flowchart of a data integration method of a 3D scanner according to another embodiment of the present invention.
  • FIG. 9 is a schematic diagram of a data integration system of a three-dimensional scanner according to the present invention.
  • FIG. 1 is a schematic flowchart of a data integration method of a 3D scanner according to the present invention
  • FIG. 2 is a perspective view of a first scanner of a data integration method of a 3D scanner according to the present invention
  • FIGS. 3A and 3B are the present invention It is a user interface display screen according to the scan result of the subject in the first scanner among the data integration methods of the 3D scanner according to .
  • the data integration method of a three-dimensional scanner includes a first scanning step (S1) of generating first raw data by photographing the entire shape of a subject in a first scanner, and a second scanning step of the subject in the second scanner. and a second scan step (S2) of generating second raw data by continuously photographing a partial shape.
  • the first scanner 100 may be a table scanner that places a subject in a prepared photographing space and performs a scan.
  • the first scanner 100 is not configured such that the first scanner 100 rotates by itself around the subject, but is formed so that the subject M disposed in the first scanner 100 can be photographed from various angles.
  • the subject M may be a plaster model obtained by an impression taking process (in the following description, a plaster model is referred to as a subject).
  • the first scanner 100 can be rotated clockwise or counterclockwise on the inner wall of the first scanner 100 , and is coupled to one end of the first rotating part 121 bent in one direction, and the first rotating part 121 . and may include a second rotating part 122 that can be rotated clockwise or counterclockwise with respect to an axis perpendicular to the first rotating part 121 .
  • the subject M is installed on the tray 130 formed on the second rotating part 122 .
  • the rotating unit 120 including the first rotating unit 121 and the second rotating unit 122 is formed in the first scanner 100 , the subject M installed on the tray 300 has two or more degrees of freedom. Therefore, since the subject M can be freely tilted by the imaging unit 110 , there is an advantage that the subject M can be photographed from various angles.
  • the present invention is not limited thereto.
  • the rotating unit 120 may be formed to be able to move in parallel, and in this case, the subject M may be moved to have 5 or more degrees of freedom. As the degree of freedom regarding movement and rotation of the subject M increases, the first scanner 100 may photograph the subject M more precisely.
  • the first scanner 100 may further include a light projector 140 illuminating the subject M, and the light irradiated from the light projector 140 may be light having a wavelength in the visible ray region.
  • the light irradiated from the light projector 140 may convert the photographed image into 3D volume data in addition to the purpose of simply photographing the subject M.
  • the light irradiated from the light projector 140 may be structured light having a specific pattern.
  • the 3D volume data may be voxel data, and the process of converting the first raw data into 3D volume data will be performed together with the conversion of second raw data to 3D volume data, which will be described later.
  • the structured light is irradiated to the subject M through the light projector 140 , and the first rotating unit 121 and the second rotating unit 122 constituting the rotating unit 120 are disposed on the tray 130 .
  • the first scanner 100 photographs the subject M at various angles.
  • the imaging unit 110 that receives the light reflected from the subject M may digitally image the received light and convert it into 3D volume data.
  • the at least one imaging unit 110 may be formed to have a predetermined angle and a predetermined distance interval toward the subject M.
  • the imaging unit 110 may be formed to have a predetermined angle and a predetermined distance interval toward the subject M, and at least one imaging unit 110 may be formed to be fixed to the first scanner 100 . Since the imaging unit 110 is formed to be fixed to the first scanner 100 , there is an advantage in that the image of the subject M can be stably received.
  • the imaging unit 110 may be formed to have a predetermined angle and a predetermined distance interval toward the subject M, but the imaging unit 110 photographs the subject M by the rotation operation of the rotating unit 120 .
  • a photographing angle and a photographing distance may be changed. As described above, when the photographing angle and the photographing distance are variously changed, there is an advantage in that more accurate three-dimensional volume data of the subject M can be obtained.
  • 3A and 3B are user interface display screens according to a scan result of a subject in the first scanner among the data integration methods of the 3D scanner according to the present invention.
  • 3A and 3B a three-dimensional model UM of a subject M is illustrated on a user interface (UI) screen.
  • UI user interface
  • This is a result obtained when the first scanner 100 scans the subject M by clicking the first scan button B1 disposed on the user interface screen.
  • UI user interface
  • This will be defined as a supplementary space (S). If the data for this supplementary space (S) is not supplemented, there is a disadvantage in that it is difficult to provide a precise prosthesis to the patient.
  • FIG. 4 is a perspective view of the second scanner 1 of the data integration method of the 3D scanner according to the present invention
  • FIG. 5 is a configuration schematic diagram of the second scanner 1 of the data integration method of the 3D scanner according to the present invention.
  • FIG. 6 is a schematic diagram of the scanning performance of the second scanner 1 of the data integration method of the three-dimensional scanner according to the present invention.
  • the user may additionally photograph the subject M using the second scanner 1 .
  • the data obtained by additionally photographing the subject M using the second scanner 1 can supplement the data obtained using the first scanner 100, and the user is more precise and similar to the patient's affected area. data can be obtained.
  • the second scanner 1 may perform a scan while being directly drawn into and withdrawn from the patient's oral cavity.
  • the second scanner 1 may scan the subject M.
  • the second scanner 1 can adjust the photographing angle or the photographing distance more freely than the first scanner 100, and photographing is performed so that the partial shapes of the object M are continuously overlapped. can
  • the second scanner 1 can be drawn in and out of the oral cavity, and an opening is formed so that the appearance of the interior of the oral cavity is incident in the form of light through one end of the case 10, disposed inside the case 10 and an imaging unit 20 for receiving light incident through the opening of the case, a light irradiating unit 30 disposed on one side of the imaging unit 20 and emitting light to irradiate the appearance of the inside of the oral cavity through the opening, and a light irradiating unit ( A handheld type including an optical element (not shown) in which light generated from 30) is refracted or reflected to illuminate the subject M, and the light reflected from the subject M is incident on the imaging unit 20 . of the oral scanner.
  • the second scanner 1 includes a tip case 14 that enables insertion and extraction into and out of the oral cavity, and a portion gripped by a user (a therapist, typically a medical practitioner such as a dentist uses the second scanner) by hand. It may include a body case 11 formed by being coupled to the tip case (14).
  • the main body case 11 includes a lower case 12 and an upper case 13 , and by coupling the lower case 12 and the upper case 13 , the components inside the main body case 11 are protected.
  • an imaging unit 20 for receiving light incident through an opening formed at one end of the tip case 14 is formed inside the body case 11 .
  • the imaging unit 20 may generate image data by receiving light.
  • the imaging unit 20 may include cameras 21 and 22 .
  • the cameras 21 and 22 may be a single camera, or may be two or more multi-cameras spaced apart from each other by a predetermined distance.
  • the light received through the cameras 21 and 22 may be converted into image data by an imaging sensor 23 communicatively connected to the cameras 21 and 22 .
  • the imaging sensor 23 may be a CMOS sensor or a CCD sensor, but this is exemplary and is not limited thereto.
  • a light irradiation unit 30 is formed on one side of the imaging unit 20 to emit light toward an optical element (not shown) formed inside the tip case 14 .
  • the light emitted from the light irradiation unit 30 may be light having a wavelength in the visible ray region, and thereafter may be structured light having a specific pattern to be formed into 3D volume data.
  • the emitted light reaches the optical element, is refracted or reflected, and is irradiated to the subject M through an opening formed at one end of the tip case 14 .
  • the subject M may be a plaster model obtained by taking impressions of the affected part of the patient.
  • the subject M may be obtained by acquiring the subject T, such as the patient's affected part, that is, teeth and gums in the oral cavity.
  • the part of the subject M for which the second scanner 1 scans is a supplementary space S in the three-dimensional model UM of the subject obtained by the first scanner 100 scanning the subject M. ) that corresponds to the part.
  • the light irradiated to the subject M is reflected from the surface of the subject M, is incident on the optical element again, and is received in the imaging unit 20 disposed inside the body case 11 .
  • the received light is analyzed by the imaging sensor 23 formed on the imaging board and generated as second raw data.
  • the second raw data may have a format different from that of the first raw data.
  • the first raw data may be data in a rangeimage format
  • the second raw data may be data in a projected shell format.
  • the second raw data may be 3D surface data generated by 3D transforming the 2D image data. Since the second scanner 1 captures the surface of the object M, data obtained by the second scanner 1 photographing the surface of the object M may also be surface data.
  • the second raw data may be converted into 3D volume data by an operation unit communicatively connected to the first scanner 100 and the second scanner 1 ( S3 ).
  • the 3D volume data may be voxel data having information on intensity of light. Accordingly, when the second raw data is converted into voxel data that is 3D volume data, the first raw data has the same format as the converted 3D volume data. Accordingly, the first raw data and the second raw data are converted into file data of the same format (ie, three-dimensional volume data), thereby enabling mutual compatibility.
  • the data conversion step S3 may convert the first raw data obtained in the first scanning step S1 and the second raw data obtained in the second scanning step S2 into file data of the same format at once. have.
  • the data conversion step S3 may convert the first raw data and the second raw data into voxel data that is 3D volume data at once. Since the raw data converted into 3D volume data has the same file format, it can be easily combined in a subsequent data combining step (S4), and insufficient data can be supplemented.
  • the converted 3D volume data of the converted second raw data is combined to overlap the converted 3D volume data of the first raw data ( S4 ).
  • the first scanner 100 to be combined to overlap is to convert the data of the second raw data into the part corresponding to the supplementary part S in the three-dimensional model UM of the subject obtained by scanning the subject M It may mean overwriting with 3D volume data obtained by
  • FIG. 7A and 7B are user interface display screens showing a three-dimensional model in which at least one of an adjacent tooth contact part and a supplementary area is supplemented according to a scan result of a subject in a second scanner among the data integration method of a three-dimensional scanner according to the present invention
  • FIG. 7C is a diagram for explaining supplementary data in a supplementary area.
  • the replenishment area S is formed by the scan of the first scanner 100 .
  • the first scanner 100 may scan the entire subject, and scan a relatively bulky object.
  • the first scanner 100 is used to scan a portion such as a metal object in the supplemental area S, there is a disadvantage in that it is not precisely scanned.
  • a pin operation applying a spray to a metal object, etc. for removing reflected light was additionally performed.
  • the volume of the worked part may increase, and the reliability of the overall data may be lowered. Accordingly, the portion corresponding to the interdental or abutment margin portion, the adjacent tooth contact portion, or the supplemental area S is scanned through the second scanner 1 .
  • supplementary data D is supplemented by the second scanner 1 with respect to the supplemental area S indicated in the form of a dot-dotted box, so that a more precise three-dimensional model UM is obtained. is completed By supplementing the supplemental data D by the second scanner 1 , the user can obtain a precise three-dimensional model UM, and the user can provide a suitable treatment to the patient.
  • the first raw data of the subject M is formed as a whole using the first scanner 100 in the first scanning step S1, and the second scan In step S2, the second raw data of the subject M is partially formed using the second scanner 1, and then the first raw data and the second raw data are converted into three-dimensional volume data of the same format.
  • FIG. 8 is a flowchart of a data integration method of a 3D scanner according to another embodiment of the present invention.
  • the first scanner 100 scans the entire shape of the subject M to generate image data (first raw data). and a modeling step (S20) of forming a three-dimensional model of the subject based on the image data (first raw data) generated in the first scanning step (S10). .
  • the first scanner 100 captures the entire shape of the subject M.
  • the first scanner 100 captures the subject M at a predetermined angle and at a predetermined distance. It can be a table scanner with wealth.
  • the imaging unit may be formed as a single camera in one direction, but preferably, it is formed to have two or more multi-cameras for acquiring more precise data by photographing the subject M from multiple angles.
  • scanning the entire shape of the subject M means photographing so that the entire shape of the subject M falls within the angle of view of the first scanner 100 .
  • the image data generated in the first scan step S10 may be two-dimensional data, and for example, the image data generated in the first scan step S10 may have a rangeimage format.
  • structured light may be irradiated onto the surface of the subject M.
  • the structured light may be irradiated from a light projector formed on one side of the imaging unit of the first scanner 100 , and preferably, the light irradiated from the light projector may be structured light having a wavelength in the visible ray region.
  • the rotating unit 120 on which the tray 130 on which the subject M is installed is placed may operate. Due to the operation of the rotating unit 120 , a photographing angle and a photographing distance between the imaging unit 110 and the subject M may be changed during the first scanning step S10 .
  • the metal material part with high light reflection is not expressed, or the margin part of the interdental or abutment, the vicinity of the adjacent tooth contact, etc. It is possible that it was not expressed precisely.
  • the data integration method of the three-dimensional scanner according to the present invention is the second scanner 1 for additional scanning of the subject M.
  • the data conversion step (S40) may be further included.
  • the second scanner 1 used in the second scanning step (S30) may be a handheld (handheld) type intraoral scanner.
  • the second scanner 1 has the advantage of being able to freely adjust the angle and distance in relation to the subject M due to the characteristics of the handheld type scanner. However, since the second scanner 1 has a smaller angle of view compared to the first scanner 100 in scanning, a relatively small range is continuously scanned.
  • the 2D image data obtained in the second scan step S30 is converted into 3D volume data.
  • the format of the image data acquired in the second scanning step S30 may be different from the format of the image data acquired in the first scanning step S10 .
  • the image data generated in the first scan step (S10) may be data in a rangeimage format
  • the image data generated in the second scan step (S30) may be data in a format of a projected shell different from the rangeimage format. have. Therefore, by converting the 2D image data of the second scan step ( S30 ) into 3D volume data, it is superimposed on or replaced with the 3D volume data converted in the modeling step ( S20 ).
  • the format of the 3D volume data may be voxel data in which information of a corresponding pixel is embedded in a pixel having a volume.
  • the data integration method of the three-dimensional scanner according to the present invention is supplemented by overlaying the supplementary data (D) on the supplementary area (S) by photographing such that the partial shape of the object (M) is continuously overlapped with the second scanner (1).
  • a complementary step (S50) to be performed may be performed. Therefore, by supplementing the supplementary data D to the supplementary area S, a highly reflective metal part, or a margin part of an interdental or abutment tooth, and the vicinity of an adjacent tooth contact can be accurately expressed, so a highly reliable three-dimensional model can be obtained, and as a result, there is an advantage in that the quality of treatment can be improved by providing a prosthesis suitable for the patient.
  • the supplementary data D is overlaid and supplemented, meaning that the 3D volume data in which the first raw data is converted is superimposed on the 3D volume data in which the second raw data is converted, or the second raw data is It means that the converted 3D volume data replaces a portion of the 3D volume data in which the first raw data is converted.
  • the data integration system of the three-dimensional scanner according to the present invention includes a first scanner 100 that generates first raw data by photographing the entire shape of a subject M at a preset shooting angle and a shooting distance, a free shooting angle and shooting It may include a second scanner 1 that generates second raw data by continuously photographing a partial shape of the subject M at a distance.
  • the first scanner 100 for photographing the subject M is coupled to one surface thereof and can be rotated clockwise or counterclockwise with respect to one axis, and a first rotating part bent in one direction, and a first rotating part It is coupled to one end of the clockwise or counterclockwise rotation with respect to one axis may include a second rotating part.
  • a tray may be formed on the second rotating part, and a subject may be disposed and fixed on the tray.
  • the subject fixed on the tray is rotatable by the first and second rotating units, and an imaging unit formed on one side of the light projector by reflecting the light irradiated from the light projector formed on one surface of the first scanner 100 .
  • the first raw data may have the form of an exemplary rangeimage.
  • a photographing angle and a photographing distance when the imaging unit photographs a subject may change according to the rotation of the rotating unit.
  • the configuration and operation of the first scanner 100 are the same as described above.
  • the second scanner 1 for photographing a subject includes a case that can be drawn in and out of the oral cavity of a patient and has an opening with one end open, and an imaging unit formed inside the case to receive light reflected from the subject.
  • Detailed components of the second scanner 1 are as described above.
  • the data integration system of the 3D scanner may include a calculator 200 that converts the first raw data and the second raw data into file data of the same format.
  • the first raw data and the second raw data may have different formats.
  • the first raw data may have a data form of exemplarily rangeimage
  • the second raw data may have a data form of a projected shell different from that of the first raw data, which is different from each other. to be. Since data cannot be combined between heterogeneous data, it is necessary to convert the first raw data and the second raw data into mutually compatible formats, respectively.
  • the calculator 200 converts the first raw data obtained by the first scanner 100 into voxel data in the form of 3D volume data.
  • the voxel data is a pixel having a volume, and information such as a shape, color, and brightness intensity of a corresponding pixel may be inserted into the voxel.
  • a 3D model of the subject converted into voxel data is shown in FIGS. 3A and 3B .
  • the calculator 200 converts the second raw data obtained by the second scanner 1 into voxel data in the form of 3D volume data. Accordingly, since the first raw data and the second raw data are converted to the same type of data, they may be aligned and overlapped with each other.
  • the calculator 200 complements the supplementary area by combining supplementary data with the three-dimensional model of the subject. This is a scan of the subject M scanned by the second scanner 1 for the area S that needs to be replenished in the scan data (first raw data) for the subject scanned by the first scanner 100 .
  • supplementing with data (second raw data), where 'complementation' means that the 3D volume data in which the second raw data is converted is superimposed on a part of the 3D volume data in which the first raw data is converted.
  • supplementing the supplementary area means that the 3D volume data converted from the second raw data replaces at least a portion of the 3D volume data converted from the first raw data. Accordingly, the user can acquire more precise data, and as a result, it is possible to provide a treatment service suitable for the patient.
  • the operation unit 200 may be formed to be spaced apart from the first scanner 100 and the second scanner 1 .
  • the calculation unit 200 may be a processor having a calculation capability according to an electrical signal, and may be, for example, a central processing unit (CPU) of a personal computer.
  • the operation unit 200 obtains and converts the scan data (first raw data) of the first scanner 100 and the scan data (second raw data) of the second scanner 1 and performs a superposition operation of the first scanner. (100) and the second scanner (1) may be connected by wire or wirelessly.
  • the operation unit 200 may be a processor of a device integrated with the first scanner 100 that is built into the first scanner 100 .
  • the second scanner 1 may be connected to a device in which the first scanner 100 and the calculating unit 200 are integrated by wire or wirelessly.
  • the 3D volume data conversion process of the first raw data and the second raw data of the calculation unit 200 and the process of combining the supplementary data D with the 3D model UM of the subject are performed by the calculation unit 200 .
  • UI user interface
  • first scanner 110 imaging unit
  • the present invention provides a data integration method of a 3D scanner for deriving precise scan results by combining (integrating) scan data acquired by a first scanner with scan data acquired by a second scanner, and a system using the same.

Landscapes

  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

본 발명은 제1 스캐너와 제2 스캐너에 의하여 각각 획득한 스캔 데이터를 결합함으로써 전체적인 형상데이터에 부분적인 정밀 형상데이터가 더해지므로, 제1 스캐너의 스캔 수행에서 누락된 데이터를 제2 스캐너의 스캔 수행으로 보완한다. 이와 같은 보완 과정을 통해 신뢰성이 높은 데이터를 도출할 수 있는 이점이 있으며, 사용자는 환자에게 더욱 적합한 치료를 제공할 수 있다.

Description

3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템
본 발명은 3차원 구강스캐너의 데이터 통합 방법 및 이를 이용한 시스템(DATA INTEGRATION METHOD OF 3-DIMENSIONAL SCANNER AND SYSTEM USING THE SAME)에 관한 것으로, 보다 상세하게는 서로 다른 형식의 스캔 데이터를 통합함으로써 어느 하나의 스캔 데이터에서 획득되는 데이터의 미비한 부분을 다른 스캔 데이터가 보완할 수 있도록 하는 데이터 통합 방법 및 이를 이용하는 시스템에 관한 것이다.
3차원 스캐닝 기술은 역설계, 측정, 검사, 컨텐츠 생성, CAD/CAM 등 다양한 산업 분야에서 사용되고 있으며, 컴퓨팅 기술의 발전으로 인하여 스캐닝 성능이 높아지고 점점 다양한 분야에 사용되고 있다.
종래의 치과 보철 치료 분야에서, 치료자는 환자의 환부(구강 내부, 즉 환자의 치아, 잇몸, 턱뼈 등)에 대한 형상 정보를 획득하기 위하여, 알지네이트와 같은 치과 치료용 물질을 사용하여 석고 모형을 획득한다. 치료자는 획득한 석고 모형을 기초로 하여 치과 치료용 보철물 등을 제작하였다. 이 때, 보철물은 석고 모형에 대하여 수작업으로 규격이 결정되고 제작되었다. 따라서, 보철물의 수작업 제작에 따른 오차가 발생함에 따라, 실제로 환자의 환부에 적용할 시에 보철물 등이 정확하게 맞지 않는 단점이 있었다.
이러한 단점을 해결하기 위해 인상채득한 석고 모형을 스캐닝 공간에 위치시키고, 3차원 스캐닝을 수행하여 디지털 데이터로 변환하는 작업이 제안되었다. 실물 모형이 디지털 데이터로 변환되면 수치데이터가 정밀해지고, 이로써 환자에게 더욱 부합하는 보철물을 제공할 수 있다.
그러나, 석고 모형에 대한 스캐닝을 수행할 때는 전체 악궁에 대한 스캔 데이터가 정확한 반면, 부분적으로 추가적인 측정이 필요한 경우가 있다. 예를 들어, 치아 사이 부분인 치간이나 석고 모형의 지대치 마진 부분, 인접치 컨택 부근 등은 추가적인 측정을 통하여 데이터 정밀도를 향상시킬 필요가 있다. 또한, 금속제 부분(임플란트의 지대주, 크라운 등)에 대해서는 광반사로 인하여 측정하기 어려우므로, 이 부분에 대한 정밀한 데이터를 획득하는 것이 중요하다.
본 발명은 제1 스캐너에 의해 획득한 스캔 데이터에 제2 스캐너의 스캔 데이터를 결합(통합)함으로써 정밀한 스캔결과를 도출하는 3차원 스캐너의 데이터 통합 방법을 제공하기 위한 것이다.
또한, 본 발명은 제1 스캐너와 제2 스캐너의 스캔 데이터가 수집되어 연산부에서 3차원 복셀 데이터로 변환되고, 동일한 형식의 데이터가 서로 결합하여 보완되는 3차원 스캐너의 데이터 통합 시스템을 제공하기 위한 것이다.
본 발명에 따른 3차원 스캐너의 데이터 통합 방법은, 제1 스캐너에서 피사체의 전체 형태를 촬영하여 제1 로우데이터를 생성하는 제1 스캔 단계, 제2 스캐너에서 상기 피사체의 부분 형태를 연속 촬영하여 제2 로우데이터를 생성하는 제2 스캔 단계, 상기 제1 스캔 단계에서 생성된 제1 로우데이터 및 상기 제2 스캔 단계로부터 획득한 제2 로우데이터를 동일한 형식의 파일데이터로 변환하는 데이터 변환 단계, 및 상기 변환 단계에서 변환된 제2 스캔 단계의 데이터를 상기 변환 단계에서 변환된 제1 스캔 단계의 데이터에 중첩되도록 결합하는 데이터 결합 단계를 포함할 수 있다.
또한, 상기 제1 스캐너는 상기 피사체를 촬영하여 상기 제1 로우데이터를 생성하기 위하여 상기 피사체를 향하여 소정 각도 및 소정 거리 간격을 가지는 촬상부를 포함할 수 있다.
또한, 상기 제1 스캐너는 상기 촬상부가 상기 제1 스캐너에 형성된 광 프로젝터를 통하여 조사된 광에 의해 조명된 상기 피사체를 촬영할 수 있다.
또한, 상기 제1 스캐너는 그 일면에 결합되어 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능하며, 일방향으로 절곡 형성된 제1 회동부, 및 제1 회동부의 일단에 결합되며 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능한 제2 회동부를 더 포함할 수 있다.
또한, 상기 제2 스캐너는 상기 피사체에 대한 촬영 각도 및 촬영 거리의 조절이 자유로우며 상기 피사체의 부분 형태를 연속적으로 중첩되도록 촬영할 수 있다.
또한, 상기 제2 스캐너는 구강 내에 인입 및 인출이 가능하고 일단부를 통해 상기 구강 내부의 모습이 광의 형태로 내부로 입사되도록 개구된 개구부가 형성된 케이스, 상기 케이스의 내부에 배치되고 상기 케이스의 개구부를 통해 입사되는 광을 수용하는 촬상부, 상기 촬상부의 일측에 배치되고 상기 개구부를 통해 상기 구강 내부의 모습을 조사하도록 발광하는 광 조사부, 및 상기 광 조사부로부터 발생한 광이 굴절 또는 반사되어 상기 피사체를 조명하고, 상기 피사체로부터 반사된 광을 상기 촬상부로 입사시키는 광학 요소를 포함하는 핸드헬드(handheld) 스캐너일 수 있다.
또한, 상기 제2 로우데이터는 3차원 표면 데이터일 수 있다.
또한, 상기 광 조사부에서 방출되는 광은 특정한 패턴을 가지는 구조광일 수 있다.
또한, 상기 데이터 변환 단계에서 변환되는 파일데이터의 형식은 3차원 볼륨 데이터 형태의 복셀(Voxel) 데이터일 수 있다.
한편, 본 발명의 다른 실시예에 따른 3차원 스캐너의 데이터 통합 방법은, 제1 스캐너를 통해 피사체를 스캔하는 제1 스캔 단계, 상기 제1 스캔 단계에서 획득한 데이터를 기초로 상기 피사체의 3차원 모델을 형성하는 모델링 단계, 상기 3차원 모델에서 추가적인 스캔이 필요한 보충 영역에 대응하는 상기 피사체의 특정 영역을 제2 스캐너를 통해 스캔하는 제2 스캔 단계, 및 상기 제2 스캔 단계에서 획득한 데이터를 기초로 상기 보충 영역을 보완하는 보완 단계를 포함할 수 있다.
또한, 상기 보완 단계는 상기 제1 스캔 단계에서 획득한 데이터의 적어도 일부에 상기 제2 스캔 단계에서 획득한 데이터를 중첩하거나 대체할 수 있다.
또한, 상기 제1 스캔 단계는 기설정된 촬영 각도 및 촬영 거리에서 상기 피사체를 전체 형태로 스캔하고, 상기 제2 스캔 단계는 자유로운 촬영 각도 및 촬영 거리에서 상기 피사체를 부분 형태로 스캔할 수 있다.
또한, 상기 제1 스캔 단계의 상기 기설정된 촬영 각도 및 촬영 거리는 제1 스캔 단계가 수행되는 중에 변동 가능할 수 있다.
한편, 본 발명에 따른 3차원 스캐너의 데이터 통합 시스템은, 기설정된 촬영 각도 및 촬영 거리에서 피사체를 스캔하는 제1 스캐너, 자유로운 촬영 각도 및 촬영 거리에서 상기 피사체를 스캔하는 제2 스캐너, 및 상기 제1 스캐너의 스캔 데이터로 구현된 상기 피사체의 3차원 모델에서 추가적인 스캔이 필요한 보충 영역을 상기 제2 스캐너의 스캔 데이터로 보완하는 연산부를 포함할 수 있다.
또한, 상기 제1 스캐너와 상기 제2 스캐너는 상기 연산부를 포함하는 기기에 무선 또는 유선으로 연결될 수 있다.
또한, 상기 제1 스캐너와 상기 연산부는 일체화된 기기로 구성되고, 상기 제2 스캐너는 상기 일체화된 기기에 무선 또는 유선으로 연결될 수 있다.
또한, 상기 3차원 모델을 표시하는 디스플레이부를 더 포함할 수 있다.
또한, 상기 제2 스캐너는, 구강 내에 인입 및 인출이 가능하고 일단부를 통해 상기 구강 내부의 모습이 광의 형태로 내부로 입사되도록 개구된 개구부가 형성된 케이스, 상기 케이스의 내부에 배치되고 상기 케이스의 개구부를 통해 입사되는 광을 수용하는 촬상부, 상기 촬상부의 일측에 배치되고 상기 개구부를 통해 상기 구강 내부의 모습을 조사하도록 발광하는 광 조사부, 및 상기 광 조사부로부터 발생한 광이 굴절 또는 반사되어 상기 피사체를 조명하고, 상기 피사체로부터 반사된 광을 상기 촬상부로 입사시키는 광학 요소를 포함하는 핸드헬드(handheld) 스캐너일 수 있다.
상기와 같이 구성되는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법에 따르면, 제1 회동부와 제2 회동부로 이루어진 회동부가 제1 스캐너에 형성됨으로써, 트레이 상에 설치된 피사체는 2 이상의 자유도를 가지게 되므로 촬상부에 의해 피사체가 자유롭게 기울어질 수 있어 다양한 각도에서 피사체의 촬영이 가능한 이점이 있다.
또한, 본 발명에 따른 3차원 스캐너의 데이터 통합 방법에 따라 제1 스캔 단계에서 전체적으로 피사체의 3차원 볼륨 데이터를 형성하고, 제2 스캔 단계에서 부분적으로 피사체의 3차원 볼륨 데이터를 형성한 다음, 이를 피사체의 3차원 볼륨 데이터와 덮어씌울 수 있는 3차원 복셀 데이터로 변환하여 결합함으로써 각 스캐너가 보유하고 있는 단점을 상호 보완할 수 있는 이점이 있다.
또한, 더욱 정밀한 데이터를 획득할 수 있고, 결과적으로 환자에게 정밀한 보철 치료물 등 치료 서비스를 제공하는 것이 가능한 이점이 있다.
도 1은 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 개략적인 순서도이다.
도 2는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제1 스캐너의 사시도이다.
도 3a 및 3b는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법 중 제1 스캐너에서 피사체 스캔 결과에 따른 유저 인터페이스 디스플레이 화면이다.
도 4는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제2 스캐너의 사시도이다.
도 5는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제2 스캐너의 구성 개략도이다.
도 6은 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제2 스캐너의 스캔 수행 개략도이다.
도 7a 및 도 7b는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법 중 제2 스캐너에서 피사체 스캔 결과에 따라 인접치 컨택 부분 및 보충 영역 중 적어도 하나가 보완된 3차원 모델을 나타내는 유저 인터페이스 디스플레이 화면이다.
도 7c는 보충 영역 내의 보충 데이터를 설명하기 위한 도이다.
도 8은 본 발명의 또다른 실시예에 따른 3차원 스캐너의 데이터 통합 방법의 순서도이다.
도 9는 본 발명에 따른 3차원 스캐너의 데이터 통합 시스템의 개략도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세히 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하에서는 도면을 참조하여 본 발명의 실시예에 대해서 구체적으로 설명하기로 한다.
도 1은 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 개략적인 순서도이고, 도 2는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제1 스캐너의 사시도이며, 도 3a와 도 3b는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법 중 제1 스캐너에서 피사체 스캔 결과에 따른 유저 인터페이스 디스플레이 화면이다.
도 1을 참조하면 본 발명에 따른 3차원 스캐너의 데이터 통합 방법은, 제1 스캐너에서 피사체의 전체 형태를 촬영하여 제1 로우데이터를 생성하는 제1 스캔 단계(S1), 제2 스캐너에서 피사체의 부분 형태를 연속 촬영하여 제2 로우데이터를 생성하는 제2 스캔 단계(S2)를 포함한다.
도 2를 참조하면 제1 스캐너(100)의 사시도가 도시된다. 이 때, 제1 스캐너(100)는 피사체를 준비된 촬영공간에 배치하고 스캔을 수행하는 테이블 스캐너일 수 있다. 제1 스캐너(100)는 제1 스캐너(100)가 피사체를 중심으로 하여 자체적으로 회전하는 구성은 아니며, 다만 제1 스캐너(100)에 배치되는 피사체(M)를 다양한 각도에서 촬영할 수 있도록 형성될 수 있다. 피사체(M)는 인상채득 과정에 의하여 획득한 석고 모형일 수 있다(이하의 설명에서는 석고 모형을 피사체로 지칭한다).
또한, 제1 스캐너(100) 내부 벽면에는 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능하며, 일방향으로 절곡 형성된 제1 회동부(121), 및 제1 회동부(121)의 일단에 결합되며 제1 회동부(121)와 수직인 축을 기준으로 시계방향 또는 반시계방향으로 회동 가능한 제2 회동부(122)를 포함할 수 있다. 이 때, 피사체(M)는 제2 회동부(122) 상에 형성된 트레이(130)에 설치된다. 제1 회동부(121)와 제2 회동부(122)로 이루어진 회동부(120)가 제1 스캐너(100)에 형성됨으로써, 트레이(300) 상에 설치된 피사체(M)는 2 이상의 자유도를 가지게 되므로 촬상부(110)에 의해 피사체(M)가 자유롭게 기울어질 수 있어 다양한 각도에서 피사체(M)를 촬영할 수 있는 이점이 있다.
도 2에서, 제1 회동부(121)와 제2 회동부(122)에 의해 피사체(M)가 2 자유도로 회전 운동을 할 수 있는 것으로 도시되었으나, 반드시 이에 한정되는 것은 아니다. 예시적으로, 회동부(120)는 평행이동이 가능하도록 형성될 수도 있으며, 이러한 경우 피사체(M)는 5 이상의 자유도를 가지도록 움직일 수 있다. 피사체(M)의 이동 및 회동에 관한 자유도가 높아질수록, 제1 스캐너(100)는 피사체(M)를 더욱 정밀하게 촬영할 수 있다.
한편, 제1 스캐너(100)에는 피사체(M)를 조명하는 광 프로젝터(140)를 더 포함할 수 있고, 광 프로젝터(140)에서 조사되는 광은 가시광선 영역의 파장을 가지는 광일 수 있다. 또한, 광 프로젝터(140)에서 조사되는 광은 단순히 피사체(M)를 촬영하기 위한 목적에 더하여, 촬영한 이미지를 3차원 볼륨 데이터로 변환시킬 수 있다. 촬영한 이미지를 3차원 볼륨 데이터로 변환시키기 위해, 광 프로젝터(140)에서 조사되는 광은 특정한 패턴을 가지는 구조광(structured light)일 수 있다. 이 때, 3차원 볼륨 데이터는 복셀(voxel) 데이터일 수 있으며, 제1 로우데이터가 3차원 볼륨 데이터로 변환되는 과정은 후술할 제2 로우데이터가 3차원 볼륨 데이터로 변환될 때와 함께 수행될 수 있다.
즉, 구조광은 광 프로젝터(140)를 통하여 피사체(M)에 조사되고, 회동부(120)를 구성하는 제1 회동부(121) 및 제2 회동부(122)는 트레이(130) 상에 배치된 피사체(M)를 회전시켜, 제1 스캐너(100)는 다양한 각도에서 피사체(M)를 촬영한다. 피사체(M)에서 반사된 광을 수용하는 촬상부(110)는 수용된 광을 디지털 이미지화하고, 이를 3차원 볼륨 데이터로 변환할 수 있다. 한편, 적어도 하나의 촬상부(110)는 피사체(M)를 향하여 소정 각도 및 소정 거리 간격을 가지도록 형성될 수 있다. 촬상부(110)가 피사체(M)를 향하여 소정 각도 및 소정 거리 간격을 가지도록 형성되고, 적어도 하나의 촬상부(110)는 제1 스캐너(100)에 고정되도록 형성될 수 있다. 촬상부(110)가 제1 스캐너(100)에 고정되도록 형성됨으로써, 피사체(M)의 상을 안정적으로 수용할 수 있는 이점이 있다.
다만, 촬상부(110)는 피사체(M)를 향하여 소정 각도 및 소정 거리 간격을 가지도록 형성될 수 있으나, 회동부(120)의 회전 동작에 의하여 촬상부(110)가 피사체(M)를 촬영하는 촬영 각도 및 촬영 거리가 변화될 수 있다. 이와 같이 촬영 각도 및 촬영 거리가 다양하게 변화하는 경우, 피사체(M)에 대한 더욱 정확한 3차원 볼륨 데이터를 얻을 수 있는 이점이 있다.
도 3a 및 도 3b는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법 중 제1 스캐너에서 피사체 스캔 결과에 따른 유저 인터페이스 디스플레이 화면이다. 도 3a 및 도 3b를 참조하면, 유저 인터페이스(user interface; UI) 화면 상에 피사체(M)의 3차원 모델(UM)이 도시되어 있다. 이는 유저 인터페이스 화면 상에 배치된 제1 스캔 버튼(B1)을 클릭하여 제1 스캐너(100)가 피사체(M)를 스캔함으로써 나타난 결과이다. 다만, 치간이나 지대치의 마진 부분, 인접치 컨택 부분(C1, C2), 메탈로 된 부분들에 대해서는 데이터적으로 보충되어야 할 공간이 남게 된다. 이를 보충 공간(S)이라 정의하기로 한다. 이러한 보충 공간(S)에 대한 데이터가 보완되지 않는 경우 환자에게 정밀한 보철물 제공이 어려운 단점이 있다.
도 4는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제2 스캐너(1)의 사시도이고, 도 5는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제2 스캐너(1)의 구성 개략도이며, 도 6은 본 발명에 따른 3차원 스캐너의 데이터 통합 방법의 제2 스캐너(1)의 스캔 수행 개략도이다.
도 4 내지 도 6을 참조하면, 상기 단점을 해결하기 위하여, 사용자는 제2 스캐너(1)를 사용하여 피사체(M)를 추가적으로 촬영할 수 있다. 제2 스캐너(1)를 사용하여 피사체(M)를 추가적으로 촬영하여 획득한 데이터는 제1 스캐너(100)를 사용하여 획득한 데이터를 보완할 수 있고, 사용자는 더욱 정밀하고, 환자의 환부와 유사한 데이터를 획득할 수 있다. 따라서, 사용자는 환자에게 더욱 적합한 치료를 제공할 수 있다. 제2 스캐너(1)는 환자의 구강 내부에 직접 인입 및 인출되면서 스캔을 수행할 수 있다. 또한, 제2 스캐너(1)는 피사체(M)를 스캔할 수도 있다. 피사체(M)를 촬영할 때, 제2 스캐너(1)는 제1 스캐너(100)보다 더욱 자유롭게 촬영 각도나 촬영 거리를 조절할 수 있으며, 피사체(M)의 부분 형태가 연속적으로 중첩되도록 촬영을 수행할 수 있다.
또한, 제2 스캐너(1)는 구강 내에 인입 및 인출이 가능하고 일단부를 통해 구강 내부의 모습이 광의 형태로 내부로 입사되도록 개구된 개구부가 형성된 케이스(10), 케이스(10)의 내부에 배치되고 케이스의 개구부를 통해 입사되는 광을 수용하는 촬상부(20), 촬상부(20)의 일측에 배치되고 개구부를 통해 구강 내부의 모습을 조사하도록 발광하는 광 조사부(30), 그리고 광 조사부(30)로부터 발생한 광이 굴절 또는 반사되어 피사체(M)를 조명하고, 피사체(M)로부터 반사된 광을 촬상부(20)로 입사시키는 광학 요소(미도시)를 포함하는 핸드헬드(handheld) 형태의 구강스캐너일 수 있다.
제2 스캐너(1)는 구강 내부에 인입 및 인출이 가능하도록 하는 팁 케이스(14)와, 사용자(치료자, 통상적으로 치과의사와 같은 의료인이 제2 스캐너를 사용한다)가 손으로 파지하는 부분이면서 팁 케이스(14)와 결합되어 형성되는 본체 케이스(11)를 포함할 수 있다. 본체 케이스(11)는 로워 케이스(12)와 어퍼 케이스(13)를 포함하며, 로워 케이스(12)와 어퍼 케이스(13)가 결합함으로써 본체 케이스(11) 내부의 부품들을 보호한다.
또한, 본체 케이스(11) 내부에는 팁 케이스(14) 일단에 형성된 개구부를 통해 입사하는 광을 수용하는 촬상부(20)가 형성된다. 이 때, 촬상부(20)는 광을 수용하여 이미지 데이터를 생성할 수 있다. 보다 상세하게는, 촬상부(20)는 카메라(21, 22)를 포함할 수 있다. 이 때, 카메라(21, 22)는 하나의 싱글 카메라일 수 있고, 또는 소정 간격 이격되어 배치된 2 이상의 멀티 카메라일 수도 있다. 카메라(21, 22)를 통해 수용된 광은 카메라(21, 22)와 전기통신적으로 연결된 이미징 센서(23)에 의해 이미지 데이터로 변환될 수 있다. 이 때, 이미징 센서(23)는 CMOS 센서, CCD 센서일 수 있으나, 이는 예시적인 것이며, 상기 예시에 한정되지 않는다.
한편, 촬상부(20)의 일측에는 광 조사부(30)가 형성되어 팁 케이스(14) 내부에 형성된 광학요소(미도시)를 향하여 발광할 수 있다. 광 조사부(30)에서 발사된 광은 가시광선 영역의 파장을 가지는 광일 수 있으며, 이후 3차원 볼륨 데이터로 형성되기 위하여 특정한 패턴을 가지는 구조광일 수 있다. 발사된 광은 광학요소에 도달하여 굴절 또는 반사되며, 팁 케이스(14) 일단부에 형성된 개구부를 통해 피사체(M)에 조사된다. 이 때, 피사체(M)는 환자의 환부를 인상채득하여 얻어진 석고 모형 등이 될 수 있다. 즉, 피사체(M)는 환자의 환부, 즉 구강 내부의 치아, 잇몸 등의 대상체(T)를 채득하여 얻은 것일 수 있다. 바람직하게는 제2 스캐너(1)에서 스캔을 수행하는 피사체(M)의 부분은 제1 스캐너(100)가 피사체(M)를 스캔하여 획득한 피사체의 3차원 모델(UM)에서 보충 공간(S)에 해당하는 부분이다.
피사체(M)에 조사된 광은 피사체(M) 표면에서 반사되어 다시 광학요소로 입사되고, 본체 케이스(11) 내부에 배치된 촬상부(20)에 수용된다. 수용된 광은 이미징 보드 상에 형성된 이미징 센서(23)에 의하여 분석되어 제2 로우데이터로 생성된다. 이 때, 제2 로우데이터는 제1 로우데이터와 다른 형식을 가질 수 있다. 예시적으로, 제1 로우데이터는 rangeimage 형식의 데이터일 수 있고, 제2 로우데이터는 projected shell 형식의 데이터일 수 있다. 또는 제2 로우데이터는 상기 2차원 이미지 데이터를 3차원 변환하여 생성된 3차원 표면 데이터일 수 있다. 제2 스캐너(1)는 피사체(M)의 표면을 촬영하는 것이므로, 제2 스캐너(1)가 피사체(M)의 표면을 촬영하여 획득한 데이터 또한 표면 데이터일 수 있다.
한편, 제2 로우데이터는 제1 스캐너(100) 및 제2 스캐너(1)와 전기통신적으로 연결된 연산부에 의하여 3차원 볼륨 데이터로 변환될 수 있다(S3). 이 때, 3차원 볼륨 데이터는 광의 밝기 강도(intensity) 정보를 가지는 복셀(voxel) 데이터일 수 있다. 따라서, 제2 로우데이터가 3차원 볼륨 데이터인 복셀 데이터로 변환되면 제1 로우데이터가 변환된 3차원 볼륨 데이터와 동일한 형식을 가지게 된다. 이에 따라서, 제1 로우데이터 및 제2 로우데이터가 동일한 형식의 파일데이터(즉, 3차원 볼륨 데이터)로 변환되어 상호 호환이 가능해진다.
한편, 데이터 변환 단계(S3)는 제1 스캔 단계(S1)에서 획득한 제1 로우데이터와, 제2 스캔 단계(S2)에서 획득한 제2 로우데이터를 한꺼번에 동일한 형식의 파일데이터로 변환할 수 있다. 예시적으로, 데이터 변환 단계(S3)는 제1 로우데이터와 제2 로우데이터를 한꺼번에 3차원 볼륨 데이터인 복셀 데이터로 변환할 수 있다. 3차원 볼륨 데이터로 변환된 로우데이터들은 동일한 파일 형식을 가지므로, 이후의 데이터 결합 단계(S4)에서 용이하게 결합될 수 있고, 불충분한 데이터를 보완할 수 있다.
제2 로우데이터의 데이터 변환이 완료되면, 변환된 제2 로우데이터의 변환된 3차원 볼륨 데이터는 제1 로우데이터의 변환된 3차원 볼륨 데이터에 중첩되도록 결합된다(S4). 이 때, 중첩되도록 결합되는 것은 제1 스캐너(100)가 피사체(M)를 스캔하여 획득한 피사체의 3차원 모델(UM)에서 보충 부분(S)에 해당하는 부분을 제2 로우데이터의 데이터 변환으로 획득한 3차원 볼륨 데이터로 덮어씌우는 것을 의미할 수 있다.
도 7a 및 도 7b는 본 발명에 따른 3차원 스캐너의 데이터 통합 방법 중 제2 스캐너에서 피사체 스캔 결과에 따라 인접치 컨택 부분 및 보충 영역 중 적어도 하나가 보완된 3차원 모델을 나타내는 유저 인터페이스 디스플레이 화면이고, 도 7c는 보충 영역 내의 보충 데이터를 설명하기 위한 도이다.
도 7a를 참조하면, 제1 스캐너(100)의 스캔에 의하여 보충 영역(S)이 형성된 것을 확인할 수 있다. 제1 스캐너(100)는 피사체를 전체적으로 스캔할 수 있고, 상대적으로 부피가 큰 물체에 대한 스캔이 가능하였다. 그러나, 제1 스캐너(100)는 치간이나 지대치 마진 부분, 인접치 컨택 부분의 정밀한 치수를 측정하기 어렵다. 또한, 제1 스캐너(100)를 사용하여 보충 영역(S)의 금속 물체와 같은 부분을 스캔하는 경우, 정밀하게 스캔되지 않는 단점이 존재한다. 이러한 단점을 해소하기 위해, 종래에는 반사광을 제거하기 위한 핀 작업(금속 물체 등에 스프레이를 도포하는 것)을 추가적으로 수행하였다. 이와 같은 작업에 의하여, 작업된 부분의 부피가 증가하고, 전체적인 데이터의 신뢰성이 낮아질 수 있다. 따라서, 치간이나 지대치 마진 부분, 인접치 컨택 부분, 또는 보충 영역(S)에 해당하는 부분은 제2 스캐너(1)를 통해 스캔을 수행한다.
도 7b를 참조하면, 제2 스캐너(1)는 제1 스캐너(100)보다 더욱 자유로운 촬영 각도 및 촬영 거리를 가지므로, 반사가 심한 금속 물체를 포함하는 보충 데이터(D)를 정밀하게 스캔할 수 있다. 도 7b 및 도 7c를 참조하면, 1점 쇄선의 박스의 형태로 표시된 보충 영역(S)에 대하여 제2 스캐너(1)에 의해 보충 데이터(D)가 보완되어 더욱 정밀한 3차원 모델(UM)이 완성된다. 제2 스캐너(1)에 의해 보충 데이터(D)가 보완됨으로써, 사용자는 정밀한 3차원 모델(UM)을 획득할 수 있고, 사용자는 환자에게 적합한 치료를 제공할 수 있다.
또한, 핸드헬드 스캐너인 제2 스캐너(1)로만 3차원 스캔을 수행하는 경우에는 테이블 스캐너에 비하여 촬상부의 측정 각도가 작게 형성되므로 넓은 영역에 대하여 측정하기 어려운 단점이 있었으며, 촬영 시간이 오래 걸리는 단점이 있었다. 이에 따라서, 본 발명에 따른 3차원 스캐너의 데이터 통합 방법에 따라 제1 스캔 단계(S1)에서 제1 스캐너(100)를 이용하여 전체적으로 피사체(M)의 제1 로우데이터를 형성하고, 제2 스캔 단계(S2)에서 제2 스캐너(1)를 이용하여 부분적으로 피사체(M)의 제2 로우데이터를 형성한 다음, 제1 로우데이터와 제2 로우데이터를 동일한 형식의 3차원 볼륨 데이터로 변환하여 결합함으로써 각각의 스캐너가 보유하고 있는 단점을 상호 보완할 수 있는 이점이 있다.
도 8은 본 발명의 다른 실시예에 따른 3차원 스캐너의 데이터 통합 방법에 대한 순서도이다.
도 8을 참조하면, 본 발명의 다른 실시예에 따른 3차원 스캐너의 데이터 통합 방법은, 제1 스캐너가(100) 피사체(M)의 전체 형상을 스캔하여 이미지 데이터(제1 로우데이터)를 생성하는 제1 스캔 단계(S10)와, 제1 스캔 단계(S10)에서 생성된 상기 이미지 데이터(제1 로우데이터)를 기초로 피사체의 3차원 모델을 형성하는 모델링 단계(S20)를 포함할 수 있다. 제1 스캔 단계(S10)에서는 제1 스캐너(100)가 피사체(M)의 전체 형상을 촬영하게 되는데, 이 때 제1 스캐너(100)는 피사체(M)와 소정 각도와 소정 거리 간격을 가지는 촬상부를 가지는 테이블 스캐너일 수 있다. 촬상부는 일방향으로 하나의 싱글 카메라로 형성될 수도 있지만, 바람직하게는 다각도에서 피사체(M)를 촬영하여 더욱 정밀한 데이터를 획득하기 위한 2 이상의 멀티 카메라를 가지도록 형성되는 것이 바람직하다. 여기서 피사체(M)의 전체 형상을 스캔하는 것은, 피사체(M)의 전체 형상이 제1 스캐너(100)의 화각에 전부 들어오도록 촬영하는 것을 의미한다.
한편, 제1 스캔 단계(S10)에서 생성된 이미지 데이터는 2차원 데이터일 수 있으며, 예시적으로 제1 스캔 단계(S10)에서 생성된 이미지 데이터는 rangeimage의 형식을 가질 수 있다. 또한, 생성된 이미지 데이터를 3차원 볼륨 데이터로 변환하기 위하여, 피사체(M)의 표면 상에 구조광이 조사될 수 있다. 이 때, 구조광은 제1 스캐너(100)의 촬상부 일측에 형성된 광 프로젝터로부터 조사될 수 있으며, 바람직하게는 광 프로젝터에서 조사되는 광은 가시광선 영역의 파장을 가지는 구조광일 수 있다. 광 프로젝터의 광 조사에 의하여, 피사체(M)의 음영부분이 최소화되고, 2차원의 이미지 데이터를 3차원 볼륨 데이터로 변환시킬 수 있는 이점이 있다.
또한, 제1 스캐너(100)가 피사체(M)를 스캔할 때, 피사체(M)에 대하여 전체적으로 정밀한 데이터를 획득하기 위하여 피사체(M)를 촬영하는 촬영 각도 및 촬영 거리를 조절할 수 있다. 이 때, 촬영 각도 및 촬영 거리를 조절하기 위해, 피사체(M)가 설치된 트레이(130)가 놓여진 회동부(120)가 동작할 수 있다. 회동부(120)의 동작에 의하여, 제1 스캔 단계(S10) 중에 촬상부(110)와 피사체(M) 간의 촬영 각도 및 촬영 거리가 변화할 수 있다.
한편, 상기 모델링 단계(S20)에서 제1 스캐너(100)에 의해 생성된 3차원 볼륨 데이터는 광 반사가 심한 금속 재질 부분이 표현되지 않거나, 또는 치간이나 지대치의 마진 부분, 인접치 컨택 부근 등이 정밀하게 표현되지 않았을 가능성이 있다.
상기의 제1 스캐너(100)에 의해 생성된 3차원 볼륨 데이터를 보완하기 위하여, 본 발명에 따른 3차원 스캐너의 데이터 통합 방법은 제2 스캐너(1)를 통해 추가적인 스캔이 필요한 피사체(M)의 특정 부분을 촬영하여 이미지 데이터(제2 로우데이터)를 형성하는 제2 스캔 단계(S30)와, 제2 스캔 단계(S30)에서 생성된 이미지 데이터를 3차원 볼륨 데이터로 변환할 수 있는 제2 스캔 데이터 변환 단계(S40)를 더 포함할 수 있다. 이 때, 제2 스캔 단계(S30)에서 사용되는 제2 스캐너(1)는 핸드헬드(handheld) 형식의 구강 스캐너일 수 있다. 제2 스캐너(1)는 핸드헬드 형식의 스캐너 특성상 피사체(M)와의 관계에서 자유로운 각도 조절 및 거리 조절이 가능한 이점이 있다. 다만, 스캔을 진행함에 있어서 제2 스캐너(1)는 제1 스캐너(100)와 비교하였을 때 작은 화각을 가지므로, 상대적으로 작은 범위를 연속적으로 스캔한다.
또한, 제2 스캔 데이터 변환 단계(S40)에서는 제2 스캔 단계(S30)에서 획득한 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환한다. 이 때, 제2 스캔 단계(S30)에서 획득한 이미지 데이터의 형식은 제1 스캔 단계(S10)에서 획득한 이미지 데이터의 형식과 상이할 수 있다. 예시적으로, 제1 스캔 단계(S10)에서 생성된 이미지 데이터는 rangeimage 형식의 데이터일 수 있고, 제2 스캔 단계(S30)에서 생성된 이미지 데이터는 rangeimage 형식과 상이한 projected shell의 형식의 데이터일 수 있다. 따라서, 제2 스캔 단계(S30)의 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환함으로써, 상기 모델링 단계(S20)에서 변환된 3차원 볼륨 데이터에 중첩되거나 대체되도록 한다. 한편, 이 때 3차원 볼륨 데이터의 형식은 부피를 가지는 픽셀에 해당 픽셀의 정보가 내장되는 복셀(voxel) 데이터일 수 있다.
본 발명에 따른 3차원 스캐너의 데이터 통합 방법은 제2 스캐너(1)로 피사체(M)의 부분 형상에 대하여 연속적으로 중첩되도록 촬영함으로써 보충 영역(S)에 대하여 보충 데이터(D)가 덧씌워져 보완되는 보완 단계(S50)가 수행될 수 있다. 따라서, 보충 데이터(D)가 보충 영역(S)에 보완됨으로써, 광반사가 심한 금속 재질 부분, 또는 치간이나 지대치의 마진 부분, 인접치 컨택 부근 등이 정밀하게 표현될 수 있어 신뢰성 높은 3차원 모델을 획득할 수 있고, 결과적으로 환자에게 적합한 보철물 제공 등을 통해 치료품질이 향상될 수 있는 이점이 있다. 이 때, 보충 데이터(D)가 덧씌워져 보완되는 것에 의미는, 제1 로우데이터가 변환된 3차원 볼륨 데이터에 제2 로우데이터가 변환된 3차원 볼륨 데이터가 중첩되거나, 또는 제2 로우데이터가 변환된 3차원 볼륨 데이터가 제1 로우데이터가 변환된 3차원 볼륨 데이터의 일부분을 대체하는 것을 의미한다.
이하에서는 본 발명에 따른 3차원 스캐너의 데이터 통합 시스템에 대하여 서술하기로 한다.
도 9는 본 발명에 따른 3차원 스캐너의 데이터 통합 시스템의 개략도이다. 본 발명에 따른 3차원 스캐너의 데이터 통합 시스템은, 기 설정된 촬영 각도 및 촬영 거리에서 피사체(M)의 전체 형태를 촬영하여 제1 로우데이터를 생성하는 제1 스캐너(100), 자유로운 촬영 각도 및 촬영 거리에서 피사체(M)의 부분 형태를 연속 촬영하여 제2 로우데이터를 생성하는 제2 스캐너(1)를 포함할 수 있다.
먼저, 피사체(M)를 촬영하는 제1 스캐너(100)는 그 일면에 결합되어 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능하며, 일방향으로 절곡 형성된 제1 회동부, 및 제1 회동부의 일단에 결합되며 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능한 제2 회동부를 포함할 수 있다.
한편, 제2 회동부 상에는 트레이가 형성될 수 있으며, 트레이 상에는 피사체가 배치 및 고정될 수 있다. 트레이 상에 고정된 피사체는 제1 회동부 및 제2 회동부에 의해 회전 가능하게 되며, 제1 스캐너(100)의 일면에 형성된 광 프로젝터에서 조사되는 광을 반사하여 광 프로젝터의 일측에 형성된 촬상부에 수용되어 제1 로우데이터가 생성될 수 있다. 이 때, 제1 로우데이터는 예시적으로 rangeimage의 형태를 가질 수 있다. 또한, 회동부의 회동에 따라 촬상부가 피사체를 촬영할 때의 촬영 각도 및 촬영 거리가 변화할 수 있다. 제1 스캐너(100)의 구성 및 동작에 대해서는 전술한 바와 같다.
또한, 피사체를 촬영하는 제2 스캐너(1)는 환자의 구강 내부에 인입 및 인출될 수 있고 일단이 개구된 개구부를 포함하는 케이스와, 케이스 내부에 형성되어 피사체로부터 반사된 광을 수용하는 촬상부, 촬상부의 일측에 배치되어 개구부를 통해 구강 내부의 모습을 조사하도록 발광하는 광 조사부, 및 광 조사부로부터 발생한 광이 굴절 또는 반사되어 피사체를 조명하고, 피사체로부터 반사된 광을 상기 촬상부로 입사시키는 광학 요소(미도시)를 포함할 수 있다. 제2 스캐너(1)의 세부 구성요소에 대하여는 전술한 바와 같다.
또한, 본 발명에 따른 3차원 스캐너의 데이터 통합 시스템은 제1 로우데이터와 제2 로우데이터를 동일한 형식의 파일데이터로 변환하는 연산부(200)를 포함할 수 있다. 전술한 바와 같이, 제1 로우데이터와 제2 로우데이터는 서로 다른 형식을 가질 수 있다. 예시적으로, 제1 로우데이터는 예시적으로 rangeimage의 데이터 형태를 가질 수 있고, 제2 로우데이터는 상기 제1 로우데이터의 형식과 상이한 projected shell의 데이터 형태를 가질 수 있으며, 이는 서로 이종의 데이터이다. 이종 데이터 간에는 데이터 결합이 불가능하므로, 각각 제1 로우데이터와 제2 로우데이터를 상호 호환되는 형식으로 변환시켜줄 필요가 있다.
먼저, 연산부(200)는 제1 스캐너(100)에 의해 획득한 제1 로우데이터를 3차원 볼륨 데이터 형태의 복셀 데이터로 변환한다. 이 때, 복셀 데이터는 부피를 가지는 픽셀이며, 복셀에는 해당 픽셀의 형상, 색상, 밝기 강도와 같은 정보가 삽입될 수 있다. 복셀 데이터로 변환된 피사체의 3차원 모델은 도 3a 및 도 3b에 도시된 바와 같다.
이후, 연산부(200)는 제2 스캐너(1)에 의해 획득한 제2 로우데이터를 3차원 볼륨 데이터 형태의 복셀 데이터로 변환한다. 따라서, 제1 로우데이터와 제2 로우데이터는 동일한 형태의 데이터로 변환되었으므로 서로 정렬되어 겹쳐질 수 있다. 연산부(200)는 피사체의 3차원 모델에 보충 데이터를 결합하여 보충 영역을 보완한다. 이는 제1 스캐너(100)에 의해 스캔된 피사체에 대한 스캔 데이터(제1 로우데이터)에서 보충이 필요한 영역(S)에 대하여, 제2 스캐너(1)에 의해 스캔된 피사체(M)에 대한 스캔 데이터(제2 로우데이터)로 보완하는 것을 의미하며, 여기서 '보완'은 제2 로우데이터가 변환된 3차원 볼륨 데이터가 제1 로우데이터가 변환된 3차원 볼륨 데이터의 일부분에 중첩되는 것을 의미할 수 있다. 보다 상세하게는, 보충 영역을 보완하는 것은 제2 로우데이터가 변환된 3차원 볼륨데이터가 제1 로우데이터가 변환된 3차원 볼륨 데이터의 적어도 일부분을 대체하는 것을 의미한다. 이에 따라서, 사용자는 더욱 정밀한 데이터를 획득할 수 있고, 결과적으로 환자에게 적합한 치료 서비스를 제공할 수 있다.
또한, 연산부(200)는 제1 스캐너(100)와 제2 스캐너(1)와 이격되어 형성될 수 있다. 연산부(200)는 대체로 전기적 신호에 따라 계산능력을 가지는 프로세서일 수 있으며, 예시적으로는 퍼스널 컴퓨터의 중앙처리장치(CPU)일 수 있다. 연산부(200)는 제1 스캐너(100)의 스캔 데이터(제1 로우데이터)와 제2 스캐너(1)의 스캔 데이터(제2 로우데이터)를 획득 및 변환, 중첩연산을 수행하기 위해 제1 스캐너(100) 및 제2 스캐너(1)와 유선 또는 무선으로 연결될 수 있다.
한편, 연산부(200)는 제1 스캐너(100)에 내장된, 제1 스캐너(100)와 일체화된 장치의 프로세서일 수 있다. 이 때, 제2 스캐너(1)는 제1 스캐너(100)와 연산부(200)가 일체화된 장치에 유선 또는 무선으로 연결될 수 있다.
한편, 이러한 연산부(200)의 제1 로우데이터 및 제2 로우데이터의 3차원 볼륨 데이터 변환 과정과, 피사체의 3차원 모델(UM)에 보충 데이터(D)를 결합하는 과정은, 연산부(200)와 전기적으로 연결된 디스플레이부(300)에 의해 표시된다. 도 3a 및 도 9를 참조하면, 사용자는 디스플레이부(300)에 나타난 3차원 모델을 시각적으로 확인함으로써 스캔이 올바르게 수행되고 있는지 모니터링할 수 있으며, 디스플레이부(300) 상에 나타난 유저 인터페이스(UI)에서 제1 스캔 버튼(B1)과 제2 스캔 버튼(B2)을 클릭하여 각각 제1 스캐너(100)를 이용한 피사체 스캔, 제2 스캐너(1)를 이용한 피사체(M) 스캔을 수행할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
[부호의 설명]
S1: 제1 스캔 단계 S2: 제2 스캔 단계
S3: 데이터 변환 단계 S4: 데이터 결합 단계
S10: 제1 스캔 단계 S20: 모델링 단계
S30: 제2 스캔 단계 S40: 제2 스캔 데이터 변환 단계
S50: 보완 단계
1: 제2 스캐너 10: 케이스
11: 본체 케이스 12: 로워 케이스
13: 어퍼 케이스 14: 팁 케이스
15: 전원부 20: 촬상부
21,22: 카메라 32: 이미징 센서
100: 제1 스캐너 110: 촬상부
120: 회동부 121: 제1 회동부
122: 제2 회동부 130: 트레이
M: 피사체 T: 대상체
UM: 3차원 모델 B1: 제1 스캔 버튼
B2: 제2 스캔 버튼 C1: 인접치 컨택 부분
C2: 인접치 컨택 부분 S: 보충 영역
D: 보충 데이터
본 발명은 제1 스캐너에 의해 획득한 스캔 데이터에 제2 스캐너에 의해 획득한 스캔 데이터를 결합(통합)함으로써 정밀한 스캔결과를 도출하는 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템을 제공한다.

Claims (18)

  1. 제1 스캐너에서 피사체의 전체 형태를 촬영하여 제1 로우데이터를 생성하는 제1 스캔 단계;
    제2 스캐너에서 상기 피사체의 부분 형태를 연속 촬영하여 제2 로우데이터를 생성하는 제2 스캔 단계;
    상기 제1 스캔 단계에서 생성된 제1 로우데이터 및 상기 제2 스캔 단계로부터 획득한 제2 로우데이터를 동일한 형식의 파일데이터로 변환하는 데이터 변환 단계; 및
    상기 변환 단계에서 변환된 제2 스캔 단계의 데이터를 상기 변환 단계에서 변환된 제1 스캔 단계의 데이터에 중첩되도록 결합하는 데이터 결합 단계;를 포함하는 3차원 스캐너의 데이터 통합 방법.
  2. 제1 항에 있어서,
    상기 제1 스캐너는 상기 피사체를 촬영하여 상기 제1 로우데이터를 생성하기 위하여 상기 피사체를 향하여 소정 각도 및 소정 거리 간격을 가지는 촬상부를 포함하는 3차원 스캐너의 데이터 통합 방법.
  3. 제2 항에 있어서,
    상기 제1 스캐너는
    상기 촬상부가 상기 제1 스캐너에 형성된 광 프로젝터를 통하여 조사된 광에 의해 조명된 상기 피사체를 촬영하는 3차원 스캐너의 데이터 통합 방법.
  4. 제1 항에 있어서,
    상기 제1 스캐너는
    그 일면에 결합되어 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능하며, 일방향으로 절곡 형성된 제1 회동부, 및 제1 회동부의 일단에 결합되며 일축을 기준으로 시계방향 또는 반시계방향으로 회동 가능한 제2 회동부를 더 포함하는 3차원 스캐너의 데이터 통합 방법.
  5. 제1 항에 있어서,
    상기 제2 스캐너는,
    상기 피사체에 대한 촬영 각도 및 촬영 거리의 조절이 자유로우며 상기 피사체의 부분 형태를 연속적으로 중첩되도록 촬영하는 3차원 스캐너의 데이터 통합 방법.
  6. 제5 항에 있어서,
    상기 제2 스캐너는,
    구강 내에 인입 및 인출이 가능하고 일단부를 통해 상기 구강 내부의 모습이 광의 형태로 내부로 입사되도록 개구된 개구부가 형성된 케이스, 상기 케이스의 내부에 배치되고 상기 케이스의 개구부를 통해 입사되는 광을 수용하는 촬상부, 상기 촬상부의 일측에 배치되고 상기 개구부를 통해 상기 구강 내부의 모습을 조사하도록 발광하는 광 조사부, 및 상기 광 조사부로부터 발생한 광이 굴절 또는 반사되어 상기 피사체를 조명하고, 상기 피사체로부터 반사된 광을 상기 촬상부로 입사시키는 광학 요소를 포함하는 핸드헬드(handheld) 스캐너인 3차원 스캐너의 데이터 통합 방법.
  7. 제1 항에 있어서,
    상기 제2 로우데이터는 3차원 표면 데이터인 3차원 스캐너의 데이터 통합 방법.
  8. 제6 항에 있어서,
    상기 광 조사부에서 방출되는 광은 특정한 패턴을 가지는 구조광인 3차원 스캐너의 데이터 통합 방법.
  9. 제1 항에 있어서,
    상기 데이터 변환 단계에서 변환되는 파일데이터의 형식은 3차원 볼륨 데이터 형태의 복셀(Voxel) 데이터인 3차원 스캐너의 데이터 통합 방법.
  10. 제1 스캐너를 통해 피사체를 스캔하는 제1 스캔 단계;
    상기 제1 스캔 단계에서 획득한 데이터를 기초로 상기 피사체의 3차원 모델을 형성하는 모델링 단계;
    상기 3차원 모델에서 추가적인 스캔이 필요한 보충 영역에 대응하는 상기 피사체의 특정 영역을 제2 스캐너를 통해 스캔하는 제2 스캔 단계; 및
    상기 제2 스캔 단계에서 획득한 데이터를 기초로 상기 보충 영역을 보완하는 보완 단계;를 포함하는 3차원 스캐너의 데이터 통합 방법.
  11. 제10 항에 있어서,
    상기 보완 단계는 상기 제1 스캔 단계에서 획득한 데이터의 적어도 일부에 상기 제2 스캔 단계에서 획득한 데이터를 중첩하거나 대체하는 3차원 스캐너의 데이터 통합 방법.
  12. 제10 항에 있어서,
    상기 제1 스캔 단계는 기설정된 촬영 각도 및 촬영 거리에서 상기 피사체를 전체 형태로 스캔하고, 상기 제2 스캔 단계는 자유로운 촬영 각도 및 촬영 거리에서 상기 피사체를 부분 형태로 스캔하는 3차원 스캐너의 데이터 통합 방법.
  13. 제12 항에 있어서,
    상기 제1 스캔 단계의 상기 기설정된 촬영 각도 및 촬영 거리는 제1 스캔 단계가 수행되는 중에 변동 가능한 3차원 스캐너의 통합 방법.
  14. 기설정된 촬영 각도 및 촬영 거리에서 피사체를 스캔하는 제1 스캐너;
    자유로운 촬영 각도 및 촬영 거리에서 상기 피사체를 스캔하는 제2 스캐너; 및
    상기 제1 스캐너의 스캔 데이터로 구현된 상기 피사체의 3차원 모델에서 추가적인 스캔이 필요한 보충 영역을 상기 제2 스캐너의 스캔 데이터로 보완하는 연산부;를 포함하는 3차원 스캐너의 데이터 통합 시스템.
  15. 제14 항에 있어서,
    상기 제1 스캐너와 상기 제2 스캐너는 상기 연산부를 포함하는 기기에 무선 또는 유선으로 연결되는 3차원 스캐너의 데이터 통합 시스템.
  16. 제14 항에 있어서,
    상기 제1 스캐너와 상기 연산부는 일체화된 기기로 구성되고, 상기 제2 스캐너는 상기 일체화된 기기에 무선 또는 유선으로 연결되는 3차원 스캐너의 데이터 통합 시스템.
  17. 제14 항에 있어서,
    상기 3차원 모델을 표시하는 디스플레이부;를 더 포함하는 3차원 스캐너의 데이터 통합 시스템.
  18. 제14 항에 있어서,
    상기 제2 스캐너는,
    구강 내에 인입 및 인출이 가능하고 일단부를 통해 상기 구강 내부의 모습이 광의 형태로 내부로 입사되도록 개구된 개구부가 형성된 케이스, 상기 케이스의 내부에 배치되고 상기 케이스의 개구부를 통해 입사되는 광을 수용하는 촬상부, 상기 촬상부의 일측에 배치되고 상기 개구부를 통해 상기 구강 내부의 모습을 조사하도록 발광하는 광 조사부, 및 상기 광 조사부로부터 발생한 광이 굴절 또는 반사되어 상기 피사체를 조명하고, 상기 피사체로부터 반사된 광을 상기 촬상부로 입사시키는 광학 요소를 포함하는 핸드헬드(handheld) 스캐너인 3차원 스캐너의 데이터 통합 시스템.
PCT/KR2020/019068 2019-12-26 2020-12-24 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템 WO2021133086A2 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/848,506 US20220313401A1 (en) 2019-12-26 2022-06-24 Data integration method of 3-dimensional scanner and system using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0175291 2019-12-26
KR1020190175291A KR102370018B1 (ko) 2019-12-26 2019-12-26 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/848,506 Continuation-In-Part US20220313401A1 (en) 2019-12-26 2022-06-24 Data integration method of 3-dimensional scanner and system using same

Publications (2)

Publication Number Publication Date
WO2021133086A2 true WO2021133086A2 (ko) 2021-07-01
WO2021133086A3 WO2021133086A3 (ko) 2021-08-19

Family

ID=76573324

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/019068 WO2021133086A2 (ko) 2019-12-26 2020-12-24 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템

Country Status (3)

Country Link
US (1) US20220313401A1 (ko)
KR (1) KR102370018B1 (ko)
WO (1) WO2021133086A2 (ko)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140080092A1 (en) * 2012-09-14 2014-03-20 Biomet 3I, Llc Temporary dental prosthesis for use in developing final dental prosthesis
KR101418403B1 (ko) 2012-12-14 2014-07-09 라파바이오 주식회사 구강용 3차원 스캐너
US9510757B2 (en) * 2014-05-07 2016-12-06 Align Technology, Inc. Identification of areas of interest during intraoral scans
KR101638561B1 (ko) * 2015-04-13 2016-07-11 주식회사 디오 부분스캔을 이용한 치과 임플란트용 크라운 제조방법
KR101965049B1 (ko) * 2017-03-17 2019-04-02 주식회사 메디트 3차원 스캐너 장치
KR102366634B1 (ko) * 2017-04-24 2022-02-23 주식회사 바텍 구강 스캐너
KR101874547B1 (ko) * 2018-05-03 2018-07-04 주식회사 메디트 3차원 구강 스캐너

Also Published As

Publication number Publication date
KR20210082884A (ko) 2021-07-06
US20220313401A1 (en) 2022-10-06
KR102370018B1 (ko) 2022-03-04
WO2021133086A3 (ko) 2021-08-19

Similar Documents

Publication Publication Date Title
WO2018012862A1 (ko) 3차원 스캐너와 이를 이용한 인공물가공장치
WO2017192020A1 (ko) 치과용 3차원 데이터 처리장치 및 그 방법
KR102022748B1 (ko) 치아의 표면 텍스처를 추정하는 방법
WO2018143497A1 (ko) 임플란트 수술 가이드 방법
WO2018066764A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
JP2016511661A (ja) 照明フレームが画像フレームに組み入れられる口腔内走査装置
Amornvit et al. Confocal 3D Optical Intraoral Scanners and Comparison of Image Capturing Accuracy.
WO2018066763A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법
KR20150103133A (ko) 치은연하 측정을 위한 방법 및 장치
WO2020162730A1 (ko) 디지털 삼차원 치아모형의 인체의 해부학적 위치 및 평면 분석과 병합이 가능하도록 기준선이 있는 치과용 시스템
JP2016501592A (ja) 歯科スキャナ装置
WO2021133120A2 (ko) 구조물 데이터 매칭 방법 및 이를 이용한 구조물 데이터 매칭 시스템
WO2021133090A2 (ko) 구강스캐너에 내장된 광학요소 검사 방법 및 이를 이용한 시스템
WO2021141416A1 (ko) 데이터 정합을 통한 3차원 모델 생성 장치 및 방법
KR20100105461A (ko) 교합기를 이용하여 치아 모형 이미지를 스캔하기 위한 장치
WO2020130598A1 (ko) 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
WO2017191878A1 (ko) 치아 움직임 추적 장치 및 그 방법
WO2017029670A1 (en) Intra-oral mapping of edentulous or partially edentulous mouth cavities
WO2021133086A2 (ko) 3차원 스캐너의 데이터 통합 방법 및 이를 이용한 시스템
WO2021141424A1 (ko) 이미지 필터링 방법
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
WO2019124846A1 (ko) 치과용 임플란트 시술 가이드장치, 치과용 임플란트 시술 가이드장치 제작시스템 및 그 제작방법
WO2021215840A1 (ko) 라이브러리 데이터를 사용한 스캔 데이터 보완 방법 및 시스템
Abdelrahim et al. Novel Image-Based 3D Reconstruction of the Human Jaw using Shape from Shading and Feature Descriptors.
WO2019124845A1 (ko) 임플란트 진단용 영상 생성 시스템 및 그 생성방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20905735

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20905735

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 20905735

Country of ref document: EP

Kind code of ref document: A2