WO2022092594A1 - 구강 이미지 처리 장치, 및 구강 이미지 처리 방법 - Google Patents

구강 이미지 처리 장치, 및 구강 이미지 처리 방법 Download PDF

Info

Publication number
WO2022092594A1
WO2022092594A1 PCT/KR2021/013459 KR2021013459W WO2022092594A1 WO 2022092594 A1 WO2022092594 A1 WO 2022092594A1 KR 2021013459 W KR2021013459 W KR 2021013459W WO 2022092594 A1 WO2022092594 A1 WO 2022092594A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
tooth
oral
data
model data
Prior art date
Application number
PCT/KR2021/013459
Other languages
English (en)
French (fr)
Inventor
이승훈
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200150519A external-priority patent/KR20220056760A/ko
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to US18/033,695 priority Critical patent/US20230390035A1/en
Publication of WO2022092594A1 publication Critical patent/WO2022092594A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Definitions

  • the disclosed embodiment relates to an oral image processing apparatus and an oral image processing method, and more particularly, to an oral image processing apparatus and processing method for generating an oral image including the root (dental root) of a tooth.
  • a method for acquiring oral information of a patient a method of acquiring an intraoral image by inserting an oral scanner into the patient's oral cavity has been used.
  • 3D data on an object such as the patient's teeth, gums, and jawbone may be obtained, and the obtained 3D data is used for treatment or correction of teeth.
  • the intraoral scanner acquires three-dimensional surface data, and cannot acquire data of the root (dental root) region of the tooth. Accordingly, when the tooth area and the gingival area are separated from the oral image, a tooth image without the root of the tooth is obtained. When a tooth movement or orthodontic simulation is performed based on the tooth image without the root of the tooth, there is a problem in that an unnatural simulation may be provided.
  • the disclosed embodiment provides an oral image processing apparatus and an oral image that can generate an oral image including not only the head (crown) region of the tooth, but also the root (dental root) region of the tooth by generating data on the root region of the tooth.
  • the purpose of this is to provide a treatment method for
  • An oral image processing method includes: acquiring an oral image by scanning an object including one or more teeth; generating a first tooth image from the oral image; Based on the data, the method may include generating a second tooth image including the roots of the teeth, and displaying the second tooth image.
  • the generating of the first tooth image may include segmenting a tooth region and a gingival region in the oral cavity image.
  • the generating of the first tooth image according to an embodiment may further include segmenting the teeth included in the tooth area.
  • the generating of the second tooth image includes aligning the first tooth image to the tooth model data, and synthesizing the first tooth image and the tooth model data. can do.
  • the aligning of the first tooth image to the tooth model data may include: based on shape information of teeth included in the first tooth image and shape information of teeth included in the tooth model data, 1 It may include aligning the teeth included in the tooth image to the teeth included in the tooth model data.
  • the step of synthesizing the first tooth image and the tooth model data may include generating a composite image by performing a synthesis test.
  • the synthesis test according to an embodiment may be a nearest neighbor search or a ray intersection test.
  • the generating of the synthetic image may include finding a vertex of a first tooth image that is the closest to any vertex of the tooth model data, and the tooth model If the distance between the vertex of the data and the vertex of the first tooth image at the closest distance is less than or equal to the threshold distance, it is determined that the data of the first tooth image is the data of the composite image, and the distance closest to the vertex of the tooth model data is If the distance between the vertices of the first tooth image in . is greater than the threshold distance, determining an arbitrary vertex of the tooth model data as data of the composite image.
  • the generating of the composite image includes: a normal vector of the first vertex, generated from a first vertex among a plurality of vertices included in the tooth model data; It is tested whether a virtual ray having a parallel direction intersects the first tooth image, and when the virtual ray intersects the first tooth image, data of the first tooth image of the intersecting point is obtained. determining the data of the composite image, and when the virtual ray does not intersect the first tooth image, determining the first vertex data as the data of the composite image.
  • the oral image processing method includes at least one of a portion of the first tooth image and a portion of the tooth model data in a boundary region between the first tooth image and the tooth model data, which is included in the composite image. It may further include the step of removing.
  • the oral image processing method may further include scaling the tooth model data, which is included in the composite image.
  • the oral image processing method may further include performing surface blending on a gap region included in the composite image.
  • the second tooth image includes a crown region and a root region of the one or more teeth, and the generating of the second tooth image includes, based on the scanned oral data, an image of the crown region. and generating an image of the root region based on the tooth model data.
  • An oral image processing apparatus includes a display, a memory storing one or more instructions, and a processor, wherein the processor executes the one or more instructions stored in the memory.
  • the oral image processing apparatus and the oral image processing method according to the disclosed embodiment may generate a tooth image including the root of the teeth when the tooth image is generated by segmenting the teeth in the oral cavity image. Accordingly, it is possible to provide a natural tooth image or a simulation based on the tooth image.
  • FIG. 1 is a view for explaining an oral image processing system according to an embodiment.
  • FIG. 2 is a diagram referenced to explain an operation of generating a first tooth image according to an exemplary embodiment.
  • 3 to 8 are diagrams referenced to explain an operation in which the oral image processing apparatus according to an exemplary embodiment generates a second tooth image including a root region of a tooth.
  • FIG. 9 is a diagram illustrating an interface screen on which a second tooth image is displayed, according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating an oral image processing method according to an embodiment.
  • FIG. 11 is a block diagram illustrating an oral image processing apparatus according to an exemplary embodiment.
  • the image may include at least one tooth or an image representing an oral cavity including at least one tooth (hereinafter, 'oral image').
  • an image may be a two-dimensional image of an object or a three-dimensional model or three-dimensional image representing the object three-dimensionally.
  • an image may refer to data necessary to represent an object in two or three dimensions, for example, raw data obtained from at least one image sensor.
  • the raw data is data obtained to generate an oral image, and when scanning the inside of the patient's mouth, which is an object, using an intraoral scanner, at least one image sensor included in the intraoral scanner. It may be data to be obtained (eg, two-dimensional data).
  • the raw data may be data obtained from at least one image sensor included in the table scanner when a gypsum model is scanned using the table scanner.
  • the present invention is not limited thereto.
  • 'object' refers to teeth, gingiva, at least a portion of the oral cavity, and/or an artificial structure insertable into the oral cavity (eg, an orthodontic device, an implant, an artificial tooth, an orthodontic auxiliary tool inserted into the oral cavity, etc.) ), plaster models, impression models, and the like.
  • the orthodontic device may include at least one of a bracket, an attachment, an orthodontic screw, a lingual orthodontic device, and a removable orthodontic maintenance device.
  • FIG. 1 is a view for explaining an oral image processing system according to an embodiment.
  • an oral image processing system includes an intraoral scanner 10 and an oral image processing apparatus 100 .
  • the intraoral scanner 10 is a medical device for acquiring an image in the oral cavity.
  • the intraoral scanner 10 may be a device for acquiring an image of the oral cavity including at least one tooth by being inserted into the oral cavity and scanning teeth in a non-contact manner.
  • the intraoral scanner 10 may have a form that can be drawn in and out of the oral cavity, and scans the inside of the patient's mouth using at least one image sensor (eg, an optical camera, etc.).
  • the oral scanner 10 is an artificial structure that can be inserted into the teeth, gingiva, and the oral cavity (eg, orthodontic devices including brackets and wires, implants, artificial teeth, orthodontic aids inserted into the oral cavity, etc.)
  • surface information on the object may be obtained as raw data.
  • the image data obtained from the intraoral scanner 10 may be transmitted to the intraoral image processing apparatus 100 connected through a wired or wireless communication network.
  • the oral image processing device 100 is connected to the intraoral scanner 10 through a wired or wireless communication network, and receives a two-dimensional image obtained by scanning the oral cavity from the intraoral scanner 10, and based on the received two-dimensional image, the oral cavity It can be any electronic device capable of generating, processing, displaying and/or transmitting an image.
  • the oral cavity image processing apparatus 100 may generate information by processing the two-dimensional image data based on the two-dimensional image data received from the intraoral scanner 10, or may generate an oral image by processing the two-dimensional image data. Also, the oral cavity image processing apparatus 100 may display the generated information and the oral cavity image through the display 130 .
  • the oral image processing apparatus 100 may be a computing device such as a smart phone, a laptop computer, a desktop computer, a PDA, or a tablet PC, but is not limited thereto.
  • the oral image processing apparatus 100 may exist in the form of a server (or server device) for processing an oral image.
  • the oral cavity scanner 10 may transmit raw data obtained through the oral cavity scan to the oral cavity image processing apparatus 100 as it is.
  • the oral cavity image processing apparatus 100 may generate a three-dimensional oral cavity image representing the oral cavity three-dimensionally based on the received raw data.
  • the oral image processing apparatus 100 may generate three-dimensional data (eg, surface data) representing the shape of the surface of the object in three dimensions, based on the received raw data.
  • the 3D surface data may be in the form of mesh data.
  • mesh data is a combination of a plurality of polygons (faces), and a polygon means a polygon formed by a plurality of vertices.
  • the polygon may be a polygon such as a triangle or a square, and depending on the shape of the polygon, the mesh data may be represented as a triangle mesh, a square mesh, or a polygon mesh.
  • the '3D oral cavity image' may be generated by modeling the internal structure of the oral cavity based on the received raw data in three dimensions, a '3D oral cavity model' or a '3D oral cavity image' It may be called '.
  • a model or image representing the oral cavity in two or three dimensions is collectively referred to as a 'mouth image'.
  • the oral image processing apparatus 100 may analyze, process, display, and/or transmit the generated oral image to an external device.
  • the oral cavity scanner 10 may obtain raw data through an intraoral scan, and process the obtained raw data to generate an image corresponding to the oral cavity as an object.
  • the generated image may be transmitted to the oral image processing apparatus 100 .
  • the oral image processing apparatus 100 may analyze, process, display and/or transmit the received image.
  • the oral image processing apparatus 100 is an electronic device capable of generating and displaying an oral cavity image three-dimensionally representing an oral cavity including one or more teeth, which will be described in detail below.
  • FIG. 2 is a diagram referenced to explain an operation of generating a first tooth image according to an exemplary embodiment.
  • the oral image processing apparatus 100 may acquire 3D oral cavity data. For example, using the intraoral scanner 10 described in FIG. 1, by scanning at least one tooth, three-dimensional oral data may be obtained. In this case, not only the teeth but also the gingiva adjacent to the teeth may be scanned.
  • the three-dimensional oral data may be mesh data or data representing surface information of the object (three-dimensional surface data).
  • the oral cavity image processing apparatus 100 may generate the oral cavity image 210 based on the obtained 3D oral cavity data. As shown in FIG. 2 , the oral cavity image processing apparatus 100 according to an embodiment may visually output the oral cavity image 210 through the user interface screen.
  • the user interface screen may be a screen of the display 130 of FIG. 1 .
  • the user interface screen may include at least one menu for allowing a user (eg, a dentist, etc.) to use data obtained by scanning teeth in the oral scanner 10 .
  • the oral image processing apparatus 100 may automatically or manually segment a tooth region and a gingival region in the oral image 210 to generate the first tooth image 230 . Segmenting the tooth region and the gingival region of the oral cavity image 210 may mean separating teeth included in the oral cavity image from the gingival region.
  • the oral image processing apparatus 100 may segment the oral image 210 into a tooth region and a gingival region using artificial intelligence (AI) without a user input.
  • AI artificial intelligence
  • the oral image processing apparatus 100 may perform segmentation based on a user input. Specifically, the oral cavity image processing apparatus 100 may display, along with the oral cavity image 210, menus for editing or changing the oral cavity image on the user interface screen. When receiving a user input for selecting the segmentation menu 220 from among at least one displayed menu, the oral image processing apparatus 100 may segment the tooth region and the gingiva region of the oral cavity image 210 .
  • segmentation for generating the first tooth image 230 may mean separating the tooth area and the gingival area and then separating the teeth included in the tooth area into individual teeth.
  • the segmentation according to the user's input may be performed on individual teeth according to a distribution of curvatures of the tooth area and the gingival area and/or the distribution of curvature of teeth included in the tooth area.
  • the oral image processing apparatus 100 may perform segmentation on only some selected teeth 240 based on an input of a user selecting some teeth 240 among teeth included in the oral cavity image.
  • the present invention is not limited thereto.
  • the oral image processing apparatus 100 may visually output the first tooth image 230 through the user interface screen.
  • the oral scanner 10 acquires data on the object by scanning the surface of the object, and data on the root (root) region of the tooth covered by the gingiva cannot be obtained. Accordingly, when a tooth is segmented from an oral image, the segmented tooth is an open tooth without a tooth root area. There is a problem that simulation can be provided.
  • the oral image processing apparatus 100 may generate a tooth image (hereinafter, referred to as a second tooth image) including the root region of the tooth.
  • 3 to 8 are diagrams referenced to explain an operation in which the oral image processing apparatus according to an exemplary embodiment generates a second tooth image including a root region of a tooth.
  • FIG. 3 is a diagram referenced to explain an operation of aligning (aligning) the first tooth image and the tooth model data of FIG. 2 .
  • the oral image processing apparatus 100 may align the first tooth image 230 of FIG. 2 with the tooth model data 310 .
  • the tooth model data 310 is template model data in which teeth have an ideal shape and teeth are arranged in ideal positions.
  • the oral image processing apparatus 100 may store a plurality of tooth model data in a memory, and may determine tooth model data similar to the first tooth image 230 from among the plurality of tooth model data. At this time, the oral image processing apparatus 100 is based on the shape information of the teeth included in the first tooth image 230 and the shape information of the teeth included in the plurality of tooth model data, the first tooth image 230 and the most Similar tooth model data can be determined. In addition, the oral image processing apparatus 100 is based on the shape information of the arch included in the first tooth image 230, the size information of the teeth, etc. , it is possible to determine the tooth model data most similar to the first tooth image 230 . However, the present invention is not limited thereto.
  • the oral image processing apparatus 100 includes information on the shape of the arch included in the first tooth image 230 , shape information of teeth, size information of teeth, and the like, information on the shape of the arch included in the tooth model data 310 , and shapes of teeth.
  • the first tooth image 230 may be aligned with the tooth model data 310 based on the information and size information of the teeth.
  • ICP Iterative closest point
  • the same algorithm can be used.
  • ICP is an algorithm for minimizing between two point clouds, and is an algorithm used to reconstruct a 2D or 3D surface from different scan data.
  • the ICP algorithm fixes a point cloud called a reference and transforms the point cloud called a source to best match the reference.
  • the ICP algorithm can align the 3D model by iteratively modifying the transformations (combination of translation and rotation) necessary to minimize the error metric representing the distance from the source to the reference.
  • various algorithms other than ICP may be used, for example, Kabsch algorithm may be used.
  • a point cloud corresponding to the first tooth image 230 may be a reference, and a point cloud corresponding to the tooth model data 310 may be a source.
  • ICP Iterative closest point
  • a point cloud corresponding to the tooth model data 310 may be a source.
  • the present invention is not limited thereto.
  • the oral image processing apparatus 100 may synthesize the first tooth image 230 and the tooth model data 310 by performing a synthesis test. there is.
  • the synthesis test may be a nearest neighboring test or a Ray intersection test.
  • the oral image processing apparatus 100 may generate a composite image by performing a nearest neighbor search test.
  • the nearest neighbor search test finds the vertex of the first tooth image 230 that is the closest from any vertex of the tooth model data 310, and finds the vertex closest to the vertex of the tooth model data 310. 1 This means examining the distance between the vertices of the tooth image 230 . When the distance is less than a specific threshold distance, the vertex of the tooth model data 310 is deleted, and when the distance exceeds a specific threshold distance, the tooth model data 310 is used to generate the composite image 430 .
  • the specific critical distance may be 1 mm or more and 3 mm or less (eg, 2 mm), but is not limited thereto, and may have various ranges.
  • the nearest neighbor search test may be one or more selected from a K-d tree, an Octree, and an R-tree, but is not limited thereto.
  • the nearest neighbor search test can be performed quickly after spatial decomposition using spatial search algorithms, but is not limited thereto, and various algorithms can be used.
  • the oral image processing apparatus 100 performs a ray intersection inspection and deletes the tooth model data 310 in an area where the first tooth image 230 and the tooth model data 310 overlap, thereby synthesizing You can create an image.
  • the ray intersection inspection generates a virtual ray parallel to the normal vector of the vertex by a predetermined distance in both directions on a plurality of vertices included in the tooth model data 310 to create a first tooth image ( 230) to check whether it intersects with the data of
  • the oral image processing apparatus 100 may generate a composite image based on the result of the ray crossing inspection.
  • the predetermined distance may be 1 mm or more and 3 mm or less (eg, 2 mm) in both directions, but is not limited thereto, and may have various ranges. Also, a predetermined distance may be determined according to a location where the virtual ray is generated. 4 illustrates a case where the tooth model data 310 is located inside the first tooth image 230, but the tooth model data according to an embodiment may be located outside the first tooth image, and Since it may be positioned, the oral image processing apparatus 100 may generate virtual rays in both directions to perform a ray intersection inspection.
  • a virtual ray 415 generated in a direction parallel to a normal vector of the first vertex 410 is the second
  • the oral image processing apparatus 100 may determine the data of the first tooth image 230 of the intersecting point 412 as data of the composite image 430 .
  • the oral image processing apparatus 100 may determine the data of the second vertex 420 as the data of the composite image 430 .
  • the oral image processing apparatus 100 performs a ray intersection inspection on a plurality of vertices included in the tooth model data in the manner described above, and when the vertices and the first tooth image 230 intersect, the tooth model data
  • the composite image 430 may be generated by deleting the vertex of 310 and its adjacent faces, and using the tooth model data 310 if they do not intersect.
  • an adjacent face may include one or more faces that share a vertex from which the virtual ray is generated.
  • the first area 431 of the composite image 430 represents data obtained from the first tooth image
  • the second area 432 represents data obtained from the tooth model data 310 .
  • the oral image processing apparatus 100 When the oral image processing apparatus 100 according to an embodiment performs a ray cross-examination using the first tooth image 230 segmented into only the tooth area and the gingival area, it is included in the first tooth model data 310
  • data on the root portion of the first tooth included in the first tooth model data 310 may be deleted.
  • the oral image processing apparatus 100 generates a virtual light beam having a predetermined distance, and accordingly, the virtual light beam generated at the root of the first tooth is the first It does not intersect with the scan data for the second tooth adjacent to the tooth.
  • the teeth included in the first tooth image 230 are segmented into individual teeth, and each of the individual teeth is aligned with each of the teeth included in the tooth model data. can do.
  • the oral image processing apparatus 100 may sequentially perform a ray cross-examination on each of the individual teeth. For example, performing a ray cross-examination on the scan data (first tooth image) and the tooth model data of the first tooth among the one or more teeth, and the scan data (the first tooth image) of the second tooth and the tooth A ray intersection check can be performed on the model data.
  • the composite image 430 may include a boundary region 510 between the first tooth image data and the tooth model data, and the oral image processing apparatus 100 provides the first tooth image data and the teeth.
  • shrink boundary can be performed.
  • the boundary contraction may be an operation of deleting (reducing) a mesh shape of at least one of a part of data of the first tooth image located in the boundary region 510 of the composite image 430 or a part of the tooth model data.
  • the oral image processing apparatus 100 may delete a combination of polygons of a predetermined size from mesh data included in the first tooth image data.
  • the oral image processing apparatus 100 may remove the sharp area 530 included in the boundary area of the composite image 430 by performing boundary contraction.
  • the oral image processing apparatus 100 does not intersect the tooth model data and the first tooth image during the ray cross examination due to a scan hole existing in the first tooth image, so that the first tooth image does not intersect.
  • the tooth model data may not be deleted and may remain as a small cluster in the composite image.
  • the small cluster may mean a small data mass that is spaced apart from (apart from) a data mass (first tooth image data or tooth model data) included in the composite image.
  • the small cluster may mean a data mass having a size less than or equal to a preset threshold, but is not limited thereto.
  • the oral image processing apparatus 100 may remove small clusters from the composite image.
  • the oral image processing apparatus 100 may scale the tooth model data to match the scan data.
  • the oral image processing apparatus 100 may provide the dental model data for the first tooth.
  • the tooth model data for the first tooth may be scaled such that a difference between the size of , and the size of the scan data (first tooth image) of the first tooth is less than a preset value.
  • FIG. 6 is a diagram referenced to explain a method of obtaining a size value of a tooth according to an exemplary embodiment.
  • teeth 610 eg, anterior teeth 21 included in the scan data (first tooth image) will be described as the basis.
  • the teeth 610 of the scan data may be projected on the zx plane, as shown in FIG. 6 .
  • the boundary box 630 is can be set.
  • the oral image processing apparatus 100 may obtain horizontal and vertical average values of the boundary box 630 .
  • the oral image processing apparatus 100 may acquire horizontal and vertical average values for the teeth (eg, anterior teeth 21) of the tooth model data in the same manner.
  • the oral image processing apparatus 100 may scale the tooth model data by using horizontal and vertical average values of the acquired scan data and the tooth model data.
  • the oral image processing apparatus 100 may increase the tooth model data by 10/15. It is possible to reduce the difference between the scan data and the tooth size by scaling.
  • FIG. 7 is a diagram illustrating a composite image obtained when scaling is not performed according to an exemplary embodiment.
  • the composite image 710 shown in FIG. 7 does not perform scaling when the difference between the size of the scan data (first tooth image) for the first tooth 720 and the size of the tooth model data is greater than or equal to a preset value, An image obtained by synthesizing the first tooth image and the tooth model data is shown.
  • the size of the tooth model data for the first tooth 720 is Since the size of the scan data for the first tooth 720 is larger than a preset value, the tooth model data 730 (root region) for the first tooth 720 may protrude from the gums.
  • the oral image processing apparatus 100 has an effect of preventing the tooth model data from protruding from the gums by performing the scaling.
  • FIG. 8 is a diagram referenced to explain a case in which a gap occurs in the composite image 430 and surface blending for the gap.
  • a scan hole 810 is generated in the first tooth image 230, and the ray intersection test shown and described in FIG. 4 is performed, As a result of synthesizing the first tooth image 230 and the tooth model data 310 , a first gap g1 and a second gap g2 are generated in the composite image 430 due to the scan hole 810 . Also, due to the boundary between the first tooth image 230 and the tooth model data 310 , a third gap g3 and a fourth gap g4 are generated in the composite image 430 .
  • the oral image processing apparatus 100 may include a portion of data of the first tooth image in boundary regions of the first tooth image 230 and the tooth model data 310 included in the composite image 430 . and at least one of a portion of the tooth model data may be deleted (boundary shrinkage). Since the boundary contraction has been described in detail with reference to FIG. 5 , a detailed description thereof will be omitted. According to the boundary contraction operation, the sizes of the first to fourth gaps g1 , g2 , g3 , and g4 may increase.
  • the oral image processing apparatus 100 may perform surface blending (mesh blending) on the composite image 430 .
  • Surface blending may refer to a technique for filling a gap included in the composite image 430 , and surface blending may be performed to generate surface data corresponding to the gap. For example, as shown in FIG. 8 , when a first gap g1 occurs between the first surface 821 and the second surface 822 , the surface blending is performed to fill the first gap g1 . , may mean creating a third surface 823 that smoothly connects between the first surface 821 and the second surface 822 . Various surface blending techniques may be used to create the third surface 823 .
  • the oral image processing apparatus 100 uses a portion (hereinafter, first patches) of the first mesh data constituting the first surface 821 and the second surface 822 constituting the second surface. 2 Blending patches that smoothly connect a portion of the mesh data (second patches) may be generated, and the third surface 823 may be configured by the blending patches.
  • the oral image processing apparatus 100 may perform surface blending on the remaining gaps g2 , g3 , and g4 included in the composite image 430 in the same manner as the first gap g1 .
  • the oral image processing apparatus 100 may optionally adjust the mesh density after performing surface blending.
  • the scan data and the template data may have different mesh densities, and the mesh densities are related to resolution.
  • the oral image processing apparatus 100 When the oral image processing apparatus 100 performs the surface blending described with reference to FIG. 8 , the mesh density of the first tooth image 230 (scan data) is changed, and sharpness (resolution) compared to the initial scan data obtained by the scanner may be lowered. Accordingly, the oral image processing apparatus 100 may adjust the change of the mesh density so that the sharpness of the scan data does not decrease below a preset value.
  • FIG. 9 is a diagram illustrating an interface screen on which a second tooth image is displayed, according to an exemplary embodiment.
  • the oral image processing apparatus 100 may display a second tooth image 910 on which surface blending is completed with respect to the composite image.
  • a tooth included in the second tooth image 910 is a tooth including a tooth root (closed tooth).
  • the color of the second tooth image 910 may be determined based on the color of the first tooth image 230 .
  • the oral image processing apparatus 100 is a value obtained by averaging the color values (eg, pixel values) of the oral data included in the first tooth image 230 and included in the second tooth image 910 . It is possible to determine the color value of tooth model data or surface data generated by surface blending.
  • the present invention is not limited thereto.
  • the oral image processing apparatus 100 may visually output the second tooth image 910 through the user interface screen.
  • the oral image processing apparatus 100 may display a menu 250 for obtaining a second tooth image together with the first tooth image 230 on the user interface screen as shown in FIG. 2 . there is.
  • the oral image processing apparatus 100 performs the second tooth image 910 based on the operations described with reference to FIGS. 3 to 7 . may be generated, and the generated second tooth image 910 may be displayed on the user interface screen.
  • the user may manually select a tooth region of the tooth in which the error occurs.
  • the oral image processing apparatus 100 may generate an error-corrected second 'tooth image by repeating the process described in FIGS. 3 to 9 by using the scan data of the selected tooth region and the tooth model data.
  • FIG. 10 is a flowchart illustrating an oral image processing method according to an embodiment.
  • the oral cavity image processing apparatus 100 may acquire oral data ( S1010 ).
  • the oral scanner 10 By using the oral scanner 10, by scanning at least one tooth, three-dimensional oral data can be obtained. Or by using a table scanner, by scanning a plaster model, an impression model, etc., it is possible to obtain oral data. In this case, not only the teeth but also the gingiva adjacent to the teeth may be scanned.
  • the three-dimensional oral data may be mesh data or data representing surface information of the object.
  • the oral cavity image processing apparatus 100 may generate an oral cavity image based on the oral cavity data.
  • the oral image processing apparatus 100 may segment teeth in the oral cavity image to generate a first tooth image (S1020).
  • the oral image processing apparatus 100 may segment the tooth region and the gingival region of the oral image, and segmenting the tooth region and the gingival region of the oral image may mean separating the teeth included in the oral image from the gingival region. there is. Accordingly, a first tooth image including only teeth may be generated. In this case, the first tooth image may include teeth without a tooth root.
  • the oral image processing apparatus 100 may generate a second tooth image including root regions of the teeth based on the first tooth image and the tooth model data (S1030).
  • the oral image processing apparatus 100 may display the generated second tooth image (S1040).
  • FIG. 11 is a block diagram illustrating an oral image processing apparatus according to an exemplary embodiment.
  • the oral image processing method shown in FIG. 10 may be performed through the oral image processing apparatus 100 . Accordingly, the method of processing the oral cavity image shown in FIG. 10 may be a flowchart showing operations of the oral image processing apparatus 100 .
  • the oral image processing apparatus 100 may include a communication interface 110 , a user interface 120 , a display 130 , a memory 140 , and a processor 150 .
  • the communication interface 110 may communicate with at least one external electronic device (eg, the intraoral scanner 10, a server, or an external medical device) through a wired or wireless communication network.
  • the communication interface 110 may communicate with at least one external sperm device under the control of the processor 150 .
  • the communication interface 110 is at least one short-distance communication for performing communication according to a communication standard such as Bluetooth, Wi-Fi, BLE (Bluetooth Low Energy), NFC/RFID, Wifi Direct, UWB, or ZIGBEE. It can contain modules.
  • a communication standard such as Bluetooth, Wi-Fi, BLE (Bluetooth Low Energy), NFC/RFID, Wifi Direct, UWB, or ZIGBEE. It can contain modules.
  • the communication interface 110 may further include a telecommunication module for performing communication with a server for supporting telecommunication according to a telecommunication standard.
  • the communication interface 110 may include a remote communication module for performing communication through a network for Internet communication.
  • the communication interface 110 may include a remote communication module for performing communication through a communication network conforming to communication standards such as 3G, 4G, and/or 5G.
  • the communication interface 110 may include at least one port for connecting to an external electronic device by a wired cable in order to communicate with an external electronic device (eg, intraoral scanner, etc.) by wire. Accordingly, the communication interface 110 may communicate with an external electronic device connected by wire through at least one port.
  • an external electronic device eg, intraoral scanner, etc.
  • the user interface 120 may receive a user input for controlling the oral image processing apparatus 100 .
  • the user interface 120 includes a touch panel for sensing a user's touch, a button for receiving a user's push operation, a mouse or keyboard for designating or selecting a point on the user interface screen, etc. It may include, but is not limited to, a user input device.
  • the user interface 120 may include a voice recognition device for voice recognition.
  • the voice recognition device may be a microphone, and the voice recognition device may receive a user's voice command or voice request. Accordingly, the processor 150 may control an operation corresponding to a voice command or a voice request to be performed.
  • the display 130 displays a screen. Specifically, the display 130 may display a predetermined screen according to the control of the processor 150 . Specifically, the display 130 may display a user interface screen including an oral cavity image generated based on data obtained by scanning the patient's oral cavity in the oral cavity scanner 10 . Alternatively, the display 130 may display a user interface screen including information related to a patient's dental treatment.
  • the memory 140 may store at least one instruction. Also, the memory 140 may store at least one instruction executed by the processor 150 . Also, the memory 140 may store at least one program executed by the processor 150 . In addition, the memory 140 may store data received from the intraoral scanner 10 (eg, raw data obtained through an intraoral scan, etc.). Alternatively, the memory 140 may store an oral cavity image representing the oral cavity in three dimensions.
  • the processor 150 performs at least one instruction stored in the memory 140 to control an intended operation to be performed.
  • the at least one instruction may be stored in an internal memory included in the processor 150 or a memory 140 included in the data processing device separately from the processor.
  • the processor 150 may control at least one configuration included in the data processing apparatus to perform an intended operation by executing at least one instruction. Accordingly, although a case in which the processor performs predetermined operations is described as an example, it may mean that the processor controls at least one component included in the data processing apparatus so that the predetermined operations are performed.
  • the processor 150 executes one or more instructions stored in the memory 140 , and based on the two-dimensional image data obtained by scanning at least one tooth, three-dimensional oral data may be obtained.
  • the three-dimensional oral data may be mesh data. When at least one tooth is scanned, not only the teeth but also the gingiva adjacent to the teeth may be scanned.
  • the processor 150 may generate an oral image based on oral data by executing one or more instructions stored in the memory 140 , and segment teeth in the oral image to generate a first tooth image.
  • the first tooth image may include teeth without a tooth root.
  • the processor 150 may generate a second tooth image including root regions of the teeth based on the first tooth image and the tooth model data by executing one or more instructions stored in the memory 140 .
  • the tooth model data may be pre-stored in the memory 140 or data obtained from an external device through the communication interface 110 .
  • the processor 150 may align the first tooth image with the tooth model data by executing one or more instructions stored in the memory 140 .
  • the processor 150 converts the first tooth image into a tooth model by using various alignment algorithms based on shape information of teeth included in the first tooth image and shape information of teeth included in the tooth model data. Data can be sorted.
  • the processor 150 may generate a composite image by synthesizing the first tooth image and the tooth model data aligned with each other by performing ray intersection. Since this has been described in detail with reference to FIG. 4 , a detailed description thereof will be omitted.
  • the processor 150 executes one or more instructions stored in the memory 140 to perform boundary contraction on a boundary region included in the composite image, and perform surface blending for a gap generated therefrom, thereby performing a second tooth image.
  • the processor 150 executes one or more instructions stored in the memory 140 to perform boundary contraction on a boundary region included in the composite image, and perform surface blending for a gap generated therefrom, thereby performing a second tooth image.
  • the processor 150 may determine the color of the second tooth image based on the color of the first tooth image by executing one or more instructions stored in the memory 140, and display ( 130) can be controlled.
  • the processor 150 includes at least one internal processor and a memory device (eg, RAM, ROM, etc.) for storing at least one of a program, an instruction, a signal, and data to be processed or used by the internal processor. ) may be implemented in a form including
  • the processor 150 may include a graphic processing unit (Graphic Processing Unit) for processing graphics corresponding to video.
  • the processor may be implemented as a system on chip (SoC) in which a core and a GPU are integrated.
  • SoC system on chip
  • the processor may include a single core or more multi-cores.
  • the processor may include a dual-core, triple-core, quad-core, hexa-core, octa-core, deca-core, dodeca-core, hexa-dash-vale core, and the like.
  • the processor 150 may generate an oral cavity image based on the two-dimensional image received from the intraoral scanner 10 .
  • the communication interface 110 may receive data obtained from the intraoral scanner 10, for example, raw data obtained through an intraoral scan.
  • the processor 150 may generate a 3D oral cavity image representing the oral cavity in three dimensions based on the raw data received from the communication interface 110 .
  • the intraoral scanner 10 may include at least one or more cameras to restore a three-dimensional image according to the optical triangulation method, and more specifically, L corresponding to the left field of view. It may include a camera and an R camera corresponding to a right field of view.
  • the intraoral scanner may acquire L image data corresponding to the left field of view and R image data corresponding to the right field of view from the L camera and the R camera, respectively. Subsequently, the intraoral scanner may transmit the raw data including the L image data and the R image data to the communication interface 110 of the intraoral image processing apparatus 100 .
  • the communication interface 110 may transmit the received raw data to the processor 150 , and the processor 150 may generate an oral cavity image three-dimensionally representing the oral cavity based on the received raw data.
  • the processor 150 may control the communication interface 110 to directly receive an oral cavity image representing the oral cavity from an external server, medical device, or the like.
  • the processor may acquire a three-dimensional oral image without generating a three-dimensional oral image based on raw data.
  • the processor 150 performing operations means that the processor 150 executes at least one instruction to directly perform the above operations.
  • it may include controlling other components so that the above-described operations are performed.
  • the oral image processing apparatus 100 may include only some of the components illustrated in FIG. 7 , or may include more components in addition to the components illustrated in FIG. 7 . there is.
  • the oral image processing device 100 may store and execute dedicated software linked to the oral scanner.
  • the dedicated software may be called a dedicated program, a dedicated tool, or a dedicated application.
  • the dedicated software stored in the oral image processing device 100 is connected to the intraoral scanner 10 and provides data obtained through intraoral scans. You can receive real-time.
  • Medit has produced and distributed 'Medit Link', a software for processing, managing, using, and/or transmitting data acquired from an intraoral scanner (eg, i500).
  • 'dedicated software refers to a program, tool, or application that can be operated in conjunction with the oral scanner, so that various oral scanners developed and sold by various manufacturers may be commonly used.
  • the above-described dedicated software may be produced and distributed separately from the oral scanner that performs the oral scan.
  • the oral image processing apparatus 100 may store and execute dedicated software corresponding to the i500 product.
  • the transmission software may perform at least one operations to acquire, process, store, and/or transmit the oral image.
  • the dedicated software may be stored in the processor.
  • the dedicated software may provide a user interface for use of data acquired from the intraoral scanner.
  • the user interface screen provided by the dedicated software may include an oral image generated according to the disclosed embodiment.
  • the method of processing an oral image according to an embodiment of the present disclosure may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium.
  • an embodiment of the present disclosure may be a computer-readable storage medium in which one or more programs including at least one instruction for executing a method of processing an oral image are recorded.
  • the computer-readable storage medium may include program instructions, data files, data structures, etc. alone or in combination.
  • examples of the computer-readable storage medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floppy disks.
  • a hardware device configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like may be included.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the 'non-transitory storage medium' may mean that the storage medium is a tangible device.
  • the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • the method for processing an oral image according to various embodiments disclosed herein may be provided by being included in a computer program product.
  • the computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)). Alternatively, it may be distributed online (eg, downloaded or uploaded) through an application store (eg, play store, etc.) or directly between two user devices (eg, smartphones).
  • the computer program product according to the disclosed embodiment may include a storage medium in which a program including at least one instruction for performing the method of processing an oral image according to the disclosed embodiment is recorded.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

개시된 실시예들은 구강 이미지 처리 방법 및 구강 이미지 처리 장치에 관한 것으로, 일 실시예에 따른 구강 이미지 처리 방법은, 하나 이상의 치아들을 포함하는 대상체를 스캔하여, 구강 이미지를 획득하는 단계, 구강 이미지에서 제1 치아 이미지를 생성하는 단계, 제1 치아 이미지와 치아 모델 데이터에 기초하여, 치아들의 뿌리를 포함하는 제2 치아 이미지를 생성하는 단계, 및 제2 치아 이미지를 표시하는 단계를 포함할 수 있다.

Description

구강 이미지 처리 장치, 및 구강 이미지 처리 방법
개시된 실시예는 구강 이미지 처리 장치 및 구강 이미지 처리 방법에 관한 것으로, 구체적으로 치아의 뿌리(치근)를 포함하는 구강 이미지를 생성하는 구강 이미지의 처리 장치 및 처리 방법에 관한 것이다.
최근에는 환자의 구강 정보를 획득하기 위한 방법으로, 환자의 구강에 구강 스캐너를 삽입하여 구강 내의 이미지를 획득하는 방법이 이용되고 있다. 구강 스캐너를 이용하여 환자의 구강을 스캔함으로써 환자의 치아, 잇몸, 턱뼈 등의 대상체에 대한 3차원 데이터가 획득될 수 있으며, 획득된 3차원 데이터는, 치아의 치료나 교정 등에 이용된다.
구강 스캐너는 3차원 표면 데이터를 획득하는 것으로, 치아의 뿌리(치근) 영역의 데이터까지는 획득할 수 없다. 따라서, 구강 이미지에서 치아 영역과 치은 영역을 분리하면, 치아의 뿌리가 없는 치아 이미지가 획득되게 된다. 치아의 뿌리가 없는 치아 이미지에 기초하여, 치아 이동이나 교정 시뮬레이션을 수행하는 경우, 부자연스러운 시뮬레이션이 제공될 수 있다는 문제점이 있다.
개시된 실시예는, 치아의 뿌리 영역에 대한 데이터를 생성함으로써, 치아의 머리(치관)영역뿐만 아니라 치아의 뿌리(치근) 영역을 포함하는 구강 이미지를 생성할 수 있는 구강 이미지의 처리 장치 및 구강 이미지의 처리 방법의 제공을 목적으로 한다.
일 실시예에 따른 구강 이미지 처리 방법은, 하나 이상의 치아들을 포함하는 대상체를 스캔하여, 구강 이미지를 획득하는 단계, 상기 구강 이미지에서 제1 치아 이미지를 생성하는 단계, 상기 제1 치아 이미지와 치아 모델 데이터에 기초하여, 상기 치아들의 뿌리를 포함하는 제2 치아 이미지를 생성하는 단계, 및 상기 제2 치아 이미지를 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 제1 치아 이미지를 생성하는 단계는, 상기 구강 이미지에서, 치아 영역과 치은 영역을 세그멘테이션하는 단계를 포함할 수 있다.
일 실시예에 따른 제1 치아 이미지를 생성하는 단계는, 상기 치아 영역에 포함된 상기 치아들을 세그멘테이션하는 단계를 더 포함할 수 있다.
일 실시예에 따른 제2 치아 이미지를 생성하는 단계는, 상기 제1 치아 이미지를 상기 치아 모델 데이터에 정렬(align)시키는 단계, 및 상기 제1 치아 이미지와 상기 치아 모델 데이터를 합성하는 단계를 포함할 수 있다.
일 실시예에 따른 제1 치아 이미지를 상기 치아 모델 데이터에 정렬시키는 단계는, 상기 제1 치아 이미지에 포함된 치아들의 형상 정보와 상기 치아 모델 데이터에 포함된 치아들의 형상 정보에 기초하여, 상기 제1 치아 이미지에 포함된 치아들을 상기 치아 모델 데이터에 포함되는 치아들에 정렬시키는 단계를 포함할 수 있다.
일 실시예에 따른 제1 치아 이미지와 상기 치아 모델 데이터를 합성하는 단계는, 합성 검사를 수행하여, 합성 이미지를 생성하는 단계를 포함할 수 있다.
일 실시예에 따른 합성 검사는 최근접 이웃탐색 검사 또는 광선 교차 검사일 수 있다.
일 실시예에 따른 합성 검사가 최근접 이웃탐색 검사인 경우, 합성 이미지를 생성하는 단계는, 상기 치아 모델 데이터의 임의의 정점으로부터 가장 가까운 거리에 있는 제1 치아 이미지의 정점을 찾고, 상기 치아 모델 데이터의 정점과 가장 가까운 거리에 있는 제1 치아 이미지의 정점 사이의 거리가 임계 거리 이하이면, 제1 치아 이미지의 데이터를 상기 합성 이미지의 데이터로 결정하고, 상기 치아 모델 데이터의 정점과 가장 가까운 거리에 있는 제1 치아 이미지의 정점 사이의 거리가 임계 거리 초과이면, 상기 치아 모델 데이터의 임의의 정점을 합성 이미지의 데이터로 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 합성 검사가 광선 교차 검사인 경우, 상기 합성 이미지를 생성하는 단계는, 상기 치아 모델 데이터에 포함되는 복수의 정점들 중 제1 정점에서 생성된, 상기 제1 정점의 법선 벡터와 평행한 방향을 가지는 가상의 광선이 상기 제1 치아 이미지에 교차하는 지 여부를 테스트하여, 상기 가상의 광선이 상기 제1 치아 이미지와 교차하는 경우, 상기 교차하는 지점의 제1 치아 이미지의 데이터를 상기 합성 이미지의 데이터로 결정하고, 상기 가상의 광선이 상기 제1 치아 이미지와 교차하지 않는 경우, 상기 제1 정점 데이터를 상기 합성 이미지의 데이터로 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 구강 이미지 처리 방법은, 상기 합성 이미지에 포함되는, 상기 제1 치아 이미지와 상기 치아 모델 데이터의 경계 영역에서, 상기 제1 치아 이미지의 일부 및 상기 치아 모델 데이터의 일부 중 적어도 하나를 제거하는 단계를 더 포함할 수 있다.
일 실시예에 따른 구강 이미지 처리 방법은, 상기 합성 이미지에 포함되는, 상기 치아 모델 데이터를 스케일링(scaling)하는 단계를 더 포함할 수 있다.
일 실시예에 따른 구강 이미지 처리 방법은, 상기 합성 이미지에 포함되는 갭(gap) 영역에 대한 표면 블렌딩을 수행하는 단계를 더 포함할 수 있다.
일 실시예에 따른 제2 치아 이미지는 상기 하나 이상의 치아들의 치관 영역과 치근 영역을 포함하며, 상기 제2 치아 이미지를 생성하는 단계는, 상기 스캔된 구강 데이터에 기초하여, 상기 치관 영역에 대한 이미지를 생성하고, 상기 치아 모델 데이터에 기초하여, 상기 치근 영역에 대한 이미지를 생성하는 단계를 포함할 수 있다.
일 실시예에 따른 구강 이미지 처리 장치는, 디스플레이, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 프로세서를 포함하고, 상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써, 하나 이상의 치아들을 포함하는 대상체를 스캔하여, 구강 이미지를 획득하고, 상기 구강 이미지에서, 제1 치아 이미지를 생성하며, 상기 제1 치아 이미지와 치아 모델 데이터에 기초하여, 상기 치아들의 뿌리를 포함하는 제2 치아 이미지를 생성하고, 상기 제2 치아 이미지를 표시하도록 상기 디스플레이를 제어할 수 있다.
개시된 실시예에 따른 구강 이미지의 처리 장치, 및 구강 이미지 처리 방법은, 구강 이미지에서 치아들을 세그멘테이션하여 치아 이미지를 생성하는 경우, 치아들의 뿌리를 포함하는 치아 이미지를 생성할 수 있다. 이에 따라, 자연스러운 치아 이미지 또는 치아 이미지에 기반한 시뮬레이션을 제공할 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 일 실시예에 따른 구강 이미지 처리 시스템을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 제1 치아 이미지가 생성되는 동작을 설명하기 위해 참조되는 도면이다.
도 3 내지 8은 일 실시예에 따른 구강 이미지 처리 장치가 치아의 뿌리 영역을 포함하는 제2 치아 이미지를 생성하는 동작을 설명하기 위해 참조되는 도면들이다.
도 9은 일 실시예에 따른 제2 치아 이미지가 표시되는 인터페이스 화면을 나타내는 도면이다.
도 10은 일 실시예에 따른 구강 이미지 처리 방법을 나타내는 흐름도이다.
도 11은 일 실시예에 따른 구강 이미지 처리 장치를 나타내는 블록도이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 이미지는 적어도 하나의 치아, 또는 적어도 하나의 치아를 포함하는 구강을 나타내는 이미지(이하, '구강 이미지')를 포함할 수 있다.
또한, 본 명세서에서 이미지는 대상체에 대한 2차원 이미지 또는 대상체를 입체적으로 나타내는 3차원 모델 또는 3차원 이미지가 될 수 있다. 또한, 본 명세서에서 이미지는 대상체를 2차원 또는 3차원적으로 표현하기 위해서 필요한 데이터, 예를 들어, 적어도 하나의 이미지 센서로부터 획득된 로우 데이터(raw data) 등을 의미할 수 있다. 구체적으로, 로우 데이터는 구강 이미지를 생성하기 위해서 획득되는 데이터로, 구강 스캐너(intraoral scanner)를 이용하여 대상체인 환자의 구강 내를 스캔(scan)할 때 구강 스캐너에 포함되는 적어도 하나의 이미지 센서에서 획득되는 데이터(예를 들어, 2차원 데이터)가 될 수 있다. 또는, 로우 데이터는 테이블 스캐너를 이용하여, 석고 모델 등을 스캔할 때, 테이블 스캐너에 포함되는 적어도 하나의 이미지 센서에서 획득되는 데이터가 될 수 있다. 다만, 이에 한정되지 않는다.
본 명세서에서 '대상체(object)'는 치아, 치은, 구강의 적어도 일부 영역, 및/또는 구강 내에 삽입 가능한 인공 구조물(예를 들어, 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등), 석고 모델, 임프레션 모델 등을 포함할 수 있다. 여기서, 교정 장치는 브라켓, 어태치먼트(attachment), 교정용 나사, 설측 교정 장치, 및 가철식 교정 유지 장치 중 적어도 하나를 포함할 수 있다.
이하에서는 도면을 참조하여 실시 예들을 상세히 설명한다.
도 1은 일 실시예에 따른 구강 이미지 처리 시스템을 설명하기 위한 도면이다.
도 1을 참조하면, 일 실시예에 따른 구강 이미지 처리 시스템은 구강 스캐너(10) 및 구강 이미지 처리 장치(100)를 포함한다.
일 실시예에 따른 구강 스캐너(10)는 구강 내의 이미지를 획득하기 위한 의료 장치이다. 구체적으로, 구강 스캐너(10)는 구강 내에 삽입되어 비 접촉식으로 치아를 스캐닝함으로써, 적어도 하나의 치아를 포함하는 구강에 대한 이미지를 획득하기 위한 장치가 될 수 있다.
또한, 구강 스캐너(10)는 구강 내에 인입 및 인출이 가능한 형태를 가질 수 있으며, 적어도 하나의 이미지 센서(예를 들어, 광학 카메라 등)를 이용하여 환자의 구강 내부를 스캔 한다. 구강 스캐너(10)는 대상체인 구강 내부의 치아, 치은 및 구강 내에 삽입 가능한 인공 구조물(예를 들어, 브라켓 및 와이어 등을 포함하는 교정 장치, 임플란트, 인공 치아, 구강 내 삽입되는 교정 보조 도구 등) 중 적어도 하나의 표면을 이미징하기 위해서, 대상체에 대한 표면 정보를 로우 데이터(raw data)로 획득할 수 있다.
구강 스캐너(10)에서 획득된 이미지 데이터는 유선 또는 무선 통신 네트워크를 통하여 연결되는 구강 이미지 처리 장치(100)로 전송될 수 있다.
구강 이미지 처리 장치(100)는 구강 스캐너(10)와 유선 또는 무선 통신 네트워크를 통하여 연결되며, 구강 스캐너(10)로부터 구강을 스캔하여 획득된 이차원 이미지를 수신하고, 수신된 이차원 이미지에 근거하여 구강 이미지를 생성, 처리, 디스플레이 및/또는 전송할 수 있는 모든 전자 장치가 될 수 있다.
구강 이미지 처리 장치(100)는 구강 스캐너(10)에서 수신된 이차원 이미지 데이터에 근거하여, 이차원 이미지 데이터를 처리하여 정보를 생성하거나, 이차원 이미지 데이터를 처리하여 구강 이미지를 생성할 수 있다. 또한, 구강 이미지 처리 장치(100)는 생성된 정보 및 구강 이미지를 디스플레이(130)를 통하여 디스플레이 할 수 있다.
구강 이미지 처리 장치(100)는 스마트 폰(smart phone), 랩탑 컴퓨터, 데스크탑 컴퓨터, PDA, 태블릿 PC 등의 컴퓨팅 장치가 될 수 있으며, 이에 한정되지 않는다.
또한, 구강 이미지 처리 장치(100)는 구강 이미지를 처리하기 위한 서버(또는 서버 장치) 등의 형태로 존재할 수도 있을 것이다.
또한, 구강 스캐너(10)는 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 그대로 구강 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 구강 이미지 처리 장치(100)는 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. 일 실시예에 따른 구강 이미지 처리 장치(100)는 수신한 로우 데이터에 기초하여, 대상체의 표면의 형상을 3차원적으로 나타내는 3차원 데이터(예를 들어, 표면 데이터)를 생성할 수 있다.
일 실시예에 따른 3차원 표면 데이터는 메쉬(mesh) 데이터 형태일 수 있다. 예를 들어, 메쉬 데이터는 복수의 폴리곤(페이스)이 조합된 형태이며, 폴리곤은 복수의 정점들에 의해 형성되는 다각형을 의미한다. 이때, 폴리곤은 삼각형, 사각형 등의 다각형일 수 있으며, 폴리곤의 형태에 따라, 메쉬 데이터는 삼각형 메쉬, 사각형 메쉬 또는 폴리곤 메쉬로 나타날 수 있다.
일 실시예에 따른'3차원 구강 이미지'는 수신된 로우 데이터에 근거하여 구강의 내부 구조를 3차원적으로 모델링(modeling)하여 생성될 수 있으므로, '3차원 구강 모델' 또는 '3차원 구강 이미지'로 호칭될 수도 있다. 이하에서는, 구강을 2차원 또는 3차원적으로 나타내는 모델 또는 이미지를 통칭하여, '구강 이미지'라 칭하도록 한다.
또한, 구강 이미지 처리 장치(100)는 생성된 구강 이미지를 분석, 처리, 디스플레이 및/또는 외부 장치로 전송할 수 있다.
또 다른 예로, 구강 스캐너(10)는 구강 스캔을 통하여 로우 데이터(raw data)를 획득하고, 획득된 로우 데이터를 가공하여 대상체인 구강에 대응되는 이미지를 생성할 수 있다. 또한, 생성된 이미지를 구강 이미지 처리 장치(100)로 전송할 수 있다. 이 경우, 구강 이미지 처리 장치(100)는 수신된 이미지를 분석, 처리, 디스플레이 및/또는 전송할 수 있다.
개시된 실시예에서, 구강 이미지 처리 장치(100)는 하나 이상의 치아를 포함하는 구강을 3차원적으로 나타내는 구강 이미지를 생성 및 디스플레이할 수 있는 전자 장치로, 이하에서 상세히 설명한다.
도 2는 일 실시예에 따른 제1 치아 이미지가 생성되는 동작을 설명하기 위해 참조되는 도면이다.
도 2를 참조하면, 일 실시예에 따른 구강 이미지 처리 장치(100)는 3차원 구강 데이터를 획득할 수 있다. 예를 들어, 도 1에서 설명한 구강 스캐너(10)를 이용하여, 적어도 하나의 치아를 스캔함으로써, 3차원 구강 데이터가 획득될 수 있다. 이때, 치아뿐만 아니라, 치아에 인접한 치은도 함께 스캔될 수 있다.
일 실시예에 따른 3차원 구강 데이터는 메쉬 데이터일 수 있으며, 대상체의 표면 정보를 나타내는 데이터(3차원 표면 데이터)일 수 있다.
일 실시예에 따른 구강 이미지 처리 장치(100)는 획득한 3차원 구강 데이터에 기초하여, 구강 이미지(210)를 생성할 수 있다. 일 실시예에 따른 구강 이미지 처리 장치(100)는 도 2에 도시된 바와 같이, 사용자 인터페이스 화면을 통하여, 구강 이미지(210)를 시각적으로 출력할 수 있다. 사용자 인터페이스 화면은 도 1의 디스플레이(130)의 화면일 수 있다. 사용자 인터페이스 화면은 사용자(예를 들어, 치과 의사 등)가 구강 스캐너(10)에서 치아를 스캔하여 획득한 데이터를 이용할 수 있도록 하기 위한 적어도 하나의 메뉴들을 포함할 수 있다.
일 실시예에 따른 구강 이미지 처리 장치(100)는 구강 이미지(210)에서 치아 영역과 치은 영역을 자동으로 또는 수동으로 세그멘테이션하여 제1 치아 이미지(230)를 생성할 수 있다. 구강 이미지(210)의 치아 영역과 치은 영역을 세그멘테이션한다는 것은 구강 이미지에 포함된 치아들을 치은 영역과 분리하는 것을 의미할 수 있다.
일 실시예에 따른, 구강 이미지 처리 장치(100)는 사용자의 입력 없이 인공지능(AI)을 이용하여 상기 구강 이미지(210)에서 치아 영역과 치은 영역으로 세그멘테이션할 수 있다.
다른 실시예에 따른 구강 이미지 처리 장치(100)는 사용자 입력에 기초하여, 세그멘테이션을 수행할 수 있다. 구체적으로, 구강 이미지 처리 장치(100)는 구강 이미지(210)와 함께, 구강 이미지에 대한 편집 또는 변경을 위한 메뉴들을 사용자 인터페이스 화면에 디스플레이할 수 있다. 구강 이미지 처리 장치(100)는 표시된 적어도 하나의 메뉴들 중 세그멘테이션 메뉴(220)를 선택하는 사용자 입력을 수신하는 경우, 구강 이미지(210)의 치아 영역과 치은 영역을 세그멘테이션할 수 있다.
또한, 상기 제1 치아 이미지(230)를 생성하기 위한 세그멘테이션은 치아 영역과 치은 영역을 분리한 후, 치아 영역에 포함된 치아들을 개별 치아로 분리하는 것을 의미할 수도 있다.
상기 사용자의 입력에 따른 세그멘테이션은 치아 영역과 치은 영역의 곡률 분포 및/또는 치아 영역에 포함된 치아들의 곡률 분포에 따라 개별 치아로 세그멘테이션을 수행할 수 있다.
또한, 상기 구강 이미지 처리 장치(100)는 사용자가 구강 이미지에 포함된 치아들 중 일부 치아들(240)을 선택하는 입력에 기초하여, 선택된 일부 치아들(240)에 대해서만 세그멘테이션을 수행할 수도 있다. 다만, 이에 한정되지 않는다.
구강 이미지 처리 장치(100)는 제1 치아 이미지(230)를 사용자 인터페이스 화면을 통하여 시각적으로 출력할 수 있다.
일 실시예에 따른 구강 스캐너(10)는 대상체의 표면을 스캔함으로써, 대상체에 대한 데이터를 획득하는 것으로, 치은에 의해 덮여 있는 치아의 뿌리(치근) 영역에 대한 데이터는 획득할 수 없다. 이에 따라, 구강 이미지로부터 치아를 세그멘테이션하면, 세그멘테이션된 치아는, 치아 뿌리 영역이 없는 치아(open tooth)로, 상기 치아 뿌리 영역이 없는 이미지에 기초하여 치아 이동이나 교정 시뮬레이션을 수행하는 경우, 부자연스러운 시뮬레이션이 제공될 수 있다는 문제점이 있다.
따라서, 일 실시예에 따른 구강 이미지 처리 장치(100)는 자연스러운 치아 이미지 또는 시뮬레이션을 제공하기 위해, 치아의 뿌리 영역을 포함하는 치아 이미지(이하, 제2 치아 이미지)를 생성할 수 있다.
도 3 내지 8은 일 실시예에 따른 구강 이미지 처리 장치가 치아의 뿌리 영역을 포함하는 제2 치아 이미지를 생성하는 동작을 설명하기 위해 참조되는 도면들이다.
도 3은 도 2의 제1 치아 이미지와 치아 모델 데이터를 정렬(얼라인)시키는 동작을 설명하기 위해 참조되는 도면이다.
도 3을 참조하면, 일 실시예에 따른 구강 이미지 처리 장치(100)는 도 2의 제1 치아 이미지(230)를 치아 모델 데이터(310)에 정렬시킬 수 있다. 치아 모델 데이터(310)는 치아들이 이상적인 형상을 가지고 또한 치아들이 이상적인 위치에 배열된 템플릿 모델 데이터이다.
일 실시예에 따른 구강 이미지 처리 장치(100)는 복수의 치아 모델 데이터를 메모리에 저장할 수 있으며, 복수의 치아 모델 데이터 중 제1 치아 이미지(230)에 유사한 치아 모델 데이터를 결정할 수 있다. 이때, 구강 이미지 처리 장치(100)는 제1 치아 이미지(230)에 포함되는 치아들의 형상 정보와 복수의 치아 모델 데이터에 포함되는 치아들의 형상 정보에 기초하여, 제1 치아 이미지(230)와 가장 유사한 치아 모델 데이터를 결정할 수 있다. 또한, 구강 이미지 처리 장치(100)는 제1 치아 이미지(230)에 포함되는 악궁의 형태 정보, 치아들의 크기 정보 등과 복수의 치아 모델 데이터에 포함되는 악궁의 형태 정보, 치아들의 크기 정보 등에 기초하여, 제1 치아 이미지(230)와 가장 유사한 치아 모델 데이터를 결정할 수 있다. 다만, 이에 한정되지 않는다.
구강 이미지 처리 장치(100)는 제1 치아 이미지(230)에 포함되는 악궁의 형태 정보, 치아들의 형상 정보, 치아들의 크기 정보 등과 치아 모델 데이터(310)에 포함되는 악궁의 형태 정보, 치아들의 형상 정보, 치아들의 크기 정보 등에 기초하여, 제1 치아 이미지(230)를 치아 모델 데이터(310)에 정렬시킬 수 있다.
구강 이미지 처리 장치(100)가 제1 치아 이미지(230)를 치아 모델 데이터(310)에 정렬시킬 때, 다양한 얼라인(align) 알고리즘을 이용할 수 있으며, 예를 들어, 알려진 Iterative closest point (ICP)와 같은 알고리즘을 이용할 수 있다. ICP는 두 개의 포인트 클라우드 사이를 최소화하기 위한 알고리즘으로서, 서로 다른 스캔 데이터로부터 2D 또는 3D 표면을 재구성하는데 이용되는 알고리즘이다. ICP 알고리즘은 레퍼런스라고 불리우는 포인트 클라우드를 고정시키고, 소스라고 불리우는 포인트 클라우드를 레퍼런스에 가장 잘 매칭되도록 변형시킨다. ICP 알고리즘은 소오스로부터 레퍼런스까지의 거리를 나타내는 에러 메트릭(error metric)을 최소화하는데 필요한 변형 (이동(translation)과 회전(rotation)의 결합)을 반복적으로 수정함으로써, 3차원 모델을 정렬할 수 있다. 얼라인 알고리즘은 ICP 이외에도 다양한 알고리즘이 이용될 수 있으며, 예를 들어, Kabsch algorithm이 이용될 수도 있다.
구강 이미지 처리 장치(100)가 제1 치아 이미지(230)를 치아 모델 데이터(310)에 정렬시킬 때, Iterative closest point (ICP) 알고리즘을 이용하는 경우, 제1 치아 이미지(230)에 대응하는 포인트 클라우드가 레퍼런스가 되고, 치아 모델 데이터(310)에 대응하는 포인트 클라우드가 소스가 될 수 있다. 다만, 이에 한정되지 않는다.
구강 이미지 처리 장치(100)는 제1 치아 이미지(230)가 치아 모델 데이터(310)에 정렬되면, 합성 검사를 수행함으로써, 제1 치아 이미지(230)와 치아 모델 데이터(310)를 합성할 수 있다.
상기, 합성 검사는 최근접 이웃탐색 검사(Nearest neighboring test) 또는 광선 교차(Ray intersection test) 검사일 수 있다.
예를 들어, 구강 이미지 처리 장치(100)는 최근접 이웃탐색 검사를 수행하여 합성 이미지를 생성할 수 있다. 구체적으로, 최근접 이웃탐색 검사는 치아 모델 데이터(310)의 임의의 정점으로부터 가장 가까운 거리에 있는 제1 치아 이미지(230)의 정점을 찾고, 상기 치아 모델 데이터(310)의 정점과 가장 가까운 제1 치아 이미지(230)의 정점 사이의 거리를 검사하는 것을 의미한다. 상기 거리가 특정 임계 거리 이하면 치아 모델 데이터(310)의 정점을 삭제하고, 상기 거리가 특정 임계 거리를 초과하면 치아 모델 데이터(310)를 이용함으로써, 합성 이미지(430)를 생성할 수 있다.
상기 특정 임계 거리는 1mm 이상 3mm 이하(예를 들어, 2mm)일 수 있으나, 이에 한정되지 않으며, 다양한 범위를 가질 수 있다.
상기 최근접 이웃탐색 검사는 K-d tree, Octree 및 R-tree 중 선택되는 1종 이상일 수 있으나, 이에 제한하지 않는다.
또한, 상기 최근접 이웃탐색 검사는 공간 검색 알고리즘(spatial search algorithms)을 활용하여 공간을 분해(decomposition)한 후 빠르게 수행할 수 있으나, 이에 제한하지 않고 다양한 알고리즘을 활용할 수 있다.
이하에서는, 도 4를 참조하여 광선 교차 검사를 수행하여 제1 치아 이미지(230)와 치아 모델 데이터(310)를 합성하는 동작에 대해서 자세히 설명한다.
예를 들어, 구강 이미지 처리 장치(100)는 광선 교차 검사를 수행하여, 제1 치아 이미지(230)와 치아 모델 데이터(310)가 오버랩되는 영역에서, 치아 모델 데이터(310)를 삭제함으로써, 합성 이미지를 생성할 수 있다. 도 4를 참조하면, 광선 교차 검사는 치아 모델 데이터(310)에 포함되는 복수의 정점들 상에서, 상기 정점의 법선 벡터와 평행한 가상의 광선을 양 방향으로 일정 거리만큼 생성하여 제1 치아 이미지(230)의 데이터와 교차하는지 여부를 검사하는 것을 의미한다. 구강 이미지 처리 장치(100)는 광선 교차 검사 결과에 기초하여, 합성 이미지를 생성할 수 있다.
이때, 일정 거리는 양 방향으로 1mm 이상 3mm 이하(예를 들어, 2mm)일 수 있으나, 이에 한정되지 않으며, 다양한 범위를 가질 수 있다. 또한, 가상의 광선이 생성되는 위치에 따라, 일정 거리가 결정될 수 있다. 도 4에는 치아 모델 데이터(310)가 제1 치아 이미지(230)보다 안쪽에 위치하는 경우를 도시하였으나, 일 실시예에 따른 치아 모델 데이터는 제1 치아 이미지보다 바깥쪽에 위치할 수도 있으며, 안쪽에 위치할 수도 있기 때문에, 구강 이미지 처리 장치(100)는 가상의 광선을 양 방향으로 생성하여, 광선 교차 검사를 수행할 수 있다.
예를 들어, 치아 모델 데이터(310)에 포함되는 복수의 정점들 중 제1 정점(410)에서, 제1 정점(410)의 법선 벡터와 평행한 방향으로 생성되는 가상의 광선(415)이 제1 치아 이미지(230)의 데이터와 교차하는 경우, 구강 이미지 처리 장치(100)는 교차하는 지점(412)의 제1 치아 이미지(230) 데이터를 합성 이미지(430)의 데이터로 결정할 수 있다.
반면에, 치아 모델 데이터(310)에 포함되는 복수의 정점들 중 제2 정점(420)에서, 제2 정점(420)의 법선 벡터와 평행한 방향으로 생성되는 가상의 광선(425)이 제1 치아 이미지(230)의 데이터와 교차하지 않는 경우, 구강 이미지 처리 장치(100)는 제2 정점(420)의 데이터를 합성 이미지(430)의 데이터로 결정할 수 있다.
구강 이미지 처리 장치(100)는 치아 모델 데이터에 포함되는 복수의 정점들에 대해서 상기에서 설명한 방식으로 광선 교차 검사를 수행하여, 상기 정점들과 제1 치아 이미지(230)가 교차할 경우 치아 모델 데이터(310)의 정점 및 이의 인접 페이스를 삭제하고, 교차하지 않을 경우 치아 모델 데이터(310)를 이용함으로써, 합성 이미지(430)를 생성할 수 있다. 예를 들어, 인접 페이스는 가상의 광선이 생성되는 정점을 공유하는 하나 이상의 페이스들을 포함할 수 있다.
합성 이미지(430)의 제1 영역(431)은 제1 치아 이미지로부터 획득된 데이터를 나타내며, 제2 영역(432)은 치아 모델 데이터(310)로부터 획득된 데이터를 나타낸다.
일 실시예에 따른 구강 이미지 처리 장치(100)가 치아 영역과 치은 영역으로만 세그멘테이션된 제1 치아 이미지(230)를 이용하여 광선 교차 검사를 수행하는 경우, 제1 치아 모델 데이터(310)에 포함되는 제1 치아의 뿌리 부분에서 양 방향으로 생성된 가상의 광선은, 제1 치아와 인접한 제2 치아에 대한 스캔 데이터(제1 치아 이미지(230)에 포함된 제2 치아에 대한 데이터)와 교차할 수 있다. 이러한 경우, 제1 치아 모델 데이터(310)에 포함되는 제1 치아의 뿌리 부분에 대한 데이터를 삭제할 수 있다는 문제점이 있다. 일 실시예에 따른 구강 이미지 처리 장치(100)는 상기의 문제점을 방지하기 위해, 일정 거리를 가지는 가상의 광선을 생성하며, 이에 따라, 제1 치아의 뿌리 부분에서 생성된 가상의 광선은 제1 치아와 인접한 제2 치아에 대한 스캔 데이터와 교차하지 않게 된다.
또한, 일 실시예에 따른 구강 이미지 처리 장치(100)는 제1 치아 이미지(230)에 포함되는 치아들이 개별 치아들로 세그멘테이션하고, 개별 치아들 각각을 치아 모델 데이터에 포함되는 치아들 각각에 정렬할 수 있다. 이러한 경우, 구강 이미지 처리 장치(100)는 개별 치아들 각각에 대해 순차적으로 광선 교차 검사를 수행할 수 있다. 예를 들어, 하나 이상의 치아들 중 제1 치아에 대한 스캔 데이터(제1 치아 이미지)와 치아 모델 데이터에 대해 광선 교차 검사를 수행하고, 제2 치아에 대한 스캔 데이터(제1 치아 이미지)와 치아 모델 데이터에 대해 광선 교차 검사를 수행할 수 있다. 이와 같이, 치아들 각각에 대해 개별적으로 광선 교차 검사를 수행하면, 제1 치아의 뿌리 부분에서 생성된 가상의 광선이 제2 치아에 대한 스캔 데이터(제1 치아 이미지)와 교차함으로 인해, 제1 치아의 뿌리 부분에 대한 치아 모델 데이터가 삭제되는 문제점이 발생하지 않는다.
한편, 도 5를 참조하면, 합성 이미지(430)는 제1 치아 이미지 데이터와 치아 모델 데이터의 경계 영역(510)을 포함할 수 있으며, 구강 이미지 처리 장치(100)는 제1 치아 이미지 데이터와 치아 모델 데이터의 매끄러운 표면 블렌딩을 위해 경계 수축(shrink boundary)을 수행할 수 있다. 경계 수축은, 합성 이미지(430)의 경계 영역(510)에 위치한 제1 치아 이미지의 데이터의 일부 또는 치아 모델 데이터의 일부 중 적어도 하나의 데이터의 메쉬 형상을 삭제(수축)하는 동작일 수 있다. 예를 들어, 구강 이미지 처리 장치(100)는 제1 치아 이미지 데이터에 포함되는 메쉬 데이터에서, 일정한 크기의 폴리곤들의 조합을 삭제할 수 있다.
도 5에 도시된 바와 같이, 구강 이미지 처리 장치(100)는 경계 수축을 수행함으로써, 합성 이미지(430)의 경계 영역에 포함되는 날카로운 영역(530) 등을 제거할 수 있다.
또한, 일 실시예에 따른 구강 이미지 처리 장치(100)는 제1 치아 이미지에 존재하는 스캔 홀(hole)로 인하여, 광선 교차 검사 시 치아 모델 데이터와 제1 치아 이미지가 교차하지 않아 실질적으로는 제1 치아 이미지가 사용되어야 할 부분에 치아 모델 데이터가 삭제되지 않고 합성 이미지에 스몰 클러스터(small cluster)로 남아있을 수 있다. 상기 스몰 클러스터는, 합성 이미지에 포함된 데이터 덩어리(제1 치아 이미지 데이터 또는 치아 모델 데이터)와 이격된(떨어진) 작은 데이터 덩어리를 의미할 수 있다. 예를 들어, 스몰 클러스터는 기 설정된 임계값 이하의 크기를 가지는 데이터 덩어리를 의미할 수 있으나, 이에 한정되지 않는다. 구강 이미지 처리 장치(100)는 합성 이미지에서 스몰 클러스터를 제거할 수 있다.
또한, 일 실시예에 따른 제1 치아 이미지의 스캔 데이터의 일부 치아와 치아 모델 데이터의 치아의 크기 차이가 클 경우, 치아의 뿌리를 형성할 때 자연스럽게 형성되지 않는다. 따라서, 일 실시예에 따른 구강 이미지 처리 장치(100)는 스캔 데이터에 맞게 치아 모델 데이터를 스케일링(scaling)할 수 있다.
예를 들어, 구강 이미지 처리 장치(100)는 제1 치아에 대한 스캔 데이터(제1 치아 이미지)의 크기와 치아 모델 데이터의 크기의 차이가 기 설정된 값 이상인 경우, 제1 치아에 대한 치아 모델 데이터의 크기와 제1 치아에 대한 스캔 데이터(제1 치아 이미지)의 크기의 차이가 기 설정된 값 미만이 되도록 제1 치아에 대한 치아 모델 데이터를 스케일링할 수 있다.
스캔 데이터와 치아 모델 데이터의 치아의 크기 측정 방법에 대해서는 도 6을 참조하여 설명하기로 한다.도 6은 일 실시예에 따른 치아의 크기 값을 획득하는 방법을 설명하기 위해 참조되는 도면이다.
도 6에서는 설명의 편의를 위해, 스캔 데이터(제1 치아 이미지)에 포함되는 일부 치아(610, 예를 들어, 21번 전치)를 기준으로 설명하기로 한다. 구체적으로, 스캔 데이터의 치아(610)는 도 6에 도시된 바와 같이, z-x 평면에 투영될 수 있다. 투영된 치아 이미지(620)의 x축 방향으로의 min, max 값들(minx, maxx) 및 z축 방향으로의 min, max 값들(minz, maxz)을 이용하여 바운더리 박스(630)가 설정될 수 있다. 구강 이미지 처리 장치(100)는 바운더리 박스(630)의 가로, 세로 평균값을 획득할 수 있다.
또한, 구강 이미지 처리 장치(100)는 동일한 방법으로, 치아 모델 데이터의 치아(예를 들어, 21번 전치)에 대해서도 가로, 세로 평균값을 획득할 수 있다.
구강 이미지 처리 장치(100)는 획득한 스캔 데이터 및 치아 모델 데이터의 가로, 세로 평균값들을 이용하여, 치아 모델 데이터를 스케일링할 수 있다.
일 실시예로, z - x 평면에 투영시킨 스캔 데이터 및 치아 모델 데이터의 치아의 가로, 세로 평균값이 각각 10과, 15라면, 구강 이미지 처리 장치(100)는 상기 치아 모델 데이터를 10/15만큼 스케일링하여 스캔 데이터의 치아 크기와의 차이를 줄일 수 있다.
위와 같은 스케일링을 통해 제1 치아 이미지 데이터와 치아 모델 데이터의 매끄러운 표면 블렌딩이 될 수 있다.
도 7은 일 실시예에 따른 스케일링을 수행하지 않은 경우 획득되는 합성 이미지를 나타내는 도면이다.
도 7에 도시된 합성 이미지(710)는 제1 치아(720)에 대한 스캔 데이터(제1 치아 이미지)의 크기와 치아 모델 데이터의 크기의 차이가 기 설정된 값 이상인 경우에 스케일링을 수행하지 않고, 제1 치아 이미지와 치아 모델 데이터를 합성한 이미지를 나타낸다.
도 7의 합성 이미지(710)는 제1 치아(720)에 대한 스캔 데이터와 제1 치아(720)에 대한 치아 모델 데이터를 합성할 때, 제1 치아(720)에 대한 치아 모델 데이터의 크기가 제1 치아(720)에 대한 스캔 데이터의 크기보다 기 설정된 값 이상으로 커서, 제1 치아(720)에 대한 치아 모델 데이터(730, 뿌리 영역)가 잇몸보다 튀어나오는 현상이 발생할 수 있다.
따라서, 일 실시예에 따른 구강 이미지 처리 장치(100)는 스케일링을 수행함으로써, 치아 모델 데이터가 잇몸보다 튀어나오는 현상을 방지할 수 있는 효과가 있다.
도 8은 합성 이미지(430)에 갭(gap)이 발생하는 경우와 갭(gap)에 대한 표면 블렌딩을 설명하기 위해 참조되는 도면이다.
도 8을 참조하면, 치아의 일부 영역에서 스캔 데이터가 획득되지 않은 경우, 제1 치아 이미지(230)에는 스캔 홀(810)이 발생하고, 도 4에서 도시하고 설명한 광선 교차 검사를 수행하여, 제1 치아 이미지(230)와 치아 모델 데이터(310)를 합성한 결과 합성 이미지(430)에는 스캔 홀(810)로 인하여, 제1 갭(g1) 및 제2 갭(g2)이 발생하게 된다. 또한, 제1 치아 이미지(230)와 치아 모델 데이터(310)의 경계로 인하여, 합성 이미지(430)에는 제3 갭(g3) 및 제4 갭(g4)이 발생하게 된다.
또한, 일 실시예에 따른 구강 이미지 처리 장치(100)는 합성 이미지(430)에 포함된 제1 치아 이미지(230) 및 치아 모델 데이터(310)의 경계 영역들에서 제1 치아 이미지의 데이터의 일부 및 치아 모델 데이터의 일부 중 적어도 하나를 삭제할 수 있다(경계 수축). 경계 수축에 대해서는 도 5에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다. 경계 수축 동작에 따라, 제1 내지 제4 갭들(g1, g2, g3, g4)의 크기가 커질 수 있다.
또한, 구강 이미지 처리 장치(100)는 합성 이미지(430)에 표면 블렌딩(메쉬 블렌딩)을 수행할 수 있다. 표면 블렌딩은, 합성 이미지(430)에 포함되는 갭(gap)을 채우는 기법을 의미할 수 있으며, 표면 블렌딩을 수행하여, 갭(gap)에 대응하는 표면 데이터를 생성할 수 있다. 예를 들어, 도 8에 도시된 바와 같이, 제1 표면(821)과 제2 표면(822) 사이에 제1 갭(g1)이 발생한 경우, 표면 블렌딩은, 제1 갭(g1)을 채우기 위하여, 제1 표면(821)과 제2 표면(822) 사이를 스무스하게(smoothly) 연결하는 제3 표면(823)을 생성하는 것을 의미할 수 있다. 제3 표면(823)을 생성하기 위해 다양한 표면 블렌딩 기법을 이용할 수 있다. 예를 들어, 구강 이미지 처리 장치(100)는 제1 표면(821)을 구성하는 제1 메쉬 데이터의 일부(이하, 제1 패치들)와 제2 표면(822)을 제2 표면을 구성하는 제2 메쉬 데이터의 일부(제2 패치들)를 스무스하게 연결하는 블렌딩 패치들을 생성할 수 있으며, 블렌딩 패치들에 의해 제3 표면(823)이 구성될 수 있다.
또한, 구강 이미지 처리 장치(100)는 합성 이미지(430)에 포함된 나머지 갭들(g2, g3, g4)에 대해서도 제1 갭(g1)과 동일한 방식으로 표면 블렌딩을 수행할 수 있다.
또한, 구강 이미지 처리 장치(100)는 선택적으로, 표면 블랜딩을 수행한 후 메쉬 밀도를 조정할 수 있다. 구체적으로, 스캔 데이터와 템플릿 데이터는 메쉬 밀도가 다를 수 있고, 상기 메쉬 밀도는 해상도와 관련이 있다.
구강 이미지 처리 장치(100)가 도 8에서 설명한 표면 블렌딩을 수행하는 경우, 제1 치아 이미지(230, 스캔 데이터)의 메쉬 밀도가 변경되어, 스캐너에 의해 획득된 초기 스캔 데이터에 비해 선명도(해상도)가 저하될 수 있다. 따라서, 구강 이미지 처리 장치(100)는 스캔 데이터의 선명도가 기 설정된 값 이하로 저하되지 않도록 메쉬 밀도의 변경을 조절할 수 있다.
도 9는 일 실시예에 따른 제2 치아 이미지가 표시되는 인터페이스 화면을 나타내는 도면이다.
일 실시예에 따른 구강 이미지 처리 장치(100)는 도 8에서 설명한 바와 같이, 합성 이미지에 대하여, 표면 블렌딩이 완료된 제2 치아 이미지(910)를 표시할 수 있다.
일 실시예에 따른 제2 치아 이미지(910)에 포함되는 치아는 치아 뿌리를 포함하는 치아(closed tooth)이다. 이때, 제2 치아 이미지(910)의 색상은 제1 치아 이미지(230)의 색상에 기초하여 결정될 수 있다. 예를 들어, 구강 이미지 처리 장치(100)는 제1 치아 이미지(230)에 포함되는 구강 데이터의 색상 값(예를 들어, 픽셀 값)을 평균한 값으로 제2 치아 이미지(910)에 포함되는 치아 모델 데이터 또는 표면 블렌딩에 의해 생성된 표면 데이터의 색상 값을 결정할 수 있다. 다만, 이에 한정되지 않는다.
한편, 일 실시예에 따른 구강 이미지 처리 장치(100)는 사용자 인터페이스 화면을 통하여, 제2 치아 이미지(910)를 시각적으로 출력할 수 있다. 예를 들어, 구강 이미지 처리 장치(100)는 도 2에 도시된 바와 같이, 사용자 인터페이스 화면에 제1 치아 이미지(230)와 함께, 제2 치아 이미지를 획득하기 위한 메뉴(250)를 표시할 수 있다. 제2 치아 이미지를 획득하기 위한 메뉴(250)를 선택하는 사용자 입력을 수신하는 경우, 구강 이미지 처리 장치(100)는 도 3 내지 도 7에서 설명한 동작들에 기초하여, 제2 치아 이미지(910)를 생성하고, 생성된 제2 치아 이미지(910)를 사용자 인터페이스 화면에 표시할 수 있다.
한편, 제2 치아 이미지(910)에 오류가 발생한 경우, 사용자는 오류가 발생한 치아의 치아 영역을 수동으로 선택할 수 있다. 구강 이미지 처리 장치(100)는 상기 선택한 치아 영역의 스캔 데이터와 치아 모델 데이터를 이용하여, 도 3 내지 도 9에서 설명한 프로세스를 반복함으로써 오류가 교정된 제2'치아 이미지를 생성할 수 있다.
도 10은 일 실시예에 따른 구강 이미지 처리 방법을 나타내는 흐름도이다.
도 10을 참조하면, 일 실시예에 따른 구강 이미지 처리 장치(100)는 구강 데이터를 획득할 수 있다(S1010).
구강 스캐너(10)를 이용하여, 적어도 하나의 치아를 스캔함으로써, 3차원 구강 데이터가 획득될 수 있다. 또는 테이블 스캐너를 이용하여, 석고 모델, 임프레션 모델 등을 스캔함으로써, 구강 데이터를 획득할 수 있다. 이때, 치아뿐만 아니라, 치아에 인접한 치은도 함께 스캔될 수 있다.
일 실시예에 따른 3차원 구강 데이터는 메쉬 데이터일 수 있으며, 대상체의 표면 정보를 나타내는 데이터일 수 있다.
또한, 구강 이미지 처리 장치(100)는 구강 데이터에 기초하여, 구강 이미지를 생성할 수 있다.
일 실시예에 따른 구강 이미지 처리 장치(100)는 구강 이미지에서 치아들을 세그멘테이션하여, 제1 치아 이미지를 생성할 수 있다(S1020).
구강 이미지 처리 장치(100)는 구강 이미지의 치아 영역과 치은 영역을 세그멘테이션할 수 있으며, 구강 이미지의 치아 영역과 치은 영역을 세그멘테이션한다는 것은 구강 이미지에 포함된 치아들을 치은 영역과 분리하는 것을 의미할 수 있다. 이에 따라, 치아들만 포함하는 제1 치아 이미지가 생성될 수 있다. 이때, 제1 치아 이미지는 치아 뿌리가 없는 치아들을 포함할 수 있다.
일 실시예에 따른 구강 이미지 처리 장치(100)는 제1 치아 이미지와 치아 모델 데이터에 기초하여, 치아들의 뿌리 영역을 포함하는 제2 치아 이미지를 생성할 수 있다(S1030).
상기 제2 치아 이미지를 생성하는 과정은 위에서 서술한 바와 동일하므로 중복되는 기재는 생략하도록 한다.
이어서, 상기 구강 이미지 처리 장치(100)는 생성된 제2 치아 이미지를 디스플레이할 수 있다(S1040).
도 11은 일 실시예에 따른 구강 이미지 처리 장치를 나타내는 블록도이다.
도 10에 도시된 구강 이미지 처리 방법은 구강 이미지 처리 장치(100)를 통하여 수행될 수 있다. 따라서, 도 10에 도시된 구강 이미지의 처리 방법은 구강 이미지 처리 장치(100)의 동작들을 나타내는 흐름도가 될 수 있다.
도 11을 참조하면, 구강 이미지 처리 장치(100)는 통신 인터페이스(110), 사용자 인터페이스(120), 디스플레이(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.
통신 인터페이스(110)는 적어도 하나의 외부 전자 장치(예를 들어, 구강 스캐너(10), 서버, 또는 외부의 의료 장치 등)와 유선 또는 무선 통신 네트워크를 통하여 통신을 수행할 수 있다. 통신 인터페이스(110)는 프로세서(150)의 제어에 따라서 적어도 하나의 외부 정자 장치와 통신을 수행할 수 있다.
구체적으로, 통신 인터페이스(110)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈을 포함할 수 있다.
또한, 통신 인터페이스(110)는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버와 통신을 수행하는 원거리 통신 모듈을 더 포함할 수 있다. 구체적으로, 통신 인터페이스(110)는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다. 또한, 통신 인터페이스(110)는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈을 포함할 수 있다.
또한, 통신 인터페이스(110)는 외부 전자 장치(예를 들어, 구강 스캐너 등)와 유선으로 통신하기 위해서, 외부 전자 장치와 유선 케이블로 연결되기 위한 적어도 하나의 포트를 포함할 수 있다. 그에 따라서, 통신 인터페이스(110)는 적어도 하나의 포트를 통하여 유선 연결된 외부 전자 장치와 통신을 수행할 수 있다.
사용자 인터페이스(120)는 구강 이미지 처리 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(120)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자 인터페이스 화면 상의 일 지점을 지정 또는 선택하기 위한 마우스(mouse) 또는 키보드(key board) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
또한, 사용자 인터페이스(120)는 음성 인식을 위한 음성 인식 장치를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(150)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다.
디스플레이(130)는 화면을 디스플레이 한다. 구체적으로, 디스플레이(130)는 프로세서(150)의 제어에 따라서 소정 화면을 디스플레이 할 수 있다. 구체적으로, 디스플레이(130)는 구강 스캐너(10)에서 환자의 구강을 스캔하여 획득한 데이터에 근거하여 생성된 구강 이미지를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 또는, 디스플레이(130)는 환자의 치과 치료와 관련되는 정보를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.
메모리(140)는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리 (140)는 프로세서(150)가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리(140)는 프로세서(150)가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다. 또한, 메모리(140)는 구강 스캐너(10)로부터 수신되는 데이터(예를 들어, 구강 스캔을 통하여 획득된 로우 데이터 등)를 저장할 수 있다. 또는, 메모리(140)는 구강을 3차원적으로 나타내는 구강 이미지를 저장할 수 있다.
프로세서(150)는 메모리(140)에 저장된 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서(150)내에 포함되는 내부 메모리 또는 프로세서와 별도로 데이터 처리 장치 내에 포함되는 메모리(140)에 저장되어 있을 수 있다.
구체적으로, 프로세서(150)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 데이터 처리 장치 내부에 포함되는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서가 소정 동작들이 수행되도록 데이터 처리 장치 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있다.
일 실시예에 따른 프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 적어도 하나의 치아를 스캔하여 획득된 2차원 이미지 데이터에 기초하여, 3차원 구강 데이터가 획득할 수 있다. 일 실시예에 따른 3차원 구강 데이터는 메쉬 데이터일 수 있다. 적어도 하나의 치아가 스캔될 때, 치아뿐만 아니라 치아에 인접한 치은도 함께 스캔될 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 구강 데이터에 기초하여, 구강 이미지를 생성하고, 구강 이미지에서 치아들을 세그멘테이션하여, 제1 치아 이미지를 생성할 수 있다. 이때, 제1 치아 이미지는 치아 뿌리가 없는 치아들을 포함할 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 치아 이미지와 치아 모델 데이터에 기초하여, 치아들의 뿌리 영역을 포함하는 제2 치아 이미지를 생성할 수 있다. 치아 모델 데이터는 메모리(140)에 기 저장되거나 통신 인터페이스(110)를 통해 외부 장치로부터 획득한 데이터일 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 치아 이미지를 치아 모델 데이터에 정렬시킬 수 있다. 예를 들어, 프로세서(150)는 제1 치아 이미지에 포함되는 치아들의 형상 정보와 치아 모델 데이터에 포함되는 치아들의 형상 정보에 기초하여, 다양한 얼라인 알고리즘을 이용함으로써, 제1 치아 이미지를 치아 모델 데이터에 정렬시킬 수 있다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 광선 교차를 수행하여, 서로 정렬된 제1 치아 이미지와 치아 모델 데이터를 합성하여 합성 이미지를 생성할 수 있다. 이에 대해서는 도 4에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 합성 이미지에 포함되는 경계 영역에 대해 경계 수축을 수행하고, 이로부터 생성되는 갭에 대한 표면 블렌딩을 수행함으로써, 제2 치아 이미지를 생성할 수 있다. 경계 수축 및 표면 블렌딩을 수행하는 방법에 대해서는 도 5 및 도 6에서 자세히 설명하였으므로, 구체적인 설명은 생략하기로 한다.
프로세서(150)는 메모리(140)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 제2 치아 이미지의 색상을 제1 치아 이미지의 색상에 기초하여 결정할 수 있으며, 제2 치아 이미지가 화면을 통해 출력되도록 디스플레이(130)를 제어할 수 있다.
일 예에 따른 프로세서(150)는, 내부적으로 적어도 하나의 내부 프로세서 및 내부 프로세서에서 처리 또는 이용될 프로그램, 인스트럭션, 신호, 및 데이터 중 적어도 하나 저장하기 위한 메모리 소자(예를 들어, RAM, ROM 등)을 포함하는 형태로 구현될 수 있다.
또한, 프로세서(150)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit)를 포함할 수 있다. 또한, 프로세서는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서는 싱글 코어 이상의 멀티 코어를 포함할 수 있다. 예를 들어, 프로세서는 듀얼 코어, 트리플 코어, 쿼드 코어, 헥사 코어, 옥타 코어, 데카 코어, 도데카 코어, 헥사 다시 벌 코어 등을 포함할 수 있다.
개시된 실시예에서, 프로세서(150)는 구강 스캐너(10)로부터 수신되는 이차원 이미지에 근거하여 구강 이미지를 생성할 수 있다.
구체적으로, 프로세서(150)의 제어에 따라서 통신 인터페이스(110)는 구강 스캐너(10)에서 획득된 데이터, 예를 들어 구강 스캔을 통하여 획득된 로우 데이터(raw data)를 수신할 수 있다. 그리고, 프로세서(150)는 통신 인터페이스(110)에서 수신된 로우 데이터에 근거하여 구강을 3차원적으로 나타내는 3차원 구강 이미지를 생성할 수 있다. 예를 들어, 구강 스캐너(10)는 광 삼각 방식에 따라서 3차원 이미지를 복원하기 위해서, 적어도 1개 이상의 카메라를 포함할 수 있고, 보다 구체적으로는 좌안 시야(left Field of View)에 대응되는 L 카메라 및 우안 시야(Right Field of View)에 대응되는 R 카메라를 포함할 수 있다. 그리고, 구강 스캐너는 L 카메라 및 R 카메라 각각에서 좌안 시야(left Field of View)에 대응되는 L 이미지 데이터 및 우안 시야(Right Field of View)에 대응되는 R 이미지 데이터를 획득할 수 있다. 계속하여, 구강 스캐너는 L 이미지 데이터 및 R 이미지 데이터를 포함하는 로우 데이터를 구강 이미지 처리 장치(100)의 통신 인터페이스(110)로 전송할 수 있다.
그러면, 통신 인터페이스(110)는 수신되는 로우 데이터를 프로세서(150)로 전달하고, 프로세서(150)는 전달받은 로우 데이터에 근거하여, 구강을 3차원적으로 나타내는 구강 이미지를 생성할 수 있다.
또한, 프로세서(150)는 통신 인터페이스(110)를 제어하여, 외부의 서버, 의료 장치 등으로부터 구강을 3차원적으로 나타내는 구강 이미지를 직접 수신할 수 있다. 이 경우, 프로세서는 로우 데이터에 근거한 3차원 구강 이미지를 생성하지 않고, 3차원 구강 이미지를 획득할 수 있다.
개시된 실시예에 따라서, 프로세서(150)가 '추출', '획득', '생성' 등의 동작을 수행한다는 것은, 프로세서(150)에서 적어도 하나의 인스트럭션을 실행하여 전술한 동작들을 직접 수행하는 경우뿐만 아니라, 전술한 동작들이 수행되도록 다른 구성 요소들을 제어하는 것을 포함할 수 있다.
본 개시서에 개시된 실시예들을 구현하기 위해서 구강 이미지 처리 장치(100)는 도 7에 도시된 구성요소들의 일부만을 포함할 수도 있고, 도 7에 도시된 구성요소 외에 더 많은 구성요소를 포함할 수도 있다.
또한, 구강 이미지 처리 장치(100)는 구강 스캐너에 연동되는 전용 소프트웨어를 저장 및 실행할 수 있다. 여기서, 전용 소프트웨어는 전용 프로그램, 전용 툴(tool), 또는 전용 어플리케이션으로 호칭될 수 있다. 구강 이미지 처리 장치(100)가 구강 스캐너(10)와 상호 연동되어 동작하는 경우, 구강 이미지 처리 장치(100)에 저장되는 전용 소프트웨어는 구강 스캐너(10)와 연결되어 구강 스캔을 통하여 획득되는 데이터들을 실시간을 수신할 수 있다. 예를 들어, 메디트의 구강 스캐너인 i500 제품에서 구강 스캔을 통하여 획득된 데이터를 처리하기 위한 전용 소프트웨어가 존재한다. 구체적으로, 메디트에서는 구강 스캐너(예를 들어, i500)에서 획득된 데이터를 처리, 관리, 이용, 및/또는 전송하기 위한 소프트웨어인 'Medit Link'를 제작하여 배포하고 있다. 여기서, '전용 소프트웨어'는 구강 스캐너와 연동되어 동작 가능한 프로그램, 툴, 또는 어플리케이션을 의미하는 것이므로 다양한 제작자에 의해서 개발 및 판매되는 다양한 구강 스캐너들이 공용으로 이용할 수도 있을 것이다. 또한, 전술한 전용 소프트웨어는 구강 스캔을 수행하는 구강 스캐너와 별도로 제작 및 배포될 수 있다.
구강 이미지 처리 장치(100)는 i500 제품에 대응되는 전용 소프트웨어를 저장 및 실행할 수 있다. 전송 소프트웨어는 구강 이미지를 획득, 처리, 저장, 및/또는 전송하기 위한 적어도 하나의 동작들을 수행할 수 있다. 여기서, 전용 소프트웨어는 프로세서에 저장될 수 있다. 또한, 전용 소프트웨어는 구강 스캐너에서 획득된 데이터의 이용을 위한 사용자 인터페이스를 제공할 수 있다. 여기서, 전용 소프트웨어에서 제공되는 사용자 인터페이스 화면은 개시된 실시예에 따라서 생성되는 구강 이미지를 포함할 수 있다.
본 개시의 일 실시예에 따른 구강 이미지의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 구강 이미지의 처리 방법을 실행하는 적어도 하나의 인스트럭션을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 저장 매체가 될 수 있다.
상기 컴퓨터 판독 가능 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 여기서, 컴퓨터 판독 가능 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다.
여기서, 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 저장 매체가 실재(tangible)하는 장치임을 의미할 수 있다. 또한, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 구강 이미지의 처리 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포될 수 있다. 또는, 어플리케이션 스토어(예: 플레이 스토어 등)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 구체적으로, 개시된 실시예에 따른 컴퓨터 프로그램 제품은 개시된 실시예에 따른 구강 이미지의 처리 방법을 수행하기 위해 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 저장 매체를 포함할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (20)

  1. 구강 이미지 처리 방법에 있어서,
    하나 이상의 치아들을 포함하는 대상체를 스캔하여, 구강 이미지를 획득하는 단계;
    상기 구강 이미지에서 제1 치아 이미지를 생성하는 단계;
    상기 제1 치아 이미지와 치아 모델 데이터에 기초하여, 상기 치아들의 뿌리를 포함하는 제2 치아 이미지를 생성하는 단계; 및
    상기 제2 치아 이미지를 표시하는 단계를 포함하는 구강 이미지 처리 방법.
  2. 제1항에 있어서,
    상기 제1 치아 이미지를 생성하는 단계는,
    상기 구강 이미지에서, 치아 영역과 치은 영역을 세그멘테이션하는 단계를 포함하는, 구강 이미지 처리 방법.
  3. 제2항에 있어서,
    상기 제1 치아 이미지를 생성하는 단계는,
    상기 치아 영역에 포함된 상기 치아들을 세그멘테이션하는 단계를 더 포함하는, 구강 이미지 처리 방법.
  4. 제1항에 있어서,
    상기 제2 치아 이미지를 생성하는 단계는,
    상기 제1 치아 이미지를 상기 치아 모델 데이터에 정렬(align)시키는 단계; 및
    상기 제1 치아 이미지와 상기 치아 모델 데이터를 합성하는 단계;를 포함하는 구강 이미지 처리 방법.
  5. 제4항에 있어서,
    상기 제1 치아 이미지를 상기 치아 모델 데이터에 정렬시키는 단계는,
    상기 제1 치아 이미지에 포함된 치아들의 형상 정보와 상기 치아 모델 데이터에 포함된 치아들의 형상 정보에 기초하여, 상기 제1 치아 이미지에 포함된 치아들을 상기 치아 모델 데이터에 포함되는 치아들에 정렬시키는 단계를 포함하는, 구강 이미지 처리 방법.
  6. 제4항에 있어서,
    상기 제1 치아 이미지와 상기 치아 모델 데이터를 합성하는 단계는,
    합성 검사를 수행하여, 합성 이미지를 생성하는 단계;를 포함하는, 구강 이미지 처리 방법.
  7. 제6항에 있어서,
    상기 합성 검사는 최근접 이웃탐색 검사 또는 광선 교차 검사인 구강 이미지 처리 방법.
  8. 제7항에 있어서,
    상기 합성 검사가 상기 최근접 이웃탐색 검사인 경우,
    상기 합성 이미지를 생성하는 단계는,
    상기 치아 모델 데이터의 임의의 정점으로부터 가장 가까운 거리에 있는 제1 치아 이미지의 정점을 찾고,
    상기 치아 모델 데이터의 정점과 가장 가까운 거리에 있는 제1 치아 이미지의 정점 사이의 거리가 임계 거리 이하이면, 제1 치아 이미지의 데이터를 상기 합성 이미지의 데이터로 결정하고,
    상기 치아 모델 데이터의 정점과 가장 가까운 거리에 있는 제1 치아 이미지의 정점 사이의 거리가 임계 거리 초과이면, 상기 치아 모델 데이터의 임의의 정점을 합성 이미지의 데이터로 결정하는 단계를 포함하는, 구강 이미지 처리 방법.
  9. 제7항에 있어서,
    상기 합성 검사가 광선 교차 검사인 경우,
    상기 합성 이미지를 생성하는 단계는,
    상기 치아 모델 데이터에 포함되는 복수의 정점들 중 제1 정점에서 생성된, 상기 제1 정점의 법선 벡터와 평행한 방향을 가지는 가상의 광선이 상기 제1 치아 이미지에 교차하는 지 여부를 테스트하여,
    상기 가상의 광선이 상기 제1 치아 이미지와 교차하는 경우, 상기 교차하는 지점의 제1 치아 이미지의 데이터를 상기 합성 이미지의 데이터로 결정하고,
    상기 가상의 광선이 상기 제1 치아 이미지와 교차하지 않는 경우, 상기 제1 정점 데이터를 상기 합성 이미지의 데이터로 결정하는 단계를 포함하는, 구강 이미지 처리 방법.
  10. 제6항에 있어서,
    상기 구강 이미지 처리 방법은,
    상기 합성 이미지에 포함되는, 상기 제1 치아 이미지와 상기 치아 모델 데이터의 경계 영역에서, 상기 제1 치아 이미지의 일부 및 상기 치아 모델 데이터의 일부 중 적어도 하나를 제거하는 단계;를 더 포함하는, 구강 이미지 처리 방법.
  11. 제6항에 있어서,
    상기 구강 이미지 처리 방법은,
    상기 합성 이미지에 포함되는, 상기 치아 모델 데이터를 스케일링(scaling)하는 단계;를 더 포함하는, 구강 이미지 처리 방법.
  12. 제6항에 있어서,
    상기 구강 이미지 처리 방법은,
    상기 합성 이미지에 포함되는 갭(gap) 영역에 대한 표면 블렌딩을 수행하는 단계를 더 포함하는, 구강 이미지 처리 방법.
  13. 제1항에 있어서,
    상기 제2 치아 이미지는 상기 하나 이상의 치아들의 치관 영역과 치근 영역을 포함하며,
    상기 제2 치아 이미지를 생성하는 단계는,
    상기 스캔된 구강 데이터에 기초하여, 상기 치관 영역에 대한 이미지를 생성하고, 상기 치아 모델 데이터에 기초하여, 상기 치근 영역에 대한 이미지를 생성하는 단계를 포함하는, 구강 이미지 처리 방법.
  14. 구강 이미지 처리 장치는,
    디스플레이;
    하나 이상의 인스트럭션들을 저장하는 메모리; 및
    프로세서를 포함하고,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    하나 이상의 치아들을 포함하는 대상체를 스캔하여, 구강 이미지를 획득하고,
    상기 구강 이미지에서, 제1 치아 이미지를 생성하며,
    상기 제1 치아 이미지와 치아 모델 데이터에 기초하여, 상기 치아들의 뿌리를 포함하는 제2 치아 이미지를 생성하고,
    상기 제2 치아 이미지를 표시하도록 상기 디스플레이를 제어하는, 구강 이미지 처리 장치.
  15. 제14항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 제1 치아 이미지를 상기 치아 모델 데이터에 정렬(align)시키고,
    상기 제1 치아 이미지와 상기 치아 모델 데이터를 합성하는, 구강 이미지 처리 장치.
  16. 제15항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    합성 검사를 수행하여, 합성 이미지를 생성하는, 구강 이미지 처리 장치.
  17. 제16항에 있어서,
    상기 합성 검사는 최근접 이웃탐색 검사 또는 광선 교차 검사인 구강 이미지 처리 장치.
  18. 제16항에 있어서,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 치아 모델 데이터에 포함되는 복수의 정점들 중 제1 정점에서 생성된, 상기 제1 정점의 법선 벡터와 평행한 방향을 가지는 가상의 광선이 상기 제1 치아 이미지에 교차하는 지 여부를 테스트하여,
    상기 가상의 광선이 상기 제1 치아 이미지와 교차하는 경우, 상기 교차하는 지점의 제1 치아 이미지의 데이터를 상기 합성 이미지의 데이터로 결정하고,
    상기 가상의 광선이 상기 제1 치아 이미지와 교차하지 않는 경우, 상기 제1 정점 데이터를 상기 합성 이미지의 데이터로 결정하는, 구강 이미지 처리 장치.
  19. 제14항에 있어서,
    상기 제2 치아 이미지는 상기 하나 이상의 치아들의 치관 영역과 치근 영역을 포함하며,
    상기 프로세서는, 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행함으로써,
    상기 스캔된 구강 데이터에 기초하여, 상기 치관 영역에 대한 이미지를 생성하고, 상기 치아 모델 데이터에 기초하여, 상기 치근 영역에 대한 이미지를 생성하는, 구강 이미지 처리 장치.
  20. 구강 이미지의 처리 방법을 컴퓨터에 의해 수행하기 위한 적어도 하나의 인스트럭션을 포함하는 프로그램이 기록된 컴퓨터 판독 가능 기록 매체에 있어서, 상기 구강 이미지의 처리 방법은,
    하나 이상의 치아들을 포함하는 대상체를 스캔하여, 구강 이미지를 획득하는 단계;
    상기 구강 이미지에서 제1 치아 이미지를 생성하는 단계;
    상기 제1 치아 이미지와 치아 모델 데이터에 기초하여, 상기 치아들의 뿌리를 포함하는 제2 치아 이미지를 생성하는 단계; 및
    상기 제2 치아 이미지를 표시하는 단계를 포함하는, 컴퓨터 판독 가능 기록 매체.
PCT/KR2021/013459 2020-10-28 2021-09-30 구강 이미지 처리 장치, 및 구강 이미지 처리 방법 WO2022092594A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/033,695 US20230390035A1 (en) 2020-10-28 2021-09-30 Oral image processing device and oral image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20200141576 2020-10-28
KR10-2020-0141576 2020-10-28
KR10-2020-0150519 2020-11-11
KR1020200150519A KR20220056760A (ko) 2020-10-28 2020-11-11 구강 이미지 처리 장치, 및 구강 이미지 처리 방법

Publications (1)

Publication Number Publication Date
WO2022092594A1 true WO2022092594A1 (ko) 2022-05-05

Family

ID=81382671

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/013459 WO2022092594A1 (ko) 2020-10-28 2021-09-30 구강 이미지 처리 장치, 및 구강 이미지 처리 방법

Country Status (2)

Country Link
US (1) US20230390035A1 (ko)
WO (1) WO2022092594A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544417A (ja) * 2006-07-28 2009-12-17 スリーエム イノベイティブ プロパティズ カンパニー 歯科矯正アンカレッジデバイスの手術用ガイドを使用したコンピュータ支援インプラント
KR101474098B1 (ko) * 2007-03-19 2014-12-22 플란메카 오이 파노라마 엑스선 장치 및 파노라마 이미징을 위한 이미징될 층의 위치 설정
WO2016003257A2 (ko) * 2014-07-04 2016-01-07 주식회사 인스바이오 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
KR20170000794A (ko) * 2015-06-24 2017-01-03 덴탈 이미징 테크놀로지스 코퍼레이션 치아 이미지로부터 치아 복원 제품을 위한 디자인의 생성 방법
JP2020006082A (ja) * 2018-07-12 2020-01-16 株式会社DSi 技工物自動設計システム
KR102067614B1 (ko) * 2019-08-02 2020-01-17 주식회사 임솔 임플란트 수술을 계획하는 방법, 장치 및 컴퓨터 프로그램

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544417A (ja) * 2006-07-28 2009-12-17 スリーエム イノベイティブ プロパティズ カンパニー 歯科矯正アンカレッジデバイスの手術用ガイドを使用したコンピュータ支援インプラント
KR101474098B1 (ko) * 2007-03-19 2014-12-22 플란메카 오이 파노라마 엑스선 장치 및 파노라마 이미징을 위한 이미징될 층의 위치 설정
WO2016003257A2 (ko) * 2014-07-04 2016-01-07 주식회사 인스바이오 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
KR20170000794A (ko) * 2015-06-24 2017-01-03 덴탈 이미징 테크놀로지스 코퍼레이션 치아 이미지로부터 치아 복원 제품을 위한 디자인의 생성 방법
JP2020006082A (ja) * 2018-07-12 2020-01-16 株式会社DSi 技工物自動設計システム
KR102067614B1 (ko) * 2019-08-02 2020-01-17 주식회사 임솔 임플란트 수술을 계획하는 방법, 장치 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
US20230390035A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
WO2022085966A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2021242050A1 (ko) 구강 이미지의 처리 방법, 그에 따른 동작을 수행하는 구강 진단 장치, 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2021137573A2 (ko) 마진라인 설정 장치 및 방법
WO2021025296A1 (ko) 크라운 모델 자동 추천방법 및 이를 수행하는 보철 캐드 장치
WO2022092627A1 (ko) 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치
WO2022065756A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2021182754A1 (ko) 치과 임플란트 수술계획 수립방법 및 그 장치
WO2022092594A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2022164175A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
KR20220056760A (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2021242053A1 (ko) 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2022014965A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2023003399A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
WO2022092802A1 (ko) 삼차원 구강 모델을 처리하는 방법 및 장치
WO2023282579A1 (ko) 구강 모델을 처리하는 데이터 처리 장치 및 그 동작 방법
WO2022270889A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2023003192A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
WO2023059167A1 (ko) 구강 이미지 처리 장치 및 구강 이미지 처리 방법
WO2023038455A1 (ko) 구강 이미지를 처리하는 방법 및 데이터 처리 장치
WO2022265270A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
WO2023249293A1 (ko) 이미지 처리 장치 및 이미지 처리 방법
WO2023063767A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2023027500A1 (ko) 이미지 처리 장치, 및 이미지 처리 방법
WO2023063805A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2022203354A1 (ko) 삼차원 구강 모델 처리 장치 및 삼차원 구강 모델 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21886588

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21886588

Country of ref document: EP

Kind code of ref document: A1