WO2021141424A1 - 이미지 필터링 방법 - Google Patents

이미지 필터링 방법 Download PDF

Info

Publication number
WO2021141424A1
WO2021141424A1 PCT/KR2021/000223 KR2021000223W WO2021141424A1 WO 2021141424 A1 WO2021141424 A1 WO 2021141424A1 KR 2021000223 W KR2021000223 W KR 2021000223W WO 2021141424 A1 WO2021141424 A1 WO 2021141424A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
data
image
filtering
reference color
Prior art date
Application number
PCT/KR2021/000223
Other languages
English (en)
French (fr)
Inventor
이동훈
이승진
Original Assignee
주식회사 메디트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디트 filed Critical 주식회사 메디트
Priority to EP21738509.5A priority Critical patent/EP4071709A4/en
Priority to CN202180008625.0A priority patent/CN114930383A/zh
Publication of WO2021141424A1 publication Critical patent/WO2021141424A1/ko
Priority to US17/858,993 priority patent/US20220330831A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to an image filtering method (IMAGE FILTERING METHOD), and more particularly, to a method of excluding a portion unnecessary to a user from an acquired image.
  • 3D scanning technology is currently being widely used regardless of industrial fields, and its practicality continues to attract attention, especially in the dental treatment field, such as the production of dental prosthetics.
  • the 3D scanner converts the image of the photographed area into 3D volume data, resulting in one entire oral cavity. model data is obtained.
  • the image filtering method obtains color information for each pixel of the two-dimensional image data from the obtained two-dimensional image data, compares the obtained color information with reference color information, A method is provided that deletes pixel data determined not to correspond to information and does not include it in a 3D volume data conversion process.
  • pixel data determined not to correspond to oral information from the learned reference color or reference color range is deleted and not included in the 3D volume data conversion process. provide a way not to.
  • An image filtering method includes an image acquisition step of acquiring a two-dimensional image of a scan target having a valid data part including teeth in the oral cavity through a scanner, and at least a portion of the two-dimensional image acquired from the image acquisition step
  • the color obtaining step of obtaining color information from data the color information of the at least some data in the color obtaining step is included in the reference color range that is the color range of the object to be filtered that is distinguished from the inside of the oral cavity, the target color to be deleted
  • the method further includes a reference color determination step of determining whether the color information of the at least some data obtained in the color obtaining step is included in a reference color range, wherein the filtering step is determined as the reference color range from the reference color determination step By determining the at least some of the data to be deleted as data to be deleted, it can be deleted from the two-dimensional image data.
  • the method may further include a reference color setting step of setting the deletion target color, wherein the deletion target color in the reference color setting step may be designated through a user interface.
  • the size of the reference color range may be adjustable through a user interface based on the deletion target color.
  • the color information may be information expressed using the RGB addition and mixing method.
  • the modeling step of generating a 3D virtual model, the displaying step of visually displaying the 3D virtual model, and the part corresponding to the deletion target color, which is a color of the filtering target object that is distinguished from the inside of the oral cavity in the 2D image, is the A filtering step of filtering before the display step may be included, and the modeling step may generate the 3D virtual model as the 2D image data having only the valid data part by deleting the data having the deletion target color.
  • the filtering step may further include a reference color setting step of setting the deletion target color from the filtering target object, and a reference color determination step of determining whether the deletion target color exists in the two-dimensional image.
  • the reference color setting step may be set by a user's selection or may be set based on an image of a filtering target object.
  • the reference color determination step of determining whether the color information of the at least some data acquired in the color obtaining step is included in the reference color range defined through learning, and the color information of the at least some data in the color determination step If it is included in the reference color range
  • a filtering step of determining that the data to be deleted having the target color to be deleted is deleted from the two-dimensional image data, and the deletion target data is deleted through the filtering step to delete only the valid data part
  • the branch may include a 3D operation step of converting 2D
  • the step of defining the reference color range includes: a reference image acquisition step of repeatedly acquiring at least one or more images of the filtering target object including the deletion target color, and an image of the filtering target object acquired from the reference image acquisition step and a reference color range learning step of determining the reference color range from
  • a color overlapping from at least one image acquired through the step of obtaining the reference image may be learned as the reference color range.
  • the color information may be information expressed using the RGB addition and mixing method.
  • the present invention through the color value of at least a part of the acquired image, it is determined whether the photographed part is a part necessary for forming the oral model data, and if it is determined that the part is a noise pixel having a color to be deleted, the By deleting data, there is an advantage in that only the part necessary to form the actual oral model data is performed three-dimensionally.
  • three-dimensional volume data is formed with data excluding noise pixels, more precise three-dimensional volume data can be obtained, which has the advantage of improving the reliability of the oral model data.
  • FIG. 1 is a flowchart of an image filtering method according to the present invention.
  • RGB color table 2 is a simplified RGB color table for explaining the RGB additive mixing method in the image filtering method according to the present invention.
  • FIG. 3 is a diagram exemplarily illustrating an object having a color to be deleted in the image filtering method according to the present invention.
  • FIG. 4 is a diagram exemplarily showing that data of an object having a color to be deleted and data inside the oral cavity are converted into 3D volume data in the image filtering method according to the present invention.
  • FIG. 5 is a diagram exemplarily showing that only data inside the oral cavity is converted into 3D volume data by excluding an object having a color to be deleted in the image filtering method according to the present invention.
  • FIG. 6 is a flowchart of an image filtering method according to another embodiment of the present invention.
  • FIG. 7 is a block diagram of an imaging filtering apparatus in which an image filtering method according to the present invention is performed.
  • FIG. 1 is a flowchart of an image filtering method according to the present invention
  • FIG. 2 is a simplified RGB color table for explaining the RGB additive mixing method in the image filtering method according to the present invention.
  • FIG. 3 is a diagram exemplarily showing an object having a color to be deleted in the image filtering method according to the present invention
  • FIG. 4 is an object having a color to be deleted in the image filtering method according to the present invention and the inside of the oral cavity.
  • It is a diagram illustrating conversion into three-dimensional volume data together
  • FIG. 5 is an exemplary view that, in the image filtering method according to the present invention, only the inside of the oral cavity is converted into three-dimensional volume data by excluding an object having a color to be deleted. is a diagram shown as
  • the image filtering method may include an image acquisition step S1 of acquiring two-dimensional image data through a scanner.
  • the 3D scanner may photograph the inside of the patient's mouth through an imaging unit formed therein.
  • the three-dimensional scanner may be formed to have an opening that is drawn into or withdrawn into the patient's oral cavity at one end and one side is opened.
  • the reflected light is received by at least one camera, which is a component of the imaging unit. .
  • the received light is analyzed by an imaging sensor communicatively connected to the camera, and two-dimensional image data is generated as a result of the analysis of the light.
  • the 2D image data refers to data in the form of photos before being converted into 3D volume data.
  • a method for the 3D scanner to obtain an image in the above-described image obtaining step S1 may be at least one of various measurement methods such as 1D line scan, triangulation through structured light, confocal, and the like. According to the above method, 2D image data is obtained, and information for converting the 2D image data into 3D volume data is collected.
  • the image acquired in the image acquisition step is configured in units of pixels.
  • a pixel means the smallest unit constituting an image.
  • the number of pixels corresponding to the size of the 2D image data obtained from the above-described image acquisition step, that is, color information is obtained from all pixels of the corresponding 2D image data (S2).
  • the obtained color information may be an RGB additive mixing model, an HSV model, a YCbCr model, or the like.
  • the RGB model may express color information of a corresponding pixel by combining three color elements of red, green, and blue, respectively.
  • the RGB model may represent the color elements of Red, Green, and Blue as integers from 0 to 255, respectively, in order to express color information of each pixel constituting the two-dimensional image data. Meanwhile, the color value becomes clearer or brighter as it increases from 0 to 255. For example, when the RGB value is (0, 0, 0), it may represent black, and when it is (255, 255, 255), it may represent white.
  • a user only needs data necessary for treatment of a patient, such as teeth and gums, in the two-dimensional image data (this will be referred to as 'valid data' in this specification).
  • Other data are referred to as data unnecessary for patient treatment, and the unnecessary data is referred to as noise data.
  • the noise data may be data on all objects unnecessary for dental treatment.
  • the user's hand usually, a sanitary glove having a color distinct from the color of teeth or gums inside the mouth due to the nature of dental treatment
  • saliva or other foreign objects.
  • the scanned object may include not only an object corresponding to valid data but also an object corresponding to noise data. Therefore, converting the noise data into 3D volume data together with valid data and then removing the noise data in the post-correction step consumes unnecessary work and time in the 3D volume data conversion process.
  • the image filtering method may further include a reference color setting step (S31) of setting a color to be deleted.
  • the reference color setting step allows a user to set a color desired to be deleted (a deletion target color or a reference color) on the user interface (UI), that is, a color of a portion corresponding to the noise data in the scan target. After the deletion target color is set, the pixel including the deletion target color in the 2D image data may be deleted so as not to be included in the 3D volume data conversion target.
  • a system predetermined one may be included, and the user may change, add, or delete a systemically predetermined color according to the user's needs.
  • the user may directly designate a color to be deleted using a color picker.
  • the user may designate a deletion target color on any obtained two-dimensional image data, or may designate a deletion target color on a color palette.
  • the object that the user wants to delete may be expressed in only one color, it may be obtained as having a plurality of color information in consideration of the reflection of the shadow when the object is photographed by a 3D scanner.
  • the size of the reference color range may be adjusted based on the deletion target color. That is, if one color of an object to be deleted is designated, the reference color range may be set from the color to the adjacent color. Meanwhile, the reference color range may not be equally applied in all scan situations, and the size of this range may be adjustable through a user interface. Illustratively, setting a wide base color range may increase the range to be deleted with a wider adjacent color as the base color gamut, and setting a narrow base color range may set the base color up to the narrow adjacent color as the base color.
  • the range to be deleted may be reduced as an area.
  • colors within a predetermined range from the RGB color values of the deletion target color may be set as the reference color range.
  • the RGB value of the specified deletion target color is (x, y, z)
  • the R(Red) value of the reference color range is x- ⁇ to x+ ⁇
  • the G(Green) value is y- ⁇ to y- ⁇
  • the values of y+ ⁇ , B(Blue) may range from z- ⁇ to z+ ⁇ ( ⁇ , ⁇ , and ⁇ are arbitrary integers). That is, by setting the reference color range or adjusting the reference color range in consideration of environmental changes that may occur during the scanning process, the user can efficiently remove noise data and minimize post-correction work.
  • the color information obtained from the two-dimensional image and the reference color range may be compared and determined (S4) whether color information of some acquired data is included in the reference color range.
  • the portions corresponding to the valid data of the scan will have at least some of all colors that do not basically correspond to the reference color range, but usually have white or ivory colors of teeth and red or pink colors such as gums. can have color.
  • the noise data has a color different from the color of the inside of the oral cavity, and color information of each pixel of the two-dimensional image data obtained by photographing the noise data may be included in the reference color range.
  • the calculation unit determines that the corresponding part is a pixel having a color to be deleted and deletes it from the two-dimensional image data (filtering step, S5) ). That is, since the data within the reference color range is not data about the inside of the oral cavity to be acquired, the amount of calculation for converting into 3D volume data is reduced by performing deletion in advance before converting into 3D volume data. As described above, by deleting (filtering) data included in the reference color range, there is an advantage in that the execution time of the subsequent step can be shortened.
  • the calculation unit converts the filtered two-dimensional image data into three-dimensional volume data (three-dimensional operation step, S6), and visually displays the three-dimensional volume data (display step) ).
  • the part converted into 3D volume data is a part corresponding to valid data such as teeth and gums among the scan targets, and the part corresponding to the noise data is preemptively removed before being displayed and is not visually displayed in the display stage. . Therefore, the reliability of the oral model data formed by the three-dimensional volume data is improved. In this way, by performing a three-dimensional volume data conversion operation after the filtering step (S5), the amount of data to be converted as a whole is reduced.
  • the deletion target color is converted into 3D volume data as it is, and deletion must be performed through post-correction.
  • FIG. 5 since noise data is preemptively removed from 2D image data, it can be seen that noise data is excluded from calculation in 3D volume data conversion.
  • 3D volume data converted from 2D image data may have a form in which a plurality of points are connected in a mesh form. Accordingly, 3D points included in the 3D volume data may be acquired ( S7 ). Using the 3D points, 3D volume data may be analyzed and modified, and more suitable treatment may be provided to the patient by analyzing and modifying the 3D volume data.
  • FIG. 6 is a flowchart of an image filtering method according to another embodiment of the present invention.
  • the image filtering method includes an image acquisition step (S1) in which a user acquires 2D image data through a 3D scanner, and acquires color information from at least a portion of the acquired 2D image data and a color obtaining step (S2). Since the image acquisition step S1 and the color acquisition step S2 are the same as described above, they are omitted.
  • the image filtering method according to the present invention may further include a reference color range definition step ( S32 ) of defining a reference color range by color information obtained together by obtaining an image of the filtering target object.
  • the reference color range definition step S32 is different from the aforementioned reference color setting step S31 , meaning that the reference color range is automatically defined from color information acquired together by acquiring an image of the filtering target object. Therefore, since the deletion target color is recognized by continuously acquiring the image of the filtering target object, the user can set the reference color by photographing the object including the deletion target color.
  • the object to be filtered may include the user's skin, hand, or glove, or may include soft tissue, saliva, foreign substances, and the like in the patient's oral cavity.
  • the filtering target object may have color information different from the valid data, and is distinguished from the inside of the patient's oral cavity, which is a scan target having valid data.
  • the reference color range definition step ( S32 ) may again include a reference image acquisition step ( S32a ) and a reference color range learning step ( S32b ).
  • the reference image acquisition step S32a at least one or more images of the filtering target object including the deletion target color may be repeatedly acquired. That is, at least one 2D image data of the filtering target object may be acquired.
  • 'at least one or more' includes acquiring two-dimensional image data once, but for effective and accurate reference color range definition, at least two two-dimensional image data are acquired through at least two or more shots. It is desirable to allow a reference color range to be defined.
  • the reference image acquisition step (S32a) is performed separately from the image acquisition step (S1), and the reference image acquisition step (S32a) may be performed to acquire only a two-dimensional image of the filtering target object in an environment that does not contain valid data.
  • a glove worn by the user may be scanned using a scanner, and two-dimensional image data representing the glove may be acquired.
  • the filtering target may be scanned spaced apart from the scan target having valid data.
  • the reference color range learning step S32b may determine a reference color or a reference color range from the image of the filtering target object.
  • various methods may be used in determining the reference color or the reference color range.
  • a reference color range may be determined using data density. In the image data acquired in the above-described reference image acquisition step S32a, the data density appears to be high for color information that is continuously acquired.
  • the color obtained with more frequency can be determined and learned as the reference color or the reference color range that is the target color to be deleted.
  • the reference color range According to the data density in this way, it is possible to automatically learn the characteristics of the noise data (the color to be deleted appearing in the noise data) and exclude it before the three-dimensional operation step (S6), reducing the amount of computation and calculating
  • learning the reference color or the reference color range in the reference color range learning step ( S32b ) may use an artificial intelligence (Artificial Intelligence) learning method, for example, a deep learning method may be used.
  • an artificial intelligence (Artificial Intelligence) learning method for example, a deep learning method may be used.
  • this is an example, and any method capable of automatically determining a reference color or a reference color range from at least one two-dimensional image data obtained by scanning an object to be filtered to implement the image filtering method according to the present invention is used. can be used.
  • the color information of at least some data acquired in the color acquisition step (S2) corresponds to the reference color range defined through learning (reference color determination step, S4), and the color information of the corresponding data is in the reference color range If included, it is determined that the corresponding data has a deletion target color and is deleted (filtered) in the 2D image data (S5). Thereafter, by converting the filtered two-dimensional image data into three-dimensional volume data (three-dimensional operation step, S6), the user can acquire the entire oral model data of the patient.
  • the three-dimensional operation step (S6) is performed with the noise data already removed and the three-dimensional volume data conversion is performed, so that the amount of computation is reduced and the computation speed is increased, and reliable oral model data is obtained.
  • a two-dimensional image may be obtained through a scanner, and three-dimensional volume data may be generated based on the two-dimensional image.
  • the generated 3D volume data may be displayed in real time on a display device or the like.
  • a portion corresponding to a specific color of the 2D image data may be filtered (deleted) and displayed in real time (filtering step, S5).
  • the 'specific color' of the image data is the color constituting the saliva, the user's glove, etc., which are classified as noise data when the user of the scanner acquires the patient's entire oral model data (this is named as the color to be deleted in the specification) have been) may be applicable.
  • the deletion target color may be learned as a reference color, and a reference color setting step of defining the deletion target color may be performed before the three-dimensional calculation step ( S6 ).
  • a reference color determination step (S4) of determining whether a target color to be deleted exists in the 2D image data is performed thereafter, and a filtering step (S5) is performed.
  • the data containing the color information is deleted in the part corresponding to the deletion target color of the 2D image so that the corresponding color is not displayed. Accordingly, there is an advantage in that the user can obtain reliable data containing necessary color information (ie, having only valid data such as gums and teeth).
  • the image filtering apparatus 1 includes a scan unit 100 , a control unit 200 , a database unit 300 , and a display unit 400 .
  • the scan unit 100 may scan a scan target.
  • the scan unit 100 may receive light reflected from the surface of the scan target.
  • the light reflected from the surface of the scan unit 100 may be received into the inner portion of the scan unit 100 through an opening formed at one end of the scan unit 100, and the light is converted into two-dimensional image data by the control unit 200 to be described later. can be formed.
  • the light received by the scanning process of the scanning unit 100 may be light having a wavelength in the visible ray region for example.
  • the scan unit 100 may be a three-dimensional intraoral scanner for scanning the inside of the patient's oral cavity corresponding to valid data.
  • the scan unit 100 may scan not only the scan target but also the filtering target object having the deletion target color.
  • the filtering target object may be an object having noise data different from valid data.
  • the filtering target object is the same as described above.
  • the controller 200 may include an image data generator 210 that generates two-dimensional image data based on the light received by the scan unit 100 .
  • the image data generating unit 210 generates the light received by the scanning unit 100 as 2D image data of a predetermined size, the 2D image data may have a plurality of pixels, and each pixel may have color information. .
  • the generated 2D image data may be stored in the database unit 300 , and the database unit 300 may also store color information of each pixel.
  • control unit 200 may include an image filtering unit 220 .
  • the image filtering unit 220 may filter the deletion target color of the filtering target object from the 2D image data obtained from the image data generating unit 210 .
  • the reference color corresponding to the deletion target color may be designated by a user's selection or may be automatically acquired by separately scanning the filtering target object.
  • the image filtering unit 220 filters pixel data having color information corresponding to the color to be deleted so that the corresponding part is not converted into 3D volume data.
  • the controller 200 may include an image data converter 230 .
  • the image data conversion unit 230 may convert at least a portion of the 2D image data generated by the image data generation unit 210 into 3D volume data.
  • the 3D volume data is obtained by converting 2D image data previously filtered by the image filtering unit 220 . Accordingly, the converted 3D volume data may include only valid data except for noise data, and may obtain reliable patient oral model data.
  • the controller 200 may further include a reference color learning unit 240 .
  • the reference color learning unit 240 may determine a reference color corresponding to the deletion target color from at least one 2D image data of the filtering target object.
  • the reference color may be one single color or a color group (color range) within a predetermined range.
  • the learned reference color may be stored in the database unit 300 .
  • the reference color stored in the database unit 300 may be reused in another scanning process.
  • the database unit 300 includes two-dimensional image data generated by the image data generating unit 210 and color information of pixels, three-dimensional volume data generated by the image data converting unit 230, and a reference color learning unit 240 . ) may be stored as a reference color specified by . At least a part of the contents stored in the database unit 300 may be used for the operation of the control unit 200 or may be displayed through the display unit 400 .
  • the database unit 300 may be an object such as a hard disk drive or a flash drive, or a virtual storage system such as a cloud service.
  • the display unit 400 may be a visual display device such as a monitor or a tablet.
  • Step for setting the reference color S32: Step for defining the reference color range
  • image filtering device 100 scan unit
  • control unit 300 database unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Processing (AREA)

Abstract

본 발명에 따른 이미지 필터링 방법은 스캐너를 통해 2차원 이미지를 획득하고, 2차원 이미지의 적어도 일부 데이터의 색상 정보를 획득한 후, 획득한 색상 정보가 기준 색상 범위에 포함되는지 판단한다. 획득한 색상 정보가 기준 색상 범위에 포함되는 경우, 2차원 이미지 내에서 해당 데이터를 삭제하고 남은 이미지 데이터들에 대하여 3차원 볼륨 데이터로 변환을 수행한다. 한편, 기준 색상 범위를 판단함에 있어서 기준 색상은 기 설정되어 있는 데이터일 수도 있고, 사용자가 임의로 설정할 수도 있으며, 반복적으로 기준 이미지를 입력함으로써 획득한 이미지 데이터를 통해 기준 색상 범위를 정의하기 위한 학습을 수행할 수도 있다. 이러한 이미지 필터링 방법을 사용함에 따라 3차원 스캐너 사용자는 스캔 이후 후보정 작업을 최소화할 수 있으며, 구강 내부에 대한 정밀한 데이터 결과값을 얻을 수 있으므로 데이터 신뢰성을 향상시키는 이점이 있다.

Description

이미지 필터링 방법
본 발명은 이미지 필터링 방법(IMAGE FILTERING METHOD)에 관한 것으로, 보다 상세하게는 획득한 이미지에서 사용자에게 불필요한 부분을 제외하는 방법에 관한 것이다.
3차원 스캐닝 기술은 현재 산업 분야를 구분하지 않고 광범위하게 사용되고 있으며, 특히 치아 보철 치료물 제작 등 치과 치료 분야에서 그 실용성이 계속적으로 주목받고 있다.
한편, 환자의 환부, 즉 구강 내부(치아, 잇몸 등을 의미한다)를 3차원 스캐너로 촬영하면, 3차원 스캐너는 촬영된 부위에 대한 이미지를 3차원 볼륨 데이터로 변환함으로써 결과적으로 하나의 전체 구강 모형 데이터를 획득하게 된다.
이 때, 환자의 구강 내부를 촬영할 때 구강 내부에 존재하는 이물질, 3차원 스캐너 사용자(통상적으로 치과 의사가 될 수 있다)의 손 등이 함께 촬영될 가능성이 있다. 이와 같이 이물질 또는 사용자의 손은 환자의 전체 구강 모형 데이터 획득에 방해가 되는 요소이며, 결과적으로 3차원 볼륨 데이터 변환과정 또는 후보정 과정에서 삭제될 필요가 있다.
지금까지 3차원 스캐너 사용자는 스캔을 수행한 후 변환된 3차원 볼륨 데이터에서 실제 구강 내부에 해당하지 않는 부분을 수동적으로 삭제하였으므로, 후보정 작업에 시간이 많이 소요되는 문제가 있었다.
이상의 문제점을 해결하기 위하여 본 발명에 따른 이미지 필터링 방법은 획득한 2차원 이미지 데이터로부터, 2차원 이미지 데이터의 각 픽셀에 대한 색상 정보를 획득하고, 획득한 색상 정보를 기준 색상 정보와 비교하며, 구강 정보에 해당하지 않는 것으로 판단된 픽셀 데이터를 삭제하여 3차원 볼륨 데이터 변환 과정에서 포함하지 않는 방법을 제공한다.
또한, 색상 정보의 학습을 통해 기준 색상 또는 기준 색상 범위를 정의함으로써, 학습된 기준 색상 또는 기준 색상 범위로부터 구강 정보에 해당하지 않는 것으로 판단된 픽셀 데이터를 삭제하여 3차원 볼륨 데이터 변환 과정에서 포함하지 않는 방법을 제공한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명에 따른 이미지 필터링 방법은, 스캐너를 통해 구강 내부의 치아를 포함한 유효 데이터 부분을 가지는 스캔 대상의 2차원 이미지를 획득하는 이미지 획득 단계, 상기 이미지 획득 단계로부터 획득한 상기 2차원 이미지의 적어도 일부 데이터로부터 색상 정보를 획득하는 색상 획득 단계, 상기 색상 획득 단계에서 상기 적어도 일부 데이터의 색상 정보는, 상기 구강 내부와 구분되는 필터링 대상 물체가 가지는 색상 범위인 기준 색상 범위 내에 포함되는 경우, 삭제 대상 색상을 가지는 삭제 대상 데이터로 판단하고 상기 2차원 이미지 데이터 내에서 상기 삭제 대상 데이터를 삭제하는 필터링 단계, 및 상기 필터링 단계를 거쳐 상기 삭제 대상 데이터가 삭제되어 상기 유효 데이터 부분만을 가지는 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환하는 3차원 연산 단계를 포함할 수 있다.
또한, 상기 색상 획득 단계에서 획득한 상기 적어도 일부 데이터의 색상 정보가 기준 색상 범위 내에 포함되는지 판단하는 기준 색상 판단 단계를 더 포함하고, 상기 필터링 단계는 상기 기준 색상 판단 단계로부터 상기 기준 색상 범위로 판단된 상기 적어도 일부 데이터를 삭제 대상 데이터로 판단함으로써 상기 2차원 이미지 데이터 내에서 삭제할 수 있다.
또한, 상기 삭제 대상 색상을 설정하는 기준 색상 설정 단계;를 더 포함하고, 상기 기준 색상 설정 단계의 상기 삭제 대상 색상은 유저 인터페이스를 통해 지정될 수 있다.
또한, 상기 기준 색상 범위의 크기는 상기 삭제 대상 색상을 기준으로 유저 인터페이스를 통해 조절가능할 수 있다.
또한, 상기 색상 정보는 RGB 가산혼합 방식을 사용하여 표현된 정보일 수 있다.
한편, 본 발명의 다른 실시예에 따른 이미지 필터링 방법은, 스캐너를 통해 구강 내부의 치아를 포함한 유효 데이터 부분을 가지는 스캔 대상의 2차원 이미지를 획득하는 이미지 획득 단계, 상기 2차원 이미지를 기초로 3차원 가상 모델을 생성하는 모델링 단계, 상기 3차원 가상 모델을 시각적으로 표시하는 디스플레이 단계, 및 상기 2차원 이미지에서 상기 구강 내부와 구분되는 필터링 대상 물체가 가지는 색상인 삭제 대상 색상에 해당하는 부분은 상기 디스플레이 단계 이전에 필터링하는 필터링 단계를 포함하고, 상기 모델링 단계는 상기 삭제 대상 색상을 가지는 데이터가 삭제되어 상기 유효 데이터 부분만을 가지는 2차원 이미지 데이터로 상기 3차원 가상 모델을 생성할 수 있다.
또한, 상기 필터링 단계는 상기 필터링 대상 물체로부터 상기 삭제 대상 색상을 설정하는 기준 색상 설정 단계, 및 상기 2차원 이미지에서 상기 삭제 대상 색상이 존재하는지 판단하는 기준 색상 판단 단계를 더 포함할 수 있다.
또한, 상기 기준 색상 설정 단계는 사용자의 선택에 의해 설정되거나, 필터링 대상 물체의 이미지를 기초로 설정될 수 있다.
한편, 본 발명의 또다른 실시예에 따른 이미지 필터링 방법은, 스캐너를 통해 구강 내부의 치아를 포함한 유효 데이터 부분을 가지는 스캔 대상의 2차원 이미지를 획득하는 이미지 획득 단계, 상기 이미지 획득 단계로부터 획득한 상기 2차원 이미지의 적어도 일부 데이터로부터 색상 정보를 획득하는 색상 획득 단계, 상기 구강 내부와 구분되는 필터링 대상 물체의 이미지를 기초로 상기 필터링 대상 물체가 가지는 색상 범위를 기준 색상 범위로 정의하는 기준 색상 범위 정의 단계, 상기 색상 획득 단계에서 획득한 상기 적어도 일부 데이터의 색상 정보가 학습을 통해 정의된 상기 기준 색상 범위 내에 포함되는지 판단하는 기준 색상 판단 단계, 상기 색상 판단 단계에서 상기 적어도 일부 데이터의 색상 정보가 상기 기준 색상 범위 내에 포함되는 경우, 삭제 대상 색상을 가지는 삭제 대상 데이터로 판단하고 상기 2차원 이미지 데이터 내에서 삭제하는 필터링 단계, 및 상기 필터링 단계를 거쳐 상기 삭제 대상 데이터가 삭제되어 상기 유효 데이터 부분만을 가지는 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환하는 3차원 연산 단계를 포함할 수 있다.
또한, 상기 기준 색상 범위 정의 단계는, 상기 삭제 대상 색상을 포함하는 필터링 대상 물체의 이미지를 적어도 하나 이상 반복적으로 획득하는 기준이미지 획득 단계, 및 상기 기준이미지 획득 단계로부터 획득한 상기 필터링 대상 물체의 이미지로부터 상기 기준 색상 범위를 결정하는 기준 색상 범위 학습 단계를 포함할 수 있다.
또한, 상기 기준 색상 범위 학습 단계는, 상기 기준이미지 획득 단계를 통해 획득한 적어도 하나 이상의 이미지로부터 중첩되는 색상을 상기 기준 색상 범위로 학습할 수 있다.
또한, 상기 색상 정보는 RGB 가산혼합 방식을 사용하여 표현된 정보일 수 있다.
본 발명에 따르면, 획득한 이미지의 적어도 일부의 색상값을 통해, 촬영된 부분이 구강 모형 데이터 형성에 필요한 부분인지 판단하고, 만약 상기 부분이 삭제 대상 색상을 갖는 노이즈 픽셀인 것으로 판단되면 해당 부분의 데이터를 삭제함으로써 실제 구강 모형 데이터 형성에 필요한 부분만 3차원 연산을 수행하는 이점이 있다.
또한, 상기와 같이 구강 모형 데이터 형성에 필요한 부분만 3차원 연산을 수행함으로써, 3차원 연산에 소요되는 시간 및 리소스를 절약할 수 있는 이점이 있다.
또한, 노이즈 픽셀이 제외된 데이터로 3차원 볼륨 데이터를 형성하므로, 더욱 정밀한 3차원 볼륨 데이터를 획득할 수 있으며, 이는 구강 모형 데이터의 신뢰성을 향상시키는 이점이 있다.
도 1은 본 발명에 따른 이미지 필터링 방법의 순서도이다.
도 2는 본 발명에 따른 이미지 필터링 방법에서, RGB 가산혼합 방식을 설명하기 위한 간소화된 RGB 색상표이다.
도 3은 본 발명에 따른 이미지 필터링 방법에서, 삭제 대상 색상을 가지는 물체를 예시적으로 나타낸 도이다.
도 4는 본 발명에 따른 이미지 필터링 방법에서, 삭제 대상 색상을 가지는 물체의 데이터와 구강 내부의 데이터가 함께 3차원 볼륨 데이터로 변환된 것을 예시적으로 나타낸 도이다.
도 5는 본 발명에 따른 이미지 필터링 방법에서, 삭제 대상 색상을 가지는 물체가 제외되어 구강 내부의 데이터만 3차원 볼륨 데이터로 변환된 것을 예시적으로 나타낸 도이다.
도 6은 본 발명의 다른 실시예에 따른 이미지 필터링 방법의 순서도이다.
도 7은 본 발명에 따른 이미지 필터링 방법이 수행되는 이미징 필터링 장치의 구성도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명에 따른 이미지 필터링 방법의 순서도이고, 도 2는 본 발명에 따른 이미지 필터링 방법에서, RGB 가산혼합 방식을 설명하기 위한 간소화된 RGB 색상표이다. 또한, 도 3은 본 발명에 따른 이미지 필터링 방법에서, 삭제 대상 색상을 가지는 물체를 예시적으로 나타낸 도이며, 도 4는 본 발명에 따른 이미지 필터링 방법에서, 삭제 대상 색상을 가지는 물체와 구강 내부가 함께 3차원 볼륨 데이터로 변환된 것을 예시적으로 나타낸 도이고, 도 5는 본 발명에 따른 이미지 필터링 방법에서, 삭제 대상 색상을 가지는 물체가 제외되어 구강 내부만 3차원 볼륨 데이터로 변환된 것을 예시적으로 나타낸 도이다.
도 1을 참조하면, 본 발명에 따른 이미지 필터링 방법은 스캐너를 통해 2차원 이미지 데이터를 획득하는 이미지 획득 단계(S1)를 포함할 수 있다. 3차원 스캐너의 사용자가 환자의 구강 내부를 스캔하기 시작하면, 3차원 스캐너는 그 내부에 형성된 촬상부를 통해 환자의 구강 내부를 촬영할 수 있다. 이 때, 3차원 스캐너는 그 일단에 환자의 구강 내부로 인입 또는 인출되고 일측이 개구된 개구부를 가지도록 형성될 수 있다. 환자의 구강 내부의 촬영하고자 하는 환부(치아, 잇몸 등)에서 반사된 광이 개구부를 통해 3차원 스캐너 내부로 입사하게 되면, 그 반사된 광을 촬상부의 일 구성요소인 적어도 하나의 카메라가 수용한다. 수용된 광은 상기 카메라와 전기통신적으로 연결되어 있는 이미징 센서에 의해 분석되고, 상기 광의 분석 결과로서 2차원 이미지 데이터가 생성된다. 2차원 이미지 데이터는 3차원 볼륨 데이터로 변환되기 전의 사진 형태의 데이터를 의미한다.
한편, 전술한 이미지 획득 단계(S1)에서 3차원 스캐너가 이미지를 획득하는 방식은 1D Line scan, 구조광을 통한 Triangulation, 공초점 등과 같은 다양한 측정 방식 중 적어도 하나일 수 있다. 상기 방식에 따라 2차원 이미지 데이터를 획득하여, 상기 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환하기 위한 정보를 수집한다.
이미지 획득 단계에서 획득된 이미지는 픽셀(pixel) 단위로 구성된다. 픽셀은 이미지를 구성하는 최소 단위를 의미한다. 전술한 이미지 획득 단계로부터 획득한 2차원 이미지 데이터는 그 크기만큼의 픽셀 수, 즉 해당 2차원 이미지 데이터의 모든 픽셀로부터 색상 정보를 획득한다(S2). 이 때, 획득되는 색상 정보는 RGB 가산혼합 모델, HSV 모델, YCbCr 모델 등이 사용될 수 있다. 도 2를 참조하면, RGB 모델은 각각 Red, Green, Blue의 세 가지 색상 요소의 조합으로 해당 픽셀이 가지는 색상 정보를 표현할 수 있다. 보다 상세하게는, RGB 모델은 2차원 이미지 데이터를 구성하는 각각의 픽셀의 색상 정보를 표현하기 위해, Red, Green, Blue의 색상 요소를 각각 0에서부터 255까지의 정수로 나타낼 수 있다. 한편, 색상값은 0에서 255로 증가할 수록 선명해지거나 밝아지며, 예시적으로 RGB 값이 (0, 0, 0)인 경우 흑색, (255, 255, 255)인 경우 백색을 나타낼 수 있다.
한편, 도 3을 참조하면, 사용자는 2차원 이미지 데이터에서 치아, 잇몸 등 환자의 치료에 필요한 데이터(이를 본 명세서 상에서 '유효 데이터'로 지칭하기로 한다)만을 필요로 한다. 이외의 데이터는 환자의 치료에 불필요한 데이터로, 상기 불필요한 데이터는 노이즈 데이터(noise data)로 지칭한다. 노이즈 데이터는 치과 치료에 불필요한 모든 물체에 관한 데이터일 수 있으며, 예시적으로는 사용자의 손(통상적으로 치과 치료의 특성 상 구강 내부의 치아 또는 잇몸 등의 색상과는 구분되는 색상을 가지는 위생 장갑을 착용한 손이 될 수 있다), 타액, 또는 기타 이물질을 포함할 수 있다. 상기 노이즈 데이터가 스캔 영역에 포함되는 경우, 노이즈 데이터는 2차원 이미지 데이터의 형태로 유효 데이터와 함께 획득된다. 즉, 스캔되는 대상에는 유효 데이터에 해당하는 물체 뿐만 아니라 노이즈 데이터에 해당하는 물체도 포함될 수 있다. 따라서, 노이즈 데이터를 유효 데이터와 함께 3차원 볼륨 데이터로 변환한 다음 후보정 단계에서 제거하는 것은 3차원 볼륨 데이터 변환 과정에서 불필요한 작업량 및 작업시간을 소비하게 된다.
이에 따라서, 본 발명에 따른 이미지 필터링 방법에서는 삭제 대상 색상을 설정하는 기준 색상 설정 단계(S31)를 더 포함할 수 있다. 기준 색상 설정 단계는 유저 인터페이스(UI) 상에서 사용자가 삭제를 원하는 색상(삭제 대상 색상 또는 기준 색상), 즉 스캔 대상에서 노이즈 데이터에 해당하는 부분의 색상을 설정할 수 있도록 한다. 삭제 대상 색상이 설정된 이후에는, 2차원 이미지 데이터에서 삭제 대상 색상이 포함된 픽셀은 3차원 볼륨 데이터 변환 대상에 포함되지 않도록 해당 부분이 삭제될 수 있다. 한편, 기준 색상 설정 단계에는, 삭제 대상 색상을 사용자가 직접 지정하는 것 외에도 시스템적으로 미리 정해진 것을 포함할 수 있고, 사용자의 필요에 따라서 시스템적으로 미리 정해진 색상을 사용자가 변경, 추가 또는 삭제하는 것을 포함할 수 있다. 예시적으로, 기준 색상 설정 단계(S31)에서 사용자는 컬러 피커(color picker)를 사용하여 삭제 대상 색상을 직접 지정할 수 있다. 이 때, 사용자는 획득된 임의의 2차원 이미지 데이터 상에서 삭제 대상 색상을 지정할 수도 있고, 색상 팔레트 상에서 삭제 대상 색상을 지정할 수도 있다.
다만, 사용자가 삭제하고자 하는 물체는 하나의 색상으로만 표현될 수도 있지만, 해당 물체가 3차원 스캐너에 의해 촬영되었을 때 음영이 반영된 것 또한 고려하였을 때 복수개의 색상 정보를 가지는 것으로 획득될 수도 있다. 이 때, 기준 색상 범위의 크기는 삭제 대상 색상을 기준으로 조절될 수 있다. 즉, 삭제하고자 하는 물체의 일 색상을 지정하면, 그 색상을 중심으로 인접 색상까지 기준 색상 범위로 설정될 수 있다. 한편, 기준 색상 범위는 모든 스캔 상황에서 동일하게 적용되지 않을 수 있으며, 이러한 범위의 크기는 유저 인터페이스를 통해 조절이 가능하도록 할 수 있다. 예시적으로, 넓은 범위의 기준 색상 범위를 설정하면 더 넓은 인접 색상까지를 기준 색상 영역으로 하여 삭제되어야 하는 범위가 증가할 수 있고, 좁은 범위의 기준 색상 범위를 설정하면 좁은 인접 색상까지를 기준 색상 영역으로 하여 삭제되어야 하는 범위가 감소할 수 있다. 또한, 전술한 기준 색상 설정 단계(S31)에서 삭제 대상 색상을 지정하면, 상기 삭제 대상 색상의 RGB 색상값으로부터 소정 범위 이내의 색상들을 기준 색상 범위로 설정될 수 있다. 예시적으로, 지정된 삭제 대상 색상의 RGB 값이 (x, y, z)인 경우, 기준 색상 범위의 R(Red) 값은 x-α 내지 x+α, G(Green) 값은 y-β 내지 y+ β, B(Blue) 값은 z-γ 내지 z+γ의 범위를 가질 수 있다(α, β, γ는 임의의 정수). 즉, 스캔 과정에서 발생할 수 있는 환경 변화를 고려하여 기준 색상 범위가 설정되거나 기준 색상 범위를 조절할 수 있도록 함으로써, 사용자는 효율적으로 노이즈 데이터를 제거할 수 있고, 후보정 작업을 최소화하는 이점이 있다.
2차원 이미지로부터 획득한 색상 정보와 기준 색상 범위가 설정되면, 획득한 일부 데이터의 색상 정보가 기준 색상 범위에 포함되는지 비교 및 판단(S4)할 수 있다. 예를 들어, 스캔의 유효 데이터에 해당하는 부분들은 기본적으로 기준 색상 범위에 해당하지 않는 모든 색상들 중 적어도 일부를 가질 것이나, 통상적으로는 치아의 백색 또는 상아색, 및 잇몸 등의 적색 또는 분홍색 계통의 색상을 가질 수 있다. 반면, 노이즈 데이터는 구강 내부가 가지고 있는 색상과 상이한 색상을 가지게 되며, 이러한 노이즈 데이터가 촬영되어 획득된 2차원 이미지 데이터의 각 픽셀 색상 정보가 기준 색상 범위에 포함될 수 있다.
전술한 바와 같이 노이즈 데이터에 해당하는 부분이 기준 색상 범위에 포함되는 것으로 판단되었다면, 연산부는 해당 부분이 삭제 대상 색상을 가지는 픽셀로 판단하여 2차원 이미지 데이터 내에서 삭제를 진행한다(필터링 단계, S5). 즉, 기준 색상 범위 내의 데이터는 획득하고자 하는 구강 내부에 대한 데이터가 아니므로 3차원 볼륨 데이터로 변환하기 전에 미리 삭제를 진행함으로써, 3차원 볼륨 데이터로 변환하는 연산량을 감소시키는 것이다. 이와 같이 기준 색상 범위 내에 포함되는 데이터를 삭제(필터링) 함으로써, 후속 단계의 수행시간을 단축시킬 수 있는 이점이 있다.
전술한 필터링 단계(S5)가 완료되면, 연산부는 필터링이 완료된 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환(3차원 연산 단계, S6)하고, 상기 3차원 볼륨 데이터를 시각적으로 디스플레이한다(디스플레이 단계). 이 때, 3차원 볼륨 데이터로 변환되는 부분은 스캔 대상 중에서 치아 및 잇몸 등 유효 데이터에 해당하는 부분이며, 노이즈 데이터에 해당하는 부분은 디스플레이 되기 전에 선제적으로 제거되어 디스플레이 단계에서 시각적으로 표시되지 않는다. 따라서, 3차원 볼륨 데이터로 형성된 구강 모형 데이터의 신뢰성이 향상된다. 이와 같이, 필터링 단계(S5) 후에 3차원 볼륨 데이터 변환 연산을 수행함으로써, 전체적으로 변환해야 할 데이터 연산량이 감소하므로 결과적으로 연산속도 증가 및 연산에 소요되는 시간이 감소하여 빠른 시간에 신뢰성 있는 전체 구강 모형 데이터를 획득할 수 있는 이점이 있다. 도 4 및 도 5를 비교하여 참조하면, 도 4에서는 삭제 대상 색상이 그대로 3차원 볼륨 데이터로 변환되어 후보정을 통해 삭제를 진행해야 한다. 반면에, 도 5는 2차원 이미지 데이터에서 선제적으로 노이즈 데이터가 제거되었으므로, 3차원 볼륨 데이터 변환에 노이즈 데이터가 연산에서 제외되었음을 알 수 있다.
한편, 2차원 이미지 데이터에서 변환된 3차원 볼륨 데이터는 복수의 포인트가 메쉬 형태로 연결된 형태를 가질 수 있다. 따라서, 3차원 볼륨 데이터에 포함된 3차원 포인트들을 획득(S7)할 수 있다. 상기 3차원 포인트들을 이용하여, 3차원 볼륨 데이터를 분석, 변형할 수 있으며, 상기 3차원 볼륨 데이터를 분석, 변형함으로써 환자에게 더욱 적합한 치료를 제공할 수 있다.
이후에서는 또 다른 실시예에 따른 이미지 필터링 방법에 대하여 설명하기로 한다. 이후의 서술에서, 이미 전술한 내용에 대하여는 간략하게 언급하거나 생략하도록 한다.
도 6은 본 발명의 다른 실시예에 따른 이미지 필터링 방법의 순서도이다.
도 6을 참조하면, 본 발명에 따른 이미지 필터링 방법은, 사용자가 3차원 스캐너를 통해 2차원 이미지 데이터를 획득하는 이미지 획득 단계(S1), 획득한 2차원 이미지 데이터의 적어도 일부분에서 색상 정보를 획득하는 색상 획득 단계(S2)를 포함한다. 이러한 이미지 획득 단계(S1) 및 색상 획득 단계(S2)는 전술한 바와 같으므로 생략한다.
한편, 본 발명에 따른 이미지 필터링 방법은 필터링 대상 물체의 이미지를 획득함으로써 함께 획득되는 색상 정보에 의해 기준 색상 범위를 정의하는 기준 색상 범위 정의 단계(S32)를 더 포함할 수 있다. 기준 색상 범위 정의 단계(S32)는 전술한 기준 색상 설정 단계(S31)와는 상이하게, 필터링 대상 물체의 이미지를 획득함으로써 함께 획득되는 색상 정보로부터 기준 색상 범위가 자동적으로 정의되는 것을 의미한다. 따라서 필터링 대상 물체의 이미지를 계속적으로 획득함으로써 삭제 대상 색상을 인식하게 되므로 사용자는 삭제 대상 색상이 포함된 물체를 촬영함으로써 기준 색상이 설정되도록 할 수 있다.
필터링 대상 물체는 전술한 바와 같이 사용자의 피부, 손, 장갑이거나 환자의 구강 내부의 연조직(soft tissue), 타액, 이물질 등을 포함할 수 있다. 필터링 대상 물체는 유효 데이터와 상이한 색상 정보를 가질 수 있으며, 유효 데이터를 가지는 스캔 대상인 환자의 구강 내부와 구분된다.
기준 색상 범위 정의 단계(S32)를 세부적으로 살펴보면 다시 기준이미지 획득 단계(S32a)와 기준 색상 범위 학습 단계(S32b)를 포함할 수 있다. 기준이미지 획득 단계(S32a)는 삭제 대상 색상을 포함하는 필터링 대상 물체의 이미지를 적어도 하나 이상 반복적으로 획득할 수 있다. 즉, 필터링 대상 물체에 대한 2차원 이미지 데이터를 적어도 하나 이상 획득할 수 있다. 이 때, '적어도 하나 이상'은 2차원 이미지 데이터를 1회 획득하는 것도 포함하는 것이나, 효과적이고 정확한 기준 색상 범위 정의를 위해서 적어도 2회 이상의 촬영을 통해 2차원 이미지 데이터를 적어도 2개 이상 획득하여 기준 색상 범위가 정의되도록 하는 것이 바람직하다.
기준이미지 획득 단계(S32a)는 이미지 획득 단계(S1)와 별개로 수행되며, 기준이미지 획득 단계(S32a)는 유효 데이터가 포함되지 않은 환경에서 필터링 대상 물체의 2차원 이미지만을 획득하도록 수행될 수 있다. 예시적으로, 기준이미지 획득 단계(S32a)에서 스캐너를 이용하여 사용자가 착용한 장갑을 스캔하고, 상기 장갑을 나타내는 2차원 이미지 데이터를 획득할 수 있다. 이 때, 필터링 대상 물체는 유효 데이터를 가지는 스캔 대상과 이격되어 스캔될 수 있다.
기준이미지 획득 단계(S32a)로부터 필터링 대상 물체의 2차원 이미지 데이터를 획득한 후, 기준 색상 범위 학습 단계(S32b)에서는 필터링 대상 물체의 이미지로부터 기준 색상 또는 기준 색상 범위를 결정할 수 있다. 이 때, 기준 색상 또는 기준 색상 범위를 결정함에 있어서 여러가지 방법이 사용될 수 있다. 예시적으로, 본 발명에 따른 이미지 필터링 방법에서는 데이터 밀도를 이용하여 기준 색상 범위를 결정할 수 있다. 전술한 기준이미지 획득 단계(S32a)에서 획득한 이미지 데이터에서, 지속적으로 습득되는 색상 정보에 대하여는 데이터 밀도가 높게 나타난다. 데이터 밀도가 높게 나타나는 경우, 지속적으로 필터링 대상 물체를 촬영하여 2차원 이미지 데이터를 획득하고 있는 상태이므로, 더 많은 빈도수로 얻어지는 색상이 삭제 대상 색상인 기준 색상 또는 기준 색상 범위로 판단 및 학습될 수 있다. 이와 같이 데이터 밀도에 따라 기준 색상 범위를 학습하도록 함으로써, 자동적으로 노이즈 데이터의 특징(노이즈 데이터에서 나타나는 삭제 대상 색상)을 학습시키고 3차원 연산 단계(S6) 이전에 제외할 수 있으며, 연산량 감소와 연산속도 증가, 및 신뢰성 있는 구강 모형 데이터를 얻을 수 있는 이점이 있다.
한편, 기준 색상 범위 학습 단계(S32b)에서 기준 색상 또는 기준 색상 범위를 학습하는 것은 인공지능(Artificial Intelligence) 학습 방식을 사용할 수 있으며, 예시적으로 딥 러닝(Deep learning) 방식이 사용될 수 있다. 다만, 이는 예시적인 것이며, 본 발명에 따른 이미지 필터링 방법을 구현하기 위해 필터링 대상 물체를 스캔하여 획득한 적어도 하나의 2차원 이미지 데이터로부터 자동적으로 기준 색상 또는 기준 색상 범위를 결정할 수 있는 어떠한 방식이라도 이용될 수 있다.
한편, 색상 획득 단계(S2)에서 획득한 적어도 일부 데이터의 색상 정보는 학습을 통해 정의된 기준 색상 범위에 해당하는지 판단되고(기준 색상 판단 단계, S4), 해당 데이터의 색상 정보가 기준 색상 범위에 포함되는 경우, 해당 데이터가 삭제 대상 색상을 가지는 것으로 판단하여 2차원 이미지 데이터 내에서 삭제(필터링)된다(S5). 이후 필터링이 완료된 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환(3차원 연산 단계, S6)하여, 사용자는 환자의 전체 구강 모형 데이터를 획득할 수 있다. 이러한 전체 구강 모형 데이터를 획득하기 위해, 3차원 연산 단계(S6)는 노이즈 데이터가 이미 제거된 상태로 3차원 볼륨 데이터 변환이 수행되므로, 연산량 감소와 연산속도 증가, 및 신뢰성 있는 구강 모형 데이터를 얻을 수 있는 이점이 있다.
한편, 이미지 필터링 방법 중에서는 스캐너를 통해 2차원 이미지를 획득하고, 이러한 2차원 이미지를 기초로 3차원 볼륨 데이터가 생성될 수 있다. 생성되는 3차원 볼륨 데이터는 디스플레이 장치 등에 실시간으로 디스플레이될 수 있다. 한편, 3차원 볼륨 데이터가 실시간으로 디스플레이될 때, 2차원 이미지 데이터의 특정 색상에 대응하는 부분은 실시간으로 필터링(삭제)되어 디스플레이되도록 할 수 있다(필터링 단계, S5). 이 때, 이미지 데이터의 '특정 색상'은 스캐너의 사용자가 환자의 전체 구강 모형 데이터를 획득함에 있어서 노이즈 데이터로 분류되는 타액, 사용자의 장갑 등을 구성하는 색상(이를 명세서 상에 삭제 대상 색상으로 명명한 바 있다)이 해당할 수 있다. 이러한 삭제 대상 색상을 기준 색상으로 학습하고, 3차원 연산 단계(S6) 이전에 삭제 대상 색상에 대하여 정의하는 기준 색상 설정 단계가 수행될 수 있다. 기준 색상 설정 단계에서 3차원 가상 모델이 디스플레이될 때 삭제하고자 하는 색상이 설정되면, 이후 2차원 이미지 데이터에서 삭제 대상 색상이 존재하는지 판단하는 기준 색상 판단 단계(S4)를 거치고, 필터링 단계(S5)에서는 3차원 가상 모델이 디스플레이될 때 2차원 이미지의 삭제 대상 색상에 대응하는 부분은 색상 정보가 담긴 데이터를 삭제하여 해당 색상이 디스플레이되지 않도록 한다. 따라서, 사용자는 필요한 색상 정보가 담긴(즉, 잇몸과 치아와 같은 유효 데이터만 가지는) 신뢰성 있는 데이터를 획득할 수 있는 이점이 있다.
이하에서는, 본 발명에 따른 이미지 필터링 방법을 수행하는 이미지 필터링 장치에 대해 설명한다.
도 7은 본 발명에 따른 이미지 필터링 방법이 수행되는 이미징 필터링 장치(1)의 구성도이다. 도 7을 참조하면, 본 발명에 따른 이미지 필터링 장치(1)는 스캔부(100), 제어부(200), 데이터베이스부(300), 및 디스플레이부(400)를 포함한다.
이하에서는 각 부 구성에 대하여 설명한다.
스캔부(100)는 스캔 대상을 스캔할 수 있다. 예시적으로, 스캔부(100)는 스캔 대상의 표면으로부터 반사된 광을 수용할 수 있다. 스캔 대상의 표면으로부터 반사된 광은 스캔부(100) 일단에 형성된 개구부를 통해 스캔부(100)의 내부 부분으로 수용될 수 있으며, 상기 광은 후술할 제어부(200)에 의해 2차원 이미지 데이터로 형성될 수 있다. 한편, 스캔부(100)의 스캔 과정에 의해 수용되는 광은 예시적으로 가시광선 영역의 파장을 가지는 광일 수 있다. 또한, 예시적으로 스캔부(100)는 유효 데이터에 해당하는 환자의 구강 내부 등을 스캔하기 위한 3차원 구강스캐너(intraoral scanner)일 수 있다.
한편, 스캔부(100)는 스캔 대상 뿐만 아니라 삭제 대상 색상을 가지는 필터링 대상 물체 또한 스캔할 수 있다. 필터링 대상 물체는 전술한 바와 같이, 유효 데이터와 상이한 노이즈 데이터를 가지는 물체일 수 있다. 필터링 대상 물체는 전술한 바와 같다.
제어부(200)는 상기 스캔부(100)에 수용된 광을 기초로 2차원 이미지 데이터를 생성하는 이미지 데이터 생성부(210)를 포함할 수 있다. 이미지 데이터 생성부(210)는 스캔부(100)에 수용된 광을 소정 크기의 2차원 이미지 데이터로 생성하며, 상기 2차원 이미지 데이터는 복수의 픽셀을 가지며, 각각의 픽셀은 색상 정보를 가질 수 있다. 생성된 2차원 이미지 데이터는 데이터베이스부(300)에 저장될 수 있으며, 데이터베이스부(300)는 각각의 픽셀이 가지는 색상 정보 또한 저장할 수 있다.
또한, 제어부(200)는 이미지 필터링부(220)를 포함할 수 있다. 이미지 필터링부(220)는 이미지 데이터 생성부(210)로부터 획득한 2차원 이미지 데이터로부터 필터링 대상 물체가 가지는 삭제 대상 색상을 필터링할 수 있다. 삭제 대상 색상에 해당하는 기준 색상은 사용자의 선택에 의해 지정될 수도 있고, 필터링 대상 물체를 별도로 스캔하여 자동적으로 획득될 수도 있다. 이미지 필터링부(220)는 삭제 대상 색상에 대응되는 색상 정보를 가지는 픽셀 데이터를 필터링하여 해당 부분이 3차원 볼륨 데이터로 변환되지 않도록 한다.
한편, 제어부(200)는 이미지 데이터 변환부(230)를 포함할 수 있다. 이미지 데이터 변환부(230)는 이미지 데이터 생성부(210)로부터 생성된 2차원 이미지 데이터의 적어도 일부를 3차원 볼륨 데이터로 변환할 수 있다. 이 때, 3차원 볼륨 데이터는 이미지 필터링부(220)에 의해 기 필터링된 2차원 이미지 데이터를 변환한 것이다. 따라서, 변환된 3차원 볼륨 데이터는 노이즈 데이터가 제외되고 유효 데이터만을 포함할 수 있으며, 신뢰성 높은 환자의 구강 모형 데이터를 획득할 수 있다.
제어부(200)는 기준 색상 학습부(240)를 더 포함할 수 있다. 기준 색상 학습부(240)는 필터링 대상 물체에 관한 적어도 하나의 2차원 이미지 데이터로부터 삭제 대상 색상에 해당하는 기준 색상을 결정할 수 있다. 이 때, 기준 색상은 하나의 단일 색상일 수도 있고, 소정 범위의 색상군(색상 범위)일 수도 있다. 학습된 기준 색상은 데이터베이스부(300)에 저장될 수 있다. 데이터베이스부(300)에 저장된 기준 색상은 다른 스캔 과정에서 다시 사용될 수 있다.
데이터베이스부(300)는 이미지 데이터 생성부(210)에 의해 생성된 2차원 이미지 데이터와 픽셀이 가지는 색상 정보, 이미지 데이터 변환부(230)에 의해 생성된 3차원 볼륨 데이터, 기준 색상 학습부(240)에 의해 지정된 기준 색상 등이 저장될 수 있다. 데이터베이스부(300)에 저장된 내용의 적어도 일부는 제어부(200)의 동작에 사용되거나, 디스플레이부(400)를 통해 표시될 수 있다. 데이터베이스부(300)는 하드디스크 드라이브, 플래시 드라이브와 같은 물체일 수도 있고, 클라우드(cloud) 서비스와 같은 가상의 저장 시스템일 수도 있다.
한편, 제어부(200)에 의해 수행되는 과정들 중 적어도 일부, 데이터베이스부(300)에 저장된 내용들 중 적어도 일부는 디스플레이부(400)를 통해 시각적으로 표시될 수 있다. 디스플레이부(400)를 통해, 사용자는 본 발명에 따른 이미지 필터링 방법이 정상적으로 수행되고 있는지 용이하게 확인할 수 있다. 디스플레이부(400)는 모니터, 태블릿과 같은 시각적 표시 장치일 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
[부호의 설명]
S1: 이미지 획득 단계 S2: 색상 획득 단계
S31: 기준 색상 설정 단계 S32: 기준 색상 범위 정의 단계
S32a: 기준이미지 획득 단계 S32b: 기준 색상 범위 학습 단계
S4: 기준 색상 판단 단계 S5: 필터링 단계
S6: 3차원 연산 단계 S7: 3차원 포인트 획득 단계
D: 노이즈 데이터
1: 이미지 필터링 장치 100: 스캔부
200: 제어부 300: 데이터베이스부
400: 디스플레이부
본 발명은 유효 데이터와 노이즈 데이터가 함께 스캔되어 2차원 이미지 데이터로 획득되더라도, 기설정되거나 학습된 기준 색상 또는 기준 색상 범위에 해당하는 색상 정보를 가지는 이미지 데이터의 부분을 3차원 볼륨 데이터 변환에서 제외하는 이미지 필터링 방법을 제공한다.

Claims (12)

  1. 스캐너를 통해 구강 내부의 치아를 포함한 유효 데이터 부분을 가지는 스캔 대상의 2차원 이미지를 획득하는 이미지 획득 단계;
    상기 이미지 획득 단계로부터 획득한 상기 2차원 이미지의 적어도 일부 데이터로부터 색상 정보를 획득하는 색상 획득 단계;
    상기 색상 획득 단계에서 상기 적어도 일부 데이터의 색상 정보는, 상기 구강 내부와 구분되는 필터링 대상 물체가 가지는 색상 범위인 기준 색상 범위 내에 포함되는 경우, 삭제 대상 색상을 가지는 삭제 대상 데이터로 판단하고 상기 2차원 이미지 데이터 내에서 상기 삭제 대상 데이터를 삭제하는 필터링 단계; 및
    상기 필터링 단계를 거쳐 상기 삭제 대상 데이터가 삭제되어 상기 유효 데이터 부분만을 가지는 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환하는 3차원 연산 단계;를 포함하는 이미지 필터링 방법.
  2. 제1 항에 있어서,
    상기 색상 획득 단계에서 획득한 상기 적어도 일부 데이터의 색상 정보가 기준 색상 범위 내에 포함되는지 판단하는 기준 색상 판단 단계;를 더 포함하고,
    상기 필터링 단계는 상기 기준 색상 판단 단계로부터 상기 기준 색상 범위로 판단된 상기 적어도 일부 데이터를 삭제 대상 데이터로 판단함으로써 상기 2차원 이미지 데이터 내에서 삭제하는 이미지 필터링 방법.
  3. 제2 항에 있어서,
    상기 삭제 대상 색상을 설정하는 기준 색상 설정 단계;를 더 포함하고,
    상기 기준 색상 설정 단계의 상기 삭제 대상 색상은 유저 인터페이스를 통해 지정되는 이미지 필터링 방법.
  4. 제3 항에 있어서,
    상기 기준 색상 범위의 크기는 상기 삭제 대상 색상을 기준으로 유저 인터페이스를 통해 조절가능한 이미지 필터링 방법.
  5. 제1 항에 있어서,
    상기 색상 정보는 RGB 가산혼합 방식을 사용하여 표현된 정보인 이미지 필터링 방법.
  6. 스캐너를 통해 구강 내부의 치아를 포함한 유효 데이터 부분을 가지는 스캔 대상의 2차원 이미지를 획득하는 이미지 획득 단계;
    상기 2차원 이미지를 기초로 3차원 가상 모델을 생성하는 모델링 단계;
    상기 3차원 가상 모델을 시각적으로 표시하는 디스플레이 단계; 및
    상기 2차원 이미지에서 상기 구강 내부와 구분되는 필터링 대상 물체가 가지는 색상인 삭제 대상 색상에 해당하는 부분은 상기 디스플레이 단계 이전에 필터링하는 필터링 단계;를 포함하고,
    상기 모델링 단계는 상기 삭제 대상 색상을 가지는 데이터가 삭제되어 상기 유효 데이터 부분만을 가지는 2차원 이미지 데이터로 상기 3차원 가상 모델을 생성하는 이미지 필터링 방법.
  7. 제6 항에 있어서,
    상기 필터링 단계는 상기 필터링 대상 물체로부터 상기 삭제 대상 색상을 설정하는 기준 색상 설정 단계; 및
    상기 2차원 이미지에서 상기 삭제 대상 색상이 존재하는지 판단하는 기준 색상 판단 단계;를 더 포함하는 이미지 필터링 방법.
  8. 제7 항에 있어서,
    상기 기준 색상 설정 단계는 사용자의 선택에 의해 설정되거나, 필터링 대상 물체의 이미지를 기초로 설정되는 이미지 필터링 방법.
  9. 스캐너를 통해 구강 내부의 치아를 포함한 유효 데이터 부분을 가지는 스캔 대상의 2차원 이미지를 획득하는 이미지 획득 단계;
    상기 이미지 획득 단계로부터 획득한 상기 2차원 이미지의 적어도 일부 데이터로부터 색상 정보를 획득하는 색상 획득 단계;
    상기 구강 내부와 구분되는 필터링 대상 물체의 이미지를 기초로 상기 필터링 대상 물체가 가지는 색상 범위를 기준 색상 범위로 정의하는 기준 색상 범위 정의 단계;
    상기 색상 획득 단계에서 획득한 상기 적어도 일부 데이터의 색상 정보가 학습을 통해 정의된 상기 기준 색상 범위 내에 포함되는지 판단하는 기준 색상 판단 단계;
    상기 색상 판단 단계에서 상기 적어도 일부 데이터의 색상 정보가 상기 기준 색상 범위 내에 포함되는 경우, 삭제 대상 색상을 가지는 삭제 대상 데이터로 판단하고 상기 2차원 이미지 데이터 내에서 삭제하는 필터링 단계; 및
    상기 필터링 단계를 거쳐 상기 삭제 대상 데이터가 삭제되어 상기 유효 데이터 부분만을 가지는 2차원 이미지 데이터를 3차원 볼륨 데이터로 변환하는 3차원 연산 단계;를 포함하는 이미지 필터링 방법.
  10. 제9 항에 있어서,
    상기 기준 색상 범위 정의 단계는,
    상기 삭제 대상 색상을 포함하는 필터링 대상 물체의 이미지를 적어도 하나 이상 반복적으로 획득하는 기준이미지 획득 단계; 및
    상기 기준이미지 획득 단계로부터 획득한 상기 필터링 대상 물체의 이미지로부터 상기 기준 색상 범위를 결정하는 기준 색상 범위 학습 단계; 를 포함하는 이미지 필터링 방법.
  11. 제10 항에 있어서,
    상기 기준 색상 범위 학습 단계는,
    상기 기준이미지 획득 단계를 통해 획득한 적어도 하나 이상의 이미지로부터 중첩되는 색상을 상기 기준 색상 범위로 학습하는 이미지 필터링 방법.
  12. 제9 항에 있어서,
    상기 색상 정보는 RGB 가산혼합 방식을 사용하여 표현된 정보인 이미지 필터링 방법.
PCT/KR2021/000223 2020-01-08 2021-01-08 이미지 필터링 방법 WO2021141424A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21738509.5A EP4071709A4 (en) 2020-01-08 2021-01-08 IMAGE FILTERING METHOD
CN202180008625.0A CN114930383A (zh) 2020-01-08 2021-01-08 图像过滤方法
US17/858,993 US20220330831A1 (en) 2020-01-08 2022-07-06 Image filtering method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0002418 2020-01-08
KR1020200002418A KR102269897B1 (ko) 2020-01-08 2020-01-08 이미지 필터링 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/858,993 Continuation US20220330831A1 (en) 2020-01-08 2022-07-06 Image filtering method

Publications (1)

Publication Number Publication Date
WO2021141424A1 true WO2021141424A1 (ko) 2021-07-15

Family

ID=76607590

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/000223 WO2021141424A1 (ko) 2020-01-08 2021-01-08 이미지 필터링 방법

Country Status (5)

Country Link
US (1) US20220330831A1 (ko)
EP (1) EP4071709A4 (ko)
KR (1) KR102269897B1 (ko)
CN (1) CN114930383A (ko)
WO (1) WO2021141424A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102532535B1 (ko) * 2021-08-04 2023-05-17 주식회사 메디트 3차원 스캐너의 스캔 이미지 처리에 있어서의 노이즈 필터링을 위한 방법 및 장치
WO2023063607A1 (ko) * 2021-10-12 2023-04-20 주식회사 메디트 데이터 처리 장치 및 데이터 처리 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143702A (ja) * 1991-11-20 1993-06-11 Canon Inc 画像処理装置
JP2001084408A (ja) * 1999-09-13 2001-03-30 Sanyo Electric Co Ltd 3次元データ加工装置及び方法並びに記録媒体
JP2007257087A (ja) * 2006-03-20 2007-10-04 Univ Of Electro-Communications 肌色領域検出装置及び肌色領域検出方法
KR101841441B1 (ko) * 2016-11-28 2018-03-23 김양수 이미지 정보 기반의 치아 자동삭제 시스템 및 이를 이용한 치아 자동삭제 방법
KR20190022941A (ko) * 2016-07-27 2019-03-06 얼라인 테크널러지, 인크. 치아 진단 기능이 있는 구강 내 스캐너

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7698068B2 (en) * 2004-06-17 2010-04-13 Cadent Ltd. Method for providing data associated with the intraoral cavity
GB201708520D0 (en) * 2017-05-27 2017-07-12 Dawood Andrew A method for reducing artefact in intra oral scans
EP3752982B1 (en) * 2018-02-16 2024-04-24 3Shape A/S Intraoral scanning with surface differentiation
KR20190103833A (ko) 2018-02-28 2019-09-05 주식회사 메디트 실시간 3차원 데이터 측정 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143702A (ja) * 1991-11-20 1993-06-11 Canon Inc 画像処理装置
JP2001084408A (ja) * 1999-09-13 2001-03-30 Sanyo Electric Co Ltd 3次元データ加工装置及び方法並びに記録媒体
JP2007257087A (ja) * 2006-03-20 2007-10-04 Univ Of Electro-Communications 肌色領域検出装置及び肌色領域検出方法
KR20190022941A (ko) * 2016-07-27 2019-03-06 얼라인 테크널러지, 인크. 치아 진단 기능이 있는 구강 내 스캐너
KR101841441B1 (ko) * 2016-11-28 2018-03-23 김양수 이미지 정보 기반의 치아 자동삭제 시스템 및 이를 이용한 치아 자동삭제 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4071709A4 *

Also Published As

Publication number Publication date
KR102269897B1 (ko) 2021-06-28
US20220330831A1 (en) 2022-10-20
EP4071709A4 (en) 2023-12-27
EP4071709A1 (en) 2022-10-12
CN114930383A (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
WO2021141424A1 (ko) 이미지 필터링 방법
WO2022164126A1 (ko) 구강 스캔 데이터의 크라운 분할을 이용한 구강 스캔 데이터와 컴퓨터 단층촬영 이미지 자동 정합 장치 및 방법
CN106408664B (zh) 一种基于三维扫描装置的三维模型曲面重建方法
JPH05223642A (ja) 測色方法及びその装置
WO2021133090A2 (ko) 구강스캐너에 내장된 광학요소 검사 방법 및 이를 이용한 시스템
WO2021137573A2 (ko) 마진라인 설정 장치 및 방법
WO2020209496A1 (ko) 치아 오브젝트 검출 방법 및 치아 오브젝트를 이용한 영상 정합 방법 및 장치
WO2022086001A1 (ko) 이미지 처리 방법 및 이를 이용한 이미지 처리 장치
WO2023008849A1 (ko) 3차원 치아 이미지 표시 장치 및 방법, 그리고 3차원 치아 이미지 표시 장치를 학습시키는 방법
WO2022065756A1 (ko) 구강 이미지 처리 장치, 및 구강 이미지 처리 방법
WO2021261724A1 (ko) 인공치아 제조정보 생성방법 및 인공치아 제조 시스템
WO2020209495A1 (ko) 영상 데이터의 전처리 장치
WO2020167027A1 (ko) 신뢰도를 포함하는 스캔 데이터 표시 방법
JPH08229057A (ja) 歯科用観察装置の色調補正機構
WO2022010330A1 (ko) 데이터 잠금 시스템 및 데이터 잠금 방법
US11223755B2 (en) Image scanning, displaying and lighting system for eliminating color difference
WO2022098039A1 (ko) 데이터 처리 방법
JP2003230154A (ja) 顕微鏡用デジタルカメラ
WO2022164203A1 (ko) 3차원 스캔 시스템, 및 그 동작 방법
WO2020167042A1 (ko) 스캔 과정 재생 방법
WO2022045650A1 (ko) 3차원 스캐너 디바이스, 동작 방법, 및 그 동작 방법을 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장 매체
WO2017142209A1 (ko) 초음파 영상 분배 장치 및 스마트 단말기
WO2022260442A1 (ko) 구강 이미지를 처리하는 데이터 처리 장치 및 구강 이미지 처리 방법
WO2022060183A1 (ko) 3차원 스캔 데이터 처리 시스템 및 3차원 스캔 데이터 처리 방법
TWI818372B (zh) 口腔檢測系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21738509

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021738509

Country of ref document: EP

Effective date: 20220706

NENP Non-entry into the national phase

Ref country code: DE