WO2021149918A1 - 골 연령 추정 방법 및 장치 - Google Patents

골 연령 추정 방법 및 장치 Download PDF

Info

Publication number
WO2021149918A1
WO2021149918A1 PCT/KR2020/018320 KR2020018320W WO2021149918A1 WO 2021149918 A1 WO2021149918 A1 WO 2021149918A1 KR 2020018320 W KR2020018320 W KR 2020018320W WO 2021149918 A1 WO2021149918 A1 WO 2021149918A1
Authority
WO
WIPO (PCT)
Prior art keywords
bone age
age estimation
measurement points
subject
cervical
Prior art date
Application number
PCT/KR2020/018320
Other languages
English (en)
French (fr)
Inventor
안병덕
송인석
김윤지
주재걸
김진희
김태성
Original Assignee
고려대학교 산학협력단
안병덕
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200066130A external-priority patent/KR20210095529A/ko
Application filed by 고려대학교 산학협력단, 안병덕 filed Critical 고려대학교 산학협력단
Priority to US17/763,103 priority Critical patent/US20220386976A1/en
Priority to CN202080077612.4A priority patent/CN114650772A/zh
Publication of WO2021149918A1 publication Critical patent/WO2021149918A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Definitions

  • the following examples relate to bone age estimation techniques.
  • Bone age estimation method includes extracting a region of interest including a cervical region from a lateral head radiographic image of a subject's cervical vertebrae using a first deep learning model; extracting measurement points in the extracted ROI using a second deep learning model; calculating a numerical value based on the extracted measurement points; and providing maturity information on the maturation stage of the cervical spine based on the calculated measured numerical value.
  • the calculating of the measured numerical value may include, based on the coordinate values of the measurement points, a ratio value of the height to the length of the lower cervical vertebrae, a ratio value of the height to the length of the lower edge of the cervical vertebra, and the curvature ratio value of the lower edge of the cervical vertebrae. It may include calculating the measured numerical value including at least one.
  • the extracting of the measurement points may include, when a user input for changing the extracted measurement points is received, changing the coordinate values of the extracted measurement points based on the user input.
  • the bone age estimation method may further include, when the coordinate value of the extracted measurement point is changed by the user input, learning the second deep learning model based on the changed coordinate value.
  • the step of providing the maturity information includes: the chronological age of the subject, the subject's gender, age-specific standardized information for the curvature of the 4th cervical vertebra corresponding to the subject's gender, the 4th cervical vertebrae of the subject
  • the method may include visually providing information on the degree of maturity of the cervical spine based on at least one of the curvature ratio values.
  • At least one of a graph corresponding to the standardization information, a graph corresponding to the curvature ratio of the fourth cervical vertebra of the subject, and a graph corresponding to the inverse age of the subject can be provided by overlapping.
  • the method for estimating bone age may further include, after extracting the ROI, adjusting a brightness of the ROI and inverting the left and right sides of the ROI.
  • the extracting of the measurement points may include providing a numerical value calculated as a percentage of the degree to which the extraction of the measurement points is performed based on a predetermined period.
  • the region of interest may include at least one of a second cervical vertebra, a third cervical vertebra, and a fourth cervical vertebra of the subject.
  • Each of the extracted measurement points may be given an extraction number based on a position of each of the measurement points, and the measurement points and an extraction number corresponding to the measurement point may be displayed in the region of interest.
  • Whether to display each of the extracted measurement points may be determined based on a user input for selecting the measurement points to be displayed.
  • the measurement points may be points marked by anatomically measuring at least one of the second cervical vertebra, the third cervical vertebra, and the fourth cervical vertebra of the subject.
  • the processor extracts the region of interest including the cervical vertebrae region from the lateral head radiographic image in which the cervical vertebrae of the subject are taken using the first deep learning model by the bone age estimation device
  • the second deep learning model is used to extract measurement points in the extracted ROI, calculate a measurement value based on the extracted measurement points, and provide maturity information on the maturation stage of the cervical spine based on the calculated measurement value.
  • the bone age estimation apparatus may be controlled.
  • the processor determines that the bone age estimating device is, based on the coordinate values of the measurement points, a ratio value of the height to the length of the lower cervical vertebrae, a ratio value of the height to the length of the lower cervical vertebrae lowered to the line, and a curvature ratio value of the lower cervical vertebrae.
  • the bone age estimation apparatus may be controlled to calculate the measured numerical value including at least one.
  • the processor controls the bone age estimation device to change the coordinate values of the extracted measurement points based on the user input when the bone age estimation device receives a user input for changing the extracted measurement points can do.
  • the processor controls the bone age estimation device so that the bone age estimation device learns the second deep learning model based on the changed coordinate value when the coordinate value of the extracted measurement point is changed by the user input. can do.
  • the processor is the bone age estimation device, the subject's chronological age (chronological age), the subject's gender, age-specific standardized information for the curvature of the fourth cervical vertebra lower edge corresponding to the subject's gender, the fourth cervical vertebra lower edge of the subject
  • the bone age estimation apparatus may be controlled to visually provide the maturity information of the cervical vertebrae based on at least one of the curvature ratio values of .
  • the processor provides at least one of a graph corresponding to the graph corresponding to the standardization information, a graph corresponding to the curvature ratio of the lower edge of the fourth cervical vertebra of the subject, and a graph corresponding to the inverse age of the subject so that the bone age estimation device overlaps the bone to provide
  • the age estimating device may be controlled.
  • the measurement points may be points marked by anatomically measuring at least one of the second cervical vertebra, the third cervical vertebra, and the fourth cervical vertebra of the subject.
  • a deep learning-based program for predicting the degree of growth of a skeleton through a lateral head radiographic image may be provided.
  • the cervical vertebrae may be automatically cropped from the lateral head radiographic image, and anatomical measurement points of the cervical vertebrae may be automatically marked.
  • the bone age of the cervical vertebra may be analyzed based on the automatically marked anatomical measurement points of the cervical vertebra.
  • the degree of distribution of a specific patient can be intuitively presented in the table.
  • the measurement point may be automatically marked, thereby reducing the amount of labor and time required for a clinician to make a diagnosis.
  • the measurement value may be provided on one screen so that the user can intuitively and integrally check the diagnosis result.
  • growth prediction of orthodontic patients may be performed.
  • FIG. 1 is a flowchart illustrating a method for estimating bone age according to an embodiment.
  • FIGS. 2A to 2C are diagrams illustrating an example of an interface through which a method for estimating bone age according to an embodiment is performed.
  • FIG. 3 is a diagram illustrating a configuration of an apparatus for estimating bone age according to an embodiment.
  • first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the components from other components, and the essence, order, or order of the components are not limited by the terms.
  • a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be “connected”, “coupled” or “connected”.
  • FIG. 1 is a flowchart illustrating a method for estimating bone age according to an embodiment.
  • the bone age estimation method described herein may be initiated through a program that assists in the diagnosis of a radiographic image based on artificial intelligence.
  • the bone age estimation method may provide a method of distinguishing the skull from the facial bone in the lateral head radiograph of the facial bone taken for orthodontic diagnosis at the dentist, and automatically recognizing and marking the anatomical measurement points such as the cervical spine.
  • the bone age estimation method can predict the maturation stage for the cervical spine of a subject (or patient) using the recognized skull, facial bones, and measurement points.
  • the bone age estimation method may be provided through a marking assistance program that analyzes the developmental pattern of bones such as cervical vertebrae and suggests bone age required for skeletal growth of the subject through this. Bone age estimation method may provide a helpful method for predicting the growth of orthodontic patients.
  • the apparatus for estimating bone age described herein may be a computing device such as a desktop or a laptop, or a portable terminal such as a tablet PC and a personal digital assistant (PDA).
  • PDA personal digital assistant
  • the apparatus for estimating bone age may extract a region of interest including the cervical vertebrae from the lateral head radiographic image of the subject's cervical vertebrae using the first deep learning model in step 110 .
  • the region of interest may include at least one of the second cervical vertebra, the third cervical vertebra, and the fourth cervical vertebra of the subject.
  • the apparatus for estimating bone age may display a radiographic image of the cervical spine of a subject and a region of interest on one screen. After the bone age estimation apparatus extracts the ROI, the brightness of the ROI may be adjusted and the left and right sides of the ROI may be inverted.
  • the bone age estimation apparatus may extract measurement points in the extracted ROI by using the second deep learning model in step 120 .
  • the measurement points may be points marked by anatomically measured at least one of the second cervical vertebra, the third cervical vertebra, and the fourth cervical vertebra of the subject.
  • the bone age estimation device uses the second deep learning model to extract 13 measurement points corresponding to the lower edge of the second cervical vertebra, the upper and lower edges of the third cervical vertebra, and the upper and lower edges of the fourth cervical vertebra in the region of interest. can do.
  • the apparatus for estimating bone age may provide a function of confirming that the extraction of the measurement points is not completed so as not to move to another image. That is, the bone age estimation apparatus may provide a function of moving to another image after extracting all 13 measurement points.
  • the bone age estimation apparatus may adjust the size of the measurement points.
  • Each of the extracted measurement points may be given an extraction number based on the position of each measurement point, and the measurement points and the extraction number corresponding to the measurement point may be displayed in the region of interest.
  • Whether to display each of the extracted measurement points according to an embodiment may be determined based on a user input for selecting a measurement point to be displayed. That is, the user (or medical staff) may directly select measurement points to be displayed in the ROI. For example, the user may select a measurement point to be displayed by checking a checkbox, and may select a measurement point not to be displayed by deselecting the checkbox.
  • the bone age estimating apparatus may change the coordinate values of the extracted measurement points based on the user input. That is, the user may correct the positions of the measurement points extracted by the bone age estimation apparatus according to the user's intention.
  • the bone age estimation apparatus may train the second deep learning model based on the changed coordinate value.
  • the bone age estimating apparatus may provide a numerical value calculated as a percentage of the degree of extraction of the measurement points based on a predetermined period while the measurement points are extracted. For example, the bone age estimating apparatus may visually indicate the degree of completion of extraction of the measurement points as a percentage.
  • the bone age estimation apparatus may calculate a numerical value based on the extracted measurement points.
  • the bone age estimating device is a measurement comprising at least one of a ratio value of the height to the length of the lower cervical vertebrae, a ratio value of the height to the length of the lower edge of the cervical vertebrae, and the curvature ratio value of the lower edge of the cervical vertebrae based on the coordinate values of the measurement points Numerical values can be calculated.
  • the bone age estimating device can calculate the ratio value of the height to the length of the lower edge of the cervical vertebrae and the ratio value of the height to the length of the lower edge of the cervical vertebrae where the waterline is lowered in the 3rd and 4th cervical vertebrae, and the 2nd and 3rd cervical vertebrae In the cervical vertebrae and the 4th cervical vertebra, the curvature ratio value of the lower edge can be calculated.
  • the length of the lower edge represents the length of a line connecting the vertices before and after the lower edge
  • the height may be an average value of the two lengths between the lower edge and the upper edge.
  • the length of the lower edge represents the length of the line connecting the vertices of the front and rear of the lower edge
  • the height may be the average value of the two straight-line distances between the lower edge and the upper edge.
  • the curvature ratio value of the lower edge is calculated by calculating c, which is the straight line distance from the line connecting the front and rear vertices of the lower edge to the deepest point of the lower edge, and calculating the length of the lower edge as the length w of the line connecting the front and rear vertices of the lower edge. , may be a ratio of c to w.
  • the bone age estimating apparatus may provide maturity information on the maturation stage of the cervical spine based on the measured numerical value calculated in step 140 .
  • the apparatus for estimating bone age may visually provide maturity information to a user.
  • the bone age estimating device is based on at least one of the subject's chronological age, the subject's gender, the age-specific standardized information on the curvature of the 4th cervical vertebra corresponding to the subject's gender, and the curvature ratio of the 4th cervical vertebrae of the subject.
  • the inverse age may be calculated by dividing one year into four quarters.
  • the bone age estimating device may provide at least one of a graph corresponding to the standardization information, a graph corresponding to the curvature ratio of the lower edge of the fourth cervical vertebra of the subject, and a graph corresponding to the reverse age of the subject by overlapping.
  • the bone age estimating device may represent standardized information on the curvature ratio of the lower edge of the 4th cervical vertebra as a graph, the inverse age of the subject may be displayed on it as a vertical line, and the curvature ratio value of the lower edge of the 4th cervical vertebra may be displayed as a horizontal line.
  • the user can check the standard growth rate relative to the age of the subject through the graph on which the three pieces of information are superimposed.
  • FIGS. 2A to 2C are diagrams illustrating an example of an interface through which a method for estimating bone age according to an embodiment is performed.
  • the apparatus for estimating bone age may provide a cropped region of interest 220 including a cephalo image and a patient's cervical region 210 in the interface of FIG. 2A .
  • the region 210 to be cropped in the cephalo image may be displayed as a bounding box.
  • the region 210 indicated by the bounding box and the region of interest 220 displayed on the right and cropped may be the same image.
  • the measurement points 240 extracted from the interface of FIG. 2B may be displayed on the ROI.
  • the interface of FIG. 2B may include measurement numerical values 270 calculated based on coordinate information of measurement points.
  • the interface of FIG. 2B shows a graph 230 showing the curvature ratio of the 4th cervical vertebra corresponding to the patient's gender, a vertical graph 250 showing the reverse age of the patient, and the 4th cervical vertebra showing the curvature ratio value of the lower edge of the patient
  • a horizontal graph 260 may be included.
  • the bone age estimating apparatus may provide the three graphs 230 , 250 and 260 by overlapping, so that the user can intuitively check the maturity information of the patient's cervical spine. The user or patient can check the level of maturity relative to the standard level of growth corresponding to the age of the patient.
  • a numerical value calculated as a percentage of the degree of completion of extraction of the measurement point may be visually provided.
  • the interface may provide a region in which the region of interest may receive a user input for adjusting the brightness of the cropped image.
  • the apparatus for estimating bone age may display by assigning an extraction number based on the positions of each of the measurement points through the interface of FIG. 2C .
  • C2 LP corresponding to extraction number 1 indicates a left measurement point of the lower border of the second cervical vertebra
  • C2 LM corresponding to extraction number 2 indicates a middle measurement point of the lower border of cervical vertebra 2
  • corresponding to extraction number 3 C2 LA may represent a point to the right of the lower border of the second cervical vertebra.
  • C3 UP corresponding to extraction number 4 indicates the left dot of the 3rd cervical vertebrae
  • C3 UA corresponding to extraction number 5 indicates the right dot of the 3rd cervical vertebrae
  • C3 LP corresponding to extraction number 6 indicates the 3rd cervical vertebrae
  • C3 LM corresponding to the lower border of the third cervical vertebra may indicate a point on the left side of the lower border
  • C3 LM corresponding to extraction number 7 may indicate a center point of the lower border of the third cervical vertebra
  • C3 LA corresponding to extraction number 8 may indicate a right point of the lower border of the third cervical vertebra.
  • C4 UP corresponding to extraction number 9 indicates the left dot of the 4th cervical vertebra
  • C4 UA corresponding to extraction number 10 indicates the right dot of the 4th cervical vertebrae
  • C4 LP corresponding to extraction number 11 indicates the 4th cervical vertebra
  • C4 LM corresponding to the lower border of the fourth cervical vertebra may indicate a point on the left side of the lower border
  • C4 LM corresponding to extraction number 12 may indicate a center point of the lower border of the fourth cervical vertebra
  • C4 LA corresponding to extraction number 13 may indicate a right point of the lower border of the fourth cervical vertebra.
  • a user may determine whether to display each measurement point by checking or clearing a check box for each measurement point in reference number 280 . Referring to FIG.
  • the user may release check boxes corresponding to measurement numbers 7 and 8 so that measurement points 7 and 8 are not displayed.
  • the user may move the position of the displayed metrology points at the user's discretion.
  • the user can adjust the size of the displayed measurement points.
  • a color to be displayed may be determined based on a position of each measurement point. For example, measurement points corresponding to the left side of the lower edge are displayed in red, measurement points corresponding to the center of the lower edge are displayed in green, measurement points corresponding to the right side of the lower edge are displayed in blue, and measurement points corresponding to the left side of the upper edge are displayed in yellow, and measurement points corresponding to the right side of the stage may be displayed in light blue.
  • FIG. 3 is a diagram illustrating a configuration of an apparatus for estimating bone age according to another embodiment.
  • the bone age estimating apparatus 300 may correspond to the bone age estimating apparatus described herein.
  • the bone age estimation apparatus 300 may include a processor 310 , a memory 320 , and a communicator 330 . Also, the bone age estimation apparatus 300 may further include a user input interface 340 and a display 350 .
  • the memory 320 is connected to the processor 310 and may store instructions executable by the processor 310 , data to be operated by the processor 310 , or data processed by the processor 310 .
  • Memory 320 may include non-transitory computer-readable media, such as high-speed random access memory and/or non-volatile computer-readable storage media (eg, one or more disk storage devices, flash memory devices, or other non-volatile solid state memory devices). may include
  • the communicator 330 provides an interface for communicating with an external device.
  • the communicator 330 may receive a lateral head radiation measurement image from an external device.
  • the display 350 may output an example of a screen on which the bone age estimation apparatus 300 executes an AI-based radiographic imaging diagnosis assistance program.
  • the user input interface 340 may receive a user input for changing the extracted measurement points input by a user and a user input for selecting a measurement point to be displayed.
  • the processor 310 may control the bone age estimating apparatus 300 so that the bone age estimating apparatus 300 may perform one or more operations related to the operation of the bone age estimating apparatus 300 .
  • the processor 310 extracts the region of interest including the cervical region from the lateral head radiographic image in which the cervical vertebra of the subject is taken by the bone age estimation device 300 using the first deep learning model, and the second Using the deep learning model, the bone age estimation apparatus 300 may be controlled to extract measurement points from the extracted ROI.
  • the processor 310 may control the bone age estimating apparatus 300 so that the bone age estimating apparatus 300 calculates a measured numerical value based on the extracted measurement points.
  • the processor 310 calculates the ratio of the height to the length of the lower edge of the cervical vertebrae, the ratio of the height to the length of the lower edge of the cervical vertebrae, and the curvature ratio of the lower edge of the cervical vertebrae based on the coordinate values of the measurement points by the bone age estimating device 300
  • the bone age estimation apparatus 300 may be controlled to calculate a measured numerical value including at least one of the values.
  • the processor 310 changes the coordinate values of the extracted measurement points based on the user input. can control
  • the processor 310 uses the bone age estimation device 300 to learn the second deep learning model based on the changed coordinate value. can be controlled
  • the bone age estimation apparatus 300 may be controlled to provide maturity information on the maturation stage of the cervical spine based on the calculated measured numerical value.
  • the processor 310 is the bone age estimation device 300 is the age-specific standardized information for the curvature of the lower limb of the fourth cervical vertebra corresponding to the subject's chronological age, the subject's gender, the subject's gender, the fourth cervical vertebra of the subject Based on at least one of the curvature ratio values, the bone age estimation apparatus 300 may be controlled to visually provide the maturity information of the cervical spine.
  • the processor 310 superimposes at least one of a graph corresponding to the bone age estimation device 300 standardization information, a graph corresponding to the curvature ratio of the lower edge of the fourth cervical vertebra of the subject, and a graph corresponding to the inverse age of the subject.
  • the estimation apparatus 300 may be controlled.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • Software may comprise a computer program, code, instructions, or a combination of one or more of these, which configures a processing device to operate as desired or is independently or collectively processed You can command the device.
  • the software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave.
  • the software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Physiology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)

Abstract

골 연령 추정 방법 및 골 연령 추정 장치가 개시된다. 골 연령 추정 방법은 제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출하는 단계, 제2 딥러닝 모델을 이용하여, 추출된 관심 영역에 계측점들을 추출하는 단계, 추출된 계측점들에 기초하여 계측 수치 값을 계산하는 단계 및 계산된 계측 수치 값에 기초하여 경추의 성숙 단계에 대한 성숙도 정보를 제공하는 단계를 포함할 수 있다.

Description

골 연령 추정 방법 및 장치
아래 실시예들은 골 연령 추정 기술에 관한 것이다.
치과 교정학 분야에서 위턱 및 아래턱뼈, 두개골 등에 국한하여 해부학적 계측점을 마킹해 주고, 이를 통해 교정학적 분석을 자동으로 해주는 딥러닝 기반의 진단 보조 프로그램은 현재 종래에 출시되어 있다. 그러나, 종래의 기술은 현재 상태에서의 환자의 치과 교정학적 문제점을 진단하는데 국한되어 있다는 특징을 가진다. 이러한 특징 때문에, 종래의 기술은 환자의 성장 단계를 예측하는 기술에 적용될 수 없다는 한계를 가진다. 따라서, 종래 기술의 한계를 보완할 수 있는 연구가 필요한 실정이다.
일 실시예에 따른 골 연령 추정 방법은 제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출하는 단계; 제2 딥러닝 모델을 이용하여, 상기 추출된 관심 영역에 계측점들을 추출하는 단계; 상기 추출된 계측점들에 기초하여 계측 수치 값을 계산하는 단계; 및 상기 계산된 계측 수치 값에 기초하여 상기 경추의 성숙 단계에 대한 성숙도 정보를 제공하는 단계를 포함할 수 있다.
상기 계측 수치 값을 계산하는 단계는, 상기 계측점들의 좌표 값에 기초하여 경추 하연의 길이에 대한 높이의 비율 값, 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값 및 경추 하연의 만곡도 비율 값 중 적어도 하나를 포함하는 상기 계측 수치 값을 계산하는 단계를 포함할 수 있다.
상기 계측점들을 추출하는 단계는, 상기 추출된 계측점들을 변경하는 것에 대한 사용자 입력을 수신한 경우, 상기 사용자 입력에 기초하여, 상기 추출된 계측점의 좌표 값을 변경하는 단계를 포함할 수 있다.
일 실시예에 따른 골 연령 추정 방법은 상기 사용자 입력에 의해 상기 추출된 계측점의 좌표 값이 변경된 경우, 상기 변경된 좌표 값에 기초하여 상기 제2 딥러닝 모델을 학습시키는 단계를 더 포함할 수 있다.
상기 성숙도 정보를 제공하는 단계는, 상기 대상자의 역연령(chronological age), 상기 대상자의 성별, 상기 대상자의 성별에 대응하는 4번 경추 하연의 만곡도에 대한 연령별 표준화 정보, 상기 대상자의 4번 경추 하연의 만곡도 비율 값 중 적어도 하나에 기초하여 상기 경추의 성숙도 정보를 시각적으로 제공하는 단계를 포함할 수 있다.
상기 성숙도 정보를 제공하는 단계는, 상기 표준화 정보에 대응하는 그래프, 상기 대상자의 4번 경추 하연의 만곡도 비율에 대응하는 그래프 및 상기 대상자의 역연령에 대응하는 그래프 중 적어도 하나를 겹쳐서 제공할 수 있다.
일 실시예에 따른 골 연령 추정 방법은 상기 관심 영역을 추출한 후에, 상기 관심 영역의 밝기를 조절하고, 상기 관심 영역의 좌우를 반전하는 단계를 더 포함할 수 있다.
상기 계측점들을 추출하는 단계는, 미리 정해진 주기에 기초하여, 상기 계측점들의 추출이 수행된 정도를 백분율로 계산된 수치를 제공하는 단계를 포함할 수 있다.
상기 관심 영역은, 상기 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나를 포함할 수 있다.
상기 추출된 각각의 계측점들은, 상기 계측점들 각각의 위치에 기초하여 추출 번호를 부여 받고, 상기 계측점들 및 상기 계측점에 대응하는 추출 번호가 상기 관심 영역에 디스플레이 될 수 있다.
상기 추출된 각각의 계측점들은, 디스플레이 될 계측점을 선택하는 것에 대한 사용자 입력에 기초하여 디스플레이 여부가 결정될 수 있다.
상기 계측점들은, 상기 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나가 해부학적으로 계측되어 마킹된 지점들일 수 있다.
일 실시예에 따른 골 연령 추정 방법을 수행하는 골 연령 추정 장치는 메모리 및 프로세서를 포함하고, 상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고, 상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는 상기 골 연령 추정 장치가, 제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출하고, 제2 딥러닝 모델을 이용하여, 상기 추출된 관심 영역에 계측점들을 추출하고, 상기 추출된 계측점들에 기초하여 계측 수치 값을 계산하고, 상기 계산된 계측 수치 값에 기초하여 상기 경추의 성숙 단계에 대한 성숙도 정보를 제공하도록 상기 골 연령 추정 장치를 제어할 수 있다.
상기 프로세서는 상기 골 연령 추정 장치가, 상기 계측점들의 좌표 값에 기초하여 경추 하연의 길이에 대한 높이의 비율 값, 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값 및 경추 하연의 만곡도 비율 값 중 적어도 하나를 포함하는 상기 계측 수치 값을 계산하도록 상기 골 연령 추정 장치를 제어할 수 있다.
상기 프로세서는 상기 골 연령 추정 장치가, 상기 추출된 계측점들을 변경하는 것에 대한 사용자 입력을 수신한 경우, 상기 사용자 입력에 기초하여, 상기 추출된 계측점의 좌표 값을 변경하도록 상기 골 연령 추정 장치를 제어할 수 있다.
상기 프로세서는 상기 골 연령 추정 장치가, 상기 사용자 입력에 의해 상기 추출된 계측점의 좌표 값이 변경된 경우, 상기 변경된 좌표 값에 기초하여 상기 제2 딥러닝 모델을 학습시키도록 상기 골 연령 추정 장치를 제어할 수 있다.
상기 프로세서는 상기 골 연령 추정 장치가, 상기 대상자의 역연령(chronological age), 상기 대상자의 성별, 상기 대상자의 성별에 대응하는 4번 경추 하연의 만곡도에 대한 연령별 표준화 정보, 상기 대상자의 4번 경추 하연의 만곡도 비율 값 중 적어도 하나에 기초하여 상기 경추의 성숙도 정보를 시각적으로 제공하도록 상기 골 연령 추정 장치를 제어할 수 있다.
상기 프로세서는 상기 골 연령 추정 장치가, 상기 표준화 정보에 대응하는 그래프, 상기 대상자의 4번 경추 하연의 만곡도 비율에 대응하는 그래프 및 상기 대상자의 역연령에 대응하는 그래프 중 적어도 하나를 겹쳐서 제공하도록 상기 골 연령 추정 장치를 제어할 수 있다.
상기 계측점들은, 상기 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나가 해부학적으로 계측되어 마킹된 지점들일 수 있다.
일 실시예에 따르면 측모 두부 방사선 영상을 통해 골격의 성장도를 예측하는 딥러닝 기반의 프로그램을 제공할 수 있다.
일 실시예에 따르면 측모 두부 방사선 영상에서 경추 부위를 자동으로 크롭하고, 경추의 해부학적 계측점을 자동으로 표기할 수 있다.
일 실시예에 따르면 자동으로 표기된 경추의 해부학적 계측점에 기초하여 경추의 골 연령을 분석할 수 있다.
일 실시예에 따르면 우리나라 성장기 환자들의 경추 평가지표 평균을 그래프로 제공하여, 특정 환자의 분포 정도를 표에서 직관적으로 제시할 수 있다.
일 실시예에 따르면, 종래에 아동 청소년기의 성장도를 예측하기 위해, 손골격 방사선 사진을 촬영해야 하는 번거로움, 추가비용 발생 및 아동 청소년기의 환자에게 노출되는 방사선 양 증가 등의 문제점을 해결할 수 있다.
일 실시예에 따르면, 계측점의 마킹을 자동으로 할 수 있어, 임상의가 진단을 하기 위해 필요로 하는 노동의 양과 시간을 단축시킬 수 있다.
일 실시예에 따르면, 계측 수치를 한 화면에 제공하여, 사용자가 직관적이고 통합적으로 진단 결과를 확인하도록 할 수 있다.
일 실시예에 따르면, 치과 교정 환자의 성장 예측을 수행할 수 있다.
도 1은 일 실시예에 따른 골 연령 추정 방법을 설명하기 위한 흐름도이다.
도 2a 내지 도 2c는 일 실시예에 따른 골 연령 추정 방법이 수행되는 인터페이스의 일례를 도시하는 도면들이다.
도 3은 일 실시예에 따른 골 연령 추정 장치의 구성을 도시하는 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 골 연령 추정 방법을 설명하기 위한 흐름도이다.
본 명세서에서 설명하는 골 연령 추정 방법은 인공지능을 기반으로 하여, 방사선 영상의 진단을 보조하는 프로그램을 통해 개시될 수 있다. 골 연령 추정 방법은 치과에서 교정 진단을 위해 촬영하는 안면골의 측모 두부 방사선 계측사진의 두개골과 안면골을 구분하고, 경추 등의 해부학적인 계측점들을 자동으로 인지하여 표기하는 방법을 제공할 수 있다. 골 연령 추정 방법은 인지된 두개골, 안면골 및 계측점들을 이용하여 대상자(또는 환자)의 경추에 대한 성숙 단계를 예측할 수 있다. 골 연령 추정 방법은 경추 등과 같은 뼈의 발달 양상을 분석하고, 이를 통해 대상자의 골격 성장에 필요한 골 연령 등을 제시하는 마킹 보조 프로그램을 통해 제공될 수 있다. 골 연령 추정 방법은 치과 교정 환자의 성장 예측에 도움이 되는 방법을 제공할 수 있다. 본 명세서에서 설명하는 골 연령 추정 장치는 데스크탑 및 랩탑 등과 같은 컴퓨팅 장치이거나 또는, 태블릿 PC 및 PDA (personal digital assistant) 등과 같은 휴대용 단말일 수도 있다.
도 1을 참조하면 골 연령 추정 장치는 단계(110)에서 제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출할 수 있다. 일 실시예에서 관심 영역은 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나를 포함할 수 있다. 골 연령 추정 장치는 대상자의 경추가 촬영된 측모 두부 방사선 계측 영상과 관심 영역을 한 화면에서 디스플레이할 수 있다. 골 연령 추정 장치는 관심 영역을 추출한 후에, 관심 영역의 밝기를 조절하고, 관심 영역의 좌우를 반전할 수도 있다.
골 연령 추정 장치는 단계(120)에서 제2 딥러닝 모델을 이용하여, 추출된 관심 영역에 계측점들을 추출할 수 있다. 여기서, 계측점들은 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나가 해부학적으로 계측되어 마킹된 지점들일 수 있다. 골 연령 추정 장치는 제2 딥러닝 모델을 이용하여, 관심 영역에서 2번 경추의 하연 모서리, 3번 경추의 상연 및 하연의 모서리, 4번 경추의 상연 및 하연 모서리에 대응하는 13개의 계측점들을 추출할 수 있다. 실시예에 따라, 골 연령 추정 장치는 계측점들의 추출을 완료하지 않으면 다른 이미지로 넘어가지 않도록 확인하는 기능을 제공할 수 있다. 즉, 골 연령 추정 장치는 13개의 계측점들을 모두 추출한 후에 다른 이미지로 넘어갈 수 있는 기능을 제공할 수 있다. 골 연령 추정 장치는 계측점들의 크기를 조절할 수도 있다. 추출된 각각의 계측점들은 계측점들 각각의 위치에 기초하여 추출 번호를 부여받고, 계측점들 및 계측점에 대응하는 추출 번호가 관심 영역에 디스플레이 될 수 있다. 실시예에 따라 추출된 각각의 계측점들은 디스플레이 될 계측점을 선택하는 것에 대한 사용자 입력에 기초하여 디스플레이 여부가 결정될 수 있다. 즉, 사용자(또는 의료진)는 관심 영역에 디스플레이 될 계측점들을 직접 선택할 수 있다. 예를 들어, 사용자는 체크박스에 체크를 하여 디스플레이 될 계측점을 선택할 수 있고, 체크박스를 해제하여 디스플레이 되지 않을 계측점을 선택할 수 있다.
골 연령 추정 장치가 추출된 계측점들을 변경하는 것에 대한 사용자 입력을 수신한 경우, 골 연령 추정 장치는 사용자 입력에 기초하여, 추출된 계측점의 좌표 값을 변경할 수 있다. 즉, 사용자는 골 연령 추정 장치가 추출한 계측점들에 대하여 사용자의 의도대로 계측점들의 위치를 수정할 수도 있다. 사용자 입력에 의해 추출된 계측점의 좌표 값이 변경된 경우, 골 연령 추정 장치는 변경된 좌표 값에 기초하여 제2 딥러닝 모델을 학습시킬 수 있다.
골 연령 추정 장치는 계측점들을 추출하는 동안, 미리 정해진 주기에 기초하여, 계측점들의 추출이 수행된 정도를 백분율로 계산된 수치를 제공할 수 있다. 예를 들어, 골 연령 추정 장치는 계측점들에 대한 추출이 완료된 진행 정도를 백분율로 나타내어 시각적으로 나타낼 수 있다.
단계(130)에서 골 연령 추정 장치는 추출된 계측점들에 기초하여 계측 수치 값을 계산할 수 있다. 골 연령 추정 장치는 계측점들의 좌표 값에 기초하여 경추 하연의 길이에 대한 높이의 비율 값, 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값 및 경추 하연의 만곡도 비율 값 중 적어도 하나를 포함하는 계측 수치 값을 계산할 수 있다. 골 연령 추정 장치는 3번 경추와 4번 경추에 있어서, 경추 하연의 길이에 대한 높이의 비율 값과 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값을 계산할 수 있고, 2번 경추, 3번 경추 및 4번 경추에 있어서 하연의 만곡도 비율 값을 계산할 수 있다.
경추 하연의 길이에 대한 높이의 비율 값을 계산하는 과정에서, 하연의 길이는 하연의 전, 후방의 정점을 이은 선의 길이를 나타내고, 높이는 하연-상연 간의 두 길이의 평균 값일 수 있다.
수선을 내린 경추 하연의 길이에 대한 높이의 비율 값을 계산하는 과정에서, 하연의 길이는 하연의 전, 후방의 정점을 이은 선의 길이를 나타내고, 높이는 하연-상연 간의 두 직선 거리의 평균 값일 수 있다.
하연의 만곡도 비율 값은, 하연의 전, 후방 정점을 이은 선에서 하연의 가장 깊은 점까지의 직선 거리인 c를 계산하고, 하연의 길이는 하연의 전, 후방 정점을 이은 선의 길이 w로 계산하여, w에 대한 c의 비율일 수 있다.
골 연령 추정 장치는 단계(140)에서 계산된 계측 수치 값에 기초하여 경추의 성숙 단계에 대한 성숙도 정보를 제공할 수 있다. 일 실시예에서 골 연령 추정 장치는 성숙도 정보를 사용자에게 시각적으로 제공할 수 있다.
골 연령 추정 장치는 대상자의 역연령(chronological age), 대상자의 성별, 대상자의 성별에 대응하는 4번 경추 하연의 만곡도에 대한 연령별 표준화 정보, 대상자의 4번 경추 하연의 만곡도 비율 값 중 적어도 하나에 기초하여 경추의 성숙도 정보를 시각적으로 제공할 수 있다. 여기서, 역연령은 1년을 4분기로 나눠 계산될 수 있다.
골 연령 추정 장치는 표준화 정보에 대응하는 그래프, 대상자의 4번 경추 하연의 만곡도 비율에 대응하는 그래프 및 대상자의 역연령에 대응하는 그래프 중 적어도 하나를 겹쳐서 제공할 수 있다. 골 연령 추정 장치는 4번 경추 하연의 만곡도 비율에 대한 표준화 정보를 그래프로 나타낼 수 있고, 그 위에 대상자의 역연령을 수직선으로 표시하고, 4번 경추 하연의 만곡도 비율 값을 수평선으로 표시할 수 있다. 사용자는 세 가지 정보가 겹쳐진 그래프를 통해, 대상자의 나이 대비 표준 성장 정도를 확인할 수 있다.
도 2a 내지 도 2c는 일 실시예에 따른 골 연령 추정 방법이 수행되는 인터페이스의 일례를 도시하는 도면들이다.
골 연령 추정 장치는 도 2a의 인터페이스에서 세팔로 이미지와 환자의 경추 영역(210)을 포함하는 크롭된 관심 영역(220)을 제공할 수 있다. 세팔로 이미지에서 크롭될 영역(210)은 바운딩 박스로 표시될 수 있다. 바운딩 박스로 표시된 영역(210)과 우측에 표시되고 크롭된 관심 영역(220)은 동일한 이미지일 수 있다.
도 2b의 인터페이스에서 추출된 계측점들(240)은 관심 영역 상에 표시될 수 있다. 도 2b의 인터페이스는 계측점들의 좌표 정보에 기초하여 계산된 계측 수치 값들(270)을 포함할 수 있다. 또한, 도 2b의 인터페이스는 환자의 성별에 대응하는 4번 경추의 만곡도 비율을 나타내는 그래프(230), 환자의 역연령을 나타내는 수직의 그래프(250) 및 환자의 4번 경추 하연의 만곡도 비율 값을 나타내는 수평의 그래프(260)를 포함할 수 있다. 골 연령 추정 장치는 세 가지 그래프(230, 250 및 260)을 겹쳐서 제공하여, 사용자가 환자의 경추에 대한 성숙도 정보를 직관적으로 확인할 수 있도록 할 수 있다. 사용자 또는 환자는 환자의 나이에 해당하는 표준 성장 정도에 비해 상대적으로 성숙도가 어느 정도인지 확인할 수 있다.
골 연령 추정 장치가 골 연령 추정 방법을 수행하기 위해 제공하는 인터페이스는 계측점의 추출이 완료된 정도가 백분율로 계산된 수치가 시각적으로 제공할 수 있다. 또한, 인터페이스는 관심 영역이 크롭된 이미지에 대하여 밝기를 조절하는 것에 대한 사용자 입력을 수신할 수 있는 영역을 제공할 수도 있다.
골 연령 추정 장치는 도 2c의 인터페이스를 통해 계측점들 각각의 위치에 기초하여 추출 번호를 부여하여 디스플레이할 수 있다. 일 실시예에서 추출 번호 1에 대응하는 C2 LP는 2번 경추 하연의 왼쪽 계측 점을 나타내고, 추출 번호 2에 대응하는 C2 LM은 2번 경추 하연의 가운데 계측 점을 나타내고, 추출 번호 3에 대응하는 C2 LA는 2번 경추 하연의 오른쪽 점을 나타낼 수 있다. 추출 번호 4에 대응하는 C3 UP는 3번 경추 상연의 왼쪽 점을 나타내고, 추출 번호 5에 대응하는 C3 UA는 3번 경추 상연의 오른쪽 점을 나타내고, 추출 번호 6에 대응하는 C3 LP는 3번 경추 하연의 왼쪽 점을 나타내고, 추출 번호 7에 대응하는 C3 LM은 3번 경추 하연의 가운데 점을 나타내고, 추출 번호 8에 대응하는 C3 LA는 3번 경추 하연의 오른쪽 점을 나타낼 수 있다. 추출 번호 9에 대응하는 C4 UP는 4번 경추 상연의 왼쪽 점을 나타내고, 추출 번호 10에 대응하는 C4 UA는 4번 경추 상연의 오른쪽 점을 나타내고, 추출 번호 11에 대응하는 C4 LP는 4번 경추 하연의 왼쪽 점을 나타내고, 추출 번호 12에 대응하는 C4 LM은 4번 경추 하연의 가운데 점을 나타내고, 추출 번호 13에 대응하는 C4 LA는 4번 경추 하연의 오른쪽 점을 나타낼 수 있다. 사용자는 참조 번호(280)에서 각 계측점에 대한 체크 박스를 체크하거나 해제하여 각 계측점의 디스플레이 여부를 결정할 수 있다. 도 2c를 참조하면, 사용자는 계측 번호 7번 및 계측 번호 8번에 대응하는 체크 박스를 해제하여 7번 계측점과 8번 계측점이 디스플레이 되지 않도록 할 수 있다. 사용자는 디스플레이 된 계측 점들의 위치를 사용자의 재량으로 이동시킬 수 있다. 또한, 사용자는 디스플레이 된 계측 점들의 크기도 조절할 수 있다. 실시예에 따라 각각의 계측점들은 위치에 기초하여 디스플레이되는 색이 결정될 수도 있다. 예를 들어, 하연의 왼쪽에 대응하는 계측점들은 빨간색으로 디스플레이되고, 하연의 가운데에 대응하는 계측점들은 초록색으로 디스플레이되고, 하연의 오른쪽에 대응하는 계측점들은 파란색으로 디스플레이되고, 상연의 왼쪽에 대응하는 계측점들은 노란색으로 디스플레이되고, 상연의 오른쪽에 대응하는 계측점들은 하늘색으로 디스플레이 될 수 있다.
도 3은 다른 실시예에 따른 골 연령 추정 장치의 구성을 도시하는 도면이다.
도 3을 참조하면, 골 연령 추정 장치(300)는 본 명세서에서 설명된 골 연령 추정 장치에 대응할 수 있다. 골 연령 추정 장치(300)는 프로세서(310), 메모리(320) 및 통신기(330)를 포함할 수 있다. 또한, 골 연령 추정 장치(300)는 사용자 입력 인터페이스(340) 및 디스플레이(350)를 더 포함할 수 있다.
메모리(320)는 프로세서(310)에 연결되고, 프로세서(310)에 의해 실행가능한 인스트럭션들, 프로세서(310)가 연산할 데이터 또는 프로세서(310)에 의해 처리된 데이터를 저장할 수 있다. 메모리(320)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.
통신기(330)는 외부 장치와 통신하기 위한 인터페이스를 제공한다. 예를 들어, 통신기(330)는 외부 장치로부터 측모 두부 방사선 계측영상을 수신할 수 있다.
디스플레이(350)는 골 연령 추정 장치(300)가 인공지능 기반의 방사선 영상 진단 보조 프로그램을 실행하는 화면의 일례를 출력할 수 있다.
또한 사용자 입력 인터페이스(340)는 사용자에 의해 입력되는 추출된 계측점들을 변경하는 것에 대한 사용자 입력 및 디스플레이 될 계측점을 선택하는 것에 대한 사용자 입력을 수신할 수 있다.
프로세서(310)는 골 연령 추정 장치(300)의 동작과 관련된 하나 이상의 동작을 골 연령 추정 장치(300)가 수행할 수 있도록 골 연령 추정 장치(300)를 제어할 수 있다.
예를 들어, 프로세서(310)는 골 연령 추정 장치(300)가 제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출하고, 제2 딥러닝 모델을 이용하여, 추출된 관심 영역에 계측점들을 추출하도록 골 연령 추정 장치(300)를 제어할 수 있다.
프로세서(310)는 골 연령 추정 장치(300)가 추출된 계측점들에 기초하여 계측 수치 값을 계산하도록 골 연령 추정 장치(300)를 제어할 수 있다. 프로세서(310)는 골 연령 추정 장치(300)가 계측점들의 좌표 값에 기초하여 경추 하연의 길이에 대한 높이의 비율 값, 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값 및 경추 하연의 만곡도 비율 값 중 적어도 하나를 포함하는 계측 수치 값을 계산하도록 골 연령 추정 장치(300)를 제어할 수 있다. 프로세서(310)는 골 연령 추정 장치(300)가 추출된 계측점들을 변경하는 것에 대한 사용자 입력을 수신한 경우, 사용자 입력에 기초하여, 추출된 계측점의 좌표 값을 변경하도록 골 연령 추정 장치(300)를 제어할 수 있다. 프로세서(310)는 골 연령 추정 장치(300)가 사용자 입력에 의해 추출된 계측점의 좌표 값이 변경된 경우, 변경된 좌표 값에 기초하여 제2 딥러닝 모델을 학습시키도록 골 연령 추정 장치(300)를 제어할 수 있다.
계산된 계측 수치 값에 기초하여 경추의 성숙 단계에 대한 성숙도 정보를 제공하도록 골 연령 추정 장치(300)를 제어할 수 있다. 프로세서(310)는 골 연령 추정 장치(300)가 대상자의 역연령(chronological age), 대상자의 성별, 대상자의 성별에 대응하는 4번 경추 하연의 만곡도에 대한 연령별 표준화 정보, 대상자의 4번 경추 하연의 만곡도 비율 값 중 적어도 하나에 기초하여 경추의 성숙도 정보를 시각적으로 제공하도록 골 연령 추정 장치(300)를 제어할 수 있다. 프로세서(310)는 골 연령 추정 장치(300)가 표준화 정보에 대응하는 그래프, 대상자의 4번 경추 하연의 만곡도 비율에 대응하는 그래프 및 대상자의 역연령에 대응하는 그래프 중 적어도 하나를 겹쳐서 제공하도록 골 연령 추정 장치(300)를 제어할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (20)

  1. 골 연령 추정 방법에 있어서,
    제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출하는 단계;
    제2 딥러닝 모델을 이용하여, 상기 추출된 관심 영역에 계측점들을 추출하는 단계;
    상기 추출된 계측점들에 기초하여 계측 수치 값을 계산하는 단계; 및
    상기 계산된 계측 수치 값에 기초하여 상기 경추의 성숙 단계에 대한 성숙도 정보를 제공하는 단계
    를 포함하는 골 연령 추정 방법.
  2. 제1항에 있어서,
    상기 계측 수치 값을 계산하는 단계는,
    상기 계측점들의 좌표 값에 기초하여 경추 하연의 길이에 대한 높이의 비율 값, 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값 및 경추 하연의 만곡도 비율 값 중 적어도 하나를 포함하는 상기 계측 수치 값을 계산하는 단계
    를 포함하는, 골 연령 추정 방법.
  3. 제1항에 있어서,
    상기 계측점들을 추출하는 단계는,
    상기 추출된 계측점들을 변경하는 것에 대한 사용자 입력을 수신한 경우, 상기 사용자 입력에 기초하여, 상기 추출된 계측점의 좌표 값을 변경하는 단계
    를 포함하는 골 연령 추정 방법.
  4. 제3항에 있어서,
    상기 사용자 입력에 의해 상기 추출된 계측점의 좌표 값이 변경된 경우, 상기 변경된 좌표 값에 기초하여 상기 제2 딥러닝 모델을 학습시키는 단계
    를 더 포함하는 골 연령 추정 방법.
  5. 제1항에 있어서,
    상기 성숙도 정보를 제공하는 단계는,
    상기 대상자의 역연령(chronological age), 상기 대상자의 성별, 상기 대상자의 성별에 대응하는 4번 경추 하연의 만곡도에 대한 연령별 표준화 정보, 상기 대상자의 4번 경추 하연의 만곡도 비율 값 중 적어도 하나에 기초하여 상기 경추의 성숙도 정보를 시각적으로 제공하는 단계
    를 포함하는 골 연령 추정 방법.
  6. 제5항에 있어서,
    상기 성숙도 정보를 제공하는 단계는,
    상기 표준화 정보에 대응하는 그래프, 상기 대상자의 4번 경추 하연의 만곡도 비율에 대응하는 그래프 및 상기 대상자의 역연령에 대응하는 그래프 중 적어도 하나를 겹쳐서 제공하는,
    골 연령 추정 방법.
  7. 제1항에 있어서,
    상기 관심 영역을 추출한 후에, 상기 관심 영역의 밝기를 조절하고, 상기 관심 영역의 좌우를 반전하는 단계
    를 더 포함하는 골 연령 추정 방법.
  8. 제1항에 있어서,
    상기 계측점들을 추출하는 단계는,
    미리 정해진 주기에 기초하여, 상기 계측점들의 추출이 수행된 정도를 백분율로 계산된 수치를 제공하는 단계
    를 포함하는 골 연령 추정 방법.
  9. 제1항에 있어서,
    상기 관심 영역은,
    상기 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나를 포함하는,
    골 연령 추정 방법.
  10. 제1항에 있어서,
    상기 추출된 각각의 계측점들은,
    상기 계측점들 각각의 위치에 기초하여 추출 번호를 부여받고, 상기 계측점들 및 상기 계측점에 대응하는 추출 번호가 상기 관심 영역에 디스플레이되는,
    골 연령 추정 방법.
  11. 제10항에 있어서,
    상기 추출된 각각의 계측점들은,
    디스플레이 될 계측점을 선택하는 것에 대한 사용자 입력에 기초하여 디스플레이 여부가 결정되는,
    골 연령 추정 방법.
  12. 제1항에 있어서,
    상기 계측점들은,
    상기 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나가 해부학적으로 계측되어 마킹된 지점들인,
    골 연령 추정 방법.
  13. 제1항의 방법을 실행시키기 위한 인스트럭션들을 저장하는 컴퓨터 판독 가능한 저장 매체.
  14. 골 연령 추정 방법을 수행하는 골 연령 추정 장치에 있어서,
    메모리 및 프로세서를 포함하고,
    상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고,
    상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는 상기 골 연령 추정 장치가,
    제1 딥러닝 모델을 이용하여 대상자의 경추가 촬영된 측모 두부 방사선 계측영상에서 경추 영역을 포함하는 관심 영역을 추출하고,
    제2 딥러닝 모델을 이용하여, 상기 추출된 관심 영역에 계측점들을 추출하고,
    상기 추출된 계측점들에 기초하여 계측 수치 값을 계산하고,
    상기 계산된 계측 수치 값에 기초하여 상기 경추의 성숙 단계에 대한 성숙도 정보를 제공하도록 상기 골 연령 추정 장치를 제어하는,
    골 연령 추정 장치.
  15. 제14항에 있어서,
    상기 프로세서는 상기 골 연령 추정 장치가,
    상기 계측점들의 좌표 값에 기초하여 경추 하연의 길이에 대한 높이의 비율 값, 수선을 내린 경추 하연의 길이에 대한 높이의 비율 값 및 경추 하연의 만곡도 비율 값 중 적어도 하나를 포함하는 상기 계측 수치 값을 계산하도록 상기 골 연령 추정 장치를 제어하는,
    골 연령 추정 장치.
  16. 제14항에 있어서,
    상기 프로세서는 상기 골 연령 추정 장치가,
    상기 추출된 계측점들을 변경하는 것에 대한 사용자 입력을 수신한 경우, 상기 사용자 입력에 기초하여, 상기 추출된 계측점의 좌표 값을 변경하도록 상기 골 연령 추정 장치를 제어하는,
    골 연령 추정 장치.
  17. 제16항에 있어서,
    상기 프로세서는 상기 골 연령 추정 장치가,
    상기 사용자 입력에 의해 상기 추출된 계측점의 좌표 값이 변경된 경우, 상기 변경된 좌표 값에 기초하여 상기 제2 딥러닝 모델을 학습시키도록 상기 골 연령 추정 장치를 제어하는,
    골 연령 추정 장치.
  18. 제14항에 있어서,
    상기 프로세서는 상기 골 연령 추정 장치가,
    상기 대상자의 역연령(chronological age), 상기 대상자의 성별, 상기 대상자의 성별에 대응하는 4번 경추 하연의 만곡도에 대한 연령별 표준화 정보, 상기 대상자의 4번 경추 하연의 만곡도 비율 값 중 적어도 하나에 기초하여 상기 경추의 성숙도 정보를 시각적으로 제공하도록 상기 골 연령 추정 장치를 제어하는,
    골 연령 추정 장치.
  19. 제18항에 있어서,
    상기 프로세서는 상기 골 연령 추정 장치가,
    상기 표준화 정보에 대응하는 그래프, 상기 대상자의 4번 경추 하연의 만곡도 비율에 대응하는 그래프 및 상기 대상자의 역연령에 대응하는 그래프 중 적어도 하나를 겹쳐서 제공하도록 상기 골 연령 추정 장치를 제어하는,
    골 연령 추정 장치.
  20. 제14항에 있어서,
    상기 계측점들은,
    상기 대상자의 2번 경추, 3번 경추 및 4번 경추 중 적어도 하나가 해부학적으로 계측되어 마킹된 지점들인,
    골 연령 추정 장치.
PCT/KR2020/018320 2020-01-23 2020-12-15 골 연령 추정 방법 및 장치 WO2021149918A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/763,103 US20220386976A1 (en) 2020-01-23 2020-12-15 Bone age estimation method and apparatus
CN202080077612.4A CN114650772A (zh) 2020-01-23 2020-12-15 骨龄估计方法及装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0009524 2020-01-23
KR20200009524 2020-01-23
KR10-2020-0066130 2020-06-02
KR1020200066130A KR20210095529A (ko) 2020-01-23 2020-06-02 골 연령 추정 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2021149918A1 true WO2021149918A1 (ko) 2021-07-29

Family

ID=76993053

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/018320 WO2021149918A1 (ko) 2020-01-23 2020-12-15 골 연령 추정 방법 및 장치

Country Status (3)

Country Link
US (1) US20220386976A1 (ko)
CN (1) CN114650772A (ko)
WO (1) WO2021149918A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195243A1 (ja) * 2022-04-04 2023-10-12 株式会社島津製作所 X線画像処理装置、x線画像処理方法、および、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008541892A (ja) * 2005-06-02 2008-11-27 トードベルグ、ハンス・ヘンリク 骨格の成熟度決定方法
WO2012039467A1 (ja) * 2010-09-22 2012-03-29 パナソニック株式会社 運動支援システム
KR20140144645A (ko) * 2013-06-11 2014-12-19 삼성전자주식회사 대상체의 관심 영역(roi)에 대한 x선 이미지를 획득하는 방법 및 장치
KR20160099442A (ko) * 2015-02-11 2016-08-22 경기대학교 산학협력단 뼈 나이 측정 장치 및 방법
KR20170016778A (ko) * 2015-08-04 2017-02-14 재단법인 아산사회복지재단 심층신경망을 이용한 골 연령 산출방법 및 프로그램

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1293925A1 (en) * 2001-09-18 2003-03-19 Agfa-Gevaert Radiographic scoring method
US20070078674A1 (en) * 2005-07-19 2007-04-05 Weinberg Irving N Display method for image-based questionnaires
US20110320515A1 (en) * 2010-06-25 2011-12-29 Zahiruddin Mohammed Medical Imaging System
US10991137B2 (en) * 2015-06-11 2021-04-27 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and information processing system for display of medical images
US10607122B2 (en) * 2017-12-04 2020-03-31 International Business Machines Corporation Systems and user interfaces for enhancement of data utilized in machine-learning based medical image review

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008541892A (ja) * 2005-06-02 2008-11-27 トードベルグ、ハンス・ヘンリク 骨格の成熟度決定方法
WO2012039467A1 (ja) * 2010-09-22 2012-03-29 パナソニック株式会社 運動支援システム
KR20140144645A (ko) * 2013-06-11 2014-12-19 삼성전자주식회사 대상체의 관심 영역(roi)에 대한 x선 이미지를 획득하는 방법 및 장치
KR20160099442A (ko) * 2015-02-11 2016-08-22 경기대학교 산학협력단 뼈 나이 측정 장치 및 방법
KR20170016778A (ko) * 2015-08-04 2017-02-14 재단법인 아산사회복지재단 심층신경망을 이용한 골 연령 산출방법 및 프로그램

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195243A1 (ja) * 2022-04-04 2023-10-12 株式会社島津製作所 X線画像処理装置、x線画像処理方法、および、プログラム

Also Published As

Publication number Publication date
CN114650772A (zh) 2022-06-21
US20220386976A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
KR102014359B1 (ko) 수술영상 기반 카메라 위치 제공 방법 및 장치
WO2016108453A1 (ko) 치아 영상 자동 정합 방법, 이를 위한 장치 및 기록 매체
US7760923B2 (en) Method and system for characterization of knee joint morphology
WO2021162354A1 (ko) 혈관 영상에 기초한 주요 혈관 영역 추출 방법 및 장치
WO2017171295A1 (ko) 환자의 악골의 움직임 추정이 반영된 증강현실 시스템 및 증강현실 제공방법
WO2022131418A1 (ko) 치과용 3차원 스캔 데이터의 간소화된 랜드마크 자동 검출 방법 및 이를 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체
WO2021006471A1 (ko) 임플란트 구조물 자동 식립을 통한 임플란트 수술 계획 수립 방법, 이를 위한 사용자 인터페이스 제공 방법 및 그 치아영상 처리장치
WO2021149918A1 (ko) 골 연령 추정 방법 및 장치
WO2010128818A2 (ko) 의료영상 처리 시스템 및 처리 방법
WO2020101264A1 (ko) 관상동맥석회화점수 산정 방법 및 장치
KR102628324B1 (ko) 인공지능 기반의 사용자 인터페이스를 통한 수술 결과 분석 장치 및 그 방법
CN109658425B (zh) 一种肺叶分割方法、装置、计算机设备及存储介质
Savolainen et al. Application of machine vision to assess involved surface in patients with psoriasis
WO2022010075A1 (ko) 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치
WO2021054700A1 (ko) 치아 병변 정보 제공 방법 및 이를 이용한 장치
KR20210095529A (ko) 골 연령 추정 방법 및 장치
WO2019164277A1 (ko) 수술영상을 이용한 출혈 평가 방법 및 장치
WO2023008849A1 (ko) 3차원 치아 이미지 표시 장치 및 방법, 그리고 3차원 치아 이미지 표시 장치를 학습시키는 방법
KR102213412B1 (ko) 기복모델 생성방법, 장치 및 프로그램
WO2019164273A1 (ko) 수술영상을 기초로 수술시간을 예측하는 방법 및 장치
KR20200012707A (ko) 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스
WO2021162181A1 (ko) 의료 도구 제어 장치의 동작을 결정하기 위한 기계 학습 모델을 트레이닝하는 방법 및 장치
WO2020159276A1 (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
WO2016080736A1 (ko) 의료영상을 이용한 진단 보조 정보 제공 방법 및 그 시스템
WO2023229415A1 (ko) Ar 영상 제공 방법 및 ar 영상 제공 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20916008

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20916008

Country of ref document: EP

Kind code of ref document: A1