WO2021251776A1 - Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템 - Google Patents

Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템 Download PDF

Info

Publication number
WO2021251776A1
WO2021251776A1 PCT/KR2021/007295 KR2021007295W WO2021251776A1 WO 2021251776 A1 WO2021251776 A1 WO 2021251776A1 KR 2021007295 W KR2021007295 W KR 2021007295W WO 2021251776 A1 WO2021251776 A1 WO 2021251776A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
subject
tumor
generating
modeling
Prior art date
Application number
PCT/KR2021/007295
Other languages
English (en)
French (fr)
Inventor
신상준
김진성
임준석
장지석
한민철
문성공
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Publication of WO2021251776A1 publication Critical patent/WO2021251776A1/ko
Priority to US18/064,032 priority Critical patent/US20230162358A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to a diagnostic system, and to a diagnostic system that uses a tomography image to confirm a change over time.
  • the medical imaging apparatus may be used to photograph and process structural details, internal tissues, and fluid flow in the body, and may diagnose a patient's health condition and disease using the medical image.
  • the Clinical Decision Support System is a system to help clinical decision-making during treatment by combining individual patient characteristics with a computerized knowledge base to provide information optimized for diagnosis and treatment of cancer patients. It is a system that derives the survival rate through basic information on cancer patients and provides treatment decision support.
  • the present invention relates to a method for tracking a tumor in a CT image and a diagnostic system using the same, in which a processor generates a 3D modeling image including at least one feature region in the body of the subject based on the CT image of the subject, the 3D modeling image Including generating time series data by tracking changes over time with respect to the characteristic region of the subject and plotting the time series data, the purpose of this is to confirm the change in the course of the tumor over time.
  • Another object is to confirm the change of tissue by matching the image of the subject to the whole body image.
  • the processor in order to solve the above problems, in the method for tracking a tumor in a CT image according to an embodiment of the present invention, the processor generates a 3D modeling image including at least one feature region in the body of the subject based on the CT image of the subject. generating, generating time series data by tracking changes over time in the feature region of the subject in the 3D modeling image, and schematizing the time series data.
  • the characteristic region is a region including the tumor and internal organs of the subject.
  • the step of generating time series data by tracking changes over time for the feature region includes collecting the 3D modeling image of the subject generated at each preset sampling time, comparing the collected 3D modeling image generating an event occurrence message when detecting a change in the characteristic region; and generating the time series data by analyzing the event occurrence messages.
  • generating an event generation message includes comparing the collected 3D modeling images and changing the position of the feature region, the When the size of the feature region changes or the number of the feature regions changes, an event generation message is generated including an event occurrence time at which the change is sensed and information about the change in the feature region.
  • the generating of the time series data by analyzing the event occurrence messages includes tracking the size and number of tumors and the occurrence of new lesions according to the time series using change information of the characteristic region included in the event occurrence message. .
  • the generating of the 3D modeling image may include acquiring a cross-sectional image including the feature region in the body of the subject after taking the CT image of the subject, and a pre-prepared tomography image of the subject based on the cross-sectional image generating a contour image by marking the feature region on the , converting the file format of the contour image to a medical file format and performing volume rendering of the whole-body mapping image to generate a 3D modeling image according to a feature region in the body of the subject.
  • generating a contour image by marking the feature region on the tomography image of the subject prepared in advance based on the cross-sectional image includes: identifying at least one feature region in the cross-sectional image; and tomography of the subject and marking an outline for each of the identified feature areas in the image.
  • the step of performing volume rendering of the whole-body mapping image to generate a 3D modeling image according to a feature region in the body of the subject includes performing volume rendering for each feature region marked in the whole-body mapping image to obtain a surface volume image. and generating a 3D modeling image by matching the surface volume image to a pre-prepared 3D whole body phantom.
  • a diagnosis system using a method for tracking a tumor in a CT image includes a memory for storing one or more instructions, a processor for executing one or more instructions stored in the memory, and an output unit for outputting a diagnosis result, , generating, by the processor, a 3D modeling image including at least one feature region in the body of the subject based on the CT image of the subject; Change over time in the feature region of the subject in the 3D modeling image The steps of generating time series data by tracing and plotting the time series data are performed.
  • the characteristic region is a region including the tumor and internal organs of the subject.
  • the processor based on the schematic time-series data, sets the treatment direction method of the subject.
  • the processor includes the steps of: collecting the 3D modeling image of the subject generated at every preset sampling time; generating an event occurrence message when detecting a change in the feature region by comparing the collected 3D modeling image; and A step of generating the time series data is performed by analyzing the event occurrence messages.
  • the processor compares the collected 3D modeling images to detect a change when the position of the feature region changes, when the size of the feature region changes, or when the number of feature regions changes An event occurrence message is generated including the event occurrence time and change information of the characteristic region.
  • the processor tracks the size and number of tumors and the occurrence of new lesions according to time series by using the change information of the characteristic region included in the event occurrence message.
  • generating, by a processor, a 3D modeling image including at least one feature region in the body of the subject, based on the CT image of the subject, from the 3D modeling image It is possible to check the change in the course of the tumor over time, including generating time series data by tracking changes over time in the characteristic region of the subject and schematizing the time series data.
  • FIG. 1 is a block diagram of a diagnosis system using a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • FIGS. 2 to 4 are flowcharts illustrating a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a screen of a diagnosis system using a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • 6 and 7 are diagrams for explaining the characteristics of a diagnosis system using a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • FIGS. 8 and 9 are diagrams illustrating 3D modeling image tracking of a diagnosis system using a tumor tracking method in a CT image according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating time series data of a diagnosis system using a tumor tracking method in a CT image according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating, as an example, a method for tracking a tumor in a CT image and acquiring a cross-sectional image of a diagnostic system using the same according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a method for tracking a tumor in a CT image and generating a contour image of a diagnostic system using the same according to an embodiment of the present invention as an example.
  • FIG. 13 is a diagram illustrating a method for tracking a tumor in a CT image and generating a whole-body mapping image of a diagnosis system using the same according to an embodiment of the present invention.
  • FIG. 14 is an example of a method for tracking a tumor in a CT image and volume rendering of a diagnostic system using the same according to an embodiment of the present invention.
  • 15 is a diagram illustrating a method for tracking a tumor in a CT image and generating a 3D modeling image of a diagnostic system using the same according to an embodiment of the present invention.
  • the present invention relates to a method for tracking a tumor in a CT image and a diagnostic system using the same.
  • FIG. 1 is a block diagram of a diagnosis system using a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • a diagnosis system 1 using a method for tracking a tumor in a CT image includes a processor 10 , a memory 20 , an input unit 30 , an output unit 40 , I/O interface 50 is included.
  • Diagnosis system 1 using a tumor tracking method in a CT image uses a tomography image of a subject to confirm a change in the tumor trend over time, and a diagnosis capable of setting a treatment method it is a system
  • the Clinical Decision Support System is a system to help clinical decision-making during treatment by combining individual patient characteristics with a computerized knowledge base to provide information optimized for diagnosis and treatment of cancer patients. It is a system that derives the survival rate through basic information on cancer patients and provides treatment decision support.
  • the diagnosis system 1 using the tumor tracking method in a CT image calculates the position, size, and number according to 3D modeling of a CT image of a patient and segmentation of a tumor, and a time series tumor The size, number, and occurrence of new lesions are traced and the change over time is converted into a graph.
  • the processor 10 generates a 3D modeling image including at least one feature region in the body of the subject based on the CT image of the subject, and changes over time in the feature region of the subject in the 3D modeling image The steps of generating time series data by tracing and plotting the time series data are performed.
  • the processor 10 may be divided into a plurality of modules according to functions, and functions may be performed by one processor.
  • the memory 20 may store programs (one or more instructions) for processing and controlling the processor 10 .
  • Programs stored in the memory 20 may be divided into a plurality of modules according to functions, and an object type information recognition unit to be described later may be configured as a software module.
  • the input unit 30 means a means for a user to input data for controlling a diagnosis system using a tumor tracking method in a CT image.
  • the input unit 30 includes a key pad, a dome switch, and a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral tension measurement method, piezoelectric type). effect method, etc.), a jog wheel, a jog switch, etc., but is not limited thereto.
  • the output unit 40 may display information about object recognition.
  • the output unit 40 may display a diagnosis result obtained from the processor 10 .
  • the I/O interface 50 is a device capable of mounting a connection medium capable of connecting a system or equipment, and in the present invention, an input unit and an output unit, and a processor are connected.
  • it may further include an image capturing unit, the image capturing unit captures a CT image of the subject to be diagnosed, and the processor 10 performs a method of generating a 3D modeling image of the subject from the CT image captured by the subject do.
  • a method of tracking a tumor in a CT image will be described in detail with reference to FIGS. 2 to 4 below.
  • FIGS. 2 to 4 are flowcharts illustrating a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • the processor in the method for tracking a tumor in a CT image according to an embodiment of the present invention, the processor generates a 3D modeling image including at least one feature region in the body of the subject based on the CT image of the subject. It starts in step S100.
  • the characteristic region is a region including the tumor and internal organs of the subject.
  • step S200 time series data is generated by tracking changes over time in the feature region of the subject in the 3D modeling image.
  • step S300 the time series data is plotted.
  • step S400 Based on the time-series data plotted in step S400, the method of treatment of the subject is set.
  • step S110 the processor acquires a cross-sectional image including the characteristic region of the subject's body after the CT image is taken.
  • Computed tomography is an imaging method that uses radiation like a chest X-ray.
  • a contrast agent is administered to view the heart and blood vessels, and the chest is taken in cross-sections at regular intervals from top to bottom.
  • a contour image is generated by marking the feature region on the tomography image of the subject prepared in advance based on the cross-sectional image, and confirming at least one feature region in the cross-sectional image, and a tomography image of the subject and marking an outline for each of the identified feature areas.
  • the characteristic region is a region including the tumor and internal organs of the subject.
  • the patient's tumor and internal organs are defined on the image to establish a radiation treatment plan from the cross-sectional image taken, and marked by color.
  • step S130 the file format of the contour image is converted into a medical file format.
  • DICOM format is a medical file format (DICOM image and DICOM RT-Structure format, respectively).
  • step S140 The contour image converted in step S140 is matched with the whole body phantom image to generate a whole body mapping image of the subject.
  • Step S140 is a step of matching the image of the patient with well-made computational phantoms (CPs) images.
  • the whole body image does not match the coordinate axis with the patient image, and the patient's personal information such as height, weight, and organ position also does not match.
  • the actual patient's image is matched to the phantom image by using a technique for matching the two images (e.g., Template matching, Image (rigid or deformable) registration, etc.).
  • the scale of the contour image is converted according to the body information of the subject to match the whole body phantom image with the template.
  • the matching position is searched for by calculating the difference in brightness values according to the area where the scale-converted contour image and the template of the full body phantom image overlap.
  • the search for the matching position includes changing the position of the scale-converted contour image based on a predetermined first parameter and a second parameter, and changing the first Adjust the parameter and the second parameter.
  • two image mapping using template matching is a method of finding the time when the sum of absolute differences (SAD) is the smallest while changing the scale and position of two images.
  • x and y denote matching coordinates of two images
  • i and j denote a first parameter and a second parameter adjusted according to a difference in brightness values.
  • step S150 volume rendering of the whole body mapping image is performed to generate a 3D modeling image according to a feature region in the body of the subject, and volume rendering is performed for each feature region marked in the whole body mapping image to generate a surface volume image and generating a 3D modeling image by matching the surface volume image to a previously prepared 3D whole body phantom.
  • volume rendering is performed through contour information drawn on the patient tomography image to be implemented as a surface volume (or 3D volume), and the converted surface volume is placed in a pre-created 3D computerized phantom to visualize it.
  • the step (S200) of generating time-series data by tracing changes over time in the characteristic region is performed in step S210.
  • the generated 3D modeling image of the subject is collected at each preset sampling time.
  • an event generation message is generated.
  • the event occurrence time at which the change is sensed when the location of the feature region changes by comparing the collected 3D modeling images, when the size of the feature region changes, or when the number of feature regions changes, the event occurrence time at which the change is sensed and an event occurrence message including change information of the characteristic region.
  • the patient's tumor and internal organs are defined on the image and marked separately by color. Therefore, it is easy to confirm the change of the tumor.
  • the marked area in the new modeling image When the marked area in the new modeling image is smaller or larger than the previous marked area, it detects that there is a change in the tumor, and records the diagnosis time and change at this time to generate an event occurrence message.
  • the diagnosis time and changes are recorded to generate an event occurrence message.
  • the lesion After generating and recording an event occurrence message according to the passage of time, the lesion is diagnosed according to the change content to generate time series data.
  • step S230 the event generation messages are analyzed to generate the time series data.
  • the size and number of tumors and the occurrence of new lesions according to time series are tracked using the change information of the characteristic region included in the event occurrence message.
  • FIG. 5 is a diagram illustrating a screen of a diagnosis system using a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • the diagnosis system 1 using the tumor tracking method in a CT image uses a Clinical Decision Support System (CDSS), and 3D modeling of a patient's CT image and segmentation of the tumor Calculate the location, size, and number of tumors according to time series, and track the size, number, and occurrence of new lesions according to the time series to confirm the change over time.
  • CDSS Clinical Decision Support System
  • the diagnosis system 1 using the method for tracking a tumor in a CT image according to an embodiment of the present invention can indicate changes in the location and size of tissue over time in one whole-body phantom, so that in a patient's diagnostic monitoring system Time-series changes can be observed.
  • the 3D modeling image of the subject may be checked through the modeling image screen 111 of FIG. 5 .
  • the sliding bar 112 that can represent the passage of time is displayed on the top of the modeling image screen 111, it is possible to check the change of the 3D modeling image according to the passage of time by dragging the sliding bar.
  • the graph shows the results of the subject's integrated test, and the example shows the tumor markers.
  • the information providing screen 114 provides knowledge-based customized medical information.
  • a timeline 115 of the subject is displayed at the bottom, and the state of the subject is recorded over time.
  • 6 and 7 are diagrams for explaining the characteristics of a diagnosis system using a method for tracking a tumor in a CT image according to an embodiment of the present invention.
  • the diagnosis system using the tumor tracking method in a CT image includes modeling image display units 121 and 131 , medical treatment support model display units 122 and 132 , and information system. Study (123, 133), it includes a time series analysis unit (124, 125, 134).
  • a diagnosis system using a tumor tracking method in a CT image provides a patient understanding of diagnosis and treatment effects by displaying tumor location and morphological information on a 3D image according to a time-series flow in patient care raise the
  • the modeling image display units 121 and 131 display the location and morphological information of the tumor on the 3D image according to the time-series flow in patient care, thereby increasing the patient's understanding of the diagnosis and treatment effect. Accordingly, information can be viewed directly, and communication between medical staff and patients is facilitated.
  • New development of the image image vectorization system module and grafting to patient care based on the CT image of the subject, repeating generating a 3D modeling image including at least one feature region in the subject's body only changes in
  • the medical treatment support model display units 122 and 132 develop a cancer patient treatment support model through the construction of a predictive model algorithm base. (Comparison of patient survival rate, development of recurrence risk algorithm according to treatment progress, etc.)
  • the treatment strategy is confirmed using the data according to the change.
  • the information providing units 123 and 133 provide knowledge-based customized medical information. According to the present invention, it is possible to expand the diagnosis and treatment area by using an artificial intelligence model and combining existing data-based knowledge with the latest expert knowledge.
  • the time series analysis units 124 , 125 , and 134 construct cancer patient clinical data extraction and integrated data mining.
  • the time series analyzers 124 and 125 sequentially record results of a patient's visit and surgery, imaging tests, functional tests, diagnostic tests, and pathology tests.
  • the time series analyzer 134 displays the results of each diagnosis as flags on the timeline.
  • FIGS. 8 and 9 are diagrams illustrating 3D modeling image tracking of a diagnosis system using the tumor tracking method in a CT image according to an embodiment of the present invention.
  • tumors 141, 142, and 143 are initially displayed in the whole-body phantom P of FIG. Thus, with the passage of time, the generation of new tumors 144 and 145 and the change in size of previously displayed tumors are confirmed.
  • FIG. 10 is a diagram illustrating time series data of a diagnosis system using a tumor tracking method in a CT image according to an embodiment of the present invention.
  • FIG. 10( a ) is a graph showing a change in trend with time.
  • FIG. 10(b) shows a process of tracking the size, number, and occurrence of new lesions according to time series.
  • FIG. 11 is a diagram illustrating, as an example, a method for tracking a tumor in a CT image and acquiring a cross-sectional image of a diagnostic system using the same according to an embodiment of the present invention.
  • the imaging unit captures a CT image of a subject to be diagnosed.
  • Computed tomography is an imaging method that uses radiation like a chest X-ray.
  • a contrast medium is administered to view the heart and blood vessels, and the chest is taken in cross-sections at regular intervals from top to bottom.
  • the image is obtained with a thin cross section, it is possible to easily understand three-dimensional anatomical information, so it is possible to express and diagnose abnormalities in the arterial arch or narrowing of blood vessels such as collateral arteries and pulmonary veins and pulmonary veins, which are difficult to confirm with ultrasound, using three-dimensional synthetic images. It has the advantage of being able to see not only the heart and blood vessels, but also the airways, lungs, and other organ abnormalities.
  • the processor acquires a cross-sectional image including a feature region in the body of the subject after taking a CT image of the subject.
  • the characteristic region is a region including the tumor and internal organs of the subject.
  • FIG. 12 is a diagram illustrating a method for tracking a tumor in a CT image and generating a contour image of a diagnosis system using the same according to an embodiment of the present invention.
  • the processor creates a contour image by marking the feature region on the tomography image of the subject prepared in advance based on the cross-sectional image.
  • the characteristic region is a region including the tumor and internal organs of the subject.
  • the patient's tumor and internal organs are defined on the image to establish a radiation treatment plan from the cross-sectional image taken, and marked by color.
  • the first feature region 221 corresponding to the external surface of the subject is marked in the tomography image of the subject, and the second feature region 222 corresponding to the brain stem is marked.
  • the brain region 223, which is the third characteristic region 223, may be classified and marked, and the brain region includes a hippocampus, an optic chiasm, and a fornix.
  • FIG. 13 is a diagram illustrating a method for tracking a tumor in a CT image and generating a whole-body mapping image of a diagnosis system using the same according to an embodiment of the present invention.
  • the processor converts the file format of the contour image into a medical file format.
  • the tomography image and the contour generated thereon are exported in DICOM format, which is a medical file format (DICOM image and DICOM RT-Structure format, respectively).
  • Exporting means that a program that uses data in a special format saves its data in a form that can be used by other programs on a disk or the like. For example, you can save data records from a database program to disk as ASCII text files, and then read them into a spreadsheet for processing.
  • the contour image is generated by marking the characteristic region on the tomography image of the subject, it is possible to check which position the characteristic regions of the subject are marked according to the marked color, and information on the characteristic region matching the marked raw material can be obtained. It is converted into a data table and stored.
  • the processor matches the contour image with the full-body phantom image to generate a full-body mapping image of the subject, and matches the patient's image to the well-made computational phantoms (CPs) image. do.
  • CPs computational phantoms
  • FIG. 13 (a) shows a patient image
  • FIG. 13 (b) shows a patient image
  • a phantom image that is a full body phantom image
  • the whole body image does not match the coordinate axis with the patient image, and the patient's personal information such as height, weight, and organ position also does not match.
  • the actual patient's image is matched to the phantom image by using a technique for matching the two images (e.g., Template matching, Image (rigid or deformable) registration, etc.).
  • the scale of the contour image is converted according to the body information of the subject to match the whole body phantom image with the template.
  • the ratio is adjusted according to the body information of the subject and the size of the full body phantom image.
  • the matching position is searched for by calculating the difference between the brightness values according to the area where the scale-converted contour image and the template of the full-body phantom image are overlapped, and as shown in FIG. 13(a), the scale is converted
  • One contour image is preferably adjusted for each of the feature regions 411 , 412 , 413 , 414 , and 415 to match the full body phantom image.
  • the search for the matching position includes changing the position of the scale-converted contour image based on a predetermined first parameter and a second parameter, and changing the first Adjust the parameter and the second parameter.
  • two image mapping using template matching uses a method to find the time when the sum of absolute differences (SAD) is the smallest while changing the scale and position of the two images. and can be calculated using Equation 1 above.
  • FIG. 14 is an example of a method for tracking a tumor in a CT image and volume rendering of a diagnostic system using the same according to an embodiment of the present invention.
  • the processor generates a surface volume image by performing volume rendering for each feature area marked in the whole body mapping image.
  • volume rendering is performed through contour information drawn on a tomography image of a patient and implemented as a surface volume (or 3D volume).
  • FIG. 14 shows the surface volume of a lung generated through volume rendering, and a contour image as shown in FIG. 9(a) is implemented as a surface volume image as shown in FIG. 14(b).
  • Volume rendering is a good method to apply to medical simulators that diagnose diseases or perform procedures such as tissue removal, cutting or shaving by showing medical image data as it is without filtering or segmentation. It extracts useful image information from and renders it.
  • Volume data is composed of basic elements called voxels, and each voxel may have its own density, opacity, color, and the like.
  • 15 is a diagram illustrating a method for tracking a tumor in a CT image and generating a 3D modeling image of a diagnostic system using the same according to an embodiment of the present invention.
  • the processor generates a 3D modeling image by matching the surface volume image to a previously prepared 3D whole body phantom.
  • the converted surface volume is placed in a pre-created 3D computerized phantom to visualize it.
  • a surface volume image 531 of a first feature region, a surface volume image 532 of a second feature region, and a surface volume image of a third feature region are generated in advance by generating a surface volume for each region 525 .
  • the surface volume image 534 of the fourth feature region and the surface volume image 535 of the fifth feature region are displayed, respectively.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명에 따르면, 프로세서가, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 포함하여 종양의 시간에 따른 추이의 변화를 확인하는 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템이 개시된다.

Description

CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템
본 발명은 진단 시스템에 관한 것으로서, 단층 영상을 이용하여 시간에 따른 추이의 변화를 확인하는 진단 시스템에 관한 것이다.
의료 영상 장치를 이용하여 신체 내의 구조적 세부사항, 내부 조직 및 유체의 흐름 등을 촬영 및 처리하며, 의료 영상을 이용하여 환자의 건강 상태 및 질병을 진단할 수 있다.
임상의사결정지원시스템(CDSS, Clinical Decision Support System)은 암환자의 진단과 치료에 최적화된 정보를 제공하기 위해 전산화된 지식기반에 환자 개개인의 특징을 접목시켜 진료 시 임상적 의사결정을 돕기 위한 시스템으로 암환자 기본 정보를 통해 생존율을 도출하고 치료 결정 지원을 제시하는 시스템이다.
판독 오류를 줄이기 위해 시계열에 따른 종양의 크기, 개수, 새로운 병변의 발생을 추적하여 시간에 따른 추이의 변화를 확인하는 것이 필요하다.
본 발명은 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템으로 프로세서가, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 포함하여 종양의 시간에 따른 추이의 변화를 확인하는데 그 목적이 있다.
또한, 피검자의 영상을 전신 인체 이미지에 정합하여 조직의 변화를 확인하는데 또 다른 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
상기 과제를 해결하기 위해, 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법은, 프로세서가, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 포함한다.
여기서, 상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역이다.
여기서, 상기 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계는, 사전 설정된 샘플링 시간마다 생성된 상기 피검자의 3D 모델링 영상을 수집하는 단계, 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성하는 단계 및 상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성하는 단계를 포함한다.
여기서, 상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성하는 단계는, 상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 위치가 변화하는 경우, 상기 특징 영역의 크기가 변화하는 경우 또는 상기 특징 영역의 개수가 변화하는 경우, 해당 변화를 감지한 이벤트 발생 시각과 상기 특징 영역의 변화 정보를 포함하여 이벤트 발생 메시지를 생성한다.
여기서, 상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성하는 단계는, 상기 이벤트 발생 메시지에 포함된 상기 특징 영역의 변화 정보를 이용하여 시계열에 따른 종양의 크기, 개수 및 새로운 병변의 발생을 추적한다.
여기서, 상기 3D 모델링 영상을 생성하는 단계는, 상기 피검자의 CT 영상 촬영 후 상기 피검자 체내의 상기 특징 영역을 포함하는 단면 영상을 획득하는 단계, 상기 단면 영상을 기반으로 기 마련된 상기 피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성하는 단계, 상기 컨투어 이미지의 파일 포맷을 의료용 파일 포맷으로 변환하는 단계, 변환한 컨투어 이미지를 전신 모의체 이미지에 매칭하여 상기 피검자의 전신 맵핑 이미지를 생성하는 단계 및 상기 전신 맵핑 이미지의 볼륨 렌더링을 수행하여, 상기 피검자 체내의 특징 영역에 따른 3D 모델링 영상을 생성하는 단계를 포함한다.
여기서, 상기 단면 영상을 기반으로 기 마련된 상기 피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성하는 단계는, 상기 단면 영상에서 적어도 하나의 특징 영역을 확인하는 단계 및 상기 피검자의 단층 촬영 이미지에 확인한 상기 특징 영역 별로 윤곽선을 마킹하는 단계를 포함한다.
여기서, 상기 전신 맵핑 이미지의 볼륨 렌더링을 수행하여, 상기 피검자 체내의 특징 영역에 따른 3D 모델링 영상을 생성하는 단계는, 상기 전신 맵핑 이미지에서 마킹된 상기 특징 영역 별로 볼륨 렌더링을 수행하여 표면 볼륨 영상을 생성하는 단계 및 기 마련된 3D 전신 팬텀에 상기 표면 볼륨 영상을 정합하여 3D 모델링 영상을 생성하는 단계를 포함한다.
본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템은, 하나 이상의 인스트럭션을 저장하는 메모리, 상기 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서 및 진단 결과를 출력하는 출력부를 포함하고, 상기 프로세서는, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 수행한다.
여기서, 상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역이다.
여기서, 상기 프로세서는, 도식화된 시계열 데이터를 기반으로, 상기 피검자의 치료의 방향 방법을 설정한다.
여기서, 상기 프로세서는, 사전 설정된 샘플링 시간마다 생성된 상기 피검자의 3D 모델링 영상을 수집하는 단계, 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성하는 단계 및 상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성하는 단계를 수행한다.
여기서, 상기 프로세서는, 상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 위치가 변화하는 경우, 상기 특징 영역의 크기가 변화하는 경우 또는 상기 특징 영역의 개수가 변화하는 경우, 해당 변화를 감지한 이벤트 발생 시각과 상기 특징 영역의 변화 정보를 포함하여 이벤트 발생 메시지를 생성한다.
여기서, 상기 프로세서는, 상기 이벤트 발생 메시지에 포함된 상기 특징 영역의 변화 정보를 이용하여 시계열에 따른 종양의 크기, 개수 및 새로운 병변의 발생을 추적한다.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 프로세서가, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 포함하여 종양의 시간에 따른 추이의 변화를 확인할 수 있다.
또한, 피검자의 영상을 전신 인체 이미지에 정합하여 조직의 변화를 확인할 수 있다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 블록도이다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 화면을 예로 들어 도시한 것이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 특징을 설명하기 위한 도면이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 3D 모델링 영상 추적을 예로 들어 도시한 것이다.
도 10은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 시계열 데이터를 예로 들어 도시한 것이다.
도 11은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 단면 영상 획득을 예로 들어 도시한 것이다.
도 12는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 컨투어 이미지 생성을 예로 들어 도시한 것이다.
도 13은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 전신 맵핑 이미지 생성을 예로 들어 도시한 것이다.
도 14는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 볼륨 렌더링을 예로 들어 도시한 것이다.
도 15는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 3D 모델링 영상 생성을 예로 들어 도시한 것이다.
이하, 본 발명에 관련된 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명은 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템에 관한 것이다.
도 1은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 블록도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템(1)은 프로세서(10), 메모리(20), 입력부(30), 출력부(40), I/O 인터페이스(50)를 포함한다.
본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템(1)은 피검자의 단층 영상을 이용하여 종양의 시간에 따른 추이의 변화를 확인하고, 치료의 방법을 설정할 수 있는 진단 시스템이다.
임상의사결정지원시스템(CDSS, Clinical Decision Support System)은 암환자의 진단과 치료에 최적화된 정보를 제공하기 위해 전산화된 지식기반에 환자 개개인의 특징을 접목시켜 진료 시 임상적 의사결정을 돕기 위한 시스템으로 암환자 기본 정보를 통해 생존율을 도출하고 치료 결정 지원을 제시하는 시스템이다.
판독 오류를 줄이기 위해 시계열에 따른 종양의 크기, 개수, 새로운 병변의 발생을 추적하여 시간에 따른 추이의 변화를 확인하는 것이 필요하다.
본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템(1)은, 환자의 CT 이미지의 3D 모델링과 종양의 분절화에 따른 위치, 크기, 개수를 계산하고, 시계열에 따른 종양의 크기, 개수, 새로운 병변의 발생을 추적하여 시간에 따른 추이의 변화를 그래프로 전환한다.
이에 따라, 종양의 자연 발생적 변화 추리와 치료 약제에 따른 변환 추이 및 다이나믹스를 계산하고, 이를 시계열에 따른 시각화와 치료의 방향 방법 설정에 적용할 수 있다.
프로세서(10)는 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 수행한다.
프로세서(10)는 기능에 따라 복수 개의 모듈들로 구분될 수도 있고, 하나의 프로세서에서 기능들을 수행할 수도 있다.
메모리(20)는 프로세서(10)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다.
메모리(20)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있으며, 후술할 객체 유형 정보 인식부가 소프트웨어 모듈로 구성될 수 있다.
또한, 입력부(30)는 사용자가 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템을 제어하기 위한 데이터를 입력하는 수단을 의미한다. 입력부(30)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부(40)는 객체 인식에 관한 정보를 표시할 수 있다. 예를 들어, 출력부(40)는 프로세서(10)로부터 획득된 진단 결과를 표시할 수 있다.
I/O 인터페이스(50)는 시스템 또는 장비를 연결 할 수 있는 연결매체를 장착할 수 있는 장치로서 본 발명에서는 입력부 및 출력부와 프로세서를 연결한다.
또한, 영상 촬영부를 더 포함할 수 있으며, 영상 촬영부는 진단하고자 하는 피검자의 CT 영상을 촬영하며, 프로세서(10)는 상기 피검자를 촬영한 CT 영상으로부터 상기 피검자의 3D 모델링 영상을 생성하는 방법을 수행한다.
CT 영상에서의 종양 추적 방법은 하기 도 2 내지 도 4에서 상세히 설명한다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 설명하기 위한 흐름도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법은 프로세서가, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계(S100)에서 시작한다.
여기서, 상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역이다.
단계 S200에서 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성한다.
단계 S300에서 상기 시계열 데이터를 도식화한다.
단계 S400에서 도식화된 시계열 데이터를 기반으로, 상기 피검자의 치료의 방향 방법을 설정한다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법에서 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계(S100)는, 단계 S110에서 프로세서가, 피검자의 CT 영상 촬영 후 상기 피검자 체내의 특징 영역을 포함하는 단면 영상을 획득한다.
컴퓨터 단층 촬영(CT, Computed Tomography)은 가슴 X-선 사진과 같이 방사선을 사용하는 영상방법으로 심장과 혈관을 보기 위해 조영제를 투여하며 가슴을 위에서 아래쪽으로 일정간격의 단면으로 촬영한다.
단계 S120에서 상기 단면 영상을 기반으로 기 마련된 상기 피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성하며, 상기 단면 영상에서 적어도 하나의 특징 영역을 확인하는 단계 및 상기 피검자의 단층 촬영 이미지에 확인한 상기 특징 영역 별로 윤곽선을 마킹하는 단계를 포함한다.
여기서, 상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역이다.
구체적으로, 촬영된 단면영상으로부터 방사선 치료계획 수립을 위해 이미지상에 환자의 종양 및 내부 장기를 정의하여, 색상 별로 구별하여 마킹하게 된다.
단계 S130에서 상기 컨투어 이미지의 파일 포맷을 의료용 파일 포맷으로 변환한다.
구체적으로, 단층촬영 이미지와 그 위에 생성된 윤곽선(Contour)를 의료용 파일 포맷인 DICOM 포맷(각각 DICOM image 및 DICOM RT-Structure 포맷)으로 export 한다.
단계 S140에서 변환한 컨투어 이미지를 전신 모의체 이미지에 매칭하여 상기 피검자의 전신 맵핑 이미지를 생성한다.
단계 S140은 환자의 이미지 영상을 잘 만들어진 전신인체(computational phantoms, CPs) 이미지에 맞추는 단계이다.
일반적으로 전신인체 이미지는 환자 이미지와 좌표축이 맞지 않으며, 또한 환자 개인정보인 키, 몸무게, 장기의 위치 역시 맞지 않는다. 이 단계에서는 두 영상을 맞추는 기술 (e.g., Template matching, Image (rigid or deformable) registration 등)을 이용하여 실제 환자의 영상을 Phantom 영상에 맞추게 된다.
구체적으로, 상기 피검자의 신체 정보에 따라 상기 컨투어 이미지의 스케일을 변환하여 상기 전신 모의체 이미지와 템플릿을 일치시킨다.
이후, 스케일을 변환한 컨투어 이미지와 상기 전신 모의체 이미지의 템플릿이 중첩된 영역에 따른 밝기값의 차이 계산을 통해 매칭 위치를 탐색한다.
여기서, 상기 매칭 위치를 탐색하는 것은, 미리 결정된 제1 파라미터와 제2 파라미터를 기반으로 상기 스케일을 변환한 컨투어 이미지의 위치를 변경하고, 상기 중첩된 영역에 따른 밝기값의 차이에 따라 상기 제1 파라미터와 제2 파라미터를 조정한다.
예를 들어, 템플릿 매칭(template matching)을 활용한 두 이미지 맵핑(image mapping)은 두 영상의 스케일(scale), 위치 등을 변경해가면서 SAD(Sum of absolute differences) 가 가장 작을 때를 찾는 방법이다.
두 이미지의 intensity가 ls, lt 라고 할 때 SAD는 하기 수학식 1로 나타난다.
Figure PCTKR2021007295-appb-M000001
여기서, x, y는 두 영상의 매칭되는 좌표를 의미하며, i, j는 밝기값의 차이에 따라 조정되는 제1 파라미터와 제2 파라미터를 나타낸다.
단계 S150에서 상기 전신 맵핑 이미지의 볼륨 렌더링을 수행하여, 상기 피검자 체내의 특징 영역에 따른 3D 모델링 영상을 생성하며, 상기 전신 맵핑 이미지에서 마킹된 상기 특징 영역 별로 볼륨 렌더링을 수행하여 표면 볼륨 영상을 생성하는 단계 및 기 마련된 3D 전신 팬텀에 상기 표면 볼륨 영상을 정합하여 3D 모델링 영상을 생성하는 단계를 포함한다.
구체적으로, 환자 단층영상에 그려진 컨투어(Contour) 정보를 통해 volume rendering을 수행하여 surface volume (또는 3D volume)로 구현하고, 변환된 Surface volume을 미리 생성된 3D 전산팬텀에 위치시켜 이를 시각화(visualization)하게 된다.
여기서, 특징 영역별로 생성되는 Surface volume을 시간의 순서에 따라 3D 전산팬텀에 위치시켜 시간의 흐름에 따른 조직의 위치와 크기의 변화를 하나의 팬텀에 나타낼 수 있게 된다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법에서 상기 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계(S200)는, 단계 S210에서 사전 설정된 샘플링 시간마다 생성된 상기 피검자의 3D 모델링 영상을 수집한다.
단계 S220에서 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성한다.
구체적으로, 상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 위치가 변화하는 경우, 상기 특징 영역의 크기가 변화하는 경우 또는 상기 특징 영역의 개수가 변화하는 경우, 해당 변화를 감지한 이벤트 발생 시각과 상기 특징 영역의 변화 정보를 포함하여 이벤트 발생 메시지를 생성한다.
예를 들어, 촬영된 단면영상으로부터 방사선 치료계획 수립을 위해 이미지상에 환자의 종양 및 내부 장기를 정의하여, 색상 별로 구별하여 마킹하게 되므로, 추적 시에는 구별하여 마킹된 정보들끼리의 변화만을 확인하면 되므로 종양의 변화를 확인하기에 용이하다.
새로 마킹된 영역과 이전의 마킹 영역의 색상은 같으나, 위치가 달라진 경우 종양의 이동으로 판별하고 이 때의 진단 시각과 변화 내용을 기록한다.
이전의 마킹 영역에 비해 새로운 모델링 영상에서 마킹된 영역이 작거나 클 경우에 종양의 변화가 있음을 감지하고 이 때의 진단 시각과 변화 내용을 기록하여 이벤트 발생 메시지를 생성하게 된다.
또한, 기 마킹된 정보 이외에 새로운 종양이 나타나 새로운 영역이 마킹된 경우에 진단 시각과 변화 내용을 기록하여 이벤트 발생 메시지를 생성하게 된다.
시간의 흐름에 따라 이벤트 발생 메시지를 생성하여 기록한 이후에, 변화 내용에 따라 병변을 진단하여 시계열 데이터를 생성하게 되는 것이다.
단계 S230에서 상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성한다.
구체적으로, 상기 이벤트 발생 메시지에 포함된 상기 특징 영역의 변화 정보를 이용하여 시계열에 따른 종양의 크기, 개수 및 새로운 병변의 발생을 추적한다.
이벤트 발생 메시지에서 종양의 크기가 변하는 경우와 종양의 위치가 이동하는 경우 환자의 상태를 기록하며, 새로운 종양이 나타나는 경우에 새로운 병변의 발생을 추적하게 된다.
도 5는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 화면을 예로 들어 도시한 것이다.
본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템(1)은 임상의사결정지원시스템 (CDSS, Clinical Decision Support System)을 이용하는 것으로 환자의 CT 이미지의 3D 모델링과 종양의 분절화에 따른 위치, 크기, 개수를 계산하고, 시계열에 따른 종양의 크기, 개수, 새로운 병변의 발생을 추적하여 시간에 따른 추이의 변화를 확인하는 것이다.
도 5는 암환자의 진단과 치료에 최적화된 정보를 제공하기 위해 전산화된 지식기반에 환자 개개인의 특징을 접목시켜 진료 시 임상적 의사결정을 돕기 위한 시스템을 나타낸 것이다. 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템(1)은 시간의 흐름에 따른 조직의 위치와 크기의 변화를 하나의 전신 팬텀에 나타낼 수 있으므로 환자의 진단 모니터링 시스템에서 시계열적 변화를 확인할 수 있다.
구체적으로, 도 5의 모델링 이미지 화면(111)을 통해 피검자의 3D 모델링 영상을 확인할 수 있다.
모델링 이미지 화면(111)의 상단에는 시간의 흐름을 나타낼 수 있는 슬라이딩 바(112)가 표시되어 있으므로, 슬라이딩 바를 드래그하여 시간의 흐름에 따른 3D 모델링 영상의 변화를 확인할 수 있다.
또한, 시계열 데이터를 그래프로 나타낸 그래프 화면과 트리구조(113)를 표시한다.
그래프는 피검자의 통합 검사 결과를 나타내는 것으로 실시예에서는 종양 표지자를 도시하였다.
또한, 정보 제공 화면(114)은 Knowledge based 맞춤형 의학 정보를 제공한다.
하단에는 피검자의 타임라인(115)이 표시되며, 피검자의 상태가 시간의 흐름에 따라 기록된다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 특징을 설명하기 위한 도면이다.
도 6 및 도 7을 참조하면, 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템은 모델링 이미지 표시부(121, 131), 진료 지원 모형 표시부(122, 132), 정보 제공부(123, 133), 시계열 분석부(124, 125, 134)를 포함한다.
본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템은 환자 진료에 있어 종양의 위치, 형태학적 정보를 시계열적인 흐름에 따라 3D 이미지에 표기함으로써 진단과 치료 효과에 대한 환자 이해도를 높인다.
모델링 이미지 표시부(121, 131)는 환자 진료에 있어 종양의 위치, 형태학적 정보를 시계열적인 흐름에 따라 3D 이미지에 표기함으로써 진단과 치료 효과에 대한 환자 이해도를 높이다. 이에 따라 정보의 직시가 가능하며, 의료진과 환자간의 의사소통 용이하게 된다.
영상 이미지 vectorization 시스템 모듈에 대한 신규 개발 및 환자 진료에 접목하며, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 것을 반복하여 시간의 흐름에 따라 종양의 변화만을 확인할 수 있다.
진료 지원 모형 표시부(122, 132)는 예측 모델 알고리즘 기반 구축을 통해 암환자 진료 지원 모형을 개발한다. (환자 생존율 비교, 치료 경과에 따른 재발 위험도 알고리즘 개발 등)
암 환자의 치료 전략을 확인하고, Dynamic treatment regimen을 결정하여 데이터 기반 생존, 재발, 치료 근거를 제시할 수 있다.
구체적으로, 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하고 시계열 데이터를 생성하여 환자의 병변을 확인함에 따라, 해당 변화 사항에 따른 데이터를 이용하여 치료 전략을 확인하게 된다.
정보 제공부(123, 133)는 Knowledge based 맞춤형 의학 정보를 제공한다. 본 발명에 따르면 인공지능 모델을 이용하며, 기존 데이터 기반 지식과 최신의 전문가 지식과 결합을 통한 진단 및 치료 영역의 확장이 가능해진다.
시계열 분석부(124, 125, 134)는 암 환자 임상 데이터 추출 및 통합 data mining을 구축한다.
암환자 임상 빅데이터 표준화 및 임상 정보 분류체계 신규 정립하고, 환자 데이터의 TimeSeries 정보를 시각화하여 진단 및 치료의 신속/정확성 향상에 도움을 준다.
암 환자 데이터의 시계열 모형 적용으로 status 변동 형태 파악과 이를 통한 예측 가능하고, 최소한의 데이터로 환자의 치료 정보 흐름 및 특징 확인이 가능하다.
예를 들어, 도 6을 참조하면, 시계열 분석부(124, 125)는 환자의 내원 및 수술 상태, 영상 검사, 기능 검사, 진단 검사, 병리 검사 결과를 순차적으로 기록한다.
또한, 도 7을 참조하면, 시계열 분석부(134)는 각 진단에서 나타난 결과를 타임라인에 플래그로 표시하게 된다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 3D 모델링 영상 추적을 예로 들어 도시한 것이다.
도 8의 (a)와 (b)는 시간의 흐름에 따라 저장되어, 최신의 영상만으로 판독했던 경우와 달리, 기존의 영상과 현재의 영상을 비교하는 것이 가능해진다.
도 9를 참조하면, 도 9의 (a)의 전신 팬텀(P)에서 초기에 종양(141, 142, 143)이 표시되고, 도 9의 (b)에서 같은 전신 팬텀(P)에 종양을 표시하여 시간의 흐름에 따라 새로운 종양(144, 145)의 생성과 이전에 표시되었던 종양은 크기의 변화를 확인하게 된다.
도 10은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템의 시계열 데이터를 예로 들어 도시한 것이다.
도 10의 (a)는 시간에 따른 추이의 변화를 그래프로 전환한 것을 도시한 것이다.
구체적으로, 시간의 흐름에 따라 기준선에서의 표적 병변의 변화를 나타내며, 각각 완전한 반응, 부분적인 반응, 진행, 새로운 병변의 발생 등을 확인할 수 있다.
도 10의 (b)는 시계열에 따른 종양의 크기, 개수, 새로운 병변의 발생을 추적하는 과정을 나타낸 것이다.
이에 따라, 계산한 상기 종양의 자연 발생적 변화 추리와 치료 약제에 따른 변환 추이 및 다이나믹스를 이용하여, 상기 시계열에 따른 시각화와 치료의 방향 방법을 설정할 수 있다.
도 11은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 단면 영상 획득을 예로 들어 도시한 것이다.
도 11의 (a)에 나타난 바와 같이, 영상 촬영부는 진단하고자 하는 피검자의 CT 영상을 촬영한다.
컴퓨터 단층 촬영(CT, Computed Tomography)은 가슴 X-선 사진과 같이 방사선을 사용하는 영상방법으로 심장과 혈관을 보기 위해 조영제를 투여하며 가슴을 위에서 아래쪽으로 일정간격의 단면으로 촬영한다.
얇은 단면으로 영상을 얻기 때문에 삼차원적인 해부학적 정보를 쉽게 이해할 수 있게 되어 동맥궁의 이상이나 초음파로는 확인이 힘든 측부 동맥, 폐정맥 등의 혈관과 폐동맥 분지의 협착 등을 삼차원 합성 영상으로 표현하여 진단할 수 있고, 심장, 혈관뿐 아니라 기도와 폐, 다른 장기의 이상도 함께 볼 수 있는 장점이 있다.
도 11의 (b)에 나타난 바와 같이, 프로세서는, 피검자의 CT 영상 촬영 후 상기 피검자 체내의 특징 영역을 포함하는 단면 영상을 획득한다.
여기서, 상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역이다.
도 12는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 컨투어 이미지 생성을 예로 들어 도시한 것이다.
도 12에 나타난 바와 같이, 프로세서는 상기 단면 영상을 기반으로 기 마련된 상기 피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성한다.
여기서, 상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역이다.
구체적으로, 촬영된 단면영상으로부터 방사선 치료계획 수립을 위해 이미지상에 환자의 종양 및 내부 장기를 정의하여, 색상 별로 구별하여 마킹하게 된다.
예를 들어, 피검자의 단층 촬영 이미지에 피검자의 외면(external)에 해당하는 제1 특징 영역(221)을 마킹하고, 뇌줄기(brain stem)에 해당하는 제2 특징 영역(222)을 마킹한다. 또한, 제3 특징 영역(223)인 뇌 영역(223)을 구분하여 마킹할 수 있으며, 뇌 영역은 해마(hippocampus), 시교차(optic chiasm), 뇌궁(fornix)을 포함한다.
마킹 테이블(224)을 통해 마킹된 색상에 따라 피검자의 특징 영역들이 어떤 위치를 표시한 것인지 확인할 수 있다.
도 13은 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 전신 맵핑 이미지 생성을 예로 들어 도시한 것이다.
프로세서는 상기 컨투어 이미지의 파일 포맷을 의료용 파일 포맷으로 변환한다. 구체적으로, 단층촬영 이미지와 그 위에 생성된 윤곽선(Contour)를 의료용 파일 포맷인 DICOM 포맷(각각 DICOM image 및 DICOM RT-Structure 포맷)으로 export 한다.
보내기(export)하는 것은 특별한 형식의 데이터를 사용하는 프로그램이 자신의 데이터를 다른 프로그램이 사용할 수 있는 형태로 디스크 등에 저장하는 것을 의미한다. 예컨대, 데이터 베이스 프로그램의 데이터 레코드들을 아스키 텍스트 파일로 디스크에 저장한 다음 스프레드시트로 그것을 읽어서 처리할 수 있다.
피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성하면, 마킹된 색상에 따라 피검자의 특징 영역들이 어떤 위치를 표시한 것인지 확인할 수 있으며, 마킹된 생삭과 매칭되는 특징 영역에 관한 정보들을 테이터 테이블로 변환하여 저장하게 된다.
이후, 도 13에 나타난 바와 같이, 프로세서는 상기 컨투어 이미지를 전신 모의체 이미지에 매칭하여 상기 피검자의 전신 맵핑 이미지를 생성하며, 환자의 이미지 영상을 잘 만들어진 전신인체(computational phantoms, CPs) 이미지에 맞추게 된다.
도 13의 (a)는 환자 이미지를 나타낸 것이고, 도 13의 (b)는 환자 이미지를 나타낸 것이고, 전신 모의체 이미지인 Phantom 영상을 나타낸 것이다.
일반적으로 전신인체 이미지는 환자 이미지와 좌표축이 맞지 않으며, 또한 환자 개인정보인 키, 몸무게, 장기의 위치 역시 맞지 않는다. 이 단계에서는 두 영상을 맞추는 기술 (e.g., Template matching, Image (rigid or deformable) registration 등)을 이용하여 실제 환자의 영상을 Phantom 영상에 맞추게 된다.
구체적으로, 상기 피검자의 신체 정보에 따라 상기 컨투어 이미지의 스케일을 변환하여 상기 전신 모의체 이미지와 템플릿을 일치시킨다.
예를 들어, 피검자의 신체 정보와 전신 모의체 이미지의 사이즈에 따라 비율을 조정하게 된다.
이후, 스케일을 변환한 컨투어 이미지와 상기 전신 모의체 이미지의 템플릿이 중첩된 영역에 따른 밝기값의 차이 계산을 통해 매칭 위치를 탐색하게 되며, 도 13의 (a)에 나타난 바와 같이, 스케일을 변환한 컨투어 이미지는 특징 영역들(411, 412, 413, 414, 415)별로 조정되어 전신 모의체 이미지에 매칭되는 것이 바람직하다.
여기서, 상기 매칭 위치를 탐색하는 것은, 미리 결정된 제1 파라미터와 제2 파라미터를 기반으로 상기 스케일을 변환한 컨투어 이미지의 위치를 변경하고, 상기 중첩된 영역에 따른 밝기값의 차이에 따라 상기 제1 파라미터와 제2 파라미터를 조정한다.
예를 들어, 템플릿 매칭(template matching)을 활용한 두 이미지 맵핑(image mapping)은 두 영상의 스케일(scale), 위치 등을 변경해가면서 SAD(Sum of absolute differences) 가 가장 작을 때를 찾는 방법을 이용하며 상기 수학식 1을 이용하여 계산될 수 있다.
도 14는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 볼륨 렌더링을 예로 들어 도시한 것이다.
도 14에 나타난 바와 같이, 프로세서는 상기 전신 맵핑 이미지에서 마킹된 상기 특징 영역 별로 볼륨 렌더링을 수행하여 표면 볼륨 영상을 생성한다.
즉, 환자 단층영상에 그려진 컨투어(Contour) 정보를 통해 volume rendering을 수행하여 surface volume (또는 3D volume)로 구현한다.
도 14는 Volume rendering을 통해 생성된 폐(lung)의 surface volume을 나타낸 것으로, 도 9의 (a)와 같이 컨투어 이미지를 도 14의 (b)와 같은 표면 볼륨 영상으로 구현한다.
볼륨 렌더링(Volume rendering)은 의료영상 데이터를 필터링하거나 세그멘테이션(segmentation)하지 않고 그대로 보여줌으로써 병을 진단하거나 조직을 떼어내거나 자르거나 깎아내는 등의 시술을 하는 의료용 시뮬레이터에 적용하기 좋은 방법으로, 볼륨 데이터로부터 유용한 영상 정보를 추출하여 렌더링한다.
볼륨 데이터란 복셀(voxel)이라고 하는 기본 요소로 구성되며, 각 복셀은 고유의 밀도, 불투명도, 색깔 등을 가질 수 있다. CT, MRI와 같은 전산화 단층 촬영 장치로 인체 내부에 대한 연속된 단면 영상을 얻어낸 후 인체의 3차원적 구조를 재구성함으로써, 내시경 카메라로 보는 것과 같은 가상의 3차원 영상을 만들어낼 수 있다.
도 15는 본 발명의 일 실시예에 따른 CT 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템의 3D 모델링 영상 생성을 예로 들어 도시한 것이다.
도 15에 나타난 바와 같이, 프로세서는 기 마련된 3D 전신 팬텀에 상기 표면 볼륨 영상을 정합하여 3D 모델링 영상을 생성한다.
변환된 Surface volume을 미리 생성된 3D 전산팬텀에 위치시켜 이를 시각화(visualization)하게 된다.
도 15를 참조하면, 특징 영역 테이블(540)별로 마킹된 제1 특징 영역(521), 제2 특징 영역(522), 제3 특징 영역(523), 제4 특징 영역(524), 제5 특징 영역(525)별로 Surface volume을 생성하여, 미리 생성된 3D 전산팬텀의 제1 특징 영역의 표면 볼륨 영상(531), 제2 특징 영역의 표면 볼륨 영상(532), 제3 특징 영역의 표면 볼륨 영상(533), 제4 특징 영역의 표면 볼륨 영상(534), 제5 특징 영역의 표면 볼륨 영상(535)을 각각 표시하게 된다.
또한, 특징 영역별로 생성되는 Surface volume을 시간의 순서에 따라 3D 전산팬텀에 위치시켜 시간의 흐름에 따른 조직의 위치와 크기의 변화를 하나의 팬텀에 나타낼 수 있게 된다.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (14)

  1. CT 영상에서의 종양 추적 방법에 있어서,
    피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계;
    상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계; 및
    상기 시계열 데이터를 도식화하는 단계;를 포함하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  2. 제1항에 있어서,
    상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역인 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  3. 제1항에 있어서,
    상기 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계는,
    사전 설정된 샘플링 시간마다 생성된 상기 피검자의 3D 모델링 영상을 수집하는 단계;
    수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성하는 단계; 및
    상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  4. 제3항에 있어서,
    상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성하는 단계는,
    상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 위치가 변화하는 경우, 상기 특징 영역의 크기가 변화하는 경우 또는 상기 특징 영역의 개수가 변화하는 경우, 해당 변화를 감지한 이벤트 발생 시각과 상기 특징 영역의 변화 정보를 포함하여 이벤트 발생 메시지를 생성하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  5. 제4항에 있어서,
    상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성하는 단계는,
    상기 이벤트 발생 메시지에 포함된 상기 특징 영역의 변화 정보를 이용하여 시계열에 따른 종양의 크기, 개수 및 새로운 병변의 발생을 추적하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  6. 제4항에 있어서,
    상기 3D 모델링 영상을 생성하는 단계는,
    상기 피검자의 CT 영상 촬영 후 상기 피검자 체내의 상기 특징 영역을 포함하는 단면 영상을 획득하는 단계;
    상기 단면 영상을 기반으로 기 마련된 상기 피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성하는 단계;
    상기 컨투어 이미지의 파일 포맷을 의료용 파일 포맷으로 변환하는 단계;
    변환한 컨투어 이미지를 전신 모의체 이미지에 매칭하여 상기 피검자의 전신 맵핑 이미지를 생성하는 단계; 및
    상기 전신 맵핑 이미지의 볼륨 렌더링을 수행하여, 상기 피검자 체내의 특징 영역에 따른 3D 모델링 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  7. 제6항에 있어서,
    상기 단면 영상을 기반으로 기 마련된 상기 피검자의 단층 촬영 이미지에 상기 특징 영역을 마킹하여 컨투어 이미지를 생성하는 단계는,
    상기 단면 영상에서 적어도 하나의 특징 영역을 확인하는 단계; 및
    상기 피검자의 단층 촬영 이미지에 확인한 상기 특징 영역 별로 윤곽선을 마킹하는 단계;를 포함하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  8. 제7항에 있어서,
    상기 전신 맵핑 이미지의 볼륨 렌더링을 수행하여, 상기 피검자 체내의 특징 영역에 따른 3D 모델링 영상을 생성하는 단계는,
    상기 전신 맵핑 이미지에서 마킹된 상기 특징 영역 별로 볼륨 렌더링을 수행하여 표면 볼륨 영상을 생성하는 단계; 및
    기 마련된 3D 전신 팬텀에 상기 표면 볼륨 영상을 정합하여 3D 모델링 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법.
  9. 하나 이상의 인스트럭션을 저장하는 메모리;
    상기 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서; 및
    진단 결과를 출력하는 출력부;를 포함하고,
    상기 프로세서는, 피검자의 CT 영상을 기반으로 상기 피검자 체내의 적어도 하나의 특징 영역을 포함하는 3D 모델링 영상을 생성하는 단계, 상기 3D 모델링 영상에서 상기 피검자의 특징 영역에 대해 시간의 흐름에 따른 변화를 추적하여 시계열 데이터를 생성하는 단계 및 상기 시계열 데이터를 도식화하는 단계를 수행하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템.
  10. 제9항에 있어서,
    상기 특징 영역은, 상기 피검자의 종양 및 내부 장기를 포함하는 영역인 것을 특징으로 하는 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템.
  11. 제9항에 있어서,
    상기 프로세서는, 도식화된 시계열 데이터를 기반으로, 상기 피검자의 치료의 방향 방법을 설정하는 단계를 수행하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템.
  12. 제9항에 있어서,
    상기 프로세서는, 사전 설정된 샘플링 시간마다 생성된 상기 피검자의 3D 모델링 영상을 수집하는 단계, 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 변화를 감지하는 경우, 이벤트 발생 메시지를 생성하는 단계 및 상기 이벤트 발생 메시지들을 분석하여 상기 시계열 데이터를 생성하는 단계를 수행하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템.
  13. 제12항에 있어서,
    상기 프로세서는, 상기 수집된 3D 모델링 영상을 비교하여 상기 특징 영역의 위치가 변화하는 경우, 상기 특징 영역의 크기가 변화하는 경우 또는 상기 특징 영역의 개수가 변화하는 경우, 해당 변화를 감지한 이벤트 발생 시각과 상기 특징 영역의 변화 정보를 포함하여 이벤트 발생 메시지를 생성하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템.
  14. 제13항에 있어서,
    상기 프로세서는, 상기 이벤트 발생 메시지에 포함된 상기 특징 영역의 변화 정보를 이용하여 시계열에 따른 종양의 크기, 개수 및 새로운 병변의 발생을 추적하는 것을 특징으로 하는 CT 영상에서의 종양 추적 방법을 이용한 진단 시스템.
PCT/KR2021/007295 2020-06-12 2021-06-10 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템 WO2021251776A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/064,032 US20230162358A1 (en) 2020-06-12 2022-12-09 Method for tracking tumor in ct image and system for diagnosing using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0071460 2020-06-12
KR1020200071460A KR102428617B1 (ko) 2020-06-12 2020-06-12 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/064,032 Continuation US20230162358A1 (en) 2020-06-12 2022-12-09 Method for tracking tumor in ct image and system for diagnosing using the same

Publications (1)

Publication Number Publication Date
WO2021251776A1 true WO2021251776A1 (ko) 2021-12-16

Family

ID=78845755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/007295 WO2021251776A1 (ko) 2020-06-12 2021-06-10 Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템

Country Status (3)

Country Link
US (1) US20230162358A1 (ko)
KR (1) KR102428617B1 (ko)
WO (1) WO2021251776A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206969A (ja) * 2007-01-30 2008-09-11 Toshiba Corp 診療支援システム、診療支援装置及び診療支援プログラム
JP2012513279A (ja) * 2008-12-23 2012-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療異常監視システム及びその操作方法
KR20160051161A (ko) * 2014-10-31 2016-05-11 삼성메디슨 주식회사 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
JP2019000387A (ja) * 2017-06-15 2019-01-10 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US20200005496A1 (en) * 2015-10-21 2020-01-02 Carestream Health, Inc. Apparatus and method for scattered radiation correction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206969A (ja) * 2007-01-30 2008-09-11 Toshiba Corp 診療支援システム、診療支援装置及び診療支援プログラム
JP2012513279A (ja) * 2008-12-23 2012-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療異常監視システム及びその操作方法
KR20160051161A (ko) * 2014-10-31 2016-05-11 삼성메디슨 주식회사 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
US20200005496A1 (en) * 2015-10-21 2020-01-02 Carestream Health, Inc. Apparatus and method for scattered radiation correction
JP2019000387A (ja) * 2017-06-15 2019-01-10 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US20230162358A1 (en) 2023-05-25
KR20210154447A (ko) 2021-12-21
KR102428617B1 (ko) 2022-08-03

Similar Documents

Publication Publication Date Title
WO2019135501A1 (ko) Ivus 영상 분석방법
JP5222082B2 (ja) 情報処理装置およびその制御方法、データ処理システム
WO2019103440A1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
WO2016126056A1 (ko) 의료정보 제공 장치 및 의료정보 제공 방법
WO2021025461A1 (ko) 초음파 영상 기반의 기계 학습을 통한 관상동맥 병변 진단 시스템 및 이의 진단 방법
WO2014208971A1 (en) Ultrasound image display method and apparatus
WO2015041451A1 (ko) 촉각 영상 및 근적외선 영상의 정합을 이용한 유방촬영용 영상진단기기 및 유방조직 영상획득방법
WO2019039887A1 (ko) Ct 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션
JP6830082B2 (ja) 歯科分析システムおよび歯科分析x線システム
WO2015147595A1 (ko) 의료 영상에서 아티팩트와 병변을 구분하는 방법
WO2019132244A1 (ko) 수술 시뮬레이션 정보 생성방법 및 프로그램
JP5539478B2 (ja) 情報処理装置および情報処理方法
Ezquerra et al. PERFEX: an expert system for interpreting 3D myocardial perfusion
WO2021206518A1 (ko) 수술 후 수술과정 분석 방법 및 시스템
WO2021206517A1 (ko) 수술 중 혈관 네비게이션 방법 및 시스템
WO2024111914A1 (ko) 범용성이 향상된 인공지능에 의한 의료영상 변환방법 및 그 장치
WO2021251776A1 (ko) Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템
WO2014192990A1 (ko) 혈관영상에서의 움직임 추정 방법 및 그 장치
WO2021251777A1 (ko) 전신 ct 스캔 3d 모델링 방법 및 시스템
WO2022139068A1 (ko) 딥러닝 기반의 폐질환 진단 보조 시스템 및 딥러닝 기반의 폐질환 진단 보조 방법
WO2021177771A1 (ko) 의료 영상으로부터 바이오마커 발현을 예측하는 방법 및 시스템
JP2003033327A (ja) 画像情報による診断支援装置
KR102095731B1 (ko) 딥러닝 기반의 보조 진단 시스템의 mra 영상 학습 방법 및 혈관 병변 보조 진단 방법
WO2020159276A1 (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
WO2017200132A1 (ko) 수면성 호흡장애 진단장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21822289

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 19.04.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21822289

Country of ref document: EP

Kind code of ref document: A1