KR20200085012A - 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치 - Google Patents

폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치 Download PDF

Info

Publication number
KR20200085012A
KR20200085012A KR1020190001001A KR20190001001A KR20200085012A KR 20200085012 A KR20200085012 A KR 20200085012A KR 1020190001001 A KR1020190001001 A KR 1020190001001A KR 20190001001 A KR20190001001 A KR 20190001001A KR 20200085012 A KR20200085012 A KR 20200085012A
Authority
KR
South Korea
Prior art keywords
image
ggo
boundary
deep learning
unit
Prior art date
Application number
KR1020190001001A
Other languages
English (en)
Other versions
KR102236617B1 (ko
Inventor
이현주
김광기
김영재
Original Assignee
서울대학교병원
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 가천대학교 산학협력단 filed Critical 서울대학교병원
Priority to KR1020190001001A priority Critical patent/KR102236617B1/ko
Publication of KR20200085012A publication Critical patent/KR20200085012A/ko
Application granted granted Critical
Publication of KR102236617B1 publication Critical patent/KR102236617B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치가 개시된다. 개시되는 일 실시예에 따른 장치는, 하나 이상의 프로세서들, 및 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 영상 획득부, 제1 딥러닝 모듈을 통해 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 제1 경계 검출부, 제2 딥러닝 모듈을 통해 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 제2 경계 검출부, 및 검출된 GGO 부분의 경계를 기반으로 GGO 부분의 크기를 측정하고, 검출된 솔리드 부분의 경계를 기반으로 솔리드 부분의 크기를 측정하는 크기 측정부를 포함한다.

Description

폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치{METHOD FOR MEASURING LUNG CANCER TUMOR SIZE AND APPARATUS FOR EXECUTINT THE METHOD}
본 발명의 실시예는 폐암 종양 크기 측정 기술과 관련된다.
일반적으로, 암 환자의 예후를 예측하기 위해 암 스테이징(Cancer Staging)을 측정하게 된다. 암 스테이징은 TNM(Tumor-Node-Metastasis)로 판단하는데, T(Tumor)는 종양의 크기를 나타내고, N(Node)는 임파선에 퍼진 정도를 나타내며, M(Metastasis)는 다른 장기로의 전이 여부를 나타낸다. 이 중 종양의 크기는 암 환자의 예후를 예측하는데 중요한 판단 요소가 되는 바, 종양의 크기를 정확하게 측정하는 것이 중요하다.
한편, 폐암의 경우 CT(Computed Tomography) 영상에 GGO(Ground Glass Opacity : 간유리음영)가 포함되어 있으면, Solid 부분(고형 부분)의 볼륨과 GGO 부분의 볼륨을 별도로 측정하는 것이 암 스테이징을 판단하는데 중요한 요소가 된다.
한국등록특허공보 제10-1664159호(2016.10.12)
본 발명의 실시예는 종양 촬영 영상에서 GGO 부분 및 솔리드(Solid) 부분의 크기를 각각 측정할 수 있는 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치를 제공하기 위한 것이다.
개시되는 일 실시예에 따른 장치는, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 영상 획득부; 제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 제1 경계 검출부; 제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 제2 경계 검출부; 및 상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하고, 상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 크기 측정부를 포함한다.
상기 제1 경계 검출부는, 상기 종양 촬영 영상을 기 설정된 제1 하운스필드 단위 레인지를 가지는 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성하는 제1 영상 변환부; 및 상기 GGO 포션 영상을 입력 받아 상기 GGO 포션 영상에서 GGO 부분의 경계를 검출하는 제1 딥러닝부를 포함할 수 있다.
상기 제1 윈도우는, 하운스필드 단위의 기 설정된 제1 윈도우 레벨을 기준으로 기 설정된 제1 윈도우 폭을 가지도록 마련될 수 있다.
상기 컴퓨팅 장치는, 상기 생성된 GGO 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징된 GGO 포션 영상을 상기 제1 딥러닝부로 전달하는 제1 영상 리사이징부를 더 포함할 수 있다.
상기 제1 딥러닝부는, GGO 포션 영상이 입력되는 경우, 입력된 GGO 포션 영상에서 GGO 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함할 수 있다.
상기 제2 경계 검출부는, 상기 종양 촬영 영상을 기 설정된 제2 하운스필드 단위 레인지를 가지는 제2 윈도우를 통해 영상 변환하여 솔리드 포션 영상을 생성하는 제2 영상 변환부; 및 상기 솔리드 포션 영상 및 상기 GGO 부분의 경계 정보를 입력 받아 상기 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하는 제2 딥러닝부를 포함할 수 있다.
상기 제2 윈도우는, 상기 제1 윈도우 레벨 보다 하운스필드 단위 값이 높은 제2 윈도우 레벨을 기준으로 상기 제1 윈도우 폭보다 좁은 범위의 제2 윈도우 폭을 가지도록 마련될 수 있다.
상기 컴퓨팅 장치는, 상기 생성된 솔리드 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징 된 솔리드 포션 영상을 상기 제2 딥러닝부로 전달하는 제2 영상 리사이징부를 더 포함할 수 있다.
상기 제2 딥러닝부는, 솔리드 포션 영상 및 GGO 부분의 경계 정보가 입력되는 경우, 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함할 수 있다.
개시되는 일 실시예에 따른 방법은, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 단계; 제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 단계; 제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 단계; 상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하는 단계; 및 상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 단계를 포함한다.
개시되는 실시예에 의하면, GGO를 포함하는 종양 촬영 영상에서 딥러닝 기술을 이용하여 GGO 부분 및 솔리드 부분의 크기를 각각 측정함으로써, GGO 부분 및 솔리드 부분의 크기를 신속하고 정확하게 측정할 수 있으며, 그로 인해 폐암 스테이징에서 환자 예후의 중요한 판단 요소가 되는 T(Tumor) 스테이지를 정확하게 판단할 수 있게 된다.
도 1은 7번째 판 폐암 스테이징에서 폐결절의 볼륨을 측정하는 상태를 나타낸 도면
도 2는 8번째 판 폐암 스테이징에서 폐결절의 볼륨을 측정하는 상태를 나타낸 도면
도 3은 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치의 구성을 나타낸 도면
도 4는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치에서 제1 경계 측정부 및 제2 경계 측정부의 구성을 나타낸 도면
도 5는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 방법을 나타낸 흐름도
도 6은 본 발명의 일 실시예에 따른 종양 촬영 영상에서 GGO 포션 영상 및 솔리드 포션 영상을 각각 생성하는 상태를 나타낸 도면
도 7은 본 발명의 실시예에 따른 딥러닝에 의한 경계 검출과 전문가에 의한 경계 검출을 비교한 도면
도 8은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다. 또한 본 명세서에 있어서, 2 이상의 데이터 또는 정보가 "관련"된다는 것은 하나의 데이터(또는 정보)를 획득하면, 그에 기초하여 다른 데이터(또는 정보)의 적어도 일부를 획득할 수 있음을 의미한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
이전 판(즉, 7번째 판) 폐암 스테이징(Lung Cancer Staging)에서는 도 1에 도시된 바와 같이, CT(Computed Tomography) 영상에 GGO(Ground Glass Opacity : 간유리음영)가 포함되어 있는 경우, GGO 부분 전체를 포함하여 폐 결절의 볼륨을 측정하고 그에 따라 T(Tumor) 스테이지를 판단하였다.
그러나, 2017년 발행된 8번째 판(8th edition) 폐암 스테이징(Lung Cancer Staging)에서는 CT(Computed Tomography) 영상에 GGO가 포함되어 있는 경우, 도 2에 도시된 바와 같이 Solid 부분(고형 부분)의 볼륨만을 측정하여 T(Tumor) 스테이지를 판단하는 것으로 변경되었다. 즉, 임상적으로 Solid 부분(고형 부분)의 바깥쪽에 GGO를 포함하고 있으며 환자의 예후가 더 좋은 것으로 알려짐에 따라, GGO 부분을 포함하는 전체 볼륨이 아닌 Solid 부분의 볼륨만을 측정하여 T 스테이지를 판단하는 것으로 하였다.
이에 본 발명의 실시예에서는 환부 촬영 영상(예를 들어, CT, MRI 등)에 GGO가 포함되어 있는 경우, 딥 러닝(Deep Learning) 기술을 이용하여 GGO 부분과 Solid 부분의 볼륨을 각각 측정하기 위한 기술을 포함한다.
도 3은 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치의 구성을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 장치에서 제1 경계 측정부 및 제2 경계 측정부의 구성을 나타낸 도면이다.
도 3 및 도 4를 참조하면, 폐암 종양 크기 측정 장치(100)는 영상 획득부(102), 제1 경계 검출부(104), 제2 경계 검출부(106), 및 크기 측정부(108)를 포함할 수 있다.
영상 획득부(102)는 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득할 수 있다. 예시적인 실시예서, 종양 촬영 영상은 CT(Computed Tomography) 영상일 수 있으나, 이에 한정되는 것은 아니며 그 이외에 MRI(Magnetic Resonance Imaging) 영상, 초음파 영상 등을 포함할 수 있다. 이하에서는, 종양 촬영 영상이 CT 영상인 것으로 설명하기로 한다.
제1 경계 검출부(104)는 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출할 수 있다. 제1 경계 검출부(104)는 제1 영상 변환부(111), 제1 영상 리사이징부(113), 및 제1 딥러닝부(115)를 포함할 수 있다.
제1 영상 변환부(111)는 종양 촬영 영상을 기 설정된 제1 하운스필드 단위(Hounsfield Unit : HU) 레인지(Range)를 가지는 윈도우(이하, "제1 윈도우"로 지칭할 수 있음)를 통해 영상 변환할 수 있다. 제1 영상 변환부(111)는 종양 촬영 영상을 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성할 수 있다. 즉, 제1 영상 변환부(111)는 종양 촬영 영상을 제1 윈도우를 통해 영상 변환함으로써, 종양 촬영 영상 중 GGO 포션(Portion)이 잘 드러나 보이도록 하는 GGO 포션 영상을 생성할 수 있다.
여기서, 제1 윈도우는 기 설정된 제1 윈도우 레벨(Window Level : WL)을 기준으로 기 설정된 제1 윈도우 폭(Window Width : WW)을 가지도록 마련될 수 있다. 제1 윈도우 레벨(WL) 및 제1 윈도우 폭(WW)은 하운스필드 단위(HU)로 표현될 수 있다. 예시적인 실시예에서, 제1 윈도우는 제1 윈도우 레벨(WL)이 -700HU이고, 제1 윈도우 폭(WW)은 1500HU일 수 있다. 즉, 제1 윈도우는 -700HU를 기준으로 1500HU 범위의 하운스 필드 단위 값을 필터링하도록 마련될 수 있다.
제1 영상 리사이징부(113)는 GGO 포션 영상을 기 설정된 사이즈로 리사이징(Resizing)할 수 있다. 제1 영상 리사이징부(113)는 GGO 포션 영상을 제1 딥러닝부(115)에서 학습된 이미지들의 사이즈로 리사이징 할 수 있다. 즉, GGO 포션 영상은 제1 딥러닝부(115)의 입력으로 사용되므로, 제1 딥러닝부(115)에서 학습된 이미지들과 동일한 사이즈로 리사이징 될 수 있다. 예시적인 실시예에서, 제1 영상 리사이징부(113)는 GGO 포션 영상을 128 × 128 크기로 리사이징 할 수 있다.
제1 딥러닝부(115)는 리사이징 된 GGO 포션 영상을 입력 받아 GGO 포션 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출할 수 있다. 제1 딥러닝부(115)는 GGO 포션 영상이 입력되는 경우, 이미 학습된 이미지(즉, GGO 포션 영상)들을 기반으로 딥러닝(Deep Learning)을 수행하여 입력된 GGO 포션 영상에서 GGO 부분(Portion)의 경계를 검출할 수 있다.
예시적인 실시예에서, 제1 딥러닝부(115)는 딥러닝 기술로 합성곱 신경망(CNN : Convolution Neural Network)을 이용할 수 있다. 이 경우, 제1 딥러닝부(115)는 GGO 포션 영상이 입력되는 경우, 입력된 GGO 포션 영상에서 GGO 부분의 경계를 검출하여 출력하도록 학습된 신경망일 수 있다. 합성곱 신경망은 기 공지된 기술이므로 이에 대한 자세한 설명은 생략하기로 한다. 제1 딥러닝부(115)는 GGO 부분의 경계를 제2 딥러닝부(125)로 전달할 수 있다.
제2 경계 검출부(106)는 종양 촬영 영상에서 솔리드(Solid) 부분(고형 부분)의 경계를 검출할 수 있다. 제2 경계 검출부(106)는 제2 영상 변환부(121), 제2 영상 리사이징부(123), 및 제2 딥러닝부(125)를 포함할 수 있다.
제2 영상 변환부(121)는 종양 촬영 영상을 기 설정된 제2 하운스필드 단위(Hounsfield Unit : HU) 레인지(Range)를 가지는 윈도우(이하, "제2 윈도우"로 지칭할 수 있음)를 통해 영상 변환할 수 있다. 제2 영상 변환부(121)는 종양 촬영 영상을 제2 윈도우를 통해 영상 변환하여 솔리드 부분 영상을 생성할 수 있다. 즉, 제2 영상 변환부(121)는 종양 촬영 영상을 제2 윈도우를 통해 영상 변환함으로써, 종양 촬영 영상 중 솔리드 포션(Solid Portion)이 잘 드러나 보이도록 하는 솔리드 포션 영상을 생성할 수 있다.
여기서, 제2 윈도우는 기 설정된 제2 윈도우 레벨(Window Level : WL)을 기준으로 기 설정된 제2 윈도우 폭(Window Width : WW)을 가지도록 마련될 수 있다. 제2 윈도우 레벨(WL) 및 제2 윈도우 폭(WW)은 하운스필드 단위(HU)로 표현될 수 있다.
제2 윈도우 레벨은 제1 윈도우 레벨보다 높은 하운스필드 단위 값을 가질 수 있다. 또한, 제2 윈도우 폭은 제1 윈도우 폭보다 좁은 하운스필드 단위 범위를 가질 수 있다. 예시적인 실시예에서, 제2 윈도우는 제2 윈도우 레벨(WL)이 20HU이고, 제2 윈도우 폭(WW)은 400HU일 수 있다. 즉, 제2 윈도우는 20HU를 기준으로 400HU 범위의 하운스 필드 단위 값을 필터링하도록 마련될 수 있다.
제2 영상 리사이징부(123)는 솔리드 포션 영상을 기 설정된 사이즈로 리사이징(Resizing)할 수 있다. 제2 영상 리사이징부(123)는 솔리드 포션 영상을 제2 딥러닝부(125)에서 학습된 이미지들의 사이즈로 리사이징 할 수 있다. 즉, 솔리드 포션 영상은 제2 딥러닝부(125)의 입력으로 사용되므로, 제2 딥러닝부(125)에서 학습된 이미지들과 동일한 사이즈로 리사이징 될 수 있다. 예시적인 실시예에서, 제2 영상 리사이징부(123)는 솔리드 포션 영상을 128 × 128 크기로 리사이징 할 수 있다. 제2 영상 리사이징부(123)는 제1 영상 리사이징부(113)에서 GGO 포션 영상을 리사이징시키는 크기와 동일한 크기로 솔리드 포션 영상을 리사이징시킬 수 있다.
제2 딥러닝부(125)는 리사이징 된 솔리드 포션 영상을 입력 받아 솔리드 포션 영상에서 솔리드(Solid) 부분의 경계를 검출할 수 있다. 예시적인 실시예에서, 제2 딥러닝부(125)는 솔리드 포션 영상에서 솔리드 부분의 경계 검출 시 GGO 포션 영상에서 GGO 부분의 경계 정보를 이용할 수 있다.
즉, 제2 딥러닝부(125)는 제2 영상 리사이징부(123)로부터 리사이징 된 솔리드 포션 영상을 입력 받고, 제1 딥러닝부(115)로부터 출력되는 정보(즉, GGO 포션 영상에서 GGO 부분의 경계 정보)를 각각 입력 받을 수 있다.
제2 딥러닝부(125)는 리사이징 된 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보가 입력되는 경우, 이미 학습된 데이터(즉, 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보)들을 기반으로 딥러닝(Deep Learning)을 수행하여 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출할 수 있다.
예시적인 실시예에서, 제2 딥러닝부(125)는 딥러닝 기술로 합성곱 신경망(CNN : Convolution Neural Network)을 이용할 수 있다. 이 경우, 제2 딥러닝부(125)는 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보가 입력되는 경우, 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하여 출력하도록 학습된 신경망일 수 있다. 여기서, 제2 딥러닝부(125)는 솔리드 포션 영상 중 GGO 부분의 경계 내에서 솔리드 부분을 검출하도록 학습된 신경망일 수 있다.
크기 측정부(108)는 제1 경계 검출부(104)에서 검출한 GGO 부분의 경계를 기반으로 종양 촬영 영상에서 GGO 부분의 크기를 측정할 수 있다. 또한, 크기 측정부(108)는 제2 경계 검출부(106)에서 검출한 솔리드 부분의 경계를 기반으로 종양 촬영 영상에서 솔리드 부분의 크기를 측정할 수 있다.
한편, 종양 촬영 영상이 CT 영상인 경우, 영상 레이어 별로 종양 촬영 영상을 획득하고, 각 영상 레이어의 종양 촬영 영상에 대해 GGO 부분의 경계 및 솔리드 부분의 경계를 검출할 수 있다. 그리고, 크기 측정부(108)는 각 영상 레이어의 GGO 부분의 경계를 적층하여 GGO 부분의 볼륨을 측정하고, 각 영상 레이어의 솔리드 부분의 경계를 적층하여 솔리드 부분의 볼륨을 측정할 수 있다.
개시되는 실시예에 의하면, GGO를 포함하는 종양 촬영 영상에서 딥러닝 기술을 이용하여 GGO 부분 및 솔리드 부분의 크기를 각각 측정함으로써, GGO 부분 및 솔리드 부분의 크기를 신속하고 정확하게 측정할 수 있으며, 그로 인해 폐암 스테이징에서 환자 예후의 중요한 판단 요소가 되는 T(Tumor) 스테이지를 정확하게 판단할 수 있게 된다.
도 5는 본 발명의 일 실시예에 따른 폐암 종양 크기 측정 방법을 나타낸 흐름도이다. 도 5에 도시된 방법은 예를 들어, 전술한 폐암 종양 크기 측정 장치(100)에 의해 수행될 수 있다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
도 5를 참조하면, 폐암 종양 크기 측정 장치(100)는 환자의 종양 부분을 촬영한 종양 촬영 영상을 획득한다(S 101). 여기서, 종양 촬영 영상은 GGO(Ground Glass Opacity)를 포함하는 영상일 수 있다.
다음으로, 폐암 종양 크기 측정 장치(100)는 종양 촬영 영상을 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성하고(S 103), 종양 촬영 영상을 제2 윈도우를 통해 영상 변환하여 솔리드 포션 영상을 생성한다(S 105). 도 6은 본 발명의 실시예에서 종양 촬영 영상(도 6의 (a))에 제1 윈도우를 적용하여 GGO 포션 영상을 생성한 상태(도 6의 (b)) 및 종양 촬영 영상에 제2 윈도우를 적용하여 솔리드 포션 영상을 생성한 상태(도 6의 (c))를 나타낸 도면이다.
다음으로, 폐암 종양 크기 측정 장치(100)는 GGO 포션 영상을 기 설정된 사이즈로 리사이징하고(S 107), 솔리드 포션 영상을 기 설정된 사이즈로 리사이징한다(S 109). 폐암 종양 크기 측정 장치(100)는 GGO 포션 영상 및 솔리드 포션 영상을 동일한 사이즈로 리사이징할 수 있다.
다음으로, 폐암 종양 크기 측정 장치(100)는 제1 딥러닝 모듈로 GGO 포션 영상을 입력하여 GGO 포션 영상에서 GGO 부분의 경계를 검출한다(S 111). 제1 딥러닝 모듈은 폐암 종양 크기 측정 장치(100) 내에 구현될 수 있으나, 이에 한정되는 것은 아니며 폐암 종양 크기 측정 장치(100)와 연동되는 외부 장치 또는 시스템으로 구현될 수도 있다.
다음으로, 폐암 종양 크기 측정 장치(100)는 제2 딥러닝 모듈로 솔리드 포션 영상 및 GGO 포션 영상에서 GGO 부분의 경계 정보를 입력하여 솔리드 포션 영상에서 솔리드 부분의 경계를 검출한다(S 113). 제2 딥러닝 모듈은 제1 딥러닝 모듈과는 독립된 딥러닝을 수행하는 것으로, 폐암 종양 크기 측정 장치(100) 내에 구현될 수 있으나, 이에 한정되는 것은 아니며 폐암 종양 크기 측정 장치(100)와 연동되는 외부 장치 또는 시스템으로 구현될 수도 있다.
다음으로, 폐암 종양 크기 측정 장치(100)는 GGO 부분의 경계를 기반으로 종양 촬영 영상에서 GGO 부분의 크기를 측정하고(S 115), 솔리드 부분의 경계를 기반으로 종양 촬영 영상에서 솔리드 부분의 크기를 측정한다(S 117).
본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예건대, 상기 "모듈"은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아니다.
도 7은 본 발명의 실시예에 따른 딥러닝에 의한 경계 검출과 전문가에 의한 경계 검출을 비교한 도면이다. 도 7에서 Gold Standard는 폐암 전문 의사에 의한 경계 검출을 나타낸다.
도 7을 참조하면, 종양 촬영 영상(원영상)에서 폐암 전문의(Gold Standard)가 검출한 GGO 부분 경계 및 솔리드 부분 경계와 본 발명의 실시예에 따른 딥 러닝에 의해 검출한 GGO 부분 경계 및 솔리드 부분 경계가 거의 동일한 것을 볼 수 있다.
도 8은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 폐암 종양 크기 측정 장치(100)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100 : 폐암 종양 크기 측정 장치
102 : 영상 획득부
104 : 제1 경계 검출부
106 : 제2 경계 검출부
108 : 크기 측정부
111 : 제1 영상 변환부
113 : 제1 영상 리사이징부
115 : 제1 딥러닝부
121 : 제2 영상 변환부
123 : 제2 영상 리사이징부
125 : 제2 딥러닝부

Claims (11)

  1. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서,
    환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 영상 획득부;
    제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 제1 경계 검출부;
    제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 제2 경계 검출부; 및
    상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하고, 상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 크기 측정부를 포함하는, 컴퓨팅 장치.
  2. 청구항 1에 있어서,
    상기 제1 경계 검출부는,
    상기 종양 촬영 영상을 기 설정된 제1 하운스필드 단위 레인지를 가지는 제1 윈도우를 통해 영상 변환하여 GGO 포션 영상을 생성하는 제1 영상 변환부; 및
    상기 GGO 포션 영상을 입력 받아 상기 GGO 포션 영상에서 GGO 부분의 경계를 검출하는 제1 딥러닝부를 포함하는, 컴퓨팅 장치.
  3. 청구항 2에 있어서,
    상기 제1 윈도우는,
    하운스필드 단위의 기 설정된 제1 윈도우 레벨을 기준으로 기 설정된 제1 윈도우 폭을 가지도록 마련되는, 컴퓨팅 장치.
  4. 청구항 2에 있어서,
    상기 컴퓨팅 장치는,
    상기 생성된 GGO 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징된 GGO 포션 영상을 상기 제1 딥러닝부로 전달하는 제1 영상 리사이징부를 더 포함하는, 컴퓨팅 장치.
  5. 청구항 2에 있어서,
    상기 제1 딥러닝부는,
    GGO 포션 영상이 입력되는 경우, 입력된 GGO 포션 영상에서 GGO 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함하는, 컴퓨팅 장치.
  6. 청구항 2에 있어서,
    상기 제2 경계 검출부는,
    상기 종양 촬영 영상을 기 설정된 제2 하운스필드 단위 레인지를 가지는 제2 윈도우를 통해 영상 변환하여 솔리드 포션 영상을 생성하는 제2 영상 변환부; 및
    상기 솔리드 포션 영상 및 상기 GGO 부분의 경계 정보를 입력 받아 상기 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하는 제2 딥러닝부를 포함하는, 컴퓨팅 장치.
  7. 청구항 6에 있어서,
    상기 제2 윈도우는,
    상기 제1 윈도우 레벨 보다 하운스필드 단위 값이 높은 제2 윈도우 레벨을 기준으로 상기 제1 윈도우 폭보다 좁은 범위의 제2 윈도우 폭을 가지도록 마련되는, 컴퓨팅 장치.
  8. 청구항 6에 있어서,
    상기 컴퓨팅 장치는,
    상기 생성된 솔리드 포션 영상을 기 설정된 사이즈로 리사이징하고, 리사이징 된 솔리드 포션 영상을 상기 제2 딥러닝부로 전달하는 제2 영상 리사이징부를 더 포함하는, 컴퓨팅 장치.
  9. 청구항 6에 있어서,
    상기 제2 딥러닝부는,
    솔리드 포션 영상 및 GGO 부분의 경계 정보가 입력되는 경우, 입력된 솔리드 포션 영상에서 솔리드 부분의 경계를 검출하여 출력하도록 학습된 합성곱 신경망(CNN : Convolution Neural Network)을 포함하는, 컴퓨팅 장치.
  10. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
    환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하는 단계;
    제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하는 단계;
    제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하는 단계;
    상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하는 단계; 및
    상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하는 단계를 포함하는, 폐암 종양 크기 측정 방법.
  11. 비일시적 컴퓨터 판독 가능한 저장 매체(non-transitory computer readable storage medium)에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은 하나 이상의 명령어들을 포함하고, 상기 명령어들은 하나 이상의 프로세서들을 갖는 컴퓨팅 장치에 의해 실행될 때, 상기 컴퓨팅 장치로 하여금,
    환자의 종양 부분을 촬영한 종양 촬영 영상을 획득하고,
    제1 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 GGO(Ground Glass Opacity) 부분의 경계를 검출하고,
    제2 딥러닝 모듈을 통해 상기 종양 촬영 영상에서 솔리드(Solid) 부분의 경계를 검출하고,
    상기 검출된 GGO 부분의 경계를 기반으로 상기 GGO 부분의 크기를 측정하고, 그리고
    상기 검출된 솔리드 부분의 경계를 기반으로 상기 솔리드 부분의 크기를 측정하도록 하는, 컴퓨터 프로그램.

KR1020190001001A 2019-01-04 2019-01-04 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치 KR102236617B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190001001A KR102236617B1 (ko) 2019-01-04 2019-01-04 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190001001A KR102236617B1 (ko) 2019-01-04 2019-01-04 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치

Publications (2)

Publication Number Publication Date
KR20200085012A true KR20200085012A (ko) 2020-07-14
KR102236617B1 KR102236617B1 (ko) 2021-04-06

Family

ID=71526597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190001001A KR102236617B1 (ko) 2019-01-04 2019-01-04 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치

Country Status (1)

Country Link
KR (1) KR102236617B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186594A1 (ko) * 2021-03-04 2022-09-09 주식회사 뷰노 의료 영상 기반의 병변 분석 방법
KR20230005633A (ko) * 2021-07-01 2023-01-10 주식회사 유엑스엔터프라이즈 난소낭종의 부피 산출 방법 및 자궁내막증의 예후를 예측하는 방법과 그 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165615A (ja) * 2008-01-16 2009-07-30 Fujifilm Corp 腫瘍領域サイズ測定方法および装置ならびにプログラム
JP2015029860A (ja) * 2013-08-06 2015-02-16 株式会社東芝 画像処理装置および医用画像診断装置
KR101664159B1 (ko) 2011-11-11 2016-10-12 한국전자통신연구원 병변 특성 계산 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165615A (ja) * 2008-01-16 2009-07-30 Fujifilm Corp 腫瘍領域サイズ測定方法および装置ならびにプログラム
KR101664159B1 (ko) 2011-11-11 2016-10-12 한국전자통신연구원 병변 특성 계산 장치 및 그 방법
JP2015029860A (ja) * 2013-08-06 2015-02-16 株式会社東芝 画像処理装置および医用画像診断装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Shengping Wang 외 12명, Quantitative Imaging in Medicine and Surgery, 2018 Jun, 8(5), pp.491~499* *
Xiaoguang Tu 외 8명, "Automatic Categoriztion and Scoring of Solid, Part-Solid and Non-Solid Pulmonary Nodules in CT Images with Convolutional Neural Network", SCIENTIFIC REPORTS (2017.09.01.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186594A1 (ko) * 2021-03-04 2022-09-09 주식회사 뷰노 의료 영상 기반의 병변 분석 방법
KR20230005633A (ko) * 2021-07-01 2023-01-10 주식회사 유엑스엔터프라이즈 난소낭종의 부피 산출 방법 및 자궁내막증의 예후를 예측하는 방법과 그 장치

Also Published As

Publication number Publication date
KR102236617B1 (ko) 2021-04-06

Similar Documents

Publication Publication Date Title
CN110136056B (zh) 图像超分辨率重建的方法和装置
CN108399452B (zh) 用于执行多重分析的神经网络的权重的分层学习
US20210313048A1 (en) Neural network-based object detection in visual input
US11308623B2 (en) System and method for multi-scale coarse-to-fine segmentation of images to detect pancreatic ductal adenocarcinoma
CN112771581A (zh) 用于对免疫疗法和放射疗法的分割、结果预测和纵向应答监测的多模态、多分辨率深度学习神经网络
US10997724B2 (en) System and method for image segmentation using a joint deep learning model
US20160093046A1 (en) Apparatus and method for supporting computer aided diagnosis
KR20190117969A (ko) 레이블 있는 데이터 및 레이블 없는 데이터를 병용하는 준지도 강화 학습 방법 및 이를 이용한 장치
KR102258756B1 (ko) 의료 영상을 이용한 암의 병기 결정 방법 및 의료 영상 분석 장치
KR102236617B1 (ko) 폐암 종양 크기 측정 방법 및 이를 수행하기 위한 장치
WO2019056611A1 (zh) 用于触控屏的笔迹曲线生成方法、装置、设备和存储介质
KR102267739B1 (ko) 치아 진단 방법 및 이를 수행하기 위한 컴퓨팅 장치
JP2022538361A (ja) 画像分割信頼度決定
CN111754476A (zh) 用于解剖树结构的疾病量化建模的方法及***
US20160360185A1 (en) Three-dimensional imaging sensor calibration
US11282203B2 (en) Method and system for image analysis
KR20170130389A (ko) 공간-시간 압축된 비행시간 이미징을 위한 기술
US20120192206A1 (en) Deep Copying Objects in a Collocated Environment
US20230035477A1 (en) Method and device for depth map completion
CN110333252A (zh) 双能探测方法与装置
US20150243158A1 (en) Method for finding objects
CN114299563A (zh) 预测人脸图像的关键点坐标的方法和装置
Wu et al. Histogram analysis of native T1 mapping and its relationship to left ventricular late gadolinium enhancement, hypertrophy, and segmental myocardial mechanics in patients with hypertrophic cardiomyopathy
US11636592B2 (en) Medical object detection and identification via machine learning
KR102488813B1 (ko) 엣지 이미지를 이용한 시차맵 생성 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant