KR20190022216A - 안구영상 분석방법 - Google Patents

안구영상 분석방법 Download PDF

Info

Publication number
KR20190022216A
KR20190022216A KR1020170108232A KR20170108232A KR20190022216A KR 20190022216 A KR20190022216 A KR 20190022216A KR 1020170108232 A KR1020170108232 A KR 1020170108232A KR 20170108232 A KR20170108232 A KR 20170108232A KR 20190022216 A KR20190022216 A KR 20190022216A
Authority
KR
South Korea
Prior art keywords
image
eye
model
learned
ocular
Prior art date
Application number
KR1020170108232A
Other languages
English (en)
Other versions
KR101977645B1 (ko
Inventor
임형택
김성중
최태근
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Priority to KR1020170108232A priority Critical patent/KR101977645B1/ko
Priority to PCT/KR2018/009809 priority patent/WO2019039912A1/ko
Priority to SG11202001633UA priority patent/SG11202001633UA/en
Publication of KR20190022216A publication Critical patent/KR20190022216A/ko
Priority to US16/359,902 priority patent/US10580530B2/en
Application granted granted Critical
Publication of KR101977645B1 publication Critical patent/KR101977645B1/ko
Priority to US16/748,673 priority patent/US11276497B2/en
Priority to US17/591,418 priority patent/US11790645B2/en
Priority to US18/474,309 priority patent/US20240029421A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • A61B3/1173Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens
    • A61B3/1176Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes for examining the eye lens for determining lens opacity, e.g. cataract
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)

Abstract

컴퓨터가 안구영상을 분석하는 방법에 있어서, 대상체의 안구의 적어도 일부를 촬영한 안구영상을 획득하는 단계 및 상기 획득된 안구영상을 학습된 제1 모델에 입력하여 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단하는 단계를 포함하는, 방법이 개시된다.

Description

안구영상 분석방법 {EYE IMAGE ANALYSIS METHOD}
본 발명은 안구영상 분석방법에 관한 것이다.
안저(Fundus)는 동공을 통하여 안구의 안쪽을 들여다보았을 때 보이는 부분, 즉 망막 및 망막혈관, 시신경유두 및 맥락막을 종합하여 이르는 말이다. 안저영상은 동공을 통하여 안저를 촬영한 영상을 의미한다.
OCT(Optical Computed Tomography) 영상은 광학 컴퓨터 단층촬영이라고도 하며, CT를 이용하여 획득된 안구의 각 부분, 특히 망막 부근의 단층영상을 의미한다.
형광안저조영술(Fluorescein Fundus Angiography)은 형광색소인 플루오레세인을 대상체에 투여하여 대상체의 안저영상을 촬영하는 방법이다.
OCT 조영술(OCT Angiography)은 대상체에 조영제를 투여하지 않고도 안구 혈관의 단층별 변화를 촬영할 수 있는 방법이다.
최근에는 딥 러닝을 이용하여 다양한 의료영상을 처리하여 필요한 정보를 획득하는 방법에 대한 개발이 활발하게 진행되고 있다.
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
본 발명이 해결하고자 하는 과제는 안구영상 분석방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 컴퓨터가 안구영상을 분석하는 방법은, 대상체의 안구의 적어도 일부를 촬영한 안구영상을 획득하는 단계 및 상기 획득된 안구영상을 학습된 제1 모델에 입력하여 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단하는 단계를 포함한다.
또한, 상기 안구영상은 상기 대상체의 안구의 적어도 일부를 촬영한 안저영상 또는 OCT(Optical Computed Tomography) 영상이고, 상기 학습된 제1 모델은, 안과질환 여부가 라벨링된 안저영상 또는 안과질환 여부가 라벨링된 OCT 영상을 이용하여 학습된 모델인 것을 특징으로 할 수 있다.
또한, 상기 학습된 제1 모델을 학습시키는 데 이용되는 영상은, 안과질환이 나타나는 부분을 강조하기 위한 전처리가 수행된 영상인 것을 특징으로 할 수 있다.
또한, 상기 안구영상은, 형광안저조영술(Fluorescein Fundus Angiography)을 이용하여 상기 대상체의 안구의 적어도 일부를 촬영한 영상 또는 OCT 조영술(OCT Angiography)을 이용하여 상기 대상체의 안구의 적어도 일부를 촬영한 영상인 것을 특징으로 할 수 있다.
또한, 상기 학습된 제1 모델은, 순환계 또는 내부장기 질환 여부가 라벨링된 형광안저조영술 영상 또는 순환계 또는 내부장기 질환 여부가 라벨링된 OCT 조영술 영상을 이용하여 학습된 모델인 것을 특징으로 할 수 있다.
또한, 상기 학습된 제1 모델을 학습시키는 데 이용되는 영상은, 영상 내의 망막혈관 또는 혈류변화를 강조하기 위한 전처리가 수행된 영상인 것을 특징으로 할 수 있다.
또한, 상기 획득하는 단계는, 외부 클라이언트로부터 상기 안구영상을 획득하는 단계를 포함하고, 상기 판단하는 단계는, 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나에 질환이 있는 것으로 판단되는 경우 상기 획득된 안구영상을 재검토 대상으로 분류하는 단계 및 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나에 질환이 있는 것으로 판단되지 않는 경우, 판단 결과를 상기 외부 클라이언트에 전송하는 단계를 포함할 수 있다.
또한, 상기 재검토 대상으로 분류하는 단계는, 상기 분류된 안구영상을 재검토하는 단계 및 상기 재검토 결과를 상기 외부 클라이언트에 전송하는 단계를 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 일 면에 따라 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 안구영상 분석방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램이 제공된다.
상술한 과제를 해결하기 위한 본 발명의 다른 일 면에 따라 안구영상을 분석하는 서버에 있어서, 외부 클라이언트로부터 대상체의 안구의 적어도 일부를 촬영한 안구영상을 수신하는 통신부 및 상기 획득된 안구영상을 학습된 제1 모델에 입력하여 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단하는 제어부를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 통상적으로 전문의의 판독이 필요한 안저 검사를 전문의의 판독 없이도 자동으로 수행함으로써, 안저검사의 접근성을 향상시킬 수 있는 효과가 있다.
예를 들어, 당뇨병 환자와 같이 자주 안저 검사를 받아야 하는 환자가 매번 전문의를 만나지 않아도, 쉽게 자주 안저검사를 받을 수 있어 환자와 의사의 편의가 향상되는 효과가 있다.
나아가, 안구 영상에 포함된 안구 혈관을 분석함으로써, 대상체의 순환계 또는 내장기관의 이상여부를 판단할 수 있는 효과가 있다. 따라서, 복잡한 검사 없이도 대상체의 순환계 또는 내장기관 이상여부를 자주 확인할 수 있도록 하는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 안구영상 분석시스템을 간략하게 도시한 개념도이다.
도 2는 일 실시 예에 따라 대상체의 안구영상을 분석하는 방법을 도시한 흐름도이다.
도 3은 일 실시 예에 따라 조영술을 이용하여 획득된 안구영상을 분석하는 방법을 도시한 흐름도이다.
도 4는 일 실시 예에 따라 조영술을 이용하여 획득된 안구영상을 분석하는 방법을 도시한 흐름도이다.
도 5는 대상체의 안저영상에 대한 전처리를 수행하는 방법의 일 예를 도시한 도면이다.
도 6은 일 실시 예에 따라 대상체의 안구영상을 이용하여 대상체의 안구질환 여부를 판단한 결과를 도시한 도면이다.
도 7은 일 실시 예에 따라 안구영상을 분석하는 서버를 간략하게 도시한 구성도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 안저 영상 촬영 장치 또는 OCT(Optical CT) 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.
본 명세서에서 "CT(Computed Tomography) 영상"이란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.
본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다.
본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 일 실시 예에 따른 안구영상 분석시스템을 간략하게 도시한 개념도이다.
도 1을 참조하면, 안구영상 촬영장치(10), 사용자 클라이언트(20) 및 서버(100)를 포함한다.
일 실시 예에서, 안구영상 촬영장치(10)는 대상체의 안구 영상을 촬영할 수 있는 모든 형태의 장치를 포함한다.
예를 들어, 안구영상 촬영장치(10)는 대상체의 안저(Fundus)를 촬영하는 안저영상 촬영장치일 수 있다. 안저영상 촬영장치는 대상체의 동공을 통하여 안구 내의 유리체, 망막, 맥락막, 시신경유두 등을 촬영한다.
또한, 안구영상 촬영장치(10)는 대상체의 안구의 망막 부근을 단층별로 촬영하는 OCT(Optical CT) 장치일 수 있다. OCT 장치는 대상체의 망막신경섬유층, 시신경유두 및 황반부 등에 대한 정보를 획득할 수 있다.
일 실시 예에서, 사용자 클라이언트(20)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치의 사용자 클라이언트를 의미하고, 서버(100)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치를 의미한다.
일 실시 예에서, 안구영상 촬영장치(10)와 사용자 클라이언트(20)는 하나의 장치에 내장되어 있을 수도 있고, 안구영상 촬영장치(10)가 사용자 클라이언트(20)와 물리적 또는 전기적으로 연결되어 이용될 수도 있다.
사용자 클라이언트(20)는 안구영상 촬영장치(10)로부터 대상체의 안구영상을 획득한다.
사용자 클라이언트(20)는 획득된 안구영상을 서버(100)에 전송한다.
서버(100)는 사용자 클라이언트(20)로부터 획득된 안구영상을 분석하고, 분석 결과를 사용자 클라이언트(20)에 전송한다.
일 실시 예에서, 사용자 클라이언트(20)와 서버(100)가 분리되지 않고, 사용자 클라이언트(20)가 획득된 안구영상을 분석하고, 분석 결과를 사용자에게 제공할 수도 있다.
대상체의 안구 내부를 보여주는 안저사진을 분석하는 작업은 난이도가 높아서, 일반적으로 안과 전문의가 그 분석을 수행하고 있다. 개시된 실시 예에 따르면, 안과 전문의가 상주하지 않는 의료기관에서도 안저영상 촬영장치가 구비되는 경우 사용자 클라이언트(20) 또는 서버(100)의 분석에 의해 대상체의 질병 보유여부를 판단할 수 있다.
일 실시 예에서, 사용자 클라이언트(20) 또는 서버(100)의 판단결과는 일반의 또는 전문의의 판단을 보조하는 데 이용될 수도 있다.
일 실시 예에서, 사용자 클라이언트(20) 또는 서버(100)는 판단결과 대상체가 질병을 보유하지 않은 것으로 판단되는 경우 판단결과를 사용자에게 제공하고, 대상체가 질병을 보유한 것으로 판단되는 경우 대상체의 안구영상을 재검토 대상으로 분류할 수 있다.
재검토 대상으로 분류된 안구영상은 최초 판단시와 동일하거나 상이한 알고리즘을 이용하여 질병 보유여부가 판단되고, 나아가 보유한 질병의 종류 또한 판단될 수 있다. 일 실시 예에서, 재검토 대상으로 분류된 안구영상은 전문의의 판독을 통해 질병 보유여부 및 보유한 질병의 종류가 결정되고, 판독 결과가 사용자 클라이언트(20) 또는 서버(100)를 통해 사용자에게 제공될 수도 있다.
개시된 실시 예에 따르면, 당뇨병 환자와 같이 자주 안저 검사를 받아야 하는 환자가 매번 전문의를 만나지 않아도, 쉽게 자주 안저검사를 받을 수 있어 환자와 의사의 편의가 향상되는 효과가 있다.
개시된 실시 예에서, 대상체의 안구영상을 획득하는 데 조영술(Angiography)이 활용될 수 있다.
조영술은 특히 대상체의 혈관을 구체적으로 관찰하기 위하여 이용되는 방법으로, 대상체에 조영제를 투여하는 방식으로 이루어진다.
예를 들어, 형광안저조영술(Fluorescein Fundus Angiography, FA)는 형광색소인 플루오레세인을 대상체에 투여하여 대상체의 안저영상을 촬영하는 방법이다. 이 경우, 대상체의 안구 내 혈관의 혈류변화와, 대상체의 망막혈관의 손상정도 등에 대한 정보를 획득할 수 있다.
다른 예로, OCT(Optical Computed Tomography) 조영술(Angiography)을 이용하면, 눈 혈관의 움직임을 관찰하고, 대상체의 안구 내 혈관의 혈류변화와, 대상체의 망막혈관의 손상정도 등에 대한 정보를 획득할 수 있다. 이에 더하여, OCT 조영술은 혈관의 단층별 변화를 촬영할 수 있어, 미세한 혈류변화와 국소적 혈관의 손상정도를 파악할 수 있는 장점이 있다.
또한, OCT 조영술은 조영제를 사용할 필요가 없는 완전한 비침습적 방법으로서 조영제의 부작용을 우려하지 않아도 되는 장점이 있다.
개시된 실시 예에서, 서버(100)는 라벨링된 안구 영상들을 이용하여 미리 학습된 모델을 저장한다. 서버(100)는 대상체의 안저 영상을 모델에 입력하여 대상체의 질병 보유여부를 판단한다.
예를 들어, 서버(100)는 대상체의 안저 영상을 이용하여 대상체의 안저의 정상 또는 비정상 여부를 판단한다. 즉, 서버(100)는 대상체의 안저 영상을 이용하여 대상체의 안구질환 보유여부를 판단한다.
다른 예로, 서버(100)는 조영술을 이용하여 촬영된 대상체의 안구 영상을 이용하여 대상체의 심장 또는 신장질환 보유여부를 판단한다.
서버(100)가 대상체의 안구 영상을 분석하는 구체적인 방법은 이하에서 후술한다.
도 2는 일 실시 예에 따라 대상체의 안구영상을 분석하는 방법을 도시한 흐름도이다.
도 2는 개시된 실시 예에 따른 대상체의 안구영상을 분석하는 방법을 수행하기 위하여 도 1에 도시된 사용자 클라이언트(20) 또는 서버(100)가 수행하는 각 단계들을 시계열적으로 도시한 것이다.
이하에서는, 설명의 편의를 위하여 각 단계들을 서버(100)가 수행하는 것으로 설명한다. 하지만, 도 2에 도시된 각 단계들의 전부 또는 적어도 일부는 사용자 클라이언트(20) 또는 서버(100) 각각에서 모두 수행될 수 있다.
단계 S210에서, 제1 모델이 학습된다. 제1 모델의 학습은 서버(100)에 의하여 수행될 수도 있고, 적어도 하나의 다른 컴퓨터에 의하여 수행될 수도 있다.
학습된 제1 모델은 서버(100)에 저장될 수도 있고, 서버에 저장되어 사용자 클라이언트(20)에 의하여 이용될 수도 있다.
일 실시 예에서, 제1 모델은 기계학습(machine learning)에 의거하여 학습된다. 일 실시 예에서, 제1 모델은 딥 러닝(deep learning)에 의거하여 학습된다.
일 실시 예에서, 제1 모델은 기계학습(machine learning)에 의거하여 학습된다. 일 실시 예에서, 제1 모델은 딥 러닝(deep learning)에 의거하여 학습된다.
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다.
심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.
상술한 알고리즘 또는 학습방법은 예시로서 서술된 것이며, 개시된 실시 예에 따른 제1 모델은 어떠한 학습방법에 의하여서도 학습될 수 있다. 예를 들어, 개시된 실시 예에 따른 제1 모델은 입력 데이터와 출력 데이터가 학습 데이터로서 제공되는 지도 학습(supervised learning), 별도의 라벨링된 데이터가 제공되지 않는 비지도 학습(unsupervised learning), 학습 결과에 대한 피드백이 제공되는 강화학습(reinforcement learning) 등에 의하여 학습될 수 있으나, 이에 제한되지 않는다.
일 실시 예에서, 제1 모델은 라벨링된 데이터와 CNN을 이용하여 학습될 수 있으나, 제1 모델의 학습방법은 이에 제한되지 않는다.
단계 S220에서, 서버(100)는 대상체의 안구의 적어도 일부를 촬영한 안구영상을 획득한다.
일 실시 예에서, 서버(100)가 획득하는 안구영상은 대상체의 안구의 적어도 일부를 촬영한 안저영상 또는 OCT(Optical Computed Tomography) 영상이다.
이때, 단계 S210에서 학습된 제1 모델은, 안과질환 여부가 라벨링된 안저영상 또는 안과질환 여부가 라벨링된 OCT 영상을 이용하여 학습된 모델일 수 있다.
예를 들어, 안저영상에서 영상이 전체적으로 흐린 정도, 녹색화가 생긴 정도, 황반부의 모습, 눈 혈관의 모습 및 그 외 눈에 나타나는 이상징후에 따라, 정상인 안저영상과 비정상인 안저영상이 구분될 수 있다.
또한, 안저영상의 이상 정도에 따라, 약한 비정상과 강한 비정상이 구분되어 라벨링될 수 있다. 즉, 제1 모델을 학습시키는 데 이용되는 안저영상은, 정상, 약한 비정상 및 강한 비정상으로 구분되어 라벨링될 수 있다.
또한, 단계 S210에서 학습된 제1 모델을 학습시키는 데 이용되는 영상은, 안과질환이 나타나는 부분을 강조하기 위한 전처리가 수행된 영상일 수 있다.
예를 들어, 제1 모델을 학습시키는 데 이용되는 영상에 대하여 안과질환의 징후가 나타나는 부분을 확대하거나, 잘라내거나, 색상을 다르게 표시하는 등의 전처리 방법이 수행될 수 있다.
도 5를 참조하면, 대상체의 안저영상(500)의 크기를 조절하거나(510), 동공 부분을 잘라내거나(520), 홍채 부분을 잘라내는(530) 등의 전처리 방법이 수행될 수 있다.
단계 S230에서, 서버(100)는 단계 S220에서 획득된 안구영상을 학습된 제1 모델에 입력하여 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단한다.
일 실시 예에서, 서버(100)는 단계 S210에서 학습된 제1 모델에 단계 S220 에서 획득된 대상체의 안구영상을 입력하여, 대상체의 안구질환 여부를 판단한다.
도 6을 참조하면, 개시된 실시 예에 따라 서버(100)가 대상체의 안구영상을 이용하여 대상체의 안구질환 여부를 판단한 결과(600)의 일 예가 도시되어 있다.
서버(100)는 대상체의 안저영상(610)을 제1 모델에 입력하여, 그 결과값으로서 안저영상(610)에 대한 리스크 팩터를 획득할 수 있다. 서버(100)는 제1 모델의 출력에 기초하여 안저영상(610)에 포함된 질환여부를 판단하고, 그 결과를 제공할 수 있다.
일 실시 예에서, 제1 모델의 출력은 입력된 안구영상에 따라 대상체에 안구질환 또는 기타 질환이 존재할 확률의 형태로 제공되고, 그에 따라 서버(100)는 확률이 소정의 기준값 이상인 경우 질환이 존재한다고 판단하고, 확률이 소정의 기준값 이하인 경우 질환이 존재하지 않는다고 판단하고, 그 외의 경우 재검토를 수행할 수도 있다.
도 3은 일 실시 예에 따라 조영술을 이용하여 획득된 안구영상을 분석하는 방법을 도시한 흐름도이다.
도 3은 도 2에 도시된 방법의 일 실시 예를 도시한 도면으로서, 도 3과 관련하여 생략된 내용이라 하더라도 도 2와 관련하여 이미 설명된 내용은 도 3에 도시된 방법 및 각 단계에도 적용된다.
단계 S310에서, 제1 모델이 학습된다. 제1 모델의 학습은 서버(100)에 의하여 수행될 수도 있고, 적어도 하나의 다른 컴퓨터에 의하여 수행될 수도 있다.
학습된 제1 모델은 서버(100)에 저장될 수도 있고, 서버에 저장되어 사용자 클라이언트(20)에 의하여 이용될 수도 있다.
단계 S320에서, 서버(100)는 조영술을 이용하여 대상체의 안구의 적어도 일부를 촬영한 안구영상을 획득한다.
일 실시 예에서, 단계 S320에서 획득되는 안구영상은 형광안저조영술(Fluorescein Fundus Angiography)을 이용하여 대상체의 안구의 적어도 일부를 촬영한 영상일 수 있다.
또한, 단계 S320에서 획득되는 안구영상은 OCT 조영술(OCT Angiography)을 이용하여 대상체의 안구의 적어도 일부를 촬영한 영상일 수 있다.
이 때, 단계 S310에서 학습된 제1 모델은, 순환계 또는 내부장기 질환 여부가 라벨링된 형광안저조영술 영상 또는 순환계 또는 내부장기 질환 여부가 라벨링된 OCT 조영술 영상을 이용하여 학습된 모델일 수 있다.
예를 들어, 각각의 형광안저조영술 영상 또는 OCT 조영술 영상에 대하여, 각 영상의 대상체가 보유한 심장질환 또는 신장질환에 대한 정보를 각각의 영상에 라벨링할 수 있다.
눈은 인체의 모세혈관이 밖으로 드러나는 부위이므로, 대상체의 안구영상을 이용하여 대상체의 순환계 또는 내부장기 질환여부를 판단할 수 있다. 구체적으로, 대상체의 안구 혈관의 움직임을 관찰하고, 이를 통하여 순환계 및 내부장기 질환여부를 판단할 수 있다. 예를 들어, 안구 혈관의 혈류변화와, 안구 망막혈관의 손상정도를 기반으로 순환계 질병에 대한 정보를 얻을 수 있다.
따라서, 라벨링된 영상들을 이용하여 학습된 제1 모델은 대상체의 안구 영상을 이용하여, 대상체의 순환계 또는 내부장기의 질환여부를 판단하는 데 이용될 수 있다.
일 실시 예에서, 제1 모델을 학습시키는 데 이용되는 영상은, 영상 내의 망막혈관 또는 혈류변화를 강조하기 위한 전처리가 수행된 영상일 수 있다.
예를 들어, 대상체의 안구영상에서 혈류변화를 강조하거나, 영상 내 망막혈관 부분을 잘라내거나, 색조를 변경시킴으로써 강조하는 전처리가 수행된 영상을 이용하여 제1 모델이 학습될 수 있다.
단계 S330에서, 서버(100)는 단계 S320에서 획득된 안구영상을 학습된 제1 모델에 입력하여 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단한다.
일 실시 예에서, 서버(100)는 단계 S310에서 학습된 제1 모델에 단계 S320 에서 획득된 대상체의 안구영상을 입력하여, 대상체의 심장질환 또는 신장질환 여부를 판단한다.
도 4는 일 실시 예에 따라 조영술을 이용하여 획득된 안구영상을 분석하는 방법을 도시한 흐름도이다.
도 4는 도 2 및 도 3에 도시된 방법의 일 실시 예를 도시한 도면으로서, 도 4와 관련하여 생략된 내용이라 하더라도 도 2 또는 도 3과 관련하여 이미 설명된 내용은 도 4에 도시된 방법 및 각 단계에도 적용된다.
단계 S410에서, 제1 모델이 학습된다. 제1 모델의 학습은 서버(100)에 의하여 수행될 수도 있고, 적어도 하나의 다른 컴퓨터에 의하여 수행될 수도 있다.
학습된 제1 모델은 서버(100)에 저장될 수도 있고, 서버에 저장되어 사용자 클라이언트(20)에 의하여 이용될 수도 있다.
단계 S420에서, 서버(100)는 대상체의 안구의 적어도 일부를 촬영한 안구영상을 획득한다.
단계 S430에서, 서버(100)는 대상체의 질환여부를 판단한다.
서버(100)는 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나에 질환이 있는 것으로 판단되지 않는 경우, 판단 결과를 사용자 클라이언트(20)에 제공한다(S440).
서버(100)는 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나에 질환이 있는 것으로 판단되는 경우, 단계 S420에서 획득된 안구영상을 재검토 대상으로 분류하고, 재검토를 수행한다(S450).
서버(100)는 재검토 결과를 사용자 클라이언트(20)에 제공한다(S460).
도 7은 일 실시 예에 따라 안구영상을 분석하는 서버를 간략하게 도시한 구성도이다.
도 2 내지 도 4에서 설명한 안구영상을 분석하는 방법은 도 7에 도시된 서버(100)를 제어하는 데 이용될 수 있으며, 도 7에 도시된 서버(100)는 도 2 내지 도 4에 도시된 동작을 수행할 수 있다.
도 7을 참조하면, 서버(100)는 통신부(110) 및 제어부(120)를 포함한다.
한편, 도 7에 도시된 서버(100)에는 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 도 7에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 서버(100)에 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.
일 실시 예에서, 통신부(110)는 사용자 클라이언트(20)로부터 대상체의 안구의 적어도 일부를 촬영한 안구영상을 수신한다.
일 실시 예에서, 제어부(120)는 통신부(110)에서 획득된 안구영상을 학습된 제1 모델에 입력하여 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단한다.
제어부(120)는 판단 결과를 통신부(110)를 이용하여 사용자 클라이언트(20)에 전송한다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 안구영상 촬영장치
20: 사용자 클라이언트
100: 서버

Claims (10)

  1. 컴퓨터가 안구영상을 분석하는 방법에 있어서,
    대상체의 안구의 적어도 일부를 촬영한 안구영상을 획득하는 단계; 및
    상기 획득된 안구영상을 학습된 제1 모델에 입력하여 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단하는 단계; 를 포함하는, 방법.
  2. 제1 항에 있어서,
    상기 안구영상은 상기 대상체의 안구의 적어도 일부를 촬영한 안저영상 또는 OCT(Optical Computed Tomography) 영상이고,
    상기 학습된 제1 모델은,
    안과질환 여부가 라벨링된 안저영상 또는 안과질환 여부가 라벨링된 OCT 영상을 이용하여 학습된 모델인 것을 특징으로 하는, 방법.
  3. 제2 항에 있어서,
    상기 학습된 제1 모델을 학습시키는 데 이용되는 영상은,
    안과질환이 나타나는 부분을 강조하기 위한 전처리가 수행된 영상인 것을 특징으로 하는, 방법.
  4. 제1 항에 있어서,
    상기 안구영상은,
    형광안저조영술(Fluorescein Fundus Angiography)을 이용하여 상기 대상체의 안구의 적어도 일부를 촬영한 영상 또는 OCT 조영술(OCT Angiography)을 이용하여 상기 대상체의 안구의 적어도 일부를 촬영한 영상인 것을 특징으로 하는, 방법.
  5. 제4 항에 있어서,
    상기 학습된 제1 모델은,
    순환계 또는 내부장기 질환 여부가 라벨링된 형광안저조영술 영상 또는 순환계 또는 내부장기 질환 여부가 라벨링된 OCT 조영술 영상을 이용하여 학습된 모델인 것을 특징으로 하는, 방법.
  6. 제5 항에 있어서,
    상기 학습된 제1 모델을 학습시키는 데 이용되는 영상은,
    영상 내의 망막혈관 또는 혈류변화를 강조하기 위한 전처리가 수행된 영상인 것을 특징으로 하는, 방법.
  7. 제1 항에 있어서,
    상기 획득하는 단계는,
    외부 클라이언트로부터 상기 안구영상을 획득하는 단계를 포함하고,
    상기 판단하는 단계는,
    상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나에 질환이 있는 것으로 판단되는 경우 상기 획득된 안구영상을 재검토 대상으로 분류하는 단계; 및
    상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나에 질환이 있는 것으로 판단되지 않는 경우, 판단 결과를 상기 외부 클라이언트에 전송하는 단계; 를 포함하는, 방법.
  8. 제7 항에 있어서,
    상기 재검토 대상으로 분류하는 단계는,
    상기 분류된 안구영상을 재검토하는 단계; 및
    상기 재검토 결과를 상기 외부 클라이언트에 전송하는 단계; 를 포함하는, 방법.
  9. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
  10. 안구영상을 분석하는 서버에 있어서,
    외부 클라이언트로부터 대상체의 안구의 적어도 일부를 촬영한 안구영상을 수신하는 통신부; 및
    상기 획득된 안구영상을 학습된 제1 모델에 입력하여 상기 대상체의 안구, 순환계 및 내부 장기 중 적어도 하나의 질환여부를 판단하는 제어부; 를 포함하는, 서버.
KR1020170108232A 2017-08-25 2017-08-25 안구영상 분석방법 KR101977645B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020170108232A KR101977645B1 (ko) 2017-08-25 2017-08-25 안구영상 분석방법
PCT/KR2018/009809 WO2019039912A1 (ko) 2017-08-25 2018-08-24 진단 보조 시스템 및 그 제어 방법
SG11202001633UA SG11202001633UA (en) 2017-08-25 2018-08-24 Diagnosis assistance system and control method therefor
US16/359,902 US10580530B2 (en) 2017-08-25 2019-03-20 Diagnosis assistance system and control method thereof
US16/748,673 US11276497B2 (en) 2017-08-25 2020-01-21 Diagnosis assistance system and control method thereof
US17/591,418 US11790645B2 (en) 2017-08-25 2022-02-02 Diagnosis assistance system and control method thereof
US18/474,309 US20240029421A1 (en) 2017-08-25 2023-09-26 Diagnosis assistance system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170108232A KR101977645B1 (ko) 2017-08-25 2017-08-25 안구영상 분석방법

Publications (2)

Publication Number Publication Date
KR20190022216A true KR20190022216A (ko) 2019-03-06
KR101977645B1 KR101977645B1 (ko) 2019-06-12

Family

ID=65439468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170108232A KR101977645B1 (ko) 2017-08-25 2017-08-25 안구영상 분석방법

Country Status (4)

Country Link
US (4) US10580530B2 (ko)
KR (1) KR101977645B1 (ko)
SG (1) SG11202001633UA (ko)
WO (1) WO2019039912A1 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058883B1 (ko) * 2019-04-11 2019-12-24 주식회사 홍복 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법
KR20210023569A (ko) 2019-08-23 2021-03-04 삼성에스디에스 주식회사 심혈관 질환 위험 인자 예측 장치 및 방법
WO2021118255A3 (ko) * 2019-12-10 2021-08-05 사회복지법인 삼성생명공익재단 전안부 이미지를 이용한 각막 병변 분석 시스템 및 방법 그리고 컴퓨터로 판독 가능한 기록 매체
KR20210103446A (ko) * 2019-04-17 2021-08-23 (주)성민네트웍스 의료 정보를 생성하는 방법
KR20210107295A (ko) * 2020-02-24 2021-09-01 가톨릭대학교 산학협력단 녹내장 수술 결과 진단 장치 및 그 판단 방법
KR20210146690A (ko) * 2020-05-27 2021-12-06 주식회사 스파이더코어 신장 기능 이상을 검출하는 심층 신경망 기반 망막 영상 분석 방법 및 장치
WO2022010334A1 (ko) * 2020-07-10 2022-01-13 한양대학교 산학협력단 안구질환 구조적 손상 판단 방법 및 그 장치
WO2022045652A1 (ko) * 2020-08-25 2022-03-03 사회복지법인 삼성생명공익재단 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램
WO2022059926A1 (ko) * 2020-09-16 2022-03-24 가톨릭대학교 산학협력단 사시 검사 결과 검증 제시 시스템 및 방법과 이를 위한 애플리케이션
US11382794B2 (en) 2018-07-02 2022-07-12 Belkin Laser Ltd. Direct selective laser trabeculoplasty
US11564836B2 (en) 2010-05-10 2023-01-31 Ramot At Tel Aviv University Ltd. System and method for treating an eye
US11771596B2 (en) 2010-05-10 2023-10-03 Ramot At Tel-Aviv University Ltd. System and method for treating an eye

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101977645B1 (ko) * 2017-08-25 2019-06-12 주식회사 메디웨일 안구영상 분석방법
CN110399929B (zh) * 2017-11-01 2023-04-28 腾讯科技(深圳)有限公司 眼底图像分类方法、装置以及计算机可读存储介质
WO2019098173A1 (ja) * 2017-11-14 2019-05-23 国立大学法人大阪大学 認知機能障害診断装置および認知機能障害診断プログラム
US10783634B2 (en) * 2017-11-22 2020-09-22 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US10892050B2 (en) * 2018-04-13 2021-01-12 International Business Machines Corporation Deep image classification of medical images
US11636340B2 (en) * 2018-04-17 2023-04-25 Bgi Shenzhen Modeling method and apparatus for diagnosing ophthalmic disease based on artificial intelligence, and storage medium
US11892996B1 (en) 2019-07-16 2024-02-06 Splunk Inc. Identifying an indexing node to process data using a resource catalog
US12026872B2 (en) * 2018-06-05 2024-07-02 Sumitomo Chemical Company, Limited Diagnosis assisting system, diagnosis assisting method and diagnosis assisting program
US20210390343A1 (en) * 2018-10-25 2021-12-16 Shell Oil Company Backpropagation-enabled method for identifying a sea surface anomaly from satellite-acquired images and/or airborne-acquired images
US11357396B1 (en) * 2019-01-25 2022-06-14 Verily Life Sciences Llc Diagnostic model optimization for variations in mechanical components of imaging devices
EP3924935A1 (en) * 2019-03-29 2021-12-22 Google LLC Processing fundus images using machine learning models to generate blood-related predictions
FR3095878B1 (fr) * 2019-05-10 2021-10-08 Univ De Brest Procédé d'analyse automatique d'images pour reconnaître automatiquement au moins une caractéristique rare
US20200364442A1 (en) 2019-05-15 2020-11-19 Getac Technology Corporation System for detecting surface pattern of object and artificial neural network-based method for detecting surface pattern of object
US11915826B2 (en) 2019-06-07 2024-02-27 Welch Allyn, Inc. Digital image screening and/or diagnosis using artificial intelligence
JP7313942B2 (ja) * 2019-07-17 2023-07-25 株式会社エビデント 評価支援方法、評価支援システム、プログラム
US20220301157A1 (en) * 2019-07-31 2022-09-22 Nikon Corporation Information processing system, information processing device, image acquisition device, information processing method, image acquisition method, and program
CN114450755A (zh) * 2019-07-31 2022-05-06 株式会社尼康 信息处理***、信息处理装置、信息处理方法及程序
EP4006915A4 (en) * 2019-07-31 2023-08-30 Nikon Corporation INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING METHOD
EP3772720B1 (en) * 2019-08-08 2021-09-29 Siemens Healthcare GmbH Method and system for image analysis
KR102250694B1 (ko) * 2019-08-30 2021-05-11 서울대학교병원 안구 영상 내 혈관 분할을 이용한 자동 질환 판단 장치 및 그 방법
WO2021067507A1 (en) * 2019-09-30 2021-04-08 Allen Institute Building computational transfer functions on 3d light microscopy images using deep learning
CN110826470A (zh) * 2019-11-01 2020-02-21 复旦大学 基于深度主动学习的眼底图像左右眼识别方法
CN111145145B (zh) * 2019-12-10 2023-04-07 太原科技大学 一种基于MobileNets的图像表面缺陷检测方法
US11829415B1 (en) 2020-01-31 2023-11-28 Splunk Inc. Mapping buckets and search peers to a bucket map identifier for searching
CN111429412B (zh) * 2020-03-17 2023-11-03 北京青燕祥云科技有限公司 肝包虫超声ai辅助诊断方法及***
JP2021145805A (ja) * 2020-03-18 2021-09-27 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7483247B2 (ja) 2020-04-13 2024-05-15 株式会社トーメーコーポレーション 検査対象分類システム、検査対象分類方法および検査対象分類プログラム
JP7481705B2 (ja) 2020-04-30 2024-05-13 国立研究開発法人理化学研究所 医療システム
CN111658308B (zh) * 2020-05-26 2022-06-17 首都医科大学附属北京同仁医院 一种体外聚焦超声治疗白内障手术***
KR102414994B1 (ko) * 2020-06-05 2022-06-30 자이메드 주식회사 안저영상을 이용한 혈관질환 예측 지원방법 및 지원장치, 이를 포함하는 시스템
US11615082B1 (en) 2020-07-31 2023-03-28 Splunk Inc. Using a data store and message queue to ingest data for a data intake and query system
US11449371B1 (en) 2020-07-31 2022-09-20 Splunk Inc. Indexing data at a data intake and query system based on a node capacity threshold
CN115151182B (zh) * 2020-10-10 2023-11-14 豪夫迈·罗氏有限公司 用于诊断分析的方法和***
US11609913B1 (en) 2020-10-16 2023-03-21 Splunk Inc. Reassigning data groups from backup to searching for a processing node
KR102418399B1 (ko) * 2020-12-04 2022-07-07 주식회사 에이아이플랫폼 인공지능 기반 치매 조기 진단 플랫폼
KR20220095291A (ko) 2020-12-29 2022-07-07 부산대학교 산학협력단 빅데이터와 인공지능 기술기반의 시기능 변화 예측 시스템 및 방법
US11564568B1 (en) 2021-05-25 2023-01-31 Agnya Perceptive Solutions, L.L.C. Eye imaging system and fundus camera positioning device
EP4134980A4 (en) * 2021-06-30 2024-01-10 Thyroscope Inc. VISIT GUIDANCE METHOD FOR EXAMINATION OF ACTIVE THYROID EYE DISEASE AND SYSTEM FOR IMPLEMENTING THE SAME
US11809395B1 (en) * 2021-07-15 2023-11-07 Splunk Inc. Load balancing, failover, and reliable delivery of data in a data intake and query system
KR102580279B1 (ko) * 2021-10-25 2023-09-19 아주대학교산학협력단 알츠하이머병 진단에 필요한 정보를 제공하는 방법 및 이를 수행하기 위한 장치
US20230344867A1 (en) * 2022-04-25 2023-10-26 Palo Alto Networks, Inc. Detecting phishing pdfs with an image-based deep learning approach
KR20230172106A (ko) * 2022-06-15 2023-12-22 경상국립대학교산학협력단 딥러닝 모델 학습 방법, 딥러닝 모델을 이용한 안과질환 진단 방법 및 이를 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체
CN115359870B (zh) * 2022-10-20 2023-03-24 之江实验室 一种基于层次图神经网络的疾病诊疗过程异常识别***
EP4372695A1 (en) * 2022-11-21 2024-05-22 Koninklijke Philips N.V. Saliency maps for deep learning models
CN117238483B (zh) * 2023-11-10 2024-02-27 哈尔滨海鸿基业科技发展有限公司 一种儿童脑瘫诊断设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130100384A (ko) * 2009-06-02 2013-09-10 캐논 가부시끼가이샤 화상처리장치, 그 제어방법 및 컴퓨터 프로그램

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5857030A (en) * 1995-08-18 1999-01-05 Eastman Kodak Company Automated method and system for digital image processing of radiologic images utilizing artificial neural networks
US7474775B2 (en) * 2005-03-31 2009-01-06 University Of Iowa Research Foundation Automatic detection of red lesions in digital color fundus photographs
DE102005034332A1 (de) 2005-07-22 2007-01-25 Carl Zeiss Meditec Ag Einrichtung und Verfahren zur Beobachtung, Dokumentation und/oder Diagnose des Augenhintergrundes
EP1780651A1 (en) * 2005-10-25 2007-05-02 Bracco Imaging, S.P.A. Method and system for automatic processing and evaluation of images, particularly diagnostic images
JP4350738B2 (ja) 2006-10-27 2009-10-21 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X線断層撮影装置およびアーチファクトの低減方法
JP4940070B2 (ja) * 2007-09-10 2012-05-30 国立大学法人 東京大学 眼底観察装置、眼科画像処理装置及びプログラム
JP5320335B2 (ja) * 2010-03-31 2013-10-23 富士フイルム株式会社 診断支援システム、診断支援装置、診断支援方法および診断支援プログラム
US9033510B2 (en) 2011-03-30 2015-05-19 Carl Zeiss Meditec, Inc. Systems and methods for efficiently obtaining measurements of the human eye using tracking
KR102043130B1 (ko) * 2012-11-16 2019-11-11 삼성전자주식회사 컴퓨터 보조 진단 방법 및 장치
KR20150016089A (ko) 2013-08-02 2015-02-11 안병익 신경망 컴퓨팅 장치 및 시스템과 그 방법
JP6143096B2 (ja) 2013-08-07 2017-06-07 ソニー株式会社 眼底画像処理装置およびプログラム、並びに眼底画像撮影装置
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
US9779492B1 (en) 2016-03-15 2017-10-03 International Business Machines Corporation Retinal image quality assessment, error identification and automatic quality correction
JP6779690B2 (ja) 2016-07-27 2020-11-04 株式会社トプコン 眼科画像処理装置及び眼科撮影装置
KR101828011B1 (ko) 2016-08-11 2018-02-21 서울대학교산학협력단 이미지에 포함된 객체의 상태를 분류하는 방법 및 분류 장치
US10660576B2 (en) * 2017-01-30 2020-05-26 Cognizant Technology Solutions India Pvt. Ltd. System and method for detecting retinopathy
US10719936B2 (en) * 2017-04-27 2020-07-21 Retinascan Limited System and method for automated funduscopic image analysis
JP7078948B2 (ja) * 2017-06-27 2022-06-01 株式会社トプコン 眼科情報処理システム、眼科情報処理方法、プログラム、及び記録媒体
KR101977645B1 (ko) * 2017-08-25 2019-06-12 주식회사 메디웨일 안구영상 분석방법
CN107492099B (zh) * 2017-08-28 2021-08-20 京东方科技集团股份有限公司 医学图像分析方法、医学图像分析***以及存储介质
KR101848321B1 (ko) 2017-10-27 2018-04-20 주식회사 뷰노 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130100384A (ko) * 2009-06-02 2013-09-10 캐논 가부시끼가이샤 화상처리장치, 그 제어방법 및 컴퓨터 프로그램

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11771596B2 (en) 2010-05-10 2023-10-03 Ramot At Tel-Aviv University Ltd. System and method for treating an eye
US11564836B2 (en) 2010-05-10 2023-01-31 Ramot At Tel Aviv University Ltd. System and method for treating an eye
US11382794B2 (en) 2018-07-02 2022-07-12 Belkin Laser Ltd. Direct selective laser trabeculoplasty
KR102058883B1 (ko) * 2019-04-11 2019-12-24 주식회사 홍복 당뇨병 및 전조 증상을 진단하기 위해 홍채 영상 및 망막 영상을 인공지능으로 분석하는 방법
KR20210103446A (ko) * 2019-04-17 2021-08-23 (주)성민네트웍스 의료 정보를 생성하는 방법
KR20210023569A (ko) 2019-08-23 2021-03-04 삼성에스디에스 주식회사 심혈관 질환 위험 인자 예측 장치 및 방법
WO2021118255A3 (ko) * 2019-12-10 2021-08-05 사회복지법인 삼성생명공익재단 전안부 이미지를 이용한 각막 병변 분석 시스템 및 방법 그리고 컴퓨터로 판독 가능한 기록 매체
KR20210107295A (ko) * 2020-02-24 2021-09-01 가톨릭대학교 산학협력단 녹내장 수술 결과 진단 장치 및 그 판단 방법
KR20210146690A (ko) * 2020-05-27 2021-12-06 주식회사 스파이더코어 신장 기능 이상을 검출하는 심층 신경망 기반 망막 영상 분석 방법 및 장치
WO2022010334A1 (ko) * 2020-07-10 2022-01-13 한양대학교 산학협력단 안구질환 구조적 손상 판단 방법 및 그 장치
KR20220007337A (ko) * 2020-07-10 2022-01-18 한양대학교 산학협력단 안구질환 구조적 손상 판단 방법 및 그 장치
WO2022045652A1 (ko) * 2020-08-25 2022-03-03 사회복지법인 삼성생명공익재단 안질환 시야 손상 예후 예측 시스템 및 방법과 이를 위한 컴퓨터 프로그램
WO2022059926A1 (ko) * 2020-09-16 2022-03-24 가톨릭대학교 산학협력단 사시 검사 결과 검증 제시 시스템 및 방법과 이를 위한 애플리케이션

Also Published As

Publication number Publication date
KR101977645B1 (ko) 2019-06-12
US20200160999A1 (en) 2020-05-21
US11276497B2 (en) 2022-03-15
US20190221313A1 (en) 2019-07-18
US20220230750A1 (en) 2022-07-21
US10580530B2 (en) 2020-03-03
SG11202001633UA (en) 2020-03-30
US20240029421A1 (en) 2024-01-25
WO2019039912A1 (ko) 2019-02-28
US11790645B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
KR101977645B1 (ko) 안구영상 분석방법
US12040079B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
KR101848321B1 (ko) 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
WO2021039339A1 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
US20210390696A1 (en) Medical image processing apparatus, medical image processing method and computer-readable storage medium
Abràmoff et al. Retinal imaging and image analysis
JP7413147B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11922601B2 (en) Medical image processing apparatus, medical image processing method and computer-readable medium
JP2021039748A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
KR102071774B1 (ko) 안구영상을 이용한 심뇌혈관 질환 예측방법
WO2020036182A1 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
JP7478216B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
Kauppi Eye fundus image analysis for automatic detection of diabetic retinopathy
JP7362403B2 (ja) 画像処理装置および画像処理方法
CN113962311A (zh) 知识数据和人工智能驱动的眼科多病种识别***
KR101848322B1 (ko) 피검체에 대한 안저 영상의 소견 및 진단 정보의 생성을 위하여 판독을 지원하는 방법 및 이를 이용한 장치
CN113557714A (zh) 医学图像处理装置、医学图像处理方法和程序
US20220319004A1 (en) Automatic vessel analysis from 2d images
JP2022155690A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7194136B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
Giancardo Automated fundus images analysis techniques to screen retinal diseases in diabetic patients
KR102343796B1 (ko) 안구영상을 이용한 심혈관계 질환 예측방법
JP7344847B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Brea et al. Deep learning-based retinal vessel segmentation with cross-modal evaluation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right