KR20200108685A - 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램 - Google Patents

딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램 Download PDF

Info

Publication number
KR20200108685A
KR20200108685A KR1020190027674A KR20190027674A KR20200108685A KR 20200108685 A KR20200108685 A KR 20200108685A KR 1020190027674 A KR1020190027674 A KR 1020190027674A KR 20190027674 A KR20190027674 A KR 20190027674A KR 20200108685 A KR20200108685 A KR 20200108685A
Authority
KR
South Korea
Prior art keywords
image
breast
deep learning
mammography
learning algorithm
Prior art date
Application number
KR1020190027674A
Other languages
English (en)
Inventor
유은영
김광기
김영재
박성진
Original Assignee
가천대학교 산학협력단
(의료)길의료재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단, (의료)길의료재단 filed Critical 가천대학교 산학협력단
Priority to KR1020190027674A priority Critical patent/KR20200108685A/ko
Publication of KR20200108685A publication Critical patent/KR20200108685A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 매체에 저장된 유방의 병변 검출 프로그램에 있어서, 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단, 처리된 데이터를 출력하는 출력 수단을 갖춘 컴퓨터에, 의료 영상장비로 촬영한 유방촬영술 이미지를 상기 입력 수단이 입력받아 상기 처리 수단이 상기 이미지를 정규화하여 딥러닝 알고리즘으로 학습하는 (a)단계; 상기 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지에서 상기 처리 수단이 딥러닝 알고리즘으로 흉근 영역을 제거하여, 상기 출력 수단이 유방의 세그멘테이션 이미지를 출력하는 (b)단계; 및 상기 처리 수단이 상기 (a)단계에서 학습된 정보를 기반으로 상기 세그멘테이션 이미지에서 병변의 영역을 검출하는 (c)단계를 실행시키는 것을 특징으로 한다.

Description

딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램{PROGRAM USING DEEP LEARNING FOR AUTOMATED DETECTION OF BREAST LESION ON MAMMOGRAM}
본 발명은 유방의 병변을 자동으로 검출하는 프로그램에 관한 것으로서, 특히, 딥러닝 알고리즘이 적용되어 유방의 미세석회화 또는 종괴와 같은 병변을 자동으로 검출할 수 있는 프로그램 및 애플리케이션에 관한 것이다.
세계적으로 여성암 발병률 1위는 유방암으로, 한국에서 특히 40대 젊은 환자가 많다고 알려져 있다. 정밀 진단을 위하여 유방 초음파 또는 MR 유방 촬영이 사용되기도 하지만, 일반적으로는 엑스선 유방촬영술(digital mammography)이 유방암 정기 검진에 주로 사용되고 있다.
무증상 여성에게, 유방 촬영술은 50세 이상의 연령에서 사망률을 30% 낮추었고, 40~50세 여성에게 유방 촬영술은 사망률을 17% 낮춘 것으로 보고되고 있다. 하지만, 한국을 포함한 아시아 여성은 유전적으로 방사선 비 투과성의 치밀한 유방조직을 가지고 있어서 진단에 어려움이 많으며 유방암의 약 15~20%를 놓치고 있다.
유방 촬영술로 전체 유방암의 95%로 발전 가능한 종괴의 검출률은 80% 초중반으로 통계된다. 이는 95% 내외의 검출률을 보이는 유방 초음파, MR 유방 촬영에 비하여 현저히 낮은 수준이다. 한편, 인공지능 기술의 발전으로 딥러닝 알고리즘은 학습된 영상 이미지를 상당한 정확도로 분별할 정도에 이르렀다. 이에, 본 출원인은 딥러닝 알고리즘을 적용하여 유방촬영술 이미지에서 자동으로 유방 미세석회화 및 종괴를 검출하고, 이 과정에서 의사가 놓치기 어려운 이상 병변을 인공지능의 판독으로 보조할 수 있는 프로그램을 고안하게 되었다. 종래기술로 한국공개특허 제10-2016-0117807호는 유방 병변 진단을 위한 영상 판독 보조 방법 및 장치를 개시한다. 상기의 종래 특허문헌은 유방 병변 판독의 정확성을 향상시키기 위한 해결 수단으로 3차원 영상을 정합시켜 판독용 영상을 생성한다.
한국공개특허 제10-2016-0117807호
본 발명은 딥러닝 알고리즘의 기계학습을 이용하여 육안으로 분별이 어려운 종괴나 미세석회화와 같은 병변을 자동으로 검출할 수 있는 프로그램 및 애플리케이션을 제공하고자 한다.
이 과정에서, 본 발명은 한 장의 유방촬영술 이미지를 다양한 조건으로 다각화 한 뒤 기계학습을 수행하여 병변의 검출률이 우수한 프로그램 및 애플리케이션을 제공하고자 한다.
상기 목적을 달성하기 위하여 본 발명은, 매체에 저장된 유방의 병변 검출 프로그램에 있어서, 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단, 처리된 데이터를 출력하는 출력 수단을 갖춘 컴퓨터에, 의료 영상장비로 촬영한 유방촬영술 이미지를 상기 입력 수단이 입력받아 상기 처리 수단이 상기 이미지를 정규화하여 딥러닝 알고리즘으로 학습하는 (a)단계; 상기 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지에서 상기 처리 수단이 딥러닝 알고리즘으로 흉근 영역을 제거하여, 상기 출력 수단이 유방의 세그멘테이션 이미지를 출력하는 (b)단계; 및 상기 처리 수단이 상기 (a)단계에서 학습된 정보를 기반으로 상기 세그멘테이션 이미지에서 병변의 영역을 검출하는 (c)단계를 실행시키는 것을 특징으로 한다.
바람직하게, 상기 (a)단계는, 유방의 병변 모양을 딥러닝 알고리즘으로 학습할 수 있다.
바람직하게, 상기 (a)단계는, 상기 유방촬영술 이미지에서 흉근 영역을 딥러닝 알고리즘으로 학습할 수 있다.
바람직하게, 상기 (a)단계는, 상기 유방촬영술 이미지의 WW(window width)/WL(window level)를 정규화하되, 서로 다른 WW/WL을 갖는 복수개의 정규화된 이미지를 합성하여, 합성된 유방촬영술 이미지를 상기 딥러닝 알고리즘의 입력 이미지로 사용할 수 있다.
바람직하게, 상기 (a)단계는, 상기 입력 이미지로, 서로 다른 WW/WL를 갖는 복수개의 상기 유방촬영술 이미지를 합성하고, 합성된 이미지를 R, G, B 중 어느 한 채널로 컬러링한 이미지가 사용될 수 있다.
바람직하게, 상기 (a)단계는, 서로 다른 Window 값으로 정규화 된 복수개의 유방촬영술 이미지와, 복수개로 컬러링 된 유방촬영술 이미지를 조합하여, 다채널의 컬러 영상으로 상기 딥러닝 알고리즘의 학습을 수행할 수 있다.
바람직하게, 상기 (b)단계는, 상기 딥러닝 알고리즘으로 U-Net 모델 또는 U-Net 모델에서 파생된 생성모델이 적용될 수 있다.
또한, 본 발명은 매체에 저장된 유방 미세석회화 및 종괴의 검출 애플리케이션에 있어서, 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단을 갖춘 스마트폰, 태블릿, 또는 노트북에, 의료 영상장비로 촬영한 유방촬영술 이미지를 상기 입력 수단이 입력받아 상기 처리 수단이 상기 이미지를 정규화하여 딥러닝 알고리즘으로 학습하는 제1 기능; 상기 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지에서 상기 처리 수단이 딥러닝 알고리즘으로 흉근 영역을 제거하여, 상기 출력 수단이 유방의 세그멘테이션 이미지를 출력하는 제2 기능; 및 상기 처리 수단이 상기 제1 기능에서 학습된 정보를 기반으로 상기 세그멘테이션 이미지에서 병변의 영역을 검출하는 제3 기능을 실행시키는 것을 다른 특징으로 한다.
본 발명에 따르면, 유방의 병변 자동 검출을 위해, 병변 검출을 위한 학습과, 흉근 분리를 위한 학습의 2가지를 수행한다. 본 발명은 흉근을 분리하여 유방의 세그멘테이션 이미지를 확보하고, 세그멘테이션 이미지에서 검출률의 향상을 위해 3종류의 WW/WL을 갖는 이미지의 합성본을 입력 이미지로 하고, 3 채널의 컬러 이미지를 학습한다. 이러한 학습 과정을 통해 본 발명은 원본 이미지에서 유방의 종괴 또는 미세석회화와 같은 병변을 보다 정확하게 자동으로 검출할 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 유방의 병변 검출 프로그램의 시스템 흐름도를 나타낸 것이다.
도 2는 본 발명의 실시예에 따른 유방의 병변 검출 프로그램의 전처리 프로세스를 도시한 것이다.
도 3은 흉근 영역이 포함된 유방촬영술 이미지에서 종괴 및 미세석회화가 오검출된 이미지를 도시한 것이다.
도 4은 본 발명의 실시예에 따른 유방의 병변 검출 프로그램의 딥러닝 알고리즘이 흉근 영역을 분리하는 과정을 도시한 것이다.
도 5는 도 4에 따라 딥러닝 알고리즘이 흉근 영역을 분리한 비교 이미지 및 세그멘테이션 이미지를 도시한 것이다.
도 6은 세그멘테이션 이미지에서 본 발명의 실시예에 따른 프로그램이 검출한 종괴 또는 미세석회화의 병변과, 실제 병변의 위치를 대조한 이미지를 도시한 것이다.
도 7은 본 발명의 다른 실시예에 따른 유방의 병변 검출 애플리케이션의 시스템 흐름도를 도시한 것이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 상세히 설명한다. 다만, 본 발명이 예시적 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해 질 수 있으며, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 유방의 병변 검출 프로그램(1)의 시스템 흐름도를 나타낸 것이다. 도 1을 참조하면, 유방의 병변 검출 프로그램(1)은 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단, 처리된 데이터를 출력하는 출력 수단을 갖춘 컴퓨터(10)에 수행되기 위하여 매체에 저장 및 보급될 수 있다.
입력 수단은 키보드, 마우스 또는 터치패드가 될 수 있고, 처리 수단은 컴퓨터에 내장된 프로세서가 될 수 있으며, 출력 수단은 모니터나 패드 화면 등의 디스플레이 구성이 될 수 있다.
본 실시예에 따른 유방의 병변 검출 프로그램(1)은 딥러닝 알고리즘으로 학습하는 (a)단계(S10), 이미지를 세그멘테이션하는 (b)단계(S20), 및 병변을 검출하는 (c)단계(S30)를 포함할 수 있다.
(a)단계(S10)는 의료 영상장비로 촬영한 유방촬영술 이미지(13)를 컴퓨터(10)의 입력 수단이 입력받아 컴퓨터(10)의 처리 수단이 유방촬영술 이미지(13)를 정규화하여 딥러닝 알고리즘으로 학습하는 단계를 의미한다.
본 실시예에 따른 딥러닝 알고리즘의 학습 입력 데이터는 의료 영상 이미지가 될 수 있다. 유방촬영술(Mammography)은 유방조직에 대한 X-선 검사로 유방내부 조직의 양상을 보여주는 기초 검사이다. 유방의 X-선 촬영법은 혹이 만져질 경우에 암인지 아닌지를 구별하고 유방종양이 만져지기 전, 작은 크기의 종괴나 석회화 침착 현상이 있을 때 악성 여부를 예측할 수 있다. 본 실시예에 따른 유방의 병변 검출 프로그램은 딥러닝 알고리즘의 학습대상으로, 유방촬영술 영상 이미지를 입력 데이터로 한다.
(a)단계(S10)는 유방의 병변 모양을 딥러닝 알고리즘으로 학습할 수 있다. 또한, (a)단계(S10)는 유방촬영술 이미지(13)에서 흉근 영역(3)을 딥러닝 알고리즘으로 학습할 수 있다. 즉, 본 실시예에 따른 딥러닝 알고리즘은 유방의 병변과, 흉근의 영역 모두를 학습 대상으로 한다.
(a)단계(S10)는 유방촬영술 이미지(13)로부터 병변과 관련된 데이터와, 흉근과 관련된 데이터인 2가지 종류를 학습함에 주목한다. 병변과 관련된 학습 정보는 수동으로 그린 종괴의 위치 또는 모양 정보, 미세석회화 위치 또는 정보일 수 있다. 기계학습으로 종괴나 미세석회화의 병변 정보를 빅 데이터를 통해 아무리 정확하게 학습할지라도, 유방촬영술에 나타나는 흉근의 특성상 종괴나 미세석회화의 오차를 야기시킬 수 밖에 없다. 이에 본 실시예에서는, 유방 병변의 자동화 검출을 위해 병변 뿐만 아니라 흉근의 영역(3) 또한 학습하여, 유방촬영술(13)에서 흉근의 영역(3)을 제거한 세그멘테이션 이미지(15)를 획득하고, 세그멘테이션 이미지(15)에서 병변을 자동 검출한다.
(a)단계(S10)는 학습을 위한 전처리 단계로서, 하기의 과정을 수행한다.
도 2는 본 발명의 실시예에 따른 유방의 병변 검출 프로그램의 전처리 프로세스를 도시한 것이다.
(a)단계(S10)는 서로 다른 Window 값으로 정규화 된 복수개의 유방촬영술 이미지(131)와, 복수개로 컬러링 된 유방촬영술 이미지(133)를 조합하여, 다채널의 컬러 영상으로 딥러닝 알고리즘의 학습을 수행할 수 있다. 본 실시예에 따른 (a)단계(S10)는 전처리 과정으로, 입력 데이터인 1개의 유방촬영술 이미지(13)를 서로 다른 Window 값으로 여러장 정규화한다. 또한, 여러장 정규화한 유방촬영술 이미지(13)를 서로 다른 컬러로 합성하여, 서로 다른 컬러 이미지를 학습 대상으로 한다. 이와 관련 상세히 설명한다.
(a)단계(S10)는 유방촬영술 이미지(13)의 WW(window width)/WL(window level)를 정규화하되, 서로 다른 WW/WL을 갖는 복수개의 정규화된 이미지(131)를 합성하여, 합성된 유방촬영술 이미지를 딥러닝 알고리즘의 입력 이미지(133)로 사용할 수 있다.
(a)단계(S10)는 입력 이미지(133)로 서로 다른 WW/WL를 갖는 복수개의 유방촬영술 이미지(131)를 합성하고, 합성된 이미지를 R, G, B 중 어느 한 채널로 컬러링한 이미지가 사용될 수 있다.
의료 영상인 DICOM 파일은 일반적인 영상과는 다르게 WW와 WL을 어떻게 조절하느냐에 따라 특정 조직이 보이기도 하고 보이지 않기도 하는 특성이 존재한다. 본 실시예에 따른 딥러닝 모델은 상기의 특성을 고려하여 여러 조건의 WW/WL 환경에서 이미지를 학습함에 따라 병변의 검출률을 높이고자 하였다.
도 2를 참조하면, 유방촬영술 이미지(13)를 Raw Data로, 1500 x (1500*Ratio) Pixel Resize 하였고, 0을 중심으로 Pixel을 재분포 하여 유방촬영술 이미지(13)를 정규화하였다. 정규화 과정으로, 서로 다른 window 값을 적용한 3장의 정규화된 이미지(131)를 생성하고, 이를 합성하여 R 채널로 컬러링한 입력 이미지(133)를 생성하였다.
본 실시예로, 서로 다른 window 값을 적용한 3개의 이미지는 각각 WW/WL,
Figure pat00001
/WL, WW*2/WL 가 될 수 있다. 본 실시예와 같이 window 값을 서로 다르게 정규화하여 1차적으로 유방촬영술의 영상 오차로 놓치게 되는 병변이 없도록 학습한다. 이후, 상기 복수개의 정규화된 이미지(131)를 합성하여 2차적으로 다양한 컬러 조건으로 최종 입력 이미지(133)를 생성한다. 다른 실시예로, 복수개의 WW/WL의 정규화 된 이미지(131)는 합성된 후 다른 채널로 컬러링될 수도 있고, 서로 다른 WW/WL의 정규화 이미지(131)가 각각 다른 채널로 컬러링된 후 합성되어도 무방하다.
2차적으로 컬러 조건을 분별시켜 학습하는 과정은 딥러닝 알고리즘 입장에서 어떤 물체를 판단하기 위해 햇빛 아래에서도 살펴보고, 형광등 아래에서도 살펴보며, 백열등 아래에서도 살펴본 후, 각 조건에서 살펴본 정보들을 종합하여 결론을 내는 것과 유사한 학습을 수행하는 것이다.
요약하면, 본 실시예에 따른 (a)단계(S10)는 유방촬영술 이미지(13)를 학습시 Window의 조건과 컬러의 조건을 조합하여 전처리를 수행하여, 딥러닝 알고리즘이 다양한 환경이 고련된 입력 이미지(133)를 제공받을 수 있도록 한다.
(b)단계(S20)는 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지(13)에서 컴퓨터(10)의 처리 수단이 딥러닝 알고리즘으로 흉근 영역(3)을 제거하여, 컴퓨터(10)의 출력 수단이 유방의 세그멘테이션 이미지(15)를 출력하는 단계를 의미한다.
도 3은 흉근 영역(3)이 포함된 유방촬영술 이미지(13)에서 종괴 및 미세석회화가 오검출된 이미지를 도시한 것이다. 유방촬영술의 특성상, 흉근 영역(3)에 나타나는 조직의 치밀 형상은 미세석회화 또는 종괴의 병변 형상과 유사하게 표현될 수 있다. 따라서, 전술한 바와 같이 (a)단계(S10)에서 아무리 병변을 다양하게 학습시켜도 흉근에서 검출되는 오검출을 피하기 어렵다.
도 3을 참조하면, 초록색(Ground truth) 체크 박스가 실제 병변이 존재하는 영역을 표시한 것이며, 붉은색(Deep Learning Detection) 체크 박스가 본 실시예에 따른 유방 병변 검출 프로그램이 자동으로 검출한 병변 영역을 표시한 것이다. 도 3의 실시예는 흉근의 영역에 대한 학습을 수행하지 않고, 세그멘테이션 단계인 (b)단계(S30) 또한 수행되지 않은 상태에서, 딥러닝 알고리즘이 유방의 병변을 검출한 것이다. 유방이 있는 영역에서, 본 실시예에 따른 유방 병변 검출 프로그램이 병변 영역(31)을 정확하게 검출한 것을 확인할 수 있다. 반면, 흉근 영역(3)에서 실제 병변이 없음에도 1~3개 내의 오검출 영역(33)이 존재하였다.
도 3을 참조하면, 딥러닝 알고리즘의 검출 영역을 유방 영역으로만 한정한다면, 정확한 병변 검출이 가능할 것이 예상된다. 따라서, 본 실시예에서는 흉근 영역(3)을 제거하기 위해 (a)단계(S10)에서 흉근의 영역(3)을 별도의 학습 대상으로 한다. 이후, 유방의 영역만이 병변 검출 대상이 될 수 있도록 세그멘테이션 이미지(15)를 생성하는 (b)단계(S20)가 수행된다.
도 4은 본 발명의 실시예에 따른 유방의 병변 검출 프로그램의 딥러닝 알고리즘이 흉근 영역(3)을 분리하는 과정을 도시한 것이다.
(b)단계(S20)는 상기 딥러닝 알고리즘으로 U-Net 모델 또는 U-Net 모델에서 파생된 생성모델이 적용될 수 있다. U-Net 모델은 네트워크의 형태가 알파벳 U와 비슷한 형태를 나타낸다고 하여 명명된 모델이다. U-Net 모델은 특히 의약쪽에서 탁월한 효과를 보이는 세그멘테이션 네트워크로 볼 수 있다. CNN 모델들은 단순 분류(classification)에서 주로 사용된다면, U-Net은 Classification + Localization에서 주로 사용될 수 있다.
도 5는 도 4에 따라 딥러닝 알고리즘이 흉근 영역(3)을 분리한 비교 이미지 및 세그멘테이션 이미지를 도시한 것이다. 도 5를 참조하면, 수동으로 흉근 영역을 분리한 스탠다드 이미지(30‘와 딥러닝 알고리즘이 학습으로 분리한 흉근 영역 분리 이미지(30)가 거의 동일한 것을 확인할 수 있다. 출력 수단은 흉근 영역을 분리하여 유방의 영역만을 검출 대상으로 한 최종 세그멘테이션 이미지(15)를 출력한다.
(c)단계(S30)는 컴퓨터(10)의 처리 수단이 (a)단계(S10)에서 학습된 정보를 기반으로 세그멘테이션 이미지(15)에서 병변의 영역(31)을 검출하는 단계를 의미한다.
도 6은 세그멘테이션 이미지에서 본 발명의 실시예에 따른 프로그램이 검출한 종괴 또는 미세석회화의 병변과, 실제 병변의 위치를 대조한 이미지를 도시한 것이다. 도 6을 참조하면, 초록색(Ground truth) 체크 박스가 실제 병변이 존재하는 영역을 표시한 것이며, 붉은색(Deep Learning Detection) 체크 박스가 본 실시예에 따른 유방 병변 검출 프로그램이 자동으로 검출한 병변 영역을 표시한 것이다. 도 3의 실시예와 달리, 흉근 영역 분할 과정이 수행된 도 6의 실시예에서, 오검출 없이 실제 병변의 위치를 딥러닝 알고리즘이 정확하게 검출한 결과를 확인할 수 있다.
본 발명의 다른 실시예로, 유방의 병변 검출 프로그램(1)은 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단을 갖춘 스마트폰, 태블릿, 또는 노트북에 보급되는 형태인 애플리케이션으로 제공될 수 있다.
본 실시예에 따른 유방의 병변 검출 애플리케이션은 의료 영상장비로 촬영한 유방촬영술 이미지를 상기 입력 수단이 입력받아 상기 처리 수단이 상기 이미지를 정규화하여 딥러닝 알고리즘으로 학습하는 제1 기능; 상기 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지에서 상기 처리 수단이 딥러닝 알고리즘으로 흉근 영역을 제거하여, 상기 출력 수단이 유방의 세그멘테이션 이미지를 출력하는 제2 기능; 및 상기 처리 수단이 상기 제1 기능에서 학습된 정보를 기반으로 상기 세그멘테이션 이미지에서 병변의 영역을 검출하는 제3 기능을 실행시키기 위하여 매체에 저장될 수 있다.
도 7은 본 발명의 다른 실시예에 따른 유방의 병변 검출 애플리케이션의 시스템 흐름도로서, 전술한 유방의 병변 검출 프로그램과 수행 원리는 동일하다. 제1 기능은 전술한 (a)단계(S10)의 수행 과정으로 DICOM 영상을 입력받아 WW/WL을 획득하여 정규화 한다. 복수개의 정규화 이미지 생성 및 합성의 전처리 과정은 (a)단계(S10)에서 전술한 바 중복 원용을 생략한다.
제2 기능은 전술한 (b)단계(S20)의 수행 과정으로, 흉근 영역을 딥러닝 알고리즘으로 분리시킨다. 원본 영상에서 분리된 흉근 영역을 제거하여 최종 세그멘테이션 이미지(15)를 생성한다. 세그멘테이션 이미지(15)의 생성 과정은 (b)단계(S20)에서 전술한 바 중복 원용을 생략한다.
제3 기능은 전술한 (c)단계(S30)의 수행 과정으로, 유방의 병변을 딥러닝 알고리즘이 자동으로 검출하여 출력한다. 병변으로는 미세석회화 또는 종괴가 될 수 있다. 병변의 검출은 (c)단계(S30)에서 전술한 바 중복 원용을 생략한다.
이상에서 대표적인 실시예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.
1: 유방의 병변 검출 프로그램
10: 컴퓨터
13: 유방촬영술 이미지
131: 정규화된 이미지
133: 입력 이미지
3: 흉근 영역
31: 병변 영역
33: 오검출 영역
30: 흉근 영역 분리 이미지
15: 세그멘테이션 이미지

Claims (8)

  1. 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단, 처리된 데이터를 출력하는 출력 수단을 갖춘 컴퓨터에,
    (a) 의료 영상장비로 촬영한 유방촬영술 이미지를 상기 입력 수단이 입력받아 상기 처리 수단이 상기 유방촬영술 이미지를 정규화하여 딥러닝 알고리즘으로 학습하는 단계;
    (b) 상기 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지에서 상기 처리 수단이 딥러닝 알고리즘으로 흉근 영역을 제거하여, 상기 출력 수단이 유방의 세그멘테이션 이미지를 출력하는 단계; 및
    (c) 상기 처리 수단이 상기 (a)단계에서 학습된 정보를 기반으로 상기 세그멘테이션 이미지에서 병변의 영역을 검출하는 단계를 실행시키기 위하여 매체에 저장된 유방의 병변 검출 프로그램.
  2. 제 1 항에 있어서,
    상기 (a)단계는,
    유방의 병변 모양을 딥러닝 알고리즘으로 학습하는 것을 특징으로 하는 매체에 저장된 유방의 병변 검출 프로그램.
  3. 제 1 항에 있어서,
    상기 (a)단계는,
    상기 유방촬영술 이미지에서 흉근 영역을 딥러닝 알고리즘으로 학습하는 것을 특징으로 하는 매체에 저장된 유방의 병변 검출 프로그램.
  4. 제 1 항에 있어서,
    상기 (a)단계는,
    상기 유방촬영술 이미지의 WW(window width)/WL(window level)를 정규화하되, 서로 다른 WW/WL을 갖는 복수개의 정규화된 이미지를 합성하여, 합성된 유방촬영술 이미지를 상기 딥러닝 알고리즘의 입력 이미지로 사용하는 것을 특징으로 하는 매체에 저장된 유방의 병변 검출 프로그램.
  5. 제 4 항에 있어서,
    상기 (a)단계는,
    상기 입력 이미지로,
    서로 다른 WW/WL를 갖는 복수개의 상기 유방촬영술 이미지를 합성하고, 합성된 이미지를 R, G, B 중 어느 한 채널로 컬러링한 이미지가 사용되는 것을 특징으로 하는 매체에 저장된 유방의 병변 검출 프로그램.
  6. 제 1 항에 있어서,
    상기 (a)단계는,
    서로 다른 Window 값으로 정규화 된 복수개의 유방촬영술 이미지와,
    복수개로 컬러링 된 유방촬영술 이미지를 조합하여,
    다채널의 컬러 영상으로 상기 딥러닝 알고리즘의 학습을 수행하는 것을 특징으로 하는 매체에 저장된 유방의 병변 검출 프로그램.
  7. 제 1 항에 있어서,
    상기 (b)단계는,
    상기 딥러닝 알고리즘으로 U-Net 모델 또는 U-Net 모델에서 파생된 생성모델이 적용된 것을 특징으로 하는 매체에 저장된 유방의 병변 검출 프로그램.
  8. 데이터를 입력하는 입력 수단, 입력된 데이터를 처리하는 처리 수단을 갖춘 스마트폰, 태블릿, 또는 노트북에,
    의료 영상장비로 촬영한 유방촬영술 이미지를 상기 입력 수단이 입력받아 상기 처리 수단이 상기 이미지를 정규화하여 딥러닝 알고리즘으로 학습하는 제1 기능;
    상기 의료 영상장비가 촬영한 분석 대상이 되는 유방촬영술 이미지에서 상기 처리 수단이 딥러닝 알고리즘으로 흉근 영역을 제거하여, 상기 출력 수단이 유방의 세그멘테이션 이미지를 출력하는 제2 기능; 및
    상기 처리 수단이 상기 제1 기능에서 학습된 정보를 기반으로 상기 세그멘테이션 이미지에서 병변의 영역을 검출하는 제3 기능을 실행시키기 위하여 매체에 저장된 유방의 병변 검출 애플리케이션.
KR1020190027674A 2019-03-11 2019-03-11 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램 KR20200108685A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190027674A KR20200108685A (ko) 2019-03-11 2019-03-11 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190027674A KR20200108685A (ko) 2019-03-11 2019-03-11 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램

Publications (1)

Publication Number Publication Date
KR20200108685A true KR20200108685A (ko) 2020-09-21

Family

ID=72707883

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190027674A KR20200108685A (ko) 2019-03-11 2019-03-11 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램

Country Status (1)

Country Link
KR (1) KR20200108685A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261556B1 (ko) 2020-10-30 2021-06-07 한밭대학교 산학협력단 학습 데이터셋을 확장하여 학습하는 인공지능 기반의 미생물 균총과 질병의 연관성 예측 시스템 및 프로그램
CN112990267A (zh) * 2021-02-07 2021-06-18 哈尔滨医科大学 基于风格迁移模型的乳腺超声成像方法、装置及存储介质
WO2022173233A1 (ko) * 2021-02-10 2022-08-18 경북대학교 산학협력단 약지도 딥러닝 인공 지능을 이용한 유방 초음파 진단 방법 및 시스템
KR102565222B1 (ko) * 2022-06-21 2023-08-08 가천대학교 산학협력단 유방 종괴 검출에 대한 정보 제공 방법 및 이를 이용한 디바이스

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160117807A (ko) 2015-03-31 2016-10-11 한국전자통신연구원 유방 병변 진단을 위한 영상 판독 보조 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160117807A (ko) 2015-03-31 2016-10-11 한국전자통신연구원 유방 병변 진단을 위한 영상 판독 보조 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261556B1 (ko) 2020-10-30 2021-06-07 한밭대학교 산학협력단 학습 데이터셋을 확장하여 학습하는 인공지능 기반의 미생물 균총과 질병의 연관성 예측 시스템 및 프로그램
CN112990267A (zh) * 2021-02-07 2021-06-18 哈尔滨医科大学 基于风格迁移模型的乳腺超声成像方法、装置及存储介质
CN112990267B (zh) * 2021-02-07 2022-06-28 哈尔滨医科大学 基于风格迁移模型的乳腺超声成像方法、装置及存储介质
WO2022173233A1 (ko) * 2021-02-10 2022-08-18 경북대학교 산학협력단 약지도 딥러닝 인공 지능을 이용한 유방 초음파 진단 방법 및 시스템
KR102565222B1 (ko) * 2022-06-21 2023-08-08 가천대학교 산학협력단 유방 종괴 검출에 대한 정보 제공 방법 및 이를 이용한 디바이스

Similar Documents

Publication Publication Date Title
CN109447065B (zh) 一种乳腺影像识别的方法及装置
EP3432263B1 (en) Semantic segmentation for cancer detection in digital breast tomosynthesis
Hussain et al. Automated breast cancer detection using machine learning techniques by extracting different feature extracting strategies
KR20200108685A (ko) 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램
CN109363698B (zh) 一种乳腺影像征象识别的方法及装置
CN109544526B (zh) 一种慢性萎缩性胃炎图像识别***、装置和方法
CN109363699B (zh) 一种乳腺影像病灶识别的方法及装置
Shahangian et al. Automatic brain hemorrhage segmentation and classification in CT scan images
WO2021021329A1 (en) System and method for interpretation of multiple medical images using deep learning
TWI482102B (zh) 強化標的圖案之處理方法、標的圖案分類系統之產生方法以及分類檢測標的圖案之方法
US9122897B2 (en) Method for the detection and classification of microcalcification clusters in digital mammograms
CN110046627B (zh) 一种乳腺影像识别的方法及装置
CN109363697B (zh) 一种乳腺影像病灶识别的方法及装置
Jiang et al. Breast cancer detection and classification in mammogram using a three-stage deep learning framework based on PAA algorithm
JP4651370B2 (ja) 放射線画像処理の方法
CN109785320A (zh) 一种采用改进型AlexNet模型对乳腺钼靶X线图像进行分类和识别的方法
Cai et al. Identifying architectural distortion in mammogram images via a se-densenet model and twice transfer learning
Hu et al. A multi-instance networks with multiple views for classification of mammograms
JP2006325640A (ja) 異常陰影候補の表示方法及び医用画像処理システム
Kumar et al. A Novel Approach for Breast Cancer Detection by Mammograms
Teuwen et al. Soft tissue lesion detection in mammography using deep neural networks for object detection
Jeeva A Computer Aided Diagnosis for detection and classification of lung nodules
Mahoro et al. Breast masses detection on mammograms using recent one-shot deep object detectors
Widodo et al. Sample K-means clustering method for determining the stage of breast cancer malignancy based on cancer size on mammogram image basis
CN111062909A (zh) 乳腺肿块良恶性判断方法及设备

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application