KR20180108210A - 의료 영상 표시 방법 및 의료 영상 표시 장치 - Google Patents

의료 영상 표시 방법 및 의료 영상 표시 장치 Download PDF

Info

Publication number
KR20180108210A
KR20180108210A KR1020170037669A KR20170037669A KR20180108210A KR 20180108210 A KR20180108210 A KR 20180108210A KR 1020170037669 A KR1020170037669 A KR 1020170037669A KR 20170037669 A KR20170037669 A KR 20170037669A KR 20180108210 A KR20180108210 A KR 20180108210A
Authority
KR
South Korea
Prior art keywords
region
image
area
medical image
information
Prior art date
Application number
KR1020170037669A
Other languages
English (en)
Other versions
KR102329680B1 (ko
Inventor
이준교
강태욱
최동일
이민우
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to KR1020170037669A priority Critical patent/KR102329680B1/ko
Priority to US15/703,317 priority patent/US20180271495A1/en
Priority to EP17202309.5A priority patent/EP3379488B1/en
Publication of KR20180108210A publication Critical patent/KR20180108210A/ko
Application granted granted Critical
Publication of KR102329680B1 publication Critical patent/KR102329680B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0654Imaging
    • G01N29/0672Imaging by acoustic tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Acoustics & Sound (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

의료 영상 표시 방법은 실시간으로 촬영되는 대상체의 의료 영상 및 의료 영상에 정합되는 대상체의 제1 참조 영상을 표시하는 단계; 의료 영상 내에서, 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하는 단계; 제1 영역의 인접 영역의 영상 정보에 기초하여, 제1 영역의 영상 정보를 예측하는 단계; 및 예측 결과에 기초하여, 제1 참조 영상에서 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 포함할 수 있다.

Description

의료 영상 표시 방법 및 의료 영상 표시 장치{METHOD AND APPARATUS FOR DISPLAYING MEDICAL IMAGES}
의료 영상 표시 방법 및 의료 영상 표시 장치에 관한 것이다.
의료 영상 시스템은 생체의 영상을 제공하는 시스템으로서, 다양한 분야에서 이용되고 있다. 의료 영상 시스템은 자기공명영상(magnetic resonance image, MRI) 시스템, 컴퓨터 단층촬영(computed tomography, CT) 시스템, 양전자 방출 단층촬영(positron emission tomography, PET-CT) 시스템, 초음파 시스템 등을 포함한다.
효과적인 질병의 진단 및 환자의 치료에 있어서, 의료 영상 시스템에서 정확하고 효율적인 의료 영상 정보 제공이 요구된다. 따라서, 의료 영상 내의 대상체 정보를 효과적으로 전달할 수 있는 의료 영상 표시 장치가 필요하다.
의료 영상 표시 장치는 실시간 의료 영상 내에서 음영 또는 아티팩트로 인해 왜곡되거나 유실된 대상체의 영역을 대상체의 특징점을 이용하여 예측할 수 있다.
의료 영상 표시 장치는 실시간 의료 영상 내에서 왜곡되거나 유실된 대상체의 영역을 예측하고, 예측 결과에 기초하여, 대상체의 영역을 재구성할 수 있다.
의료 영상 표시 장치는 실시간 의료 영상에서 재구성된 대상체의 영상 정보에 기초하여, 대상체의 참조 영상을 재구성하여 표시할 수 있다.
또한, 상기 의료 영상 표시 장치의 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능 기록 매체를 제공한다.
일측에 따르면, 실시간으로 촬영되는 대상체의 의료 영상 및 상기 의료 영상에 정합되는 상기 대상체의 제1 참조 영상을 표시하는 단계; 상기 의료 영상 내에서, 상기 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하는 단계; 상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 영상 정보를 예측하는 단계; 및 상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 포함하는, 의료 영상 표시 방법이 제공된다.
여기서, 상기 제1 영역의 인접 영역의 영상 정보를 획득하는 단계는, 상기 제1 영역의 인접 영역에서 상기 대상체의 특징점을 추출하는 단계; 상기 제1 영역의 인접 영역의 밝기 값을 추출하는 단계; 상기 제1 영역의 인접 영역의 윤곽선을 추출하는 단계; 영상 처리 필터를 이용하여 상기 제1 영역의 인접 영역의 픽셀값들의 변화량을 추출하는 단계; 상기 제1 영역의 인접 영역의 히스토그램의 정보를 추출하는 단계; 상기 제1 영역의 인접 영역의 픽셀값들의 차이를 추출하는 단계; 및 상기 제1 영역의 인접 영역의 형태 정보를 추출하는 단계 중 적어도 하나의 단계를 포함할 수 있다.
또한, 상기 제1 영역의 인접 영역의 영상 정보를 획득하는 단계는, 상기 의료 영상 내에서, 상기 대상체에 대응되는 영역 내의 영상 품질이 낮은 영역을 상기 제1 영역으로 결정하는 단계; 및 상기 제1 영역의 인접 영역의 영상 정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 제1 영역의 영상 정보를 예측하는 단계는, 상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 인접 영역의 형태를 결정하는 단계; 및 상기 결정된 제1 영역의 인접 영역의 형태를 임의의 축을 기준으로 대칭시켜 상기 제1 영역의 형태를 예측하는 단계를 포함할 수 있다.
또한, 상기 제1 영역의 영상 정보를 예측하는 단계는, 상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 인접 영역의 형태를 결정하는 단계; 및 상기 결정된 제1 영역의 인접 영역의 형태가 소정의 패턴에 따라 이루어진 경우, 상기 패턴에 따라 상기 제1 영역의 형태를 예측하는 단계를 포함할 수 있다.
또한, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계는, 상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하는 단계; 및 상기 재구성된 영역을 상기 제1 참조 영상에서의 기존 영역과 구별하여 표시하는 단계를 포함할 수 있다.
또한, 상기 의료 영상 내의 상기 제1 영역을 재구성하고, 상기 재구성된 제1 영역을 상기 의료 영상에 중첩하여 표시하는 단계를 더 포함할 수 있다.
또한, 상기 제1 참조 영상의 타입이 상기 의료 영상의 타입과 상이한 경우, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계는, 상기 의료 영상 내의 상기 제1 영역을 재구성하는 단계; 상기 재구성된 제1 영역의 좌표 정보를 상기 의료 영상의 좌표계에서 상기 제1 참조 영상의 좌표계로 변환하는 단계; 및 상기 변환된 제1 영역의 좌표 정보에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 표시하는 단계를 포함할 수 있다.
또한, 상기 제1 영역의 인접 영역의 영상 정보 및 상기 예측된 제1 영역의 영상 정보를 표시하는 단계; 사용자 입력에 기초하여, 상기 예측된 제1 영역의 영상 정보를 보정하는 단계; 및 상기 보정된 제1 영역의 영상 정보에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 더 포함할 수 있다.
또한, 상기 의료 영상 내의 상기 대상체에 대응되는 영역을 확대하여 표시하는 단계를 더 포함하고, 상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계는, 상기 제1 참조 영상에서 재구성된 영역을 확대하여 표시하는 단계를 포함할 수 있다.
다른 일측에 따르면, 실시간으로 촬영되는 대상체의 의료 영상 및 상기 의료 영상에 정합되는 상기 대상체의 제1 참조 영상을 표시하는 디스플레이; 및 상기 의료 영상 내에서, 상기 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하고, 상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 영상 정보를 예측하고, 상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하는 프로세서를 포함하고, 상기 디스플레이는 상기 재구성된 제1 참조 영상을 표시하는, 의료 영상 표시 장치가 제공된다.
또 다른 일측에 따르면, 의료 영상 표시 방법을 실행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체에 있어서, 상기 의료 영상 표시 방법은, 실시간으로 촬영되는 대상체의 의료 영상 및 상기 의료 영상에 정합되는 상기 대상체의 제1 참조 영상을 표시하는 단계; 상기 의료 영상 내에서, 상기 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하는 단계; 상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 영상 정보를 예측하는 단계; 및 상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 포함하는, 컴퓨터 판독 가능 기록 매체가 제공된다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 발명의 일실시예에 따라, 의료 영상을 의료 영상 표시 장치에 표시하는 방법을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 의료 영상 표시 장치를 설명하기 위한 도면이다.
도 3은 일실시예에 따른 의료 영상 표시 장치의 구성을 도시한 블록도이다.
도 4는 다른 일실시예에 따른 의료 영상 표시 장치의 구성을 도시한 블록도이다.
도 5는 일실시예에 따른 의료 영상 표시 장치에서 의료 영상을 표시하는 방법을 나타낸 흐름도이다.
도 6은 일실시예에 따라, 의료 영상 표시 장치에서 표시된 의료 영상을 설명하기 위한 도면이다.
도 7은 일실시예에 따라, 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 설명하기 위한 도면이다.
도 8을 일실시예에 따라, 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 나타낸 흐름도이다.
도 9a 및 도 9b는 일실시예에 따라, 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 설명하기 위한 도면이다.
도 10a 내지 도 10c는 일실시예에 따라, 의료 영상 표시 장치의 디스플레이의 화면 상에 표시된 의료 영상을 설명하기 위한 도면이다.
도 11은 일실시예에 따라, 사용자의 입력에 따라 예측된 영역을 보정하는 과정을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예와 관련된 초음파 진단 장치의 구성을 도시한 블록도이다.
도 13은 본 개시의 일 실시 예와 관련된 무선 프로브의 구성을 도시한 블록도이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
명세서 전체에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다.
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미한다. 초음파 영상은 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 획득한 영상을 의미할 수 있다. 또한, 초음파 영상은 다양하게 구현될 수 있으며, 예를 들어, 초음파 영상은 A 모드(amplitude mode) 영상, B 모드(brightness mode) 영상, C 모드(color mode) 영상, D 모드(Doppler mode) 영상 중 적어도 하나일 수 있고 이에 한정되지 않으며, 또한, 초음파 영상은 2차원 영상 또는 3차원 영상일 수 있다.
또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, 대상체는 팬텀(phantom)을 포함할 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미할 수 있다.
또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
도 1은 본 발명의 일실시예에 따라, 의료 영상을 의료 영상 표시 장치에 표시하는 방법을 설명하기 위한 도면이다.
도 1의 1을 참고하면, 의료 영상 표시 장치는 환자의 신체 일부인 대상체에 대한 의료 영상을 획득할 수 있다. 예를 들면, 의료 영상 표시 장치가 초음파 진단 장치인 경우, 사용자는 초음파 진단 장치를 이용하여 대상체를 스캔하여 대상체의 의료 영상을 획득할 수 있다. 의료 영상 표시 장치는 초음파 영상 뿐만 아니라, 다양한 모달리티의 영상을 획득할 수 있다. 모달리티 영상은 OCT 영상, CT 영상, MR 영상, 엑스선(X-ray) 영상, SPECT 영상, PET 영상, C-arm, PET-CT, PET-MR, X-ray 영상을 포함할 수 있고, 다른 종류의 영상들이 포함될 수 있음은 본 개시에 따른 통상의 기술자 입장에서 이해할 수 있다.
도 1의 2를 참고하면, 의료 영상 표시 장치는 의료 영상 표시 장치를 제어하는 사용자 입력을 수신할 수 있다. 예를 들면, 의료 영상 표시 장치는 모달리티가 서로 상이한 영상들을 디스플레이의 화면 상에 표시하도록 제어하는 사용자 입력을 수신할 수 있다.
도 1의 3을 참고하면, 의료 영상 표시 장치는 대상체의 의료 영상을 디스플레이의 화면 상에 표시할 수 있다. 예를 들면, 의료 영상 표시 장치는 실시간으로 촬영되는 대상체의 초음파 영상 및 초음파 영상에 정합되는 CT 영상을 표시할 수 있다. 대상체의 위치, 형태 등이 실시간으로 변경된 경우, 의료 영상 표시 장치는 초음파 영상으로부터 대상체에 대응되는 영역의 영상 정보를 획득하고, 획득된 영상 정보에 기초하여 CT 영상 내의 대상체에 대응되는 영역을 재구성할 수 있다. 의료 영상 표시 장치는 재구성된 CT 영상을 표시할 수 있다.
도 2는 일실시예에 따른 의료 영상 표시 장치를 설명하기 위한 도면이다.
일실시예에 의하면, 의료 영상 표시 장치(200)는 의료 영상을 획득하고, 화면에 의료 영상을 표시하는 장치일 수 있다. 예를 들어, 의료 영상 표시 장치(100)는, 자기 공명 영상 장치(이하 'MRI 장치')(101), 컴퓨터 단층 촬영 장치(이하 'CT 장치')(102), X선 촬영 장치(미도시), 혈관 조영 검사(Angiography) 장치(미도시), 초음파 장치(103) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
MRI 장치(101)는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체의 단층 부위에 대한 이미지를 획득하는 기기이다.
CT 장치(102)는 대상체에 대하여 단면 영상을 제공할 수 있으므로, 일반적인 X선 촬영 장치에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)를 겹치지 않게 표현할 수 있다는 장점이 있다. CT 장치(102)는, 예를 들어, 2mm 두께 이하의 영상을 초당 수십, 수백 장씩 획득하여 가공함으로써 대상체에 대하여 비교적 정확한 단면 영상을 제공할 수 있다.
X선 촬영 장치는, X선을 인체에 투과하여, 인체 내부 구조물을 영상화하는 장치를 의미한다. 혈관 조영 검사 장치는, 카테터라고 하는 2mm 내외의 가느다란 관을 통해 조영제가 주입된 피검사자의 혈관(동맥, 정맥)을 엑스선을 통해서 볼 수 있게 하는 장치이다.
초음파 장치(103)는, 대상체의 체표로부터 체내의 소정 부위를 향하여 초음파 신호를 전달하고, 체내의 조직에서 반사된 초음파 신호의 정보를 이용하여 연부조직의 단층이나 혈류에 관한 이미지를 얻는 장치를 의미한다.
일실시예에 의하면, 의료 영상 표시 장치(200)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 의료 영상 표시 장치(200)는 고정식 단말뿐만 아니라 이동식 단말 형태로도 구현될 수 있다. 이동식 단말의 일례로 스마트폰, 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있다.
일실시예에 의하면, 의료 영상 표시 장치(200)는, 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 의료 영상 데이터를 주고 받을 수 있다. 또한, 의료 영상 표시 장치(100)는, 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 서버 등과 데이터 통신을 수행할 수 있다.
일실시예에 의하면, 의료 영상 표시 장치(200)는, 터치 스크린을 포함할 수도 있다. 터치스크린은 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출할 수 있도록 구성될 수 있다. 또한, 터치스크린은 직접 터치(real-touch) 뿐만 아니라 근접 터치(proximity touch)도 검출될 수 있도록 구성될 수 있다.
본 명세서에서 "직접 터치(real-touch)"라 함은 화면에 실제로 터치 도구(예컨대, 손가락, 전자펜 등)가 터치된 경우를 말하고, "근접 터치(proximity-touch)"라 함은 터치 도구가 화면에 실제로 터치는 되지 않고, 화면으로부터 소정 거리 떨어져 접근된 경우를 말한다.
일실시예에 의하면, 의료 영상 표시 장치(200)는, 터치 스크린을 통해 의료 영상에 대한 사용자의 터치 제스처를 감지할 수 있다. 본 명세서에서 기술되는 사용자의 터치 제스처(터치 입력)에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프, 핀치 등이 있을 수 있다.
일실시예에 의하면, 의료 영상 표시 장치(200)는, 의료 영상 내에서 객체를 선택(예를 들면, 관심 객체, 관심 영역, 관심 지점 등)하기 위한 사용자의 입력 또는 의료 영상의 표시를 제어하기 위한 사용자의 입력 중 일부 또는 전부를 GUI(Graphical User Interface) 형태로 제공할 수 있다.
도 3은 일실시예에 따른 의료 영상 표시 장치(300)의 구성을 도시한 블록도이다.
도 3에 도시된 의료 영상 표시 장치(300)는 프로세서(310) 및 디스플레이(320)를 포함할 수 있다. 그러나, 도시된 구성 요소 모두가 필수 구성 요소인 것은 아니다. 도시된 구성 요소보다 많은 구성 요소에 의해 의료 영상 표시 장치(300)가 구현될 수 있고, 그보다 적은 구성 요소에 의해서도 의료 영상 표시 장치(300)가 구현될 수 있다. 이하 상기 구성 요소들에 대해 살펴본다.
프로세서(310)는 실시간으로 촬영되는 대상체의 의료 영상(이하, 의료 영상이라 지칭한다)을 획득할 수 있다. 실시간으로 촬영되는 대상체의 의료 영상은 의료 영상 표시 장치(300)에서 직접 획득되거나, 외부 장치로부터 실시간으로 촬영되는 대상체의 의료 영상을 전송받을 수 있다.
프로세서(310)는 실시간으로 촬영되는 의료 영상에서 대상체의 특징점에 대한 영상 정보를 추출할 수 있다. 프로세서(310)는 추출된 특징점에 대한 영상 정보에 기초하여, 참조 영상에 대상체에 대한 업데이트 정보를 표시할 수 있다. 즉, 프로세서(310)는 추출된 특징점에 대한 영상 정보에 기초하여, 참조 영상 내의 대상체에 대응되는 영역을 재구성하여 표시할 수 있다. 한편, 실시간 촬영되는 의료 영상에서, 대상체의 특징점을 추출하는 과정에서, 대상체에 대응되는 영역 내에 음영(shadow) 및/또는아티팩트(artifact)가 존재하여 대상체에 대응되는 영역이 왜곡되어 표시될 수 있다.
프로세서(310)는 의료 영상 내에서, 대상체의 형태가 왜곡된 제1 영역을 검출할 수 있다. 예를 들면, 프로세서(310)는 의료 영상 내에서 대상체에 대응되는 영역 내의 영상 품질이 낮은 영역을 제1 영역으로 결정할 수 있다. 여기서, 프로세서(310)는 의료 영상 내의 소정 영역의 영상 품질이 미리 설정된 기준보다 낮으면, 소정 영역을 영상 품질이 낮은 영역으로 결정할 수 있다.
프로세서(310)는 제1 영역의 인접 영역의 영상 정보를 획득할 수 있다. 예를 들면, 영상 정보는 영상 내의 대상체의 윤곽선(contour) 정보, 경사도(gradient) 정보, 영상 내의 픽셀에 대한 강도(intencity) 정보 및 영상 내의 어두운 영역에서 밝은 영역까지의 픽셀 분포를 나타내는 히스토그램(histogram) 정보 등을 포함할 수 있고, 이에 한정되지 않는다. 여기서, 경사도 정보는 영상 내의 픽셀 값의 강도 또는 픽셀 값의 변화에 대한 정보를 나타낼 수 있다. 또한, 윤곽선 정보는 영상 처리 필터에 기초하여 획득될 수 있다. 영상 처리 필터는 가바 필터, 소벨 필터 및 로버츠 필터 중 적어도 하나에 해당될 수 있고, 이에 한정되지 않는다.
예를 들면, 프로세서(310)는 제1 영역의 인접 영역에서 대상체의 특징점을 추출하는 동작, 제1 영역의 인접 영역의 밝기 값을 추출하는 동작 및 제1 영역의 인접 영역의 윤곽선을 추출하는 동작, 영상 처리 필터에 기초하여 제1 영역의 인접 영역의 픽셀값들의 변화량을 추출하는 동작, 제1 영역의 인접 영역의 히스토그램의 정보를 추출하는 동작, 제1 영역의 인접 영역의 픽셀값들의 차이를 추출하는 동작 및 제1 영역의 인접 영역의 형태 정보를 추출하는 동작 중 적어도 하나의 동작을 수행하여 제1 영역의 인접 영역의 영상 정보를 획득할 수 있다. 프로세서(310)가 다른 방법에 의한 동작을 수행하여 제1 영역의 인접 영역의 영상 정보를 획득할 수 있음은 본 개시의 통상의 기술자는 이해할 수 있다.
프로세서(310)가 의료 영상 내에서 대상체의 특징점 추출하기 어려운 경우, 프로세서(310)는 대상체에 대응되는 영역 내의 일부 영역에서 특징점을 추출하고, 윤곽선(contour) 정보, 경사도(gradient) 정보 등을 이용한 영상 처리 기법, 미리 설정된 모델 값을 이용한 모델링 기법, 피팅(fitting), 머신 러닝, 인공 지능 기법 등을 이용하여 특징점이 추출되지 않은 영역을 재구성할 수 있다.
예를 들면, 프로세서(310)는 제1 영역의 인접 영역의 영상 정보에 기초하여, 제1 영역의 영상 정보를 예측할 수 있다. 구체적으로, 프로세서(310)는 제1 영역의 인접 영역의 영상 정보에 기초하여, 제1 영역의 인접 영역의 형태를 결정할 수 있다. 프로세서(310)는 결정된 제1 영역의 인접 영역의 형태를 임의의 축을 기준으로 대칭시켜 제1 영역의 형태를 예측할 수 있다. 예를 들면, 임의의 축은 제1 영역의 인접 영역에 대한 기준점을 지나는 축일 수 있다. 기준점은 제1 영역과 제1 영역의 인접 영역에 대한 중심점일 수 있다. 또한, 결정된 제1 영역의 인접 영역의 형태가 소정의 패턴에 따라 이루어진 경우, 프로세서(310)는 패턴에 따라 제1 영역의 형태를 예측할 수 있다.
프로세서(310)는 예측된 제1 영역의 영상 정보에 기초하여, 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성할 수 있다. 프로세서(310)는 디스플레이(320)를 제어함으로써, 대상체의 영역이 재구성된 제1 참조 영상을 표시할 수 있다.
디스플레이(320)는 소정 화면을 디스플레이(320) 한다. 구체적으로, 디스플레이(320)는 프로세서(310)의 제어에 따라서 소정 화면을 디스플레이(320) 한다. 디스플레이(320)는 디스플레이(320) 패널(display panel)(미도시)을 포함하며, 디스플레이(320) 패널 상으로, 의료 영상 화면 등을 디스플레이(320) 할 수 있다.
디스플레이(320)는 실시간으로 촬영되는 대상체의 의료 영상 및 의료 영상에 정합되는 대상체의 제1 참조 영상을 표시할 수 있다. 예를 들면, 디스플레이(320)는 실시간으로 촬영되는 간의 초음파 영상을 표시할 수 있다. 디스플레이(320)는 초음파 영상에 표시된 간과 동일한 간의 CT 영상을 표시할 수 있다. 여기서, 제1 참조 영상은 의료 영상 표시 장치(300) 또는 외부 장치로부터 획득하여 저장된 영상이다.
또한, 디스플레이(320)는 대상체의 영역이 재구성된 제1 참조 영상을 표시할 수 있다. 디스플레이(320)는 제1 참조 영상에서 재구성된 영역을 기존 영역과 구별하여 표시할 수 있다.
프로세서(310)는 실시간으로 촬영되는 의료 영상 내에서 제1 영역을 재구성할 수 있다. 디스플레이(320)는 의료 영상 내에서 재구성된 제1 영역을 의료 영상에 중첩하여 표시할 수 있다.
프로세서(310)는 의료 영상 내의 제1 영역을 재구성할 수 있다. 이 경우, 제1 참조 영상의 타입이 의료 영상의 타입과 상이하면, 프로세서(310)는 제1 영역의 좌표 정보를 의료 영상의 좌표계에서 제1 참조 영상의 좌표계로 변환할 수 있다. 프로세서(310)는 제1 참조 영상의 좌표계로 변환된 제1 영역의 좌표 정보에 기초하여, 제1 참조 영상에서 제1 영역에 대응되는 영역을 재구성할 수 있다. 디스플레이(320)는 재구성된 제1 참조 영상을 표시할 수 있다.
또한, 디스플레이(320)는 의료 영상 내의 대상체에 대응되는 영역을 확대하여 표시할 수 있다. 디스플레이(320)는 제1 참조 영상에서 재구성된 영역을 확대하여 표시할 수 있다.
의료 영상 표시 장치(300)는 실시간 의료 영상 내에서 음영 또는 아티팩트로 인해 왜곡되거나 유실된 대상체의 영역을 대상체의 특징점을 이용하여 예측할 수 있다.
또한, 의료 영상 표시 장치(300)는 실시간 의료 영상 내에서 왜곡되거나 유실된 대상체의 영역을 예측하고, 예측 결과에 기초하여, 대상체의 영역을 재구성할 수 있다.
또한, 의료 영상 표시 장치(300)는 실시간 의료 영상에서 재구성된 대상체의 영상 정보에 기초하여, 대상체의 참조 영상을 재구성하여 표시할 수 있다.
의료 영상 표시 장치(300)는 중앙 연산 프로세서를 구비하여, 프로세서(310) 및 디스플레이(320)의 동작을 총괄적으로 제어할 수 있다. 중앙 연산 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
도 4는 다른 일실시예에 따른 의료 영상 표시 장치(400)의 구성을 도시한 블록도이다.
의료 영상 표시 장치(400)는 프로세서(410), 디스플레이(420), 사용자 인터페이스(430), 메모리(440) 및 통신부(450)를 포함할 수 있다.
도 4에 있어서, 의료 영상 표시 장치(400)의 프로세서(410) 및 디스플레이(420) 각각은 도 3에서 설명한 의료 영상 표시 장치(300)의 프로세서(310) 및 디스플레이(320)와 동일 대응되므로, 도 3에서와 중복되는 설명은 생략한다. 도 4에 도시된 구성 요소보다 많은 구성 요소에 의해 의료 영상 표시 장치(400)가 구현될 수 있고, 그보다 적은 구성 요소의 의해서도 의료 영상 표시 장치(400)가 구현될 수 있다. 이하 상기 구성 요소들에 대해 살펴본다.
사용자 인터페이스(430)는 사용자로부터 의료 영상 표시 장치(400)를 제어하기 위한 데이터를 입력 받는 장치를 의미한다. 프로세서(410)는 사용자로부터 소정 명령 또는 데이터를 입력 받기 위한 사용자 인터페이스(430) 화면을 생성 및 출력하도록 디스플레이(420)를 제어할 수 있다. 디스플레이(420)는 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보 및 예측된 제1 영역의 영상 정보를 표시할 수 있다. 디스플레이(420)는 예측된 제1 영역의 영상 정보를 보정하는 사용자 입력을 받는 화면을 디스플레이(420) 패널 상으로 표시할 수 있다.
프로세서(410)는 사용자 입력에 기초하여 예측된 제1 영역의 영상 정보를 보정하고, 보정된 제1 영역의 영상 정보에 기초하여 제1 참조 영상에서 대상체에 대응되는 영역을 재구성할 수 있다. 디스플레이(420)는 재구성된 제1 참조 영상을 표시할 수 있다.
메모리(440)는 대상체와 관련된 데이터(예를 들면, 대상체의 의료 영상, 의료 영상 데이터, 스캔 관련 데이터, 대상체에 대한 환자의 진단 데이터 등) 외부 장치에서 의료 영상 표시 장치(400)로 전송된 데이터 등을 저장할 수 있다. 외부 장치로부터 전송된 데이터는 환자 관련 정보, 환자의 진단 및 진료에 필요한 데이터, 환자의 이전 진료 이력, 환자에 대한 진단 지시에 대응되는 의료 워크 리스트 등을 포함할 수 있다.
통신부(450)는 외부 장치로부터 데이터를 수신 및/또는 외부 장치로 데이터를 송신할 수 있다. 예를 들면, 통신부(450)는 재구성된 대상체의 영상을 외부 단말기로 전송할 수 있다. 여기서, 외부 단말기는 환자의 단말기 또는 의사의 단말기일 수 있다. 외부 장치는 환자의 진료 기록을 관리하는 서버 또는 환자의 정보를 제공해주는 어플리케이션의 중계 서버일 수도 있다. 통신부(450)는 와이파이(Wifi), 또는 와이파이 다이렉트(Wifi direct)에 따른 통신 네트워크를 통하여 무선 프로브 또는 외부 장치와 연결될 수 있다. 구체적으로, 통신부(450)가 접속할 수 있는 무선 통신 네트워크로는 무선 랜(Wireless LAN), 와이파이(wifi), 블루투스, 지그비(zigbee), WFD(Wifi-direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy) 및 NFC(Near Field Communication) 등이 될 수 있고, 이에 한정되지 않는다.
의료 영상 표시 장치 (400)는 중앙 연산 프로세서를 구비하여, 프로세서(410), 디스플레이(420), 사용자 인터페이스(430), 메모리(440) 및 통신부(450)의 동작을 총괄적으로 제어할 수 있다. 중앙 연산 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
이하에서는, 의료 영상 표시 장치 (300, 400)가 수행하는 다양한 동작이나 응용들이 설명되는데, 프로세서(310, 410), 디스플레이(320, 420), 사용자 인터페이스(430), 메모리(440) 및 통신부(450) 중 어느 구성을 특정하지 않더라도 본 발명의 기술분야에 대한 통상의 기술자가 명확하게 이해하고 예상할 수 있는 정도의 내용은 통상의 구현으로 이해될 수 있으며, 본 발명의 권리범위가 특정한 구성의 명칭이나 물리적/논리적 구조에 의해 제한되는 것은 아니다.
도 5는 일실시예에 따른 의료 영상 표시 장치에서 의료 영상을 표시하는 방법을 나타낸 흐름도이다.
도 5의 단계 S510에서, 의료 영상 표시 장치는 실시간으로 촬영되는 대상체의 의료 영상 및 의료 영상에 정합되는 대상체의 제1 참조 영상을 표시할 수 있다.
단계 S520에서, 의료 영상 표시 장치는 실시간으로 촬영되는 의료 영상 내에서, 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득할 수 있다. 구체적으로, 의료 영상 표시 장치는 실시간으로 촬영되는 의료 영상 내에서, 대상체에 대응되는 영역 내의 영상 품질이 미리 설정된 기준보다 낮은 영역을 제1 영역으로 결정할 수 있다. 의료 영상 표시 장치는 제1 영역의 인접 영역의 영상 정보를 획득할 수 있다.
또한, 의료 영상 표시 장치는 제1 영역의 인접 영역에서 대상체의 특징점을 추출하는 동작, 제1 영역의 인접 영역의 밝기 값을 추출하는 동작, 제1 영역의 인접 영역의 윤곽선을 추출하는 동작, 영상 처리 필터에 기초하여 제1 영역의 인접 영역의 픽셀값들의 변화량을 추출하는 동작, 제1 영역의 인접 영역의 히스토그램의 정보를 추출하는 동작, 제1 영역의 인접 영역의 픽셀값들의 차이를 추출하는 동작 및 제1 영역의 인접 영역의 형태 정보를 추출하는 동작 중 적어도 하나의 동작을 수행하여 제1 영역의 인접 영역의 영상 정보를 획득할 수 있다.
단계 S530에서, 의료 영상 표시 장치는 제1 영역의 인접 영역의 영상 정보에 기초하여, 제1 영역의 영상 정보를 예측할 수 있다. 여기서, 영상 정보는, 제1 영역의 윤곽선(contour) 정보, 경사도(gradient) 정보, 제1 영역 내의 픽셀에 대한 강도(intenxity) 정보 및 제1 영역 내의 어두운 영역에서 밝은 영역까지의 픽셀 분포를 나타내는 히스토그램(histogram) 정보 등을 포함할 수 있고, 이에 한정되지 않는다. 한편, 제1 영역의 영상 정보를 예측하는 방법은 도 8에서 설명한다.
단계 S540에서, 의료 영상 표시 장치는 예측 결과에 기초하여, 제1 참조 영상에 대상체에 대응되는 영역을 재구성하여 표시할 수 있다.
도 6은 일실시예에 따라, 의료 영상 표시 장치에서 표시된 의료 영상을 설명하기 위한 도면이다.
도 6에 도시된 바와 같이, 사용자는 초음파 진단 장치를 이용하여 환자의 신체 일부인 대상체를 치료할 수 있다.
예를 들면, 사용자는 대상체 내부에 있는 종양을 제거함에 있어서, 종양이 있는 부위 및 종양이 있는 인접 부위를 절제할 수 있다. 도 6의 620에 도시된 바와 같이, 사용자는 초음파 진단 장치를 이용하여 종양이 있는 부위(621) 및 종양이 있는 인접 부위(622)를 절제할 수 있다. 그러나, 종양이 있는 부위(631) 및 종양이 있는 인접 부위(632)가 도 6의 630에 도시된 바와 같이 절제된다면, 종양 절제 시술은 다시 수행되어야 한다.
사용자는 대상체를 치료함에 있어서, 대상체로 바늘을 삽입하여 치료할 수 있다. 예를 들면, 사용자는 대상체에 열을 가하는 열치료 또는 대상체를 냉각하는 냉각치료 등을 수행할 수 있다. 사용자는 상기 언급한 치료 방법 이외에 다른 방법으로 치료할 수 있음은 본 개시에 따른 통상의 기술자는 이해할 수 있다.
도 6의 640을 참고하면, 초음파 진단 장치는 대상체를 실시간으로 촬영하여, 대상체의 치료 과정을 초음파 영상(641)으로 표시할 수 있다. 또한, 실시간으로 촬영되는 초음파 영상(641)은 대상체에 바늘이 삽입된 영역을 확대하여 표시될 수도 있다. 또한, 초음파 진단 장치는 초음파 영상(641)에 정합되는 대상체의 제1 참조 영상을 표시할 수 있다. 도 6의 640에 도시된 바와 같이, 제1 참조 영상은 CT 영상(643)일 수 있다. CT 영상(643)은 대상체를 나타내는 영역(644)를 포함할 수 있다.
초음파 영상(641) 내에서 대상체를 나타내는 영역(642)은 대상체에 삽입된 바늘의 그림자 영역으로 인하여, 대상체를 나타내는 영역(642)이 정확하게 표시되지 않고, 왜곡되어 표시될 수 있다. 예를 들면, 초음파 진단 장치는 바늘의 그림자 영역으로 인하여, 종양을 포함하는 영역이 가려져 표시될 수 있다. 또한, 초음파 영상 자체의 결함으로 인하여 대상체의 영역(642)이 정확하게 표시되지 않을 수 있다. 따라서, 초음파 진단 장치는 실시간으로 촬영되는 초음파 영상(641)을 표시함에 있어서, 결함이 없는 초음파 영상을 제공하여, 사용자가 대상체를 치료함에 어려움을 겪지 않도록 할 수 있다.
초음파 진단 장치는 대상체의 형태가 왜곡된 영역의 인접 영역의 영상 정보를 획득할 수 있다. 초음파 진단 장치는 왜곡된 영역의 인접 영역의 영상 정보에 기초하여, 왜곡된 영역의 영상 정보를 예측할 수 있다. 초음파 진단 장치는 왜곡된 영역을 재구성하여 표시할 수 있다. 예를 들면, 초음파 진단 장치는 초음파 영상(641) 내의 왜곡된 영역의 영상 정보를 예측하고, 예측 결과에 기초하여, CT 영상(643)에서 대상체를 나타내는 영역(644)를 재구성하여 표시할 수 있다.
도 7은 일실시예에 따라, 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 설명하기 위한 도면이다.
도 7의 710에 도시된 바와 같이, 의료 영상 표시 장치는 실시간으로 대상체를 촬영하여, 촬영된 의료 영상을 디스플에이의 화면 상에 표시할 수 있다. 대상체가 의료 기구와 같은 외부 장비에 의해 시술 중인 경우, 외부 장비의 그림자 또는 의료 영상의 결함으로 인하여, 대상체를 나타내는 영역(711)이 의료 영상 내에서 왜곡되어 표시될 수 있다.
예를 들면, 간의 악성 종양에 외부 장비를 삽입하여 고주파에 의해 발생하는 열로 악성 종양을 제거하는 RFA(Radio Frequency Ablation) 시술이 수행되는 경우, 의료 영상 표시 장치는 악성 종양에 대해 실시간으로 촬영되는 초음파 영상을 획득할 수 있다. 외부 장비로 인해 실시간으로 촬영되는 초음파 영상 내에서 악성 종양에 대응되는 영역 및 악성 종양에 대응되는 영역의 인접 영역에는 음영 및/또는 아티팩트가 존재할 수 있기 때문에, 악성 종양에 대응되는 영역 및 인접 영역은 왜곡되어 표시될 수 있다.
도 7의 720에 도시된 바와 같이, 의료 영상 표시 장치는 의료 영상 내에서, 대상체에 대응되는 영역(711) 내의 영상 품질이 낮은 영역을 제1 영역으로 결정하고, 제1 영역의 인접 영역(721)의 영상 정보를 획득할 수 있다. 여기서, 의료 영상 표시 장치는 제1 영역의 인접 영역(721)에서 대상체의 특징점을 추출하거나, 제1 영역의 인접 영역(721)의 밝기값을 추출하거나, 제1 영역의 인접 영역(721)의 형태 정보를 추출하여 영상 정보를 획득할 수 있다.
한편, 도 7의 710에 도시된 바와 같이, 간의 악성 종양에 대한 RFA 시술 과정에서, 초음파 영상 내의 악성 종양에 대응되는 영역 중 하단 영역은 음영으로 인해 유실된 상태일 수 있다. 이 경우, 의료 영상 표시 장치는 초음파 영상에서 주변 조직보다 밝은 영역을 추출할 수 있다. 여기서, 밝은 영역은 악성 종양을 제거하는 절제 영역이고, 시술의 진행 정도를 알 수 있는 지표로 사용될 수 있다.
도 7의 730에 도시된 바와 같이, 의료 영상 표시 장치는 제1 영역의 인접 영역(721)의 영상 정보에 기초하여, 제1 영역의 인접 영역의 형태를 결정할 수 있다. 의료 영상 표시 장치는 결정된 제1 영역의 인접 영역의 형태에 기초하여, 제1 영역의 형태(722)를 예측할 수 있다.
예를 들면, 의료 영상 표시 장치는 초음파 영상 내의 악성 종양에 대응되는 영역 중 상단 영역의 영상 정보에 기초하여, 상단 영역의 형태를 결정할 수 있다. 여기서, 상단 영역의 영상 정보는, 상단 영역의 윤곽성 정보, 경사도 정보, 강도 정보 및 히스토그램 정보 중 적어도 하나를 포함할 수 있다. 의료 영상 표시 장치는 상단 영역의 형태에 기초하여, 음영 또는 아티팩트로 유실된 악성 종양에 대응되는 하단 영역의 형태를 예측할 수 있다.
도 8을 일실시예에 따라, 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 나타낸 흐름도이다.
도 8의 단계 S531에서, 의료 영상 표시 장치는 제1 영역의 인접 영역의 영상 정보에 기초하여, 제1 영역의 인접 영역의 형태를 결정할 수 있다. 의료 영상 표시 장치는 단계 S531을 수행하고, 단계 S532 또는 단계 S533을 수행할 수 있다. 단계 S532 또는 단계 S533에서 개시된 제1 영역의 형태를 예측하는 방법은 일예시일 뿐이며, 본 개시에 따른 통상의 기술자는 다른 방법에 의해 제1 영역의 형태를 예측할 수 있다.
단계 S532에서, 의료 영상 표시 장치는 제1 영역의 인접 영역의 형태를 기준축으로 기준으로 대칭시켜, 제1 영역의 형태를 예측할 수 있다.
예를 들면, 도 9a는 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 설명하기 위한 도면이다. 의료 영상 표시 장치는 대상체에 대응되는 영역(901, 902) 내에서 영상 품질이 낮은 영역을 제1 영역(902)을 검출할 수 있다. 의료 영상 표시 장치는 제1 영역(902)의 인접 영역(901)을 결정하고, 제1 영역(902)의 인접 영역(901)의 영상 정보를 획득할 수 있다. 의료 영상 표시 장치는 제1 영역(902)의 인접 영역(901)의 형태를 세로축을 기준으로 대칭시켜 제1 영역(902)의 형태를 예측할 수 있다.
단계 S533에서, 의료 영상 표시 장치는 제1 영역의 인접 영역의 패턴에 따라, 제1 영역의 인접 영역의 형태를 예측할 수 있다.
제1 영역의 인접 영역의 형태가 소정의 패턴에 따라 이루어진 경우, 의료 영상 표시 장치는 패턴에 따라 제1 영역의 형태를 예측할 수 있다. 여기서, 소정의 패턴은 일정한 형태, 일정한 모형 또는 일정한 모양을 의미할 수 있다. 또한, 소정의 형태, 모형 또는 모양이 일정한 형태, 모양 또는 모양이 아니더라도, 본 개시에 관한 통상의 기술자 입장에서 일정한 형태, 모형 또는 모양으로 예측할 수 있으면, 소정의 패턴으로 볼 수 있다.
예를 들면, 도 9b는 의료 영상 내에서 대상체의 형태가 왜곡된 영역을 예측하는 방법을 설명하기 위한 도면이다. 의료 영상 표시 장치는 대상체에 대응되는 영역(904, 905) 내에서 영상 품질이 낮은 영역을 제1 영역(905)을 검출할 수 있다. 의료 영상 표시 장치는 제1 영역(905)의 인접 영역(904)을 결정하고, 제1 영역(905)의 인접 영역(904)의 영상 정보를 획득할 수 있다. 이 경우, 도 9b에 도시된 바와 같이, 제1 영역(905)의 인접 영역(904)은 중심각이 90도인 부채꼴 형태가 3개로 병합된 형태로 이루어질 수 있다. 의료 영상 표시 장치는 제1 영역(905)의 형태를 중심각이 90도인 부채꼴 형태로 예측할 수 있다.
의료 영상 표시 장치는 단계 S532 또는 단계 S533을 수행하여 제1 영역의 영상 정보를 예측할 수 있다. 의료 영상 표시 장치는 예측 결과에 기초하여, 제1 참조 영상에 대상체에 대응되는 영역을 재구성하여 표시할 수 있다.
도 10a는 일실시예에 따라, 의료 영상 표시 장치의 디스플레이의 화면 상에 표시된 의료 영상을 설명하기 위한 도면이다.
의료 영상 표시 장치는 실시간으로 촬영되는 대상체의 초음파 영상(1010)을 디스플레이의 화면 상에 표시할 수 있다. 또한, 의료 영상 표시 장치는 대상체의 초음파 영상(1010)에 정합되는 대상체의 제1 참조 영상인 제1 CT 영상(1020)을 초음파 영상(1010)과 함께 디스플레이의 화면 상에 표시할 수 있다. 여기서, 초음파 영상(1010)은 대상체를 나타내는 영역(1001, 1002)을 포함하고 있다.
사용자는 환자의 신체 일부인 대상체를 치료함에 있어서, 외부 장치를 이용하여 열치료 또는 냉각치료를 할 수 있다. 이 경우, 실시간으로 촬영되는 초음파 영상(1010)에서 대상체를 나타내는 영역(1001, 1002)은 외부 장치로 인하여 왜곡되어 표시될 수 있다. 따라서, 의료 영상 표시 장치는 왜곡된 영역을 재구성하여 표시할 수 있다.
도 10a의 초음파 영상(1010)에 도시된 바와 같이, 의료 영상 표시 장치는 RFA 시술 중인 대상체에 대한 실시간 초음파 영상(1010)에서 왜곡된 영역(1002)을 왜곡되지 않은 영역(1001)과 구별하여 표시할 수 있다. 의료 영상 표시 장치는 왜곡되지 않은 영역(1001)의 영상 정보에 기초하여 왜곡된 영역(1002)의 영상 정보를 예측할 수 있다. 의료 영상 표시 장치는 초음파 영상(1010)에 정합되는 CT 영상(1020)에서 대상체에 대응되는 영역(1003)을 재구성하여 표시할 수 있다. 즉, 의료 영상 표시 장치는 참조 영상인 CT 영상(1020) 내의 대상체에 대응되는 영역(1003)을 재구성하여 표시하고, 재구성된 영역에 기초하여, 대상체에 대한 RFA 시술의 결과 및 RFA의 추가 시술 여부를 결정할 수 있다.
도 10b는 다른 일실시예에 따라, 의료 영상 표시 장치의 디스플레이의 화면 상에 표시된 의료 영상을 설명하기 위한 도면이다.
의료 영상 표시 장치는 실시간으로 촬영되는 대상체의 초음파 영상(1010)을 디스플레이의 화면 상에 표시할 수 있다. 또한, 의료 영상 표시 장치는 대상체의 초음파 영상(1010)에 정합되는 대상체의 제1 참조 영상인 제1 초음파 영상(1030)을 초음파 영상(1010)과 함께 디스플레이의 화면 상에 표시할 수 있다. 여기서, 초음파 영상(1010)은 대상체를 나타내는 영역(1001, 1002)을 포함하고 있다.
또한, 제1 참조 영상인 제1 초음파 영상(1030)은 3차원 초음파 영상 및 2차원 초음파 영상을 포함한다. 또한, 도플러 영상은 칼라 도플러 영상(Color Doppler image), 파워 도플러 영상(Power Doppler image), 티슈 도플러 영상(Tissue Doppler image), 벡터 도플러 영상(Vector Doppler image) 및 스펙트랄 도플러 영상(Spectral Doppler image) 중 적어도 하나일 수 있고, 이에 한정되지 않는다.
도 10a에서 설명한 바와 같이, 의료 영상 표시 장치는 왜곡되지 않은 영역(1001)의 영상 정보에 기초하여 왜곡된 영역(1002)의 영상 정보를 예측할 수 있다. 의료 영상 표시 장치는 초음파 영상(1010)에 정합되는 제1 초음파 영상(1030)에서 대상체에 대응되는 영역(1004, 1005)을 재구성하여 표시할 수 있다.
도 10c는 또 다른 일실시예에 따라, 의료 영상 표시 장치의 디스플레이의 화면 상에 표시된 의료 영상을 설명하기 위한 도면이다.
의료 영상 표시 장치는 종양을 포함하는 대상체(1006)의 제1 CT 영상(1040) 및 종양이 제거된 대상체(1007)의 제2 CT 영상(1050)을 함께 표시할 수 있다.
도 11은 일실시예에 따라, 사용자의 입력에 따라 예측된 영역을 보정하는 과정을 설명하기 위한 도면이다.
도 7의 720에서 설명한 바와 같이, 의료 영상 표시 장치는 의료 영상 내에서, 대상체에 대응되는 영역(711) 내의 영상 품질이 낮은 영역을 제1 영역으로 결정하고, 제1 영역의 인접 영역(721)의 영상 정보를 획득할 수 있다.
도 7의 730에서 설명한 바와 같이, 의료 영상 표시 장치는 제1 영역의 인접 영역(721)의 영상 정보에 기초하여, 제1 영역의 인접 영역의 형태를 결정할 수 있다. 의료 영상 표시 장치는 결정된 제1 영역의 인접 영역의 형태에 기초하여, 제1 영역의 형태(722)를 예측할 수 있다.
의료 영상 표시 장치는 제1 영역의 인접 영역(721)을 기초로, 예측된 제1 영역의 형태(722)를 재구성할 수 있다. 의료 영상 표시 장치는 사용자 인터페이스를 통해 예측된 제1 영역의 형태(722)를 보정하는 사용자 입력(1101)을 수신할 수 있다.
사용자 인터페이스는 사용자로부터 의료 영상 표시 장치를 제어하기 위한 데이터를 입력 받는 장치이다. 사용자 인터페이스는 의료 영상을 표시하는 디스플레이와는 별도로 사용자로부터 소정 명령 또는 데이터를 입력 받기 위한 사용자 인터페이스 화면을 표시하기 위한 디스플레이를 구비할 수 있다. 또한, 사용자 인터페이스는 사용자 인터페이스 화면을 표시하기 위한 디스플레이 이외에 키 패드, 마우스, 터치 패널, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 사용자 인터페이스는 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서 및 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다.
도 11의 740에 도시된 바와 같이, 의료 영상 표시 장치는 사용자 입력(1101)에 기초하여, 제1 영역의 형태를 보정(722)할 수 있다. 의료 영상 표시 장치는 제1 참조 영상에서 보정된 제1 영역의 형태를 반영하여 대상체에 대응되는 영역을 재구성할 수 있다.
도 12는 본 개시의 일 실시 예와 관련된 초음파 진단 장치(100)의 구성을 도시한 블록도이다.
도 12을 참조하면, 초음파 진단 장치(100)는 프로브(20), 초음파 송수신부(115), 영상 처리부(150), 디스플레이부(160), 통신부(170), 메모리(180), 사용자 입력부(190), 및 제어부(195)를 포함할 수 있다. 또한, 상술한 여러 구성들은 버스(185)를 통해 서로 연결될 수 있으며, 영상 처리부(150)는 영상 생성부(155), 단면 정보 검출부(130) 및 디스플레이부(160)를 포함할 수 있다.
도 12에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
본 발명의 일 실시 예에 따른 초음파 진단 장치(100)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 장치의 예로는 팩스 뷰어(PACS viewer), 스마트 폰(smart phone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.
프로브(20)는, 초음파 송수신부(115)로부터 인가된 구동 신호(driving signal)에 따라 대상체(10)로 초음파 신호를 송출하고, 대상체(10)로부터 반사된 에코 신호를 수신한다. 프로브(20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(20)는 초음파 진단 장치(100)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 진단 장치(100)는 구현 형태에 따라 복수 개의 프로브(20)를 구비할 수 있다.
송신부(110)는 프로브(20)에 구동 신호를 공급하며, 펄스 생성부(112), 송신 지연부(114), 및 펄서(116)를 포함한다. 펄스 생성부(112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다. 펄서(116)는, 지연 시간이 적용된 각각의 펄스에 대응되는 타이밍(timing)으로, 프로브(20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다.
수신부(120)는 프로브(20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(124), 수신 지연부(126), 및 합산부(128)를 포함할 수 있다. 증폭기(122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(124)는 증폭된 에코 신호를 아날로그-디지털 변환한다. 수신 지연부(126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(128)는 수신 지연부(126)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다.
영상 처리부(150)는 초음파 송수신부(115)에서 생성된 초음파 데이터에 대한 스캔 변환(scan conversion) 과정을 통해 초음파 영상을 생성한다.
한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에 따라 대상체를 스캔한 그레이 스케일(gray scale)의 초음파 영상뿐만 아니라, 대상체의 움직임을 도플러 영상으로 나타낼 수 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 및 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상을 포함할 수 있다.
B 모드 처리부(141)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. 영상 생성부(155)는, B 모드 처리부(141)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다.
마찬가지로, 도플러 처리부(142)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(155)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.
일 실시 예에 의한 영상 생성부(155)는, 대상체에 대한 2차원 초음파 영상 또는 3차원 영상을 생성할 수 있으며, 압력에 따른 대상체(10)의 변형 정도를 영상화한 탄성 영상 또한 생성할 수도 있다. 나아가, 영상 생성부(155)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(180)에 저장될 수 있다.
디스플레이부(160)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(160)는, 초음파 영상뿐 아니라 초음파 진단 장치(100)에서 처리되는 다양한 정보를 GUI(Graphic User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(100)는 구현 형태에 따라 둘 이상의 디스플레이부(160)를 포함할 수 있다.
디스플레이부(160)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다.
또한, 디스플레이부(160)와 사용자 입력부가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(160)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.
터치 스크린은 터치 입력 위치, 터치된 면적뿐만 아니라 터치 압력까지도 검출할 수 있도록 구성될 수 있다. 또한, 터치 스크린은 직접 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출될 수 있도록 구성될 수 있다.
본 명세서에서 "직접 터치(real-touch)"라 함은 화면에 실제로 포인터(pointer)가 터치된 경우를 말하고, "근접 터치(proximity-touch)"라 함은 포인터(pointer)가 화면에 실제로 터치는 되지 않고, 화면으로부터 소정 거리 떨어져 접근된 경우를 말한다. 본 명세서에서는 포인터(pointer)는 디스플레이된 화면의 특정 부분을 터치하거나 근접 터치하기 위한 터치 도구를 말한다. 그 일예로, 전자 펜, 손가락 등이 있다.
도면에는 도시되지 않았지만, 초음파 진단 장치(100)는, 터치 스크린에 대한 직접 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서를 구비할 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다.
촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다. 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다.
근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.
통신부(170)는, 유선 또는 무선으로 네트워크(30)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(170)는 의료 영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(170)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
통신부(170)는 네트워크(30)를 통해 대상체의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, MRI, X-ray 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(170)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체의 진단에 활용할 수도 있다. 나아가, 통신부(170)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.
통신부(170)는 유선 또는 무선으로 네트워크(30)와 연결되어 서버(32), 의료 장치(34), 또는 휴대용 단말(36)과 데이터를 주고 받을 수 있다. 통신부(170)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(171), 유선 통신 모듈(172), 및 이동 통신 모듈(173)을 포함할 수 있다.
근거리 통신 모듈(171)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미한다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈(172)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 페어 케이블(pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 포함될 수 있다.
이동 통신 모듈(173)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
메모리(180)는 초음파 진단 장치(100)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(180)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 진단 장치(100) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다.
메모리(180)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 진단 장치(100)는 웹 상에서 메모리(180)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
사용자 입력부(190)는, 사용자가 초음파 진단 장치(50)의 동작 제어를 위하여 입력하는 입력 데이터를 발생시킨다. 사용자 입력부(190)는 키 패드, 마우스, 터치 패드, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등의 다양한 구성을 더 포함할 수 있다.
특히, 터치 패드가 전술한 디스플레이부(160)와 상호 레이어 구조를 이루는 터치 스크린도 포함할 수 있다.
이때, 본 발명의 일 실시예에 따른 초음파 진단 장치(100)는, 소정 모드의 초음파 영상 및 초음파 영상에 대한 컨트롤 패널을 터치 스크린상에 표시할 수 있다. 그리고 초음파 진단 장치(100)는, 터치 스크린을 통해 초음파 영상에 대한 사용자의 터치 제스처를 감지할 수 있다.
본 발명의 일 실시예에 따른 초음파 진단 장치(100)는, 일반적인 초음파 장치의 컨트롤 패널에 포함되어 있던 버튼들 중 사용자가 자주 사용하는 일부 버튼을 물리적으로 구비하고, 나머지 버튼들은 GUI(Graphical User Interface) 형태로 터치 스크린을 통해 제공할 수 있다.
제어부(195)는 초음파 진단 장치(100)의 동작을 전반적으로 제어한다. 즉, 제어부(195)는 도 1에 도시된 프로브(20), 초음파 송수신부(100), 영상 처리부(150), 통신부(170), 메모리(180), 및 사용자 입력부(190) 간의 동작을 제어할 수 있다.
프로브(20), 초음파 송수신부(115), 영상 처리부(150), 통신부(170), 메모리(180), 사용자 입력부(190) 및 제어부(195) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 초음파 송수신부(115), 영상 처리부(150), 및 통신부(170) 중 적어도 일부는 제어부(195)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.
도 13은 본 개시의 일 실시 예와 관련된 무선 프로브(2000)의 구성을 도시한 블록도이다. 무선 프로브(2000)는, 도 12에서 설명한 바와 같이 복수의 트랜스듀서를 포함하며, 구현 형태에 따라 도 12의 초음파 송수신부(100)의 구성을 일부 또는 전부 포함할 수 있다.
도 13에 도시된 실시 예에 의한 무선 프로브(2000)는, 송신부(2100), 트랜스듀서(2200), 및 수신부(2300)를 포함하며, 각각의 구성에 대해서는 도 12에서 설명한 바 있으므로 자세한 설명은 생략한다. 한편, 무선 프로브(2000)는 그 구현 형태에 따라 수신 지연부(2330)와 합산부(2340)를 선택적으로 포함할 수도 있다.
무선 프로브(2000)는, 대상체(10)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 12의 초음파 진단 장치(1000)로 무선 전송할 수 있다.
무선 프로브(2000)는 트랜스듀서 어레이를 포함하여 초음파 스캔이 가능한 스마트 장치가 될 수 있다. 구체적으로, 무선 프로브(2000)는 스마트 장치로, 트랜스듀서 어레이를 이용하여 대상체를 스캔하여 초음파 데이터를 획득한다. 그리고 나서, 무선 프로브(2000)는 획득된 초음파 데이터를 이용하여 초음파 영상을 생성 및/또는 디스플레이할 수 있다. 무선 프로브(2000)는 디스플레이부를 포함하며, 디스플레이부를 통하여 적어도 하나의 초음파 영상 및/또는 대상체의 스캔 동작을 제어하기 위한 사용자 인터페이스 화면을 포함하는 화면을 디스플레이 할 수 있다.
사용자가 대상체인 환자의 소정 신체 부위를 무선 프로브(2000)를 이용하여 스캔하는 동안에, 무선 프로브(2000)와 초음파 진단 장치(100)는 무선 네트워크를 통하여 계속하여 소정 데이터를 송수신할 수 있다. 구체적으로, 사용자가 대상체인 환자의 소정 신체 부위를 무선 프로브(2000)를 이용하여 스캔하는 동안에, 무선 프로브(2000)는 무선 네트워크를 통하여 초음파 데이터를 초음파 진단 장치(100)로 실시간으로 전송할 수 있다. 초음파 데이터는 초음파 스캔이 계속적으로 진행됨에 따라서 실시간으로 업데이트되어 무선 프로브(2000)에서 초음파 진단 장치(100)로 전송될 수 있다.
이상에서 설명된 초음파 진단 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.
처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.
이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.
소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 실시간으로 촬영되는 대상체의 의료 영상 및 상기 의료 영상에 정합되는 상기 대상체의 제1 참조 영상을 표시하는 단계;
    상기 의료 영상 내에서, 상기 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하는 단계;
    상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 영상 정보를 예측하는 단계; 및
    상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 포함하는, 의료 영상 표시 방법.
  2. 제1항에 있어서,
    상기 제1 영역의 인접 영역의 영상 정보를 획득하는 단계는,
    상기 제1 영역의 인접 영역에서 상기 대상체의 특징점을 추출하는 단계;
    상기 제1 영역의 인접 영역의 밝기 값을 추출하는 단계;
    상기 제1 영역의 인접 영역의 윤곽선을 추출하는 단계;
    영상 처리 필터를 이용하여 상기 제1 영역의 인접 영역의 픽셀값들의 변화량을 추출하는 단계;
    상기 제1 영역의 인접 영역의 히스토그램의 정보를 추출하는 단계;
    상기 제1 영역의 인접 영역의 픽셀값들의 차이를 추출하는 단계; 및
    상기 제1 영역의 인접 영역의 형태 정보를 추출하는 단계 중 적어도 하나의 단계를 포함하는, 의료 영상 표시 방법.
  3. 제1항에 있어서,
    상기 제1 영역의 인접 영역의 영상 정보를 획득하는 단계는,
    상기 의료 영상 내에서, 상기 대상체에 대응되는 영역 내의 영상 품질이 낮은 영역을 상기 제1 영역으로 결정하는 단계; 및
    상기 제1 영역의 인접 영역의 영상 정보를 획득하는 단계를 포함하는, 의료 영상 표시 방법.
  4. 제1항에 있어서,
    상기 제1 영역의 영상 정보를 예측하는 단계는,
    상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 인접 영역의 형태를 결정하는 단계; 및
    상기 결정된 제1 영역의 인접 영역의 형태를 임의의 축을 기준으로 대칭시켜 상기 제1 영역의 형태를 예측하는 단계를 포함하는, 의료 영상 표시 방법.
  5. 제1항에 있어서,
    상기 제1 영역의 영상 정보를 예측하는 단계는,
    상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 인접 영역의 형태를 결정하는 단계; 및
    상기 결정된 제1 영역의 인접 영역의 형태가 소정의 패턴에 따라 이루어진 경우, 상기 패턴에 따라 상기 제1 영역의 형태를 예측하는 단계를 포함하는, 의료 영상 표시 방법.
  6. 제1항에 있어서,
    상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계는,
    상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하는 단계; 및
    상기 재구성된 영역을 상기 제1 참조 영상에서의 기존 영역과 구별하여 표시하는 단계를 포함하는, 의료 영상 표시 방법.
  7. 제1항에 있어서,
    상기 의료 영상 내의 상기 제1 영역을 재구성하고, 상기 재구성된 제1 영역을 상기 의료 영상에 중첩하여 표시하는 단계를 더 포함하는, 의료 영상 표시 방법.
  8. 제1항에 있어서,
    상기 제1 참조 영상의 타입이 상기 의료 영상의 타입과 상이한 경우,
    상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계는,
    상기 의료 영상 내의 상기 제1 영역을 재구성하는 단계;
    상기 재구성된 제1 영역의 좌표 정보를 상기 의료 영상의 좌표계에서 상기 제1 참조 영상의 좌표계로 변환하는 단계; 및
    상기 변환된 제1 영역의 좌표 정보에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 표시하는 단계를 포함하는, 의료 영상 표시 방법.
  9. 제1항에 있어서,
    상기 제1 영역의 인접 영역의 영상 정보 및 상기 예측된 제1 영역의 영상 정보를 표시하는 단계;
    사용자 입력에 기초하여, 상기 예측된 제1 영역의 영상 정보를 보정하는 단계; 및
    상기 보정된 제1 영역의 영상 정보에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 더 포함하는, 의료 영상 표시 방법.
  10. 제1항에 있어서,
    상기 의료 영상 내의 상기 대상체에 대응되는 영역을 확대하여 표시하는 단계를 더 포함하고,
    상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계는,
    상기 제1 참조 영상에서 재구성된 영역을 확대하여 표시하는 단계를 포함하는, 의료 영상 표시 방법.
  11. 실시간으로 촬영되는 대상체의 의료 영상 및 상기 의료 영상에 정합되는 상기 대상체의 제1 참조 영상을 표시하는 디스플레이; 및
    상기 의료 영상 내에서, 상기 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하고, 상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 영상 정보를 예측하고, 상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하는 프로세서를 포함하고,
    상기 디스플레이는 상기 재구성된 제1 참조 영상을 표시하는, 의료 영상 표시 장치.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 영역의 인접 영역에서 상기 대상체의 특징점을 추출하는 동작
    상기 제1 영역의 인접 영역의 밝기 값을 추출하는 동작;
    상기 제1 영역의 인접 영역의 윤곽선을 추출하는 동작;
    영상 처리 필터를 이용하여 상기 제1 영역의 인접 영역의 픽셀값들의 변화량을 추출하는 동작;
    상기 제1 영역의 인접 영역의 히스토그램의 정보를 추출하는 동작;
    상기 제1 영역의 인접 영역의 픽셀값들의 차이를 추출하는 동작; 및
    상기 제1 영역의 인접 영역의 형태 정보를 추출하는 동작 중 적어도 하나의 동작을 수행하여 상기 제1 영역의 인접 영역의 영상 정보를 획득하는, 의료 영상 표시 장치.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 의료 영상 내에서, 상기 대상체에 대응되는 영역 내의 영상 품질이 낮은 영역을 상기 제1 영역으로 결정하는, 의료 영상 표시 장치.
  14. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 인접 영역의 형태를 결정하고,
    상기 결정된 제1 영역의 인접 영역의 형태를 임의의 축을 기준으로 대칭시켜 상기 제1 영역의 형태를 예측하는, 의료 영상 표시 장치.
  15. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 인접 영역의 형태를 결정하고,
    상기 결정된 제1 영역의 인접 영역의 형태가 소정의 패턴에 따라 이루어진 경우, 상기 패턴에 따라 상기 제1 영역의 형태를 예측하는, 의료 영상 표시 장치.
  16. 제11항에 있어서,
    상기 디스플레이는, 상기 제1 참조 영상에서 재구성된 영역을 기존 영역과 구별하여 표시하는, 의료 영상 표시 장치.
  17. 제11항에 있어서,
    상기 프로세서는, 상기 의료 영상 내의 상기 제1 영역을 재구성하고,
    상기 디스플레이는, 상기 의료 영상 내에서 재구성된 제1 영역을 상기 의료 영상에 중첩하여 표시하는, 의료 영상 표시 장치.
  18. 제11항에 있어서,
    상기 제1 참조 영상의 타입이 상기 의료 영상의 타입과 상이한 경우,
    상기 프로세서는, 상기 의료 영상 내의 상기 제1 영역을 재구성하고, 상기 재구성된 제1 영역의 좌표 정보를 상기 의료 영상의 좌표계에서 상기 제1 참조 영상의 좌표계로 변환하고,
    상기 디스플레이는 상기 변환된 제1 영역의 좌표 정보에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 표시하는, 의료 영상 표시 장치.
  19. 제11항에 있어서,
    사용자 인터페이스를 더 포함하고,
    상기 디스플레이는, 상기 제1 영역의 인접 영역의 영상 정보 및 상기 예측된 제1 영역의 영상 정보를 표시하고,
    상기 사용자 인터페이스는, 상기 예측된 제1 영역의 영상 정보를 보정하는 사용자 입력을 수신하고,
    상기 프로세서는, 상기 사용자 입력에 기초하여, 상기 예측된 제1 영역의 영상 정보를 보정하고, 상기 보정된 제1 영역의 영상 정보에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 상기 디스플레이가 표시하도록 제어하는, 의료 영상 표시 장치.
  20. 의료 영상 표시 방법을 실행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체에 있어서, 상기 의료 영상 표시 방법은,
    실시간으로 촬영되는 대상체의 의료 영상 및 상기 의료 영상에 정합되는 상기 대상체의 제1 참조 영상을 표시하는 단계;
    상기 의료 영상 내에서, 상기 대상체의 형태가 왜곡된 제1 영역의 인접 영역의 영상 정보를 획득하는 단계;
    상기 제1 영역의 인접 영역의 영상 정보에 기초하여, 상기 제1 영역의 영상 정보를 예측하는 단계; 및
    상기 예측 결과에 기초하여, 상기 제1 참조 영상에서 상기 대상체에 대응되는 영역을 재구성하여 표시하는 단계를 포함하는, 컴퓨터 판독 가능 기록 매체.
KR1020170037669A 2017-03-24 2017-03-24 의료 영상 표시 방법 및 의료 영상 표시 장치 KR102329680B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170037669A KR102329680B1 (ko) 2017-03-24 2017-03-24 의료 영상 표시 방법 및 의료 영상 표시 장치
US15/703,317 US20180271495A1 (en) 2017-03-24 2017-09-13 Medical image displaying apparatus and medical image displaying method
EP17202309.5A EP3379488B1 (en) 2017-03-24 2017-11-17 Medical image displaying apparatus and medical image displaying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170037669A KR102329680B1 (ko) 2017-03-24 2017-03-24 의료 영상 표시 방법 및 의료 영상 표시 장치

Publications (2)

Publication Number Publication Date
KR20180108210A true KR20180108210A (ko) 2018-10-04
KR102329680B1 KR102329680B1 (ko) 2021-11-23

Family

ID=60543328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170037669A KR102329680B1 (ko) 2017-03-24 2017-03-24 의료 영상 표시 방법 및 의료 영상 표시 장치

Country Status (3)

Country Link
US (1) US20180271495A1 (ko)
EP (1) EP3379488B1 (ko)
KR (1) KR102329680B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020159234A1 (ko) * 2019-02-01 2020-08-06 연세대학교 산학협력단 심장의 좌심방 두께 측정 장치 및 측정 방법
KR102210250B1 (ko) 2020-10-13 2021-02-01 주식회사 웨이센 Ai 예측 모델을 이용한 예측 결과의 시각화 방법
KR102249623B1 (ko) 2020-11-04 2021-05-10 주식회사 웨이센 Ai 예측 모델을 이용한 2개의 예측 결과의 시각화 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3795087B1 (en) * 2018-05-18 2024-01-17 FUJIFILM Corporation Ultrasound system and control method for ultrasound system
US11715211B2 (en) * 2019-05-22 2023-08-01 Bfly Operations, Inc. Methods and apparatuses for analyzing imaging data
CN110428415B (zh) * 2019-08-05 2022-05-13 上海联影医疗科技股份有限公司 医学图像的质量评估方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050238218A1 (en) * 2004-01-07 2005-10-27 Fuji Photo Film Co., Ltd. Image display method, apparatus and program
US7605821B1 (en) * 2005-09-29 2009-10-20 Adobe Systems Incorporated Poisson image-editing technique that matches texture contrast
WO2010113633A1 (en) * 2009-03-31 2010-10-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US20100322490A1 (en) * 2009-06-19 2010-12-23 Liangliang Pan Method for quantifying caries
WO2011061940A1 (ja) * 2009-11-18 2011-05-26 パナソニック株式会社 画像処理方法および画像処理装置
US20130253324A1 (en) * 2004-06-04 2013-09-26 U-Systems, Inc. Method and apparatus for enhancement of medical images
US20140376793A1 (en) * 2013-06-25 2014-12-25 Samsung Medison Co., Ltd. Ultrasonic diagnostic apparatus and method of operating the same
US20160086049A1 (en) * 2013-06-11 2016-03-24 Fujifilm Corporation Contour correction device, method, and program
JP2017029343A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9226729B2 (en) * 2010-09-28 2016-01-05 Fujifilm Corporation Ultrasound diagnostic system, ultrasound image generation apparatus, and ultrasound image generation method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050238218A1 (en) * 2004-01-07 2005-10-27 Fuji Photo Film Co., Ltd. Image display method, apparatus and program
US20130253324A1 (en) * 2004-06-04 2013-09-26 U-Systems, Inc. Method and apparatus for enhancement of medical images
US7605821B1 (en) * 2005-09-29 2009-10-20 Adobe Systems Incorporated Poisson image-editing technique that matches texture contrast
WO2010113633A1 (en) * 2009-03-31 2010-10-07 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2010233961A (ja) * 2009-03-31 2010-10-21 Canon Inc 画像処理装置、画像処理方法
US20100322490A1 (en) * 2009-06-19 2010-12-23 Liangliang Pan Method for quantifying caries
WO2011061940A1 (ja) * 2009-11-18 2011-05-26 パナソニック株式会社 画像処理方法および画像処理装置
EP2339534A1 (en) * 2009-11-18 2011-06-29 Panasonic Corporation Specular reflection compensation
US20160086049A1 (en) * 2013-06-11 2016-03-24 Fujifilm Corporation Contour correction device, method, and program
US20140376793A1 (en) * 2013-06-25 2014-12-25 Samsung Medison Co., Ltd. Ultrasonic diagnostic apparatus and method of operating the same
JP2017029343A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20170140534A1 (en) * 2015-07-31 2017-05-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020159234A1 (ko) * 2019-02-01 2020-08-06 연세대학교 산학협력단 심장의 좌심방 두께 측정 장치 및 측정 방법
KR20200095967A (ko) * 2019-02-01 2020-08-11 연세대학교 산학협력단 심장의 좌심방 두께 측정 장치 및 측정 방법
US11651512B2 (en) 2019-02-01 2023-05-16 Industry-Academic Cooperation Foundation Yonsei University Measurement device and measurement method for left atrium thickness of heart
KR102210250B1 (ko) 2020-10-13 2021-02-01 주식회사 웨이센 Ai 예측 모델을 이용한 예측 결과의 시각화 방법
KR102249623B1 (ko) 2020-11-04 2021-05-10 주식회사 웨이센 Ai 예측 모델을 이용한 2개의 예측 결과의 시각화 방법

Also Published As

Publication number Publication date
KR102329680B1 (ko) 2021-11-23
US20180271495A1 (en) 2018-09-27
EP3379488A1 (en) 2018-09-26
EP3379488B1 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
KR102642000B1 (ko) 의료 영상 장치 및 그 동작 방법
KR102329680B1 (ko) 의료 영상 표시 방법 및 의료 영상 표시 장치
US10228785B2 (en) Ultrasound diagnosis apparatus and method and computer-readable storage medium
KR20160065669A (ko) 초음파 영상 장치 및 그 동작 방법
US20160199022A1 (en) Ultrasound diagnosis apparatus and method of operating the same
KR102297346B1 (ko) 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
KR20170006200A (ko) 의료 영상 처리 장치 및 그 동작방법
KR102347038B1 (ko) 초음파 진단 장치 및 초음파 진단 방법
US10806433B2 (en) Ultrasound apparatus and method of operating the same
KR101630763B1 (ko) 초음파 영상 표시 장치 및 초음파 영상의 표시 방법
US10004478B2 (en) Method and apparatus for displaying ultrasound image
US10163228B2 (en) Medical imaging apparatus and method of operating same
KR20150024167A (ko) 바디 마커 생성 방법 및 초음파 진단 장치
KR20160072618A (ko) 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
KR20170086311A (ko) 의료 영상 장치 및 그 동작방법
KR102270712B1 (ko) 볼륨 렌더링 장치 및 볼륨 렌더링 방법
KR102312267B1 (ko) 초음파 영상 장치 및 그 동작 방법
JP6683402B2 (ja) 医療映像表示方法及び医療映像表示装置
KR20170126722A (ko) 초음파 영상 장치 및 그 동작 방법
KR20150059098A (ko) 영상에 복수의 모델을 피팅하는 영상 표시 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant