KR102347038B1 - 초음파 진단 장치 및 초음파 진단 방법 - Google Patents

초음파 진단 장치 및 초음파 진단 방법 Download PDF

Info

Publication number
KR102347038B1
KR102347038B1 KR1020140153737A KR20140153737A KR102347038B1 KR 102347038 B1 KR102347038 B1 KR 102347038B1 KR 1020140153737 A KR1020140153737 A KR 1020140153737A KR 20140153737 A KR20140153737 A KR 20140153737A KR 102347038 B1 KR102347038 B1 KR 102347038B1
Authority
KR
South Korea
Prior art keywords
ultrasound
image
texture information
texture
information
Prior art date
Application number
KR1020140153737A
Other languages
English (en)
Other versions
KR20160054303A (ko
Inventor
김한얼
오동훈
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to KR1020140153737A priority Critical patent/KR102347038B1/ko
Priority to EP15191842.2A priority patent/EP3017765B1/en
Priority to US14/934,782 priority patent/US10405832B2/en
Publication of KR20160054303A publication Critical patent/KR20160054303A/ko
Application granted granted Critical
Publication of KR102347038B1 publication Critical patent/KR102347038B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

초음파 영상에 포함된 대상체를 인식하고, 상기 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색하는 제어부, 상기 초음파 영상 및 상기 검색된 적어도 하나의 텍스처 정보를 디스플레이하는 디스플레이부, 상기 검색된 적어도 하나의 텍스처 정보 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신하는 사용자 인터페이스부 및 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑(texture mapping)하는 영상 처리부를 포함하는 초음파 진단 장치가 개시된다.

Description

초음파 진단 장치 및 초음파 진단 방법 {ULTRA SONIC APPARATUS AND METHOD FOR SCANNING THEREOF}
본원 발명은 초음파 진단 장치 및 그에 따른 초음파 진단 방법에 관한 것이다. 구체적으로 초음파 3D 볼륨 영상에 포함되는 대상체에 대응하는 텍스처를 선택하여, 텍스처 맵핑을 할 수 있는 초음파 진단 장치 및 초음파 진단 방법에 관한 것이다.
초음파 진단 장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위 (예를들면, 연조직 또는 혈류) 에 대한 적어도 하나의 영상을 얻는다. 특히, 초음파 진단 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용된다. 이러한 초음파 진단 장치는 X선을 이용하는 진단 장치에 비하여 안정성이 높고, 실시간으로 영상의 디스플레이가 가능하며, 방사능 피폭이 없어 안전하다는 장점이 있다. 따라서, 초음파 진단 장치는, 컴퓨터 단층 촬영(computed tomography, CT) 장치, 자기 공명 영상(magnetic resonance imaging, MRI) 장치 등을 포함하는 다른 영상 진단 장치와 함께 널리 이용된다.
본원 발명은 초음파 3D 볼륨 영상에 포함되는 대상체에 대응하는 텍스처를 선택하여, 텍스처 맵핑을 할 수 있는 초음파 진단 장치 및 초음파 진단 방법의 제공을 목적으로 한다.
본 발명의 일 실시예에 따른 초음파 진단 장치는 초음파 영상에 포함된 대상체를 인식하고, 상기 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색하는 제어부, 상기 초음파 영상 및 상기 검색된 적어도 하나의 텍스처 정보를 디스플레이하는 디스플레이부, 상기 검색된 적어도 하나의 텍스처 정보 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신하는 사용자 인터페이스부 및 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑(texture mapping)하는 영상 처리부를 포함할 수 있다.
또한, 상기 제어부는 복수 개의 대상체 중 상기 초음파 영상에 포함된 상기 대상체를 선택하는 입력에 기초하여, 상기 대상체를 인식할 수 있다.
또한, 상기 제어부는 적어도 하나의 기준 영상과 상기 대상체의 초음파 영상을 비교하여, 상기 대상체를 인식할 수 있다.
또한, 상기 제어부는 상기 초음파 진단 장치의 환경 설정 정보에 기초하여, 상기 대상체를 인식할 수 있다.
또한, 상기 초음파 진단 장치의 환경 설정 정보는 상기 대상체의 초음파 영상을 획득하기 위해 사용된 프로브의 종류 및 어플리케이션의 종류를 포함할 수 있다.
또한, 상기 사용자 인터페이스부는 상기 대상체의 초음파 영상 상에 적어도 하나의 관심 영역(ROI, Region Of Interest)을 설정하는 입력을 수신하고, 상기 검색된 적어도 하나의 텍스처 정보 중 상기 적어도 하나의 관심 영역 각각에 대한 텍스처 정보를 선택하는 입력을 수신하고, 상기 영상 처리부는 상기 적어도 하나의 관심 영역 각각에 대해 상기 선택된 텍스처 정보를 텍스처 맵핑할 수 있다.
또한, 상기 텍스처 정보는 색상 정보, 투명도 및 노말 맵(normal map) 중 적어도 하나를 포함할 수 있다.
또한, 상기 적어도 하나의 텍스처 정보는 외부 이미지로부터 획득될 수 있다.
또한, 상기 적어도 하나의 텍스처 정보는 상기 텍스처 정보를 설정하기 위한 입력에 기초하여 획득될 수 있다.
본 발명의 다른 실시예에 따른 초음파 진단 장치는 적어도 하나의 텍스처 정보를 저장하는 저장부를 더 포함할 수 있다.
또한, 상기 제어부는 새로운 텍스처 정보가 추가되거나, 상기 저장된 텍스처 정보가 편집 또는 삭제되는 경우, 상기 추가, 편집 또는 삭제를 반영하여 상기 적어도 하나의 텍스처 정보를 업데이트하고, 상기 저장부는 상기 업데이트된 적어도 하나의 텍스처 정보를 저장할 수 있다.
또한, 상기 영상 처리부는 상기 대상체에 대한 외부 광원의 효과, 상기 대상체에 대한 반사광의 효과 및 상기 대상체에 대한 그림자의 효과 중 적어도 하나를 반영하여, 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 상기 적어도 하나의 영역에 텍스처 맵핑할 수 있다.
또한, 상기 영상 처리부는 서피스 렌더링(surface rendering) 또는 볼륨 렌더링(volume rendering) 방식에 기초하여, 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑할 수 있다.
본 발명의 다른 실시예에 따른 초음파 진단 장치는 상기 대상체에 초음파 신호를 송신하고, 상기 대상체로부터 반사된 에코 신호를 수신하는 프로브를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 초음파 진단 방법은 초음파 영상에 포함된 대상체를 인식하는 단계, 상기 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색하는 단계, 상기 초음파 영상 및 상기 검색된 적어도 하나의 텍스처 정보를 디스플레이하는 단계, 상기 검색된 적어도 하나의 텍스처 정보 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신하는 단계 및 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑(texture mapping)하는 단계를 포함할 수 있다.
또한, 상기 대상체를 인식하는 단계는 복수 개의 대상체 중 상기 초음파 영상에 포함된 상기 대상체를 선택하는 입력에 기초하여, 상기 대상체를 인식할 수 있다.
또한, 상기 대상체를 인식하는 단계는 적어도 하나의 기준 영상과 상기 대상체의 초음파 영상을 비교하여, 상기 대상체를 인식할 수 있다.
또한, 상기 대상체를 인식하는 단계는 상기 초음파 진단 장치의 환경 설정 정보에 기초하여, 상기 대상체를 인식할 수 있다.
또한, 상기 초음파 진단 장치의 환경 설정 정보는 상기 대상체의 초음파 영상을 획득하기 위해 사용된 프로브의 종류 및 어플리케이션의 종류를 포함할 수 있다.
본 발명의 일 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는 본 발명의 일 또는 다른 실시예에 따른 초음파 진단 방법 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록될 수 있다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 발명의 일 실시 예와 관련된 초음파 진단 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시 예와 관련된 무선 프로브의 구성을 도시한 블록도이다.
도 3은 일 실시예에 따른 초음파 진단 장치를 나타내는 블록도이다.
도 4는 다른 실시예에 따른 초음파 진단 장치를 나타내는 블록도이다.
도 5a 및 도 5b는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 일 도면이다.
도 6a 및 도 6b는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 다른 도면이다.
도 7a 내지 도 7c는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 다른 도면이다.
도 8a 내지 도 8c는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 다른 도면이다.
도 9는 일 실시예에 따른 초음파 진단 방법을 나타내는 폴로우차트이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상을 의미한다. 또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. 또한, 대상체는 팬텀(phantom)일 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사하고 생물의 부피와 아주 근사한 물질을 의미할 수 있다. 예를 들어, 팬텀은, 인체와 유사한 특성을 갖는 구형 팬텀일 수 있다.
또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예 들을 상세히 설명한다.
도 1은 본 발명의 일 실시 예와 관련된 초음파 진단 장치(1000)의 구성을 도시한 블록도이다. 일 실시 예에 의한 초음파 진단 장치(1000)는 프로브(20), 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 디스플레이(1400), 메모리(1500), 입력 디바이스(1600), 및 제어부(1700)를 포함할 수 있으며, 상술한 여러 구성들은 버스(1800)를 통해 서로 연결될 수 있다.
초음파 진단 장치(1000)는 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 진단 장치의 예로는 팩스 뷰어(PACS, Picture Archiving and Communication System viewer), 스마트 폰(smartphone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.
프로브(20)는, 초음파 송수신부(1100)로부터 인가된 구동 신호(driving signal)에 따라 대상체(10)로 초음파 신호를 송출하고, 대상체(10)로부터 반사된 에코 신호를 수신한다. 프로브(20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(20)는 초음파 진단 장치(1000)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 진단 장치(1000)는 구현 형태에 따라 복수 개의 프로브(20)를 구비할 수 있다.
송신부(1110)는 프로브(20)에 구동 신호를 공급하며, 펄스 생성부(1112), 송신 지연부(1114), 및 펄서(1116)를 포함한다. 펄스 생성부(1112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(1pulse)를 생성하며, 송신 지연부(1114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다. 펄서(1116)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다.
수신부(1120)는 프로브(20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(1122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(1124), 수신 지연부(1126), 및 합산부(1128)를 포함할 수 있다. 증폭기(1122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(1124)는 증폭된 에코 신호를 아날로그-디지털 변환한다. 수신 지연부(1126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(1128)는 수신 지연부(1166)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다. 한편, 수신부(1120)는 그 구현 형태에 따라 증폭기(1122)를 포함하지 않을 수도 있다. 즉, 프로브(20)의 감도가 향상되거나 ADC(1124)의 처리 비트(bit) 수가 향상되는 경우, 증폭기(1122)는 생략될 수도 있다.
영상 처리부(1200)는 초음파 송수신부(1100)에서 생성된 초음파 데이터에 대한 주사 변환(scan conversion) 과정을 통해 초음파 영상을 생성하고 디스플레이한다. 한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에서 대상체를 스캔하여 획득된 그레이 스케일(gray scale)의 영상뿐만 아니라, 도플러 효과(doppler effect)를 이용하여 움직이는 대상체를 표현하는 도플러 영상일 수도 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 또는 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상일 수 있다.
B 모드 처리부(1212)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. 영상 생성부(1220)는, B 모드 처리부(1212)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(1brightness)로 표현되는 초음파 영상을 생성할 수 있다.
마찬가지로, 도플러 처리부(1214)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(1220)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.
일 실시 예에 의한 영상 생성부(1220)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(10)의 변형 정도를 영상화한 탄성 영상을 생성할 수도 있다. 나아가, 영상 생성부(1220)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(1500)에 저장될 수 있다.
디스플레이부(1400)는 생성된 초음파 영상을 표시 출력한다. 디스플레이부(1400)는, 초음파 영상뿐 아니라 초음파 진단 장치(1000)에서 처리되는 다양한 정보를 GUI(Graphical User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(1000)는 구현 형태에 따라 둘 이상의 디스플레이부(1400)를 포함할 수 있다.
통신부(1300)는, 유선 또는 무선으로 네트워크(30)와 연결되어 외부 디바이스나 서버와 통신한다. 통신부(1300)는 의료 영상 정보 시스템(PACS)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(1300)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
통신부(1300)는 네트워크(30)를 통해 대상체(10)의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT 장치, MRI 장치, X-ray 장치 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(1300)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체(10)의 진단에 활용할 수도 있다. 나아가, 통신부(1300)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.
통신부(1300)는 유선 또는 무선으로 네트워크(30)와 연결되어 서버(32), 의료 장치(34), 또는 휴대용 단말(36)과 데이터를 주고 받을 수 있다. 통신부(1300)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(1310), 유선 통신 모듈(1320), 및 이동 통신 모듈(1330)을 포함할 수 있다.
근거리 통신 모듈(1310)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미한다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(ZigBee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈(1320)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 트위스티드 페어 케이블(twisted pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 있을 수 있다.
이동 통신 모듈(1330)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터일 수 있다.
메모리(1500)는 초음파 진단 장치(1000)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(1500)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 진단 장치(1000) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다.
메모리(1500)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 진단 장치(1000)는 웹 상에서 메모리(1500)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
입력 디바이스(1600)는, 사용자로부터 초음파 진단 장치(1000)를 제어하기 위한 데이터를 입력받는 수단을 의미한다. 입력 디바이스(1600)의 예로는 키 패드, 마우스, 터치 패드, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성을 포함할 수 있으나 이에 한정되는 것은 아니며, 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다.
제어부(1700)는 초음파 진단 장치(1000)의 동작을 전반적으로 제어한다. 즉, 제어부(1700)는 도 1에 도시된 프로브(20), 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 디스플레이부(1400), 메모리(1500), 및 입력 디바이스(1600) 간의 동작을 제어할 수 있다.
프로브(20), 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 디스플레이부(1400), 메모리(1500), 입력 디바이스(1600) 및 제어부(1700) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 초음파 송수신부(1100), 영상 처리부(1200), 및 통신부(1300) 중 적어도 일부는 제어부(1600)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.
도 2는 본 발명의 일 실시 예와 관련된 무선 프로브(2000)의 구성을 도시한 블록도이다. 무선 프로브(2000)는, 도 1에서 설명한 바와 같이 복수의 트랜스듀서를 포함하며, 구현 형태에 따라 도 1의 초음파 송수신부(100)의 구성을 일부 또는 전부 포함할 수 있다.
도 2에 도시된 실시 예에 의한 무선 프로브(2000)는, 송신부(2100), 트랜스듀서(2200), 및 수신부(2300)를 포함하며, 각각의 구성에 대해서는 1에서 설명한 바 있으므로 자세한 설명은 생략한다. 한편, 무선 프로브(2000)는 그 구현 형태에 따라 수신 지연부(2330)와 합산부(2340)를 선택적으로 포함할 수도 있다.
무선 프로브(2000)는, 대상체(10)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 1의 초음파 진단 장치(1000)로 무선 전송할 수 있다.
일반적으로, 사용자는 초음파 영상을 효율적으로 분석하기 위해서 의사 컬러(pseudo color) 등의 기법을 이용한다. 그러나, 의사 컬러 등의 기법에도 불구하고, 의사와 같이 숙련된 기술자가 아닌 사용자는 초음파 영상을 분석하기가 어렵다. 따라서, 보다 직관적인 초음파 영상을 제공할 수 있는 초음파 진단 장치가 필요하다.
이하에서는, 본 발명의 일 또는 다른 실시예에 따라, "텍스처 맵핑(texture mapping)"된 초음파 영상을 제공할 수 있는 초음파 진단 장치 및 초음파 진단 방법에 대해서 상세히 설명한다.
명세서 전체에서 "텍스처 맵핑"이란, 대상체의 초음파 영상에 색상 정보, 투명도 및 노말 맵(normal map) 등을 포함하는 텍스처 정보를 부가하는 영상 처리 방법을 의미한다. 텍스처 맵핑을 통해, 초음파 진단 장치는 초음파 영상을 사실적으로 표현할 수 있으며, 사용자는 초음파 영상을 직관적으로 분석할 수 있다.
도 3은 일 실시예에 따른 초음파 진단 장치를 나타내는 블록도이다.
일 실시예에 따른 초음파 진단 장치(300)는 디스플레이부(310), 사용자 인터페이스부(320), 제어부(330) 및 영상 처리부(340)를 포함할 수 있다.
또한, 도 3의 초음파 진단 장치(300)는 도 1의 초음파 진단 장치(100)에 포함될 수 있다. 구체적으로, 도 3의 디스플레이부(310), 사용자 인터페이스부(320), 제어부(330), 및 영상 처리부(340)는 도 1의 디스플레이부(1400), 입력 디바이스(1600), 제어부(1700) 및 영상 처리부(1200)에 동일 대응되거나 포함될 수 있다. 따라서, 도 1과 중복되는 설명은 생략한다.
제어부(330)는 초음파 진단 장치(300)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(330)는 디스플레이부(310), 사용자 인터페이스부(320) 및 영상 처리부(340)의 동작을 제어할 수 있다.
또한, 제어부(330)는 초음파 영상에 포함된 대상체를 인식하고, 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색한다.
여기서, 제어부(330)가 "대상체를 인식한다"는 것은, 제어부(330)가 초음파 영상에 포함된 대상체가 어떤 대상체인지 특정하는 것을 의미한다. 예를 들어, 제어부(330)는 후술할 다양한 방법들에 기초하여, 초음파 영상에 포함된 대상체를 심장, 대장 또는 간 등으로 특정할 수 있다.
제어부(330)는 사용자의 입력에 기초하여 대상체를 수동으로 인식할 수 있다. 또는, 제어부(330)는 기준 영상과 대상체의 초음파 영상을 비교하거나, 초음파 진단 장치(300)의 환경 설정 정보에 기초하여, 대상체를 자동으로 인식할 수 있다. 제어부(330)가 대상체를 인식하는 구체적인 방법에 대해서는, 이하 도 6 내지 도 7을 참조하여 상세히 설명한다.
전술한 바와 같이, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 혈관 또는 팬텀을 포함할 수 있다. 또한, 명세서 전체에서 “초음파 영상”은 3D 초음파 영상을 포함한다.
디스플레이부(310)는 소정의 사용자 인터페이스 화면을 디스플레이한다. 구체적으로, 디스플레이부(310)는 초음파 영상 및 제어부(330)에 의해 검색된 적어도 하나의 텍스처 정보를 디스플레이할 수 있다. 디스플레이부(310)가 디스플레이하는 사용자 인터페이스 화면은 이하 도 5 내지 도 8을 참조하여 상세히 설명한다.
디스플레이부(310)는 텍스처 정보를 이미지의 형태로 디스플레이할 수 있다. 구체적으로, 디스플레이부(310)는 사용자가 대상체의 초음파 영상에 맵핑하고자 하는 텍스처 정보를 효율적으로 선택할 수 있도록, 텍스처 정보가 적용된 이미지(이하 "텍스처 이미지"라 한다)를 디스플레이할 수 있다. 이외에도, 디스플레이부(310)는 문자, 숫자, 및 기호 중 적어도 하나에 기초하여 텍스처 정보를 디스플레이할 수 있다.
또한, "텍스처 정보"는 색상 정보, 투명도 및 노말 맵 중 적어도 하나를 포함할 수 있으며, 색상 정보, 투명도 및 노말 맵 중 적어도 하나의 조합으로 구성되는 소정의 패턴을 포함할 수 있다.
예를 들어, 디스플레이부(310)는 피부, 혈관, 간 및 심장에 대한 텍스처 이미지들을 디스플레이할 수 있다. 디스플레이부(310)가 디스플레이한 텍스처 이미지는 이하 도 5 내지 도 8을 통해 상세히 설명한다.
텍스처 정보는 외부 이미지로부터 획득될 수 있다. 구체적으로, 텍스처 정보는 초음파 영상, CT 영상, X-ray 영상, MRI 영상 및 내시경 영상뿐만 아니라, 사진이나 그림 파일 등을 포함하는 외부 이미지로부터 획득될 수 있다. 예를 들어, 일 또는 다른 실시예에 따른 초음파 진단 장치(300)는 내시경 영상으로부터 장기의 내벽에 대한 텍스처 정보를 획득할 수 있다.
또한, 텍스처 정보는 외부 이미지들의 조합에 의해 획득될 수 있다. 예를 들어, 텍스처 정보의 색상 정보는 제1 외부 이미지로부터 획득되고, 텍스처 정보의 노말 맵은 제2 외부 이미지로부터 획득될 수 있다.
또한, 텍스처 정보는 텍스처 정보를 설정하기 위한 입력에 기초하여 획득될 수 있다. 구체적으로, 사용자는 텍스처 정보의 색상 정보, 투명도, 노말 맵 정보 중 적어도 하나를 직접 설정할 수 있다. 또한, 사용자는 색상 정보, 투명도, 노말 맵 정보 중 적어도 하나의 조합으로 구성되는 텍스처 정보의 소정의 패턴을 직접 설정할 수 있다. 예를 들어, 사용자는 피부 텍스처 정보를 설정하기 위하여, 피부 색상 정보를 설정하고, 피부의 요철(凹凸)을 표현하기 위한 노말 맵을 설정할 수 있다.
사용자 인터페이스부(320)는 디스플레이부(310)가 디스플레이하거나, 제어부(330)가 검색한 적어도 하나의 텍스처 정보 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신할 수 있다. 선택된 텍스처 정보는 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑되는 정보에 해당한다.
동일한 환자의 동일한 대상체라 하여도, 대상체의 텍스처는 환자의 건강 상태 또는 체질에 따라 상이할 수 있다. 또는 동일한 대상체라 하여도, 환자가 상이한 경우, 환자에 따라 대상체의 텍스처가 상이할 수 있다. 예를 들어, 20~30대의 젊은 환자의 간의 텍스처와 60~70 대의 고령의 환자의 간의 텍스처는 서로 상이할 수 있다. 따라서, 사용자는 디스플레이부가 디스플레이한 적어도 하나의 텍스처 정보 중에서, 환자의 건강 상태 또는 체질에 가장 적합하다고 판단되는 텍스처 정보를 선택할 수 있다.
예를 들어, 사용자는 초음파 영상에 포함된 태아의 초음파 영상에 피부 텍스처 정보를 맵핑하기 위하여, 디스플레이부(310)가 디스플레이한 텍스처 정보 중에서 태아의 피부 텍스처 이미지를 선택할 수 있다. 또한, 사용자 인터페이스부(320)는 피부 텍스처 이미지를 선택하는 사용자 입력을 수신하고, 수신된 입력 정보를 제어부(330)로 전송할 수 있다.
구체적으로, 사용자 인터페이스부(320)는 사용자로부터 소정 명령 또는 데이터를 입력받기 위한 사용자 인터페이스 화면을 생성 및 출력하며, 사용자 인터페이스 화면을 통하여 사용자로부터 소정 명령 또는 데이터를 입력받는다. 또한, 사용자 인터페이스부(320)에서 출력되는 사용자 인터페이스 화면은 디스플레이부(310)로 출력된다. 그러면, 디스플레이부(310)는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 사용자는 디스플레이부(310)를 통하여 디스플레이 되는 사용자 인터페이스 화면을 보고, 소정 정보를 인식할 수 있으며, 소정 명령 또는 데이터를 입력할 수 있다.
예를 들어, 사용자 인터페이스부(320)는 마우스, 키보드, 또는 소정 데이터 입력을 위한 하드 키들을 포함하는 입력 장치 등을 포함할 수 있다. 예를 들어, 사용자는 사용자 인터페이스부(320)에 포함되는 마우스, 키보드, 또는 기타 입력 장치 중 적어도 하나를 조작하여, 소정 데이터 또는 명령을 입력할 수 있다.
또한, 사용자 인터페이스부(320)는 터치 패드로 형성될 수 있다. 구체적으로, 사용자 인터페이스부(320)는 디스플레이부(310)에 포함되는 디스플레이 패널(display panel)(미도시)과 결합되는 터치 패드(touch pad)(미도시)를 포함하여, 디스플레이 패널 상으로 사용자 인터페이스 화면을 출력한다. 그리고, 사용자 인터페이스 화면을 통하여 소정 명령이 입력되면, 터치 패드에서 이를 감지하여, 사용자가 입력한 소정 명령을 인식할 수 있다.
구체적으로, 사용자 인터페이스부(320)가 터치 패드로 형성되는 경우, 사용자가 사용자 인터페이스 화면의 소정 지점을 터치하면, 사용자 인터페이스부(320)는 터치된 지점을 감지한다. 그리고, 감지된 정보를 제어부(330)로 전송할 수 있다. 그러면, 제어부(330)는 감지된 지점에 표시된 메뉴에 대응되는 사용자의 요청 또는 명령을 인식하며, 인식된 요청 또는 명령을 반영하여 초음파 영상에 대한 영상 처리를 수행할 수 있다.
영상 처리부(340)는 선택된 텍스처 정보를 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑할 수 있다. 여기서, 대상체의 초음파 영상에 포함되는 적어도 하나의 영역은 사용자에 의해 설정되거나, 제어부(330)에 의한 소정의 알고리즘 연산을 통해 설정될 수도 있다. 또한, 대상체의 초음파 영상에 포함되는 적어도 하나의 영역은 대상체의 전체 영역이 되거나 대상체의 일부 영역이 될 수 있다.
또한, 디스플레이부(310)는 영상 처리부(340)가 텍스처 맵핑한 대상체의 초음파 영상을 디스플레이하며, 사용자는 텍스처 맵핑된 대상체의 초음파 영상을 통해, 대상체를 효율적이고 직관적으로 분석할 수 있다.
도 4는 본 발명의 다른 실시예에 따른 초음파 진단 장치를 나타내는 블록도이다.
도 4의 초음파 진단 장치(400)는 도 3의 초음파 진단 장치(400)에 비하여, 프로브(450) 및 저장부(460)를 더 포함할 수 있다. 이외의 구성은 도 3의 초음파 진단 장치와 동일 대응된다. 구체적으로, 도 4의 초음파 진단 장치(400)의 디스플레이부(410), 사용자 인터페이스부(420), 제어부(430) 및 영상 처리부(440)는 도 3의 초음파 진단 장치(300)의 디스플레이부(310), 사용자 인터페이스부(320), 제어부(330) 및 영상 처리부(340)에 동일 대응된다. 따라서, 도 3과 중복되는 설명은 생략한다.
또한, 도 4의 초음파 진단 장치(400)가 도 1의 초음파 진단 장치(100)에 포함되는 경우, 도 4의 프로브(450)는 도 1의 프로브(20)에 동일 대응되거나 포함될 수 있으며, 도 4의 저장부(460)는 도 1의 메모리(1500)에 동일 대응되거나 포함될 수 있다. 따라서, 도 1과 중복되는 설명은 생략한다.
저장부(460)는 적어도 하나의 텍스처 정보를 저장할 수 있다.
또한, 제어부(430)는 새로운 텍스처 정보가 추가되거나, 저장부(460)에 저장된 텍스처 정보가 편집 또는 삭제되는 경우, 추가, 편집 또는 삭제를 반영하여 적어도 하나의 텍스처 정보를 업데이트할 수 있다. 또한, 저장부(460)는 제어부(430)에 의해 업데이트된 적어도 하나의 텍스처 정보를 저장할 수 있다.
구체적으로, 제어부(430)는 사용자의 입력에 기초하여, 저장부(460)에 저장된 텍스처 정보를 업데이트 할 수 있다. 또는, 제어부(430)는 통신부(30)에서 수신된 최신 텍스처 정보에 따라, 저장부(460)에 저장된 텍스처 정보를 업데이트할 수 있다.
예를 들어, 제어부(430)는 사용자의 입력에 기초하여, 텍스처 정보의 24 bit RGB 색상 정보를 편집하고, 점, 선, 면, 및 다각형을 추가하거나 지울 수 있고, 텍스처 정보의 밝기(Brightness), 대비(contrast), 채도(saturation), 색조(hue), 투명도(transparency) 등을 조절할 수 있다. 이외에도, 제어부(430)는 텍스처 이미지를 회전 또는 대칭이동 하여 텍스처 정보를 업데이트할 수 있다.
도 5a 및 도 5b는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 일 도면이다. 구체적으로, 도 5a 및 도 5b는 대장의 3D 초음파 영상(540a, 540b)에 텍스처 맵핑을 하는 초음파 진단 장치(300, 400)의 동작을 설명하기 위한 일 도면이다. 대장 내부의 3D 초음파 영상(540a, 540b)은 초음파 진단 장치(300, 400)의 내시경 뷰 기능 등을 활용하여 획득될 수 있다.
도 5a는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 대장의 3D 초음파 영상(540a)에 텍스처 맵핑을 하기 전, 디스플레이부(310)에서 디스플레이되는 사용자 인터페이스 화면(500a)을 도시한다. 또한, 도 5b는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 대장의 3D 초음파 영상(540b)에 텍스처 맵핑을 한 후, 디스플레이부(310, 410)에서 디스플레이되는 사용자 인터페이스 화면(500b)을 도시한다.
도 5a를 참조하면, 디스플레이부(310, 410)는 대상체의 3D 초음파 영상에 대한 소정의 단면 영상(510, 520, 530)들을 디스플레이할 수 있다. 대상체의 3D 초음파 영상에 대한 소정의 단면 영상(510, 520, 530)들의 단면 방향 및 위치는 사용자 설정에 기초하여 설정될 수 있다.
또한, 디스플레이부(310, 410)는 제어부(330, 430)에 의해 검색된 적어도 하나의 텍스처 이미지(550, 560, 570)를 디스플레이할 수 있다. 예를 들어, 디스플레이부(310)는 대장의 텍스처 이미지(550, 560, 570)들을 디스플레이할 수 있다.
또한, 텍스처 이미지(550, 560, 570)들은 초음파 영상, CT 영상, X-ray 영상, MRI 영상, 내시경 영상, 사진 및 그림 중 적어도 하나로부터 획득되거나, 사용자 입력에 기초하여 획득될 수 있다. 예를 들어, 제1 대장의 텍스처 이미지(550)는 내시경 영상으로부터 획득될 수 있고, 제2 대장 텍스처 이미지(560)는 사용자 입력에 기초하여 획득될 수 있고, 제3 대장 텍스처 이미지(570)는 대장 사진으로부터 획득될 수 있다.
도 5b를 참조하면, 사용자 인터페이스부(320, 420)는 제3 대장 텍스처 이미지(570)를 선택하는 입력(580)을 수신한다. 또한, 영상 처리부(340, 440)는 선택된 텍스처 정보를 대장의 3D 초음파 영상(540b)에 포함되는 적어도 하나의 영역에 텍스처 맵핑할 수 있다.
구체적으로, 영상 처리부(340, 440)는 텍스처 정보의 색상 정보, 투명도 및 노말 맵을 대장의 3D 초음파 영상(540b)에 포함되는 적어도 하나의 영역에 부가할 수 있다. 텍스처 맵핑된 대장의 3D 초음파 영상(540b)은 대장을 사실적으로 표현할 수 있다. 또한, 사용자는 텍스처 맵핑된 대장의 3D 초음파 영상(540b)을 통해, 환자의 건강 상태를 직관적으로 파악할 수 있다.
또한, 영상 처리부(340, 440)는 대상체에 대한 외부 광원의 효과, 대상체에 대한 반사광의 효과 및 대상체에 대한 그림자의 효과 중 적어도 하나를 반영하여, 선택된 텍스처 정보를 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑할 수 있다.
구체적으로, 영상 처리부(340, 440)는 대상체를 향해서 외부 광원이 빛을 조사하고 있는 것과 같이, 초음파 영상에 대한 영상 처리를 수행할 수 있다. 외부 광원의 위치, 빛의 조사 방향 및 빛의 세기는 사용자 입력에 기초하여 설정될 수 있다.
또한, 영상 처리부(340, 440)는 외부 광원에 대하여, 대상체가 반사광을 생성하도록 대상체의 초음파 영상에 대한 영상 처리를 수행할 수 있다. 대상체의 반사율은 사용자 입력에 기초하여 설정될 수 있다.
영상 처리부(340, 440)는 서피스 렌더링(surface rendering) 또는 볼륨 렌더링(volume rendering) 방식에 기초하여, 선택된 텍스처 정보를 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑할 수 있다.
영상 처리부(340, 440)가 서피스 렌더링 방식에 기초하여 텍스처 맵핑을 수행하는 경우, 영상 처리부(340, 440)는 대상체의 초음파 영상의 표면에 복수 개의 메쉬(mesh)를 설정하고, 각각의 매쉬마다 텍스처 정보를 텍스처 맵핑할 수 있다.
반면에, 영상 처리부(340, 440)가 볼륨 렌더링 방식에 기초하여 텍스처 맵핑을 수행하는 경우, 영상 처리부(340, 440)는 대상체의 초음파 영상의 표면에 해당하는 복셀 뿐만 아니라, 대상체의 초음파 영상 내부에 포함되는 모든 복셀에 대하여 텍스처 정보를 텍스처 맵핑할 수 있다.
서피스 렌더링 방식에 기초한 텍스처 맵핑은 볼륨 렌더링 방식에 기초한 텍스처 맵핑 보다 연산량이 적으므로, 상대적으로 연산 시간이 짧다. 또한, 볼륨 렌더링 방식에 기초한 텍스처 맵핑은 서피스 렌더링 방식에 기초한 텍스처 맵핑보다 더욱 사실적인 초음파 영상을 생성할 수 있다.
도 6a 및 도 6b는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 다른 도면이다. 구체적으로, 도 6a 및 도 6b는 대장의 3D 초음파 영상(640a, 640b)에 텍스처 맵핑을 하는 초음파 진단 장치의 동작을 설명하기 위한 또 다른 도면이다.
도 6a 및 도 6b의 사용자 인터페이스 화면(600a, 600b)은 도 5a의 사용자 인터페이스 화면(500a, 500b)과 동일한 기술적 사상을 포함한다. 따라서, 도 5a와 중복되는 설명은 생략한다.
도 6a는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 대장의 3D 초음파 영상(640a)에 텍스처 맵핑을 하기 전, 디스플레이부(310)에서 디스플레이되는 사용자 인터페이스 화면(600a)을 도시한다. 또한, 도 6b는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 대장의 3D 초음파 영상(640b)에 텍스처 맵핑을 한 후, 디스플레이부(310, 410)에서 디스플레이되는 사용자 인터페이스 화면(600b)을 도시한다.
디스플레이부(310, 410)는 대상체의 3D 초음파 영상에 대한 소정의 단면 영상(610, 620, 630)들을 디스플레이할 수 있다. 대상체의 3D 초음파 영상에 대한 소정의 단면(610, 620, 630)들의 단면 방향 및 위치는 사용자 설정에 기초하여 설정될 수 있다.
일 또는 다른 실시예에 따른 초음파 진단 장치(300, 400)는 초음파 영상에 포함된 대상체에 대응되는 적어도 하나의 텍스처 정보를 검색할 수 있다.
구체적으로, 제어부(330, 430)는 복수 개의 대상체 중 상기 초음파 영상에 포함된 상기 대상체를 선택하는 입력에 기초하여 대상체를 인식할 수 있다.
예를 들어, 제어부(330, 430)의 제어에 기초하여, 디스플레이부(310, 410)는 적어도 하나의 텍스처 정보 각각이 대응하는 복수 개의 대상체들을 디스플레이할 수 있다. 또한, 사용자 인터페이스부(320, 420)는 디스플레이부(310, 410)가 디스플레이한 복수 개의 대상체 중에서 초음파 영상에 대응하는 대상체를 선택하는 입력을 수신할 수 있다.
또한, 제어부(330, 430)는 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색할 수 있다.
예를 들어, 제어부(330, 430)는 대상체를 인식하여, 저장부(460)에 저장된 적어도 하나의 텍스처 정보 중에서 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색할 수 있다.
도 6a를 참조하면, 디스플레이부(310, 410)는 적어도 하나의 텍스처 정보 각각이 대응하는 신장(650a), 대장(651a) 및 폐(652a) 등을 디스플레이할 수 있다. 또한, 사용자 인터페이스부(320, 420)는 복수 개의 대상체(650a, 651a, 652a) 중 대장(651a)을 선택하는 입력(680a)을 수신할 수 있다. 선택된 대장(651a)은 3D 초음파 영상(640a)에 포함된 대장에 대응되며, 제어부(330, 340)는 초음파 영상에 포함된 대상체를 대장으로서 인식할 수 있다.
또한, 제어부(330, 340)는 대장에 대응하는 적어도 하나의 텍스처 정보를 검색하고, 디스플레이부(310, 410)는 제어부(330, 430)에 의해 검색된 적어도 하나의 텍스처 정보를 디스플레이할 수 있다. 또한, 사용자 인터페이스부(320, 420)는 디스플레이부(310, 410)가 디스플레이한 텍스처 정보 중에서 어느 하나를 선택하는 입력을 수신할 수 있다. 또한, 영상 처리부(340, 440)는 선택된 텍스처 정보를 대상체의 초음파 영상에 텍스처 맵핑할 수 있다.
예를 들어, 도 6b를 참조하면, 디스플레이부(310, 410)는 제어부(330, 430)에 의해 검색된 대장(651a)에 대응되는 적어도 하나의 텍스처 이미지(660b, 661b, 662b)를 디스플레이할 수 있다. 또한, 사용자 인터페이스부(320, 420)는 대장(651a)에 대응되는 적어도 하나의 텍스처 이미지(660b, 661b, 662b) 중에서 제2 대장 텍스처 이미지(661b)를 선택하는 입력(680b)을 수신할 수 있다. 구체적으로, 사용자는 환자의 건강 상태 또는 체질에 가장 적합한 텍스처 정보를 선택할 수 있다. 또한, 영상 처리부(340, 440)는 제2 대장 텍스처 이미지(661b)를 대장의 3D 초음파 영상(640b)에 텍스처 맵핑할 수 있다.
또한, 일 또는 다른 실시예에 따른 초음파 진단 장치(300, 400)는 입력에 기초하여 대상체의 초음파 영상에 텍스처 맵핑된 텍스처 정보를 변경할 수 있다.
구체적으로, 사용자 인터페이스부(320, 420)는 대상체의 초음파 영상에 텍스처 맵핑된 텍스처 정보를 다른 텍스처 정보로 변경하기 위한 입력을 수신할 수 있다. 또한, 영상 처리부(340, 440)는 사용자 인터페이스부(320, 420)에서 수신한 입력에 기초하여, 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 변경된 텍스처 정보를 텍스처 맵핑할 수 있다.
도 7a 내지 도 7c는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 다른 도면이다. 구체적으로, 도 7a 내지 도 7c는 간의 3D 초음파 영상(740a, 740b, 740c)에 텍스처 맵핑을 하는 초음파 진단 장치의 동작을 설명하기 위한 도면이다.
도 7a 내지 도 7c의 사용자 인터페이스 화면(700a, 700b, 700c)은 도 5a의 사용자 인터페이스 화면(500a, 500b)과 동일한 기술적 사상을 포함한다. 따라서, 도 5a와 중복되는 설명은 생략한다.
도 7a 및 도 7b는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 간의 3D 초음파 영상(640a)에 텍스처 맵핑을 하기 전, 디스플레이부(310)에서 디스플레이되는 사용자 인터페이스 화면(700a, 700b)을 도시한다. 또한, 도 7c는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 간의 3D 초음파 영상(740c)에 텍스처 맵핑 한 후, 디스플레이부(310, 410)에서 디스플레이되는 사용자 인터페이스 화면(700c)을 도시한다.
대상체를 인식하는 또 다른 방법으로, 제어부(330, 430)가 적어도 하나의 기준 영상과 초음파 영상에 포함된 대상체를 비교하여, 대상체를 인식하는 방법이 있다. 여기서, "기준 영상"이란, 심장, 간 및 대장 등의 대상체들에 대한 일반적인 외부 및 내부 초음파 영상을 의미한다. 또한, 저장부(460)는 적어도 하나의 기준 영상을 저장할 수 있다.
예를 들어, 제어부(330, 430)는 저장부(460)에 저장된 적어도 하나의 기준 영상들과 디스플레이부(310, 410)에서 디스플레이된 대상체의 초음파 영상을 비교하여, 대상체의 초음파 영상과 가장 유사한 제1 기준 영상을 선택하고, 제1 기준 영상에 대응되는 적어도 하나의 텍스처 정보를 검색할 수 있다.
도 7a를 참조하면, 저장부(460)는 간의 기준 영상(750a), 폐의 기준 영상(751a) 및 신장의 기준 영상(752a) 등을 저장하고 있다. 또한, 제어부(330, 430)는 디스플레이부에서 디스플레이 된 3D 초음파 영상(740a)과 저장부에 저장된 적어도 하나의 기준 영상(750a, 751a, 752a)들을 비교하고, 디스플레이부에서 디스플레이 된 3D 초음파 영상(740a)과 가장 유사한 간의 기준 영상(750a)에 기초하여, 대상체를 간으로 인식할 수 있다.
도 7b를 참조하면, 제어부(330, 430)는 인식된 간에 대응되는 텍스처 이미지(760, 761, 762)들을 검색할 수 있다. 또한, 디스플레이부(310, 410)는 제어부(330, 430)의 제어에 기초하여, 검색된 텍스처 이미지(760, 761, 762)들을 디스플레이할 수 있다.
도 7c를 참조하면, 사용자 인터페이스부(320, 420)는 디스플레이부(310, 410)에 의해 디스플레이된 간의 텍스처 이미지(760, 761, 762) 중에서 제2 간 텍스처 이미지(761)를 선택하는 입력(780)을 수신할 수 있다. 사용자는 환자의 건강 상태 또는 체질에 가장 적합한 텍스처 정보를 선택할 수 있다. 또한, 영상 처리부(340, 440)는 선택된 텍스처 이미지(761)를 대장의 3D 초음파 영상(740c)에 포함되는 적어도 하나의 영역에 텍스처 맵핑할 수 있다.
대상체를 인식하는 또 다른 방법으로, 제어부(330, 430)가 초음파 진단 장치(300, 400)의 환경 설정 정보에 기초하여, 대상체를 인식하는 방법이 있다. 초음파 진단 장치(300, 400)의 환경 설정 정보는 직접적 혹은 간접적으로 대상체를 인식하기 위한 정보가 될 수 있다. 예를 들어, 대상체의 초음파 영상을 획득하기 위해 사용된 프로브의 종류 및 어플리케이션의 종류는 대상체를 특정하기 위한 정보가 될 수 있다.
구체적으로, 볼록형 배열 프로브(convex array probe)의 경우, 상대적으로 넓은 영역의 초음파 영상을 획득할 수 있으므로, 복부 등을 진단하기 위해 사용될 수 있다. 또한, 선형 배열 프로브(linear array probe)의 경우, 유방, 갑상선 또는 근골격계 등을 진단하기 위해 사용될 수 있다. 또한, 위상차 배열 프로브(phased array probe)의 경우, 갈비뼈 사이의 틈을 통해 심장 등을 진단하기 위해 사용될 수 있다.
전술한 바와 같이, 프로브의 종류에 따라 사용자가 진단하려는 대상체가 상이할 수 있으므로, 프로브의 종류는 대상체를 인식하기 위한 정보가 될 수 있다. 따라서, 제어부(330, 430)는 초음파 영상을 획득하기 위해 사용된 프로브의 종류에 기초하여, 대상체를 인식할 수 있다. 예를 들어, 위상차 배열 프로브가 사용되는 경우, 제어부(330, 430)는 대상체를 심장으로서 인식하고, 심장에 대응되는 텍스처 정보를 검색할 수 있다.
프로브의 종류와 마찬가지로, 어플리케이션의 종류는 대상체를 특정하기 위한 정보가 될 수 있다. 구체적으로, 대상체의 특성에 따라, 초음파 진단 장치(300, 400)의 영상 처리 방법 혹은 초음파 진단 장치(300, 400)가 사용자에게 제공하기는 기능 등이 상이할 수 있다. 따라서, 제어부(330, 430)는 초음파 영상을 획득하기 위해 사용된 어플리케이션의 종류에 기초하여, 대상체를 인식하고, 인식된 대상체에 대응되는 텍스처 정보를 검색할 수 있다.
대상체를 인식하는 또 다른 방법으로, 소정의 알고리즘 연산 방법이 있다. 구체적으로, 제어부(330, 430)는 후술될 소정의 알고리즘 중 적어도 하나에 기초하여, 디스플레이부(310, 410)에서 디스플레이된 초음파 영상에 포함된 대상체를 특정할 수 있다. 소정의 알고리즘은 Sobel Operator, Morphology(Erosion Operator, Dilation Operator, Opening Operator, Closing Operator), A*boundary-forming algorithm, F*boundary-forming algorithm, Deformable Model, Snake Algorithm, Level Set, Thresholding (Local, Adaptive, Hysteresis), Histogram Equalization (CLAHE, Retinex), k-nearest-neighbor (kNN) Classifier, Maximum likelihood (ML) Classifier, Bayes Classifier, K-means clustering, fuzzy clustering, Markov Random Fields (MRF), Region Growing Algorithm, Split and Merge Algorithm, Atlas-warping Algorithm, Artificial Neural Networks (ANN), LEGION Algorithm, SIFT(Scale Invariant Feature Transform), HOG(Histogram of Oriented Gradient), Haar feature, Ferns, LBP(Local Binary Pattern), MCT(Modified Census Transform), Thinning Algorithm 를 포함할 수 있다.
도 8a 내지 도 8c는 초음파 영상에 텍스처 맵핑을 하는 동작을 설명하기 위한 다른 도면이다. 구체적으로, 도 8a 내지 도 8c는 대장의 3D 초음파 영상(840a, 840b, 840c)에 관심 영역을 설정하여 텍스처 맵핑을 하는 초음파 진단 장치의 동작을 설명하기 위한 또 다른도면이다.
도 8a 내지 도 8c의 사용자 인터페이스 화면(800a, 800b, 800c)은 도 5a의 사용자 인터페이스 화면(500a, 500b)과 동일한 기술적 사상을 포함한다. 따라서, 도 5a와 중복되는 설명은 생략한다.
도 8a는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 대장의 3D 초음파 영상(840a)에 텍스처 맵핑을 하기 전, 디스플레이부(310)에서 디스플레이되는 사용자 인터페이스 화면(800a)을 도시한다. 또한, 도 8b는 관심 영역이 설정된 대장의 3D 초음파 영상(840b)을 포함하는 사용자 인터페이스 화면(800b)을 도시한다. 또한, 도 8c는 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)가 간의 3D 초음파 영상(840c)에 텍스처 맵핑을 한 후, 디스플레이부(310, 410)에서 디스플레이되는 사용자 인터페이스 화면(800c)을 도시한다.
디스플레이부(310, 410)는 대상체의 3D 초음파 영상에 대한 소정의 단면 영상(810, 820, 830)들을 디스플레이할 수 있다. 대상체의 3D 초음파 영상에 대한 소정의 단면(810, 820, 830)들의 단면 방향 및 위치는 사용자 설정에 기초하여 설정될 수 있다.
일 또는 다른 실시예에 따른 초음파 진단 장치(300, 400)는 대상체의 초음파 영상에 적어도 하나의 관심 영역을 설정하고, 관심 영역 별로 텍스처 맵핑을 할 수 있다.
초음파 영상에 복수 개의 대상체가 포함되는 경우, 대상체 별로 서로 다른 텍스처 정보가 텍스처 맵핑될 필요가 있다. 또는, 하나의 대상체라도 영역을 나누어 서로 다른 텍스처 정보가 텍스처 맵핑될 필요가 있다. 예를 들어, 간의 초음파 영상에서 암세포가 발견된 경우, 초음파 진단 장치(300, 400)가 암세포와 정상세포의 텍스처 정보를 달리하여 간의 초음파 영상에 텍스처 맵핑을 하면, 사용자에게 더욱 유용한 초음파 영상을 제공할 수 있다.
구체적으로, 사용자 인터페이스부(320, 420)는 대상체의 초음파 영상 상에 적어도 하나의 관심 영역(ROI, Region Of Interest)을 설정하는 입력을 수신하고, 적어도 하나의 텍스처 정보 중 적어도 하나의 관심 영역 각각에 대한 텍스처 정보를 선택하는 입력을 수신할 수 있다. 또한, 영상 처리부(340, 440)는 적어도 하나의 관심 영역 각각에 대해 선택된 텍스처 정보를 텍스처 맵핑할 수 있다.
예를 들어, 도 8a를 참조하면, 비정상 조직(841a)을 포함하는 대장의 3D 초음파 영상(840a)이 도시된다. 초음파 진단 장치(300, 400)는 비정상 조직의 초음파 영상(841a)과 비정상 조직을 제외한 대장의 3D 초음파 영상(842a)에 서로 다른 텍스처 정보를 텍스처 맵핑할 수 있다.
도 8b를 참조하면, 대상체의 초음파 영상(840b) 상에 관심 영역을 설정하는 초음파 진단 장치(300, 400)의 동작이 도시된다. 구체적으로, 사용자 인터페이스부(320, 420)는 비정상 조직의 초음파 영상(841a)을 제1 관심 영역으로, 비정상 조직을 제외한 대장의 3D 초음파 영상(842a)을 제2 관심 영역으로 설정하는 입력을 수신할 수 있다. 또한, 사용자 인터페이스부(320, 420)는 제1 관심 영역에 대한 제3 대장 텍스처 이미지(852b)를 선택하는 입력(880b) 및 제2 관심 영역에 대한 제2 대장 텍스처 이미지(851b)를 선택하는 입력(870b)을 수신할 수 있다.
도 8c를 참조하면, 관심 영역 별로 서로 다른 텍스처 정보가 텍스처 맵핑된 대상체의 초음파 영상(840c)이 도시된다. 구체적으로, 영상 처리부(340, 440)는 사용자 인터페이스부(320, 420)에서 수신한 입력(870b, 880b)에 기초하여, 제1 관심 영역(841c)에 제3 대장 텍스처 이미지(852c)를 텍스처 맵핑하고, 제2 관심 영역(842c)에 제2 대장 텍스처 이미지(851c)를 텍스처 맵핑할 수 있다.
도 9는 일 실시예에 따른 초음파 진단 방법을 나타내는 폴로우차트이다. 일 실시예에 따른 초음파 진단 방법(900)의 동작 구성은 도 1 내지 도 8을 참조하여 설명한 본 발명의 실시예에 따른 초음파 진단 장치(300, 400)의 동작 구성과 동일하다. 따라서, 초음파 진단 방법(900)을 설명하는데 있어서, 도 1 내지 도 8과 중복되는 설명은 생략한다.
도 9를 참조하면, 일 실시예에 따른 초음파 진단 방법(900)은 초음파 영상에 포함된 대상체를 인식한다(910 단계). 또한, 910 단계의 동작은 초음파 진단 장치(300, 400)의 제어부(330, 430)에 의해 수행될 수 있다.
구체적으로, 일 실시예에 따른 초음파 진단 방법(900)은 상기 초음파 영상에 포함된 상기 대상체를 선택하는 입력에 기초하여, 대상체를 인식할 수 있다(910 단계). 또한, 다른 실시예에 따른 초음파 진단 방법(900)은 적어도 하나의 기준 영상과 대상체의 초음파 영상을 비교하여, 대상체를 인식할 수 있다(910 단계). 또한, 다른 실시예에 따른 초음파 진단 방법(900)은 초음파 진단 장치의 환경 설정 정보에 기초하여, 대상체를 인식할 수 있다(910 단계). 여기서, 초음파 진단 장치의 환경 설정 정보는 대상체의 초음파 영상을 획득하기 위해 사용된 프로브의 종류 및 어플리케이션의 종류를 포함할 수 있다.
초음파 진단 방법(900)은 910 단계에서 인식된 대상체에 대응하는 적어도 하나의 텍스처 정보를 검색할 수 있다. 910 단계의 동작은 초음파 진단 장치(300, 400)의 제어부(330, 430)에 의해 수행될 수 있다.
초음파 진단 방법(900)은 초음파 영상 및 920 단계에서 검색된 적어도 하나의 텍스처 정보를 디스플레이한다(930 단계). 또한, 930 단계의 동작은 초음파 진단 장치(300, 400)의 디스플레이부(310, 410)에서 수행될 수 있다.
초음파 진단 방법(900)은 930단계에서 디스플레이되거나, 920 단계에서 검색된 적어도 하나의 텍스처 정보 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신할 수 있다(940 단계). 또한, 940 단계의 동작은 초음파 진단 장치(300, 400)의 사용자 인터페이스부(320, 420)에서 수행될 수 있다.
초음파 진단 방법(900)은 940단계에서 선택된 텍스처 정보를 대상체의 초음파 영상에 텍스처 맵핑(texture mapping)할 수 있다(950 단계). 또한, 950 단계의 동작은 초음파 진단 장치(300, 400)의 영상 처리부(340, 440)에서 수행될 수 있다.
또한, 초음파 진단 방법(900)은 초음파 진단 장치(300, 400)의 통신부(30)와 유선 또는 무선으로 네트워크(3) 통신을 통해서, 서버(35), 의료장치(34), 또는 휴대용 단말(36)에서 수행될 수 있다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
전술한 바와 같이, 본 발명의 실시에에 따른 초음파 진단 장치(300, 400) 및 초음파 진단 방법(900)은 텍스처 맵핑된 초음파 영상을 제공할 수 있다. 따라서, 사용자는 텍스처 맵핑된 초음파 영상을 통해, 보다 직관적으로 초음파 영상을 분석하고, 더욱 효율적으로 환자를 진단할 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 등의 저장매체를 포함한다.
본원 발명의 실시 예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 복수의 대상체들 각각에 대응하는 복수의 그룹들의 텍스처 정보들을 저장하는 저장부;
    초음파 영상에 포함된 대상체를 인식하고, 상기 복수의 그룹들 중 상기 인식된 대상체에 대응하는 그룹의 텍스처 정보들을 검색하는 제어부;
    상기 초음파 영상 및 상기 검색된 텍스처 정보들을 디스플레이하는 디스플레이부;
    상기 검색된 텍스처 정보들 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신하는 사용자 인터페이스부; 및
    상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑(texture mapping)하는 영상 처리부를 포함하는 초음파 진단 장치.
  2. 제1 항에 있어서, 상기 제어부는
    상기 복수의 대상체들 중 상기 초음파 영상에 포함된 상기 대상체를 선택하는 입력에 기초하여, 상기 대상체를 인식하는 것을 특징으로 하는 초음파 진단 장치.
  3. 제1 항에 있어서, 상기 제어부는
    적어도 하나의 기준 영상과 상기 대상체의 초음파 영상을 비교하여, 상기 대상체를 인식하는 것을 특징으로 하는 초음파 진단 장치.
  4. 제1 항에 있어서, 상기 제어부는
    상기 초음파 진단 장치의 환경 설정 정보에 기초하여, 상기 대상체를 인식하는 것을 특징으로 하는 초음파 진단 장치.
  5. 제4 항에 있어서, 상기 초음파 진단 장치의 환경 설정 정보는
    상기 대상체의 초음파 영상을 획득하기 위해 사용된 프로브의 종류 및 어플리케이션의 종류를 포함하는 것을 특징으로 하는 초음파 진단 장치.
  6. 제1 항에 있어서, 상기 사용자 인터페이스부는
    상기 대상체의 초음파 영상 상에 적어도 하나의 관심 영역(ROI, Region Of Interest)을 설정하는 입력을 수신하고, 상기 검색된 적어도 하나의 텍스처 정보 중 상기 적어도 하나의 관심 영역 각각에 대한 텍스처 정보를 선택하는 입력을 수신하고,
    상기 영상 처리부는
    상기 적어도 하나의 관심 영역 각각에 대해 상기 선택된 텍스처 정보를 텍스처 맵핑하는 것을 특징으로 하는 초음파 진단 장치.
  7. 제1 항에 있어서, 상기 텍스처 정보는
    색상 정보, 투명도 및 노말 맵(normal map) 중 적어도 하나를 포함하는 것을 특징으로 하는 초음파 진단 장치.
  8. 제1 항에 있어서, 상기 적어도 하나의 텍스처 정보는
    외부 이미지로부터 획득되는 것을 특징으로 하는 초음파 진단 장치.
  9. 제1 항에 있어서, 상기 적어도 하나의 텍스처 정보는
    상기 텍스처 정보를 설정하기 위한 입력에 기초하여 획득되는 것을 특징으로 하는 초음파 진단 장치.
  10. 삭제
  11. 제1 항에 있어서, 상기 제어부는
    새로운 텍스처 정보가 추가되거나, 상기 저장된 텍스처 정보가 편집 또는 삭제되는 경우, 상기 추가, 편집 또는 삭제를 반영하여 상기 텍스처 정보들을 업데이트하고,
    상기 저장부는 상기 업데이트된 텍스처 정보들을 저장하는 것을 특징으로 하는 초음파 진단 장치.
  12. 제1 항에 있어서, 상기 영상 처리부는
    상기 대상체에 대한 외부 광원의 효과, 상기 대상체에 대한 반사광의 효과 및 상기 대상체에 대한 그림자의 효과 중 적어도 하나를 반영하여, 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 상기 적어도 하나의 영역에 텍스처 맵핑하는 것을 특징으로 하는 초음파 진단 장치.
  13. 제1 항에 있어서, 상기 영상 처리부는
    서피스 렌더링(surface rendering) 또는 볼륨 렌더링(volume rendering) 방식에 기초하여, 상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑하는 것을 특징으로 하는 초음파 진단 장치.
  14. 제1 항에 있어서,
    상기 대상체에 초음파 신호를 송신하고, 상기 대상체로부터 반사된 에코 신호를 수신하는 프로브를 더 포함하는 것을 특징으로 하는 초음파 진단 장치.
  15. 복수의 대상체들 중, 초음파 영상에 포함된 대상체를 인식하는 단계;
    상기 복수의 대상체들 각각에 대응하는 복수의 그룹들의 텍스처 정보들 중, 상기 인식된 대상체에 대응하는 그룹의 텍스처 정보들을 검색하는 단계;
    상기 초음파 영상 및 상기 검색된 텍스처 정보들을 디스플레이하는 단계;
    상기 검색된 텍스처 정보들 중에서 어느 하나의 텍스처 정보를 선택하는 입력을 수신하는 단계; 및
    상기 선택된 텍스처 정보를 상기 대상체의 초음파 영상에 포함되는 적어도 하나의 영역에 텍스처 맵핑(texture mapping)하는 단계를 포함하는 초음파 진단 방법.
  16. 제15 항에 있어서, 상기 대상체를 인식하는 단계는
    상기 복수의 대상체들 중 상기 초음파 영상에 포함된 상기 대상체를 선택하는 입력에 기초하여, 상기 대상체를 인식하는 것을 특징으로 하는 초음파 진단 방법.
  17. 제15 항에 있어서, 상기 대상체를 인식하는 단계는
    적어도 하나의 기준 영상과 상기 대상체의 초음파 영상을 비교하여, 상기 대상체를 인식하는 것을 특징으로 하는 초음파 진단 방법.
  18. 제15 항에 있어서, 상기 대상체를 인식하는 단계는
    초음파 진단 장치의 환경 설정 정보에 기초하여, 상기 대상체를 인식하는 것을 특징으로 하는 초음파 진단 방법.
  19. 제18 항에 있어서, 상기 초음파 진단 장치의 환경 설정 정보는
    상기 대상체의 초음파 영상을 획득하기 위해 사용된 프로브의 종류 및 어플리케이션의 종류를 포함하는 것을 특징으로 하는 초음파 진단 방법.
  20. 제15 항 내지 제19 항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020140153737A 2014-11-06 2014-11-06 초음파 진단 장치 및 초음파 진단 방법 KR102347038B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140153737A KR102347038B1 (ko) 2014-11-06 2014-11-06 초음파 진단 장치 및 초음파 진단 방법
EP15191842.2A EP3017765B1 (en) 2014-11-06 2015-10-28 Ultrasound diagnosis apparatus and method
US14/934,782 US10405832B2 (en) 2014-11-06 2015-11-06 Ultrasound diagnosis apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140153737A KR102347038B1 (ko) 2014-11-06 2014-11-06 초음파 진단 장치 및 초음파 진단 방법

Publications (2)

Publication Number Publication Date
KR20160054303A KR20160054303A (ko) 2016-05-16
KR102347038B1 true KR102347038B1 (ko) 2022-01-04

Family

ID=54360350

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140153737A KR102347038B1 (ko) 2014-11-06 2014-11-06 초음파 진단 장치 및 초음파 진단 방법

Country Status (3)

Country Link
US (1) US10405832B2 (ko)
EP (1) EP3017765B1 (ko)
KR (1) KR102347038B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600514B2 (en) * 2016-05-27 2020-03-24 Varian Medical Systems, Inc. Intuitive automation in patient modeling
KR102591371B1 (ko) * 2017-12-28 2023-10-19 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어 방법
US11435460B2 (en) * 2018-05-07 2022-09-06 Fujifilm Sonosite, Inc. Ultrasound imaging system with style transfer image enhancement
CN110613476B (zh) * 2018-06-19 2022-09-23 青岛海信医疗设备股份有限公司 超声信号的处理方法和装置
US11157765B2 (en) 2018-11-21 2021-10-26 Samsung Electronics Co., Ltd. Method and system for determining physical characteristics of objects
KR20200109093A (ko) * 2019-03-12 2020-09-22 삼성메디슨 주식회사 초음파 영상 표시 방법, 초음파 진단 장치 및 컴퓨터 프로그램 제품
CN110772286B (zh) * 2019-11-05 2020-11-17 王瑛 一种基于超声造影识别肝脏局灶性病变的***
US20210369232A1 (en) * 2020-05-29 2021-12-02 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Systems and methods for evaluating respiratory function using a smartphone

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001137241A (ja) 1999-09-09 2001-05-22 Medison Co Ltd 超音波映像装置
JP2004049925A (ja) * 2002-07-23 2004-02-19 Medison Co Ltd 臓器認識装置及びその方法
JP2006502508A (ja) 2002-10-11 2006-01-19 ソノシン インコーポレイテッド 3dモデリングシステム
JP2009034521A (ja) 2007-08-03 2009-02-19 Siemens Medical Solutions Usa Inc 医学的な画像診断におけるデータを体積レンダリングするシステムと方法ならびにコンピュータ読み出し可能記憶媒体
JP2009101204A (ja) 1997-09-30 2009-05-14 Toshiba Corp 医用画像診断装置
US20120127200A1 (en) 2009-07-24 2012-05-24 Ryota Kohara Medical image display device and medical image display method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5249263A (en) * 1989-06-16 1993-09-28 International Business Machines Corporation Color palette display interface for a computer-based image editor
GB2319841A (en) 1996-11-29 1998-06-03 Imperial College Ultrasound scanning of tissue
US6254540B1 (en) * 1999-11-19 2001-07-03 Olympus Optical Co., Ltd. Ultrasonic image processing apparatus for constructing three-dimensional image using volume-rendering data and surface-rendering data simultaneously
KR100885435B1 (ko) 2006-02-14 2009-03-06 주식회사 메디슨 영상 처리 시스템 및 방법
KR101014551B1 (ko) * 2008-09-29 2011-02-16 주식회사 메디슨 대상체를 자동으로 인식하는 초음파 시스템 및 방법
KR101175426B1 (ko) 2010-01-26 2012-08-20 삼성메디슨 주식회사 3차원 초음파 영상을 제공하는 초음파 시스템 및 방법
GB2479406A (en) 2010-04-09 2011-10-12 Medaphor Ltd Ultrasound Simulation Training System
US9301733B2 (en) * 2012-12-31 2016-04-05 General Electric Company Systems and methods for ultrasound image rendering

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009101204A (ja) 1997-09-30 2009-05-14 Toshiba Corp 医用画像診断装置
JP2001137241A (ja) 1999-09-09 2001-05-22 Medison Co Ltd 超音波映像装置
JP2004049925A (ja) * 2002-07-23 2004-02-19 Medison Co Ltd 臓器認識装置及びその方法
JP2006502508A (ja) 2002-10-11 2006-01-19 ソノシン インコーポレイテッド 3dモデリングシステム
JP2009034521A (ja) 2007-08-03 2009-02-19 Siemens Medical Solutions Usa Inc 医学的な画像診断におけるデータを体積レンダリングするシステムと方法ならびにコンピュータ読み出し可能記憶媒体
US20120127200A1 (en) 2009-07-24 2012-05-24 Ryota Kohara Medical image display device and medical image display method

Also Published As

Publication number Publication date
KR20160054303A (ko) 2016-05-16
US10405832B2 (en) 2019-09-10
US20160128672A1 (en) 2016-05-12
EP3017765A1 (en) 2016-05-11
EP3017765B1 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
KR102347038B1 (ko) 초음파 진단 장치 및 초음파 진단 방법
US10387713B2 (en) Apparatus and method of processing medical image
US10327733B2 (en) Ultrasound image apparatus and method of operating the same
US10228785B2 (en) Ultrasound diagnosis apparatus and method and computer-readable storage medium
US10499881B2 (en) Ultrasound diagnosis apparatus and method of displaying ultrasound image
KR102642000B1 (ko) 의료 영상 장치 및 그 동작 방법
KR102297346B1 (ko) 의료 영상 장치 및 그에 따른 의료 영상을 디스플레이 하는 방법
KR102388132B1 (ko) 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
US11564663B2 (en) Ultrasound imaging apparatus and control method thereof
KR102329680B1 (ko) 의료 영상 표시 방법 및 의료 영상 표시 장치
KR102519424B1 (ko) 초음파 이미지 디스플레이 방법 및 이를 위한 장치
KR102462391B1 (ko) 초음파 장치 및 그 동작 방법
CN106562803A (zh) 用于显示示出对象的图像的方法和设备
US9911224B2 (en) Volume rendering apparatus and method using voxel brightness gain values and voxel selecting model
KR102557389B1 (ko) 초음파 영상장치 및 그 제어 방법
KR102312267B1 (ko) 초음파 영상 장치 및 그 동작 방법
KR102416511B1 (ko) 바디 마커를 생성하는 방법 및 장치.
KR20160023523A (ko) 대상체를 나타내는 의료 영상과 키보드 영상을 함께 출력하는 방법, 장치 및 시스템.

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant