KR20160072618A - 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템. - Google Patents

대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템. Download PDF

Info

Publication number
KR20160072618A
KR20160072618A KR1020140180499A KR20140180499A KR20160072618A KR 20160072618 A KR20160072618 A KR 20160072618A KR 1020140180499 A KR1020140180499 A KR 1020140180499A KR 20140180499 A KR20140180499 A KR 20140180499A KR 20160072618 A KR20160072618 A KR 20160072618A
Authority
KR
South Korea
Prior art keywords
body marker
marker
shape
user input
medical image
Prior art date
Application number
KR1020140180499A
Other languages
English (en)
Other versions
KR102388132B1 (ko
Inventor
송민정
이민주
이승주
서진규
Original Assignee
삼성메디슨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성메디슨 주식회사 filed Critical 삼성메디슨 주식회사
Priority to KR1020140180499A priority Critical patent/KR102388132B1/ko
Priority to EP15163220.5A priority patent/EP3034005B1/en
Priority to US14/714,735 priority patent/US10768797B2/en
Priority to CN201510455280.XA priority patent/CN105686848A/zh
Publication of KR20160072618A publication Critical patent/KR20160072618A/ko
Application granted granted Critical
Publication of KR102388132B1 publication Critical patent/KR102388132B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

일 측면에 따른 바디 마커를 생성하는 방법은. 의료 영상에 나타난 대상체에 기초하여 기 저장된 복수의 바디 마커(body marker)들 중 제 1 바디 마커를 선택하는 단계; 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성하는 단계; 및 제 2 바디 마커를 출력하는 단계;를 포함한다.

Description

대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템. {Method, apparatus and system for generating a body marker which indicates an object}
대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템에 관한다.
초음파 진단 장치는 프로브(probe)의 트랜스듀서(transducer)로부터 생성되는 초음파 신호를 대상체로 조사하고, 대상체로부터 반사된 에코 신호의 정보를 수신하여 대상체 내부의 부위 (예를들면, 연조직 또는 혈류) 에 대한 적어도 하나의 영상을 얻는다. 특히, 초음파 진단 장치는 대상체 내부의 관찰, 이물질 검출, 및 상해 측정 등 의학적 목적으로 사용된다. 이러한 초음파 진단 장치는 X선을 이용하는 진단 장치에 비하여 안정성이 높고, 실시간으로 영상의 디스플레이가 가능하며, 방사능 피폭이 없어 안전하다는 장점이 있다. 따라서, 초음파 진단 장치는, 컴퓨터 단층 촬영(computed tomography, CT) 장치, 자기 공명 영상(magnetic resonance imaging, MRI) 장치 등을 포함하는 다른 영상 진단 장치와 함께 널리 이용된다.
일반적으로, 초음파 영상에 첨부되는 바디 마커(body marker)는 기 생성된 바디 마커들 중에서 사용자가 어느 하나를 선택함으로써 결정된다. 따라서, 초음파 영상에 첨부된 바디 마커를 통하여 초음파 영상에 나타난 대상체의 정확한 형상을 파악하기 어려운 문제점이 존재한다. 또한, 사용자가 다수의 기 생성된 바디 마커들 중에서 어느 하나를 선택해야 하므로, 바디 마커를 선택하는데 많은 시간이 소요되는 문제점이 존재한다.
대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측면에 따른 바디 마커를 생성하는 방법은, 의료 영상에 나타난 대상체에 기초하여 기 저장된 복수의 바디 마커(body marker)들 중 제 1 바디 마커를 선택하는 단계; 사용자 입력에 따라 상기 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성하는 단계; 및 상기 제 2 바디 마커를 출력하는 단계;를 포함한다.
상술한 방법에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커의 좌우가 전환된 바디 마커를 포함한다.
상술한 방법에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커가 중심 축을 따라 회전된 바디 마커를 포함한다.
상술한 방법에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커가 시계 방향으로 회전된 바디 마커를 포함한다.
상술한 방법에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커가 반시계 방향으로 회전된 바디 마커를 포함한다.
상술한 방법에 있어서, 상기 선택하는 단계는 상기 대상체에 대응하는 상기 제 1 바디 마커를 지정하는 사용자 입력을 수신하고, 상기 수신된 사용자 입력에 기초하여 상기 제 1 바디 마커를 선택한다.
상술한 방법에 있어서, 상기 선택하는 단계는 상기 의료 영상에서 상기 대상체의 형상을 분할(segmentation)하고, 상기 분할된 대상체의 형상에 기초하여 상기 제 1 바디 마커를 선택한다.
상술한 방법에 있어서, 상기 기 저장된 복수의 바디 마커들은 애플리케이션 그룹들의 종류에 따라 정렬된다.
상술한 방법에 있어서, 상기 제 1 바디 마커의 형상 및 상기 제 2 바디 마커의 형상은 2차원 형상 또는 3차원 형상을 포함한다.
상술한 방법에 있어서, 상기 사용자 입력은 터치 스크린 상에 입력된 사용자의 제스쳐를 포함한다.
상술한 방법에 있어서, 상기 출력하는 단계는 상기 제 1 바디 마커 및 상기 제 2 바디 마커를 단일 화면에 함께 출력한다.
다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.
또 다른 측면에 따른 바디 마커 생성 장치는, 대상체를 나타내는 의료 영상을 출력하는 디스플레이부; 및 상기 대상체에 기초하여 기 저장된 복수의 바디 마커(body marker)들 중 제 1 바디 마커를 선택하고, 사용자 입력에 따라 상기 제 1 바디 마커의 형상을 변경함으로써 제 2 바디마커를 생성하는 제어부;를 포함하고, 상기 디스플레이부는 상기 제 2 바디 마커를 출력한다.
상술한 장치에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커의 좌우가 전환된 바디 마커를 포함한다.
상술한 장치에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커가 중심 축을 따라 회전된 바디 마커를 포함한다.
상술한 장치에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커가 시계 방향으로 회전된 바디 마커를 포함한다.
상술한 장치에 있어서, 상기 제 2 바디 마커는 상기 제 1 바디 마커가 반시계 방향으로 회전된 바디 마커를 포함한다.
상술한 장치에 있어서, 상기 대상체에 대응하는 상기 제 1 바디 마커를 지정하는 사용자 입력을 수신하는 입력부;를 더 포함하고, 상기 제어부는 상기 수신된 사용자 입력에 기초하여 상기 제 1 바디 마커를 선택한다.
상술한 장치에 있어서, 상기 의료 영상에서 상기 대상체의 형상을 분할하는 영상 처리부;를 더 포함하고, 상기 제어부는 상기 분할된 대상체의 형상에 기초하여 상기 제 1 바디 마커를 선택한다.
상술한 장치에 있어서, 상기 기 저장된 복수의 바디 마커들은 애플리케이션 그룹들의 종류에 따라 정렬된다.
상술한 장치에 있어서, 상기 제 1 바디 마커의 형상 및 상기 제 2 바디 마커의 형상은 2차원 형상 또는 3차원 형상을 포함한다.
상술한 장치에 있어서, 상기 사용자 입력은 터치 스크린 상에 입력된 사용자의 제스쳐를 포함한다.
상술한 장치에 있어서, 상기 디스플레이부는 상기 제 1 바디 마커 및 상기 제 2 바디 마커를 단일 화면에 함께 출력한다.
본 발명은, 다음의 자세한 설명과 그에 수반되는 도면들의 결합으로 쉽게 이해될 수 있으며, 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1a 내지 도 1b는 일 실시예에 따른 초음파 진단 시스템의 예들을 도시한 도면들이다.
도 2는 일 실시예에 따른 초음파 진단 시스템의 일 예를 도시한 구성도이다.
도 3은 일 실시예에 따른 무선 프로브의 일 예를 도시한 구성도이다.
도 4는 일 실시예에 따른 바디 마커 생성 장치의 일 예를 도시한 구성도이다.
도 5a 내지 도 5c는 일 실시예에 따른 제 1 바디 마커의 일 예를 설명하기 위한 도면들이다.
도 6은 일 실시예에 따른 제 2 바디 마커의 일 예를 설명하기 위한 도면이다.
도 7a 내지 도 7b는 일 실시예에 따른 제 2 바디 마커의 생성에 이용되는 이미지의 일 예를 설명하기 위한 도면들이다.
도 8a 내지 도 8b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 일 예를 설명하기 위한 도면들이다.
도 9a 내지 도 9b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 다른 예를 설명하기 위한 도면들이다.
도 10a 내지 도 10d는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 11a 내지 도 11b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 12a 내지 도 12b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 13a 내지 도 13b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 14a 내지 도 14b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 15는 일 실시예에 따른 바디 마커 생성 장치의 다른 예를 도시한 구성도이다.
도 16a 내지 도 16b는 일 실시예에 따른 입력부가 제 1 바디 마커를 지정하는 사용자 입력을 수신하는 일 예를 설명하기 위한 도면들이다.
도 17은 일 실시예에 따른 바디 마커 생성 장치의 또 다른 예를 도시한 구성도이다.
도 18a 내지 도 18b는 일 실시예에 따른 영상 처리부가 의료 영상에서 대상체의 형상을 분할하는 일 예를 설명하기 위한 도면들이다.
도 19는 일 실시예에 따른 바디 마커를 생성하는 방법을 설명하기 위한 흐름도이다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서 "초음파 영상"이란 초음파를 이용하여 획득된 대상체(object)에 대한 영상 또는 대상체에 포함된 관심 영역을 나타내는 영상을 의미한다. 여기에서, 관심 영역은 대상체 내에서 사용자가 주의를 기울여 관찰하고자 하는 영역으로서, 예를 들어 병변(lesion)이 해당될 수 있다. 또한, 대상체는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. 또한, 대상체는 팬텀(phantom)일 수도 있으며, 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사하고 생물의 부피와 아주 근사한 물질을 의미할 수 있다. 예를 들어, 팬텀은, 인체와 유사한 특성을 갖는 구형 팬텀일 수 있다.
또한, 명세서 전체에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지는 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예 들을 상세히 설명한다.
도 1a 내지 도 1b는 일 실시예에 따른 초음파 진단 시스템의 예들을 도시한 도면들이다.
도 1a를 참조하면, 초음파 진단 시스템(1000)은 프로브(20)와 초음파 이미징 장치(100)가 유선으로 연결될 수 있다. 다시 말해, 초음파 송수신을 담당하는 프로브(20)가 케이블(110)을 통해 초음파 진단 시스템(1000)의 본체, 즉 초음파 이미징 장치(100)와 연결될 수 있다.
도 1b를 참조하면, 초음파 진단 시스템(1001)은 프로브(20)와 초음파 이미징 장치(100)가 무선으로 연결될 수 있다. 다시 말해, 프로브(20)는 초음파 이미징 장치(100)와 동일한 무선 네트워크를 통해 연결될 수 있다. 예를 들어, 프로브(20)와 초음파 이미징 장치(100)는 밀리미터 웨이브(mmWave) 기반의 무선 네트워크에 결합하고, 트랜스듀서를 통해 수신된 에코 신호를 60GHz 주파수 대역에서 초음파 이미징 장치(100)에게 송신할 수 있다. 그리고, 초음파 이미징 장치(100)는 60GHz 주파수 대역에서 수신된 에코 신호를 이용하여 다양한 모드의 초음파 영상을 생성하고, 생성된 초음파 영상을 디스플레이할 수 있다. 여기에서, 밀리미터 웨이브 기반의 무선 네트워크는 WGA(Wireless Gigabit Alliance)의 WiGig 규격에 따른 무선 통신 방법이 이용될 수 있으나, 이에 한정되지 않는다.
도 2는 일 실시예에 따른 초음파 진단 시스템의 일 예를 도시한 구성도이다.
도 2를 참조하면, 초음파 진단 시스템(1002)은 프로브(20) 및 초음파 이미징 장치(100)를 포함할 수 있다. 여기에서, 초음파 이미징 장치(100)는 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 디스플레이부(1400), 메모리(1500), 입력부(1600) 및 제어부(1700)를 포함할 수 있으며, 상술한 여러 구성들은 버스(1800)를 통해 서로 연결될 수 있다.
예를 들어, 초음파 진단 시스템(1002)은 카트형뿐만 아니라 휴대형으로도 구현될 수 있다. 휴대형 초음파 진단 장치의 예로는 팩스 뷰어(PACS, Picture Archiving and Communication System viewer), 스마트 폰(smartphone), 랩탑 컴퓨터, PDA, 태블릿 PC 등이 있을 수 있으나, 이에 제한되지 않는다.
프로브(20)는, 초음파 송수신부(1100)로부터 인가된 구동 신호(driving signal)에 따라 대상체(10)(또는, 대상체(10) 내의 관심 영역)로 초음파 신호를 송출하고, 대상체(10)(또는, 대상체(10) 내의 관심 영역)로부터 반사된 에코 신호를 수신한다. 프로브(20)는 복수의 트랜스듀서를 포함하며, 복수의 트랜스듀서는 전달되는 전기적 신호에 따라 진동하며 음향 에너지인 초음파를 발생시킨다. 또한, 프로브(20)는 초음파 진단 시스템(1002)의 본체와 유선 또는 무선으로 연결될 수 있으며, 초음파 진단 시스템(1002)은 구현 형태에 따라 복수 개의 프로브(20)들을 구비할 수 있다.
송신부(1110)는 프로브(20)에 구동 신호를 공급하며, 펄스 생성부(1112), 송신 지연부(1114), 및 펄서(1116)를 포함한다. 펄스 생성부(1112)는 소정의 펄스 반복 주파수(PRF, Pulse Repetition Frequency)에 따른 송신 초음파를 형성하기 위한 펄스(pulse)를 생성하며, 송신 지연부(1114)는 송신 지향성(transmission directionality)을 결정하기 위한 지연 시간(delay time)을 펄스에 적용한다. 지연 시간이 적용된 각각의 펄스는, 프로브(20)에 포함된 복수의 압전 진동자(piezoelectric vibrators)에 각각 대응된다. 펄서(1116)는, 지연 시간이 적용된 각각의 펄스에 대응하는 타이밍(timing)으로, 프로브(20)에 구동 신호(또는, 구동 펄스(driving pulse))를 인가한다.
수신부(1120)는 프로브(20)로부터 수신되는 에코 신호를 처리하여 초음파 데이터를 생성하며, 증폭기(1122), ADC(아날로그 디지털 컨버터, Analog Digital converter)(1124), 수신 지연부(1126), 및 합산부(1128)를 포함할 수 있다. 증폭기(1122)는 에코 신호를 각 채널(channel) 마다 증폭하며, ADC(1124)는 증폭된 에코 신호를 아날로그-디지털 변환한다. 수신 지연부(1126)는 수신 지향성(reception directionality)을 결정하기 위한 지연 시간을 디지털 변환된 에코 신호에 적용하고, 합산부(1128)는 수신 지연부(1166)에 의해 처리된 에코 신호를 합산함으로써 초음파 데이터를 생성한다. 한편, 수신부(1120)는 그 구현 형태에 따라 증폭기(1122)를 포함하지 않을 수도 있다. 즉, 프로브(20)의 감도가 향상되거나 ADC(1124)의 처리 비트(bit) 수가 향상되는 경우, 증폭기(1122)는 생략될 수도 있다.
영상 처리부(1200)는 초음파 송수신부(1100)에서 생성된 초음파 데이터에 대한 주사 변환(scan conversion) 과정을 통해 초음파 영상을 생성한다. 한편, 초음파 영상은 A 모드(amplitude mode), B 모드(brightness mode) 및 M 모드(motion mode)에서 대상체를 스캔하여 획득된 그레이 스케일(gray scale)의 영상뿐만 아니라, 도플러 효과(doppler effect)를 이용하여 움직이는 대상체를 표현하는 도플러 영상일 수도 있다. 도플러 영상은, 혈액의 흐름을 나타내는 혈류 도플러 영상 (또는, 컬러 도플러 영상으로도 불림), 조직의 움직임을 나타내는 티슈 도플러 영상, 또는 대상체의 이동 속도를 파형으로 표시하는 스펙트럴 도플러 영상일 수 있다.
B 모드 처리부(1212)는, 초음파 데이터로부터 B 모드 성분을 추출하여 처리한다. 영상 생성부(1220)는, B 모드 처리부(1212)에 의해 추출된 B 모드 성분에 기초하여 신호의 강도가 휘도(brightness)로 표현되는 초음파 영상을 생성할 수 있다.
마찬가지로, 도플러 처리부(1214)는, 초음파 데이터로부터 도플러 성분을 추출하고, 영상 생성부(1220)는 추출된 도플러 성분에 기초하여 대상체의 움직임을 컬러 또는 파형으로 표현하는 도플러 영상을 생성할 수 있다.
일 실시 예에 의한 영상 생성부(1220)는, 볼륨 데이터에 대한 볼륨 렌더링 과정을 거쳐 3차원 초음파 영상을 생성할 수 있으며, 압력에 따른 대상체(10)의 변형 정도를 영상화한 탄성 영상을 생성할 수도 있다. 나아가, 영상 생성부(1220)는 초음파 영상 상에 여러 가지 부가 정보를 텍스트, 그래픽으로 표현할 수도 있다. 한편, 생성된 초음파 영상은 메모리(1500)에 저장될 수 있다.
또한, 영상 처리부(1200)는 초음파 영상에 나타난 대상체의 형상을 분할할 수 있다.
디스플레이부(1400)는 생성된 초음파 영상을 디스플레이한다. 디스플레이부(1400)는, 초음파 영상뿐 아니라 초음파 이미징 장치(1002)에서 처리되는 다양한 정보를 GUI(Graphical User Interface)를 통해 화면 상에 표시 출력할 수 있다. 한편, 초음파 진단 장치(1000)는 구현 형태에 따라 둘 이상의 디스플레이부(1400)를 포함할 수 있다.
또한, 디스플레이부(1400)는 사용자 입력에 따라 생성된 제 2 바디 마커를 디스플레이한다.
통신부(1300)는, 유선 또는 무선으로 네트워크(30)와 연결되어 외부 디바이스나 서버와 통신한다. 또한, 프로브(20)가 무선 네트워크를 통해 초음파 이미징 장치(1002)와 연결되는 경우, 통신부(1300)는 프로브(20)와 통신할 수 있다.
통신부(1300)는 의료 영상 정보 시스템(PACS)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있다. 또한, 통신부(1300)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
통신부(1300)는 네트워크(30)를 통해 대상체(10)의 초음파 영상, 초음파 데이터, 도플러 데이터 등 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT 장치, MRI 장치, X-ray 장치 등 다른 의료 장치에서 촬영한 의료 영상 또한 송수신할 수 있다. 나아가, 통신부(1300)는 서버로부터 환자의 진단 이력이나 치료 일정 등에 관한 정보를 수신하여 대상체(10)의 진단에 활용할 수도 있다. 나아가, 통신부(1300)는 병원 내의 서버나 의료 장치뿐만 아니라, 의사나 환자의 휴대용 단말과 데이터 통신을 수행할 수도 있다.
통신부(1300)는 유선 또는 무선으로 네트워크(30)와 연결되어 서버(32), 의료 장치(34), 또는 휴대용 단말(36)과 데이터를 주고 받을 수 있다. 통신부(1300)는 외부 디바이스와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈(1310), 유선 통신 모듈(1320), 및 이동 통신 모듈(1330)을 포함할 수 있다.
근거리 통신 모듈(1310)은 소정 거리 이내의 근거리 통신을 위한 모듈을 의미한다. 본 발명의 일 실시 예에 따른 근거리 통신 기술에는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(ZigBee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
유선 통신 모듈(1320)은 전기적 신호 또는 광 신호를 이용한 통신을 위한 모듈을 의미하며, 일 실시 예에 의한 유선 통신 기술에는 트위스티드 페어 케이블(twisted pair cable), 동축 케이블, 광섬유 케이블, 이더넷(ethernet) 케이블 등이 있을 수 있다.
이동 통신 모듈(1330)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터일 수 있다.
메모리(1500)는 초음파 진단 장치(1000)에서 처리되는 여러 가지 정보를 저장한다. 예를 들어, 메모리(1500)는 입/출력되는 초음파 데이터, 초음파 영상 등 대상체(10)의 진단에 관련된 의료 데이터를 저장할 수 있고, 초음파 이미징 장치(1002) 내에서 수행되는 알고리즘이나 프로그램을 저장할 수도 있다.
또한, 메모리(1500)는 기 생성된 복수의 바디 마커들 및 제어부(1700)가 생성한 바디 마커를 저장할 수 있다.
메모리(1500)는 플래시 메모리, 하드디스크, EEPROM 등 여러 가지 종류의 저장매체로 구현될 수 있다. 또한, 초음파 이미징 장치(1002)는 웹 상에서 메모리(1500)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
입력부(1600)는, 사용자로부터 초음파 이미징 장치(1002)를 제어하기 위한 데이터를 입력 받는 수단을 의미한다. 입력부(1600)의 예로는 키보드, 마우스, 터치 패드, 터치 스크린, 트랙볼, 조그 스위치 등 하드웨어 구성 및 이를 동작시키는 소프트웨어 모듈을 포함할 수 있다. 그러나, 이에 한정되는 것은 아니며, 입력부(1600)는 심전도 측정 모듈, 호흡 측정 모듈, 음성 인식 센서, 제스쳐 인식 센서, 지문 인식 센서, 홍채 인식 센서, 깊이 센서, 거리 센서 등 다양한 입력 수단을 더 포함할 수 있다.
또한, 입력부(1600)는 메모리(1500)에 기 저장된 복수의 바디 마커들 중에서 제 1 바디 마커를 지정하는 사용자 입력을 수신한다.
제어부(1700)는 초음파 진단 장치(1000)의 동작을 전반적으로 제어한다. 즉, 제어부(1700)는 도 1에 도시된 프로브(20), 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 디스플레이부(1400), 메모리(1500), 및 입력부(1600) 간의 동작을 제어할 수 있다.
일 실시예에 따른 제어부(1700)는 대상체에 기초하여 기 저장된 복수의 바디 마커들 중 제 1 바디 마커를 선택한다. 여기에서, 기 저장된 복수의 바디 마커들은 메모리(1500)에 저장된 바디 마커들로서, 초음파 영상에 나타난 대상체의 형상 또는 위치에 관계 없이 미리 설정되어 저장된 바디 마커들을 의미한다.
또한, 제어부(1700)는 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성한다. 이때, 사용자 입력은 입력부(1600)를 통하여 입력되고, 사용자가 취하는 제스쳐를 포함한다. 예를 들어, 제스처에는 탭, 터치 앤드 홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 핀치, 스트레치 등이 있을 수 있다.
일 예로서, 제 1 바디 마커는 입력부(1600)에 수신된 사용자 입력에 따라 메모리(1500)에 저장된 복수의 바디 마커들 중에서 어느 하나가 선택될 수 있다. 사용자 입력에 따라 제 1 바디 마커가 선택되는 일 예는 도 15 내지 도 16b를 참조하여 후술한다. 다른 예로서, 제 1 바디 마커는 영상 처리부(1200)가 초음파 영상에서 분할한 대상체의 형상에 기초하여 메모리(1500)에 저장된 복수의 바디 마커들 중에서 어느 하나가 선택될 수 있다. 초음파 영상에서 분할된 대상체의 형상에 기초하여 제 1 바디 마커가 선택되는 일 예는 도 17 내지 도 18b를 참조하여 후술한다.
프로브(20), 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 디스플레이부(1400), 메모리(1500), 입력 디바이스(1600) 및 제어부(1700) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 초음파 송수신부(1100), 영상 처리부(1200), 및 통신부(1300) 중 적어도 일부는 제어부(1600)에 포함될 수 있으나, 이러한 구현 형태에 제한되지는 않는다.
도 3은 일 실시예에 따른 무선 프로브의 일 예를 도시한 구성도이다.
도 3을 참조하면, 무선 프로브(2000)는, 도 2를 참조하여 상술한 바와 같이 복수의 트랜스듀서들을 포함하며, 구현 형태에 따라 도 2의 초음파 송수신부(1100)의 구성을 일부 또는 전부 포함할 수 있다.
도 3에 도시된 무선 프로브(2000)는, 송신부(2100), 트랜스듀서(2200), 및 수신부(2300)를 포함하며, 각각의 구성에 대해서는 도 2를 참조하여 상술하였는바, 자세한 설명은 생략한다. 한편, 무선 프로브(2000)는 그 구현 형태에 따라 수신 지연부(2330)와 합산부(2340)를 선택적으로 포함할 수도 있다.
무선 프로브(2000)는, 대상체(10)로 초음파 신호를 송신하고 에코 신호를 수신하며, 초음파 데이터를 생성하여 도 2의 초음파 이미징 장치(1002)로 무선 전송할 수 있다.
도 4는 일 실시예에 따른 바디 마커 생성 장치의 일 예를 도시한 구성도이다.
도 4를 참조하면, 바디 마커 생성 장치(101)는 제어부(1701) 및 디스플레이부(1401)를 포함한다. 여기에서, 제어부(1701) 및 디스플레이부(1401) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 디스플레이부(1401)는 독립된 제어 모듈을 포함할 수도 있다.
또한, 제어부(1701)은 도 2에 도시된 제어부(1700)와 동일하고, 디스플레이부(1401)는 도 2에 도시된 디스플레이부(1400)와 동일할 수 있다. 만약, 바디 마커 생성 장치(101)가 초음파 이미징 장치에 포함된 일부 구성이라고 가정하면, 바디 마커 생성 장치(101)는 제어부(1701) 및 디스플레이부(1401) 이외에, 도 2에 도시된 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300), 메모리(1500) 및 입력부(1600)를 더 포함할 수 있다.
제어부(1701)는 의료 영상에 나타난 대상체에 기초하여 기 저장된 복수의 바디 마커들 중 제 1 바디 마커를 선택한다. 여기에서, 복수의 바디 마커들은 바디 마커 생성 장치(101)의 메모리(미도시)에 저장될 수 있다.
바디 마커는 의료 영상(예를 들어, 초음파 영상)에 첨부되어, 의료 영상을 열람하는 자(예를 들어, 사용자)가 의료 영상에 나타난 대상체를 용이하게 식별할 수 있게 하는 그림을 의미한다.
일 실시예에 따른 제 1 바디 마커는 미리 생성되어 마커 생성 장치(101)에 저장된 바디 마커를 의미한다. 즉, 제 1 바디 마커는 의료 영상에 나타난 대상체(10)의 현재 형상 또는 위치에 대한 정보의 반영 없이, 제작자 또는 사용자에 의하여 미리 생성된 바디 마커를 의미한다.
제 1 바디 마커가 대상체(10)의 현재 형상 또는 위치를 반영하지 않기에, 제 1 바디 마커가 의료 영상에 첨부되는 경우에, 의료 영상을 열람하는 자는 대상체(10)의 정확한 형상 또는 위치를 식별하기 어려울 수 있다. 또한, 제 1 바디 마커는 기 저장된 복수의 바디 마커들 중에서 선택되기에, 대상체(10)에 적합한 바디 마커가 선택되는데 많은 시간이 소요될 수도 있다. 이하, 도 5a 내지 도 5c를 참조하여, 제 1 바디 마커에 대하여 구체적으로 설명한다.
도 5a 내지 도 5c는 일 실시예에 따른 제 1 바디 마커의 일 예를 설명하기 위한 도면들이다.
도 5a를 참조하면, 화면(3110)에 출력된 기 저장된 복수의 바디 마커들(3120)의 일 예가 도시되어 있다. 제어부(1701)는 의료 영상에 나타난 대상체(10)에 기초하여 복수의 바디 마커들(3120) 중에서 어느 하나를 제 1 바디 마커로 선택한다.
이때, 복수의 바디 마커들(3120)은 애플리케이션 그룹들(3130)의 종류에 따라 정렬될 수 있다. 여기에서, 애플리케이션은 진단 과목을 의미하며, 사람 또는 동물의 신체 부위 또는 체내 기관에 기초하여 결정될 수 있다.
예를 들어, 애플리케이션 그룹들(3130)에는 복부계 그룹(abdomen group), 가슴, 구강, 성기 등을 포함하는 소 파트 그룹(small part group), 혈관계 그룹(vascular group), 근골격계 그룹(musculoskeletal group), 산부인계 그룹(OB/GYN group), 심장 그룹(cardiac group), 뇌 그룹(brain group), 비뇨기계 그룹(Urology group), 수의과 그룹(vet group)이 포함될 수 있다. 그러나, 이에 한정되지 않고, 소정의 기준에 따라 사람 또는 동물의 신체 부위들 또는 체내 기관들이 복수의 애플리케이션 그룹들로 분류될 수 있다.
디스플레이부(1401)는 복수의 애플리케이션 그룹들(3130) 별로 정렬된 바디 마커들을 화면(3110)에 출력할 수 있다. 예를 들어, 사용자가 화면(3110)에 출력된 애플리케이션 그룹들(3130)을 나타내는 아이콘들 중 'vascular'를 선택(예를 들어, 클릭 또는 탭)하면, 디스플레이부(1401)은 복수의 바디 마커들 중에서 혈관계 그룹에 포함된 바디 마커들(3120)을 화면(3110)에 출력할 수 있다.
이때, 바디 마커들(3120)은 미리 생성되어 저장된 바디 마커들이다. 따라서, 사용자는 복수의 바디 마커들 전체를 검토한 후, 의료 영상에 포함된 대상체(10)와 가장 적합한 제 1 바디 마커를 선택해야 한다. 따라서, 사용자가 제 1 바디 마커를 선택하는데 많은 시간이 소요될 수 있다.
또한, 바디 마커들(3120) 중에서 선택된 제 1 바디 마커는 대상체(10)에 대한 정확한 정보를 포함하지 못할 수도 있다. 이하, 도 5b를 참조하여 구체적으로 설명한다.
도 5b에는 화면(3210)에 출력된 의료 영상(3220) 및 이에 첨부된 제 1 바디 마커(3230)의 일 예가 도시되어 있다. 도 5b에서는 설명의 편의를 위하여, 의료 영상(3220)이 혈관 중 일부분을 나타내는 초음파 영상으로 가정하여 설명한다.
의료 영상(3220)을 이후에 열람하는 자의 이해를 돕기 위하여, 의료 영상(3220)에는 제 1 바디 마커(3230)가 첨부될 수 있다. 이때, 제 1 바디 마커(3230)는 미리 생성된 바디 마커들 중에서 선택된 바디 마커이다. 따라서, 제 1 바디 마커(3230)만으로는 의료 영상(3220)이 혈관을 촬영한 영상임을 알 수 있을 뿐이고, 의료 영상(3220)이 혈관 중 어느 부분을 나타내는 영상인지 정확하게 알기 어렵다.
또한, 제 1 바디 마커(3230)는 회전 등의 변형이 불가능하다. 따라서, 제 1 바디 마커(3230)에 그려진 혈관(3250)의 방향에 따라, 제 1 바디 마커(3230)가 의료 영상(3220)에 나타난 혈관(3240)의 방향을 정확하게 나타내지 못할 수도 있다. 예를 들어, 도 5b를 참조하면, 의료 영상(3220)에 포함된 혈관(3240)은 x축 방향으로 나타나 있는 것에 반하여, 제 1 바디 마커(3230)에 그려진 혈관(3250)은 y축 방향으로 나타나 있다. 따라서, 제 1 바디 마커(3230)는 대상체(10)에 대한 정확한 정보를 제시할 수 없다.
도 5c에는 화면(3310)에 출력된 의료 영상(3320) 및 이에 첨부된 제 1 바디 마커(3330)의 일 예가 도시되어 있다. 도 5c에서는 설명의 편의를 위하여, 의료 영상(3320)이 태아를 나타내는 초음파 영상으로 가정하여 설명한다.
초음파 영상(3320)의 태아(3340)는 x축 방향으로 누워있으며, 얼굴은 아래쪽을 바라보도록 위치해 있다. 한편, 제 1 바디 마커(3330)의 태아(3350)는 x축 방향으로 누워 있으며, 얼굴은 위쪽을 바라보도록 위치해 있다. 따라서, 제 1 바디 마커(3330)는 초음파 영상(3320)에 나타난 태아(3340)에 대한 정확한 정보를 제시하고 있지 않다.
도 5a 내지 도 5c를 참조하여 상술한 바와 같이, 기 생성된 바디 마커인 제 1 바디 마커는 의료 영상에 포함된 현재 대상체(10)에 대한 정보를 정확하게 나타내지 못할 수도 있다.
한편, 일 실시예에 따른 제어부(1701)는 제 1 바디 마커의 형상을 변경함으로써, 제 2 바디 마커를 생성한다. 따라서, 제어부(1701)는 현재 대상체(10)에 대한 정보를 정확하게 나타내는 바디 마커를 생성할 수 있다. 이하, 도 6을 참조하여, 제 2 바디 마커에 대하여 구체적으로 설명한다.
도 6은 일 실시예에 따른 제 2 바디 마커의 일 예를 설명하기 위한 도면이다.
도 6에는 화면(3410)에 출력된 의료 영상(3420) 및 이에 첨부된 제 2 바디 마커(3430)의 일 예가 도시되어 있다. 도 6에서는 설명의 편의를 위하여, 의료 영상(3420)이 태아를 나타내는 초음파 영상으로 가정하여 설명한다.
초음파 영상(3420)의 태아(3440)는 x축 방향으로 누워있으며, 얼굴은 아래쪽을 바라보도록 위치해 있다. 또한, 제 2 바디 마커(3430)의 태아(3450)도 역시 x축 방향으로 누워 있으며, 얼굴은 아래쪽을 바라보도록 위치해 있다. 다시 말해, 제 2 바디 마커(3430)는 초음파 영상(3420)의 태아(3440)가 누워 있는 방향 및 시선의 방향을 정확하게 나타내고 있다.
한편, 도 5c를 참조하여 상술한 바에 따르면, 제 1 바디 마커(3330)는 초음파 영상(3320)의 태아(3340)가 바라보는 시선의 방향을 정확하게 표현하지 못한다. 따라서, 이후에 초음파 영상(3320)을 열람하는 자는 제 1 바디 마커(3330) 만으로 초음파 영상(3320)에 포함된 태아(3340)에 대한 정확한 정보를 획득할 수 없다. 그러나, 도 6에 도시된 바와 같이, 제 2 바디 마커(3430)는 초음파 영상(3420)의 태아(3440)가 누워있는 방향 및 위치를 정확하게 나타내고 있는바, 이후에 초음파 영상(3420)을 열람하는 자는 제 2 바디 마커(3430) 만으로 초음파 영상(3420)에 포함된 태아(3440)에 대한 정확한 정보를 획득할 수 있다.
다시 도 4를 참조하면, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성한다. 예를 들어, 제어부(1701)는 바디 마커 생성 장치(101)에 포함된 입력부(미도시)를 통하여 입력된 사용자 입력에 따라 제 1 바디 마커의 형상을 변경할 수 있다. 이때, 바디 마커 생성 장치(101)에 포함된 입력부(미도시)는 도 2를 참조하여 상술한 입력부(1600)와 동일할 수 있다.
일 예로서, 입력부(미도시)가 키보드, 마우스, 트랙볼, 조그 스위치 등 하드웨어 구성 및 이를 동작시키는 소프트웨어 모듈을 포함한다고 가정하면, 사용자 입력은 화면 상의 소정의 지점을 클릭하거나 화면 상의 일 지점에서 다른 지점까지 드래그하는 것을 포함할 수 있다. 다른 예로서, 입력부(미도시)가 터치 스크린 및 이를 동작시키는 소프트웨어 모듈을 포함한다고 가정하면, 사용자 입력은 터치 스크린 상에 입력된 사용자의 제스쳐를 포함할 수 있다. 예를 들어, 제스처에는 탭, 터치 앤드 홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 핀치, 스트레치 등이 있을 수 있다.
일 예로서, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커의 좌우를 뒤바꿈으로써 제 2 바디 마커를 생성할 수 있다. 다른 예로서, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커를 중심 축을 따라 회전시킴으로써 제 2 바디 마커를 생성할 수 있다. 또 다른 예로서, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커를 시계/반시계 방향으로 회전시킴으로써 제 2 바디 마커를 생성할 수 있다.
디스플레이부(1401)는 대상체(10)를 나타내는 의료 영상을 화면에 출력한다. 또한, 디스플레이부(1401)는 제어부(1701)가 생성한 제 2 바디 마커를 화면에 출력할 수 있다. 이때, 디스플레이부(1401)는 제 1 바디 마커 및 제 2 바디 마커를 단일 화면에 함께 출력할 수 있다.
제어부(1701)는 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써, 제 2 바디 마커로 생성한다. 이때, 사용자가 정확한 데이터를 입력하는 것을 돕기 위하여, 디스플레이부(1401)는 화면에 제 1 바디 마커 및 소정의 가이드 이미지를 출력할 수 있다. 이하, 도 7a 내지 도 7b를 참조하여 디스플레이부(1401)가 출력하는 제 1 바디 마커 및 소정의 가이드 이미지의 일 예를 설명한다.
도 7a 내지 도 7b는 일 실시예에 따른 제 2 바디 마커의 생성에 이용되는 이미지의 일 예를 설명하기 위한 도면들이다.
도 7a에는 제 1 바디 마커(4120) 및 가이드 이미지들(4130, 4140, 4150)이 화면(4110)에 표시된 일 예가 도시되어 있다. 사용자는 화면(4110)에 표시된 제 1 바디 마커(4120) 및 가이드 이미지들(4130, 4140, 4150)을 이용하여 사용자 입력을 바디 마커 생성 장치(101)에 제공할 수 있다.
사용자는 미리 정해진 규칙에 따라 가이드 이미지들(4130, 4140, 4150)의 소정 지점을 선택하거나, 가이드 이미지들(4130, 4140, 4150)의 일 지점에서 다른 지점까지 드래그할 수 있다. 그리고, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4120)의 형상을 변경할 수 있다.
도 7a 내지 도 14b에서는, 설명의 편의를 위하여 사용자 입력은 사용자가 취한 제스쳐인 것으로 설명한다. 그러나 이에 한정되지 않고, 사용자가 키보드, 마우스 등 다른 하드웨어 구성을 이용하여 사용자 입력을 바디 마커 생성 장치(101)에 제공할 수도 있음은 상술한 바와 같다.
일 예로서, 사용자가 제 1 가이드 이미지(4130)를 탭 하거나 제 1 가이드 이미지(4130)의 주변 영역을 시계/반시계 방향으로 드래그하면, 제어부(1701)는 제 1 바디 마커(4120)를 중심 축을 따라 회전시킬 수 있다.
다른 예로서, 사용자가 제 2 가이드 이미지(4140)를 탭 하면, 제어부(1701)는 제 1 바디 마커(4120)의 방향을 제 2 가이드 이미지(4140)가 표시된 방향으로 변경시킬 수 있다.
또 다른 예로서, 사용자가 제 3 가이드 이미지(4150)를 탭하거나 제 3 가이드 이미지(4150)의 주변 영역을 시계/반시계 방향으로 드래그하면, 제어부(1701)는 제 1 바디 마커(4120)를 시계/반시계 방향으로 회전시킬 수 있다.
한편, 도 7b에 도시된 바와 같이, 화면(4160)에는 제 1 바디 마커(4120)만 디스플레이될 수 있다. 다시 말해, 도 7a의 가이드 이미지들(4130, 4140, 4150)은 화면(4160)에 표시되지 않을 수도 있다. 이 경우에도, 사용자는 도 7a를 참조하여 상술한 바와 같은 사용자 입력을 바디 마커 생성 장치(101)에 제공할 수 있고, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4120)의 형상을 변경할 수 있다.
이하, 도 8a 내지 도 14b를 참조하여, 제어부(1701)가 제 1 바디 마커(4120)의 형상을 변경함으로써 제 2 바디 마커를 생성하는 예들을 구체적으로 설명한다. 도 8a 내지 도 14b에서는 화면에 가이드 이미지들(4130, 4140, 4150)이 표시되지 않은 것을 가정하여 설명한다.
도 8a 내지 도 8b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 일 예를 설명하기 위한 도면들이다.
예를 들어, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4220)가 회전된 제 2 바디 마커(4230)를 생성할 수 있다.
도 8a에는 제 1 바디 마커(4220)가 출력된 화면(4210)의 일 예가 도시되어 있다. 사용자는 제 1 바디 마커(4220)의 일 외곽 지점을 선택(예를 들어, 탭)할 수 있고, 제어부(1701)는 사용자가 선택한 지점으로 제 1 바디 마커(4220)를 회전시킬 수 있다.
도 8b에는 제 1 바디 마커(4220)가 회전된 제 2 바디 마커(4230)의 일 예가 도시되어 있다. 예를 들어, 제 1 바디 마커(4220)가 태아를 나타내는 바디 마커라고 가정하면, 제어부(1701)는 사용자가 선택한 지점(4240)을 향하여 태아의 머리가 위치되도록 제 1 바디 마커(4220)를 회전시킨다. 이때, 제어부(1701)는 제 1 바디 마커(4220)를 시계 방향으로 회전시킬 수도 있고, 반시계 방향으로 회전시킬 수도 있다.
한편, 제 2 바디 마커(4230)의 회전 정도에 따라, 제 2 바디 마커(4230)는 제 1 바디 마커(4220)의 상하가 전환된 바디 마커가 될 수 있다.
결과적으로, 제어부(1701)는 제 1 바디 마커(4220)를 사용자가 선택한 지점(4240)을 향하여 회전시킴으로써 제 2 바디 마커(4230)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4230)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
도 9a 내지 도 9b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 다른 예를 설명하기 위한 도면들이다.
예를 들어, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4320)가 시계 방향 또는 반 시계 방향으로 회전된 제 2 바디 마커(4330)를 생성할 수 있다.
도 9a에는 제 1 바디 마커(4320)가 출력된 화면(4310)의 일 예가 도시되어 있다. 사용자는 제 1 바디 마커(4320)의 일 외곽 지점으로부터 다른 외곽 지점까지 시계 방향 또는 반시계 방향으로 드래그할 수 있고, 제어부(1701)는 사용자의 드래그에 따라 제 1 바디 마커(4320)를 시계 방향 또는 반 시계 방향으로 회전시킬 수 있다.
도 9b에는 제 1 바디 마커(4320)가 시계 방향으로 회전된 제 2 바디 마커(4330)의 일 예가 도시되어 있다. 예를 들어, 제 1 바디 마커(4320)가 태아를 나타내는 바디 마커라고 가정하고, 사용자가 제 1 바디 마커(4320)의 태아의 머리가 위치한 지점(4340)에서 다른 지점(4350)까지 시계 방향으로 드래그한다고 가정한다. 이 경우에, 제어부(1701)는 드래그의 종료 지점(4350)을 향하여 태아의 머리가 위치되도록 제 1 바디 마커(4320)를 시계 방향으로 회전시킨다.
결과적으로, 제어부(1701)는 제 1 바디 마커(4320)를 사용자가 선택한 지점(4350)을 향하여 시계 방향으로 회전시킴으로써 제 2 바디 마커(4330)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4330)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
도 9a 내지 도 9b를 참조하여 상술한 바에 따르면, 제어부(1701)는 제 1 바디 마커(4320)를 시계 방향으로 회전시킴으로써 제 2 바디 마커(4330)를 생성한다. 그러나, 사용자가 반 시계 방향으로 드래그한 경우라면, 제어부(1701)는 드래그의 종료 지점을 향하여 제 1 바디 마커를 반시계 방향으로 회전시킴으로써 제 2 바디 마커를 생성할 수 있다.
도 10a 내지 도 10d는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
예를 들어, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4420)가 중심 축을 따라 회전된 제 2 바디 마커(4440, 4450, 4460)를 생성할 수 있다.
도 10a에는 제 1 바디 마커(4420)가 출력된 화면(4410)의 일 예가 도시되어 있다. 사용자는 제 1 바디 마커(4420)의 중심 축이 지나가는 일 지점(4430)을 선택(예를 들어, 탭) 수 있고, 제어부(1701)는 사용자의 선택에 따라 제 1 바디 마커(4420)를 중심 축을 따라 회전시킬 수 있다.
도 10b 내지 도 10d에서는 제 1 바디 마커(4420)가 중심 축을 따라 반시계 방향으로 회전되는 것으로 도시되어 있으나, 이에 한정되지 않는다. 다시 말해, 제어부(1701)는 기 설정된 규칙에 따라 제 1 바디 마커(4420)를 중심 축을 따라 반시계 방향으로 회전시킬 수도 있다.
도 10b에는 제 1 바디 마커(4420)가 중심축을 따라 90°회전된 제 2 바디 마커(4440)의 일 예가 도시되어 있다. 예를 들어, 제 1 바디 마커(4420)가 태아를 나타내는 바디 마커라고 가정하고, 사용자가 제 1 바디 마커(4320)의 중심 축이 지나가는 일 지점(4430)을 탭한다고 가정한다. 이 경우에, 제어부(1701)는 제 1 바디 마커(4320)를 중심 축을 따라 반시계 방향으로 90°회전시킨다.
도 10c에는 도 10b에 도시된 제 2 바디 마커(4440)가 중심축을 따라 90°회전된 제 2 바디 마커(4450)의 일 예가 도시되어 있다. 예를 들어, 제 2 바디 마커(4440)가 태아를 나타내는 바디 마커라고 가정하고, 사용자가 제 2 바디 마커(4440)의 중심 축이 지나가는 일 지점(4430)을 탭한다고 가정한다. 이 경우에, 제어부(1701)는 제 2 바디 마커(4440)를 중심 축을 따라 반시계 방향으로 90°회전시킨다.
도 10d에는 도 10c에 도시된 제 2 바디 마커(4450)가 중심축을 따라 90°회전된 제 2 바디 마커(4460)의 일 예가 도시되어 있다. 예를 들어, 제 2 바디 마커(4450)가 태아를 나타내는 바디 마커라고 가정하고, 사용자가 제 2 바디 마커(4450)의 중심 축이 지나가는 일 지점(4430)을 탭한다고 가정한다. 이 경우에, 제어부(1701)는 제 2 바디 마커(4450)를 중심 축을 따라 반시계 방향으로 90°회전시킨다.
결과적으로, 제어부(1701)는 제 1 바디 마커(4420)를 중심 축을 따라 회전시킴으로써 제 2 바디 마커(4440, 4450, 4460)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4440, 4450, 4460)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
한편, 도 10a 내지 도 10d를 참조하여 상술한 바에 따르면, 제어부(1701)는 사용자의 불연속적인 탭에 따라 제 1 바디 마커(4420)를 중심 축을 따라 회전시킬 수 있다. 그러나, 사용자 입력은 상술된 불연속적인 탭에 한정되지 않는다.
예를 들어, 사용자가 제 1 바디 마커(4420)의 중심 축이 위치한 일 지점에서 다른 지점까지 시계 방향으로 드래그한 경우, 제어부(1701)는 드래그된 정도에 기초하여 제 1 바디 마커(4420)를 중심 축을 따라 시계 방향으로 회전시킬 수 있다. 예를 들어, 사용자가 시계 방향으로 1mm 드래그를 수행한 경우, 제어부(1701)는 제 1 바디 마커(4420)를 시계 방향으로 20°회전시킬 수 있다. 그러나, 상술한 예에 한정되지 않고, 사용자의 드래그 정도와 제 1 바디 마커(4420)의 회전 정도는 다르게 설정될 수 있다.
도 11a 내지 도 11b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
예를 들어, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4520)의 좌우가 전환된 제 2 바디 마커(4540)를 생성할 수 있다.
도 11a에는 제 1 바디 마커(4520)가 출력된 화면(4510)의 일 예가 도시되어 있다. 사용자는 제 1 바디 마커(4520)의 일 외곽 지점(4530)을 선택(예를 들어, 탭)할 수 있고, 제어부(1701)는 제 1 바디 마커(4520)의 좌우를 전환시킬 수 있다.
도 11b에는 제 1 바디 마커(4520)의 좌우가 전환된 제 2 바디 마커(4540)의 일 예가 도시되어 있다. 예를 들어, 제 1 바디 마커(4520)가 오른 손바닥을 나타내는 바디 마커라고 가정하면, 제어부(1701)는 왼 손바닥을 나타내도록 제 1 바디 마커(4520)의 좌우를 전환시킨다.
결과적으로, 제어부(1701)는 제 1 바디 마커(4520)의 좌우를 전환시킴으로써 제 2 바디 마커(4540)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4540)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
도 12a 내지 도 12b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
예를 들어, 제어부(1701)는 사용자 입력에 따라 제 1 바디 마커(4620)의 앞면과 뒷면이 전환된 제 2 바디 마커(4640)를 생성할 수 있다.
도 12a에는 제 1 바디 마커(4620)가 출력된 화면(4610)의 일 예가 도시되어 있다. 사용자는 제 1 바디 마커(4620)의 중심 축이 지나가는 일 지점(4630)을 선택(예를 들어, 탭)할 수 있고, 제어부(1701)는 제 1 바디 마커(4620)의 앞면과 뒷면을 전환시킬 수 있다.
도 12b에는 제 1 바디 마커(46200)의 앞면과 뒷면이 전환된 제 2 바디 마커(4640)의 일 예가 도시되어 있다. 예를 들어, 제 1 바디 마커(4620)가 오른 손바닥을 나타내는 바디 마커라고 가정하면, 제어부(1701)는 오른 손등을 나타내도록 제 1 바디 마커(4620)의 좌우를 전환시킨다.
결과적으로, 제어부(1701)는 제 1 바디 마커(4620)의 앞면과 뒷면을 전환시킴으로써 제 2 바디 마커(4640)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4640)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
도 8a 내지 도 12b를 참조하여 상술한 바에 따르면, 제어부(1701)는 단일 객체를 나타내는 제 1 바디 마커를 이용하여 단일 객체를 나타내는 제 2 바디 마커를 생성한다. 그러나, 바디 마커는 복수의 객체들을 나타낼 수도 있다. 예를 들어, 의료 영상이 쌍둥이를 잉태하고 있는 임산부의 뱃속을 촬영한 영상이라면, 의료 영상에 첨부되는 바디 마커도 쌍둥이(즉, 복수의 객체들)를 나타내어야 한다.
일 실시예에 따른 제어부(1701)는 단일 객체를 나타내는 제 1 바디 마커를 이용하여 복수의 객체들을 나타내는 제 2 바디 마커를 생성할 수 있다. 이하, 도 13a 내지 도 14b를 참조하여, 제어부(1701)가 복수의 객체들을 나타내는 제 2 바디 마커를 생성하는 예들을 설명한다.
도 13a 내지 도 13b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 13a에는 단일 객체를 나타내는 제 1 바디 마커(4720)가 출력된 화면(4710)의 일 예가 도시되어 있다. 설명의 편의상, 제 1 바디 마커(4720)는 태아를 나타내는 바디 마커로 가정하여 설명한다.
제어부(1701)는 사용자 입력에 기초하여 바디 마커가 나타내는 객체들의 수를 변경할 수 있다. 예를 들어, 사용자가 화면(4710) 상의 소정의 위치에 출력된 아이콘(4730)을 선택(예를 들어, 탭)하면, 디스플레이부(1401)는 바디 마커가 나타내는 객체의 수가 나열된 팝업 창(4740)을 출력할 수 있다. 이에 따라, 사용자는 바디 마커가 나타내는 객체의 수를 지정할 수 있다.
만약, 사용자가 바디 마커가 나타내는 객체의 수를 '2'로 지정한 경우, 도 5b에 도시된 바와 같이, 제어부(1701)는 2명의 태아들을 나타내는 제 2 바디 마커(4750)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4750)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
한편, 제어부(1701)는 바디 마커에 포함된 복수의 객체들 별로 형상을 변경할 수 있다. 예를 들어, 의료 영상이 쌍둥이를 잉태하고 있는 임산부의 뱃속을 촬영한 영상이라면, 각각의 태아는 서로 다른 방향으로 위치해 있을 수도 있다. 따라서, 제어부(1701)는 바디 마커에 포함된 복수의 객체들 별로 형상을 변경함으로써, 대상체에 대한 정보를 정확하게 나타내는 바디 마커를 생성할 수 있다.
이하, 도 14a 내지 도 14b를 참조하여, 제어부(1701)가 바디 마커에 포함된 복수의 객체들 별로 형상을 변경함으로써 제 2 바디 마커를 생성하는 일 예를 설명한다.
도 14a 내지 도 14b는 일 실시예에 따른 제어부가 제 2 바디 마커를 생성하는 또 다른 예를 설명하기 위한 도면들이다.
도 14a에는 복수의 객체들을 나타내는 제 1 바디 마커(4820)가 출력된 화면(4810)의 일 예가 도시되어 있다. 설명의 편의상, 제 1 바디 마커(4820)는 쌍둥이를 나타내는 바디 마커로 가정하여 설명한다. 또한, 도 13a 내지 도 13b를 참조하여 상술한 바와 같이, 제 1 바디 마커(4820)는 제어부(1701)가 단일 태아를 나타내는 바디 마커로부터 생성한 바디 마커일 수 있다.
제어부(1701)는 사용자 입력에 기초하여 바디 마커가 나타내는 객체들(4831, 4833) 중에서 형상을 변경할 객체(4833)를 선택할 수 있다. 예를 들어, 사용자가 화면(4810)에 출력된 태아들(4831, 4833) 중에서 어느 하나(4833)를 선택(예를 들어, 탭)하면, 제어부(1701)는 선택된 태아(4833)를 형상을 변경할 객체로 선택할 수 있다. 이때, 디스플레이부(1401)는 선택된 태아(4833)를 선택되지 않은 태아(4831)와 구별되도록 출력(예를 들어, 선의 굵기 또는 컬러의 변경 등)함으로써, 사용자가 선택된 태아(4833)를 용이하게 식별할 수 있다.
제어부(1701)는 사용자 입력에 따라 선택된 태아(4833)의 형상을 변경할 수 있다. 여기에서, 사용자 입력은 도 8a 내지 도 12b를 참조하여 상술한 바와 같다. 예를 들어, 사용자가 선택된 태아(4833)의 머리가 위치한 지점(4840)에서 다른 지점(4850)까지 시계 방향으로 드래그한다고 가정한다. 이 경우에, 제어부(1701)는 드래그의 종료 지점(4850)을 향하여 머리가 위치되도록 선택된 태아(4833)를 시계 방향으로 회전시킨다.
도 14b를 참조하면, 제어부(1701)는 도 14a에 도시된 선택된 태아(4833)의 위치가 변경된 제 2 바디 마커(4860)를 생성할 수 있다. 또한, 제어부(1701)는 제 2 바디 마커(4860)를 바디 마커 생성 장치(101)에 포함된 메모리(미도시)에 저장할 수 있다.
도 7a 내지 도 14b를 참조하여 상술한 바에 따르면, 제 2 바디 마커는 2차원 형상이나, 이에 한정되지 않는다. 다시 말해, 제어부(1701)는 3차원 형상인 제 2 바디 마커를 생성할 수도 있다.
도 15는 일 실시예에 따른 바디 마커 생성 장치의 다른 예를 도시한 구성도이다.
도 15를 참조하면, 바디 마커 생성 장치(102)는 제어부(1702), 디스플레이부(1402) 및 입력부(1601)를 포함한다. 여기에서, 제어부(1702), 디스플레이부(1402) 및 입력부(1601) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 디스플레이부(1402) 및 입력부(1601)는 각각 독립된 제어 모듈을 포함할 수도 있다.
또한, 제어부(1702)은 도 4에 도시된 제어부(1701)와 동일하고, 디스플레이부(1402)는 도 4에 도시된 디스플레이부(1401)와 동일할 수 있다. 또한, 입력부(1601)는 도 2에 도시된 입력부(1600)와 동일할 수 있다. 만약, 바디 마커 생성 장치(102)가 초음파 이미징 장치에 포함된 일부 구성이라고 가정하면, 바디 마커 생성 장치(102)는 제어부(1702), 디스플레이부(1402) 및 입력부(1601) 이외에, 도 2에 도시된 초음파 송수신부(1100), 영상 처리부(1200), 통신부(1300) 및 메모리(1500)를 더 포함할 수 있다.
디스플레이부(1402)의 동작은 도 4 내지 도 14b를 참조하여 상술한 바와 같다. 따라서, 이하에서는 디스플레이부(1402)에 대한 구체적인 설명을 생략한다.
입력부(1601)는 의료 영상에 포함된 대상체(10)에 대응하는 제 1 바디 마커를 지정하는 사용자 입력을 수신한다. 여기에서, 사용자 입력은 기 저장된 복수의 바디 마커들 중에서 제 1 바디 마커를 선택하는 정보를 의미한다.
제어부(1702)는 입력부(1601)로부터 전달된 사용자 입력에 기초하여 제 1 바디 마커를 선택한다. 그리고, 제어부(1702)는, 제 1 바디 마커를 지정하는 사용자 입력 이후에 수신된 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성한다. 제어부(1702)가 제 2 바디 마커를 생성하는 구체적인 예들은 도 8a 내지 도 14b를 참조하여 상술한 바와 같다. 따라서, 이하에서는 제어부(1702)가 제 2 바디 마커를 생성하는 것에 대한 구체적인 설명을 생략한다.
이하, 도 16a 내지 도 16b를 참조하여, 입력부(1601)가 사용자 입력을 수신하고, 제어부(1702)가 제 1 바디 마커를 선택하는 일 예를 구체적으로 설명한다.
도 16a 내지 도 16b는 일 실시예에 따른 입력부가 제 1 바디 마커를 지정하는 사용자 입력을 수신하는 일 예를 설명하기 위한 도면들이다.
도 16a를 참조하면, 화면(5110)에는 바디 마커 생성 장치(102)에 기 저장된 복수의 바디 마커들(5120)이 출력되어 있다. 이때, 복수의 바디 마커들(5120)이 애플리케이션 그룹들(5130)의 종류에 따라 정렬될 수 있음은 도 5a를 참조하여 상술한 바와 같다.
사용자는 화면(5110)에 출력된 복수의 바디 마커들(5120) 중에서 어느 하나(5140)를 지정할 수 있다. 일 예로서, 입력부(1601)가 키보드, 마우스, 트랙볼, 조그 스위치 등 하드웨어 구성 및 이를 동작시키는 소프트웨어 모듈을 포함한다고 가정하면, 사용자는 복수의 바디 마커들(5120) 중에서 어느 하나(5140)를 클릭할 수 있다. 다른 예로서, 입력부(미도시)가 터치 스크린 및 이를 동작시키는 소프트웨어 모듈을 포함한다고 가정하면, 사용자는 복수의 바디 마커들(5120) 중에서 어느 하나(5140)를 탭 할 수 있다.
제어부(1702)는 사용자 입력에 기초하여 제 1 바디 마커를 선택한다. 다시 말해, 사용자에 의하여 지정된 바디 마커(5140)를 제 1 바디 마커로 선택한다. 그리고, 도 16b에 도시된 바와 같이, 디스플레이부(1402)는 제 1 바디 마커(5160)를 화면(5150)에 출력한다.
도 16a 내지 도 16b를 참조하여 상술한 바에 따르면, 제어부(1702)는 사용자가 지정한 바디 마커를 제 1 바디 마커로 결정한다. 그러나, 이에 한정되지 않는다. 예를 들어, 제어부(1702)는 의료 영상에 나타난 대상체(10)의 형상에 기초하여 제 1 바디 마커를 선택할 수도 있다. 이하, 도 17 내지 도 18b를 참조하여, 제어부(1702)가 대상체(10)의 형상에 기초하여 제 1 바디 마커를 선택하는 일 예를 설명한다.
도 17은 일 실시예에 따른 바디 마커 생성 장치의 또 다른 예를 도시한 구성도이다.
도 17을 참조하면, 바디 마커 생성 장치(103)는 제어부(1703), 디스플레이부(1403) 및 영상 처리부(1201)를 포함한다. 여기에서, 제어부(1703), 디스플레이부(1403) 및 영상 처리부(1201) 중 일부 또는 전부는 소프트웨어 모듈에 의해 동작할 수 있으나 이에 제한되지 않으며, 상술한 구성 중 일부가 하드웨어에 의해 동작할 수도 있다. 또한, 디스플레이부(1403) 및 영상 처리부(1201)는 각각 독립된 제어 모듈을 포함할 수도 있다.
또한, 제어부(1703)은 도 4에 도시된 제어부(1701)와 동일하고, 디스플레이부(1403)는 도 4에 도시된 디스플레이부(1401)와 동일할 수 있다. 또한, 영상 처리부(1201)는 도 2에 도시된 영상 처리부(1200)와 동일할 수 있다. 만약, 바디 마커 생성 장치(103)가 초음파 이미징 장치에 포함된 일부 구성이라고 가정하면, 바디 마커 생성 장치(102)는 제어부(1703), 디스플레이부(1403) 및 영상 처리부(1201) 이외에, 도 2에 도시된 초음파 송수신부(1100), 통신부(1300), 메모리(1500) 및 입력부(1600)를 더 포함할 수 있다.
디스플레이부(1403)의 동작은 도 4 내지 도 14b를 참조하여 상술한 바와 같다. 따라서, 이하에서는 디스플레이부(1403)에 대한 구체적인 설명을 생략한다.
영상 처리부(1201)는 의료 영상에서 대상체(10)의 형상을 분할한다. 예를 들어, 영상 처리부(1201)는 의료 영상에서 대상체(10)의 윤곽선을 검출하고, 검출된 윤곽선을 연결함으로써 대상체(10)의 형상을 분할할 수 있다. 이때, 영상 처리부(1201)는 경계화 방법(thresholding method), K-means 알고리즘(K-means algorithm), 압축 기반 방법(compression-based method), 히스토그램 기반 방법(histogram-based method), 엣지 검출(edge detection), 영역 확장 방법(region-growing method), 편미분 방정식 기반 방법(partial differential equation-based method), 그래프 분할 방법(graph partitioning method) 등 다양한 방법을 이용하여 대상체(10)의 형상을 분할할 수 있다. 상술된 방법들은 당해 기술 분야에서 일반적인 지식을 가진 자에게 자명하므로, 구체적인 설명은 생략한다.
제어부(1703)는 대상체(10)의 형상에 관한 정보에 기초하여 제 1 바디 마커를 선택한다. 예를 들어, 제어부(1703)는 바디 마커 생성 장치(103)에 저장된 복수의 바디 마커들 중에서 대상체(10)의 형상과 가장 유사한 바디 마커를 제 1 바디 마커로 결정할 수 있다.
그리고, 제어부(1703)는, 제 1 바디 마커가 선택된 이후에 수신된 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성한다. 제어부(1703)가 제 2 바디 마커를 생성하는 구체적인 예들은 도 8a 내지 도 14b를 참조하여 상술한 바와 같다. 따라서, 이하에서는 제어부(1703)가 제 2 바디 마커를 생성하는 것에 대한 구체적인 설명을 생략한다.
이하, 도 18a 내지 도 18b를 참조하여, 영상 처리부(1201)가 의료 영상에서 대상체(10)의 형상을 분할하고, 제어부(1702)가 제 1 바디 마커를 선택하는 일 예를 구체적으로 설명한다.
도 18a 내지 도 18b는 일 실시예에 따른 영상 처리부가 의료 영상에서 대상체의 형상을 분할하는 일 예를 설명하기 위한 도면들이다.
도 18a를 참조하면, 화면(5210)에는 대상체(5230)를 나타내는 의료 영상(5220)이 출력되어 있다. 영상 처리부(1201)는 의료 영상(5220)에서 대상체(5230)의 형상을 분할한다. 예를 들어, 영상 처리부(1201)는 도 17을 참조하여 상술한 방법들 중 어느 하나를 이용하여, 의료 영상(5220)에서 대상체(5230)의 형상을 분할할 수 있다.
제어부(1703)는 대상체(5230)의 형상에 기초하여 제 1 바디 마커를 선택한다. 예를 들어, 제어부(1703)는 바디 마커 생성 장치(103)에 저장된 복수의 바디 마커들 중에서 대상체(5230)의 형상과 가장 유사한 바디 마커(5240)를 제 1 바디 마커로 결정할 수 있다. 그리고, 도 16b에 도시된 바와 같이, 디스플레이부(1402)는 제 1 바디 마커(5240)를 화면(5250)에 출력한다.
도 19는 일 실시예에 따른 바디 마커를 생성하는 방법을 설명하기 위한 흐름도이다.
도 19를 참조하면, 바디 마커를 생성하는 방법은 도 1, 도 2, 도 4, 도 15 및 도 17에 도시된 초음파 진단시스템(1000, 1001, 1002) 또는 바디 마커 생성 장치(100, 101, 102, 103)에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1, 도 2, 도 4, 도 15 및 도 17에 도시된 초음파 진단시스템(1000, 1001, 1002) 또는 바디 마커 생성 장치(100, 101, 102, 103)에 관하여 이상에서 기술된 내용은 도 19의 바디 마커를 생성하는 방법에도 적용됨을 알 수 있다.
6100 단계에서, 제어부는 의료 영상에 나타난 대상체에 기초하여 기 저장된 복수의 바디 마커들 중에서 제 1 바디 마커를 선택한다. 여기에서, 복수의 바디 마커들은 바디 마커 생성 장치의 메모리에 저장될 수 있다.
6200 단계에서, 제어부는 사용자 입력에 따라 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성한다. 일 예로서, 제어부는 사용자 입력에 따라 제 1 바디 마커의 좌우를 뒤바꿈으로써 제 2 바디 마커를 생성할 수 있다. 다른 예로서, 제어부는 사용자 입력에 따라 제 1 바디 마커를 중심 축을 따라 회전시킴으로써 제 2 바디 마커를 생성할 수 있다. 또 다른 예로서, 제어부는 사용자 입력에 따라 제 1 바디 마커를 시계/반시계 방향으로 회전시킴으로써 제 2 바디 마커를 생성할 수 있다.
630 단계에서, 디스플레이부는 제 2 바디 마커를 출력한다. 이때, 디스플레이부는 제 1 바디 마커 및 제 2 바디 마커를 단일 화면에 함께 출력할 수 있다.
상술한 바에 따르면, 의료 영상에 나타난 대상체의 현재 위치 또는 방향에 적합한 바디 마커가 생성될 수 있다. 또한, 사용자가 기 저장된 복수의 바디 마커들 중에서 대상체의 현재 위치 또는 방향에 적합한 바디 마커를 선택하는데 소요되는 시간이 감축될 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
101: 바디 마커 생성 장치
1401: 디스플레이부
1701: 제어부

Claims (28)

  1. 의료 영상에 나타난 대상체에 기초하여 기 저장된 복수의 바디 마커(body marker)들 중 제 1 바디 마커를 선택하는 단계;
    사용자 입력에 따라 상기 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성하는 단계; 및
    상기 제 2 바디 마커를 출력하는 단계;를 포함하는 바디 마커를 생성하는 방법.
  2. 제 1 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커의 좌우가 전환된 바디 마커를 포함하는 방법.
  3. 제 1 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커의 상하가 전환된 바디 마커를 포함하는 방법.
  4. 제 1 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커가 중심 축을 따라 회전된 바디 마커를 포함하는 방법.
  5. 제 1 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커가 시계 방향으로 회전된 바디 마커를 포함하는 방법.
  6. 제 1 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커가 반시계 방향으로 회전된 바디 마커를 포함하는 방법.
  7. 제 1 항에 있어서,
    상기 선택하는 단계는
    상기 대상체에 대응하는 상기 제 1 바디 마커를 지정하는 사용자 입력을 수신하고, 상기 수신된 사용자 입력에 기초하여 상기 제 1 바디 마커를 선택하는 방법.
  8. 제 1 항에 있어서,
    상기 선택하는 단계는
    상기 의료 영상에서 상기 대상체의 형상을 분할(segmentation)하고, 상기 분할된 대상체의 형상에 기초하여 상기 제 1 바디 마커를 선택하는 방법.
  9. 제 1 항에 있어서,
    상기 기 저장된 복수의 바디 마커들은 애플리케이션 그룹들의 종류에 따라 정렬되는 방법.
  10. 제 1 항에 있어서,
    상기 제 1 바디 마커의 형상 및 상기 제 2 바디 마커의 형상은 2차원 형상 또는 3차원 형상을 포함하는 방법.
  11. 제 1 항에 있어서,
    상기 사용자 입력은 터치 스크린 상에 입력된 사용자의 제스쳐를 포함하는 방법.
  12. 제 1 항에 있어서,
    상기 사용자 입력은 마우스 또는 키보드에 포함된 적어도 하나의 키를 통하여 입력되는 방법.
  13. 제 1 항에 있어서,
    상기 출력하는 단계는 상기 제 1 바디 마커 및 상기 제 2 바디 마커를 단일 화면에 함께 출력하는 방법.
  14. 제 1 항 내지 제 13 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  15. 대상체를 나타내는 의료 영상을 출력하는 디스플레이부; 및
    상기 대상체에 기초하여 기 저장된 복수의 바디 마커(body marker)들 중 제 1 바디 마커를 선택하고, 사용자 입력에 따라 상기 제 1 바디 마커의 형상을 변경함으로써 제 2 바디마커를 생성하는 제어부;를 포함하고,
    상기 디스플레이부는 상기 제 2 바디 마커를 출력하는 바디 마커 생성 장치.
  16. 제 15 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커의 좌우가 전환된 바디 마커를 포함하는 장치.
  17. 제 15 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커의 상하가 전환된 바디 마커를 포함하는 장치.
  18. 제 15 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커가 중심 축을 따라 회전된 바디 마커를 포함하는 장치.
  19. 제 15 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커가 시계 방향으로 회전된 바디 마커를 포함하는 장치.
  20. 제 15 항에 있어서,
    상기 제 2 바디 마커는 상기 제 1 바디 마커가 반시계 방향으로 회전된 바디 마커를 포함하는 장치.
  21. 제 15 항에 있어서,
    상기 대상체에 대응하는 상기 제 1 바디 마커를 지정하는 사용자 입력을 수신하는 입력부;를 더 포함하고,
    상기 제어부는 상기 수신된 사용자 입력에 기초하여 상기 제 1 바디 마커를 선택하는 장치.
  22. 제 15 항에 있어서,
    상기 의료 영상에서 상기 대상체의 형상을 분할하는 영상 처리부;를 더 포함하고,
    상기 제어부는 상기 분할된 대상체의 형상에 기초하여 상기 제 1 바디 마커를 선택하는 장치.
  23. 제 15 항에 있어서,
    상기 기 저장된 복수의 바디 마커들은 애플리케이션 그룹들의 종류에 따라 정렬되는 장치.
  24. 제 15 항에 있어서,
    상기 제 1 바디 마커의 형상 및 상기 제 2 바디 마커의 형상은 2차원 형상 또는 3차원 형상을 포함하는 장치.
  25. 제 15 항에 있어서,
    상기 사용자 입력은 터치 스크린 상에 입력된 사용자의 제스쳐를 포함하는 장치.
  26. 제 15 항에 있어서,
    상기 사용자 입력은 마우스 또는 키보드에 포함된 적어도 하나의 키를 통하여 입력되는 방법.
  27. 제 15 항에 있어서,
    상기 디스플레이부는 상기 제 1 바디 마커 및 상기 제 2 바디 마커를 단일 화면에 함께 출력하는 장치.
  28. 대상체를 향하여 초음파 신호들을 조사하고, 상기 조사된 초음파 신호들에 대응하는 에코 신호들을 수신하는 프로브; 및
    상기 에코 신호들을 이용하여 대상체를 나타내는 의료 영상을 생성하고, 상기 대상체에 기초하여 기 저장된 복수의 바디 마커(body marker)들 중 제 1 바디 마커를 선택하고, 사용자 입력에 따라 상기 제 1 바디 마커의 형상을 변경함으로써 제 2 바디 마커를 생성하고, 상기 의료 영상 및 상기 제 2 바디 마커를 출력하는 초음파 이미징 장치;를 포함하는 초음파 진단 시스템.
KR1020140180499A 2014-12-15 2014-12-15 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템. KR102388132B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140180499A KR102388132B1 (ko) 2014-12-15 2014-12-15 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
EP15163220.5A EP3034005B1 (en) 2014-12-15 2015-04-10 Method, apparatus and system for generating body marker indicating object
US14/714,735 US10768797B2 (en) 2014-12-15 2015-05-18 Method, apparatus, and system for generating body marker indicating object
CN201510455280.XA CN105686848A (zh) 2014-12-15 2015-07-29 用于产生指示对象的***标识的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140180499A KR102388132B1 (ko) 2014-12-15 2014-12-15 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.

Publications (2)

Publication Number Publication Date
KR20160072618A true KR20160072618A (ko) 2016-06-23
KR102388132B1 KR102388132B1 (ko) 2022-04-19

Family

ID=53264448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140180499A KR102388132B1 (ko) 2014-12-15 2014-12-15 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.

Country Status (4)

Country Link
US (1) US10768797B2 (ko)
EP (1) EP3034005B1 (ko)
KR (1) KR102388132B1 (ko)
CN (1) CN105686848A (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3537984B1 (en) * 2016-11-11 2024-01-10 Koninklijke Philips N.V. A wireless intraluminal imaging device and associated devices, systems, and methods
US20180189992A1 (en) * 2017-01-04 2018-07-05 Clarius Mobile Health Corp. Systems and methods for generating an ultrasound multimedia product
CN107693047A (zh) * 2017-10-18 2018-02-16 飞依诺科技(苏州)有限公司 超声成像中基于对称组织的体标设置方法及***
JP7171291B2 (ja) * 2018-07-26 2022-11-15 キヤノンメディカルシステムズ株式会社 超音波診断装置及び画像処理プログラム
USD947220S1 (en) * 2018-08-22 2022-03-29 Sonivate Medical, Inc. Display screen with a graphical user interface for an ultrasound system
CN109567861B (zh) * 2018-10-25 2022-06-07 中国医学科学院北京协和医院 超声成像方法及相关设备
WO2021024754A1 (ja) * 2019-08-02 2021-02-11 ソニー株式会社 内視鏡システム、制御装置、および制御方法
CN111603194B (zh) * 2020-06-02 2023-09-19 上海联影医疗科技股份有限公司 乳腺断层图像显示的方法、***和计算机可读存储介质
US11579968B2 (en) 2020-08-26 2023-02-14 Micron Technology, Inc. Efficient management of failed memory blocks in memory sub-systems

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04295346A (ja) * 1991-03-22 1992-10-20 Hitachi Medical Corp 超音波断層装置
JP2000175910A (ja) * 1998-12-21 2000-06-27 Toshiba Iyo System Engineering Kk 超音波診断装置
US20040122310A1 (en) * 2002-12-18 2004-06-24 Lim Richard Y. Three-dimensional pictograms for use with medical images
KR20100087521A (ko) * 2009-01-28 2010-08-05 주식회사 메디슨 영상 지시자를 제공하는 초음파 시스템 및 방법
US20110208052A1 (en) * 2008-11-06 2011-08-25 Koninklijke Philips Electronics N.V. Breast ultrasound annotation user interface
JP2014008083A (ja) * 2012-06-27 2014-01-20 Hitachi Aloka Medical Ltd 超音波診断装置
US20140104311A1 (en) * 2012-10-12 2014-04-17 Infinitt Healthcare Co., Ltd. Medical image display method using virtual patient model and apparatus thereof
EP2783635A1 (en) * 2013-03-28 2014-10-01 Samsung Medison Co., Ltd. Ultrasound system and method of providing direction information of object
US20140324475A1 (en) * 2012-08-31 2014-10-30 Kabushiki Kaisha Toshiba Medical reading report preparing apparatus and medical image diagnostic apparatus

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56112226A (en) * 1980-02-12 1981-09-04 Tokyo Shibaura Electric Co Ultrasonic blood stream measuring apparatus
WO1992001237A1 (en) * 1990-07-11 1992-01-23 Furuno Electric Company, Limited Sonar for detection in horizontal direction
US20020173721A1 (en) * 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
US7615008B2 (en) * 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US6675038B2 (en) * 2001-05-14 2004-01-06 U-Systems, Inc. Method and system for recording probe position during breast ultrasound scan
GB2395880B (en) * 2002-11-27 2005-02-02 Voxar Ltd Curved multi-planar reformatting of three-dimensional volume data sets
DE10323008A1 (de) * 2003-05-21 2004-12-23 Siemens Ag Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
CA2576646C (en) * 2003-07-29 2011-02-08 Ntd Laboratories, Inc. System and method for assessing fetal abnormality based on landmarks
EP1799110B1 (en) * 2004-10-08 2015-12-23 Koninklijke Philips N.V. Ultrasonic imaging system with body marker annotations
WO2008081558A1 (ja) * 2006-12-28 2008-07-10 Kabushiki Kaisha Toshiba 超音波画像取得装置、及び超音波画像の取得方法
JP5022716B2 (ja) * 2007-01-24 2012-09-12 株式会社東芝 超音波診断装置、及び超音波診断装置の制御プログラム
KR20100110893A (ko) 2008-03-03 2010-10-13 파나소닉 주식회사 초음파 진단 장치
JP2009297072A (ja) * 2008-06-10 2009-12-24 Toshiba Corp 超音波診断装置、及び医用画像処理装置
CN101477435A (zh) * 2008-12-26 2009-07-08 明基电通有限公司 影像操作方法及其便携式电子装置
US20160066887A1 (en) * 2009-01-28 2016-03-10 Samsung Medison Co., Ltd. Image indicator provision in ultrasound system
EP2387949A1 (en) * 2010-05-17 2011-11-23 Samsung Medison Co., Ltd. Ultrasound system for measuring image using figure template and method for operating ultrasound system
JP5269851B2 (ja) * 2010-09-27 2013-08-21 富士フイルム株式会社 画像編集装置及びその画像編集方法並びにそのプログラム
US9619104B2 (en) * 2010-10-01 2017-04-11 Smart Technologies Ulc Interactive input system having a 3D input space
US9146674B2 (en) * 2010-11-23 2015-09-29 Sectra Ab GUI controls with movable touch-control objects for alternate interactions
US20130137988A1 (en) * 2011-11-28 2013-05-30 Samsung Electronics Co., Ltd. Method and Apparatus for the Augmentation of Physical Examination over Medical Imaging Data
KR20130107882A (ko) 2012-03-23 2013-10-02 삼성메디슨 주식회사 초음파 장치의 사용자에 따른 데이터를 제공하는 장치 및 방법
KR101446780B1 (ko) * 2012-06-01 2014-10-01 삼성메디슨 주식회사 초음파 영상과 초음파 영상에 관련된 정보를 디스플레이하기 위한 방법 및 장치
JP2014064637A (ja) * 2012-09-25 2014-04-17 Fujifilm Corp 超音波診断装置
EP2719336B1 (en) * 2012-10-12 2021-03-17 Samsung Medison Co., Ltd. Method for displaying ultrasound image using doppler data and ultrasound medical apparatus thereto
JP6173686B2 (ja) 2012-12-25 2017-08-02 東芝メディカルシステムズ株式会社 超音波診断装置
JP6011378B2 (ja) 2013-02-05 2016-10-19 コニカミノルタ株式会社 超音波画像診断装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04295346A (ja) * 1991-03-22 1992-10-20 Hitachi Medical Corp 超音波断層装置
JP2000175910A (ja) * 1998-12-21 2000-06-27 Toshiba Iyo System Engineering Kk 超音波診断装置
US20040122310A1 (en) * 2002-12-18 2004-06-24 Lim Richard Y. Three-dimensional pictograms for use with medical images
US20110208052A1 (en) * 2008-11-06 2011-08-25 Koninklijke Philips Electronics N.V. Breast ultrasound annotation user interface
KR20100087521A (ko) * 2009-01-28 2010-08-05 주식회사 메디슨 영상 지시자를 제공하는 초음파 시스템 및 방법
JP2014008083A (ja) * 2012-06-27 2014-01-20 Hitachi Aloka Medical Ltd 超音波診断装置
US20140324475A1 (en) * 2012-08-31 2014-10-30 Kabushiki Kaisha Toshiba Medical reading report preparing apparatus and medical image diagnostic apparatus
US20140104311A1 (en) * 2012-10-12 2014-04-17 Infinitt Healthcare Co., Ltd. Medical image display method using virtual patient model and apparatus thereof
EP2783635A1 (en) * 2013-03-28 2014-10-01 Samsung Medison Co., Ltd. Ultrasound system and method of providing direction information of object

Also Published As

Publication number Publication date
EP3034005A1 (en) 2016-06-22
EP3034005B1 (en) 2021-10-20
US10768797B2 (en) 2020-09-08
CN105686848A (zh) 2016-06-22
KR102388132B1 (ko) 2022-04-19
US20160170618A1 (en) 2016-06-16

Similar Documents

Publication Publication Date Title
US11857371B2 (en) Ultrasound method and apparatus for processing ultrasound image to obtain measurement information of an object in the ultrasound image
KR102388132B1 (ko) 대상체를 나타내는 바디 마커를 생성하는 방법, 장치 및 시스템.
US10861161B2 (en) Method and apparatus for displaying image showing object
KR102273831B1 (ko) 의료 영상을 디스플레이 하는 방법 및 그 의료 영상 장치
US20140288425A1 (en) Apparatus and method for providing elasticity information
EP3132749A1 (en) Ultrasound diagnosis apparatus for analyzing plaque and method of operating the same
KR102519424B1 (ko) 초음파 이미지 디스플레이 방법 및 이를 위한 장치
US10163228B2 (en) Medical imaging apparatus and method of operating same
US10806433B2 (en) Ultrasound apparatus and method of operating the same
KR20150089837A (ko) 초음파 진단 장치 및 그 동작방법
US20190313999A1 (en) Ultrasonic diagnostic device and operation method thereof
KR20160068470A (ko) 초음파 영상 제공 장치 및 초음파 영상 제공 방법
US10849599B2 (en) Method and apparatus for generating body marker
KR102416511B1 (ko) 바디 마커를 생성하는 방법 및 장치.
KR102364490B1 (ko) 초음파 진단장치, 그에 따른 초음파 진단 방법 및 그에 따른 컴퓨터 판독 가능한 저장매체
KR20160023523A (ko) 대상체를 나타내는 의료 영상과 키보드 영상을 함께 출력하는 방법, 장치 및 시스템.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant