KR20150029353A - 영상 처리 장치 및 영상 처리 방법 - Google Patents

영상 처리 장치 및 영상 처리 방법 Download PDF

Info

Publication number
KR20150029353A
KR20150029353A KR20130108453A KR20130108453A KR20150029353A KR 20150029353 A KR20150029353 A KR 20150029353A KR 20130108453 A KR20130108453 A KR 20130108453A KR 20130108453 A KR20130108453 A KR 20130108453A KR 20150029353 A KR20150029353 A KR 20150029353A
Authority
KR
South Korea
Prior art keywords
values
voxels
color
value
image
Prior art date
Application number
KR20130108453A
Other languages
English (en)
Other versions
KR102111626B1 (ko
Inventor
김윤태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130108453A priority Critical patent/KR102111626B1/ko
Priority to US14/336,269 priority patent/US9401040B2/en
Publication of KR20150029353A publication Critical patent/KR20150029353A/ko
Application granted granted Critical
Publication of KR102111626B1 publication Critical patent/KR102111626B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52019Details of transmitters
    • G01S7/5202Details of transmitters for pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52025Details of receivers for pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4411Device being modular
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • G10K11/26Sound-focusing or directing, e.g. scanning
    • G10K11/34Sound-focusing or directing, e.g. scanning using electrical steering of transducer arrays, e.g. beam steering
    • G10K11/341Circuits therefor
    • G10K11/346Circuits therefor using phase variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Graphics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Quality & Reliability (AREA)

Abstract

대상체를 실감 있게 표현할 수 있는 영상 처리 장치 및 영상 처리 방법이 개시된다.
영상 처리 장치에 대한 일 실시예는 대상체에 대한 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및 상기 볼륨 데이터를 사용자 시점을 기준으로 제1 평면에 투영시켜 투영 영상을 획득하는 볼륨 렌더링부를 포함하되, 상기 볼륨 렌더링부는 상기 볼륨 데이터의 표면을 구성하는 점들 중 상기 사용자 시점에서 보여지는 제1 표면 점들과 가상 조명 위치에서 보여지는 제2 표면 점들 간의 거리에 따라 상기 투영 영상의 각 픽셀의 값을 결정할 수 있다.

Description

영상 처리 장치 및 영상 처리 방법{Image processing apparatus and image processing method}
대상체를 보다 실감 있게 표현할 수 있는 영상 처리 장치 및 영상 처리 방법이 개시된다.
건강에 대한 관심이 증가함에 따라 의료 영상 기기에 대한 연구가 활발히 진행되고 있다. 의료 영상 기기로는 엑스선촬영장치, 엑스선투시촬영장치, CT 스캐너(Computerized Tomography Scanner), 자기공명영상장치(Magnetic Resonance Image: MRI), 양전자방출단층촬영장치(Positron Emission Tomography: PET), 초음파 영상 장치 등을 예로 들 수 있다.
이러한 의료 영상 기기들은 대상체에 대한 2차원 의료 영상 또는 3차원 의료 영상을 디스플레이한다. 2차원 의료 영상은 대상체의 체내 조직에 대한 단면 영상을 말한다. 3차원 의료 영상은 복수의 단면 영상을 기초로 생성된 3차원 볼륨 데이터를 볼륨 렌더링하여 얻은 영상을 말한다.
2차원 의료 영상 및 3차원 의료 영상은 흑백 영상 또는 컬러 영상일 수 있다. 흑백 영상의 경우, 사실적인 표현에 한계가 있기 때문에, 최근에는 컬러 영상이 주로 사용되고 있다. 컬러 영상은 흑백 영상에 대상체의 체내 조직과 유사한 컬러를 매핑하여 얻을 수 있다.
대상체를 실감 있게 표현할 수 있는 영상 처리 장치 및 영상 처리 방법이 제공된다.
상술한 과제를 해결하기 위하여, 영상 처리 장치의 일 실시예는 대상체에 대한 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및 상기 볼륨 데이터를 사용자 시점을 기준으로 제1 평면에 투영시켜 투영 영상을 획득하는 볼륨 렌더링부를 포함하되, 상기 볼륨 렌더링부는 상기 볼륨 데이터의 표면을 구성하는 점들 중 상기 사용자 시점에서 보여지는 제1 표면 점들과 가상 조명 위치에서 보여지는 제2 표면 점들 간의 거리에 따라 상기 투영 영상의 각 픽셀의 값을 결정할 수 있다.
상술한 과제를 해결하기 위하여, 영상 처리 방법의 일 실시예는 대상체에 대한 볼륨 데이터를 생성하는 단계; 및 상기 볼륨 데이터를 사용자 시점을 기준으로 제1 평면에 투영시켜 투영 영상을 획득하는 단계를 포함하되, 상기 투영 영상을 획득하는 단계는 상기 볼륨 데이터의 표면을 구성하는 점들 중 상기 사용자 시점에서 보여지는 제1 표면 점들과 가상 조명 위치에서 보여지는 제2 표면 점들 간의 거리에 따라 상기 투영 영상의 각 픽셀의 값을 결정하는 단계를 포함할 수 있다.
볼륨 데이터를 볼륨 렌더링할 때, 가상 조명에 따른 반투명 효과를 줄 수 있으므로, 대상체 또는 대상체의 체내 조직에 대하여, 보다 실감 있는 영상을 생성할 수 있다.
실감 있는 영상을 제공함으로써, 영상에 대한 사용자의 만족도를 향상시킬 수 있다.
도 1은 초음파 영상 장치의 일 실시예에 대한 사시도이다.
도 2는 초음파 영상 장치의 일 실시예에 대한 구성도이다.
도 3은 초음파 영상 장치의 송신 빔포머에 대한 구성도이다.
도 4는 초음파 영상 자치의 수신 빔포머에 대한 구성도이다.
도 5는 2차원 컬러맵을 예시한 도면이다.
도 6은 초음파 영상 장치의 영상 처리부에 대한 구성도이다.
도 7은 볼륨 렌더링의 개념을 설명하기 위한 도면이다.
도 8은 사용자 위치를 기준으로 검출된 제1 표면 점과 가상 조명 위치를 기준으로 검출된 제2 표면 점을 설명하기 위한 평면도이다.
도 9a는 사용자의 위치를 기준으로 생성된 깊이 영상인 제1 깊이 영상을 예시한 도면이다.
도 9b는 가상 조명의 위치를 기준으로 생성된 깊이 영상인 제2 깊이 영상을 예시한 도면이다.
도 10은 제1 복셀의 R, G, B 값의 입력값과 출력값 간의 관계를 도시한 그래프이다.
도 11a은 반투명 볼륨 렌더링으로 얻어지는 투영 영상을 예시한 도면으로, 사용자 시점과 가상 조명 위치가 대상체의 전방에 위치한 경우에 획득되는 투영 영상을 예시한 도면이다.
도 11b는 반투명 볼륨 렌더링으로 얻어지는 투영 영상을 예시한 도면으로, 사용자 시점이 대상체의 전방에 위치하고, 가상 조명이 사용자 시점보다 오른쪽에 위치한 경우에 획득되는 투영 영상을 예시한 도면이다.
도 12는 영상 처리 방법의 일 실시예에 대한 흐름도이다.
개시된 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 개시된 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 발명의 개시가 완전하도록 하고, 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 개시된 발명은 청구항의 범주에 의해 정의될 뿐이다.
이하, 첨부된 도면들을 참조하여 영상 처리 장치 및 영상 처리 방법의 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다.
영상 처리 장치는 의료 영상 장치를 의미할 수 있다. 의료 영상 장치의 예로는 엑스선촬영장치, 엑스선투시촬영장치, CT 스캐너, 자기공명영상장치, 양전자방출단층촬영장치, 및 초음파 영상 장치를 예로 들 수 있다. 그러나 개시된 발명은 이로 한정되지 않으며, 대상체의 체내 조직에 대한 복수의 단면 영상 또는 복수의 투영 영상으로부터 3차원 볼륨 데이터를 생성하는 의료 기기라면, 개시된 발명의 범위에 포함될 수 있다. 이하의 설명에서는 설명의 편의를 위하여 영상 처리 장치가 초음파 영상 장치인 경우를 예로 들어 설명하기로 한다.
초음파 영상 장치는 대상체 내의 목표 부위를 향하여 초음파를 조사하고, 반사된 초음파(초음파 에코)의 정보를 이용하여 연부조직의 단층에 관한 영상이나 혈류에 관한 영상을 비침습적으로 얻는 장치이다.
초음파 영상 장치는 엑스선촬영장치, CT 스캐너, 자기공명영상장치, 핵의학 진단 장치 등의 다른 영상진단장치와 비교할 때, 소형이고 저렴하며, 실시간으로 표시 가능하고, 엑스선 등의 피폭이 없어 안전성이 높은 장점이 있다. 이러한 장점들로 인하여 초음파 영상 장치는 심장, 유방, 복부, 비뇨기 및 산부인과 진단을 위해 널리 이용되고 있다.
도 1은 초음파 영상 장치의 사시도이다.
도 1에 도시된 바와 같이 초음파 영상 장치(20)는 본체(200), 입력부(210), 디스플레이부(220) 및 프로브(230)를 포함할 수 있다.
본체(200)에는 초음파 영상 장치(20)의 주요 구성요소들이 수납된다. 예를 들면, 도 2에 도시된 제어부(240), 송신 빔포머(250), 수신 빔포머(260), 영상 처리부(270) 및 저장부(280) 등이 수납될 수 있다. 이들 구성요소들에 대한 구체적인 설명은 도 2를 참조하여 후술하기로 한다.
본체(200)의 일측에는 하나 이상의 암 커넥터(female connector)(207)가 구비될 수 있다. 암 커넥터(207)는 수 커넥터(미도시)와 물리적으로 결합될 수 있다. 수 커넥터는 케이블(235)의 일단에 연결되며, 케이블(235)의 타단에는 프로브(230)가 마련된다.
본체(200)의 하부에는 초음파 영상 장치(20)의 이동성을 위한 복수개의 캐스터(205)가 구비될 수 있다. 복수개의 캐스터(205)는 초음파 영상 장치(20)를 특정 장소에 고정시키거나, 특정 방향으로 이동시킬 수 있다.
입력부(210)는 사용자가 초음파 영상 장치(20)를 조작하기 위한 지시 또는 명령을 입력할 수 있는 부분이다. 예를 들면, 사용자는 입력부(210)를 통해 진단 시작, 진단 부위 선택, 진단 종류 선택, 최종적으로 출력되는 초음파 영상에 대한 모드 선택을 위한 지시나 명령을 입력할 수 있다. 초음파 영상에 대한 모드로는 A-모드(Amplitude mode), B-모드(Brightness mode), D-모드(Doppler mode), E-모드(Elastography mode), 및 M-모드(Motion mode) 등을 예로 들 수 있다. 이외에도 사용자는 입력부(210)를 통해 사용자의 시점, 및 가상 조명의 위치에 대한 정보를 입력할 수 있다.
입력부는 예를 들어, 키보드, 마우스, 터치스크린, 풋 스위치(foot switch) 및 풋 페달(foot pedal) 중 적어도 하나를 포함할 수 있다.
일 예로, 키보드는 하드웨어적으로 구현되어, 본체(200)의 상부에 위치할 수 있다. 키보드는 스위치, 키, 휠, 조이스틱, 트랙볼 및 놉(knop) 중 적어도 하나를 포함할 수 있다. 다른 예로, 키보드는 그래픽 유저 인터페이스와 같이 소프트웨어적으로 구현될 수도 있다. 소프트웨어적으로 구현된 키보드는 디스플레이부(220)를 통해 디스플레이될 수 있다.
풋 스위치나 풋 페달은 본체(200)의 하부에 마련될 수 있으며, 사용자는 풋 페달을 이용하여 초음파 영상 장치(20)의 일부 기능을 제어할 수 있다.
입력부(210)의 일측에는 프로브(230)를 거치하기 위한 프로브 홀더(215)가 구비될 수 있다. 도 1은 입력부(210)의 주변에 동일한 크기를 가지는 두 개의 프로브 홀더(215)가 구비되어 있는 경우를 도시하고 있다. 그러나 프로브 홀더(215)의 개수, 위치, 모양, 및 크기는 이로 한정되지 않는다. 예를 들면, 프로브 홀더(215)는 본체(200)의 일측에 마련될 수도 있으며, 프로브 홀더(215)의 개수는 하나 이상 구비될 수 있다. 복수개의 프로브 홀더(215)가 마련되는 경우, 각 프로브 홀더(215)의 모양 및 크기는 서로 다를 수도 있다.
디스플레이부(220)에는 초음파 영상이 디스플레이된다. 구체적으로, 디스플레이부(220)에는 사용자가 선택한 모드에 대응하는 초음파 영상이 디스플레이될 수 있다. 이러한 디스플레이부(220)는 적어도 하나의 디스플레이를 포함할 수 있다.
적어도 하나의 디스플레이는 디스플레이 기능만을 가질 수도 있고, 디스플레이 및 입력 기능을 모두 가질 수도 있다. 예를 들어, 디스플레이가 터치 스크린으로 구현될 수 있는데 이 경우, 디스플레이는 디스플레이 기능 및 입력 기능을 모두 갖는다.
적어도 하나의 디스플레이는 본체(200)와 분리 가능하록 구현될 수도 있다. 이 경우, 초음파 영상 장치(20)에서 생성된 영상은 유선 통신 또는 무선 통신에 의해 적어도 하나의 디스플레이로 전송될 수 있다.
프로브(230)는 대상체(도 2의 10 참조)의 체표에 접촉하는 부분이다. 프로브(230)의 말단에는 적어도 하나의 초음파 소자(T)가 마련된다. 적어도 하나의 초음파 소자(T)는 대상체(10) 내의 목표부위로 초음파를 조사하고, 목표부위에서 반사된 초음파 에코를 수신하여 전기적 신호로 변환한다. 일 예로, 초음파 소자(T)는 초음파를 발생시키는 초음파 발생 소자 및 초음파 에코를 수신하여 전기적 신호로 변환하는 초음파 수신 소자를 포함할 수 있다. 다른 예로, 하나의 초음파 소자(T)에서 초음파 발생 및 초음파 에코 수신이 모두 이루어질 수도 있다.
초음파 소자(T)는 초음파 트랜스듀서(ultrasonic transducer)일 수도 있다. 트랜스듀서란 소정 형태의 에너지를 다른 형태의 에너지로 변환시키는 장치를 말한다. 예를 들어 초음파 트랜스듀서는 전기 에너지를 파동 에너지로 변환시킬 수 있으며, 파동 에너지를 전기 에너지로 변환시킬 수 있다. 다시 말해, 초음파 트랜스듀서는 초음파 발생 소자의 기능 및 초음파 수신 소자의 기능을 모두 수행할 수 있다.
좀 더 구체적으로 초음파 트랜스듀서는 압전 물질이나 압전 박막을 포함할 수 있다. 만약 배터리 등의 내부 축전 장치나 외부의 전원 공급 장치로부터 교류 전류가 압전 물질이나 압전 박막에 인가되면, 압전 물질이나 압전 박막은 소정의 주파수로 진동하게 되고, 진동 주파수에 따라 소정 주파수의 초음파가 생성된다. 이와 반대로 소정 주파수의 초음파 에코가 압전 물질이나 압전 박막에 도달하면, 압전 물질이나 압전 박막은 도달한 초음파 에코의 주파수에 따라 진동하게 된다. 이 때, 압전 물질이나 압전 박막은 진동 주파수에 대응하는 주파수의 교류 전류를 출력한다.
초음파 트랜스듀서로는 자성체의 자왜효과를 이용하는 자왜 초음파 트랜스듀서(Magnetostrictive Ultrasonic Transducer)나, 압전 물질의 압전 효과를 이용한 압전 초음파 트랜스듀서(Piezoelectric Ultrasonic Transducer), 미세 가공된 수백 또는 수천 개의 박막의 진동을 이용하여 초음파를 송수신하는 정전용량형 미세가공 초음파 트랜스듀서(Capacitive Micromachined Ultrasonic Transducer; cMUT) 등 다양한 종류의 초음파 트랜스듀서가 사용될 수 있다. 이외에도 전기적 신호에 따라 초음파를 생성하거나, 초음파에 따라 전기적 신호를 생성할 수 있는 다른 종류의 트랜스듀서들도 초음파 트랜스듀서로 사용될 수 있다.
적어도 하나의 초음파 트랜스듀서는 프로브(230)의 말단에 직선으로 배열되거나(Linear arrary), 곡선으로 배열될 수 있다(Convex array). 이 때, 적어도 하나의 초음파 트랜스듀서는 일렬로 배열되거나, 매트릭스 형태로 배열될 수 있다. 적어도 하나의 초음파 트랜스듀서가 일렬로 배열된 경우에는 프로브(230)를 주사 방향(scaning direction)으로 이동시켜 복수의 초음파 영상을 획득할 수 있다. 적어도 하나의 초음파 트랜스듀서가 매트릭스 형태로 배열된 경우에는 한번의 초음파 송신으로 복수의 초음파 영상을 획득할 수 있다.
도면에 도시되지는 않았지만, 초음파 트랜스듀서의 상부에는 초음파 트랜스듀서를 덮는 덮개가 마련될 수 있다.
도 2는 초음파 영상 장치(20)의 일 실시예에 대한 구성도이다.
도 2에 도시된 바와 같이, 초음파 영상 장치(20)는 입력부(210), 디스플레이부(220), 프로브(230), 제어부(240), 송신 빔포버(250), 수신 빔포머(260), 영상 처리부(270) 및 저장부(280)를 포함할 수 있다.
입력부(210), 디스플레이부(220) 및 프로브(230)에 대해서는 도 1을 참조하여 설명하였으므로, 중복되는 설명을 생략하기로 한다.
제어부(240)는 초음파 영상 장치(20)의 전반적인 동작을 제어할 수 있다. 구체적으로, 제어부(240)는 입력부(210)를 통해 입력된 지시나 명령에 대응하여 송신 빔포머(250), 수신 빔포머(260), 영상 처리부(270) 및 디스플레이부(220) 중 적어도 하나를 제어하기 위한 제어 신호를 생성할 수 있다. 실시예에 따르면, 제어부(240)는 유선 통신 또는 무선 통신을 통해 외부 장치(미도시)로부터 수신한 지시나 명령에 대응하여 각 구성요소를 제어하기 위한 제어 신호를 생성할 수도 있다. 이 경우, 초음파 영상 장치(20)는 외부 장치로부터 지시나 명령을 수신하기 위한 통신부(미도시)를 포함할 수 있다.
송신 빔포머(250)는 송신 빔포밍(transmit beamforming)을 수행할 수 있다. 송신 빔포밍이란 적어도 하나의 초음파 소자(T)에서 발생된 초음파를 초점(focal point)에 집속시키는 것을 말한다. 즉, 적어도 하나의 초음파 소자(T)에서 발생된 초음파가 초점에 도달하는 시간 차이를 극복하기 위하여 적절한 순서를 정해서 초음파 소자(T)에서 초음파를 발생시키는 것을 말한다. 송신 빔포밍에 대한 보다 구체적인 설명을 위해 도 3을 참조하기로 한다.
도 3은 송신 빔포머(250)를 도시한 구성도이다. 도 3에 도시된 바와 같이, 송신 빔포머(250)는 송신 신호 생성부(251) 및 시간 지연부(252)를 포함할 수 있다.
송신 신호 생성부(251)는 제어부(240)의 제어 신호에 따라 적어도 하나의 초음파 소자(T)에 인가할 송신 신호(고주파 교류전류)를 발생시킬 수 있다. 송신 신호 생성부(251)에서 발생된 송신 신호는 시간 지연부(252)로 제공된다.
시간 지연부(252)는 송신 신호 생성부(251)에서 발생된 송신 신호마다 시간 지연을 가하여, 각 송신 신호가 각 초음파 소자(T)에 도달하는 시간을 조절할 수 있다. 시간 지연부(252)에 의해 시간 지연된 송신 신호가 초음파 소자(T)로 인가되면, 초음파 소자(T)는 송신 신호의 주파수에 대응하는 초음파를 발생시킨다. 각 초음파 소자(T)에서 발생된 초음파는 초점(focal point)에서 집속(focusing)된다. 초음파 소자(T)에서 발생된 초음파가 집속되는 초점의 위치는 송신 신호에 어떤 형태의 지연 패턴이 적용되었는지에 따라 달라질 수 있다.
좀 더 구체적으로, 도 3에는 5개의 초음파 소자(t1~t5)가 예시되어 있다. 또한 송신 신호들에 적용될 수 있는 3가지의 지연 패턴이 굵은 실선, 중간 굵기의 실선, 가는 실선으로 예시되어 있다.
만약, 송신 신호 생성부(251)에서 발생된 송신 신호들에 대해 굵은 실선과 같은 형태의 지연 패턴을 적용하는 경우, 각 초음파 소자(t1~t5)에서 발생된 초음파는 제1 초점(F1)에서 접속된다.
만약, 송신 신호 생성부(251)에서 발생된 각 송신 신호에 대해 중간 굵기의 실선과 같은 형태의 지연 패턴을 적용하는 경우, 각 초음파 소자(t1~t5)에서 발생된 초음파는 제1 초점(F1)보다 먼 제2 초점(F2)에서 집속된다.
만약, 송신 신호 생성부(251)에서 발생된 각 송신 신호에 대해 가는 실선과 같은 형태의 지연 패턴을 적용하는 경우, 각 초음파 소자(t1~t5)에서 발생된 초음파는 제2 초점(F2)보다 먼 제3 초점(F3)에서 집속된다.
상술한 바와 같이, 송신 신호 생성부(251)에서 발생된 송신 신호에 적용되는 지연 패턴에 따라 초점의 위치가 달라진다. 따라서 하나의 지연 패턴만을 적용하는 경우, 대상체(10)로 조사되는 초음파는 고정된 초점에서 집속된다(fixed-focusing). 만약 서로 다른 지연 패턴을 적용하는 경우, 대상체(10)로 조사되는 초음파는 여러 개의 초점에서 집속된다(multi-focusing).
이처럼 각 초음파 소자(T)에서 발생된 초음파는 한 지점에만 고정 집속되거나 여러 지점에 다중 집속된다. 집속된 초음파는 대상체(10) 내부로 조사된다. 대상체(10) 내부로 조사된 초음파는 대상체(10) 내의 목표 부위에서 반사된다. 목표 부위에서 반사된 초음파 에코는 초음파 소자(T)로 수신된다. 그러면 초음파 소자(T)는 수신된 초음파 에코를 전기 신호로 변환한다. 이하, 변환된 전기 신호를 초음파 신호라 한다. 초음파 소자(T)에서 출력된 초음파 신호는 증폭 및 필터링된 후, 디지털 신호로 변환되어 수신 빔포머(260)로 제공된다.
다시 도 2를 참조하면, 수신 빔포머(260)는 디지털 신호로 변환된 초음파 신호에 대해 수신 빔포밍(receive beamforming)을 수행할 수 있다. 수신 빔포밍이란 각 초음파 소자(T)에서 출력되는 초음파 신호들 간에 존재하는 시차를 보정하여, 집속시키는 것을 말한다. 수신 빔포밍에 대한 보다 구체적인 설명을 위해 도 4를 참조하기로 한다.
도 4는 수신 빔포머(260)를 도시한 구성도이다. 도 4에 도시된 바와 같이, 수신 빔포머(260)는 시차 보정부(262) 및 집속부(261)를 포함할 수 있다.
시차 보정부(262)는 각 초음파 소자(T)에서 출력된 초음파 신호들을 일정 시간 동안 지연시켜 초음파 신호들이 동일한 시간에 집속부(261)로 전달될 수 있도록 한다.
집속부(261)는 시차 보정부(262)에 의해 시차가 보정된 초음파 신호들을 하나로 집속할 수 있다. 집속부(261)는 입력되는 초음파 신호마다 소정의 가중치 예를 들어, 빔포밍 계수를 부가하여 소정 초음파 신호를 다른 초음파 신호에 비하여 강조 또는 감쇠시켜 집속할 수 있다. 집속된 초음파 신호는 대상체(10)에 대한 단면 영상인 것으로 이해될 수 있다. 이러한 단면 영상은 복수개가 획득될 수 있으며, 획득된 단면 영상들은 영상 처리부(270)로 제공될 수 있다.
다시 도 2를 참조하면, 저장부(280)는 초음파 영상 장치(20)가 동작하는데 필요한 데이터나 알고리즘, 초음파 영상 장치(20)에서 생성된 데이터를 저장할 수 있다.
일 예로, 저장부(280)는 2차원 컬러맵을 저장할 수 있다. 2차원 컬러맵은 3차원 흑백 초음파 영상에 매핑할 색상을 2차원 좌표에 나열한 룩업 테이블(lookup table)을 의미한다. 2차원 컬러맵은 대상체(10) 내부의 목표 부위에 대한 적어도 하나의 샘플 영상에 기초하여 생성될 수 있다. 예를 들어, 목표 부위는 태아일 수 있으며, 태아에 대한 샘플 영상은 아기 얼굴 영상일 수 있다. 즉, 태아에 대한 2차원 컬러맵은 적어도 하나의 아기 얼굴 영상에 기초하여 생성될 수 있는 것이다. 한편, 태아의 피부색은 인종별로 다르기 때문에, 2차원 컬러맵도 인종 별로 생성될 수 있다. 생성된 2차원 컬러맵은 인종 별로 분류되어 저장부(280)에 저장될 수 있다.
2차원 컬러맵을 생성하기 위해서는 우선, 적어도 하나의 샘플 영상의 색공간을 RGB 색공간을 YCbCr 색공간으로 변환한다. 이는 샘플 영상의 각 픽셀이 가지는 R, G, B 값을 Y, Cb, Cr 값으로 변환하는 것을 말한다. YCbCr 색공간에서 Y는 휘도 성분(luma component)이며, Cb는 파란색의 색차 성분(blue-difference chroma component)이고, Cr은 적색의 색차 성분(red-difference chroma component)이다.
YCbCr 색공간으로의 변환이 완료되면, 샘플 영상의 각 픽셀은 Y, Cb, Cr 값을 갖는다. YCbCr 색공간으로의 변환이 완료되면, 샘플 영상의 색역을 모델링한다.
이를 위해 우선, 샘플 영상의 각 픽셀이 가지는 Y, Cb, Cr 값을 YCbCr 색공간에 표현한다. 그 다음, YCbCr 색공간에 표현된 모든 값들을 CbCr 평면으로 투영시키면, Cb-Cr 그래프를 얻을 수 있다. Cb-Cr 그래프는 사사분면으로 나뉘어질 수 있는데, 투영된 값들이 분포하는 사분면은 샘플 영상의 종류에 따라 달라진다. 예를 들어, 샘플 영상이 아기 얼굴 영상인 경우, 투영된 값들은 주로 Cb-Cr 그래프의 제2사분면에 분포하게 된다. 샘플 영상이 장기를 촬영한 장기 영상이라면, 투영된 값들은 Cb-Cr 그래프의 사사분면 중 다른 사분면에 분포할 수 있다.
Cb-Cr 그래프가 획득되면, Cb-Cr 그래프에 기초하여 샘플 영상의 색역을 설정한다. 구체적으로, Cb-Cr 평면에 투영된 값들을 모두 포함하도록 경계를 설정한다. 예를 들면, Cb-Cr 평면에 투영된 값들을 모두 포함하도록 육각형의 경계를 설정할 수 있다. 이 때, 경계의 모양은 사전에 설정될 수 있으며, 반드시 육각형으로 제한되는 것은 아니다. 경계 설정이 완료되면, 보간법을 이용하여 경계 내에 있는 빈 지점의 값을 결정한다.
상술한 바와 같이 색역 모델링이 완료되면, 모델링된 색역에 대응하는 명도, 채도 및 색상 값을 산출한다. 그 다음, 명도, 채도 및 색상 값을 2차원 좌표에 매핑하여 2차원 컬러맵을 생성한다. 구체적으로, 2차원 좌표의 가로축을 따라 명도가 변하도록 매핑한다. 그리고 2차원 좌표의 세로축을 따라 채도 및 색상이 변하도록 매핑한다. 이 때, 명도의 변화 방향은 3차원 흑백 초음파 영상의 강도 값(intensity value)의 변화 방향에 대응할 수 있다. 채도 및 색상의 변화 방향은 3차원 흑백 초음파 영상의 깊이 값의 변화 방향에 대응할 수 있다. 도 5는 가로축을 따라 명도가 증가하도록 매핑되어 있고, 세로축을 따라 채도 및 색상이 증가하도록 매핑되어 있는 2차원 컬러맵을 보여주고 있다.
이상의 예에서는, 가로축을 따라 명도를 매핑하고, 세로축을 따라 채도 및 색상이 변하도록 매핑하여 2차원 컬러맵을 생성하는 경우를 설명하였다. 그러나 매핑 방식이 이것으로 한정되는 것은 아니다. 예를 들면, 가로축을 따라 색상이 변하도록 매핑하고, 세로축을 따라 명도 및 채도가 변하도록 매핑하여 2차원 컬러맵을 생성할 수도 있다. 또는, 가로축을 따라 채도가 변하도록 매핑하고, 세로축을 따라 명도 및 색상이 변하도록 매핑하여 2차원 컬러맵을 생성할 수도 있다.
한편, 도 5의 2차원 컬러맵을 3차원 흑백 초음파 영상에 적용하기 위해서는, 2차원 컬러맵의 각 좌표가 가지는 값을 영상 시스템에서 사용 가능한 색공간의 값으로 변환할 필요가 있다. 예를 들면, 2차원 컬러맵의 각 좌표가 가지는 명도(L), 채도(C), 색상(H) 값을 R, G, B 값으로 변환할 필요가 있다. 이를 위해서는, 2차원 컬러맵의 각 좌표가 가지는 명도, 채도, 색상 값을 Y, Cb, Cr 값으로 변환한다. 그 다음, 2차원 컬러맵의 각 좌표가 가지는 Y, Cb, Cr 값을 R, G, B 값으로 변환한다. 그 결과, 2차원 컬러맵의 각 좌표는 R, G, B 값으로 표현된다.
다시 도 2를 참조하면, 저장부(280)는 상술한 바와 같은 방식으로 생성된 2차원 컬러맵을 저장할 수 있다. 즉, 저장부(280)는 각 좌표가 R, G, B로 표현된 2차원 컬러맵을 저장할 수 있다. 앞서 설명하였듯이, 목표 부위가 태아인 경우, 저장부(280)에는 인종 별로 2차원 컬러맵이 저장될 수 있다. 사용자가 입력부(210)를 통해 인종에 대한 정보를 입력하면, 입력된 인종 정보에 대응하는 2차원 컬러맵이 선택될 수 있다. 선택된 2차원 컬러맵은 목표 부위에 대한 3차원 컬러 초음파 영상을 생성하는데 사용될 수 있다.
이외에도, 저장부(280)는 샘플 영상의 색공간을 변환하는데 필요한 알고리즘, 샘플 영상에 대하여 색역 모델링을 수행하는데 필요한 알고리즘, 모델링된 색역에 기초하여 2차원 컬러맵을 생성하기 위한 알고리즘, 볼륨 렌더링을 수행하기 위한 알고리즘 중 적어도 하나를 저장할 수 있다. 또한, 저장부(280)는 후술될 영상 처리부(270)에 의해 획득되는 초음파 영상을 저장할 수도 있다.
영상 처리부(270)는 도 6에 도시된 바와 같이, 볼륨 데이터 생성부(271) 및 볼륨 렌더링부(272)를 포함할 수 있다.
볼륨 데이터 생성부(271)는 수신 빔포머(260)에 의해 집속된 초음파 신호에 기초하여 초음파 영상을 생성할 수 있다. 예를 들어, 수신 빔포머(260)에서 하나의 프레임에 대하여 초음파 신호가 집속되었다면, 하나의 초음파 영상이 생성될 수 있다. 만약, 수신 빔포머(2600에서 복수의 프레임에 대하여 초음파 신호가 집속되었다면, 복수의 초음파 영상이 생성될 수 있다. 이 때, 복수의 초음파 영상은 대상체(10)에 대한 볼륨 데이터인 것으로 이해될 수 있다.
볼륨 렌더링부(272)는 볼륨 데이터를 볼륨 렌더링할 수 있다. 볼륨 렌더링부(272)는 기존에 공지된 볼륨 렌더링 방식 중 하나를 사용할 수 있다. 구체적으로, 볼륨 렌더링은 표면 렌더링(surface rendering)과 직접 볼륨 렌더링(direct volume rendering)으로 분류될 수 있다.
표면 렌더링은 일정한 스칼라 값과 공간적인 변화량을 기반으로, 볼륨 데이터로부터 표면 정보를 추출하고, 추출된 표면 정보를 다각형이나 곡면 패치(patch) 등의 기하학적 요소로 변환하여, 기존의 렌더링 기법을 적용하는 방법을 말한다. 표면 렌더링으로는 마칭큐브 알고리즘(Marching Cubes Algorithm), 디바이딩 큐브 알고리즘(Dividing Cubes Algorithm)을 예로 들 수 있다.
직접 볼륨 렌더링은 볼륨 데이터를 기하학적 요소로 바꾸는 중간 단계 없이 볼륨 데이터를 직접 렌더링하는 방법을 말한다. 직접 볼륨 렌더링은 물체의 내부 정보를 그대로 가시화할 수 있고, 반투명한 구조를 표현하는데 유용하다. 직접 볼륨 렌더링은 볼륨 데이터에 접근하는 방식에 따라, 객체 순서 방식(object-order method)과 영상 순서 방식(image-order method)으로 분류될 수 있다.
객체 순서 방식은 볼륨 데이터가 2차원 슬라이스들의 스택으로 구성되는 것으로 가정하고, 2차원 슬라이스들(즉, 객체)를 순서대로 탐색하여, 픽셀 값을 결정하는 방식이다.
영상 순서 방식은 영상의 스캔라인 순서대로 각 픽셀 값을 차례로 결정해 나가는 방식이다. 영상 순서 방식으로는 광선 투사법(Ray Casting)을 예로 들 수 있다. 여기서, 도 7을 참조하여 광선 투사법에 대해서 간략히 설명하기로 한다.
광선 투사법은 도 7에 도시된 바와 같이, 사용자의 시점에서부터 디스플레이 화면의 소정 픽셀을 향하여 가상의 광선을 발사한다. 그 다음, 볼륨 데이터의 복셀들 중에서 상기 광선이 통과하는 복셀들을 검출한다. 그리고 검출된 복셀들의 강도 값(intensity value)을 누적하여 상기 픽셀의 강도 값을 결정하고, 검출된 복셀들의 불투명도 값(opacity value)을 누적하여 상기 픽셀의 불투명도 값을 결정한다. 이러한 과정을 디스플레이 화면의 모든 픽셀을 대상으로 수행하면, 볼륨 데이터를 디스플레이 화면에 투영시킨 투영 영상을 얻을 수 있다.
다시 도 6을 참조하면, 볼륨 렌더링부(272)는 예시된 볼륨 렌더링 방식들 중 하나를 사용하여 볼륨 렌더링을 수행할 수 있다. 이하의 설명에서는 광선 투사법이 적용되는 경우를 예로 들어 설명하기로 한다. 볼륨 렌더링이 완료되면, 사용자의 시점을 기준으로 흑백 투영 영상 또는 컬러 투영 영상이 획득될 수 있다. 볼륨 렌더링 결과로 획득되는 영상의 종류는 사용자의 선택에 따라 결정될 수 있다. 볼륨 렌더링 결과로 획득되는 영상의 종류는 초음파 진단을 시작하기에 앞서 선택될 수 있으며, 선택된 값은 초음파 진단 중에 변경될 수도 있다. 이하의 설명에서는, 컬러 투영 영상이 획득되는 경우를 예로 들어 설명하기로 한다.
실시예에 따르면, 볼륨 렌더링부(272)는 가상 조명 정보에 따른 쉐도우 맵을 생성하고, 생성된 쉐도우 맵을 이용하여 볼륨 렌더링을 수행할 수 있다. 여기서, 가상 조명 정보로는 가상 조명의 위치 및 가상 조명의 모델을 예로 들 수 있다. 쉐도우 맵은 영상 내의 대상체를 향하여 가상적으로 조명을 조사하는 경우, 대상체의 형상 등에 따라 생성되는 그림자를 렌더링한 텍스츄어(texture)를 대상체의 영상에 매핑한 것을 의미한다.
실시예에 따르면, 볼륨 렌더링부(272)는 반투명 볼륨 렌더링을 수행할 수 있다. 반투명 볼륨 렌더링이란, 사용자 시점과 가상 조명 위치 간의 관계에 따라, 대상체가 반투명하게 표현된 투영 영상을 획득할 수 있는 렌더링 방식을 의미할 수 있다. 구체적으로, 인체의 피부는 반투명한 특성을 가진다. 따라서, 인체의 후방에서 실제 조명을 조사하게 되면, 실제 조명과 가까운 부분의 피부는 약간의 빛이 투과하므로 반투명하게 보이고, 조명과 먼 부분의 피부는 불투명하게 보인다. 반투명 볼륨 렌더링은 가상 조명 정보를 반영하여 볼륨 데이터를 볼륨 렌더링하였을 때, 가상 조명과 먼 부분은 어둡게 표현하되, 가상 조명과 가까운 부분은 반투명하게 표현된 투영 영상 획득될 수 있도록 한다. 반투명 볼륨 렌더링 과정을 간단히 설명하면 다음과 같다.
우선, 볼륨 렌더링부(272)는 사용자 시점 정보 및 가상 조명 위치 정보를 입력받을 수 있다. 이 때, 사용자 시점 정보 및 가상 조명 위치 정보는 입력부(210)를 통해 사용자로부터 입력받을 수 있다. 예를 들어, 사용자는 키보드를 이용하여 사용자 시점 정보에 대응하는 숫자 및 가상 조명 위치 정보에 대응하는 숫자를 입력할 수 있다. 다른 예로, 사용자는 디스플레이의 특정 위치에 포인터를 위치시킨 다음, 포인터를 선택함으로써, 사용자 시점 정보 또는 가상 조명 위치 정보를 입력할 수 있다. 또 다른 예로, 사용자는 손이나 스타일러스 등을 이용하여 디스플레이의 특정 위치를 직접 선택함으로써, 사용자 시점 정보 또는 가상 조명 위치 정보를 입력할 수 있다.
이 후, 볼륨 렌더링부(272)는 사용자 시점 및 가상 조명 위치를 기준으로 각각 깊이 영상을 생성할 수 있다. 이하, 사용자 시점을 기준으로 생성된 깊이 영상을 '제1 깊이 영상'이라 칭한다. 그리고 가상 조명 위치를 기준으로 생성된 깊이 영상을 '제2 깊이 영상'이라 칭한다.
그 다음, 볼륨 렌더링부(272)는 제1 깊이 영상에서 제1 표면 점들을 검출하고, 제2 깊이 영상에서 제2 표면 점들을 검출할 수 있다. 제1 표면 점은 대상체의 표면을 이루는 표면 점들 중에서 사용자 시점에서 보여지는 표면 점을 의미한다. 그리고 제2 표면 점은 대상체의 표면을 이루는 표면 점들 중에서 가상 조명 위치에서 보여지는 표면 점을 의미한다.
제1 표면 점들과 제2 표면 점들이 검출되면, 볼륨 렌더링부(272)는 제1 표면 점들과 제2 표면 점들 간의 거리를 각각 산출할 수 있다. 그리고 사용자 시점을 기준으로 얻어지는 투영 영상의 각 픽셀의 컬러 값을 산출된 거리에 따라 결정할 수 있다. 이하, 도 6 내지 도 10을 참조하여, 볼륨 렌더링부(272)의 구성에 대해서 보다 상세히 설명하기로 한다.
도 6에 도시된 바와 같이, 볼륨 렌더링부(272)는 제1 복셀 검출부(272A), 제2 복셀 검출부(272B), 불투명도 값 계산부(272C), 강도 값 계산부(272D), 깊이 값 계산부(272E), 제1 깊이 영상 생성부(272F), 제2 깊이 영상 생성부(272G), 컬러 값 결정부(272H), 제1 표면 점 검출부(272I), 제2 표면 점 검출부(272J), 거리 계산부(272L), 감쇠부(272K), 영상 획득부(272M)를 포함할 수 있다.
제1 복셀 검출부(272A)는 도 8에 도시된 바와 같이, 사용자 시점에서부터 제1 평면(De)의 소정 픽셀을 향하여 제1 광선을 발사하고, 볼륨 데이터를 구성하는 복셀들 중에서 제1 광선이 투과하는 복셀들을 검출할 수 있다. 이하, 볼륨 데이터를 구성하는 복셀들 중에서 제1 광선이 투과하는 복셀을 '제1 복셀'이라 칭한다.
불투명도 값 계산부(272C)는 제1 복셀의 복셀 값(voxel value)으로부터 불투명도 값(opacity value)을 계산할 수 있다. 구체적으로, 불투명도 값 계산부(272C)는 제1 복셀의 복셀 값에 불투명도 통과 함수(opacity transfer funtion; OTF)를 적용하여 불투명도 값을 계산할 수 있다. OTF는 관심 조직에 대응하는 복셀에는 높은 불투명도를 부과하고, 나머지 부분에 대응하는 복셀에는 낮은 불투명도를 부과하는 함수이다.
도면에 도시되지는 않았지만, OTF는 다양한 형태를 가질 수 있다. 예를 들면, OTF는 임계값(threshold) 미만의 강도 값을 가지는 복셀에는 불투명도를 0으로 부여하고, 임계값 이상의 강도 값을 가지는 복셀에는 불투명도를 1로 부여하는 형태를 가질 수 있다. 이외에도, OTF는 여러 단계의 임계값을 가지는 램프(ramp) 함수, 사각형 함수, 사다리꼴(trapezoid) 함수, 또는 가우시안 함수 등의 형태를 가질 수 있다. 제1 복셀의 복셀 값에 어떠한 형태의 OTF를 적용할 것인지는 사용자에 의해 사전에 입력될 수 있으며, 입력된 값은 진단 중에 변경될 수도 있다. 예를 들어, 목표 부위가 태아라면, 피부 조직에 해당하는 복셀에는 높인 불투명도를 부과하고, 뼈나 장기 등에 해당하는 복셀에는 낮은 불투명도를 부과하는 형태의 OTF 함수가 선택될 수 있다.
강도 값 계산부(272D)는 제1 복셀의 복셀 값으로부터 가상 조명 정보에 따른 강도 값(intensity value)를 계산할 수 있다. 구체적으로, 가상 조명과 위치가 가까운 제1 복셀에 대해서는 복셀 값 즉, 강도 값을 증가시킨다. 그리고 가상 조명과 먼 제1 복셀에 대해서는 가상 조명과 가까운 제1 복셀에 비하여, 복셀 값을 조금 증가시키거나, 복셀 값을 변화시키지 않을 수 있다. 강도 값은 모든 제1 복셀들을 대상으로 각각 계산될 수 있다. 제1 복셀들의 강도 값들은 후술될 컬러 값 결정부(272H)로 제공될 수 있다.
깊이 값 계산부(272E)는 제1 복셀의 깊이 값을 계산할 수 있다. 여기서, 깊이 값이란, 사용자 시점으로부터의 깊이 값을 의미할 수도 있고, 볼륨 데이터가 표현된 3차원 공간에서 원점으로부터의 깊이 값을 의미할 수도 있다. 깊이 값은 모든 제1 복셀들을 대상으로 각각 계산될 수 있다. 제1 복셀들의 깊이 값들은 후술될 컬러 값 결정부(272H)로 제공될 수 있다.
컬러 값 결정부(272H)는 강도 값 계산부(272D)로부터 제1 복셀들의 강도 값들을 제공 받고, 깊이 값 계산부(272H)로부터 제1 복셀의 깊이 값을 제공받는다. 그 다음, 컬러 값 결정부(272H)는 2차원 컬러맵을 참조하여, 모든 제1 복셀들의 컬러 값을 결정할 수 있다. 구체적으로, 컬러 값 결정부(272H)는 2차원 컬러맵의 가로축에서 제1 복셀의 강도 값에 대응하는 좌표를 검색하고, 세로축에서 제1 복셀의 깊이 값에 대응하는 좌표 값을 검색한다. 그리고 검색된 좌표 값에 할당되어 있는 R, G, B 값을 제1 복셀의 컬러 값으로 결정한다. 컬러 값 결정부(272H)는 동일한 방식으로 모든 제1 복셀들에 대하여 컬러 값을 결정할 수 있다.
제1 깊이 영상 생성부(272M)는 사용자 시점에서부터 제1 평면(De)의 픽셀을 향하여 광선을 발사하고, 불투명도 값이 특정 임계값 예를 들어, 0.5를 만족하는 지점까지의 거리를 상기 픽셀의 깊이 값으로 결정할 수 있다. 이러한 과정을 제1 평면(De)의 모든 픽셀을 대상으로 수행하고, 각 픽셀 별로 결정된 깊이 값을 그레이 스케일로 표현하면, 도 9a에 도시된 바와 같은 제1 깊이 영상을 얻을 수 있다.
제1 표면 점 검출부(272I)는 제1 깊이 영상으로부터 제1 표면 점들을 검출할 수 있다. 앞서 설명한 바와 같이 제1 표면 점은 대상체의 표면을 이루는 점들 중에서 사용자 시점에서 보여지는 표면 점을 의미한다.
제2 깊이 영상 생성부(272G)는 도 8에 도시된 바와 같이, 가상 조명 위치에서부터 제2 평면(Dl)의 픽셀을 향하여 광선을 발사하고, 불투명도 값이 특정 임계값 예를 들어, 0.5를 만족하는 지점까지의 거리를 상기 픽셀의 깊이 값으로 결정할 수 있다. 이러한 과정을 제2 평면(Dl)의 모든 픽셀을 대상으로 수행하고, 각 픽셀 별로 결정된 깊이 값을 그레이 스케일로 표현하면, 도 9b에 도시된 바와 같은 제2 깊이 영상을 얻을 수 있다.
제2 표면 점 검출부(272J)는 제2 깊이 영상으로부터 제2 표면 점들을 검출할 수 있다. 앞서 설명한 바와 같이 제2 표면 점들은 대상체의 표면을 이루는 점들 중에서 가상 조명 위치에서 보여지는 표면 점을 의미한다.
거리 계산부(272L)는 제1 표면 점과 제2 표면 점 간의 거리를 계산할 수 있다. 예를 들어, 도 8과 같이 제1 평면(De)과 제2 평면(Dl)이 마주보는 상태라고 한다면, 제1 평면(De)의 제1 픽셀(Pe)에서 발사된 제1 광선과 대상체(10')의 표면이 만나는 점(Ze)과, 제2 평면(Dl)에서 제1 평면(De)의 제1 픽셀(Pe)과 대응되는 위치의 제2 픽셀(Pl)에서 발사된 제2 광선과 대상체(10')의 표면이 만나는 점(Zl) 간의 거리(S)를 구할 수 있다. 제1 표면 점과 제2 표면 점 간의 거리는 아래의 [수학식 1]에 의해 계산될 수 있다.
[수학식 1]
Figure pat00001

[수학식 1]에서 Zl 은 제2 표면 점을 의미하고, Ze 은 제1 표면 점을 의미한다. S는 제1 표면 점과 제2 표면 점 간의 거리를 의미한다. 계산된 거리 값은 감쇠부(272K)로 제공될 수 있다.
감쇠부(272K)는 컬러 값 결정부(272H)로부터 제1 복셀들의 컬러 값들을 제공받는다. 그리고, 감쇠부(272K)는 거리 계산부(272L)로부터 제1 표면 점과 제2 표면 점 간의 거리 값을 제공받는다. 그 다음, 감쇠부(272K)는 제1 복셀들의 컬러 값 중 적어도 하나의 제1 복셀의 컬러 값에 감쇠 상수를 적용할 수 있다.
일 예로, 감쇠부(272K)는 모든 제1 복셀들의 컬러 값들에 각각 감쇠 상수를 적용할 수 있다. 다른 예로, 감쇠부(272K)는 제1 복셀들 중에서 제1 표면 점에 해당하는 제1 복셀의 컬러 값에 대해서만 감쇠 상수를 적용할 수 있다. 제1 복셀들 중에서 감쇠 상수가 적용될 제1 복셀은 사용자에 의해 선택 가능하도록 구현될 수 있다.
실시예에 따르면, 감쇠부(272K)는 제1 복셀의 R, G, B 값 별로 서로 다른 감쇠 상수를 적용할 수 있다. R, G, B 값별로 적용되는 감쇠 상수는 [수학식 2]와 같이 나타낼 수 있다.
[수학식 2]
Figure pat00002

[수학식 2]에서 col_r, col_g, col_b 는 각각 R, G, B 값에 대한 입력값을 의미한다. 즉, 감쇠 상수가 적용되기 이전의 R, G, B 값으로, 컬러 값 결정부(272H)에서 제공받은 R, G, B값을 의미한다. 그리고 col_r', col_g', col_b'은 각각 R, G, B 값에 대한 출력값을 의미한다. 즉, 감쇠 상수가 적용된 이후의 R, G, B값을 의미한다. S는 거리 계산부(272L)에 의해 계산된, 제1 표면 점과 제2 표면 점 간의 거리를 의미한다. 그리고 ar, ag, ab 는 R, G, B 각각에 대한 지수 함수 곡선의 기울기 조정 계수를 나타낸다. 지수 함수 곡선의 기울기는 예를 들어, ar=1.2, ag=1.5, ab=1.5 로 설정될 수 있다. 마지막으로, λr, λg, λb는 R, G, B 각각에 대한 스케일링 계수를 의미한다. 스케일링 계수는 예를 들어, λr=1.0, λg=0.9, λb=0.9 로 설정될 수 있다.
[수학식 2]를 참조하면, 제1 표면 점과 제2 표면 점 간의 거리가 멀수록 컬러 값에 적용되는 감쇠 상수가 커지는 것을 알 수 있다. 이와 같이 제1 표면 점과 제2 표면 점 간의 거리가 멀어질수록 제1 표면 점에 대응하는 제1 복셀의 컬러 값을 많이 감쇠시키면, 제1 표면 점이 가상 조명으로부터 받는 영향을 표현할 수 있다.
구체적으로, 제1 표면 점이 가상 조명으로부터 멀리 위치할수록 가상 조명에서 조사된 광의 영향을 적게 받고, 제1 표면 점이 가상 조명으로부터 가까이 위치할수록 가상 조명에서 조사된 광의 영향을 많이 받는다. 따라서, 제1 표면 점과 제2 표면 점 간의 거리가 멀어질수록 제1 표면 점에 대응하는 제1 복셀의 컬러 값을 많이 감쇠시키면, 가상 조명과 먼 곳에 위치한 제1 표면 점에 대응하는 픽셀은 어두운 컬러로 표현되고, 가상 조명과 가까운 곳에 위치한 제1 표면 점에 대응하는 픽셀은 밝은 컬러로 표현된다. 그 결과, 가상 조명 위치에 따라 대상체에 반투명 효과를 줄 수 있다.
도 10은 R, G, B 값의 입력값과 출력값 간의 관계를 나타낸 그래프이다. 도 10의 그래프를 참조하면, R 값, G 값, 및 B값에 대응하는 그래프들의 시작점이 다른 것을 알 수 있다. 각 그래프의 시작점은 각 스케일링 계수(λr, λg, λb)의 값에 따라서 결정된다. 이처럼 각 그래프의 시작점을 다르게 설정하면, 인간의 피부색에 좀 더 가까운 컬러 값을 얻을 수 있다.
한편, 감쇠부(272K)에서 출력된 컬러 값들은 영상 생성부(272M)로 제공될 수 있다. 감쇠부(272K)에서 출력된 컬러 값들은 감쇠 상수가 적용된 컬러 값들일 수 있다. 또는, 감쇠 상수가 적용된 컬러 값과, 감쇠 상수가 적용되지 않은 컬러 값들을 포함할 수 있다.
영상 획득부(272M)는 감쇠부(272K)로부터 제공받은 제1 복셀들의 컬러 값들을 누적하고, 누적된 컬러 값을 제1 광선이 발사된 픽셀의 최종 컬러 값으로 결정한다. 또한, 영상 획득부(272M)는 불투명도 값 계산부(272C)로부터 제공받은 제1 복셀들의 불투명도 값을 누적하고, 누적된 불투명도 값을 제1 광선이 발사된 픽셀의 최종 불투명도 값으로 결정한다. 제1 복셀들의 컬러 값들은 [수학식 3]에 의해 누적될 수 있다. 또한, 제1 복셀들의 불투명도 값은 [수학식 4]에 의해 누적될 수 있다.
[수학식 3]
Figure pat00003

[수학식 4]
Figure pat00004

[수학식 3] 및 [수학식 4]에서, Ci는 i번째 제1 복셀의 컬러 값을 나타내고, αi는 i번째 제1 복셀의 불투명도 값을 나타낸다. 그리고,
Figure pat00005
는 i-1 번째 제1 복셀까지 누적된 컬러 값을 나타내고,
Figure pat00006
는 i 번째 제1 복셀까지 누적된 컬러 값을 나타낸다. 그리고,
Figure pat00007
는 i-1 번째 제1 복셀까지 누적된 불투명도 값을 나타내고,
Figure pat00008
는 i 번째 제1 복셀까지 누적된 불투명도 값을 나타낸다.
이상, 제1 평면의 소정 픽셀을 향하여 광선을 발사하는 경우를 예로 들어 설명하였지만, 광선은 제1 평면(De)의 모든 픽셀을 대상으로 각각 발사될 수 있다. 제1 평면(De)의 모든 픽셀을 대상으로 컬러 값 누적 및 불투명도 값 누적이 완료되면, 사용자 시점을 기준으로 볼륨 렌더링된 투영 영상을 얻을 수 있다.
상술한 바와 같이, 2차원 컬러맵을 참조하여 제1 복셀들의 컬러 값을 결정하고, 결정된 컬러 값들 중 적어도 하나의 컬러 값에 제1 표면 점과 제2 표면 점 간의 거리에 따른 감쇠 상수를 적용하면, 가상 조명의 위치에 따라 대상체(10')가 반투명하게 표현된 투영 영상을 얻을 수 있다.
도 11a 및 도 11b는 반투명 볼륨 렌더링 결과로 얻어지는 투영 영상을 예시한 도면이다. 도 11a은, 사용자 시점과 가상 조명 위치가 모두 대상체의 전방에 위치하는 경우에 얻어질 수 있는 투영 영상을 예시한 것이다. 도 11b는 사용자 시점이 대상체 전방에 위치하고, 가상 조명이 사용자 시점보다 오른쪽에 위치한 경우에 얻어질 수 있는 투영 영상을 예시한 것이다. 도 11b를 참조하면, 대상체의 표면 중에서 가상 조명과 가까운 부분은 밝게 표현되고, 가상 조명과 먼 부분은 어둡게 표현된 것을 알 수 있다. 또한, 도 11b를 참조하면, 태아의 피부가 가상 조명의 위치에 따라 반투명하게 표현된 것을 알 수 있다.
한편, 상술한 예에서는, 2차원 컬러맵을 참조하여 제1 복셀들의 컬러 값을 결정한 후, 적어도 하나의 컬러 값에 대해서 감쇠 상수를 적용하고, 감쇠 상수가 적용된 컬러 값들을 누적하는 경우를 예로 들어 설명하였다. 그러나 개시된 발명은 이로 한정되는 것은 아니다. 도면으로 도시하지는 않았지만, 2차원 컬러맵을 참조하여 제1 복셀들의 컬러 값을 결정한 후, 결정된 컬러 값들을 모두 누적하고, 누적된 컬러 값에 감쇠 상수를 적용할 수도 있다.
도 12는 영상 처리 방법의 일 실시예에 대한 흐름도이다.
우선, 대상체(10)에 대한 볼륨 데이터가 획득된다(S910). 이러한 상태에서 입력부(210)를 통해 사용자 시점 정보 및 가상 조명 위치 정보가 입력될 수 있다.
이 후, 사용자 시점을 기준으로 제1 깊이 영상이 생성된다(S920). 구체적으로, 사용자 시점에서 제1 평면(De)의 픽셀(Pe)을 향하여 제1 광선을 발사하고, 불투명도 값이 특정 임계값 예를 들어, 0.5를 만족하는 지점까지의 거리를 해당 픽셀(Pe)의 깊이 값으로 결정한다. 이러한 동작을 제1 평면(De)의 모든 픽셀을 대상으로 수행하면 제1 깊이 영상을 얻을 수 있다.
제1 깊이 영상이 획득되면, 제1 깊이 영상으로부터 제1 표면 점들이 검출될 수 있다(S922). 제1 표면 점은 대상체(10')의 표면을 구성하는 표면 점들 중에서 사용자 시점에서 보여지는 표면 점을 의미한다.
한편, 가상 조명 위치를 기준으로 제2 깊이 영상이 생성된다(S930). 구체적으로, 가상 조명 위치에서 제2 평면(Dl)의 픽셀(Pl)을 향하여 광선을 발사하고, 불투명도 값이 특정 임계값 예를 들어, 0.5를 만족하는 지점까지의 거리를 해당 픽셀(Pl)의 깊이 값으로 결정한다. 이러한 동작을 제2 평면(Dl)의 모든 픽셀을 대상으로 수행하면 제2 깊이 영상을 얻을 수 있다.
제2 깊이 영상이 획득되면, 제2 깊이 영상으로부터 제2 표면 점들이 검출될 수 있다(S932). 제2 표면 점은 대상체의 표면을 구성하는 표면 점들 중에서 가상 조명 위치에서 보여지는 표면 점을 의미한다.
제1 표면 점들과 제2 표면 점들이 검출되면, 제1 표면 점들과 제2 표면 점들 간의 거리가 계산된다(S940). 구체적으로, 제1 깊이 영상과 제2 깊이 영상에서, 서로 대응되는 위치에 있는 픽셀들의 제1 표면 점(Ze)과 제2 표면 점(Zl) 간의 거리(S)가 계산된다. 제1 표면 점(Ze)과 제2 표면 점(Zl) 간의 거리(S)는 [수학식 1]에 의해 산출될 수 있다. 또한, 제1 깊이 영상과 제2 깊이 영상의 모든 픽셀들을 대상으로, 제1 표면 점과 제2 표면 점 간의 거리가 계산된다.
이 후, 사용자 시점에서 제1 평면(De)의 픽셀(Pe)을 향하여 발사된 제1 광선이 투과하는 제1 복셀들이 검출된다.
제1 복셀들이 검출되면, 검출된 제1 복셀들의 복셀 값으로부터 불투명도 값 및 강도 값이 계산된다(S950). 제1 복셀들의 불투명도 값은 OTF를 적용하여 계산될 수 있다. 그리고 제1 복셀들의 강도 값들은 가상 조명의 위치 및/또는 가상 조명의 모델 정보에 기초하여 계산될 수 있다.
또한, 검출된 제1 복셀들의 깊이 값이 계산된다(S960).
이 후, 제1 복셀들의 강도 값들, 깊이 값들 및 2차원 컬러맵에 기초하여, 제1 복셀들의 컬러 값이 결정될 수 있다(S970). 구체적으로, 상기 S970 단계는, 2차원 컬러맵의 가로축에서 제1 복셀의 강도 값에 대응하는 좌표를 검색하는 단계, 2차원 컬러맵의 세로축에서 제1 복셀의 깊이 값에 대응하는 좌표를 검색하는 단계, 검색된 좌표에 대응하는 R, G, B 값을 제1 복셀의 컬러 값으로 결정하는 단계, 모든 제1 복셀들을 대상으로 상기 단계들을 반복하는 단계를 포함할 수 있다.
2차원 컬러맵에 기초하여 모든 제1 복셀들의 컬러 값이 결정되면, 결정된 컬러 값들 중 적어도 하나의 컬러 값에 감쇠 상수가 적용될 수 있다(S980). 예를 들면, 결정된 컬러 값들 중 모든 컬러 값에 감쇠 상수가 적용될 수 있다. 다른 예로, 결정된 컬러 값들 중 제1 표면 점에 대응하는 제1 복셀의 컬러 값에만 감쇠 상수가 적용될 수 있다. 또한, 감쇠 상수는 R, G, B 별로 서로 다르게 적용될 수 있다. 구체적으로, R, G, B 값에 대한 감쇠 상수는 [수학식 2]와 같이 적용될 수 있다.
적어도 하나의 제1 복셀의 컬러 값에 대하여 감쇠 상수가 적용되면, 제1 복셀들의 컬러 값들이 누적되고, 제1 복셀들에 대한 불투명도 값들이 누적된다(S990). 누적된 컬러 값은 제1 광선이 발사된 픽셀(Pe)의 컬러 값에 대응된다. 그리고 누적된 불투명도 값은 제1 광선이 발사된 픽셀(Pe)의 불투명도 값에 대응된다.
제1 평면(De)의 모든 픽셀들을 대상으로 상술한 동작들(S950 내지 S990)이 수행되면, 가상 조명에 따라 대상체(10')가 반투명하게 표현된 투영 영상이 획득될 수 있다.
획득된 투영 영상은 디스플레이부(220)를 통해 디스플레이된다.
이상으로 본 발명의 실시예들을 설명하였다. 전술한 실시예들에서 일부 구성요소들은 일종의 '모듈(module)'로 구현될 수 있다. 여기서, '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다.
일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 게다가, 상기 구성요소들 및 모듈들은 디바이스 내에서 하나 또는 그 이상의 CPU를 실행할 수 있다.
본 발명의 일부 실시예들은 전술한 실시예의 적어도 하나의 처리 요소를 제어하기 위한 컴퓨터 판독 가능한 코드/명령을 포함하는 매체 예를 들면, 컴퓨터 판독 가능한 매체를 통해 구현될 수도 있다. 상기 매체는 상기 컴퓨터 판독 가능한 코드의 저장 및/또는 전송을 가능하게 하는 매체/매체들에 대응할 수 있다.
상기 컴퓨터 판독 가능한 코드는, 매체에 기록될 수 있을 뿐만 아니라, 인터넷을 통해 전송될 수도 있는데, 상기 매체는 예를 들어, ROM, RAM, CD-ROM, 마그네틱 테이프, 플로피 디스크, 광학 기록 매체, 인터넷을 통한 데이터 전송(data transmission)과 같은 반송파(carrier wave)를 포함할 수 있다. 또한, 상기 매체는 비일시적인 컴퓨터로 판독 가능한 매체일 수도 있다. 상기 매체들은 분산 네트워크일 수도 있으므로, 컴퓨터로 읽을 수 있는 코드는 분산 방식으로 저장/전송되고 실행될 수 있다. 또한 더 나아가, 단지 일 예로써, 처리 요소는 프로세서 또는 컴퓨터 프로세서를 포함할 수 있고, 상기 처리 요소는 하나의 디바이스 내에 분산 및/또는 포함될 수 있다.
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다.
20: 초음파 영상 장치
200: 본체
210: 입력부
220: 디스플레이부
230: 프로브
240: 제어부
250: 송신 빔포머
260: 수신 빔포머
270: 영상 처리부
271: 볼륨 데이터 생성부
272: 볼륨 렌더링부
280: 저장부

Claims (15)

  1. 대상체에 대한 볼륨 데이터를 생성하는 볼륨 데이터 생성부; 및
    상기 볼륨 데이터를 사용자 시점을 기준으로 제1 평면에 투영시켜 투영 영상을 획득하는 볼륨 렌더링부를 포함하되,
    상기 볼륨 렌더링부는 상기 볼륨 데이터의 표면을 구성하는 점들 중 상기 사용자 시점에서 보여지는 제1 표면 점들과 가상 조명 위치에서 보여지는 제2 표면 점들 간의 거리에 따라 상기 투영 영상의 각 픽셀의 값을 결정하는, 영상 처리 장치.
  2. 제 1 항에 있어서,
    상기 볼륨 렌더링부는
    상기 볼륨 데이터를 구성하는 복셀들 중에서, 상기 사용자 시점에서부터 제1 평면의 픽셀을 향하여 발사된 제1 광선이 투과하는 제1 복셀들을 검출하는 제1 복셀 검출부;
    2차원 컬러맵에 기초하여 상기 제1 복셀들의 컬러 값들을 각각 결정하는 컬러 값 결정부; 및
    상기 제1 복셀들의 컬러 값들 중 적어도 하나의 컬러 값에 상기 제1 표면 점들과 상기 제2 표면 점들 간의 거리에 따른 감쇠 상수를 적용하는 감쇠부를 포함하는, 영상 처리 장치.
  3. 제 2 항에 있어서,
    상기 2차원 컬러맵은 상기 대상체에 대한 샘플 영상의 색역에 기초하여 생성되며,
    상기 2차원 컬러맵의 가로축을 따라 상기 색역 내의 밝기 값이 변하도록 매핑되고,
    상기 2차원 컬러맵의 세로축을 따라 상기 색역 내의 채도 및 색상이 변하도록 매핑되며,
    상기 가로축 및 세로축을 따라 매핑된 밝기, 채도 및 색상은 R, G, B 값으로 변환되어 저장되는, 영상 처리 장치.
  4. 제 3 항에 있어서,
    상기 컬러 값 결정부는
    상기 2차원 컬러맵의 가로축에서 상기 제1 복셀들의 강도 값에 대응하는 좌표값들을 검색하고,
    상기 2차원 컬러맵의 세로축에서 상기 제1 복셀들의 깊이 값에 대응하는 좌표값들을 검색하고,
    상기 검색된 좌표값들에 대응하는 R, G, B값들을 상기 제1 복셀들의 컬러 값으로 각각 결정하는, 영상 처리 장치.
  5. 제 2 항에 있어서,
    상기 제1 복셀들의 컬러 값들은 각각 R, G, B값을 포함하며,
    상기 감쇠부는 상기 R, G, B값 별로 서로 다른 감쇠 상수를 적용하는, 영상 처리 장치.
  6. 제 2 항에 있어서,
    상기 볼륨 렌더링부는 상기 제1 복셀들의 컬러 값들 중 상기 감쇠 상수가 적용된 컬러 값들과 상기 감쇠 상수가 적용되지 않은 컬러 값들을 누적한 값을 상기 제1 평면의 상기 픽셀의 컬러 값으로 결정하는 영상 생성부를 더 포함하는, 영상 처리 장치.
  7. 제 1 항에 있어서,
    상기 볼륨 렌더링부는
    상기 제1 복셀들의 불투명도 값들을 누적한 값을 상기 제1 평면의 상기 픽셀의 불투명도 값으로 결정하는 영상 생성부를 더 포함하는, 영상 처리 장치.
  8. 제 1 항에 있어서,
    상기 투영 영상을 디스플레이하는 디스플레이부를 더 포함하는, 영상 처리 장치.
  9. 대상체에 대한 볼륨 데이터를 생성하는 단계; 및
    상기 볼륨 데이터를 사용자 시점을 기준으로 제1 평면에 투영시켜 투영 영상을 획득하는 단계를 포함하되,
    상기 투영 영상을 획득하는 단계는 상기 볼륨 데이터의 표면을 구성하는 점들 중 상기 사용자 시점에서 보여지는 제1 표면 점들과 가상 조명 위치에서 보여지는 제2 표면 점들 간의 거리에 따라 상기 투영 영상의 각 픽셀의 값을 결정하는 단계를 포함하는, 영상 처리 방법.
  10. 제 9 항에 있어서,
    상기 투영 영상을 획득하는 단계는
    상기 볼륨 데이터를 구성하는 복셀들 중에서, 상기 사용자 시점에서부터 제1 평면의 픽셀을 향하여 발사된 제1 광선이 투과하는 제1 복셀들을 검출하는 단계;
    2차원 컬러맵에 기초하여 상기 제1 복셀들의 컬러 값들을 각각 결정하는 단계; 및
    상기 제1 복셀들의 컬러 값들 중 적어도 하나의 컬러 값에 상기 제1 표면 점들과 상기 제2 표면 점들 간의 거리에 따른 감쇠 상수를 적용하는 단계를 포함하는, 영상 처리 방법.
  11. 제 10 항에 있어서,
    상기 2차원 컬러맵은 상기 대상체에 대한 샘플 영상의 색역에 기초하여 생성되며,
    상기 2차원 컬러맵의 가로축을 따라 상기 색역 내의 밝기 값이 변하도록 매핑되고,
    상기 2차원 컬러맵의 세로축을 따라 상기 색역 내의 채도 및 색상이 변하도록 매핑되며,
    상기 가로축 및 세로축을 따라 매핑된 밝기, 채도 및 색상은 R, G, B 값으로 변환되어 저장되는, 영상 처리 방법.
  12. 제 11 항에 있어서,
    상기 제1 복셀들의 컬러 값을 결정하는 단계는
    상기 2차원 컬러맵의 가로축에서 상기 제1 복셀들의 강도 값에 대응하는 좌표값들을 검색하는 단계;
    상기 2차원 컬러맵의 세로축에서 상기 제1 복셀들의 깊이 값에 대응하는 좌표값들을 검색하는 단계; 및
    상기 검색된 좌표값들에 대응하는 R, G, B값들을 상기 제1 복셀들의 컬러 값으로 각각 결정하는 단계를 포함하는, 영상 처리 방법.
  13. 제 10 항에 있어서,
    상기 제1 복셀들의 컬러 값들은 각각 R, G, B값을 포함하며,
    상기 감쇠 상수를 적용하는 단계는
    상기 R, G, B값 별로 서로 다른 감쇠 상수를 적용하는 단계를 포함하는, 영상 처리 방법.
  14. 제 10 항에 있어서,
    상기 제1 복셀들의 컬러 값들 중 상기 감쇠 상수가 적용된 컬러 값들과 상기 감쇠 상수가 적용되지 않은 컬러 값들을 누적한 값을 상기 제1 평면의 상기 픽셀의 컬러 값으로 결정하는 단계를 더 포함하는, 영상 처리 방법.
  15. 제 9 항에 있어서,
    상기 제1 복셀들의 불투명도 값들을 누적한 값을 상기 제1 평면의 상기 픽셀의 불투명도 값으로 결정하는 단계를 더 포함하는, 영상 처리 방법.
KR1020130108453A 2013-09-10 2013-09-10 영상 처리 장치 및 영상 처리 방법 KR102111626B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130108453A KR102111626B1 (ko) 2013-09-10 2013-09-10 영상 처리 장치 및 영상 처리 방법
US14/336,269 US9401040B2 (en) 2013-09-10 2014-07-21 Image processing apparatus and imaging processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130108453A KR102111626B1 (ko) 2013-09-10 2013-09-10 영상 처리 장치 및 영상 처리 방법

Publications (2)

Publication Number Publication Date
KR20150029353A true KR20150029353A (ko) 2015-03-18
KR102111626B1 KR102111626B1 (ko) 2020-05-15

Family

ID=52625672

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130108453A KR102111626B1 (ko) 2013-09-10 2013-09-10 영상 처리 장치 및 영상 처리 방법

Country Status (2)

Country Link
US (1) US9401040B2 (ko)
KR (1) KR102111626B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159867A1 (ko) * 2017-02-28 2018-09-07 메디컬아이피 주식회사 3차원 의료영상 제어 방법 및 그 장치
KR20200051784A (ko) * 2017-09-15 2020-05-13 인터디지털 브이씨 홀딩스 인코포레이티드 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들
KR20200083616A (ko) * 2017-11-23 2020-07-08 인터디지털 브이씨 홀딩스 인코포레이티드 볼류메트릭 비디오를 인코딩/디코딩하기 위한 방법, 장치 및 스트림
KR20210027483A (ko) * 2018-07-13 2021-03-10 인터디지털 브이씨 홀딩스 인코포레이티드 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056143A (ja) * 2013-09-13 2015-03-23 ソニー株式会社 情報処理装置および情報処理方法
US11259782B2 (en) * 2017-06-20 2022-03-01 Canon Medical Systems Corporation Medical imaging data processing apparatus and method
CN108520542B (zh) * 2018-03-29 2020-10-09 明峰医疗***股份有限公司 一种pet/ct数据时相匹配的重建方法
CN110313940B (zh) * 2019-08-01 2021-06-01 无锡海斯凯尔医学技术有限公司 信号衰减计算方法、装置、设备及计算机可读存储介质
WO2021253293A1 (zh) * 2020-06-17 2021-12-23 深圳迈瑞生物医疗电子股份有限公司 超声造影成像方法、超声成像装置和存储介质
JP2022162830A (ja) * 2021-04-13 2022-10-25 キヤノンメディカルシステムズ株式会社 超音波診断装置、画像処理装置、およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916805A (ja) * 1995-06-29 1997-01-17 Hitachi Ltd 高速3次元画像生成装置および方法
JPH1153576A (ja) * 1997-08-07 1999-02-26 Oki Electric Ind Co Ltd 天空画像作成装置
WO2000004505A1 (en) * 1998-07-16 2000-01-27 The Research Foundation Of State University Of New York Apparatus and method for real-time volume processing and universal 3d rendering
KR20090014180A (ko) * 2006-05-31 2009-02-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 깊이가 가중된 컬러화를 이용한 볼륨 렌더링 방법 및 장치
JP2010082294A (ja) * 2008-10-01 2010-04-15 Toshiba Corp X線診断装置
JP2012005593A (ja) * 2010-06-23 2012-01-12 Hitachi Medical Corp 三次元超音波画像を生成表示する超音波診断装置
JP2012143547A (ja) * 2010-12-24 2012-08-02 Canon Inc 被検体情報取得装置及び被検体情報取得方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4116143B2 (ja) 1998-04-10 2008-07-09 株式会社東芝 超音波診断装置
IL127314A0 (en) 1998-11-27 1999-09-22 Algotec Systems Ltd A method for forming a perspective rendering from a voxel space
JP4563421B2 (ja) * 2007-05-28 2010-10-13 ザイオソフト株式会社 画像処理方法及び画像処理プログラム
JP5562339B2 (ja) * 2009-07-24 2014-07-30 株式会社日立メディコ 医用画像表示装置及び医用画像表示方法
KR20110022445A (ko) 2009-08-27 2011-03-07 서강대학교산학협력단 초음파 영상 구현 시스템 및 그 방법
KR101253608B1 (ko) 2010-12-27 2013-04-11 서강대학교산학협력단 합성영상을 생성하는 방법 및 이를 이용한 초음파 영상 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916805A (ja) * 1995-06-29 1997-01-17 Hitachi Ltd 高速3次元画像生成装置および方法
JPH1153576A (ja) * 1997-08-07 1999-02-26 Oki Electric Ind Co Ltd 天空画像作成装置
WO2000004505A1 (en) * 1998-07-16 2000-01-27 The Research Foundation Of State University Of New York Apparatus and method for real-time volume processing and universal 3d rendering
KR20090014180A (ko) * 2006-05-31 2009-02-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 깊이가 가중된 컬러화를 이용한 볼륨 렌더링 방법 및 장치
JP2010082294A (ja) * 2008-10-01 2010-04-15 Toshiba Corp X線診断装置
JP2012005593A (ja) * 2010-06-23 2012-01-12 Hitachi Medical Corp 三次元超音波画像を生成表示する超音波診断装置
JP2012143547A (ja) * 2010-12-24 2012-08-02 Canon Inc 被検体情報取得装置及び被検体情報取得方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159867A1 (ko) * 2017-02-28 2018-09-07 메디컬아이피 주식회사 3차원 의료영상 제어 방법 및 그 장치
KR20200051784A (ko) * 2017-09-15 2020-05-13 인터디지털 브이씨 홀딩스 인코포레이티드 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들
KR20200083616A (ko) * 2017-11-23 2020-07-08 인터디지털 브이씨 홀딩스 인코포레이티드 볼류메트릭 비디오를 인코딩/디코딩하기 위한 방법, 장치 및 스트림
KR20210027483A (ko) * 2018-07-13 2021-03-10 인터디지털 브이씨 홀딩스 인코포레이티드 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들

Also Published As

Publication number Publication date
KR102111626B1 (ko) 2020-05-15
US9401040B2 (en) 2016-07-26
US20150071516A1 (en) 2015-03-12

Similar Documents

Publication Publication Date Title
KR102111626B1 (ko) 영상 처리 장치 및 영상 처리 방법
CN105263420B (zh) 3d超声成像***
KR102002408B1 (ko) 초음파 영상 생성 장치 및 방법
JP6629094B2 (ja) 超音波診断装置、医用画像処理装置及び医用画像処理プログラム
KR102539901B1 (ko) 2차원 초음파 이미지를 음영화하는 방법 및 시스템
JP6608126B2 (ja) 超音波診断装置
WO2007043310A1 (ja) 画像表示方法及び医用画像診断システム
US20180008232A1 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
CN106456112B (zh) 用于以期望的取向定位3d超声体积的成像***和方法
JP2008508018A (ja) 画像化ジオメトリのパラメタの自動決定
US11712224B2 (en) Method and systems for context awareness enabled ultrasound scanning
JP6720001B2 (ja) 超音波診断装置、及び医用画像処理装置
JP2009011468A (ja) 超音波診断装置
JP2018079070A (ja) 超音波診断装置、及び走査支援プログラム
US9589387B2 (en) Image processing apparatus and image processing method
US20140330121A1 (en) Ultrasonic imaging apparatus and control method thereof
US9449425B2 (en) Apparatus and method for generating medical image
JP6890677B2 (ja) 3dボリューム内に埋め込まれ、mpr図の十字線に結合された仮想光源
KR101851221B1 (ko) 초음파 영상 장치 및 그 제어 방법
US11881301B2 (en) Methods and systems for utilizing histogram views for improved visualization of three-dimensional (3D) medical images
US20230181165A1 (en) System and methods for image fusion
US11382595B2 (en) Methods and systems for automated heart rate measurement for ultrasound motion modes
US20230267618A1 (en) Systems and methods for automated ultrasound examination
JP2013135974A (ja) 超音波診断装置
CN113939234A (zh) 超声波诊断装置、医用图像处理装置以及医用图像处理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant