KR20180106915A - 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템 - Google Patents

오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템 Download PDF

Info

Publication number
KR20180106915A
KR20180106915A KR1020180029562A KR20180029562A KR20180106915A KR 20180106915 A KR20180106915 A KR 20180106915A KR 1020180029562 A KR1020180029562 A KR 1020180029562A KR 20180029562 A KR20180029562 A KR 20180029562A KR 20180106915 A KR20180106915 A KR 20180106915A
Authority
KR
South Korea
Prior art keywords
image
region
index
area
positioning
Prior art date
Application number
KR1020180029562A
Other languages
English (en)
Other versions
KR102049328B1 (ko
Inventor
유키노부 사카타
야스노리 다구치
류스케 히라이
게이코 오카야
신이치로 모리
Original Assignee
도시바 에너지시스템즈 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 도시바 에너지시스템즈 가부시키가이샤 filed Critical 도시바 에너지시스템즈 가부시키가이샤
Publication of KR20180106915A publication Critical patent/KR20180106915A/ko
Application granted granted Critical
Publication of KR102049328B1 publication Critical patent/KR102049328B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • A61B6/035Mechanical aspects of CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4007Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units
    • A61B6/4014Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units arranged in multiple source-detector units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/485Diagnostic techniques involving fluorescence X-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1039Treatment planning systems using functional images, e.g. PET or MRI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1059Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using cameras imaging the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • A61N2005/1061Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source
    • A61N2005/1062Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam using an x-ray imaging system having a separate imaging source using virtual X-ray images, e.g. digitally reconstructed radiographs [DRR]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N2005/1074Details of the control system, e.g. user interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1037Treatment planning systems taking into account the movement of the target, e.g. 4D-image based planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Urology & Nephrology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pulmonology (AREA)
  • Radiation-Therapy Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

오브젝트 위치 결정 장치는, 형광투시 촬영 장치(fluoroscopic imaging apparatus)가 오브젝트를 촬영하게 함으로써 생성되고 제1 영역 및 제2 영역을 포함하는 방사선 이미지를 취득하도록 구성된 방사선 이미지 입력 인터페이스 ― 상기 제1 영역은 상기 오브젝트의 위치 결정을 위한 인덱스 영역을 나타내고, 상기 제2 영역은 상기 인덱스 영역 이외의 비인덱스 영역을 나타냄 ―; 및 상기 비인덱스 영역의 3차원 모델 정보에 의거하여 상기 방사선 이미지로부터 특정되는 제1 영역과 미리 생성된 참조 이미지 사이의 매칭 처리를 행함으로써 상기 오브젝트의 위치 결정을 행하도록 구성된 위치 결정 프로세서를 포함한다.

Description

오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템{OBJECT POSITIONING APPARATUS, OBJECT POSITIONING METHOD, OBJECT POSITIONING PROGRAM, AND RADIATION THERAPY SYSTEM}
본 출원은 2017년 3월 16일자로 출원된 일본국 특허출원 제2017-051076호에 의거하여 우선권을 주장하며, 그 전체 내용은 본원에 참조에 의해 포함된다.
본 발명의 실시예들은, 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템에 관한 것이다.
방사선 치료에서는, 치료 계획 시에, CT(Computed Tomography) 장치를 사용해서 취득된 3차원 이미지에 의거하여 DRR(Digitally Reconstructed Radiograph) 이미지를 생성하고, 방사선의 조사 전에 환자를 촬영해서 얻은 X선 이미지와 DRR 이미지 사이의 매칭 처리를 행함으로써 환자의 위치 결정을 실시한다. 여기서, 치료 계획 시에, 침대나 의료용 구속 수단 등의 불필요한 오브젝트를 나타내는 화소 영역이 3차원 이미지에 포함되어 있을 경우에도 환자의 화소 영역만을 추출해서 나타내는 DRR 이미지를 생성하는 기술이 있다.
일본국 특허공개 공보 제2016-101358호
상술한 기술에서는, 치료 계획 시에 생성된 DRR 이미지(즉, 참조 이미지)로부터 침대 및 의료용 구속 수단 등의 불필요한 오브젝트들을 나타내는 화소 영역들이 제거되어도, 방사선 조사 전의 X선 이미지(즉, 촬영 이미지 또는 방사선 이미지)가, 침대 및 의료용 구속 수단 등의 불필요한 화소 영역들을 포함하는 상태에 있다. 이러한 불필요한 화소 영역들은 환자의 위치 결정의 방해물이 되어, 환자의 위치 결정을 행하기 어렵다는 문제가 있다.
상술한 문제점을 감안해서, 본 발명의 실시예들의 목적은, 방사선 이미지와 참조 이미지 사이의 매칭 정확도를 향상시키고 환자의 위치 결정을 용이하게 할 수 있는 오브젝트 위치 결정 기술을 제공하는데 있다.
본 발명의 일 실시예에 있어서, 오브젝트 위치 결정 장치는,
형광투시 촬영 장치(fluoroscopic imaging apparatus)가 오브젝트를 촬영하게 함으로써 생성되고 제1 영역 및 제2 영역을 포함하는 방사선 이미지를 취득하도록 구성된 방사선 이미지 입력 인터페이스 ― 상기 제1 영역은 상기 오브젝트의 위치 결정을 위한 인덱스 영역을 나타내고, 상기 제2 영역은 상기 인덱스 영역 이외의 비인덱스 영역을 나타냄 ―; 및 상기 비인덱스 영역의 3차원 모델 정보에 의거하여 상기 방사선 이미지로부터 특정되는 제1 영역과 미리 생성된 참조 이미지 사이의 매칭 처리를 행함으로써 상기 오브젝트의 위치 결정을 행하도록 구성된 위치 결정 프로세서를 포함한다.
본 발명의 실시예에 따르면, 방사선 이미지와 참조 이미지 사이의 매칭 정확도가 향상될 수 있고 환자의 위치 결정이 용이해질 수 있는 오브젝트 위치 결정 기술이 제공된다.
도 1은 제1 실시예에 따른 방사선 치료 시스템을 도시하는 구성도.
도 2는 제1 실시예에 따른 위치 결정 장치를 도시하는 블록도.
도 3은 X선 조사 장치, X선 검출기 및 오브젝트 사이의 관계를 도시하는 개략도.
도 4는 위치 결정 처리의 전반부를 도시하는 플로차트.
도 5는 도 4에 후속하는 위치 결정 처리의 후반부를 도시하는 플로차트.
도 6의 (a)는 특정 영역을 제거하기 전의 X선 이미지에 대한 이미지 처리를 도시하는 개략도.
도 6의 (b)는 특정 영역을 제거한 후의 X선 이미지에 대한 이미지 처리를 도시하는 개략도.
도 7의 (a) 내지 도 7의 (c)는 X선 이미지와 DRR 이미지 사이의 매칭 처리를 도시하는 개략도.
도 8의 (a) 및 도 8의 (b)는 제1 실시예의 일 변형예에 따른 제2 화소 영역을 제거하기 전후의 X선 이미지에 대한 이미지 처리를 도시하는 개략도.
도 9의 (a) 내지 도 9의 (c)는 도 8의 (b)에 후속하는 변형예에서의 X선 이미지와 DRR 이미지 사이의 매칭 처리를 도시하는 개략도.
도 10의 (a) 및 도 10의 (b)는 제1 실시예의 다른 변형예에 따른 이미지 처리 기술을 도시하는 개략도.
도 11의 (a) 및 도 11의 (b)는 도 10의 (b)에 후속하는 변형예에 따른 이미지 처리 기술을 도시하는 개략도.
도 12의 (a) 및 도 12의 (b)는 도 11의 (b)에 후속하는 변형예에 따른 이미지 처리 기술을 도시하는 개략도.
도 13의 (a) 내지 도 13의 (c)는 도 12의 (b)에 후속하는 변형예에 따른 이미지 처리 기술을 도시하는 개략도이다.
도 14의 (a) 및 도 14의 (b)는 도 13의 (c)에 후속하는 변형예에 따른 이미지 처리 기술을 도시하는 개략도.
도 15의 (a) 및 도 15의 (b)는 도 14의 (b)에 후속하는 변형예에 따른 이미지 처리 기술을 도시하는 개략도.
도 16은 제2 실시예에 따른 방사선 치료 시스템을 도시하는 구성도.
도 17은 제2 실시예에 따른 위치 결정 장치를 도시하는 블록도.
(제1 실시예)
이하, 첨부된 도면을 참조해서 실시예들을 설명한다. 먼저, 도 1 내지 도 15의 (b)를 참조해서 제1 실시예에 따른 오브젝트 위치 결정 장치를 설명한다. 도 1의 참조 부호 1은 방사선 치료에 사용되는 방사선 치료 시스템을 표시하고, 여기서 환자(P)의 몸에 발생한 종양 등의 병변 부위(G)에 방사선(R)이 조사된다. 치료에 사용되는 방사선(R)은, 예를 들면 X선, γ선, 전자선, 양성자 빔, 중성자 빔, 및 중입자(heavy particle) 빔을 포함한다.
방사선 치료가 행해질 경우, 충분한 출력을 갖는 방사선(R)이 환자(즉, 오브젝트)(P)의 병변 부위(G)(즉, 대상 부위)의 위치에 정확히 조사되어야 한다. 또한, 병변 부위(G) 근방의 정상 조직(즉, 비대상 부위)의 조사선량을 억제할 필요가 있다. 이러한 이유로, 본 실시예에서는, 치료 계획 시에 취득한 환자(P)의 이미지와 방사선 조사 시에 촬영된 환자(P)의 이미지 사이의 매칭 처리를 행함으로써 환자(P)의 위치 결정을 실시하고, 이어서 방사선(R)이 방사된다.
도 1에 나타난 바와 같이, 방사선 치료 시스템(1)을 사용한 치료 계획의 준비 시에, 3차원 볼륨 이미가 획득된다. 예를 들면, 먼저, 환자(즉, 오브젝트)(P)의 컴퓨터 단층촬영이 행해진다. 본 실시예에서는, 컴퓨터 단층촬영에 의해 환자(P)의 다양한 검사들을 행하는 건강 진단 장치(2)가 마련되어 있다. 이 건강 진단 장치(2)는, 예를 들면, X선 CT 장치로서 구성되어 있다. 건강 진단 장치(2)를 사용해서 환자(P)의 3차원 볼륨 이미지(형광투시 이미지)를 생성한다. 3차원 볼륨 이미지는, 예를 들면 복셀(voxel) 데이터로 구성된다.
본 실시예의 건강 진단 장치(2)로서는 X선 CT 장치를 예시하고 있지만, 건강 진단 장치(즉, 진단 장치)(2)는 환자(P)의 3차원 볼륨 이미지를 취득할 수 있는 임의의 다른 장치일 수 있다. 예를 들면, 건강 진단 장치(2)는 MRI(Magnetic Resonance Imaging) 장치 또는 초음파 진단 장치일 수 있다.
본 실시예의 방사선 치료 시스템(1)은 X선 촬영 장치(즉, 형광투시 촬영 장치)(3), 위치 결정 장치(4), 탑재 테이블(5), 테이블 구동 디바이스(6), 방사선 조사 장치(7), 및 조사 컨트롤러(8)를 포함한다. X선 촬영 장치(3)는 환자(P)에 대해 형광투시 촬영을 행해서 환자(P)의 X선 이미지들(40)(즉, 방사선 이미지들의 카테고리에 포함되는 형광투시 이미지들, 도 6 참조)을 생성한다. 위치 결정 장치(4)는 X선 이미지(40)에 의거하여 환자(P)의 위치 결정을 행한다. 환자(P)는 탑재 테이블(5) 상에 위치된다. 테이블 구동 디바이스(6)는 탑재 테이블(5)의 위치를 변경시킨다. 방사선 조사 장치(7)는 환자(P)의 병변 부위(G)에 방사선(R)을 조사한다. 조사 컨트롤러(8)는 방사선 조사 장치(7)를 제어한다. 또한, 환자(P)는 탑재 테이블(5) 상에 위치된 상태에서 고정구(9)에 의해 고정된다(도 3).
본 실시예의 위치 결정 장치(4)는 CPU(Central Processing Unit), ROM(Read Only Memory), RAM(Random Access Memory), 및 HDD(Hard Disc Drive) 등의 하드웨어 리소스를 포함하고, CPU에 다양한 프로그램들을 실행시킴으로써 하드웨어 리소스를 사용해서 소프트웨어에 의한 정보 처리를 달성하는 컴퓨터로서 구성된다.
또한, 본 실시예의 오브젝트 위치 결정 방법은, 컴퓨터에 다양한 프로그램들을 실행시킴으로써 달성된다.
또한, 위치 결정 장치(4)는 건강 진단 장치(2), X선 촬영 장치(3), 테이블 구동 디바이스(6), 및 조사 컨트롤러(8)에 접속되어 있다. 또한, X선 촬영 장치(3)는, 환자(P)에게 X선을 조사하도록 구성된 복수의 X선 조사부들(10), 및 환자(P)를 투과한 X선을 검출하도록 구성된 복수의 X선 검출기들(11)을 포함하고 있다. 또한, 각 X선 검출기(11)는, 예를 들면, FPD(flat panel detector) 또는 이미지 인텐시파이어로 구성된다.
본 실시예에서는, 2쌍의 X선 조사부(10) 및 X선 검출기(11)를 사용해서 서로 다른 2방향에서 동시에 X선 촬영을 행하는 방식으로, 총 2쌍의 X선 조사부(10) 및 X선 검출기(11)가 설치된다. 환자(P)에 대해 X선 촬영을 시계열적으로 연속 행함으로써, 시계열의 X선 이미지들(40)로 구성되는 동영상을 생성해도 됨을 유의한다.
실제의 X선 촬영에서는, 2방향(예를 들면, 환자(P)의 우측 및 좌측)에서 각각 촬영되는 1쌍의 X선 이미지들(40)을 생성하는데, 2쌍의 X선 조사부(10) 및 X선 검출기(11)를 사용한다. 또한, 후술하는 DRR(Digitally Reconstructed Radiograph) 이미지들(50)에 대해서도 1쌍의 이미지가 얻어진다. 1쌍의 X선 이미지(40) 및 1쌍의 DRR 이미지(50)를 사용함으로써, 3차원 위치 결정을 행할 수 있다. 단, 구성을 간소화해서 이해를 돕기 위해, 환자(P)를 일 방향(도 6의 (a) 내지 도 15의 (b))에서 촬영해서 얻은 각 X선 이미지(40) 및 각 DRR 이미지(50)를 예로 들어 이하 설명한다.
도 3에 나타난 바와 같이, 방사선 치료가 행해질 경우, 환자(P)는 탑재 테이블(즉, 침대)(5) 상에 위치되거나 통상 눕히게 된다. 예를 들면, 뇌종양 치료의 경우, 병변 부위(G)가 존재하는 환자(P)의 머리는 고정구(9)로 고정된다. 고정구(9)는 탑재 테이블(5)에 고정된 금속 고정 부재(12), 및 환자(P)의 얼굴을 덮도록 구성된 수지제의 의료용 구속 수단(13)을 포함한다. 또한, 탑재 테이블(5)은, 예를 들면 수지제의 테이블 본체(14)와, 이 테이블 본체(14)의 내부에 설치된 금속 프레임(15)을 구비하고 있다. 여기서, 병변 부위(G)가 머리에 존재하는 경우를 일 경우로서 설명하고 있지만, 본 발명의 실시예들의 적용 대상은 이러한 경우로 제한되지 않는다. 본 발명의 실시예들은 병변 부위(전형적으로, 종양)(G)가 전신의 어느 부분에 존재할 경우에도 적용될 수 있다.
고정 부재(12) 및 프레임(15) 등의 금속 컴포넌트들은 X선을 투과하기 어렵 기 때문에, 이러한 금속 컴포넌트들이 각 X선 이미지(40)에서 명확하게 나타난다. 또한, 의료용 구속 수단(13) 및 테이블 본체(14) 등의 수지제의 컴포넌트들은 X선을 투과하기 쉽기 때문에, 각 X선 이미지(40)에서는 수지제의 컴포넌트들이 거의 나타나지 않는다. 또한, X선 촬영 장치(3)에서는, 인체를 구성하는 부분들 중에서 뼈(S)의 부분이 각 X선 이미지에서 가장 명확하게 나타나게 X선의 출력이 조정된다. 이 출력 조정 하에서, X선 조사부들(10)로부터 방사된 X선은 X선 검출기들(11)에 의해 검출되어, 뼈(S)의 부분을 나타내는 각 X선 이미지(40)가 취득된다.
또한, 각 X선 이미지(40)에서 나타난 환자(P)의 뼈(S) 부분은, 본 실시예에서의 위치 결정의 인덱스(index)(즉, 인디케이터)인 인덱스 영역으로 된다. 또한, 뼈(S)를 제외한 다른 모든 부분들은, 탑재 테이블(5) 및 고정구(9)의 각각의 영역 등의 비인덱스 영역들로서 정의된다. 인체를 구성하는 각 내부 기관은 뼈(S) 이외의 부분이고, 이에 따라 각 X선 이미지(40)에서 비인덱스 영역으로서 취급됨을 유의한다.
또한, 치료 계획 시에는, 3차원 볼륨 이미지에 의거하여 환자(P)의 뼈(S)의 부분만이 나타난 하나 또는 복수의 DRR 이미지(50)가 생성된다. 또한, 참조 이미지는, 뼈(S)가 방사선 조사에 적합한 위치에 존재하도록 생성된 DRR 이미지(50)으로서 정의된다. 계속해서, DRR 이미지(예를 들면, 참조 이미지)(50)에 나타나는 뼈(S)의 위치가 방사선 치료 시에 촬영된 X선 이미지(40)에 나타나는 뼈(S)의 위치와 매칭되도록 탑재 테이블(5)을 이동시킴으로써, 환자(P)의 위치 결정이 행해진다. 본 실시예에서, 방사선 조사 장치(7)의 위치는 고정되어 있다.
치료 계획의 완료로부터 실제의 치료 개시까지 보통 몇 주의 시간 차이가 있음을 유의한다. 이 때문에, 환자(P)와 탑재 테이블(5) 및 고정구(9) 등의 각 시스템 컴포넌트 사이의 위치 관계는, 일부 경우에 치료 계획 시와 방사선 치료 시 사이에 상이하다. 또한, 일부 경우에, 치료 계획 시에 상정된 환자(P) 및 방사선 조사 장치(7)의 각각의 위치는 방사선 치료 시의 환자(P) 및 방사선 조사 장치(7)의 각각의 위치와 상이하다. 이 때문에, 치료 계획 시에 취득한 3차원 볼륨 이미지에 의거한 DRR 이미지(50)와 방사선 치료 시에 촬영한 X선 이미지(40) 사이의 매칭 처리를 정확하게 행할 필요가 있다.
그러나, 각 X선 이미지(40)에는, 고정구(9) 및 탑재 테이블(5)의 금속 컴포넌트들의 화소 영역들이 포함되어 있다. X선 이미지(40)와 DRR 이미지 사이의 매칭 처리가, 금속 컴포넌트들의 이러한 화소 영역들이 X선 이미지(40)에 포함된 상태에서 행해질 경우에, 고정구(9) 및 탑재 테이블(5)을 나타내는 화소 영역들은 매칭 처리에 장애가 되고 위치 결정 정확도를 저하시킨다. 이 때문에, 본 실시예의 매칭 처리에 앞서, X선 이미지(40)의 뼈(S)의 화소 영역을 제외한 불필요한 화소 영역들을 X선 이미지(40)로부터 제거하게 예비 이미지 처리가 행해진다(도 3, 도 6의 (a) 및 도 6의 (b)).
이하의 설명에서는, 일부 경우에, 각 X선 이미지(40)에 포함되는 화소 영역들 중에서, 환자(P)의 뼈(S)를 나타내는 각 화소 영역(즉, 인덱스 영역)을 제1 영역(41)이라 한다. 반대로, 일부 경우에, 각 X선 이미지(40)에 포함되는 화소 영역들 중에서, 환자(P) 외의 각 화소 영역(즉, 고정구(9) 등의 환자를 제외한 오브젝트를 나타내는 비인덱스 영역)을 제2 영역(42)이라 한다(도 6). 또한, 일부 경우에, 각 DRR 이미지(50)에 나타난 뼈(S)의 화소 영역을 참조 영역(51)이라 한다(도 7).
도 1에 나타난 바와 같이, 위치 결정 장치(4)는 조사 컨트롤러(8)에 접속되어 있다. 또한, 조사 컨트롤러(8)는 방사선 조사 장치(7)에 접속되어 있다. 또한, 조사 컨트롤러(8)가 위치 결정 장치(4)로부터 출력되는 조사 개시 신호를 수신할 경우, 조사 컨트롤러(8)는, 방사선 조사 장치(7)가 방사선(R)의 방사를 개시하게 방사선 조사 장치(7)를 제어한다.
도 2에 나타난 바와 같이, 건강 진단 장치(2)는, 환자(P)를 복수의 방향에서 촬영하여 얻은 투영 데이터(즉, 형광투시 이미지 데이터)를 생성하도록 구성된 투영 데이터 생성부(16)를 포함하고, 또한 투영 데이터 생성부(16)로부터 취득되는 복수의 2차원 투영 데이터에 의거하여 환자(P)의 입체적으로 3차원 볼륨 이미지를 생성하도록 구성된 3차원 이미지 생성부(17)를 포함한다. 각 3차원 볼륨 이미지는 복수의 복셀들의 정보를 포함함을 유의하다. 또한, 3차원 이미지 생성부(17)는 각 3차원 볼륨 이미지를 위치 결정 장치(4)에 출력한다.
또한, 건강 진단 장치(2)는, 컴퓨터 단층촬영을 시계열적으로 연속 행함으로써 환자(P)의 입체 동영상을 생성할 수 있다. 예를 들면, 병변 부위(G)가 환자(P)의 내부를 이동하는 부위인 경우, 병변 부위(G)의 3차원 이동에 대한 정보를 취득할 수 있다.
또한, 도 2에 나타난 바와 같이, 위치 결정 장치(4)는, 3차원 이미지 입력 인터페이스(즉, 3차원 이미지 취득 인터페이스 또는 3차원 이미지 취득 유닛)(18), 인덱스 특정 프로세서(즉, 인덱스 정의 유닛)(19), DRR 이미지 생성부(즉, DRR 이미지 생성 유닛 또는 재구성 이미지 생성부)(20), 참조 이미지 생성부(즉, 참조 이미지 생성 유닛)(21), 및 참조 이미지 메모리(즉, 참조 이미지 저장 유닛)(22)를 포함한다. 3차원 이미지 입력 인터페이스(18)는 건강 진단 장치(2)로부터 환자(P)의 3차원 볼륨 이미지를 취득한다. 인덱스 특정 프로세서(19)는, 3차원 볼륨 이미지에 포함되는 각각의 인덱스 영역 및 각각의 비인덱스 영역을 특정한다. DRR 이미지 생성부(20)는 3차원 볼륨 이미지에 의거하여 인덱스 영역의 DRR 이미지(50)를 생성한다. 참조 이미지 생성부(21)는, DRR 이미지 생성부(20)에 의해 생성된 이미지에 의거하여 참조 이미지로 취급되는 DRR 이미지(50)를 생성한다. 참조 이미지 메모리(20)는 생성된 참조 이미지(즉, DRR 이미지(50))를 저장한다.
여기서, DRR 이미지 생성부(20)는, X선 촬영 장치(3)의 기하학적 정보 및 3차원 볼륨 이미지에 의거하여 DRR 이미지(Digitally Reconstructed Radiograph)(50)를 생성한다. DRR 이미지(50)는, DRR 이미지(50)가 X선 촬영 장치(3)를 사용해서 촬영된 X선 이미지(40)와 동일한 구성을 갖도록, 3차원 볼륨 이미지에 의거하여 가상적으로 생성된 이미지이다. 또한, X선 이미지(40) 및 DRR 이미지(50)는 실질적으로 동일한 구성을 갖는 이미지이다. 상술한 인덱스 특정 프로세서(19)는, 인덱스 영역(들) 및 비인덱스 영역(들)을 특정하는 처리를 행하고 있지만, 비인덱스 영역(들)의 화소 영역을 삭제하는 처리를 행하지는 않는다. 또한, DRR 이미지 생성부(20)에 의해 생성된 DRR 이미지(50)에는, 고정구(9) 등 환자(P)를 제외한 영역 오브젝트(이하, 때때로 외부 영역이라고도 함)가 나타나 있다.
또한, 참조 이미지 생성부(21)는, DRR 이미지 생성부(20)에 의해 생성된 DRR 이미지(50)로부터 외부 영역들(즉, 고정구(9) 등의 비인덱스 영역들, 및 이 비인덱스 영역에 중첩되는 인덱스 영역의 일부)을 제거함으로써, 참조 이미지로서 취급되는 DRR 이미지(50)를 생성한다. 생성된 참조 이미지(즉, DRR 이미지(50))는 참조 이미지 메모리(22)에 저장된다. 이와 같이, 제1 영역(41)에서 제거되지 않고 남은 부분(즉, 인덱스 영역)에 대응하는 화소 영역만이 참조 이미지로서 취급되는 DRR 이미지(50)에 포함되므로, X선 이미지(40)와 DRR 이미지(50) 사이의 매칭 정확도를 향상시킬 수 있다 .
기하학적 정보는 X선 조사부들(10)의 각 위치, X선 검출기들(11)의 각 위치, 및 X선 검출기들(11)이 X선을 검출하는 평면의 방향을 나타내는 파라미터들을 포함함을 유의한다. 이 기하학적 정보는, X선 촬영 장치(3)의 설계 데이터(예를 들면, CAD 데이터) 등의 데이터에 의거하여 미리 구성된다. 이 기하학적 정보는 후술하는 바와 같이 정보 입력 인터페이스(24)에 입력되는 입력 정보이다.
또한, 기하학적 정보는, 치료 계획 시에 사용자(예를 들면, 의사)에 의해 입력되거나 외부 디바이스로부터 취득될 수 있다. 또한, DRR 이미지 생성부(20)는 미리 기하학적 정보를 저장할 수 있다. 정보 입력 인터페이스(24)는, X선 촬영 장치(3)가 이동 가능할 경우, X선 촬영 장치(3)의 가동 컴포넌트들의 이동에 따라 변화되는 X선 촬영 장치(3)의 각 상태의 기하학적 정보를 연속 취득할 수 있거나, 또는 미리 각 상태의 기하학적 정보를 저장할 수 있다.
또한, 건강 진단 장치(2)에 의해 촬영된 3차원 볼륨 이미지는 환자(P)의 화소 영역들 이외에도 탑재 테이블(5) 및 고정구(9)의 각 화소 영역들을 포함한다. 또한, 환자(P)의 화소 영역들은 뼈(S)를 나타내는 화소 영역 및 뼈(S)를 제외한 조직들을 나타내는 다른 화소 영역들을 포함한다. 이 화소 영역들의 CT값들은 서로 상이하다. 위치 결정 장치(4)의 인덱스 특정 프로세서(19)는, 3차원 볼륨 이미지의 CT값들을 분석함으로써 환자(P)의 뼈(S)의 화소 영역 및 다른 화소 영역들(즉, 비인덱스 영역들)을 특정할 수 있다. 또한, 정보 입력 인터페이스(24)에 입력된 입력 정보는 비인덱스 영역들(즉, 뼈(S)를 제외한 화소 영역들)을 특정하는데 사용될 수 있다.
뼈(S) 및 다른 부분들의 각 화소 영역을 특정하는 작업은 치료 계획 시에 사용자에 의해 행해지는 입력 동작에 의거하여 행해질 수 있음을 유의한다. 예를 들면, 사용자는 3차원 볼륨 이미지에 포함된 뼈(S)의 화소 영역을 특정하는 입력 조작을 행할 수 있다. 또한, 사용자를 보조하기 위해, 컴퓨터(즉, 위치 결정 장치(4))는 뼈(S)의 화소 영역을 자동으로 특정하도록 구성되어, 사용자가 특정된 화소 영역을 수정할 수 있다.
도 2에 나타난 바와 같이, 위치 결정 장치(4)는 X선 이미지 입력 인터페이스(즉, X선 이미지 취득 유닛)(23), 정보 입력 인터페이스(즉, 정보 입력 유닛)(24), 모델 정보 생성부(즉, 모델 정보 생성 유닛)(25), 및 모델 정보 메모리(즉, 모델 정보 저장 유닛(26))를 더 포함한다. X선 이미지 입력 인터페이스(23)는, X선 촬영 장치(3)로 환자(P)를 촬영시켜 생성되는 X선 이미지들(40)을 취득한다. 탑재 테이블(5)의 배치 상태 등의 다양한 유형의 정보가 정보 입력 인터페이스(24)에 입력된다. 모델 정보 생성부(25)는 각 비인덱스 영역의 3차원 모델 정보를 생성한다. 모델 정보 메모리(26)는 각 비인덱스 영역의 3차원 모델 정보를 저장한다.
또한, 정보 입력 인터페이스(24)에 입력되는 다양한 유형의 정보는, 예를 들면 X선 촬영 장치(3)의 기하학적 정보, 환자(P)가 위치되는 탑재 테이블(5)의 배치 상태를 나타내는 테이블 정보, 환자(P)를 고정하기 위한 고정구(9)의 배치 상태를 나타내는 고정구 정보를 포함한다. 정보 입력 인터페이스(24)에는, 사용자에 의해 다양한 유형의 정보가 입력되거나, 네트워크를 통해 다른 디바이스로부터 다양한 유형의 정보가 입력될 수 있다.
또한, 모델 정보 생성부(25)는, 예를 들면 비인덱스 영역들(즉, 상술한 인덱스 특정 프로세서(19)에 의해 특정되는 뼈(S)를 제외한 화소 영역들)에 의거하여, 비인덱스 영역들의 3차원 모델 정보를 생성한다. 통상, 모델 정보 생성부(25)는, 3차원 볼륨 이미지에서 인덱스 영역(즉, 뼈(S)의 화소 영역)과 비인덱스 영역들(즉, 뼈를 제외한 화소 영역들)을 서로 분리함으로써 비인덱스 영역들의 3차원 볼륨 이미지를 취득한다. 그 후, 모델 정보 생성부(25)는, 분리된 비인덱스 영역들의 3차원 볼륨 이미지에 의거하여, 비인덱스 영역들의 3차원 모델 정보를 생성한다.
예를 들면, 모델 정보 생성부(25)는 화소값(복셀값들) 및 화소들의 공간 연속성을 사용하여 3차원 볼륨 이미지를 복수의 영역들로 분할해서, 각 영역들간의 평균 화소값, 크기, 형상, 및 위치 관계 등의 각 분할된 영역의 정보에 의거하여 인덱스 영역 및 비인덱스 영역들을 결정한다.
추가적으로 또는 대안으로, 미리 준비된 라벨들을 각 화소들에 할당하여, 3차원 볼륨 이미지가 이 라벨들에 의거하여 복수의 영역들로 분할될 수 있다. 예를 들면, 인덱스 영역의 각 화소에 인덱스 라벨을 할당하고, 각 비인덱스 영역의 각 화소에 비인덱스 라벨이 할당되어 있는 이미지를 미리 준비한다. 또한, 이 이미지의 화소들의 주변 패턴으로부터 추출된 특징에 따라, 각 화소에 대한 비인덱스 영역의 우도(likelihood)를 계산하기 위한 사전이 생성된다. 3차원 볼륨 이미지의 각 화소에 사전을 적용함으로써, 비인덱스 영역의 우도가 계산되고, 이어서 임계값 처리가 행해져 각각의 비인덱스 영역의 화소들을 분리한다. 치료 계획 시에 비인덱스 영역(들)이 입력됨을 나타내는 정보가 있을 경우, 이 정보에 의거하여 3차원 볼륨 이미지가 분할될 수 있다.
또한, 비인덱스 영역들의 3차원 모델 정보는, 탑재 테이블(5) 및 고정구(9) 등의 기계 컴포넌트들의 구성을 나타내는 정보, 및 뼈(S)를 제외한 환자(P)를 구성하는 부분을 나타내는 정보를 포함할 수 있다. 이와 같이, 탑재 테이블(5) 및 고정구(9) 등의 비인덱스 영역들의 3차원 모델 정보는, 예를 들면, 치료 계획 시에 취득될 수 있는 환자(P)의 3차원 볼륨 이미지로부터 취득될 수 있다. 따라서, 비인덱스 영역들의 3차원 모델 정보(탑재 테이블(5) 및 고정구(9)의 설계 데이터 등)를 별도 준비하는 작업을 생략할 수 있다. 또한, 3차원 볼륨 이미지로부터 분리된 비인덱스 영역들의 각 화소 영역들은 3차원 모델 정보로서 생성되고 모델 정보 메모리(26)에 저장된다.
일 양태로서 비인덱스 영역들의 3차원 모델 정보가 3차원 볼륨 이미지에 의거하여 생성되는 방법을 설명했지만, 3차원 모델 정보를 생성하는 방법은 상술한 방법으로 제한되지 않는다. 예를 들면, 정보 입력 인터페이스(24)에 입력된 테이블 정보 또는 고정구 정보를 참조함으로써, 비인덱스 영역들의 3차원 모델 정보를 생성할 수 있다. 또한, 비인덱스 영역들의 3차원 모델 정보는 건강 진단 장치(2) 이외의 디바이스로부터 입력되거나, 의료 이미지들을 저장하는 서버로부터 입력되거나, CD 및 DVD 등의 저장 매체로부터 입력되거나, 네트워크를 통해 다른 디바이스로부터 입력될 수 있다.
도 2에 나타난 바와 같이, 위치 결정 장치(4)는 비인덱스 정보 입력 인터페이스(즉, 비인덱스 정보 취득 유닛)(27), 영역 특정 프로세서(즉, 영역 정의 유닛)(28), 이미지 프로세서(즉, 이미지 처리 유닛)(29), 위치 결정 프로세서(즉, 위치 결정 유닛 또는 위치 결정 컨트롤러)(30), 디스플레이(즉, 모니터)(31), 갭 계산부(즉, 차이 계산 유닛 또는 편차 계산 유닛)(32), 테이블 구동 디바이스(6), 및 조사 신호 출력 인터페이스(즉, 조사 신호 출력 유닛)(33)를 더 포함한다. 비인덱스 정보 입력 인터페이스(27)는 모델 정보 메모리(26)에 저장된 비인덱스 영역들에 대한 3차원 모델 정보를 취득한다. 영역 특정 프로세서(28)는, 각 비인덱스 영역의 3차원 모델 정보에 의거하여, X선 이미지(40)에서 각 비인덱스 영역의 제2 영역(42)을 특정한다. 이미지 프로세서(29)는 특정된 영역에 대한 이미지 처리를 행한다. 위치 결정 프로세서(30)는, 이미지 처리가 실시된 X선 이미지(40)의 인덱스 영역의 제1 영역(41)과 참조 이미지로서의 DRR 이미지(50)의 참조 영역(51) 사이의 매칭 처리를 행해서, 환자(P)의 위치 결정을 행한다. 디스플레이(31)는 이미지 처리가 실시된 X선 이미지(40)를 표시한다. 갭 계산부(32)는, X선 이미지(40)의 제1 영역(41)과 참조 이미지로서의 DRR 이미지(50)의 참조 영역(51) 사이의 갭량(즉, 편차량 또는 차이량)을 계산한다. 테이블 구동 디바이스(6)는 갭량에 의거하여 탑재 테이블(5)을 이동시킨다. 조사 신호 출력 인터페이스(33)는 갭량이 미리 결정된 임계값 이하일 경우 조사 개시 신호를 출력한다.
도 6의 (a)는 X선 촬영 장치(3)로 환자(P)를 촬영시킴으로써 생성되는 X선 이미지(40)를 나타내고 있다. 이 X선 이미지(40)에서, 환자(P)의 두개골(S)의 제1 영역(41) 및 고정구(9) 등의 제2 영역들(42)이 나타나 있다. 여기서, 영역 특정 프로세서(28)는, 비인덱스 정보 입력 인터페이스(27)에 의해 취득된 비인덱스 영역들의 3차원 모델 정보 및 정보 입력 인터페이스(24)에 입력된 다양한 유형의 정보에 의거하여, X선 이미지(40)에서 고정구(9) 등의 제2 영역(42)이 나타난 특정 영역들(Q)(도 6의 (a)에서는 파선 영역들에 의해 나타냄)을 각각 특정한다. 도 6의 (a)의 경우에, 각 제2 영역(42)의 일부는 제1 영역(41)의 일부(즉, 두개골(S)의 측두엽 영역)에 중첩된다. 각 특정 영역들(Q)이 제2 영역(42)에 중첩된 부분이지만, 명확히 구분하기 위해서, 각 특정 영역들(Q)을 나타내는 파선 영역들은 의도적으로 도 6의 (a)의 각 제2 영역들(42)을 나타내는 실선 영역들로부터 약간 시프트되어 있다.
본 실시예에서는, 영역 특정 프로세서(28)가 정보 입력 인터페이스(24)에 입력된 다양한 유형의 정보에 의거하여 각 특정 영역들(Q)을 특정하고 있기 때문에, X선 촬영 장치(3), 탑재 테이블(5), 및 고정구(9)의 배치 상태에 따라 외관이 변하는 각 특정 영역(Q)(즉, 제2 영역(42)이 나타나는 영역)을 특정할 수 있다. 그런데, 반드시 정보 입력 인터페이스(24)에 입력된 모든 입력 정보를 사용할 필요는 없고, 각 디바이스의 배치 상태를 나타내는 정보 항목들 중 하나만을 사용해서 각 특정 영역(Q)을 특정해도 된다. 또한, 정보 입력 인터페이스(24)에 입력되는 다양한 유형의 정보는 환자(P)의 의복 또는 착용 오브젝트들에 대한 정보를 포함할 수 있다.
도 6의 (b)에 나타난 바와 같이, 이미지 프로세서(29)는 X선 이미지(40)에서 각 특정 영역(Q)에 나타난 화소 영역들을 제거하는 이미지 처리를 행한다. 제1 실시예에서는, 특정 영역(Q)에 나타나는 제1 영역(41) 및 제2 영역 모두가 제거된다. 이 이미지 처리에서는, 특정 영역(Q)의 화소값(휘도값)을 고정값으로 대체하는 것이 바람직하다. 예를 들면, X선 이미지(40)의 각 화소의 화소값은 항상 양의 값을 가지기 때문에, 특정 영역(Q)의 각 화소값을 -1로 대체함으로써, 특정 영역들(Q)을 비특정 영역들(즉, 특정 영역들(Q)을 제외한 화소 영역들)과 구별할 수 있다. 이와 같이, 특정 영역에 나타나는 제1 영역(들)(41)(두개골(S)의 부분)만이 X선 이미지(40)에 남는다. 즉, 특정 영역(Q)에 나타나는 제2 영역들(42)은 위치 결정의 매칭 대상으로부터 제외될 수 있다.
또한, 디스플레이(31)는 이미지 처리가 행해진 X선 이미지(40)를 표시한다. 사용자는 디스플레이(31)에 표시된 X선 이미지(40)를 볼 수 있다. 즉, 위치 결정 프로세서(30)에 의해 행해지는 매칭 처리의 상태를 디스플레이(31)를 사용해서 사용자가 볼 수 있다. 여기서, 디스플레이(31)는, X선 이미지(40)와 DRR 이미지(50)가 서로 중첩되게, X선 이미지(40) 및 DRR 이미지(50)를 표시한다. 또한, 디스플레이(31)는 X선 이미지(40) 및 DRR 이미지(50)를 나열해서 표시하거나, X선 이미지(40)와 DRR 이미지(50) 모두를 번갈아 표시할 수도 있다. 이와 같이, 인덱스 영역을 이용하여 환자(P)의 위치 결정이 행해질 경우, 사용자는 디스플레이(31)에 표시되는 X선 이미지(40)에 의해 매칭 상태를 파악할 수 있다. 여기서, 위치 결정 장치(4)는, 이미지 처리가 실시된 X선 이미지(30)를 변경 또는 수정하는 사용자의 조작을 받도록 구성될 수 있다.
제1 실시예에서 디스플레이(31) 상에 이미지 처리가 실시된 X선 이미지(40)를 표시할 경우, 제거된 특정 영역(Q)은 미리 결정된 유채색으로 표시되거나 제거된 특정 영역(Q)의 화소들이 흑백 반전되어 표시될 수 있다. 추가적으로 또는 대안으로, 이 경우에, 특정된 영역(Q)은 하나의 컬러로 채색되어 표시될 수 있다.
도 7의 (a) 내지 도 7의 (c)에 나타난 바와 같이, 위치 결정 프로세서(30)는 이미지 처리가 실시된 X선 이미지(40)(도 7의 (a))와 DRR 이미지(50)(도 7의 (b)) 사이의 매칭 처리를 행해서, 환자(P)의 위치 결정을 개시한다. 참조 이미지 생성부(21)에서 참조 이미지가 생성될 경우, DRR 이미지(50)의 특정 영역(Q)의 부분 이미지(즉, 화소 영역)는 미리 삭제된다. 또한, 위치 결정 동작 전체의 일부로서, 양쪽 이미지들간의 유사 인덱스 값(즉, 환자(P)의 위치의 갭량)이 임계값 이하가 되었다고 판정될 때까지, X선 이미지(40)와 DRR 이미지(50) 사이의 매칭 처리가 실시된다(도 7의 (c)). 본 실시예에서, 상술한 2개의 이미지들간의 유사 인덱스 값은 각 이미지에서의 환자(P)의 위치들간의 갭량을 지시하고, 유사 인덱스 값이 작을수록 양쪽 이미지들간의 유사도가 높다고 상정한다. 참조 영역(51)은 제1 영역(41)에 중첩되는 화소 영역이지만, 구별을 쉽게 하기 위해, 참조 영역(51)이 나타내는 파선은 도 7의 (c)의 제1 영역(41)을 나타내는 실선으로부터 의도적으로 약간 시프트되어 있다.
또한, 갭 계산부(32)는, X선 이미지(40)와 DRR 이미지(50) 사이의 환자(P)의 위치의 갭량을 나타내는 값인 유사 인덱스 값을 계산한다. 예를 들면, X선 이미지(40)와 DRR 이미지(50) 사이의 유사 인덱스 값이 임계값을 초과할 경우, 테이블 구동 디바이스(6)가 구동되어 환자(P)가 위치된 탑재 테이블(5)을 이동시킨다. 그 후, X선 촬영이 다시 행해져 다른 X선 이미지들(40)을 얻는다. 또한, 새로 생성된 X선 이미지(40)와 DRR 이미지(50) 사이의 매칭 처리가 다시 행해진다. 이와 같이, 탑재 테이블(5)의 이동으로부터 갱신된 X선 이미지(40)와 DRR 이미지(50) 사이의 매칭 처리까지의 동작은, 갱신된 X선 이미지(40)와 DRR 이미지(50) 사이의 유사 인덱스 값이 임계값 이하가 될 때까지 반복된다.
여기서, DRR 이미지(50) 및 X선 이미지(40)의 각 화소의 좌표 위치를 (u, v)로서 정의하면, DRR 이미지(50)의 화소 위치(u, v)에서의 화소값을 I(u, v)로 표시하고, X선 이미지(40)의 화소 위치(u, v)에서의 화소값을 X(u, v)로 표시한다. 또한, DRR 이미지(50)(즉, 참조 이미지)와 X선 이미지(40)(방사선 이미지) 사이의 유사 인덱스 값(즉, 환자(P)의 위치의 갭량)을 나타내는 오차를 "e"로서 정의할 경우, 오차(e)는 이하의 식 (1) 및 (2)를 사용해서 계산된다. 식 (1) 및 (2)는, X선 이미지(40)의 특정 영역들(Q)의 각 화소의 화소값을 -1로 대체했을 때의 갭량을 계산하기 위한 식이다. 식 (1) 및 (2)의 φ는 미리 정해진 함수임을 유의한다.
식 (1)
Figure pat00001
식 (2)
Figure pat00002
오차(e)가 미리 결정된 임계값 이하가 될 때까지 환자(P)의 X선 이미지(40)를 생성하는 X선 촬영 및 탑재 테이블(5)의 이동의 조작을 반복하는 것이 바람직하다.
조사 신호 출력 인터페이스(33)는, 환자(P)의 위치 결정의 완료 후(즉, 갭 계산부(32)가 유사 인덱스 값이 임계값 이하라고 판정할 경우), 조사 개시 신호를 조사 컨트롤러(8)를 향해 출력한다. 또한, 조사 컨트롤러(8)가 위치 결정 장치(4)로부터 출력된 조사 개시 신호를 수신할 경우, 조사 컨트롤러(8)는 방사선 조사 장치(7)를 사용해서 방사선(R)의 조사를 개시한다.
다음으로, 위치 결정 장치(4)에 의해 실시되는 위치 결정 처리(즉, 위치 결정 방법)를 도 4 및 도 5의 플로차트를 참조해서 설명한다.
우선, 치료 계획 시에, 건강 진단 장치(2)를 사용해서 환자(P)를 검사함으로써, 3차원 볼륨 이미지가 생성된다.
도 4의 단계 S11에서, 위치 결정 장치(4)의 3차원 이미지 입력 인터페이스(18)는 건강 진단 장치(2)로부터 3차원 볼륨 이미지를 취득한다.
다음 단계 S12에서, X선 촬영 장치(3)의 기하학적 정보, 탑재 테이블(5)의 테이블 정보, 및 고정구(9)의 고정구 정보 등의 정보 항목들을 정보 입력 인터페이스(24)에 입력한다.
다음 단계 S13에서, 인덱스 특정 프로세서(19)는 3차원 볼륨 이미지에서의 뼈(S)의 화소 영역(즉, 인덱스 영역) 및 뼈(S)를 제외한 화소 영역들(즉, 비인덱스 영역들)을 특정한다.
다음 단계 S14에서, DRR 이미지 생성부(20)는 3차원 볼륨 이미지 및 X선 촬영 장치(3)의 기하학적 정보에 의거하여 DRR 이미지(50)를 생성한다.
다음 단계 S15에서, 참조 이미지 생성부(21)는 DRR 이미지 생성부(20)에 의해 생성된 DRR 이미지(50)로부터 고정구(9) 등의 비인덱스 영역들의 화소 영역들을 제거(즉, 제외, 삭제, 또는 소거)하여, 참조 이미지로서 취급되는 DRR 이미지(50)를 생성한다.
다음 단계 S16에서, 모델 정보 생성부(25)는, 뼈(S)의 화소 영역(즉, 인덱스 영역) 및 뼈(S)를 제외한 화소 영역들(즉, 비인덱스 영역들)이 특정되는 3차원 볼륨 이미지에 의거하여 외부 영역들(즉, 고정구(9) 등의 비인덱스 영역들)의 3차원 모델 정보를 생성한다.
다음 단계 S17에서, 비인덱스 정보 입력 인터페이스(27)는 고정구(9) 등의 외부 영역들의 3차원 모델 정보를 취득한다.
도 5의 다음 단계 S18에서, 방사선 치료가 개시된다. 방사선 치료의 개시 시에, X선 촬영 장치(3)는 환자(P)를 촬영해서 환자(P)의 X선 이미지(40)를 생성한다.
다음 단계 S19에서, X선 이미지 입력 인터페이스(23)는 X선 촬영 장치(3)로부터 이러한 X선 이미지(40)를 취득해서, 환자(P)의 위치 결정을 위한 인덱스로 되는 뼈(S)의 제1 영역(41)(즉, 인덱스 영역) 및 뼈(S)를 제외한 다른 부분들의 제2 영역들(42)(즉, 비인덱스 영역들)이 포함된다.
다음 단계 S20에서, 영역 특정 프로세서(28)는 X선 이미지(40)에서 고정구(9) 등의 제2 영역들(42)이 나타난 특정 영역(Q)을 특정한다.
다음 단계 S21에서는, 이미지 프로세서(29)는 X선 이미지(40)의 특정 영역(Q)에 나타난 부분 이미지(즉, 화소 영역)를 제거하는 이미지 처리를 행한다.
다음 단계 S22에서, 디스플레이(31)는 이미지 처리가 실시된 X선 이미지(40)를 표시한다.
다음 단계 S23에 있어서, 위치 결정 프로세서(30)는, 이미지 처리가 실시된 X선 이미지(40)와 참조 이미지로서 생성된 DRR 이미지(50) 사이의 매칭 처리를 행해서, 환자(P)의 위치 결정을 개시한다.
다음 단계 S24에서는, 갭 계산부(32)는 X선 이미지(40)와 DRR 이미지(50) 사이의 유사 인덱스 값을 계산하고, 여기서 유사 인덱스 값은 양쪽 이미지들간의 환자(P)의 위치의 갭량을 나타내는 값이다.
다음 단계 S25에서, 갭 계산부(32)는, 계산된 유사 인덱스 값(양쪽 이미지들간의 유사도를 평가하기 위한 것)이 임계값을 초과하는지의 여부를 판정한다.
유사 인덱스 값이 임계값 이하인 경우, 처리는 단계 S26으로 진행해, 조사 컨트롤러(8)는 조사 개시 신호를 조사 컨트롤러(8)에 출력하고 위치 결정 처리가 완료된다.
반대로, 유사 인덱스 값이 임계값을 초과할 경우, 처리는 단계 S27로 진행해, 테이블 구동 디바이스(6)가 구동되어 환자(P)가 위치된 탑재 테이블(5)을 이동시키고, 이어서 처리는 단계 S18로 되돌아 간다. 탑재 테이블(5)의 이동과 관련하여, X선 이미지(40)와 DRR 이미지(50) 사이의 갭량(즉, 차이)에 의거하여 탑재 테이블(5)의 이동 방향 및/또는 이동량을 조정할 수 있다.
또한, 본 실시예의 플로우차트에서는, 각 단계를 시계열적으로 실행하는 형태를 나타내고 있지만, 각 단계의 실행 순서는 반드시 고정되는 아니고, 일부의 단계들의 실행 순서를 변경할 수도 있다. 또한, 일부 단계들은 다른 단계와 병렬적으로 실행해질 수 있다.
제1 실시예에서는, 제2 영역(42)의 제거 등의 이미지 처리를 실행하기 전에 영역 특정 프로세서(28)가 X선 이미지(40)에서 특정 영역(Q)(즉, 제2 영역(42)을 포함하는 영역)을 특정하므로, X선 이미지(40) 전체에 이미지 처리를 행할 필요가 없다. 즉, 이미지 처리가 행해지는 면적(화소 수)을 최소로 할 수 있다. 따라서, 실시간 처리가 효율적으로 행해질 수 있다. 상술한 제1 실시예의 기술에 따르면, 특정 영역(Q)의 화소들에 대한 처리를 행하는 것으로 충분하므로, 이미지 전체의 화소들이 이미지 처리가 실시되는 경우와 비교해, 이미지 처리의 부하를 줄일 수 있다. 예를 들면, 환자(오브젝트)(P)의 위치 결정 시에, X선 촬영 장치(3)는 환자(P)의 위치가 변경될 때마다 환자(P)를 다시 촬영해서 X선 이미지(40)를 생성하므로, 다수의 X선 이미지들(40)을 처리할 필요가 있다. 그러나, 제1 실시예에서는, 환자(P)의 위치 결정 시에 이러한 처리의 부하를 줄일 수 있다.
추가적으로, 제1 실시예에서, 이미지들은 환자(P)의 위치 결정이 행해질 때 환자(P)를 촬영함으로써 생성된 2차원 X선 이미지들(40)이고, 위치 결정 프로세서(30)는 DRR 이미지(50)를 참조 이미지로서 사용해서 환자(P)의 위치 결정을 행한다. 이와 같이, 위치 결정에 사용되는 방사선 이미지를 생성하기 위해 환자(P)를 촬영할 경우, 2차원 X선 이미지(40)를 생성하면 충분하고, 이에 따라 환자(P)의 X선에의 노출을 줄일 수 있다.
이미지 프로세서(29)는 제1 실시예에서 특정 영역(Q)에 포함되는 제1 영역(들)(41) 및 제2 영역(42) 모두를 완전히 제거하도록 구성되어 있지만, 반드시 제1 영역(들)(41) 및 제2 영역(들)(42) 모두를 완전히 제거할 필요는 없다. 예를 들면, 제1 영역(들)(41) 및 제2 영역(들)(42) 모두를 제거하는 대신에, 특정 영역(Q)에 포함되는 제1 및 제2 영역들(41 및 42)의 각 화소의 화소값을, 특정 영역(Q)의 외측에 위치되는 제1 영역(41)의 각 화소의 화소값보다 낮아지게 줄일 수도 있다.
제1 실시예에서는, 치료 계획 시에, 환자(P)를 촬영함으로써 생성되는 3차원 볼륨 이미지에 의거하여 비인덱스 영역(들)의 3차원 모델 정보가 생성된다. 그러나, 3차원 모델 정보는 다른 방법으로 취득될 수 있다. 예를 들면, 비인덱스 영역(들)의 3차원 모델 정보가 외부로부터 입력될 수 있다.
다음으로, 제1 실시예의 일 변형예에 따른 X선 이미지(40)에 대한 이미지 처리를 도 8의 (a) 내지 도 9의 (c)를 참조해서 설명한다. 또한, 각 도면에 있어서, 상술한 제1 실시예와 동일한 컴포넌트들에 대해서는 동일한 참조 부호를 부여하고, 중복되는 설명을 생략함을 유의한다.
도 8의 (a)에 나타난 바와 같이, X선 이미지(40)(즉, 방사선 이미지의 카테고리에 포함되는 형광투시 이미지)는 환자(P)의 두개골(S)의 제1 영역(41) 및 고정구(9) 등의 제2 영역들(42)을 포함한다. 여기서, 영역 특정 프로세서(28)는, 비인덱스 정보 입력 인터페이스(27)에 의해 취득된 인덱스 영역(들)의 3차원 모델 정보 및 정보 입력 인터페이스(24)에 입력된 다양한 유형의 정보에 의거하여, X선 이미지(40)에서 고정구(9) 등의 제2 영역(들)(42)이 포함되는 특정 영역(Q)을 특정한다. 도 8의 (a)의 경우에, 제2 영역들(42) 각각의 일부는 제1 영역(41)(즉, 두개골(S)의 측두엽)의 일부에서 중첩된다. 각 특정 영역(Q)은 각 제2 영역(42)에 중첩되는 부분이지만, 각 특정 영역들(Q)을 나타내는 파선 영역들은 구별을 쉽게 하기 위해, 도 8의 (a)의 각 제2 영역들(42)을 나타내는 실선 영역들로부터 의도적으로 약간 시프트된다.
상술한 위치 결정 처리의 일부로서의 단계 S21의 이미지 처리에서, 이미지 프로세서(29)는 도 8의 (b)에 나타난 바와 같이, X선 이미지(40)에서 특정 영역들(Q)에 포함되는 모든 제2 영역(42)을 제거한다. 상술한 제1 실시예의 경우에는 특정 영역(Q)의 제1 영역(들)(41) 및 제2 영역(들)(42)이 모두 제거되지만, 본 변형예에서는, 특정 영역(Q)에 포함되는 제1 영역(41)은 남고 제2 영역들(42)만이 제거된다.
이 이미지 처리에서는, DRR 이미지 생성부(20)에 의해 생성된 DRR 이미지(50)(도 9의 (b))에 의거하여, X선 이미지(40)에 포함될 것으로 예상되는 제2 영역(들)의 각 화소들의 화소값들(또는 휘도값)을 미리 계산한다. 계산된 화소값들은 이미지의 각 화소들에 대응한다. 또한, 실제로 생성된 X선 이미지(40)의 각 화소값들로부터 제2 영역(들)(42)의 계산된 화소값들을 감산함으로써, 제2 영역(들)(42)만이 제거될 수 있다. 참조 영역(51)은 제1 영역(41)에 중첩되는 영역이지만, 참조 영역(51)(Q)을 나타내는 파선은 구별을 쉽게 하기 위해, 도 9의 (c)에서 제1 영역(41)을 나타내는 실선으로부터 의도적으로 약간 시프트된다.
이와 같이, 각 제2 영역(42)의 일부가 제1 영역(41)과 겹치더라도, 제2 영역(42)만이 제거되고, 제1 영역(41)(두개골(S)의 영역) 전체가 남으며(도 9의 (a)), 이것은 인덱스 영역을 인덱스로서 사용해서 위치 결정을 용이하게 한다(도 9의 (c)). 제2 영역(들)(42)이 제1 영역(41)과 부분적으로 겹칠 경우의 제2 영역(들)(42)만을 제거하는 이미지 처리와 관해서는, 다양한 유형의 이미지 처리를 적용할 수 있다.
상술한 변형예에서 이미지 프로세서(29)가 제2 영역(들)(42)을 완전히 제거하지만, 제2 영역(42)을 완전히 제거하지 않을 수도 있다. 예를 들면, 제2 영역(42)의 각 화소들의 화소값들을 제1 영역(41)의 각 화소의 화소값보다 낮아지도록 줄일 수 있다. 각 제1 영역(41)의 전체가 이미지 처리 후에 X선 이미지(40)에 남아 있지만, 이러한 이미지 처리 대신, 특정 영역(Q)에 포함되는 제1 영역(41)의 각 화소들의 화소값들을 줄일 수 있다. 이 경우, 제1 영역(41)의 각 화소값의 감소량은 제2 영역(들)(42)의 각 화소값의 감소량보다 작으면 충분한다.
변형예에서 디스플레이(31) 상에 이미지 처리가 실시된 X선 이미지(40)를 표시할 경우에, 제2 영역(42)이 제거된 각 영역은 미리 결정된 유채색 또는 무채색으로 표시될 수 있다. 이 경우에, 제2 영역(들)(42)을 제거하기 전의 X선 이미지(40)와 제2 영역(들)(42)을 제거하는 처리가 실시된 X선 이미지(40) 사이의 차이 이미지를 표시할 수 있다. 이 경우에도, 제2 영역(들)(42)을 제거하기 전의 X선 이미지(40)의 표시와, 제2 영역(들)(42)을 제거하는 처리가 실시된 X선 이미지(40)의 표시 사이를 디스플레이(31)가 전환할 수 있다.
다음으로, 도 10의 (a) 내지 도 15의 (b)를 참조해서 X선 이미지(40)로부터 제2 영역(들)(42)만을 제거하는 다른 변형예의 이미지 처리 기술을 설명한다. 이해를 돕기 위해, 도 10의 (a) 내지 도 15의 (b)는, X선 이미지(40)(즉, 방사선 이미지의 카테고리에 포함되는 형광투시 이미지)의 두개골(S)(즉, 제1 영역(41), 인덱스 영역)의 중심 근방에서의 고정구(9)(즉, 제2 영역(42), 비인덱스 영역)가 나타나는 경우를 예로 든다. 도 10의 (a) 내지 도 15의 (b) 각각에서의 라인(L)은 동일한 위치에 있다.
또한, X선 이미지(40)에서 뼈(S) 및 고정구(9) 등의 X선을 투과시키기 어려운 부분들은 어둡게 나타나는 것으로 상정한다. 또한, 각 X선 이미지(40)에서, 밝은 영역의 휘도값은 크고 어두운 영역의 휘도값은 작다. 즉, 일부 경우에, 휘도값이 작은 영역은, 뼈(S)의 형상을 나타내는 제1 영역(41) 또는 고정구(9)의 형상을 나타내는 제2 영역(42)을 구성하는 정보를 포함한다.
X선 이미지(40)는 휘도가 반전될 수 있음을 유의한다(즉, 흑백 역전 또는 흑백 반전이 실시됨). 흑백 반전을 행할 경우, 일부 경우에, X선을 투과시키기 어려운 부분은 X선 이미지(40)에서 밝게 나타날 수 있다. 하기 설명에서 "밝음" 및 "어두움"이라는 용어 및 휘도값의 크기는 X선 이미지(40)의 흑백 반전에 따라 임의로 변경될 수 있다.
도 10의 (a)는 이미지 처리 전의 X선 이미지(40)를 나타낸다. 이 X선 이미지(40)에는, 환자(P)의 두개골(S)의 제1 영역(41) 및 고정구(9)의 제2 영역(42)이 포함된다. 특정 영역(Q)이 제2 영역(42)에 중첩된 영역이더라도, 특정 영역(Q)을 나타내는 파선 영역은 명확히 구별하기 위해, 도 10의 (a)의 제2 영역(42)을 나타내는 실선 영역으로부터 의도적으로 약간 시프트되어 있다. 또한, 도 10의 (b)의 그래프에서, 횡축은 X선 이미지(40)의 라인(L) 상의 위치(즉, u축)를 나타내고, 종축은 X선 이미지(40)의 라인(L)에 대응하는 각 화소의 휘도값(즉, 밝기)를 지시한다. X선 이미지(40)에서, 제1 영역(41)의 휘도값(43)은 작고, 제1 영역(41)이 제2 영역(42)에 중첩되는 부분은 휘도값(44)은 가장 작은 휘도값이다.
도 11의 (a)는 고정구(9)의 제2 영역(42)이 포함되는 DRR 이미지(50)를 나타낸다. 이 DRR 이미지(50)는 비인덱스 영역(들)의 3차원 모델 정보에 의거하여 생성된다. 도 11의 (b)의 그래프에서, 횡축은 DRR 이미지(50)의 라인(L)(즉, u축) 상의 위치를 나타내고, 종축은 DRR 이미지(50)의 라인(L)에 대응하는 각 픽셀의 휘도값(즉, 밝기)을 지시한다. DRR 이미지(50)에서, 제2 영역(42)의 휘도값(52)은 작다.
도 12의 (a)는 이미지 처리가 실시된 X선 이미지(40)를 나타낸다. 이 X선 이미지(40)에서, 고정구(9)의 제2 영역(42)이 제거되고 환자(P)의 두개골(S)만이 제1 영역(41)으로서 나타난다. 도 12의 (b)의 그래프에서, 횡축은 X선 이미지(40)의 라인(L)(즉, u축) 상의 위치를 지시하고, 종축은 X선 이미지(40)의 라인(L)에 대응하는 각 화소의 휘도값(즉, 밝기)을 나타낸다. 이미지 처리가 실시된 X선 이미지(40)에서, 상술한 도 10의 (b)의 가장 작은 휘도값(44)은 제거되고, 제1 영역(41)의 휘도값(43)은 남는다.
X선 이미지(40)로부터 제2 영역(들)(42)만을 제거하는 이미지 처리 기술을 상세하게 설명한다. DRR 이미지(50) 및 X선 이미지(40)의 각 화소의 좌표 위치를 (u, v)로 표시하면, 도 10의 (a) 및 도 10의 (b)에 나타난 이미지 처리 전의 X선 이미지(40)의 화소 위치(u, v)에서의 화소값을 X(u, v)로 표시하고, 도 11의 (a) 및 도 11의 (b)에 나타난 DRR 이미지(50)의 화소 위치(u, v)에서의 화소값을 I(u, v)로 표시하고, 도 12의 (a) 및 도 12의 (b)에 나타난 이미지 처리 후의 X선 이미지(40)의 화소 위치(u, v)에서의 화소값을 A(u, v)로 표시한다. 예를 들면, 도 10의 (a)에 나타난 이미지 처리 전의 X선 이미지(40)의 화소값 X(u, v)로부터 도 11의 (a)에 나타난 DRR 이미지(50)의 화소값 I(u, v)을 감산함으로써, 도 12의 (a)에 나타난 이미지 처리 후의 X선 이미지(40)의 화소값 A(u, v)가 생성된다.
또한, 이미지 처리 기술의 일 양태로서, 도 10의 (a)에 나타난 X선 이미지(40)에 이미지 처리로서 인페인팅(in-painting) 처리를 적용할 수 있다. 이 인페인팅 처리를 행함으로써, 도 12의 (a)에 나타난 X선 이미지(40)가 생성된다. 이 인페이팅 처리가 실시되는 영역은, 고정구(9)의 제2 영역(42)에 대응하는 화소들이 모인 특정 영역(Q)의 부분이다. 이 특정 영역(Q)은, 고정구(9) 등의 상술한 외부 영역들(즉, 비인덱스 영역)의 3차원 모델 정보에 의거하여 결정될 수 있다.
이러한 상황에서, X선 이미지(40)는 환자(P)의 두개골(S)의 형상에 대한 세부 정보를 포함한다. 이 세부 정보는 두개골(S)의 표면의 불규칙성(즉, 비평탄 또는 요철) 및/또는 두개골(S) 내부의 세부 구조 등의 정보를 포함한다. 상술한 인페이팅 처리에서, 일부 경우에는, 이러한 세부 정보가 지워질 수 있다.
이러한 이유로, 도 12의 (a)에 나타난 X선 이미지(40)의 화소값 A(u, v)에 대해 세부 정보가 남겨진 이미지 처리의 일 양태를 설명한다. 실제의 X선 이미지(40)는 세부 정보를 포함하지만, 이해를 돕기 위해, 이하의 설명에서 도 12의 (a)에 나타난 X선 이미지(40)는 세부 정보를 포함하지 않는 것으로 상정한다.
도 13의 (a)는 이미지 처리 전의 X선 이미지(40)이다. 이 X선 이미지(40)에는, 환자(P)의 두개골(S)의 제1 영역(41) 및 고정구(9)의 제2 영역(42)이 포함된다. 특정 영역(Q)이 제2 영역(42)에 중첩된 영역이지만, 특정 영역(Q)을 나타내는 파선 영역은 명확히 구별하기 위해, 도 13의 (a)의 제2 영역(42)을 나타내는 실선 영역으로부터 의도적으로 약간 시프트되어 있다. 도 13의 (b)의 이미지 처리 전의 X선 이미지(40)의 화소값 X(u, v)의 그래프에서, 횡축은 X선 이미지(40)의 라인(L)(즉, u축) 상의 위치를 나타내고, 종축은 X선 이미지(40)의 라인(L)에 대응하는 각 화소의 휘도값(즉, 밝기)을 나타낸다. X선 이미지(40)에서, 제1 영역(41)과 제2 영역(42)이 서로 중첩되는 영역의 각 화소의 휘도값(44)은, 두개골(S)의 표면의 요철 또는 두개골(S) 내부의 세부 구조를 나타내는 세부 정보(45)를 포함한다.
도 13의 (c)는 감산을 위한 화소값 Y(u, v)의 그래프이다. 이 그래프는 제1 영역(41)의 각 화소의 휘도값(43) 및 제1 영역(41)과 제2 영역(42)이 서로 중첩되는 영역의 각 화소의 휘도값(44)을 포함한다. DRR 이미지 생성부(20)에 의해 생성되는 DRR 이미지(50)에 의거하여, 제1 영역(41)의 휘도값(43) 및 제1 영역(41)과 제2 영역(42)이 서로 중첩되는 영역의 휘도값(44)을 미리 계산할 수 있다.
도 13의 (b)에 나타난 이미지 처리 전의 X선 이미지(40)의 각 화소값 X(u, v)로부터 도 13의 (c)에 도시된 감산을 위한 각 화소값 Y(u, v)을 감산함으로써, 도 14의 (b)에 나타난 바와 같이 감산된 화소값 T(u, v)의 그래프를 얻을 수 있다. 도 14의 (a)는 상술한 감산 후의 화소값 T(u, v)의 X선 이미지(40)임을 유의한다. 이 X선 이미지(40)는 제1 영역(41)의 일부(41A), 즉 제1 영역(41)이 제2 영역(42)에 중첩되는 영역을 포함한다(도 13의 (a)). 또한, 도 14의 (a)에 나타난 바와 같이 감산이 실시된 X선 이미지(40)에서는, 제1 영역(41)의 남은 부분이 세부 정보(45)를 포함하도록, 제1 영역(41)의 일부분만이 남는다.
상술한 양태에서 DRR 이미지 생성부(20)에 의해 생성된 DRR 이미지(50)에 의거하여 감산을 위한 화소값들 Y(u, v)가 생성될 경우를 설명했지만, 본 발명의 실시예들은 이러한 양태에 제한되지 않는다. 예를 들면, 도 14의 (b)에 나타난 화소값들 T(u, v)를 추정할 경우, X선 이미지(40)의 특정 영역(Q)을 참조해서 엣지-보존형 평활화 처리가 행해지고, 도 13의 (c)에서의 감산을 화소값들 Y(u, v)가 추정된다. 또한, 도 13의 (b)의 각 화소값들 X(u, v)로부터 도 13의 (c)의 각 화소값들 Y(u, v)를 감산함으로써 감산 후의 화소값들 T(u, v)를 추정하는 것이 바람직하다. 엣지 보존형 평활화 처리로서, 예를 들면, 결합 양방향 필터(joint bilateral filter) 및/또는 유도 필터(guided filter)가 사용될 수 있다.
또한, 도 12의 (b)의 각 화소값들 A(u, v)에 도 14의 (b)의 각 화소값들 T(u, v)를 가산함으로써, 도 15의 (a)에 나타난 바와 같이 세부 정보(45)를 포함하는 제1 영역(41)을 생성할 수 있다. 도 15의 (b)에 나타난 바와 같이, 세부 정보(45)를 포함하는 X선 이미지(40)의 화소값들 A(u, v)를 생성할 수 있다.
X선 이미지(40)에 인페인팅 처리를 행하는 이미지 처리를 예시하고 있지만, 인페인팅 처리를 사용하지 않는 이미지 처리를 행해도 된다. 예를 들면, 유사 인덱스 값(즉, 환자(P)의 위치의 갭량)을 나타내는 오차가 "e"로 정의될 경우, 이 오차(e)는 다음의 식 3을 사용해서 계산된다.
식 (3)
Figure pat00003
여기서, A(u, v)는, X선 촬영 장치(3)의 촬영 영역에 고정구(9)(즉, 비인덱스 영역) 등의 X선을 투과하기 어려운 외부 컴포넌트들이 존재하지 않아 X선 조사부들(10)로부터 X선 검출기들(11)에 보다 많은 X선이 도달한다는 가정 하에서의 가상의 화소값을 지시한다. 또한, X(u, v)는 실제로 생성된 X선 이미지(40)에 의거한 기지(旣知)의 화소값이다. 다시 말하면, X선 이미지(40)로부터 고정구(9)의 제2 영역(들)(42)을 가상적으로 제거하여 얻어지는 화소값들 A(u, v)의 X선 이미지(40)를 생성할 경우에, 고정구(9)를 나타내는 제2 영역(42)의 각 화소들의 화소값들 I(u, v)를 추정할 필요가 있다.
화소값들 I(u, v)를 추정할 경우, 우선, 치료 시에 취득된 3차원 볼륨 이미지에 의거하여, 고정구(9)의 제2 영역(42)이 나타나는 DRR 이미지(50)를 생성한다. 이 DRR 이미지(50)의 화소값을 D(u, v)로 표시한다. 예를 들면, 화소값들 D(u, v)의 선형 변환에 의해 화소값들 I(u, v)를 표현하고 계수를 추정함으로써 화소값을 I(u, v)를 취득한다. 이 추정은 불량조건문제(ill-posed problem)를 갖지만, 계수가 국소적으로 일정하다고 가정하면 풀 수 있다. 이러한 방식으로 화소값들 I(u, v)를 얻음으로써, 화소값들 A(u, v)가 생성된다.
위치 결정 장치(4)는, 제1 영역(41) 및 제2 영역(42)을 포함하는 X선 이미지(40)로부터 모든 제2 영역(42)이 가상적으로 제거된 이미지를 생성하도록 머신 러닝을 행할 수 있다. 또한, 위치 결정 장치(4)는, 각 화소가 화소값 I(u, v)를 갖는 이미지를 출력하는 기능을 취득하기 위한 머신 러닝을 행할 수 있다. 예를 들면, 머신 러닝에 딥 러닝 및/또는 SVM을 사용할 수 있다. 또한, 제1 영역(41) 및 제2 영역(들)(42)을 포함하는 X선 이미지(40)는 머신 러닝을 행한 미리 결정된 이미지 처리 장치에 입력될 수 있다. 이것은 모든 제2 영역(42)이 가상적으로 제거되는 X선 이미지(40)가 생성되게 하는 것이다. 또한, 제1 영역(41)과 제2 영역들(42)을 포함하는 X선 이미지(40) 및 제2 영역(들)(42)을 포함하는 DRR 이미지(50)를 미리 결정된 이미지 처리 장치에 입력함으로써, 모든 제2 영역(42)이 가상적으로 제거된 X선 이미지(40)가 생성될 수 있다.
환자(P)의 위치 결정이 행해질 때, DRR 이미지(50)(즉, 참조 이미지)와 X선 이미지(40)(즉, 방사선 이미지) 사이의 유사 인덱스 값(즉, 환자(P)의 위치의 갭 양)을 나타내는 오차(e)를 계산하는데 다음의 식 4가 사용될 수 있다. 이 경우, 고정구(9) 등의 외부 영역들의 제2 영역들(42)(즉, 비인덱스 영역들)이 X선 이미지(40)로부터 제거되기 때문에, 이 경우는, 상술한 제1 실시예와 달리, 특정 영역(Q)과 비특정 영역들(즉, 특정 영역(Q)을 제외한 모든 영역들) 사이의 오차(e)를 계산하는데 사용되는 화소들을 구별할 필요가 없다.
식 (4)
Figure pat00004
이와 같이, X선 이미지(40)에 포함되는 제1 영역(41)과 DRR 이미지(50)의 참조 영역(51)의 매칭 정확도를 향상시켜, 환자(P)의 위치 결정을 용이하게 할 수 있다.
본 실시예에서는, X선 이미지(40)(즉, 방사선 이미지)를 이미지 처리해서 DRR 이미지(50)(즉, 참조 이미지)와의 매칭 처리를 실시하지만, 매칭 처리 전에 X선 이미지(40)에 대한 이미지 처리를 생략할 수도 있다. 즉, 제2 영역(42)을 제거하지 않은 DRR 이미지(50)와 X선 이미지(40) 사이에서 매칭 처리를 행해도 된다. 예를 들면, DRR 이미지(50)의 생성은 방사선 치료 시스템(1)의 각 컴포넌트들의 실제 배치에 따라 행해진다. 따라서, DRR 이미지(50)를 구성하는 화소들 중에, 제2 영역(42)을 포함하는 영역(통상, 특정 영역(Q))의 화소들을 생성할 수 있다.
예를 들면, X선 조사부(10)와 X선 검출기(11)(도 3)의 검출면 상의 각 검출 요소(즉, 검출 화소들)를 연결하는 가상선들(K)이 고정구(9) 등의 외부 컴포넌트와 교차하는지의 여부를 판정한다. 이 판정 결과에 따라, 이미지의 특정 영역의 화소들은, 이질 컴포넌트와 교차하는 것으로 판정된 가상선(K)의 끝에 각각 있는 검출 화소들에 대응하는 화소들로서 판정된다. 3차원 볼륨 이미지에 의거하여 X선 이미지를 생성할 경우, X선 조사부(10)와 X선 검출기(11)의 각 검출 화소들을 연결하는 가상선들(K) 상에 존재하는 모든 CT값들을 누적함으로써, X선 이미지의 각 화소의 화소값(휘도값)을 계산할 수 있고, 임계값 처리에 의해 특정 영역(Q)의 화소들을 생성할 수 있다. 또한, 2치화 대신에, 예를 들면, 임계값들의 수를 증가시킴으로써 예를 들면 3개의 값들 등 복수의 이산화된 이산값들이 사용될 수 있거나 화소값들이 연속적인 값으로서 사용될 수 있다.
제2 영역(42)이 제거되지 않은 DRR 이미지(50)와 X선 이미지(40) 사이의 화소값의 오차가 양쪽 이미지들간의 매칭 처리의 결과로서 임계값 이하가 될 때까지, 탑재 테이블(5)의 이동을 반복할 경우, 특정 영역(Q)의 화소값들은 사용되지 않는다. 예를 들면, X선 이미지(40)의 특정 영역(Q)의 화소값들이 이진수(0 또는 1)일 경우, 특정 영역(Q)의 화소값들은 오차 계산에 사용되지 않는다. 또한, X선 이미지(40)의 특정 영역(Q)의 화소값들이 연속적인 값들(0 내지 n)일 경우, 오차 계산 시에 각 화소값의 가중을 제어하는 것이 바람직하다.
여기서, DRR 이미지(50) 및 X선 이미지(40)의 각 화소 위치를 (u, v)로 표시하고, DRR 이미지(50)의 화소 위치에서의 화소값을 I(u, v)로 표시하고, X선 이미지(40)의 화소 위치에서의 화소값을 X(u, v)로 표시하고, 특정 영역(Q)의 각 화소값 또는 특정 영역(Q)을 제외한 영역의 각 화소값을 보정하기 위한 보정값을 L(u, v)로 표시하고, DRR 이미지(50)와 X선 이미지(40) 사이의 유사 인덱스 값(즉, 환자(P)의 위치의 갭량)을 나타내는 오차를 e로 표시한다. 이 상정 하에서, 에러(e)는 다음의 식 (5)에 의해 계산된다.
식 (5)
Figure pat00005
특정 영역(Q)의 화소값이 이진수일 경우, 특정 영역(Q)에 대한 보정값은 L(u, v)=0으로 설정되고, 특정 영역(Q)을 제외한 영역들에 대한 보정값은 L(u, v)=1로 설정된다. 또한, 특정 영역(Q)의 화소값들이 연속적인 값들일 경우, 특정 영역(Q)에 대한 보정값 L(u, v)은 바람직하게는 0에 가깝게 되고, 특정 영역(Q)을 제외한 영역들에 대한 보정값 L(u, v)은 1에 가깝게 되는 것이 바람직하다. 오차(e)가 미리 결정된 임계값 이하로 될 때까지, X선 이미지(40)의 생성 및 탑재 테이블(5)의 이동을 반복하는 것이 바람직하다.
이와 같이, X선 이미지(40)에 대한 이미지 처리를 행하지 않고, X선 이미지(40)의 제1 영역(41)과 DRR 이미지(50)의 참조 영역(51)의 매칭 처리를 행함으로써 위치 결정을 행할 수 있다. 본 실시예에서 오차는 화소값의 제곱 오차이지만, 오차는 제곱 오차로 한정되는 것은 아니다. 예를 들면, 오차에는, 절대값 오차 또는 정규화 보정 등의 이미지 차이를 나타내는 값이 사용될 수 있다.
본 실시예에서는 2쌍의 X선 조사부(10) 및 X선 검출기(11)를 설치했지만, 1쌍의 X선 조사부(10) 및 X선 검출기(10)를 사용해 하나 이상의 방향으로부터 X선 이미지들을 취득해서 환자(P)의 위치 결정에 사용할 수 있다. 또한, 3쌍 이상의 X선 조사부(10) 및 X선 검출기(10)를 사용해 3방향 이상으로부터 X선 이미지들을 취득해서 환자(P)의 위치 결정에 사용할 수 있다.
본 실시예에서는, 치료 계획 시에 생성된 DRR 이미지(50)를 참조 이미지로서 설정하고, 이 DRR 이미지(50)를 방사선 치료 동안 촬영된 X선 이미지(40)와 매칭 처리한다. 그러나, DRR 이미지(50) 이외의 이미지가 참조 이미지로서 사용될 수 있다. 예를 들면, 방사선 치료 동안 복수의 X선 이미지들(40)을 생성하도록 환자(P)를 촬영할 경우에는, 이 복수의 X선 이미지들(40) 중에서 빠른 촬영 시간을 갖는 X선 이미지(40)를 참조 이미지로 정의하고, 참조 이미지 후에 촬영된 X선 이미지(40)와 매칭 처리를 실시할 수 있다. 또한, 복수 회 방사선 치료를 행할 경우에는, 제1 방사선 치료에서의 위치 결정에 사용된 X선 이미지(40)를 참조 이미지로서 정의하고, 제2 방사선 치료 시에 촬영된 X선 이미지(40)와의 매칭 처리를 실시해도 된다. 이 경우들에도, X선 이미지(40)로부터 각 특정 영역을 계산하고 위치 결정을 행함으로써, 환자(P)의 인덱스 영역만을 포커싱하는 위치 결정을 행할 수 있다.
(제2 실시예)
다음으로, 도 16 및 도 17을 참조해서, 오브젝트의 위치 결정에 사용되는 제2 실시예의 위치 결정 장치(4A)에 대해 설명한다. 각 도면에 있어서 상술한 실시예 및 변형예와 동일한 컴포넌트에는 동일한 부호가 부여되고, 중복되는 설명을 생략함을 유의한다. 또한, 이하에 구체적으로 기술되지 않는 구성에 관해서는, 제1 실시예에서 설명한 것과 동일한 구성을 특별한 제한없이 적용할 수 있다.
도 16에 나타난 바와 같이, 제2 실시예에 따른 방사선 치료 시스템(1A)은, 환자(P)의 3차원 볼륨 이미지들(형광투시 이미지들)을 생성하는 3차원 촬영 장치(형광투시 촬영 장치)(34), 이 3차원 볼륨 이미지에 의거하여 환자(P)의 위치 결정을 행하도록 구성된 위치 결정 장치(4A), 탑재 테이블(5), 테이블 구동 디바이스(6), 방사선 조사 장치(7), 및 조사 컨트롤러(8)를 포함한다.
또한, 3차원 촬영 장치(34)는 환자(P)의 복수의 방향들로부터의 투영 데이터(형광투시 이미지 데이터)를 생성하도록 구성된 투영 데이터 생성부(35), 및 투영 데이터 생성부(35)에 의해 취득된 복수의 2차원 투영 데이터에 의거하여 환자(P)의 3차원 평면의 3차원 볼륨 이미지를 생성하도록 구성된 3차원 이미지 생성부를 포함한다.
제2 실시예의 3차원 촬영 장치(34)는 상술한 제1 실시예의 건강 진단 장치(2)와 실질적으로 동일한 구성을 갖는 X선 CT 장치이다. 즉, 치료 계획 시에, 방사선 치료 시스템(1A)의 3차원 촬영 장치(34)를 사용해서 환자(오브젝트)(P)의 컴퓨터 단층촬영을 행할 수 있다. 3차원 촬영 장치(34)는 MRI 장치 또는 초음파 진단 장치일 수 있음을 유의한다.
또한, 위치 결정 장치(4A)는 3차원 촬영 장치(34), 테이블 구동 디바이스(6), 및 조사 컨트롤러(8)에 접속되어 있다. 제2 실시예에서는, 치료 계획 시에, 3차원 촬영 장치(34)에 환자(P)를 촬영시켜 생성되는 3차원 볼륨 이미지에 의거하여 참조 이미지를 생성한다.
예를 들면, 위치 결정 장치(4A)의 3차원 이미지 입력 인터페이스(18)는 3차원 촬영 장치(34)로부터 3차원 볼륨 이미지를 취득한다. 또한, 인덱스 특정 프로세서(19)는, 3차원 볼륨 이미지의 CT값들을 분석함으로써 환자(P)의 뼈들(S)의 영역(즉, 인덱스 영역)을 특정한다. 또한, 참조 이미지 생성부(21)는, 뼈(S)의 특정된 영역에 의거하여 인덱스 이미지를 생성한다. 그 후, 이 인덱스 이미지를 포함하는 참조 이미지(즉, 3차원 볼륨 이미지)가 참조 이미지 메모리(22)에 저장된다.
제2 실시예에서는, 탑재 테이블(5) 및 고정구(9) 등의 외부 영역들(즉, 비인덱스 영역들)의 3차원 모델 정보가 외부로부터 입력된다. 비인덱스 영역들의 3차원 모델 정보는 모델 정보 메모리(26)에 저장된다. 또한, 인덱스 특정 프로세서(19)는, 정보 입력 인터페이스(24)에 입력된 다양한 정보 항목들에 의거하여 탑재 테이블(5) 및 고정구(9) 등의 비인덱스 영역들을 특정해서, 3차원 볼륨 이미지로부터 특정된 비인덱스 영역들을 제거할 수 있다. 이러한 방식으로, 3차원 볼륨 이미지로부터 참조 이미지가 생성된다.
제2 실시예에서, 방사선 치료 시에 환자(P)의 위치 결정이 행해질 때, 환자(P)를 3차원 촬영 장치(34)를 사용해서 촬영하여, 환자(P)의 3차원 볼륨 이미지(방사선 이미지)를 생성하고, 이어서 3차원 이미지 입력 인터페이스(18)는 생성된 3차원 볼륨 이미지를 취득한다. 취득된 3차원 볼륨 이미지는 영역 특정 프로세서(28)에 전송된다. 그 후, 영역 특정 프로세서(28)는, 모델 정보 메모리(26)에 저장된 비인덱스 영역(들)의 3차원 모델 정보에 의거하여, 3차원 볼륨 이미지에 포함되는 고정구(9)의 영역 등의 제2 영역들(즉, 비인덱스 영역들)을 추출 또는 특정한다. 이미지 프로세서(29)에서는, 3차원 볼륨 이미지에서 고정구(9) 등의 제2 영역을 제거하는 이미지 처리가 행해진다. 제2 실시예에서 제2 영역을 제거하기 위한 이미지 처리 방법에 관해서는, 제1 실시예에서 설명한 방법들을 특별한 제한없이 적용할 수 있다.
또한, 위치 결정 프로세서(30)는, 방사선 치료 시에 촬영된 3차원 볼륨 이미지(방사선 이미지)의 뼈(S)의 제1 영역과 치료 계획 시에 촬영된 3차원 볼륨 이미지의 인덱스 이미지(즉, 참조 이미지) 사이의 매칭 처리를 행함으로써, 환자(P)의 위치 결정을 행한다. 이러한 방식으로, 3차원 볼륨 이미지들간에서 매칭 처리가 행해지기 때문에, 뼈(S)의 영역(즉, 인덱스 영역)의 3차원 정렬이 용이해진다.
제2 실시예에서는 비인덱스 영역(들)의 3차원 모델 정보가 외부로부터 입력되었지만, 다른 양태들에서 3차원 모델 정보가 취득될 수도 있다. 예를 들면, 제1 실시예와 유사한 방식으로, 제2 실시예에서 치료 계획 시에 촬영된 3차원 볼륨 이미지에 의거하여, 비인덱스 영역(들)의 3차원 모델 정보가 생성될 수 있다.
본 발명의 실시예들에 따른 오브젝트 위치 결정 장치들이 제1 및 제2 실시예들에 의거하여 설명되었지만, 어느 하나의 실시예에 적용된 구성이 다른 실시예에 적용될 수 있으며, 각 실시예에서 적용되는 구성들이 조합되어 사용될 수 있다.
본 실시예에서, 참조값(즉, 임계값)을 사용한 하나의 값(즉, 갭량)의 판정은, 대상값이 참조값 이상인지의 여부의 판정일 수 있다.
부가적으로 또는 대안으로, 참조값을 사용한 대상값의 판정은 대상값이 참조값을 초과하는지의 여부의 판정일 수 있다.
부가적으로 또는 대안으로, 참조값을 사용한 대상값의 판정은 대상값이 참조값 이하인지의 여부의 판정일 수 있다.
부가적으로 또는 대안으로, 참조값을 사용한 하나의 값의 판정은 대상값이 참조값보다 작은지의 여부의 판정일 수 있다.
부가적으로 또는 대안으로, 참조값은 반드시 고정될 필요는 없고 참조값은 변경될 수 있다. 따라서, 참조값 대신에 미리 결정된 범위의 값들이 사용될 수 있고, 대상값의 판정은 대상값이 미리 결정된 범위 내에 있는지의 여부의 판정일 수 있다.
또한, 장치에서 발생하는 오차가 미리 분석될 수 있고, 참조값을 중심으로 하는 오차 범위를 포함하는 미리 결정된 범위를 판정에 사용할 수도 있다.
본 실시예의 위치 결정 장치(4)는 ROM(Read Only Memory) 및 RAM(Random Access Memory) 등의 저장 디바이스, HDD(Hard Disk Drive) 및 SSD(Solid State Drive) 등의 외부 저장 디바이스, 디스플레이 등의 표시 디바이스, 마우스 및 키보드 등의 입력 디바이스, 통신 인터페이스, 특수-목적용 칩, FPGA(Field Programmable Gate Array), GPU(Graphics Processing Unit), 및 CPU(Central Processing Unit) 등의 고집적 프로세서를 갖는 제어 디바이스를 포함한다. 위치 결정 장치(4)는 통상의 컴퓨터를 사용해서 하드웨어 구성에 의해 달성될 수 있다.
또한, 본 실시예의 위치 결정 장치(4)에서 실행되는 각 프로그램은 미리 ROM 등의 메모리에 내장되어 제공됨을 유의한다. 부가적으로 또는 대안으로, 각각의 프로그램은 CD-ROM, CD-R, 메모리 카드, DVD, 및 플렉서블 디스크(FD) 등의 비일시적 컴퓨터 판독 가능한 저장 매체에 설치 가능한 또는 실행 가능한 포맷의 파일로서 저장됨으로써 제공될 수 있다.
또한, 위치 결정 장치(4)에서 실행되는 각 프로그램은 인터넷 등의 네트워크에 연결된 컴퓨터에 저장되고 네트워크를 통해 다운으로드되어 제공될 수 있다. 또한, 위치 결정 장치(4)는, 네트워크 또는 전용 회선을 통해 컴포넌트들의 각 기능을 독립적으로 나타내는 별개의 모듈들을 상호 접속하고 조합함으로써 구성될 수도 있다.
또한, 상술한 실시예들에서는, 인간인 환자(P)를 오브젝트로서 예시하고 있지만, 개 및 고양이 등의 동물을 오브젝트로서 사용하여 동물에 방사선 치료를 행할 경우에 위치 결정 장치(4)를 사용해도 된다.
상술한 실시예들의 위치 결정 장치(4)는 X선 이미지들(40) 및 DRR 이미지들(40)을 표시하는 디스플레이(즉, 모니터)(31)를 포함하지만, 디스플레이(31)의 구성은 생략될 수 있다.
상술한 실시예들에서는 환자(P)의 뼈(S)의 영역을 인덱스 영역으로서 취급하고 있지만, 뼈(S) 이외의 영역, 예를 들면 병변 부위(G)를 인덱스 영역으로서 취급해도 된다. 이 경우, 환자(P)의 뼈(S)의 영역을 비인덱스 영역으로서 설정함으로써, 환자(P)의 위치 결정을 행할 수 있다.
상술한 실시예들에서, 환자(P)가 위치된 탑재 테이블(5)을 이동시킴으로써 환자(P)의 위치 결정이 행해진다. 그러나, 환자(P)의 위치 결정은 방사선 조사 장치(7)를 이동시킴으로써 행해질 수 있다. 예를 들면, 탑재 테이블(5)은 고정되고 방사선 조사 장치(7)는 이동할 수 있도록 구성된다. 또한, 가상 공간에서는, DRR 이미지(50)에 포함되는 참조 영역(51)의 위치 및 방사선 조사 장치(7)의 위치는 고정된다. 상술한 설정 하에서, 참조 영역(51)이 가상 공간에서 환자(P)의 X선 이미지(40)의 제1 영역(41)과 매칭되도록 이동될 경우, 방사선 조사 장치(7)의 위치는 임의적으로 결정된다.
상술한 실시예들에 따르면, 제1 영역과 이전에 생성된 참조 이미지 사이의 매칭 처리를 행함으로써 오브젝트의 위치 결정을 행하도록 구성된 위치 결정 프로세서를 마련함으로써, 방사선 이미지와 참조 이미지 사이에서 정확하게 매칭을 향상시킬 수 있고 이에 따라 오브젝트의 위치 결정이 용이해진다.
특정 실시예들을 설명했지만, 이 실시예들은 단지 예로서 제시된 것이며, 본 발명의 범위를 제한하고자 하는 것은 아니다. 실제로, 본원에 기술된 신규한 방법들 및 시스템들은 다양한 다른 형태들로 구현될 수 있고, 또한, 본원에 설명된 방법들 및 시스템들의 형태에서 다양한 생략, 대체 및 변경이 본 발명의 사상을 벗어나지 않고 이루어질 수 있다. 첨부된 특허청구범위 및 그 등가물은 본 발명의 범위 및 사상 내에 있는 형태들 또는 수정들을 포함하는 것이 의도된다.

Claims (10)

  1. 형광투시 촬영 장치(fluoroscopic imaging apparatus)가 오브젝트를 촬영하게 함으로써 생성되고 제1 영역 및 제2 영역을 포함하는 방사선 이미지를 취득하도록 구성된 방사선 이미지 입력 인터페이스 ― 상기 제1 영역은 상기 오브젝트의 위치 결정을 위한 인덱스 영역을 나타내고, 상기 제2 영역은 상기 인덱스 영역 이외의 비인덱스 영역을 나타냄 ―; 및
    상기 비인덱스 영역의 3차원 모델 정보에 의거하여 상기 방사선 이미지로부터 특정되는 제1 영역과 미리 생성된 참조 이미지 사이의 매칭 처리를 행함으로써 상기 오브젝트의 위치 결정을 행하도록 구성된 위치 결정 프로세서를 포함하는
    오브젝트 위치 결정 장치.
  2. 제1항에 있어서,
    상기 3차원 모델 정보는 상기 형광투시 촬영 장치에 대한 정보, 상기 오브젝트가 놓이는 탑재 테이블에 대한 정보, 및 상기 오브젝트를 고정하기 위한 의료용 구속 수단에 대한 정보 중 적어도 하나를 포함하는 오브젝트 위치 결정 장치.
  3. 제1항에 있어서,
    상기 제2 영역의 각각의 화소값이 상기 제1 영역의 각각의 화소값보다 낮아지도록 감소되는 이미지 처리를 행하도록 구성된 이미지 프로세서를 더 포함하는 오브젝트 위치 결정 장치.
  4. 제1항에 있어서,
    상기 오브젝트의 위치 결정을 행하기 전에 상기 오브젝트의 이미지를 포함하는 3차원 볼륨 이미지(three-dimensional volume image)를 취득하도록 구성된 3차원 이미지 입력 인터페이스; 및
    상기 3차원 이미지 입력 인터페이스에 의해 취득된 3차원 볼륨 이미지에 의거하여 2차원 DRR(Digitally Reconstructed Radiograph) 이미지를 생성하도록 구성된 재구성 이미지 생성부를 더 포함하고,
    상기 방사선 이미지는, 상기 오브젝트의 위치 결정이 행해질 경우 상기 오브젝트를 촬영함으로써 생성되는 2차원 X선 이미지이고;
    상기 참조 이미지는 상기 DRR 이미지인 오브젝트 위치 결정 장치.
  5. 제1항에 있어서,
    상기 오브젝트의 위치 결정을 행하기 전에 상기 오브젝트의 이미지를 포함하는 3차원 볼륨 이미지를 취득하도록 구성된 3차원 이미지 입력 인터페이스를 더 포함하고,
    상기 방사선 이미지는, 상기 오브젝트의 위치 결정이 행해질 경우 상기 오브젝트를 촬영함으로써 생성되는 3차원 볼륨 이미지이고;
    상기 참조 이미지는 상기 오브젝트의 위치 결정을 행하기 전에 상기 3차원 이미지 입력 인터페이스에 의해 취득되는 3차원 볼륨 이미지인 오브젝트 위치 결정 장치.
  6. 제1항에 있어서,
    상기 오브젝트의 위치 결정을 행하기 전에 상기 오브젝트의 이미지를 포함하는 3차원 볼륨 이미지를 취득하도록 구성된 3차원 이미지 입력 인터페이스; 및
    상기 3차원 이미지 입력 인터페이스에 의해 취득된 3차원 볼륨 이미지에 의거하여 상기 비인덱스 영역의 3차원 모델 정보를 생성하도록 구성된 모델 정보 생성부를 더 포함하는 오브젝트 위치 결정 장치.
  7. 제1항에 있어서,
    상기 오브젝트의 위치 결정을 행하기 전에 상기 오브젝트의 이미지를 포함하는 3차원 볼륨 이미지를 취득하도록 구성된 3차원 이미지 입력 인터페이스;
    상기 3차원 이미지 입력 인터페이스에 의해 취득된 3차원 볼륨 이미지에 의거하여 상기 인덱스 영역 및 상기 비인덱스 영역을 특정하도록 구성된 인덱스 특정 프로세서; 및
    상기 인덱스 특정 프로세서에 의해 특정되는 인덱스 영역 및 비인덱스 영역에 의거하여 상기 참조 이미지를 생성하도록 구성된 참조 이미지 생성부를 더 포함하는 오브젝트 위치 결정 장치.
  8. 형광투시 촬영 장치가 오브젝트를 촬영하게 함으로써 생성되고 제1 영역 및 제2 영역을 포함하는 방사선 이미지를 취득하는 단계 ― 상기 제1 영역은 상기 오브젝트의 위치 결정을 위한 인덱스 영역을 나타내고, 상기 제2 영역은 상기 인덱스 영역 이외의 비인덱스 영역을 나타냄 ―; 및
    상기 비인덱스 영역의 3차원 모델 정보에 의거하여 상기 방사선 이미지로부터 특정되는 제1 영역과 미리 생성된 참조 이미지 사이의 매칭 처리를 행함으로써 상기 오브젝트의 위치 결정을 행하는 단계를 포함하는
    오브젝트 위치 결정 방법.
  9. 형광투시 촬영 장치가 오브젝트를 촬영하게 함으로써 생성되고 제1 영역 및 제2 영역을 포함하는 방사선 이미지를 취득하는 취득 프로세스 ― 상기 제1 영역은 상기 오브젝트의 위치 결정을 위한 인덱스 영역을 나타내고, 상기 제2 영역은 상기 인덱스 영역 이외의 비인덱스 영역을 나타냄 ―; 및
    상기 비인덱스 영역의 3차원 모델 정보에 의거하여 상기 방사선 이미지로부터 특정되는 제1 영역과 미리 생성된 참조 이미지 사이의 매칭 처리를 행함으로써 상기 오브젝트의 위치 결정을 행하는 위치 결정 프로세스를 컴퓨터에 행하게 하는
    오브젝트 위치 결정 프로그램.
  10. 제1항에 따른 오브젝트 위치 결정 장치; 및
    위치 결정이 실시된 오브젝트의 대상 영역(target region)에 방사선을 조사하도록 구성된 방사선 조사 장치를 포함하는
    방사선 치료 시스템.
KR1020180029562A 2017-03-16 2018-03-14 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템 KR102049328B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2017-051076 2017-03-16
JP2017051076A JP7018604B2 (ja) 2017-03-16 2017-03-16 被検体の位置決め装置、被検体の位置決め方法、被検体の位置決めプログラムおよび放射線治療システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190150139A Division KR102070714B1 (ko) 2017-03-16 2019-11-21 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템

Publications (2)

Publication Number Publication Date
KR20180106915A true KR20180106915A (ko) 2018-10-01
KR102049328B1 KR102049328B1 (ko) 2019-11-28

Family

ID=61691319

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180029562A KR102049328B1 (ko) 2017-03-16 2018-03-14 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템
KR1020190150139A KR102070714B1 (ko) 2017-03-16 2019-11-21 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020190150139A KR102070714B1 (ko) 2017-03-16 2019-11-21 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템

Country Status (6)

Country Link
US (1) US11097129B2 (ko)
EP (2) EP3669785B1 (ko)
JP (2) JP7018604B2 (ko)
KR (2) KR102049328B1 (ko)
CN (2) CN108744306B (ko)
TW (1) TWI663961B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210146384A (ko) * 2019-05-14 2021-12-03 도시바 에너지시스템즈 가부시키가이샤 의용 화상 처리 장치, 기억 매체, 의용 장치, 및 치료 시스템

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
EP3433862B1 (en) * 2017-06-13 2019-08-07 Brainlab AG Binary tracking on medical images
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
CN109801225B (zh) * 2018-12-06 2022-12-27 重庆邮电大学 基于多任务全卷积神经网络的人脸网纹污迹去除方法
JP6686122B1 (ja) * 2018-12-21 2020-04-22 株式会社モルフォ 画像処理装置、画像処理方法およびプログラム
DE102019203192A1 (de) * 2019-03-08 2020-09-10 Siemens Healthcare Gmbh Erzeugung eines digitalen Zwillings für medizinische Untersuchungen
JP7287828B2 (ja) * 2019-04-26 2023-06-06 株式会社日立製作所 患者位置決めシステム、方法およびプログラム
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
JP7341950B2 (ja) * 2020-06-05 2023-09-11 富士フイルム株式会社 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
JP7316976B2 (ja) * 2020-06-05 2023-07-28 富士フイルム株式会社 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
TWI769067B (zh) * 2020-11-06 2022-06-21 和鑫生技開發股份有限公司 放射診斷裝置
US20220390628A1 (en) * 2021-06-08 2022-12-08 Academia Sinica Particle induced radiography system
CN113144443B (zh) * 2021-06-17 2021-09-03 中国原子能科学研究院 一种双源质子治疗***及治疗控制方法
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US20230021332A1 (en) * 2021-07-26 2023-01-26 GE Precision Healthcare LLC Methods and system for dynamically annotating medical images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140205167A1 (en) * 2013-01-24 2014-07-24 Varian Medical Systems International Ag Method for interactive manual matching and real-time projection calculation in imaging
US20160148401A1 (en) * 2014-11-26 2016-05-26 Kabushiki Kaisha Toshiba Image processor, image processing method, and treatment system
JP2016101358A (ja) 2014-11-28 2016-06-02 株式会社東芝 医用画像生成装置、方法、及びプログラム
US20170043184A1 (en) * 2014-02-24 2017-02-16 Shimadzu Corporation Moving-body tracking device for radiation therapy, irradiation region determining device for radiation therapy, and radiation therapy device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03121579A (ja) * 1989-10-04 1991-05-23 Toshiba Corp 三次元画像処理装置
US6409504B1 (en) 1997-06-20 2002-06-25 Align Technology, Inc. Manipulating a digital dentition model to form models of individual dentition components
US5975893A (en) 1997-06-20 1999-11-02 Align Technology, Inc. Method and system for incrementally moving teeth
FR2767807B1 (fr) 1997-08-26 1999-10-08 Oreal Procede de preparation d'oxyde de titane photochrome, compose obtenu et composition le comprenant
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US7853308B2 (en) * 2004-02-17 2010-12-14 Siemens Medical Solutions Usa, Inc. System and method for patient positioning for radiotherapy in the presence of respiratory motion
JP4126318B2 (ja) * 2006-06-23 2008-07-30 三菱重工業株式会社 放射線治療装置制御装置および放射線治療装置の制御方法
JP4956458B2 (ja) 2008-02-13 2012-06-20 三菱電機株式会社 患者位置決め装置及びその方法
JP5155759B2 (ja) 2008-07-17 2013-03-06 浜松ホトニクス株式会社 固体撮像装置
WO2013192598A1 (en) * 2012-06-21 2013-12-27 Excelsius Surgical, L.L.C. Surgical robot platform
JP6181459B2 (ja) * 2013-08-05 2017-08-16 株式会社日立製作所 放射線治療システム
JP6215108B2 (ja) * 2014-03-27 2017-10-18 株式会社日立製作所 放射線治療装置向けベッド位置決め装置
TWI565450B (zh) 2014-05-14 2017-01-11 Diagnostic system and method of human body parts for diagnosis and treatment equipment
US10925674B2 (en) * 2016-07-18 2021-02-23 Stryker European Operations Holdings Llc Surgical site displacement tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140205167A1 (en) * 2013-01-24 2014-07-24 Varian Medical Systems International Ag Method for interactive manual matching and real-time projection calculation in imaging
US20170043184A1 (en) * 2014-02-24 2017-02-16 Shimadzu Corporation Moving-body tracking device for radiation therapy, irradiation region determining device for radiation therapy, and radiation therapy device
US20160148401A1 (en) * 2014-11-26 2016-05-26 Kabushiki Kaisha Toshiba Image processor, image processing method, and treatment system
JP2016101358A (ja) 2014-11-28 2016-06-02 株式会社東芝 医用画像生成装置、方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210146384A (ko) * 2019-05-14 2021-12-03 도시바 에너지시스템즈 가부시키가이샤 의용 화상 처리 장치, 기억 매체, 의용 장치, 및 치료 시스템

Also Published As

Publication number Publication date
TW201836549A (zh) 2018-10-16
JP7018604B2 (ja) 2022-02-14
EP3669785A1 (en) 2020-06-24
US20180264288A1 (en) 2018-09-20
CN108744306B (zh) 2020-09-01
US11097129B2 (en) 2021-08-24
EP3375377A1 (en) 2018-09-19
KR20190134559A (ko) 2019-12-04
KR102070714B1 (ko) 2020-01-29
JP7120584B2 (ja) 2022-08-17
CN108744306A (zh) 2018-11-06
EP3669785B1 (en) 2021-10-13
JP2018153299A (ja) 2018-10-04
CN111956958A (zh) 2020-11-20
CN111956958B (zh) 2022-09-27
TWI663961B (zh) 2019-07-01
KR102049328B1 (ko) 2019-11-28
EP3375377B1 (en) 2020-03-11
JP2021094460A (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
KR102070714B1 (ko) 오브젝트 위치 결정 장치, 오브젝트 위치 결정 방법, 오브젝트 위치 결정 프로그램, 및 방사선 치료 시스템
CN109937012B (zh) 为成像***选择采集参数
US9830718B2 (en) Image processor, image processing method, and treatment system
JP2019526380A (ja) 放射線療法治療計画のモデルを学習して放射線療法の線量分布を予測するためのシステムおよび方法
CN111656405A (zh) 使用深度学习来减少金属伪影
US9919164B2 (en) Apparatus, method, and program for processing medical image, and radiotherapy apparatus
US20190366124A1 (en) Deep inspiration breath-hold setup using x-ray imaging
US9892526B2 (en) Radiotherapy apparatus and radiotherapy method
JP5797197B2 (ja) 信号処理装置、信号処理プログラム及び信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US20230097849A1 (en) Creation method of trained model, image generation method, and image processing device
US20180040121A1 (en) Method and system for automatic tube current modulation
JP2021520236A (ja) 解剖学的構造に基づくフレームレス二次元/三次元画像レジストレーション
KR101769331B1 (ko) Ct 영상 재구성 방법, 이를 위한 장치 및 기록 매체
JP2019032211A (ja) 核医学診断装置
KR20170078180A (ko) 단층 촬영을 위한 관심 영역 설정 방법 및 시스템
CN110730977A (zh) 低剂量成像方法及装置
US20230410308A1 (en) Detection of foreign objects in intraoperative images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right