KR20130039566A - Cpmpton camera and method for reconstructing image for resolution recovery thereof - Google Patents

Cpmpton camera and method for reconstructing image for resolution recovery thereof Download PDF

Info

Publication number
KR20130039566A
KR20130039566A KR1020110104217A KR20110104217A KR20130039566A KR 20130039566 A KR20130039566 A KR 20130039566A KR 1020110104217 A KR1020110104217 A KR 1020110104217A KR 20110104217 A KR20110104217 A KR 20110104217A KR 20130039566 A KR20130039566 A KR 20130039566A
Authority
KR
South Korea
Prior art keywords
image
resolution
scattering
reconstruction
reconstructed
Prior art date
Application number
KR1020110104217A
Other languages
Korean (ko)
Other versions
KR101272251B1 (en
Inventor
이재성
김수미
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020110104217A priority Critical patent/KR101272251B1/en
Publication of KR20130039566A publication Critical patent/KR20130039566A/en
Application granted granted Critical
Publication of KR101272251B1 publication Critical patent/KR101272251B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T3/00Measuring neutron radiation
    • G01T3/006Measuring neutron radiation using self-powered detectors (for neutrons as well as for Y- or X-rays), e.g. using Compton-effect (Compton diodes) or photo-emission or a (n,B) nuclear reaction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine (AREA)
  • Measurement Of Radiation (AREA)

Abstract

PURPOSE: A Compton camera and an image reconstitution method for restoration are provided to accurately compensate an error when an image is restored, thereby preventing degradation of spatial resolution of an elliptical cone image. CONSTITUTION: A projection unit calculates projection data by convolution of a reconstitution image and a resolution reconstruction modeling function. A reverse projection unit reversely projects an error between the projection data and measured projection data along a surface of an elliptical cone. The reverse projection unit calculates an error image by the convolution of the resolution reconstruction modeling function. [Reference numerals] (AA) Projection unit; (BB) Reverse projection unit;

Description

컴프턴 카메라 및 그의 해상도 복원용 영상 재구성 방법{CPMPTON CAMERA AND METHOD FOR RECONSTRUCTING IMAGE FOR RESOLUTION RECOVERY THEREOF}Compton camera and image reconstruction method for reconstruction of resolution {CPMPTON CAMERA AND METHOD FOR RECONSTRUCTING IMAGE FOR RESOLUTION RECOVERY THEREOF}

본 발명은 컴프턴 카메라 및 그의 해상도 복원용 영상 재구성 방법에 관한 것이다. The present invention relates to a Compton camera and an image reconstruction method for reconstructing the resolution thereof.

컴프턴 카메라는 컴프턴 산란 원리를 이용하여 방사선원의 3차원 분포를 영상화하는 감마선 영상 장치이다. 컴프턴 카메라는 산란부(scatterer)와 흡수부(absorber)의 두 검출기로 이루어지며, 산란부와 흡수부로부터 측정된 에너지와 검출 위치 정보를 이용하여 입사된 광자의 방향 정보를 얻는다. Compton cameras are gamma-ray imaging devices that image the three-dimensional distribution of a radiation source using the Compton scattering principle. The Compton camera is composed of two detectors, a scatterer and an absorber, and obtains direction information of an incident photon using energy and detection position information measured from the scatterer and the absorber.

즉, 산란부와 흡수부의 검출 위치로부터 광자가 산란부에서 컴프턴 산란 후 흡수부로 진행한 궤적으로 알 수 있고, 이 궤적을 잇는 축을 생성할 수 있다. 또한, 산란부에서 측정된 에너지로부터 산란각을 계산할 수 있으므로, 광자는 생성된 축을 중심으로 산란각의 각도로 입사했음을 알 수 있다. 하지만, 입사각은 알 수 없으므로, 단지 산란각의 반각을 갖는 타원추 표면 위의 어느 한 지점에서 광자가 방출되었다는 것만 추정할 수 있으며, 원리적으로 이러한 타원추 3개만 있으면 이 타원추들의 교점을 통해서 3차원 공간 상에서 광자가 방출된 원위치를 유추할 수 있게 된다. In other words, from the detection position of the scattering portion and the absorbing portion, the trajectory of the photons from the scattering portion to the absorbing portion after Compton scattering can be known, and an axis connecting the traces can be generated. In addition, since the scattering angle can be calculated from the energy measured by the scattering unit, it can be seen that the photons are incident at the scattering angle with respect to the generated axis. However, since the angle of incidence is unknown, we can only estimate that photons were emitted at any point on the surface of the ellipsoid with the half angle of the scattering angle. In principle, with these three ellipses, the intersection of these ellipses It is possible to infer the original position where photons are emitted in three-dimensional space.

이러한 컴프턴 카메라는 기계적 집속 장비 없이 검출기에서 측정된 검출 위치와 에너지 정보만을 이용하여 방사선원의 위치를 추정하는 전기적 집속(electronic collection) 방식을 사용함으로써, 기계적 집속 장비를 사용하여 단일 광자를 검출하는 기존의 핵의학 영상, 비파괴 검사 및 우주방사선 측정용 방사선 영상 장치들의 여러 가지 한계점들을 극복할 수 있기 때문에 차세대 감마선 영상 장치로서 관심을 받고 있다. Such a Compton camera uses an electronic collection method that estimates the position of a radiation source using only the detection position and energy information measured by a detector without a mechanical focusing device, thereby detecting a single photon using a mechanical focusing device. It is attracting attention as the next generation gamma ray imaging device because it can overcome various limitations of radiological imaging devices for nuclear medical imaging, nondestructive testing and space radiation measurement.

컴프턴 카메라는 타원추를 정확히 결정해야 높은 공간 해상도의 영상을 획득할 수 있다. Compton cameras must accurately determine elliptical cones to obtain high spatial resolution images.

현재 컴프턴 카메라는 산란부와 흡수부의 실제 검출 위치를 균일하게 샘플된 위치로 매핑하고 있어서 산란부와 흡수부의 검출 위치에 오차가 발생하고, 산란부의 에너지 해상도와 도플러 퍼짐 현상에 의해 산란각에도 오차가 발생한다. 그러나, 영상 재구성 시에 이들 오차를 정확하게 보상하고 있지 않고 있으므로, 타원추 영상의 공간 해상도가 저하되고, 이로 인해서 정확한 방사선원의 위치를 유추할 수 없는 문제점이 있다. Currently, Compton cameras map the actual detection positions of the scattering and absorbing units to uniformly sampled positions, resulting in errors in the scattering and absorbing detection positions, and also in scattering angles due to energy resolution and the Doppler spread of the scattering unit. Occurs. However, since these errors are not compensated for correctly during image reconstruction, the spatial resolution of the elliptic cone image is deteriorated, and thus, there is a problem in that the exact position of the radiation source cannot be inferred.

본 발명이 해결하고자 하는 기술적 과제는 공간 해상도를 향상시킬 수 있는 컴프턴 카메라 및 그의 해상도 복원용 영상 재구성 방법을 제공하는 것이다. SUMMARY OF THE INVENTION The present invention has been made in an effort to provide a Compton camera capable of improving spatial resolution and an image reconstruction method for reconstructing its resolution.

본 발명의 한 실시 예에 따르면, 컴프턴 산란 반응을 일으키는 제1 검출기와 컴프턴 산란된 광자가 흡수되는 제2 검출기를 포함하는 컴프턴 카메라의 영상 재구성 방법이 제공된다. 컴프턴 카메라의 영상 재구성 방법은, 방사선원으로부터 발생한 광자가 제1 검출기에서 컴프턴 산란 반응이 일어난 산란 반응 위치와 산란각 및 컴프턴 산란된 광자가 상기 제2 검출기에서 흡수되는 흡수 반응 위치를 검출하는 단계, 상기 산란 반응 위치, 상기 산란각 및 상기 흡수 반응 위치와 상기 방사선원의 위치에 따라 다른 해상도 복원을 가지는 해상도 복원 모델링 함수를 이용하여 재구성 영상의 해상도를 복원하는 단계, 그리고 상기 재구성 영상으로부터 상기 방사선원의 분포를 추정하는 단계를 포함한다. According to an embodiment of the present invention, there is provided an image reconstruction method of a Compton camera including a first detector causing a Compton scattering reaction and a second detector for absorbing the Compton scattered photons. The image reconstruction method of a Compton camera detects a scattering reaction position where photons generated from a radiation source have a Compton scattering reaction at a first detector, and a scattering angle and an absorption reaction position where the Compton scattered photons are absorbed at the second detector. Restoring the resolution of the reconstructed image by using a resolution reconstruction modeling function having different resolution reconstructions according to the scattering reaction position, the scattering angle, the absorption reaction position, and the position of the radiation source, and the radiation source from the reconstructed image. Estimating the distribution of.

상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리에 따라 다른 해상도 복원을 가질 수 있다. The resolution reconstruction modeling function may have different resolution reconstructions according to the distance between the Compton camera and the radiation source.

상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리 및 반경에 따라 다른 해상도 복원을 가질 수 있다. The resolution reconstruction modeling function may have different resolution reconstructions according to the distance and radius of the Compton camera and the radiation source.

상기 복원하는 단계는, 리스트모드 및 사이노그램을 재구성할 수 있는 통계학적 영상 재구성법을 이용하여 상기 재구성 영상을 생성하는 단계를 포함할 수 있다. The reconstructing may include generating the reconstructed image using a statistical image reconstruction method capable of reconstructing the list mode and the sinogram.

상기 통계학적 영상 재구성법을 이용하여 재구성 영상을 생성하는 단계는, 투사와 역투사의 반복 연산을 통해서 상기 재구성 영상을 업데이트하는 단계를 포함할 수 있다. The generating of the reconstructed image by using the statistical image reconstruction may include updating the reconstructed image through a repetitive operation of projection and reverse projection.

상기 통계학적 영상 재구성법을 이용하여 재구성 영상을 생성하는 단계는, Generating a reconstructed image by using the statistical image reconstruction method,

k번째 반복 연산에서, l번째 재구성된 영상을 투사하여 투사 데이터를 추정하는 단계, 측정된 투사 데이터와 추정된 투사 데이터 사이의 오차를 계산하는 단계, 상기 오차를 l번째 재구성된 영상에 역투사하여 (l+1)번째 영상 추정 시 사용할 오차 영상을 산출하는 단계, 그리고 상기 오차 영상을 이용하여 (k,l)번째 추정된 영상을 보상하여 (l+1)번째 영상을 재구성하는 단계를 포함할 수 있다. 이때, 상기 k 및 l은 반복 연산의 횟수 및 투사 데이터에 대한 부분 집합의 인덱스를 나타낸다. in the k-th iterative operation, projecting the l-th reconstructed image to estimate projection data, calculating an error between the measured projection data and the estimated projection data, and projecting the error back to the l-th reconstructed image calculating an error image for use in estimating the (l + 1) th image, and reconstructing the (l + 1) th image by compensating the (k, l) th estimated image using the error image; Can be. Where k and l represent the number of iterations and the index of a subset of the projection data.

상기 통계학적 영상 재구성법을 이용하여 재구성 영상을 생성하는 단계는, 상기 부분 집합의 수만큼 상기 추정하는 단계, 상기 오차를 계산하는 단계, 상기 오차 영상을 산출하는 단계 및 상기 재구성하는 단계를 반복하는 단계, 그리고 상기 반복하는 단계를 상기 반복 연산의 횟수만큼 반복하여 상기 재구성 영상을 생성하는 단계를 더 포함할 수 있다. The generating of the reconstructed image by using the statistical image reconstruction method may include repeating the estimating, calculating the error, calculating the error image, and reconstructing the number of the subset. The method may further include generating the reconstructed image by repeating the repeating step as many times as the number of repetitive operations.

상기 투사 데이터를 추정하는 단계는, l번째 재구성된 영상에 상기 해상도 복원 모델링 함수를 콘볼루션하는 단계를 포함할 수 있다. The estimating the projection data may include convolving the resolution reconstruction modeling function to an l-th reconstructed image.

상기 오차 영상을 산출하는 단계는, 상기 오차를 상기 (k,l)번째 재구성할 영상에 역투사한 후에 상기 해상도 복원 모델링 함수를 콘볼루션하는 단계를 포함할 수 있다. The calculating of the error image may include convolving the resolution reconstruction modeling function after back projecting the error to the (k, l) th reconstructed image.

상기 (l+1)번째 영상을 재구성하는 단계는, 정규화 영상에 상기 해상도 복원 모델링 함수를 콘볼루션하는 단계, 그리고 상기 해상도 복원 모델링 함수가 콘볼루션된 정규화 영상을 이용하여 (k,l)번째 보상된 영상으로부터 상기 (l+1)번째 영상을 재구성하는 단계를 포함할 수 있다. Reconstructing the (l + 1) th image may include: convolving the resolution reconstruction modeling function to a normalized image, and performing a (k, l) th compensation using the normalized image to which the resolution reconstruction modeling function is convolved. And reconstructing the (l + 1) th image from the captured image.

본 발명의 다른 실시 예에 따르면, 컴프턴 카메라가 제공된다. 컴프턴 카메라는 산란부, 흡수부, 그리고 영상 재구성부를 포함한다. 산란부는 방사선원으로부터 발생한 광자가 컴프턴 산란을 일으킨다. 흡수부는 상기 컴프턴 산란된 광자를 흡수한다. 그리고 영상 재구성부는 재구성할 영상에 상기 방사선원의 위치에 따라 다른 해상도 복원을 가지는 해상도 복원 모델링 함수를 적용하여 상기 산란부 및 흡수부의 검출 데이터로부터 상기 방사선원에 대한 3차원 영상을 재구성하면서 상기 3차원 영상의 해상도를 복원한다. According to another embodiment of the present invention, a Compton camera is provided. The Compton camera includes a scattering unit, an absorbing unit, and an image reconstructing unit. The scattering portion causes photons generated from the radiation source to cause Compton scattering. The absorber absorbs the Compton scattered photons. The image reconstruction unit applies a resolution reconstruction modeling function having a different resolution reconstruction according to the position of the radiation source to reconstruct an image to be reconstructed, thereby reconstructing the three-dimensional image of the radiation source from the detection data of the scattering and absorbing units. Restore the resolution.

상기 검출 데이터는 상기 산란부에서 컴프턴 산란이 일어난 산란 반응 위치와 산란각 및 상기 흡수부에서 흡수되는 흡수 반응 위치를 포함할 수 있으며, 상기 영상 재구성부는, 리스트모드를 이용한 OSEM(List Mode OSEM, LMOSEM)을 이용하여 상기 방사선원에 대한 3차원 영상을 재구성할 수 있다. The detection data may include a scattering reaction position where the Compton scattering occurs in the scattering unit, a scattering angle, and an absorption reaction position absorbed by the absorbing unit, and the image reconstructing unit may include an OSEM (List Mode OSEM, LMOSEM) can be used to reconstruct a three-dimensional image of the radiation source.

상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리에 따라 다른 해상도 복원을 가질 수 있다. The resolution reconstruction modeling function may have different resolution reconstructions according to the distance between the Compton camera and the radiation source.

상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리 및 반경에 따라 다른 해상도 복원을 가질 수 있다. The resolution reconstruction modeling function may have different resolution reconstructions according to the distance and radius of the Compton camera and the radiation source.

상기 산란부는 상기 방사선원의 x축, y축 및 z축 중 적어도 하나에 위치하며, 상기 흡수부는 상기 방사선원의 x축, y축 및 z축 중 적어도 하나에 상기 산란부에 대응하여 위치할 수 있다. The scattering unit may be positioned on at least one of the x-axis, the y-axis, and the z-axis of the radiation source, and the absorbing unit may be positioned to correspond to the scattering unit on at least one of the x-axis, the y-axis, and the z-axis of the radiation source.

본 발명의 실시 예에 의하면, 컴프턴 카메라에서 얻어지는 영상의 공간 해상도를 향상시킬 수 있다. According to an embodiment of the present invention, the spatial resolution of an image obtained by a Compton camera can be improved.

도 1은 본 발명의 실시 예에 따른 컴프턴 카메라를 개략적으로 나타낸 도면이다.
도 2는 공간 해상도 저하를 일으키는 컴프턴 카메라의 기하학적 요인을 나타낸 도면이다.
도 3은 공간 해상도 저하를 일으키는 컴프턴 카메라의 산란각 요인을 나타낸 도면이다.
도 4는 컴프턴 산란 시 도플러 퍼짐 현상에 대한 개념도이다.
도 5는 각 요인별 공간 해상도의 저하 정도를 측정하기 위한 시뮬레이션 조건을 나타낸 도면이다.
도 6은 측정 오차가 없는 이상적인 시뮬레이션에서 얻은 140 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이다.
도 7은 해상도 저하 요인이 존재하는 시뮬레이션에서 얻은 140 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이다.
도 8은 이상적인 시뮬레이션에서 얻은 511 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이다.
도 9는 해상도 저하 요인이 존재하는 시뮬레이션에서 얻은 511 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이다.
도 10 및 도 11은 각각 본 발명의 제1 실시 예에 따른 1-DIR 컴프턴 카메라의 점퍼짐 함수를 정의하기 위한 FWHM 측정 조건을 나타낸 도면이다.
도 12a 및 도 12b는 각각 도 10에 도시된 7개의 포인트 소스들의 측정된 FWHM과 거리에 따른 추정된 FWHM 함수를 나타낸 도면이다.
도 13a 내지 도 13d는 각각 도 11에 도시된 35개의 포인트 소스들의 측정된 FWHM과 추정된 거리에 따른 FWHM 함수를 나타낸 도면이다.
도 14는 본 발명의 제2 실시 예에 따른 3-DIR 컴프턴 카메라를 나타낸 도면이다.
도 15a 및 도 15b는 각각 본 발명의 제2 실시 예에 따른 3-DIR 컴프턴 카메라의 점퍼짐 함수를 정의하기 위한 FWHM 측정 조건을 나타낸 도면이다.
도 16a 내지 도 16c는 각각 도 15a에 도시된 포인트 소스들에서 측정된 x, y와 z축에 대한 FWHM을 나타낸 도면이다.
도 17은 본 발명의 실시 예에 따른 LMOSEM 영상 재구성 기법에서 선 추적법을 설명하는 도면이다.
도 18은 본 발명의 실시 예에 따른 영상 재구성부의 영상 재구성 방법을 설명한 도면이다.
도 19 및 도 20은 각각 영상 공간의 원점에 위치한 140 keV와 511 keV의 포인트 소스의 시뮬레이션 데이터에 대한 재구성 영상을 나타낸 도면이다.
도 21은 도 19 및 도 20에 도시된 재구성 영상의 FWHM을 나타낸 도면이다.
도 22는 본 발명의 실시 예에 따른 영상 재구성 기법에 의해 재구성된 7개의 포인트 소스의 해상도를 나타낸 도면이다.
도 23은 재구성된 7개의 포인트 소스에 대하여 측정된 FWHM을 나타낸 도면이다.
도 24는 본 발명의 실시 예에 따른 영상 재구성 기법의 해상도 복원 효과를 설명하기 위한 1-DIR 컴프턴 카메라의 실험 조건을 나타낸 도면이다.
도 25는 도 24에 도시된 2개의 포인트 소스의 리스트 모드 데이터에 대한 재구성 결과를 나타낸 도면이다.
도 26은 두 포인트 소스에 대한 3-DIR 컴프턴 카메라의 데이터 재구성 결과를 나타낸 도면이다.
도 27은 6개의 포인트 소스에 대한 3-DIR 컴프턴 카메라의 데이터 재구성 결과를 나타낸 도면이다.
1 is a view schematically showing a Compton camera according to an embodiment of the present invention.
2 is a diagram illustrating geometric factors of a Compton camera causing spatial resolution degradation.
3 is a diagram illustrating scattering angle factors of a Compton camera causing spatial resolution deterioration.
4 is a conceptual diagram of a Doppler spread phenomenon in Compton scattering.
5 is a diagram illustrating simulation conditions for measuring the degree of degradation of the spatial resolution for each factor.
FIG. 6 shows reconstruction results of simulation data for a 140 KeV point source obtained in an ideal simulation with no measurement error.
FIG. 7 is a diagram illustrating a reconstruction result of simulation data for a 140 KeV point source obtained in a simulation in which a resolution degradation factor exists.
8 is a diagram illustrating reconstruction results of simulation data for a 511 KeV point source obtained in an ideal simulation.
9 is a diagram illustrating a reconstruction result of simulation data for a 511 KeV point source obtained in a simulation in which a resolution degradation factor exists.
10 and 11 are diagrams showing FWHM measurement conditions for defining jumper functions of the 1-DIR Compton camera according to the first embodiment of the present invention.
12A and 12B are diagrams showing the estimated FWHM function and the estimated FWHM function according to the distance of the seven point sources shown in FIG. 10, respectively.
13A to 13D are diagrams illustrating FWHM functions according to measured FWHMs and estimated distances of the 35 point sources illustrated in FIG. 11, respectively.
14 is a diagram illustrating a 3-DIR compton camera according to a second embodiment of the present invention.
15A and 15B are diagrams illustrating FWHM measurement conditions for defining a jumper function of a 3-DIR Compton camera according to a second embodiment of the present invention.
16A to 16C show FWHMs for the x, y and z axes measured at the point sources shown in FIG. 15A, respectively.
17 is a diagram illustrating a line tracking method in an LMOSEM image reconstruction method according to an embodiment of the present invention.
18 is a view illustrating an image reconstruction method of an image reconstruction unit according to an embodiment of the present invention.
19 and 20 are diagrams illustrating reconstructed images of simulation data of point sources of 140 keV and 511 keV located at the origin of the image space, respectively.
21 is a diagram illustrating an FWHM of the reconstructed image shown in FIGS. 19 and 20.
22 is a diagram illustrating resolutions of seven point sources reconstructed by an image reconstruction technique according to an embodiment of the present invention.
FIG. 23 shows the measured FWHM for the reconstructed seven point sources.
24 is a diagram illustrating experimental conditions of a 1-DIR Compton camera for explaining a resolution reconstruction effect of an image reconstruction technique according to an exemplary embodiment of the present invention.
FIG. 25 is a diagram illustrating a reconstruction result of list mode data of two point sources illustrated in FIG. 24.
FIG. 26 is a diagram showing data reconstruction results of a 3-DIR Compton camera for two point sources.
27 is a diagram illustrating data reconstruction results of a 3-DIR Compton camera for six point sources.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification and claims, when a section is referred to as "including " an element, it is understood that it does not exclude other elements, but may include other elements, unless specifically stated otherwise.

이제 본 발명의 실시 예에 따른 컴프턴 카메라 및 그의 해상도 복원용 영상 재구성 방법에 대하여 도면을 참고로 하여 상세하게 설명한다. Now, a Compton camera and an image reconstruction method for reconstructing a resolution thereof according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 컴프턴 카메라를 개략적으로 나타낸 도면이다. 1 is a view schematically showing a Compton camera according to an embodiment of the present invention.

도 1을 참고하면, 컴프턴 카메라(10)는 광자가 컴프턴 산란 반응을 일으키는 산란부(scatterer)(100), 산란된 광자가 흡수되는 흡수부(absorber)(200) 및 영상 재구성부(300)를 포함한다. Referring to FIG. 1, the Compton camera 10 includes a scatterer 100 in which photons cause a Compton scattering reaction, an absorber 200 in which scattered photons are absorbed, and an image reconstructor 300. ).

3차원 영상 공간 상에 존재하는 방사선원에서 발생한 광자가 산란부(100)로 입사되고, 산란부(100)에서 입사된 광자가 컴프턴 산란 반응을 일으키고, 흡수부(200)에서 컴프턴 산란된 광자를 흡수한다. Photons generated from the radiation source present in the three-dimensional image space is incident to the scattering unit 100, photons incident from the scattering unit 100 cause a Compton scattering reaction, Compton scattered photons in the absorber 200 Absorb it.

영상 재구성부(300)는 산란부(100)에서 광자가 컴프턴 산란하는 산란 반응 위치(m)와 흡수부(200)에서 광자가 흡수되는 흡수 반응 위치(n) 및 산란부(100)에서 흡수한 에너지 값으로부터 계산된 산란각(

Figure pat00001
)을 이용하여 타원추를 생성하고, 생성한 타원추 표면으로부터 광자가 방출된 실제 위치인 방사선원의 분포를 유추한다. The image reconstructing unit 300 absorbs the scattering reaction position m at which the photons are Compton scattered at the scattering unit 100, the absorption reaction position n at which the photons are absorbed at the absorber 200, and the scattering unit 100 at the scattering unit 100. The scattering angle calculated from one energy value (
Figure pat00001
) To create an elliptical cone and infer the distribution of the radiation source, the actual location where photons are emitted from the elliptical cone surface.

즉, 영상 재구성부(300)는 산란부(100)의 산란 반응 위치(m)와 흡수부(200)의 흡수 반응 위치(n)를 연결하여 산란축(ax)을 생성하고, 산란부(100)에서 측정된 에너지를 컴프턴 산란 공식에 적용하여 산란각(

Figure pat00002
)을 계산한 후에 산란축(ax)과 산란각(
Figure pat00003
)을 원추각으로 하는 타원추를 생성한다. 이때, 광자는 생성된 산란축을 중심으로 산란각의 각도로 입사했음을 알 수 있다. 이때, 입사각은 알 수 없으므로, 단지 산란각의 각도를 갖는 타원추 표면 위의 어느 한 지점에서 광자가 방출되었다는 것만을 추정할 수 있다. That is, the image reconstructor 300 connects the scattering reaction position m of the scattering unit 100 and the absorption reaction position n of the absorber 200 to generate a scattering axis (ax), and the scattering unit 100. ) And apply the measured energy to the Compton scattering equation
Figure pat00002
After calculating), the scattering axis (ax) and the scattering angle (
Figure pat00003
Create an elliptical cone with the cone angle as). In this case, it can be seen that the photons are incident at an angle of scattering angle around the generated scattering axis. Since the angle of incidence is unknown at this time, it can only be estimated that photons were emitted at any point on the surface of the elliptical cone with the angle of scattering angle.

다음, 영상 재구성부(300)는 생성한 타원추의 표면을 기반으로 컴프턴 투사 데이터를 계산하고, 컴프턴 투사 데이터를 통계학적 영상 재구성법의 입력으로 사용하여 영상을 재구성한다. 통계학적 영상 재구성법으로는 배열된 기대값 최대화(Expectation maximization, EM), 부분집합 기대값 최대화(Ordered subsets expectation maximization, OSEM), RAMLA(Row action maximum likelihood algorithm), 최대우도문제(maximum likelihood problem)를 풀 수 있는 최대경사법(steepest ascent) 및 켤레경사도법(conjugate-gradient), ICA(iterated coordinate-ascent) 재구성 방법이 사용될 수 있다. Next, the image reconstruction unit 300 calculates the Compton projection data based on the generated surface of the elliptical cone, and reconstructs the image using the Compton projection data as an input of the statistical image reconstruction method. Statistical image reconstruction methods include Expectation maximization (EM), Ordered subsets expectation maximization (OSEM), Low action maximum likelihood algorithm (RAMLA), and maximum likelihood problem The steepest ascent, conjugate-gradient, and iterated coordinate-ascent (ICA) reconstruction methods can be used.

원리적으로는 타원추가 3개만 있으면 영상 재구성부(300)는 이 타원추들의 교점을 통해서 3차원 공간 상에서 광자가 방출된 실제 위치를 유추할 수 있으며, 해당 방사선 분포에 대한 타원추가 많이 검출되면 더 정확한 위치 및 그 위치에서 몇 개의 감마선이 방출되는지를 나타내는 방사선 세기를 재구성하는 영상을 얻을 수 있다. 예를 들어서, 방사선원으로부터 10개의 광자가 산란부(100)에서 컴프턴 산란 반응을 하고 흡수부(200)에서 흡수된다고 하면, 10개의 타원추가 생성되고 이들 10개의 타원추가 서로 만나는 공간상의 위치로부터 방사선원의 위치를 유추할 수 있다. In principle, if there are only three elliptic cones, the image reconstruction unit 300 can infer the actual position where photons are emitted in the three-dimensional space through the intersection of these elliptical cones. An image can be obtained that reconstructs the radiation intensity indicating the exact location and how many gamma rays are emitted at that location. For example, if 10 photons from the radiation source perform a Compton scattering reaction in the scattering unit 100 and are absorbed in the absorbing unit 200, 10 elliptic cones are generated and the radiation source is located from the spatial position where the 10 elliptic cones meet each other. We can infer the position of.

컴프턴 카메라(10)에서 산란각(

Figure pat00004
)은 산란부(100)에서 측정한 에너지를 이용하여 계산될 수 있다. Scattering angle with Compton Camera (10)
Figure pat00004
) May be calculated using the energy measured by the scattering unit 100.

[수학식 1][Equation 1]

Figure pat00005
Figure pat00005

수학식 1에서, mc2는 광자와 산란을 일으키는 전자의 정지 질량(rest mass energy)이고,

Figure pat00006
은 산란 전의 광자의 에너지로 이미 알고 있는 값이다. 그리고
Figure pat00007
는 산란 후 광자의 에너지로 산란부(100)에서 측정한 에너지이다. In Equation 1, mc 2 is the rest mass energy of the photons and electrons causing scattering,
Figure pat00006
Is the value already known as the energy of photons before scattering. And
Figure pat00007
Is the energy measured by the scattering unit 100 as the energy of photons after scattering.

이와 같이, 컴프턴 카메라(10)는 타원추를 정확히 결정해야 높은 공간 해상도를 가지는 재구성 영상을 획득할 수 있다. As such, the Compton camera 10 may accurately determine an elliptical cone to obtain a reconstructed image having a high spatial resolution.

컴프턴 카메라(10)에서 공간 해상도 저하를 일으키는 물리적 요인은 크게 기하학적 요인과 산란각 요인으로 구분할 수 있다. Physical factors causing spatial resolution degradation in the Compton camera 10 can be largely divided into geometric factors and scattering angle factors.

도 2는 공간 해상도 저하를 일으키는 컴프턴 카메라의 기하학적 요인을 나타낸 도면이다. 2 is a diagram illustrating geometric factors of a Compton camera causing spatial resolution degradation.

도 2를 참고하면, 기하학적 요인은 컴프턴 카메라(10)를 구성하는 산란부(100)와 흡수부(200)의 반응 위치의 검출 오차에 관한 것이다. 산란부(100)와 흡수부(200)는 각각 실제 반응 위치를 각각 균일하게 샘플된 위치로 매핑하여 산란 반응 위치와 흡수 반응 위치를 검출한다. 즉, 산란부(100)와 흡수부(200)는 일정한 면적을 갖는 각 검출 격자 내 측정된 모든 이벤트를 해당 검출 격자의 중심 위치로 측정하므로, 산란부(100)와 흡수부(200)의 실제 반응 위치가 각각 A 및 B임에도 불구하고, 산란부(100)와 흡수부(200)에서 검출된 산란 반응 위치와 흡수 반응 위치는 A' 및 B'가 되며, 검출된 산란 반응 위치와 흡수 반응 위치는 실제 반응 위치에 비해 (A-A') 및 (B-B') 만큼의 오차를 가진다. 이러한 반응 위치의 오차만큼 타원추의 축이 잘못 설정되어 이를 기반으로 얻어지는 재구성 영상의 공간 해상도가 저하된다. Referring to FIG. 2, the geometric factors relate to the detection error of the reaction position of the scattering unit 100 and the absorbing unit 200 constituting the Compton camera 10. The scattering unit 100 and the absorbing unit 200 respectively map the actual reaction positions to the uniformly sampled positions to detect the scattering reaction positions and the absorption reaction positions. That is, since the scattering unit 100 and the absorber 200 measure all the events measured in each detection grating having a predetermined area at the center position of the detection grating, the scattering unit 100 and the absorbing unit 200 are actually measured. Although the reaction positions are A and B, respectively, the scattering reaction positions and the absorption reaction positions detected by the scattering unit 100 and the absorbing unit 200 are A 'and B', and the detected scattering reaction positions and the absorption reaction positions are as follows. Has errors of (A-A ') and (B-B') relative to the actual reaction site. As the axis of the elliptic cone is set incorrectly by the error of the reaction position, the spatial resolution of the reconstructed image obtained based on this is lowered.

도 3은 공간 해상도 저하를 일으키는 컴프턴 카메라의 산란각 요인을 나타낸 도면이다. 3 is a diagram illustrating scattering angle factors of a Compton camera causing spatial resolution deterioration.

도 3을 참고하면, 산란각(

Figure pat00008
)에 의해 타원추의 두께가 결정된다. 따라서, 산란각(
Figure pat00009
)에 오차(
Figure pat00010
)가 발생하면, 오차(
Figure pat00011
)만큼 재구성 영상의 공간 해상도가 저하된다. Referring to Figure 3, the scattering angle (
Figure pat00008
) Determines the thickness of the elliptical cone. Therefore, the scattering angle (
Figure pat00009
Error in
Figure pat00010
) Occurs, the error (
Figure pat00011
Decreases the spatial resolution of the reconstructed image.

수학식 1을 보면, 산란각(

Figure pat00012
)은 산란부(100)에서 측정된 에너지에 기반하여 결정되므로, 산란부(100)의 에너지 해상도는 산란각(
Figure pat00013
)의 정확성에 영향을 미치게 된다. 또한, 산란각 오차는 도플러 퍼짐 현상에 의해 발생할 수도 있다. In Equation 1, the scattering angle (
Figure pat00012
) Is determined based on the energy measured by the scattering unit 100, so that the energy resolution of the scattering unit 100 is the scattering angle (
Figure pat00013
) Will affect the accuracy of the. In addition, the scattering angle error may be caused by the Doppler spread phenomenon.

도 4는 컴프턴 산란 시 도플러 퍼짐 현상에 대한 개념도이다. 4 is a conceptual diagram of a Doppler spread phenomenon in Compton scattering.

도 4를 참고하면, 도플러 퍼짐 현상은 컴프턴 산란 반응에 참여한 전자가 정지해 있지 않고 운동 상태에 있을 때 생기는 현상으로, 산란부(100) 및 흡수부(200)에서 측정되는 에너지에 오차를 발생시킨다. Referring to FIG. 4, the Doppler spread phenomenon occurs when the electrons participating in the Compton scattering reaction are not stopped but are in a kinetic state. An error occurs in the energy measured by the scattering unit 100 and the absorbing unit 200. Let's do it.

도 4에서,

Figure pat00014
은 산란 전의 광자의 에너지이고,
Figure pat00015
는 산란 후의 광자의 에너지이다.
Figure pat00016
은 산란 전의 전자의 에너지이고,
Figure pat00017
은 산란 후의 전자의 에너지이다. 또한, P는 감마선 혹은 전자의 진행 방향을 나타내고,
Figure pat00018
는 산란각을 나타낸다. In Figure 4,
Figure pat00014
Is the energy of photons before scattering,
Figure pat00015
Is the energy of photons after scattering.
Figure pat00016
Is the energy of the electron before scattering,
Figure pat00017
Is the energy of electrons after scattering. In addition, P represents the advancing direction of a gamma ray or an electron,
Figure pat00018
Represents the scattering angle.

즉, 수학식 1은 정지 상태의 전자를 가정하고 유도된 식이므로, 이를 바탕으로 계산된 산란각(

Figure pat00019
)에는 오차가 발생하게 된다. That is, Equation 1 is derived based on the assumption that the electron is in a stationary state.
Figure pat00019
), An error occurs.

그러면, 각 요인별로 공간 해상도를 얼마나 저하시키는지에 대해서 도 5 내지 9를 참고로 하여 설명한다. Then, how to reduce the spatial resolution for each factor will be described with reference to FIGS. 5 to 9.

도 5는 각 요인별 공간 해상도의 저하 정도를 측정하기 위한 시뮬레이션 조건을 나타낸 도면이다. 5 is a diagram illustrating simulation conditions for measuring the degree of degradation of the spatial resolution for each factor.

도 5에 도시한 바와 같이, 방사선원에 해당하는 포인트 소스(P1)를 산란부(100)의 중심으로부터 6cm 떨어진 위치에 두고 산란부(100)와 흡수부(200)의 간격을 5cm로 하여 시뮬레이션을 수행한다. As shown in FIG. 5, the point source P1 corresponding to the radiation source is placed at a distance of 6 cm from the center of the scattering unit 100 and the distance between the scattering unit 100 and the absorbing unit 200 is 5 cm. To perform.

포인트 소스의 에너지는 140과 511 킬로 일렉트론 볼트(KeV)이며, n,

Figure pat00020
및 m에 대한 106 이벤트를 몬테카를로 시뮬레이션을 통하여 얻었다. 산란부(100)와 흡수부(200)로 각각 DSSD(double-sided silicon strip detector)와 25-SEGD(25-segmented germanium detector)인 컴프턴 카메라를 사용하였다. The energy of the point source is 140 and 511 kiloelectron volts (KeV), n,
Figure pat00020
10 6 events for and m were obtained through Monte Carlo simulations. As the scattering unit 100 and the absorbing unit 200, a Compton camera, which is a double-sided silicon strip detector (DSSD) and a 25-segmented germanium detector (25-SEGD), was used, respectively.

이러한 시뮬레이션 조건에서 해상도 저하를 일으키는 모든 물리적 요인이 모두 제거된 이상적인 시뮬레이션에서 이상적인 시뮬레이션 데이터를 얻고, 산란부(100)와 흡수부(200)의 검출 격자에 따른 반응 위치의 샘플링, 산란부(100)의 에너지 해상도 및 도플러 퍼짐 현상과 같은 해상도 저하 요인이 존재하는 시뮬레이션에서 시뮬레이션 데이터를 얻었다. In this simulation condition, ideal simulation data is obtained from an ideal simulation in which all physical factors causing resolution degradation are eliminated, and sampling of the reaction position according to the detection grid of the scattering unit 100 and the absorbing unit 200, the scattering unit 100 is performed. Simulation data were obtained from simulations in which resolution degradation factors such as energy resolution and Doppler spread phenomena exist.

다음, 각 시뮬레이션 데이터로부터 리스트모드를 이용한 OSEM(List Mode OSEM, LMOSEM)을 이용하여 영상을 재구성하였고, 부분 집합의 개수는 10개이며 3번의 반복연산을 수행하였다. 그리고 해상도 저하의 정확한 측정을 위하여 각 축의 중심단면에 대한 프로파일을 그리고 프로파일 상에서 구한 반치폭(full width half maximum, FWHM)을 구하였다. 그 결과는 도 6 내지 도 9와 같이 나타났다. Next, images were reconstructed from each simulation data using List Mode OSEM (LMOSEM) using List Mode, and the number of subsets was 10 and three iterations were performed. In order to accurately measure the resolution degradation, the profile of the central section of each axis and the full width half maximum (FWHM) obtained on the profile were obtained. The result was as shown in Figs.

도 6은 이상적인 시뮬레이션에서 얻은 140 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이고, 도 7은 해상도 저하 요인이 존재하는 시뮬레이션에서 얻은 140 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이다. 또한, 도 8은 이상적인 시뮬레이션에서 얻은 511 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이고, 도 9는 해상도 저하 요인이 존재하는 시뮬레이션에서 얻은 511 KeV 포인트 소스에 대한 시뮬레이션 데이터의 재구성 결과를 나타낸 도면이다. FIG. 6 is a diagram illustrating a reconstruction result of simulation data for a 140 KeV point source obtained in an ideal simulation, and FIG. 7 is a diagram illustrating a reconstruction result of simulation data for a 140 KeV point source obtained in a simulation in which a resolution degradation factor exists. . FIG. 8 is a diagram illustrating reconstruction results of simulation data for a 511 KeV point source obtained in an ideal simulation, and FIG. 9 is a diagram illustrating reconstruction results of simulation data for a 511 KeV point source obtained in a simulation in which a resolution degradation factor exists. Drawing.

도 6 내지 도 9를 참고하면, 해상도 저하 요인이 존재하는 시뮬레이션에서 얻어진 시뮬레이션 데이터의 재구성 영상의 해상도는 이상적인 시뮬레이션에서 얻어진 시뮬레이션 데이터의 재구성 영상의 해상도에 비해 현저하게 떨어지는 것을 확인할 수 있다. 6 to 9, it can be seen that the resolution of the reconstructed image of the simulation data obtained in the simulation in which the resolution degradation factor exists is significantly lower than the resolution of the reconstructed image of the simulation data obtained in the ideal simulation.

또한, 컴프턴 카메라가 놓여진 x축에 수직하는 단면상에서 구한, 즉 y 혹은 z축 상의 FWHM은 1.6 mm에서 12.2 mm까지 해상도 저하가 있는 것을 확인할 수 있다. 그리고 x축에 대한 포인트 소스의 FWHM은 2.4 mm에서 18.3 mm로 상당한 해상도 저하를 있는 것을 확인할 수 있다. In addition, it can be seen that the FWHM obtained on the cross section perpendicular to the x axis on which the Compton camera is placed, that is, on the y or z axis, has a resolution reduction from 1.6 mm to 12.2 mm. And the FWHM of the point source for the x-axis shows a significant resolution drop from 2.4 mm to 18.3 mm.

또한, 도 6 내지 도 9를 보면, 산란부와 흡수부의 검출 격자의 샘플 크기에 따른 반응 위치 측정에 대한 오차가 해상도 저하가 가장 큰 영향을 미치는 것을 확인할 수도 있다. 6 to 9, it may be confirmed that the error in the measurement of the reaction position according to the sample size of the detection grating of the scattering unit and the absorbing unit has the greatest effect on the resolution reduction.

그러면, 본 발명의 실시 예에 따른 통계학적 영상 재구성법(statistical reconstruction methods)을 사용하는 영상 재구성부(300)에서 해상도 저하를 보상할 수 있는 방법에 대해서 상세하게 설명하기로 한다. Next, a method of compensating for the degradation of the resolution in the image reconstruction unit 300 using statistical reconstruction methods according to an embodiment of the present invention will be described in detail.

해상도 저하를 일으키는 요인들에 대한 오차는 분산으로 표현될 수 있고, 이 분산을 이용하면, 3차원 가우시안(Gaussian) 함수로 해상도 복원 모델링을 할 수가 있다. 해상도 복원 모델링을 위한 3차원 가우시안 함수(이하, "해상도 복원 모델링 함수"라 함)는 수학식 2와 같이 표현될 수 있다. Errors for the factors causing the resolution degradation can be expressed as variance, and using this variance, resolution reconstruction modeling can be performed using a three-dimensional Gaussian function. A three-dimensional Gaussian function (hereinafter, referred to as a "resolution reconstruction modeling function") for resolution reconstruction modeling may be expressed as in Equation 2.

[수학식 2]&Quot; (2) "

Figure pat00021
Figure pat00021

수학식 2에서, x, y, z는 카타지안(Cartesian) 좌표계로 영상을 표현하는 세 축을 나타내며, ,

Figure pat00023
,
Figure pat00024
는 각각 해당 축(x, y, z)에서의 표준 편차를 나타낸다. In Equation 2, x, y, z represent three axes representing an image in a Cartesian coordinate system, ,
Figure pat00023
,
Figure pat00024
Represents the standard deviation in the corresponding axis (x, y, z) respectively.

수학식 2의 가우시안 함수에서 사용하는 각 축(x, y, z)에 대한 표준 편차는 수학식 3과 같이 검출위치 샘플링, 에너지 해상도 및 도플러 퍼짐으로 인한 측정 오차를 이용하여 표현될 수 있다. The standard deviation of each axis (x, y, z) used in the Gaussian function of Equation 2 may be expressed using a measurement error due to detection position sampling, energy resolution, and Doppler spread, as shown in Equation 3.

[수학식 3]&Quot; (3) "

Figure pat00025
Figure pat00025

수학식 3에서,

Figure pat00026
,
Figure pat00027
Figure pat00028
는 각각 검출위치 샘플링, 산란부(100)의 에너지 해상도 및 도플러 퍼짐에 대한 측정 오차를 나타낸다. In Equation (3)
Figure pat00026
,
Figure pat00027
And
Figure pat00028
Denote measurement errors for the detection position sampling, the energy resolution of the scattering unit 100, and the Doppler spread, respectively.

즉, x축에 대해서

Figure pat00029
로 표현되고, y축에 대해서
Figure pat00030
로 표현되며, z축에 대해서
Figure pat00031
로 표현될 수 있다. That is, for the x-axis
Figure pat00029
Expressed on the y-axis,
Figure pat00030
Expressed in terms of the z-axis
Figure pat00031
It can be expressed as.

영상 재구성부(300)는 컴프턴 카메라(10)의 공간 해상도를 표현하는 수학식 3과 같은 분산 혹은 FWHM을 측정하고, 이를 이용하여 실제 사물이 가지는 해상도가 컴프턴 카메라의 측정 오차로 인하여 저하되는 영향을 표현하는 점퍼짐 함수(point-spread function)를 수학식 2와 같은 해상도 복원 모델링 함수로 정의할 수 있다. 여기서,

Figure pat00032
의 관계가 성립된다. The image reconstructor 300 measures a variance or FWHM as shown in Equation 3 representing the spatial resolution of the Compton camera 10, and the resolution of the real object is reduced due to the measurement error of the Compton camera. A point-spread function expressing the impact may be defined as a resolution reconstruction modeling function such as Equation 2. here,
Figure pat00032
Relationship is established.

컴프턴 카메라의 경우, 수학식 2와 같은 가우시안 함수 모양이 좌우 대칭하지 않는, 즉 축의 좌우가 서로 다른 분산으로 표현되는 비대칭(asymmetric) 가우시안으로 해상도 복원 모델링 함수를 표현할 수 있다.In the case of a Compton camera, the resolution reconstruction modeling function may be expressed as an asymmetric Gaussian in which the shape of the Gaussian function as shown in Equation 2 is not symmetrical, that is, the left and right of the axes are represented by different variances.

그러면, 한 쌍의 산란부(100)와 흡수부(200)로 검출된 1-DIR 컴프턴 카메라의 공간 해상도를 측정하기 위하여 도 10 및 도 11과 같은 점퍼짐 함수의 측정 전략을 제안한다. Then, in order to measure the spatial resolution of the 1-DIR Compton camera detected by the pair of scattering unit 100 and the absorbing unit 200, a measurement strategy of the jump function as shown in FIGS. 10 and 11 is proposed.

도 10 및 도 11은 각각 본 발명의 제1 실시 예에 따른 1-DIR 컴프턴 카메라의 점퍼짐 함수를 정의하기 위한 FWHM 측정 조건을 나타낸 도면이다. 10 and 11 are diagrams showing FWHM measurement conditions for defining jumper functions of the 1-DIR Compton camera according to the first embodiment of the present invention.

주어진 영상 공간(1)에 대해 위치 별로 해상도가 다를 것이라고 예상되므로 포인트 소스들을 여러 위치에 위치시키고 각각의 FWHM을 측정하여 공간변형 FWHM 함수를 추정할 수 있다. Since the resolution is expected to be different for each location for a given image space (1), it is possible to estimate the spatial deformation FWHM function by placing point sources at various locations and measuring the respective FWHM.

컴프턴 카메라(10)로부터의 거리에 따른 FWHM의 저하 양상을 함수로 표현하기 위하여 도 10과 같이 영상 공간(1) 내 7개의 포인트 소스를 3~9 cm의 다른 거리에 1 cm 간격으로 y-z 평면상의 원점에 위치시킨다. 또한, 보다 확장하여 도 11과 같이 영상 공간(1) 내 35개의 포인트 소스를 다른 거리뿐만 아니라 반경 위치(radial position)마다 위치시킬 수 있다. In order to express the degradation of the FWHM according to the distance from the Compton camera 10 as a function, as shown in FIG. Position it at the origin of the image. In addition, as shown in FIG. 11, the 35 point sources in the image space 1 may be positioned at radial positions as well as other distances.

그런 후에, 각 포인트 소스 위치마다 106의 이벤트를 검출하였으며 50개의 부분 집합과 3번의 LMOSEM 반복 연산을 수행한다. 그런 후에, 각각의 재구성 영상에서 x, y, z축으로 FWHM을 측정한다. After that, 10 6 events were detected for each point source location and 50 subsets and 3 LMOSEM iterations were performed. Then, FWHM is measured on the x, y, and z axes in each reconstructed image.

도 10에 도시된 7개의 포인트 소스들의 측정된 FWHM과 거리에 따른 추정된FWHM 함수는 도 12a 및 도 12b와 같이 나타났으며, 도 11에 도시된 35개의 포인트 소스들의 측정된 FWHM과 추정된 거리에 따른 FWHM 함수는 도 13a 내지 도 13d와 같이 나타났다. The estimated FWHM function according to the measured FWHM and the distance of the seven point sources shown in FIG. 10 is shown in FIGS. 12A and 12B, and the measured FWHM and the estimated distance of the 35 point sources shown in FIG. FWHM function according to the shown in Figure 13a to 13d.

도 12a 및 도 12b에서, 점은 7개의 포인트 소스에 대해 측정된 FWHM을 나타내고, 실선은 측정된 7개의 FWHM에 대한 거리에 따른 추정된 FWHM 함수를 나타낸다. In Figures 12A and 12B, the points represent the measured FWHM for seven point sources, and the solid line represents the estimated FWHM function over distance for the seven measured FWHMs.

즉, 점퍼짐 함수의 분산을 나타내는 수학식 3은 거리에 따른 함수로 표현할 수가 있다. That is, Equation 3 representing the variance of the jumper function can be expressed as a function of distance.

수학식 4 및 수학식 5는 도 10의 조건으로부터 추정된 컴프턴 카메라(10)로부터의 거리에 따른 FWHM 함수이다. x축의 FWHM 함수는 수학식 4와 같이 지수 함수(exponential function)로, y와 z축의 평균 FWHM 함수는 수학식 5와 같이 1차 함수(linear polynomial function)로 추정할 수 있다.Equations 4 and 5 are FWHM functions according to the distance from the Compton camera 10 estimated from the condition of FIG. The FWHM function of the x-axis can be estimated as an exponential function as shown in Equation 4, and the average FWHM function of the y and z-axis can be estimated as a linear polynomial function as shown in Equation 5.

[수학식 4] &Quot; (4) "

FWHMx(d)=aebd =3.887e0.02412d FWHM x (d) = ae bd = 3.887e 0.02412d

[수학식 5][Equation 5]

FWHMyz(d)=ad+b=0.1836d+2.511FWHM yz (d) = ad + b = 0.1836d + 2.511

또한, 도 11과 같이 35개 포인트 소스를 이용한 경우, FWHM 함수의 변수는 컴프턴 카메라(10)로부터의 거리(d)와 yz 평면 상의 반경 위치(r)가 될 수 있다. In addition, when using a 35 point source as shown in FIG. 11, the parameters of the FWHM function may be the distance d from the Compton camera 10 and the radial position r on the yz plane.

도 13a와 도 13c는 35개 포인트 소스에 대한 측정된 x축과 y, z축의 FWHM 즉, 해상도를 나타내며, 도 13b와 도 13d는 컴프턴 카메라(10)로부터의 거리(d)와 yz 평면 상의 반경 위치(r)로 표현되는 x축과 y, z축의 추정된 FWHM 함수를 나타낸다. 이로부터 x축 및 y 혹은 z축의 FWHM 함수는 수학식 6 및 수학식 7과 같이 d와 r의 지수 함수로 추정될 수 있다. 13A and 13C show the measured FWHM, or resolution, of the x and y and z axes for 35 point sources, and FIGS. 13B and 13D show the distance d from the Compton camera 10 and on the yz plane. An estimated FWHM function of the x-axis, y-, and z-axis expressed as the radial position r is shown. From this, the FWHM function on the x-axis and y- or z-axis can be estimated as an exponential function of d and r, as shown in Equations 6 and 7.

[수학식 6]&Quot; (6) "

FWHMx(d,r)=aebr+cd =5.758e0.003204r+0.01914d FWHM x (d, r) = ae br + cd = 5.758e 0.003204r + 0.01914d

[수학식 7][Equation 7]

FWHMyz(d,r)=aebr+cd =6.07e0.002277r+0.01291d FWHM yz (d, r) = ae br + cd = 6.07e 0.002277r + 0.01291d

또한, 영상 공간(1) 내에서 360도로 동일하게 방출하는 광자를 보다 완전하게 검출하기 위한 3-DIR 컴프턴 카메라에 대한 점퍼짐 함수를 다음과 같이 정의할 수 있다. In addition, a jumper function for a 3-DIR Compton camera for more fully detecting photons equally emitted 360 degrees in the image space 1 may be defined as follows.

도 14는 본 발명의 제2 실시 예에 따른 3-DIR 컴프턴 카메라를 나타낸 도면이고, 도 15a 및 도 15b는 각각 본 발명의 제2 실시 예에 따른 3-DIR 컴프턴 카메라의 점퍼짐 함수를 정의하기 위한 FWHM 측정 조건을 나타낸 도면이다. 14 is a diagram illustrating a 3-DIR compton camera according to a second embodiment of the present invention, and FIGS. 15A and 15B are jumper functions of the 3-DIR compton camera according to the second embodiment of the present invention, respectively. It is a figure which shows FWHM measurement conditions to define.

즉, 도 15b와 같이 yz평면상에 놓인 포인트 소스들을 도 15a의 x축상의 거리 (d1-d7)에 각각 위치시켜서 컴프턴 데이터를 얻으며 FWHM을 측정한다. 도 14를 참조하면, 한 쌍의 산란부와 흡수부로 구성된 1-DIR 컴프턴 카메라를 영상 공간(1)의 x, y, z축으로 각각 위치시킬 수 있다. 이와 같이, 영상 공간(1)의 x, y, z축으로 위치시킨 세 쌍의 산란부와 흡수부(DPx, DPy, DPz)를 3-DIR 컴프턴 카메라라 한다. That is, as shown in FIG. 15B, point sources placed on the yz plane are positioned at distances d 1 -d 7 on the x-axis of FIG. 15A to obtain Compton data and measure FWHM. Referring to FIG. 14, a 1-DIR Compton camera including a pair of scattering units and an absorbing unit may be positioned on the x, y, and z axes of the image space 1, respectively. In this manner, the three pairs of scattering units and absorbing units DPx, DPy, and DPz positioned in the x, y, and z axes of the image space 1 are referred to as 3-DIR compton cameras.

이러한 3-DIR 컴프턴 카메라의 경우 공간 해상도가 1-DIR 컴프턴 카메라의 경우와는 다르게 영상 공간(1) 상에서 달라지므로, 도 10 및 도 11과는 다른 전략이 필요하다. Since the spatial resolution of the 3-DIR Compton camera is different from that of the 1-DIR Compton camera, the strategy is different from those of FIGS. 10 and 11.

3-DIR 컴프턴 카메라의 경우, 도 15a와 같이 x축에 놓인 컴프턴 카메라(DPx)를 기준으로 3~9 cm 사이에 1cm 간격으로 7개의 대표 거리(d)를 고려하고, 도 15b와 같이 각 주어진 거리에서 yz 평면상에 13개의 포인트 소스를 반경거리(r) 및 y축과 이루는 각도(

Figure pat00033
)를 고려하여 위치시킨다. In the case of the 3-DIR Compton camera, seven representative distances d are considered at intervals of 1 cm between 3 to 9 cm with respect to the Compton camera DPx placed on the x-axis as shown in FIG. 15A, and as shown in FIG. 15B. The angle between the radial distance (r) and the y-axis of 13 point sources on the yz plane at each given distance (
Figure pat00033
)

검출 이벤트 수나 재구성 조건은 1-DIR과 동일한 조건을 적용하며 91개의 측정된 FWHM을 이용하여 변수(d, r,

Figure pat00034
)에 따른 3-DIR 컴프턴 카메라의 FWHM 함수를 추정한다. 도 15b에서, 내부가 비어있는 포인트 소스의 경우, 각각 같은 모양의 내부가 채워진 포인트 소스의 측정된 해상도와 동일하다고 가정한다. The number of detection events or the reconstruction conditions apply the same conditions as 1-DIR, and the variables (d, r,
Figure pat00034
Estimate the FWHM function of the 3-DIR Compton camera. In FIG. 15B, it is assumed that in the case of a point source with an empty interior, the same resolution is the same as a measured point source filled with the interior of the same shape.

도 15a와 같이, 거리(d), 반지름(r)과 각도(

Figure pat00035
)에 놓인 포인트 소스들에서 측정된 x, y와 z축에 대한 FWHM은 각각 도 16a, 16b와 16c와 같다. As shown in Figure 15a, the distance (d), radius (r) and angle (
Figure pat00035
The FWHM for the x, y and z axes measured at point sources at) are shown in Figures 16A, 16B and 16C, respectively.

도 16a 내지 도 16c는 각각 도 15a에 도시된 포인트 소스들에서 측정된 x, y와 z축에 대한 FWHM을 나타낸 도면이다. 16A to 16C show FWHMs for the x, y and z axes measured at the point sources shown in FIG. 15A, respectively.

도 16a 내지 도 16c에 나타난 바와 같이, 영상공간 상 위치에 따라 해상도가 다름을 확인할 수가 있다. 여기서, 측정된 FWHM을 기반으로 임의의 영상공간 상 위치, 즉 15a에 정의된 거리(d), 반지름(r)과 각도(

Figure pat00036
) 사이에 존재하는 복셀 위치에 대한 해상도를 결정하기 위하여 보간법을 적용할 수 있다. As shown in FIG. 16A to FIG. 16C, it can be confirmed that the resolution varies depending on the position on the image space. Here, based on the measured FWHM, a position (d), a radius (r) and an angle (
Figure pat00036
Interpolation can be applied to determine the resolution for the voxel location existing between

FWHM을 구하고자 하는 복셀에 가장 근사한 샘플된 거리, 반지름 및 각도에 놓인 포인트 소스의 FWHM으로 대체하는 조각별 상수(piecewise constant) 보간법, 가까운 샘플된 거리, 반지름 및 각도에 대해 가중치를 적용하여 해당 복셀에 대한 FWHM을 결정할 수 있는데 가중치를 결정하는 방식에 따라 조각별 선형(piecewise linear), 조각별 다항식(piecewise polynomial), 스플라인(spline) 보간법 등이 적용될 수 있다.Piecewise constant interpolation that substitutes the FWHM of the point source at the sampled distance, radius, and angle closest to the voxel for which you want to obtain the FWHM, and weight the weighted for the nearest sampled distance, radius, and angle. FWHM can be determined for the FWHM. Piecewise linear, piecewise polynomial, spline interpolation, etc. may be applied according to the weighting method.

또한 거리(d), 반지름(r)과 각도(

Figure pat00037
)에 대한 함수로 공간변형 FWHM을 표현할 수 있는데 적합한 FWHM 함수를 도 16a 내지 도 16c와 같이 측정된 FWHM을 이용하여 선 맞추기(curve fitting) 문제를 이용하여 함수를 도출할 수도 있다. 추정한 값과 측정한 값 사이의 가장 작은 오차를 보장하는 FWHM 함수를 결정하게 되며 최소 자승 최소화(least squares minimization), 볼록 프로그래밍(convex programming), 비선형 프로그래밍(nonlinear programming)과 같은 방법을 통해 최적의 FWHM 함수를 얻을 수 있다.Also, distance (d), radius (r) and angle (
Figure pat00037
The spatial deformation FWHM can be expressed as a function of), and a suitable FWHM function can be derived using a curve fitting problem using the FWHM measured as shown in FIGS. 16A to 16C. The FWHM function is determined to ensure the smallest error between the estimated and measured values, and is optimized by methods such as least squares minimization, convex programming, and nonlinear programming. Get the FWHM function.

또한 거리(d), 반지름(r)과 각도(

Figure pat00038
)에 대한 FWHM 함수를 추정하기 위하여 factorized analysis 방법을 사용하여 푸리에(Fourier), 웨이블릿(Wavelet), 사인 및 코사인, 스플라인(Spline) 함수와 같은 스펙트럴 기저 함수(spectral basis function)를 추정할 수 있다. 또한 이러한 베이직 도메인(basis domain)상에서 데이터의 희소성(sparsity)이 존재할 경우, 추정 문제를 압축 센싱(compressed sensing) 기법과 같이 정의할 수 있으며 L1 최소화 문제를 통하여 해를 구할 수 있다.Also, distance (d), radius (r) and angle (
Figure pat00038
In order to estimate the FWHM function for Eqn), spectral basis functions such as Fourier, Wavelet, Sine and Cosine, and Spline functions can be estimated using factorized analysis. . In addition, if there is a sparsity of data in the basic domain, the estimation problem can be defined like a compressed sensing technique, and the solution can be solved through the L 1 minimization problem.

이와 같이 하여, FWHM 함수가 결정되고 나면, 이를 수학식 2 및 1에 반영하여 컴프턴 카메라(1)의 영상 재구성에 사용될 해상도 복원 모델링 함수가 결정된다. In this manner, after the FWHM function is determined, the resolution reconstruction modeling function to be used for image reconstruction of the Compton camera 1 is determined by reflecting this in Equations 2 and 1 below.

영상 재구성부(300)는 통계학적 영상 재구성법의 반복적 투사 및 역투사 연산 과정에 해상도 복원 모델링 함수를 적용하여 영상을 재구성할 수 있다. 통계학적 영상 재구성법으로는 EM 및 OSEM, RAMLA, 최대우도문제(maximum likelihood problem)를 풀 수 있는 최대경사법 및 켤레경사도법, ICA 등이 사용될 수 있다. 또한 일반적 데이터 저장방식인 사이노그램(sinogram) 및 리스트모드 데이터를 재구성할 수 있는 통계학적 영상재구성 방법도 본 발명의 실시 예에 적용될 수 있다. The image reconstruction unit 300 may reconstruct an image by applying a resolution reconstruction modeling function to an iterative projection and reverse projection calculation process of the statistical image reconstruction method. Statistical image reconstruction methods may include EM and OSEM, RAMLA, maximum gradient method, conjugate gradient method, ICA, etc. to solve the maximum likelihood problem. In addition, a statistical image reconstruction method capable of reconstructing a sinogram and list mode data, which is a general data storage method, may also be applied to an embodiment of the present invention.

본 발명의 실시 예에서는 통계학적 영상 재구성의 하나인 LMOSEM을 이용하여 영상을 재구성하는 방법과 그 결과를 도시하였다. In the embodiment of the present invention, a method of reconstructing an image using LMOSEM, which is one of statistical image reconstructions, and a result thereof are illustrated.

즉, 본 발명의 실시 예에 따른 영상 재구성부(300)는 영상을 재구성할 때 투사 및 역투사 과정에서 시스템 행렬(Hij)에 해상도 복원 모델링 함수(Gp)를 추가하여 영상을 재구성한다. 이렇게 하면, 영상의 해상도 복원 및 개선의 효과를 가질 수 있다. That is, the image reconstruction unit 300 according to an embodiment of the present invention reconstructs an image by adding a resolution reconstruction modeling function G p to the system matrix Hi j during a projection and a reverse projection process when reconstructing the image. This may have the effect of restoring and improving the resolution of the image.

해상도 복원 모델링 함수(Gp)를 이용한 LMOSEM은 수학식 8 및 수학식 9와 같이 나타낼 수 있다. 수학식 8은 투사 과정에서만 해상도 복원 모델링 함수(Gp)를 적용하여 해상도를 복원하는 영상 재구성법이고, 수학식 9는 투사뿐 아니라 역투사, 그리고 정규화 영상(Si)에 해상도 복원 모델링 함수(Gp)를 적용하여 해상도를 복원하는 영상 재구성법이다. The LMOSEM using the resolution reconstruction modeling function G p may be represented by Equations 8 and 9. Equation (8) is an image reconstruction method for restoring the resolution by applying the resolution restoration modeling function (G p ) only in the projection process, and Equation (9) is the projection of the resolution as well as the back projection and normalized image (S i ). G p ) is applied to reconstruct the resolution.

[수학식 8] [Equation 8]

Figure pat00039
Figure pat00039

[수학식 9] &Quot; (9) "

Figure pat00040
Figure pat00040

수학식 8 및 9에서, j는 산란 반응 위치(m)과 산란각(

Figure pat00041
) 및 흡수 반응 위치(n)를 의미한다. Hij는 복셀(voxel) i에서 방출한 광자가 m 위치에서
Figure pat00042
의 각도로 산란한 후에 n 위치에서 검출될 확률을 의미하는 시스템 행렬을 나타낸다. Gp는 복셀 p에서 가우시안 해상도 복원 모델링 함수를 나타낸다. k는 반복 연산의 횟수를 나타내고, l은 부분 집합의 인덱스를 나타내며, Bl은 투사 데이터의 부분 집합을 나타낸다. 즉,
Figure pat00043
는 k번째 반복 연산의 l의 부분 집합에 대한 복셀 i의 3차원 영상을 나타낸다. Si는 복셀별 다른 컴프턴 카메라의 민감도를 정규화하기 위한 항목으로 i번째 복셀에서 방출한 감마선이 컴프턴 카메라에서 검출될 확률을 의미하며, fi와 동일한 크기를 가진다.
Figure pat00044
는 콘볼루션 연산을 의미한다. In Equations 8 and 9, j is the scattering reaction position (m) and the scattering angle (
Figure pat00041
) And absorption reaction position (n). H ij is the photon emitted from voxel i at the m position
Figure pat00042
The system matrix represents the probability of being detected at the n position after scattering at an angle of. G p represents a Gaussian resolution reconstruction modeling function in voxel p. k denotes the number of repetitive operations, l denotes the index of the subset, and B l denotes the subset of the projection data. In other words,
Figure pat00043
Denotes a three-dimensional image of voxel i for a subset of l of the k-th iteration operation. S i is an item for normalizing the sensitivity of another Compton camera for each voxel, and means the probability that the gamma ray emitted from the i th voxel is detected by the Compton camera and has the same size as f i .
Figure pat00044
Means convolution operation.

그리고 LMOSEM에서 부분 집합은 순차적으로 리스트모드 데이터를 부분집합 수만큼 겹치지 않게 구분하여 구성된다. In the LMOSEM, a subset is formed by sequentially dividing the list mode data without overlapping by the number of subsets.

LMOSEM을 위한 기하학적 시스템 행렬(Hij)은 타원추 표면을 여러 선(ray)으로 균일하게 샘플링 한 후 각 샘플된 선에 대해서 선 추적법(ray-tracing method)을 적용하여 구해질 수 있다. The geometric system matrix H ij for LMOSEM can be obtained by uniformly sampling the elliptical cone surface into several rays and then applying a ray-tracing method to each sampled line.

도 17은 본 발명의 실시 예에 따른 LMOSEM 영상 재구성 기법에서 선 추적법을 설명하는 도면으로, 선 추적법은 각 선과 교차하는 복셀의 위치와 교차 길이(intersection length)를 계산하는 방법이다. FIG. 17 is a diagram illustrating a line tracking method in an LMOSEM image reconstruction method according to an embodiment of the present invention. The line tracking method is a method of calculating a position and an intersection length of a voxel crossing each line.

앞서 설명한 것처럼, 해상도 복원 모델링 함수(Gp)는 현재 재구성하고자 하는 복셀 p에 따라 추정된 FWHM 함수로부터 결정되며, 이에 따라서 위치별로 자연스럽게 다른 해상도 복원 모델링 함수가 적용되면서 영상을 재구성하면서 해상도 복원을 기대할 수 있다. As described above, the resolution reconstruction modeling function (G p ) is determined from the FWHM function estimated according to the voxel p to be reconstructed. Can be.

그러면, 영상 재구성부(300)의 영상 재구성 방법에 대해서 도 17을 참고로 하여 자세하게 설명한다. Next, an image reconstruction method of the image reconstruction unit 300 will be described in detail with reference to FIG. 17.

도 18은 본 발명의 실시 예에 따른 영상 재구성부의 영상 재구성 방법을 설명한 도면이다. 18 is a view illustrating an image reconstruction method of an image reconstruction unit according to an embodiment of the present invention.

도 18은 수학식 9에 기반하는 영상 재구성 방법을 설명하였다. 18 has described an image reconstruction method based on Equation (9).

도 18을 참고하면, 영상 재구성부(300)는 투사부(310) 및 역투사부(320)를 포함한다. Referring to FIG. 18, the image reconstructing unit 300 includes a projector 310 and a reverse projector 320.

투사부(310)는 재구성될 영상 예를 들면, k번째 반복 연산에서 추정된 영상에 해상도 복원 모델링 함수(Gp)를 콘볼루션하여 투사 데이터(gj)를 계산한다. 투사 데이터(gj)는 수학식 11과 같이 계산될 수 있으며, k번째 반복 연산에서 추정된 영상[f(k,l)]으로부터 방출된 감마선이 리스트 모드의 j번째 검출 정보(mj, ωj, nj)로 정의된 타원추 표면을 따라 검출된 감마선의 개수를 나타낸다. The projection unit 310 calculates the projection data g j by convolving the resolution reconstruction modeling function G p on the image to be reconstructed, for example, the image estimated by the k-th iteration operation. The projection data g j may be calculated as shown in Equation 11 , wherein the gamma rays emitted from the image [f (k, l) ] estimated in the k-th iteration operation are j-th detection information (m j , ω ) of the list mode. j , n j ), indicating the number of detected gamma rays along the elliptical cone surface.

[수학식 11]&Quot; (11) "

Figure pat00045
Figure pat00045

이때, 초기 재구성될 영상은 임의의 양수 복셀(voxel) 값으로 채워진 영상으로 설정될 수 있다. In this case, the image to be initially reconstructed may be set to an image filled with an arbitrary positive voxel value.

역투사부(320)는 측정된 투사 데이터와 추정된 투사 데이터(gj) 사이의 오차(rj)를 계산한다. 오차(rj)는 수학식 12와 같이 구해질 수 있다. The reverse projecting unit 320 calculates an error r j between the measured projection data and the estimated projection data g j . The error r j may be obtained as shown in Equation 12.

[수학식 12][Equation 12]

rj= 1/gj r j = 1 / g j

수학식 12에서, 1은 (k,l)번째 측정된 투사 데이터를 나타낸다. In Equation 12, 1 represents the (k, l) th measured projection data.

다음, 역투사부(320)는 수학식 13에 도시한 바와 같이 수학식 12에서 계산한 오차(rj)를 재구성할 영상에 j번째 검출 정보(mj, ωj, nj)로 정의된 타원추 표면을 따라 역투사한 후에 해상도 복원 모델링 함수(Gp)를 콘볼루션하여 (k,l+1)번째 재구성할 영상 추정 시 사용할 오차 영상(ei)을 산출한다. Next, as shown in Equation 13, the reverse projecting unit 320 is a rudder defined as j th detection information (m j , ω j , n j ) in the image to reconstruct the error r j calculated in Equation 12. After back-projection along the cone surface, the resolution reconstruction modeling function G p is convolved to yield an error image e i to be used for estimating the (k, l + 1) th reconstruction image.

[수학식 13]&Quot; (13) "

Figure pat00046
Figure pat00046

다음, 역투사부(320)는 수학식 14와 같이 (k,l)번째 추정된 영상에 오차 영상(ei)을 정규화 영상(Si)에 해상도 복원 모델링 함수(Gp)를 콘볼루션한 값으로 나누어 (k,l+1)번째 영상을 재구성한다. Next, the reverse projection unit 320 is the (k, l) th as in Equation 14 The (k, l + 1) th image is reconstructed by dividing the error image e i by the convolution of the resolution reconstruction modeling function G p into the normalized image S i .

[수학식 14]&Quot; (14) "

Figure pat00047
Figure pat00047

투사부(310) 및 역투사부(320)는 이와 같은 투사와 역투사 과정을 설정한 반복 연산의 횟수 및 부분 집합의 횟수만큼 반복하면서 최종적인 영상을 재구성할 수 있다. The projection unit 310 and the reverse projection unit 320 may reconstruct the final image while repeating the number of repetition operations and the number of subsets that set the projection and reverse projection processes.

도 19 및 도 20은 각각 영상 공간의 원점에 위치한 140 keV와 511 keV의 포인트 소스의 시뮬레이션 데이터에 대한 재구성 영상을 나타낸 도면이다. 도 21은 도 19 및 도 20에 도시된 재구성 영상의 FWHM을 나타낸 도면이다. 19 and 20 are diagrams illustrating reconstructed images of simulation data of point sources of 140 keV and 511 keV located at the origin of the image space, respectively. 21 is a diagram illustrating an FWHM of the reconstructed image shown in FIGS. 19 and 20.

아래에서는 설명의 편의상 수학식 8을 LMOSEM-RRF로 나타내고, 수학식 9를 LMOSEM-RRFB로 명명하였다. In the following description, Equation 8 is referred to as LMOSEM-RR F and Equation 9 is referred to as LMOSEM-RR FB for convenience of description.

도 19 및 도 20에서, "LMOSEM-Ideal"은 이상적인 시뮬레이션에서 140과 511 KeV 포인트 소스에 대한 시뮬레이션 데이터의 LMOSEM 재구성 결과를 나타내고, "LMOSEM-Overall"은 해상도 저하 요인이 존재하는 시뮬레이션에서 얻어진 시뮬레이션 데이터의 LMOSEM 기법에 의한 재구성 결과를 나타낸다. "LMOSEM-RRF-Overall"는 해상도 저하 요인이 존재하는 시뮬레이션에서 얻어진 시뮬레이션 데이터의 LMOSEM-RRF 기법에 의한 재구성 결과를 나타내며, "LMOSEM-RRFB-Overall"는 해상도 저하를 일으키는 현상이 존재하는 시뮬레이션에서 얻어진 시뮬레이션 데이터의 LMOSEM-RRFB 기법에 의한 재구성 결과를 나타낸다. In Figures 19 and 20, "LMOSEM-Ideal" represents the LMOSEM reconstruction results of the simulation data for 140 and 511 KeV point sources in an ideal simulation, and "LMOSEM-Overall" represents the simulation data obtained in the simulation where there is a resolution degradation factor. Reconstruction results by LMOSEM technique are shown. "LMOSEM-RR F -Overall" represents the reconstruction result by LMOSEM F-RR techniques of simulation data obtained in the simulation for this resolution deterioration exists, "LMOSEM-RR FB -Overall" is a phenomenon that causes resolution degradation presence The reconstruction result of the LMOSEM-RR FB technique of the simulation data obtained in the simulation is shown.

해상도 복원이 없는 LMOSEM과 해상도 복원 모델링 함수를 이용한 LMOSEM(LMOSEM-RRF, LMOSEM-RRFB)에서는 각각 10과 50개의 부분 집합을 사용하였으며 3번의 반복 연산을 수행하였고, 그 결과를 도 18 및 도 19에 도시하였다.In LMOSEM without resolution reconstruction and LMOSEM (LMOSEM-RR F and LMOSEM-RR FB ) using resolution reconstruction modeling functions, 10 and 50 subsets were used, respectively, and three iterative operations were performed. 19 is shown.

도 19 및 도 20을 참고하면, 해상도 저하가 있는 시뮬레이션 데이터의 경우, 해상도 복원 모델링 함수를 이용한 LMOSEM(LMOSEM-RRF, LMOSEM-RRFB)로 인하여 해상도 복원이 상당히 이루어진 것을 확인할 수 있다. 그리고 정량적 비교를 위하여 각 축에 대한 프로파일상의 FWHM을 측정해본 결과, 도 20에 나타난 바와 같이 상당한 해상도 복원이 이루어진 것을 볼 수 있다. Referring to FIGS. 19 and 20, in the case of simulation data having a degradation in resolution, resolution reconstruction is considerably performed due to LMOSEM (LMOSEM-RR F and LMOSEM-RR FB ) using a resolution reconstruction modeling function. And as a result of measuring the FWHM on the profile for each axis for quantitative comparison, it can be seen that significant resolution reconstruction as shown in FIG.

또한, 1-DIR 컴프턴 카메라가 놓여진 축에 수직하는 중심 단면상에서 구한 FWHM은 해상도 복원 모델링 함수를 이용한 LMOSEM(LMOSEM-RRF, LMOSEM-RRFB)의 경우, 거의 이상적인 데이터의 LMOSEM에 대한 FWHM과 유사한 것을 확인할 수 있다. 그리고 컴프턴 카메라가 놓여진 축으로의 FWHM도 완전하지는 않지만 상당한 개선이 이루어진 것을 확인할 수 있다. In addition, FWHM obtained from the center cross section perpendicular to the axis on which the 1-DIR Compton camera is placed is the FWHM for LMOSEM (LMOSEM-RR F , LMOSEM-RR FB ) using the resolution reconstruction modeling function. You can see something similar. And the FWHM on the axis where the Compton camera is placed is not perfect but it can be seen that significant improvements have been made.

도 22는 본 발명의 실시 예에 따른 영상 재구성 기법에 의해 재구성된 7개의 포인트 소스의 해상도를 나타낸 도면이고, 도 23은 재구성된 7개의 포인트 소스에 대하여 측정된 FWHM을 나타낸 도면이다. FIG. 22 is a diagram illustrating resolution of seven point sources reconstructed by the image reconstruction technique according to an embodiment of the present invention, and FIG. 23 is a diagram illustrating FWHM measured for the seven reconstructed point sources.

도 22에서, "LMOSEM-DRR"은 수학식 4 및 수학식 5를 이용하여 점퍼짐 함수 기반 해상도 복원 모델링 함수가 수학식 8과 같이 적용된 LMOSEM을 나타내며, "LMOSEM-URR"은 도 5와 같이 균일한 해상도를 가지는 해상도 복원 모델링 함수가 수학식 8과 같이 적용된 LMOSEM을 나타낸다. 균일한 해상도를 가지는 해상도 복원 모델링 함수는 도 5와 같이 영상 공간의 원점에 놓인 하나의 포인트 소스로부터 앞서 설명한 방법과 유사한 방법으로 얻어질 수 있다. "LMOSEM(w/o RR)"은 해상도 복원이 적용되지 않은 LMOSEM을 나타낸다. In FIG. 22, "LMOSEM-DRR" indicates LMOSEM to which a jumper function-based resolution reconstruction modeling function is applied as in Equation 8 using Equations 4 and 5, and "LMOSEM-URR" is uniform as in FIG. A resolution reconstruction modeling function having one resolution represents LMOSEM to which Equation 8 is applied. The resolution reconstruction modeling function having a uniform resolution may be obtained by a method similar to the method described above from one point source placed at the origin of the image space as shown in FIG. 5. "LMOSEM (w / o RR)" denotes an LMOSEM to which no resolution reconstruction is applied.

도 22를 참고하면, 해상도 복원 모델을 적용한 LMOSEM(LMOSEM-DRR, LMOSEM-URR)을 이용하여 영상 재구성 시 단순 시스템 모델[LMOSEM(w/o RR)]을 사용한 경우보다 나은 해상도를 가진 영상을 제공하는 것을 확인할 수 있다. Referring to FIG. 22, when reconstructing an image using LMOSEM (LMOSEM-DRR and LMOSEM-URR) to which a resolution reconstruction model is applied, an image having a better resolution is provided than when a simple system model [LMOSEM (w / o RR)] is used. You can see that.

또한, LMOSEM-DRR의 경우, 균일한 해상도 복원 모델을 적용한 LMOSEM-URR보다 재구성 영상의 전 영역에 걸쳐 균일한 해상도를 제공하는 것을 알 수 있다. 도 22에 나타난 결과는 도 23에 나타낸 바와 같이, 재구성된 영상에서 측정된 해상도(FWHM)에서도 확인할 수 있다. In addition, it can be seen that the LMOSEM-DRR provides a uniform resolution over the entire area of the reconstructed image than the LMOSEM-URR to which the uniform resolution reconstruction model is applied. As shown in FIG. 23, the results shown in FIG. 22 may also be confirmed in the resolution FWHM measured in the reconstructed image.

도 24는 본 발명의 실시 예에 따른 영상 재구성 기법의 해상도 복원 효과를 설명하기 위한 1-DIR 컴프턴 카메라의 실험 조건을 나타낸 도면이고, 도 25는 도 24에 도시된 2개의 포인트 소스의 리스트 모드 데이터에 대한 재구성 결과를 나타낸 도면이다. FIG. 24 is a diagram illustrating experimental conditions of a 1-DIR Compton camera for explaining a resolution reconstruction effect of an image reconstruction technique according to an embodiment of the present invention, and FIG. 25 is a list mode of two point sources shown in FIG. 24. It is a figure which shows the result of reconstruction about data.

여기서, 리스트 모드 데이터는 컴프턴 카메라에서 검출한 데이터를 의미하며, 예를 들어, j개의 감마선이 검출되면, 각 검출된 감마선의 검출 정보(mj, ωj, nj; j=1, … ,j)를 포함한다. Here, the list mode data means data detected by the Compton camera. For example, when j gamma rays are detected, the detection information (m j , ω j , n j ; j = 1,...) Of the detected gamma rays is detected. , j).

먼저, 본 발명의 실시 예에 따른 영상 재구성 기법의 해상도 복원 효과를 알아보기 위해 도 24에 도시한 바와 같이 두 포인트 소스를 영상 공간의 중심으로부터 각각 x 축으로 2cm의 거리를 두고 위치시키고, 두 포인트 소스로부터 얻어진 리스트모드 데이터를 해상도 복원 모델이 없는 LMOSEM과 서로 다른 세 점퍼짐 함수를 이용한 해상도 복원 모델링 함수가 적용된 LMOSEM을 통하여 재구성한다. First, in order to determine the resolution reconstruction effect of the image reconstruction method according to an embodiment of the present invention, as shown in FIG. 24, two point sources are positioned at a distance of 2 cm from the center of the image space to the x axis, respectively, The list mode data obtained from the source is reconstructed through the LMOSEM without the resolution reconstruction model and the LMOSEM with the resolution reconstruction modeling function using three different jumper functions.

여기서, 세 점퍼짐 함수는 균일한 해상도를 가지는 점퍼짐 함수(shift-invariant PSF, sivPSF), 수학식 4 및 5의 점퍼짐 함수(distance-dependent PSF, ddPSF) 및 수학식 6 및 7의 점퍼짐 함수(shift-variant PSF, svPSF)이다. sivPSF는 영상 공간의 원점에 놓인 하나의 포인트 소스로부터 측정된 공간 해상도를 분산으로 사용하여서 얻어진다. Here, the three jumper functions include a jump-invariant PSF (sivPSF) having a uniform resolution, a jumper function (distance-dependent PSF (ddPSF) of Equations 4 and 5, and a jumper of Equations 6 and 7. Function (shift-variant PSF, svPSF). sivPSF is obtained by using the spatial resolution measured from one point source at the origin of the image space as the variance.

도 25에서, "LMOSEM+G"는 해상도 복원이 없는 LMOSEM을 나타내고, "LMOSEM-sivPSF", "LMOSEM-ddPSF" 및 "LMOSEM-svPSF"는 각각 sivPSF, sivPSF 및 ddPSF 기반의 해상도 복원 모델링 함수가 수학식 9와 같이 적용된 LMOSEM을 나타낸다. In FIG. 25, "LMOSEM + G" represents LMOSEM without resolution reconstruction, and "LMOSEM-sivPSF", "LMOSEM-ddPSF", and "LMOSEM-svPSF" represent sivPSF, sivPSF and ddPSF based resolution reconstruction modeling functions, respectively. LMOSEM applied as shown in Equation 9 is shown.

도 25는 각각 sivPSF, svPSF 및 ddPSF를 적용한 LMOSEM의 각 포인트 소스 위치에 해당하는 2차원 평면을 보여주고 있다. FIG. 25 shows a two-dimensional plane corresponding to each point source position of LMOSEM to which sivPSF, svPSF and ddPSF are applied, respectively.

도 25를 보면, sivPSF, svPSF 및 ddPSF를 적용한 LMOSEM을 통해 재구성된 영상이 해상도 복원 모델을 사용하지 않은 경우보다 해상도가 개선된 것을 볼 수 있다. 특히, 1-DIR 컴프턴 카메라가 놓여있는 축을 따라 두 포인트 소스가 잘 분리되고 배경 잡음이 줄어든 확인할 수 있다. 또한 ddPSF와 svPSF를 사용한 경우가 가장 개선된 해상도를 제공하는 것을 알 수 있다. Referring to FIG. 25, it can be seen that the image reconstructed through the LMOSEM to which sivPSF, svPSF, and ddPSF are applied is improved in resolution than when the resolution reconstruction model is not used. In particular, the two point sources along the axis where the 1-DIR Compton camera is placed are well separated and the background noise is reduced. Also note that the use of ddPSF and svPSF provides the best resolution.

도 26은 두 포인트 소스에 대한 3-DIR 컴프턴 카메라의 데이터 재구성 결과를 나타낸 도면이다. FIG. 26 is a diagram showing data reconstruction results of a 3-DIR Compton camera for two point sources.

도 26을 참고하면, 단순역투사(simple backprojection) 결과[(A)]보다 반복적 영상 재구성법의 결과[(B)-(D)]가 보다 개선된 해상도를 나타낸다는 것을 알 수 있다. 또한 sivPSF, svPSF를 적용한 LMOSEM 결과 모두 개선된 해상도를 제공하지만 특히 svPSF가 가장 좋은 해상도를 제공한 것을 확인할 수 있다. 여기서, svPSF의 경우 도 16a 내지 도 16c와 같이 측정된 FWHM으로부터 조각별 다항식 보간법을 이용하여 영상공간 내 모든 복셀의 해상도를 결정하였다. Referring to FIG. 26, it can be seen that the results of the repetitive image reconstruction method [(B)-(D)] show a more improved resolution than the simple backprojection result [(A)]. Also, LMOSEM results with sivPSF and svPSF provide improved resolution, but svPSF provides the best resolution. Here, in the case of svPSF, resolutions of all voxels in the image space were determined using piecewise polynomial interpolation from FWHM measured as shown in FIGS. 16A to 16C.

도 27은 6개의 포인트 소스에 대한 3-DIR 컴프턴 카메라의 데이터 재구성 결과를 나타낸 도면이다. 27 is a diagram illustrating data reconstruction results of a 3-DIR Compton camera for six point sources.

도 27을 참고하면, LMOSEM[(B)-(D)]이 단순역투사 방법[(A)]보다 개선된 해상도를 보이며 특히 svPSF를 적용한 방법이 보다 개선된 해상도로 영상을 복원하는 것을 확인할 수 있다.Referring to FIG. 27, it can be seen that LMOSEM [(B)-(D)] has improved resolution than the simple reverse projection method [(A)], and in particular, the method using svPSF restores the image to the improved resolution. have.

이상 본 발명의 실시 예에서 기술한 해상도 복원용 재구성 방법에서는 화소 값이 급격하게 변하는 경계선 주위로 화소 값의 리플(ripple)이 생기는 깁스 인공물(gibbs artifact)이 발생할 수 있으며 반복적으로 재구성 할 때마다 이러한 인공물은 더 심해지게 된다. 이를 해결하기 위하여 Fejer summation 및 Riesz와 같은 보다 유연한 푸리에 급수 합(Fourier series summation) 기법이나 시그마 근사화(sigma-approximation) 방법을 사용할 수 있다. 또한 Haar basis 함수로 표현된 웨이블릿 변환(wavelet transform)을 통하여 깁스 인공물의 발생을 막을 수도 있다.In the resolution reconstruction method described in the embodiment of the present invention, gibbs artifacts in which ripples of pixel values occur around a boundary line in which pixel values change rapidly may be generated. Artifacts get worse. To solve this problem, more flexible Fourier series summation techniques such as Fejer summation and Riesz or sigma-approximation can be used. In addition, it is possible to prevent the generation of the cast artifact through the wavelet transform represented by the Haar basis function.

본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시 예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시 예의 기재로부터 본 발명이 속하는 기술 분야의 전문가라면 쉽게 구현할 수 있는 것이다. An embodiment of the present invention is not implemented only through the above-described apparatus and / or method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. Such an implementation can be easily implemented by those skilled in the art to which the present invention pertains based on the description of the above-described embodiments.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (17)

컴프턴 산란 반응을 일으키는 제1 검출기와 컴프턴 산란된 광자가 흡수되는 제2 검출기를 포함하는 컴프턴 카메라의 영상 재구성 방법으로,
방사선원으로부터 발생한 광자가 제1 검출기에서 컴프턴 산란 반응이 일어난 산란 반응 위치와 산란각 및 컴프턴 산란된 광자가 상기 제2 검출기에서 흡수되는 흡수 반응 위치를 검출하는 단계,
상기 산란 반응 위치, 상기 산란각 및 상기 흡수 반응 위치와 상기 방사선원의 위치에 따라 다른 해상도 복원을 가지는 해상도 복원 모델링 함수를 이용하여 재구성 영상의 해상도를 복원하는 단계, 그리고
상기 재구성 영상으로부터 상기 방사선원의 분포를 추정하는 단계
를 포함하는 컴프턴 카메라의 영상 재구성 방법.
An image reconstruction method of a Compton camera including a first detector causing a Compton scattering reaction and a second detector where a Compton scattered photon is absorbed,
Detecting a scattering reaction position at which a photon generated from a radiation source has a Compton scattering reaction at a first detector, and a scattering angle and an absorption reaction position at which a Compton scattered photon is absorbed at the second detector,
Reconstructing the resolution of the reconstructed image using a resolution reconstruction modeling function having different resolution reconstructions according to the scattering response position, the scattering angle, the absorption reaction position, and the position of the radiation source; and
Estimating the distribution of the radiation source from the reconstructed image
Image reconstruction method of the Compton camera comprising a.
제1항에서,
상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리에 따라 다른 해상도 복원을 가지는 컴프턴 카메라의 영상 재구성 방법.
In claim 1,
And the resolution reconstruction modeling function has different resolution reconstructions according to the distance between the compton camera and the radiation source.
제1항에서,
상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리 및 반경에 따라 다른 해상도 복원을 가지는 컴프턴 카메라의 영상 재구성 방법.
In claim 1,
And the resolution reconstruction modeling function has different resolution reconstructions according to the distance and radius of the Compton camera and the radiation source.
제2항 또는 제3항에서,
상기 복원하는 단계는,
리스트모드 및 사이노그램을 재구성할 수 있는 통계학적 영상 재구성법을 이용하여 상기 재구성 영상을 생성하는 단계를 포함하는 컴프턴 카메라의 영상 재구성 방법.
3. The method according to claim 2 or 3,
Wherein,
And generating the reconstructed image by using a statistical image reconstruction method capable of reconstructing a list mode and a sinogram.
제4항에서,
상기 통계학적 영상 재구성법을 이용하여 재구성 영상을 생성하는 단계는,
투사와 역투사의 반복 연산을 통해서 상기 재구성 영상을 업데이트하는 단계를 포함하는 컴프턴 카메라의 영상 재구성 방법.
5. The method of claim 4,
Generating a reconstructed image by using the statistical image reconstruction method,
And updating the reconstructed image through an iterative operation of projection and reverse projection.
제4항에서,
상기 통계학적 영상 재구성법을 이용하여 재구성 영상을 생성하는 단계는,
k번째 반복 연산에서,
l번째 재구성된 영상을 투사하여 투사 데이터를 추정하는 단계,
측정된 투사 데이터와 추정된 투사 데이터 사이의 오차를 계산하는 단계,
상기 오차를 l번째 재구성된 영상에 역투사하여 (l+1)번째 영상 추정 시 사용할 오차 영상을 산출하는 단계, 그리고
상기 오차 영상을 이용하여 (k,l)번째 추정된 영상을 보상하여 (l+1)번째 영상을 재구성하는 단계
를 포함하며,
상기 k 및 l은 반복 연산의 횟수 및 투사 데이터에 대한 부분 집합의 인덱스를 나타내는 컴프턴 카메라의 영상 재구성 방법.
5. The method of claim 4,
Generating a reconstructed image by using the statistical image reconstruction method,
In the k iteration operation,
projecting the first reconstructed image to estimate projection data,
Calculating an error between the measured projection data and the estimated projection data,
Calculating an error image to be used when estimating the (l + 1) th image by back-projecting the error onto the lth reconstructed image, and
Reconstructing (l + 1) th image by compensating for the (k, l) th estimated image using the error image
Including;
K and l represent a number of repetitive operations and an index of a subset of projection data.
제6항에서,
상기 통계학적 영상 재구성법을 이용하여 재구성 영상을 생성하는 단계는,
상기 부분 집합의 수만큼 상기 추정하는 단계, 상기 오차를 계산하는 단계, 상기 오차 영상을 산출하는 단계 및 상기 재구성하는 단계를 반복하는 단계, 그리고
상기 반복하는 단계를 상기 반복 연산의 횟수만큼 반복하여 상기 재구성 영상을 생성하는 단계를 더 포함하는 컴프턴 카메라의 영상 재구성 방법.
The method of claim 6,
Generating a reconstructed image by using the statistical image reconstruction method,
Repeating the estimating, calculating the error, calculating the error image, and reconstructing the number of subsets; and
And generating the reconstructed image by repeating the repeating step as many times as the number of repetitive operations.
제6항에서,
상기 투사 데이터를 추정하는 단계는,
l번째 재구성된 영상에 상기 해상도 복원 모델링 함수를 콘볼루션하는 단계를 포함하는 컴프턴 카메라의 영상 재구성 방법.
The method of claim 6,
Estimating the projection data,
and convolving the resolution reconstruction modeling function to a first reconstructed image.
제6항에서,
상기 오차 영상을 산출하는 단계는,
상기 오차를 상기 (k,l)번째 재구성할 영상에 역투사한 후에 상기 해상도 복원 모델링 함수를 콘볼루션하는 단계를 포함하는 컴프턴 카메라의 영상 재구성 방법.
The method of claim 6,
Computing the error image,
And convolving the resolution reconstruction modeling function after projecting the error to the (k, l) th reconstructed image.
제6항에서,
상기 (l+1)번째 영상을 재구성하는 단계는,
정규화 영상에 상기 해상도 복원 모델링 함수를 콘볼루션하는 단계, 그리고
상기 해상도 복원 모델링 함수가 콘볼루션된 정규화 영상을 이용하여 (k,l)번째 보상된 영상으로부터 상기 (l+1)번째 영상을 재구성하는 단계를 포함하는 컴프턴 카메라의 영상 재구성 방법.
The method of claim 6,
Reconstructing the (l + 1) th image,
Convolving said resolution reconstruction modeling function on a normalized image, and
And reconstructing the (l + 1) th image from the (k, l) th compensated image using the convolutional normalized image, wherein the resolution reconstruction modeling function is convoluted.
컴프턴 카메라에서,
방사선원으로부터 발생한 광자가 컴프턴 산란을 일으키는 산란부,
상기 컴프턴 산란된 광자를 흡수하는 흡수부, 그리고
재구성할 영상에 상기 방사선원의 위치에 따라 다른 해상도 복원을 가지는 해상도 복원 모델링 함수를 적용하여 상기 산란부 및 흡수부의 검출 데이터로부터 상기 방사선원에 대한 3차원 영상을 재구성하면서 상기 3차원 영상의 해상도를 복원하는 영상 재구성부
를 포함하는 컴프턴 카메라.
From the Compton camera,
A scattering unit where photons from a radiation source cause Compton scattering,
An absorber for absorbing the Compton scattered photons, and
Reconstructing the resolution of the 3D image while reconstructing the 3D image of the radiation source from the scattering and absorbing unit detection data by applying a resolution reconstruction modeling function having different resolution reconstruction according to the position of the radiation source to the reconstructed image. Image reconstruction unit
Compton camera comprising a.
제11항에서,
상기 검출 데이터는 상기 산란부에서 컴프턴 산란이 일어난 산란 반응 위치와 산란각 및 상기 흡수부에서 흡수되는 흡수 반응 위치를 포함하고,
상기 영상 재구성부는 리스트모드를 이용한 OSEM(List Mode OSEM, LMOSEM)을 이용하여 상기 방사선원에 대한 3차원 영상을 재구성하는 컴프턴 카메라.
12. The method of claim 11,
The detection data includes a scattering reaction position and scattering angle at which Compton scattering occurs in the scattering unit and an absorption reaction position absorbed in the absorbing unit,
And the image reconstruction unit reconstructs a 3D image of the radiation source using List Mode OSEM (LMOSEM) using a list mode.
제12항에서,
상기 영상 재구성부는,
직전 반복 연산에서 재구성된 영상에 상기 해상도 복원 모델링 함수를 콘볼루션하여 투사 데이터를 추정하는 투사부, 그리고
상기 투사 데이터의 오차를 계산하여 상기 직전 반복 연산에서 재구성된 영상에 역투사한 후에 상기 해상도 복원 모델링 함수를 콘볼루션하여 현재 재구성할 영상에 사용할 오차 영상을 생성하고, 상기 오차 영상을 이용하여 상기 현재 재구성할 영상을 생성하는 역투사부를 포함하는 컴프턴 카메라.
The method of claim 12,
Wherein the image reconstruction unit comprises:
A projection unit configured to estimate the projection data by convolving the resolution reconstruction modeling function on the image reconstructed in the previous iterative operation, and
After calculating the error of the projection data and back-projecting on the image reconstructed in the previous iterative operation, the convolutional reconstruction modeling function is generated to generate an error image to be used for the image to be reconstructed. Compton camera including a reverse projection for generating an image to be reconstructed.
제12항에서,
상기 역투사부는 상기 오차 영상을 이용하여 상기 직전 반복 연산에서 재구성된 영상을 보상한 후에 정규화 영상에 상기 해상도 복원 모델링 함수를 콘볼루션한 값을 이용하여 상기 현재 재구성할 영상을 생성하는, 컴프턴 카메라.
The method of claim 12,
The reverse projection unit compensates the image reconstructed in the previous iterative operation using the error image, and then generates a current image to be reconstructed using a value obtained by convolving the resolution reconstruction modeling function to a normalized image. .
제11항 내지 제14항 중 어느 한 항에 있어서,
상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리에 따라 다른 해상도 복원을 가지는, 컴프턴 카메라.
15. The method according to any one of claims 11 to 14,
And the resolution reconstruction modeling function has different resolution reconstructions depending on the distance between the compton camera and the radiation source.
제11항 내지 제14항 중 어느 한 항에 있어서,
상기 해상도 복원 모델링 함수는 상기 컴프턴 카메라와 상기 방사선원의 거리 및 반경에 따라 다른 해상도 복원을 가지는, 컴프턴 카메라.
15. The method according to any one of claims 11 to 14,
And the resolution reconstruction modeling function has different resolution reconstructions depending on the distance and radius of the Compton camera and the radiation source.
제11항 내지 제14항 중 어느 한 항에 있어서,
상기 산란부는 상기 방사선원의 x축, y축 및 z축 중 적어도 하나에 위치하며, 상기 흡수부는 상기 방사선원의 x축, y축 및 z축 중 적어도 하나에 상기 산란부에 대응하여 위치하는, 컴프턴 카메라.
15. The method according to any one of claims 11 to 14,
The scattering unit is located on at least one of the x-axis, the y-axis, and the z-axis of the radiation source, and the absorbing portion is located on at least one of the x-axis, the y-axis, and the z-axis of the radiation source, Compton camera.
KR1020110104217A 2011-10-12 2011-10-12 Cpmpton camera and method for reconstructing image for resolution recovery thereof KR101272251B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110104217A KR101272251B1 (en) 2011-10-12 2011-10-12 Cpmpton camera and method for reconstructing image for resolution recovery thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110104217A KR101272251B1 (en) 2011-10-12 2011-10-12 Cpmpton camera and method for reconstructing image for resolution recovery thereof

Publications (2)

Publication Number Publication Date
KR20130039566A true KR20130039566A (en) 2013-04-22
KR101272251B1 KR101272251B1 (en) 2013-06-13

Family

ID=48439721

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110104217A KR101272251B1 (en) 2011-10-12 2011-10-12 Cpmpton camera and method for reconstructing image for resolution recovery thereof

Country Status (1)

Country Link
KR (1) KR101272251B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110934604A (en) * 2019-12-03 2020-03-31 上海联影医疗科技有限公司 Compton scattering sequence recovery method and device, storage medium and PET imaging system
KR20220012716A (en) * 2020-07-23 2022-02-04 한국원자력연구원 Compton camera and method of determining location information of photon
CN114755710A (en) * 2022-04-29 2022-07-15 清华大学 Compton camera imaging method and device
CN116524060A (en) * 2023-06-25 2023-08-01 四川科瑞达电子技术有限公司 Method and system for reconstructing radiographic detection imaging
KR20230150225A (en) 2022-04-21 2023-10-30 고려대학교 산학협력단 Collimation-less Dual Mode Radiation Imager

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4352122B2 (en) 2003-04-28 2009-10-28 独立行政法人放射線医学総合研究所 Scattering angle uncertainty correction Compton camera
JP2005208057A (en) 2003-12-26 2005-08-04 Institute Of Physical & Chemical Research Gamma ray detector and gamma ray imaging device
KR100859740B1 (en) 2007-06-18 2008-09-23 중앙대학교 산학협력단 Apparatus for improvement in the image resolution of a compton camera and its principle

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110934604A (en) * 2019-12-03 2020-03-31 上海联影医疗科技有限公司 Compton scattering sequence recovery method and device, storage medium and PET imaging system
CN110934604B (en) * 2019-12-03 2023-06-27 上海联影医疗科技股份有限公司 Compton scattering sequence recovery method, compton scattering sequence recovery device, storage medium and PET imaging system
KR20220012716A (en) * 2020-07-23 2022-02-04 한국원자력연구원 Compton camera and method of determining location information of photon
KR20230150225A (en) 2022-04-21 2023-10-30 고려대학교 산학협력단 Collimation-less Dual Mode Radiation Imager
CN114755710A (en) * 2022-04-29 2022-07-15 清华大学 Compton camera imaging method and device
CN114755710B (en) * 2022-04-29 2024-05-28 清华大学 Compton camera imaging method and device
CN116524060A (en) * 2023-06-25 2023-08-01 四川科瑞达电子技术有限公司 Method and system for reconstructing radiographic detection imaging
CN116524060B (en) * 2023-06-25 2024-01-26 四川科瑞达电子技术有限公司 Method and system for reconstructing radiographic detection imaging

Also Published As

Publication number Publication date
KR101272251B1 (en) 2013-06-13

Similar Documents

Publication Publication Date Title
US11769277B2 (en) Deep learning based scatter correction
CN104183012B (en) A kind of PET three-dimensional image reconstruction method and device
Frey et al. Collimator-detector response compensation in SPECT
Xu et al. 4-pi Compton imaging with single 3D position-sensitive CdZnTe detector
US8000513B2 (en) System and method for 3D time of flight PET forward projection based on an exact axial inverse rebinning relation in fourier space
US20160247302A1 (en) Image reconstruction from limited or incomplete data
US20110268334A1 (en) Apparatus for Improving Image Resolution and Apparatus for Super-Resolution Photography Using Wobble Motion and Point Spread Function (PSF), in Positron Emission Tomography
KR101272251B1 (en) Cpmpton camera and method for reconstructing image for resolution recovery thereof
Liang Detector response restoration in image reconstruction of high resolution positron emission tomography
Feng et al. Influence of Doppler broadening model accuracy in Compton camera list-mode MLEM reconstruction
Banjak X-ray computed tomography reconstruction on non-standard trajectories for robotized inspection
Matej et al. Analytic TOF PET reconstruction algorithm within DIRECT data partitioning framework
Ross Schmidtlein et al. Relaxed ordered subset preconditioned alternating projection algorithm for PET reconstruction with automated penalty weight selection
KR101207710B1 (en) Apparatus and method of improving image resolution in positron emission tomography
US20060098857A1 (en) Method for faster iterative reconstruction for converging collimation spect with depth dependent collimator response modeling
Gillam et al. Simulated one-pass list-mode: an approach to on-the-fly system matrix calculation
KR101233984B1 (en) Method of reconstructing an image using single-layered detector
Ortuño et al. 3D-OSEM iterative image reconstruction for high-resolution PET using precalculated system matrix
Frandes et al. Image Reconstruction Techniques for Compton Scattering Based Imaging: An Overview [Compton Based Image Reconstruction Approaches]
Feng et al. Total variation and point spread function priors for MLEM reconstruction in Compton camera imaging
KR101493683B1 (en) Super-resolution Apparatus and Method using LOR reconstruction based cone-beam in PET image
Iskender et al. A physics-motivated DNN for X-ray CT scatter correction
Jian et al. Applications of the line-of-response probability density function resolution model in PET list mode reconstruction
Bai et al. PET image reconstruction: methodology and quantitative accuracy
US9279887B2 (en) Self-similar, transversely shift-invariant point response function in single photon emission computed tomography

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170421

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180425

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190828

Year of fee payment: 7