JP2023040874A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2023040874A
JP2023040874A JP2021148065A JP2021148065A JP2023040874A JP 2023040874 A JP2023040874 A JP 2023040874A JP 2021148065 A JP2021148065 A JP 2021148065A JP 2021148065 A JP2021148065 A JP 2021148065A JP 2023040874 A JP2023040874 A JP 2023040874A
Authority
JP
Japan
Prior art keywords
projection data
timing
moving image
image
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021148065A
Other languages
Japanese (ja)
Inventor
亨 田中
Toru Tanaka
亮 石川
Ryo Ishikawa
達也 木本
Tatsuya Kimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2021148065A priority Critical patent/JP2023040874A/en
Priority to US17/939,217 priority patent/US20230079025A1/en
Publication of JP2023040874A publication Critical patent/JP2023040874A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To accurately match the dynamic phases of observation portions between a plurality of moving images while reducing a calculation amount required for reconstitution.SOLUTION: An information processing device comprises: projection data acquisition means which acquires first projection data obtained by imaging a dynamic state of a subject in a first imaging range including a first division area and second projection data obtained by imaging the dynamic state of the subject in a second imaging range including a second division area; first reconstitution means which acquires a first moving image obtained by reconstituting a first partial area of the first imaging range and a second moving image obtained by reconstituting a second partial area of the second imaging range; similarity acquisition means which acquires similarity concerning the dynamic state of the subject between the respective frames of the first moving image and the second moving image; and reconstitution timing acquisition means which, on the basis of the similarity, acquires first timing of reconstituting an image of the first division area and second timing of reconstituting an image of the second division area.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.

医療の分野において、医師は、種々のモダリティで撮像した医用画像を用いて診断を行う。特に、肺や心臓のように疾患の状態が臓器の動きに表れる部位を対象とする場合、連続する時刻に(すなわち時系列で)撮像した複数の医用画像からなる動画像を用いて診断が行われることがある。3次元断層画像を動画像で(時系列で)撮像可能なモダリティに、エリアディテクター型のX線CT装置がある。このモダリティは、3次元のCT画像が動画像として撮像されるため、時間軸を追加した4DCT装置とも呼ばれる。また、4DCT装置で撮像した画像は4DCT画像とも呼ばれる。 In the medical field, doctors make diagnoses using medical images captured by various modalities. In particular, when targeting a region such as the lungs or heart where the disease state is manifested by the movement of the organ, diagnosis is performed using a moving image consisting of multiple medical images captured at consecutive times (that is, in time series). sometimes An area detector type X-ray CT apparatus is available as a modality capable of capturing three-dimensional tomographic images as moving images (in time series). This modality is also called a 4DCT apparatus with an added time axis, since three-dimensional CT images are captured as moving images. An image captured by a 4DCT device is also called a 4DCT image.

4DCT装置には、1回の撮像で撮像可能な範囲に制限があるため、その撮像範囲よりも大きい臓器を観察するためには、撮像範囲を変えて複数回の撮像を行い結果を結合する場合がある。例えば、肺の上部と下部の4DCT画像を別々に撮像し、呼吸の位相が対応づく3次元画像同士を位置合わせして結合することで、肺全体の4DCT画像を生成することが試みられている。 Since the 4DCT apparatus has a limit to the range that can be imaged in one imaging, in order to observe an organ that is larger than the imaging range, it is necessary to change the imaging range and perform imaging multiple times and combine the results. There is For example, an attempt has been made to generate a 4DCT image of the entire lung by capturing 4DCT images of the upper and lower lungs separately, and aligning and combining the 3D images corresponding to the phases of respiration. .

また、特許文献1では、肺野を撮像した複数の動画像それぞれにおける肺野の動態を解析し、呼吸の位相が対応するフレームを選択する技術を開示している。一般的に、フレームレートが高いほど複数の動画像の間で精密に呼吸の位相を合わせることが可能となり、特許文献1では、一方の動画像のフレーム数が他方よりも少ない場合、フレーム間の画像を補間して生成することで補う技術を開示している。 Further, Japanese Patent Application Laid-Open No. 2004-100002 discloses a technique of analyzing dynamics of lung fields in each of a plurality of moving images obtained by imaging lung fields and selecting frames corresponding to phases of respiration. In general, the higher the frame rate, the more precisely the phase of respiration can be matched between a plurality of moving images. It discloses a technique for compensating by generating an image by interpolating it.

特開2020-141841号公報JP 2020-141841 A

しかしながら、撮像範囲の全体を高いフレームレートで再構成した複数の動画像の間で観察部位の動態の位相を対応付ける場合に、計算量が膨大になるという課題があった。 However, there is a problem that the amount of calculation becomes enormous when matching the phases of dynamics of observed regions between a plurality of moving images obtained by reconstructing the entire imaging range at a high frame rate.

そこで、本開示は、上記課題に鑑みて、再構成に要する計算量を抑えながら複数の動画像の間で観察部位の動態の位相を高精度に合わせる技術を提供することを目的とする。 Therefore, in view of the above problems, an object of the present disclosure is to provide a technique for matching the dynamic phases of observation regions between a plurality of moving images with high accuracy while reducing the amount of calculation required for reconstruction.

上記目的を達成するために、本開示に係る情報処理装置は、
被検体を第1の分割領域と第2の分割領域に分割して撮像した投影データであって、前記被検体の動態を前記第1の分割領域が含まれる第1の撮像範囲で撮像した第1の投影データと、前記被検体の動態を前記第2の分割領域が含まれる第2の撮像範囲で撮像した第2の投影データとを取得する投影データ取得手段と、
前記第1の撮像範囲の一部である第1の部分領域の画像を前記第1の投影データから再構成した第1の部分領域の動画像と、前記第2の撮像範囲の一部である第2の部分領域の画像を前記第2の投影データから再構成した第2の部分領域の動画像を取得する第1の再構成手段と、
前記第1の部分領域の動画像と前記第2の部分領域の動画像の各フレーム間の前記被検
体の動態に関する類似度を取得する類似度取得手段と、
前記類似度に基づいて、前記第1の投影データから前記第1の分割領域の画像を再構成する第1のタイミングと、前記第2の投影データから前記第2の分割領域の画像を再構成する第2のタイミングを取得する再構成タイミング取得手段と
を有することを特徴とする情報処理装置を含む。
In order to achieve the above object, the information processing device according to the present disclosure includes:
Projection data obtained by imaging a subject by dividing it into a first segmented area and a second segmented area, wherein the dynamics of the subject is imaged in a first imaging range including the first segmented area. projection data acquiring means for acquiring the first projection data and second projection data obtained by imaging the dynamics of the subject in a second imaging range including the second divided region;
a moving image of a first partial area obtained by reconstructing an image of a first partial area, which is part of the first imaging range, from the first projection data; and a part of the second imaging range. a first reconstructing means for acquiring a moving image of a second partial area obtained by reconstructing an image of the second partial area from the second projection data;
a similarity obtaining means for obtaining a similarity regarding the dynamics of the subject between each frame of the moving image of the first partial region and the moving image of the second partial region;
Based on the degree of similarity, a first timing for reconstructing an image of the first segmented region from the first projection data and reconstructing an image of the second segmented region from the second projection data. and reconstruction timing obtaining means for obtaining a second timing for obtaining the second timing.

さらに、本開示は、上記手段の処理の少なくとも一部を含む、情報処理方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。 Furthermore, the present disclosure includes an information processing method including at least part of the processing of the above means, a program for causing a computer to execute these methods, or a computer-readable non-temporarily recorded such program. It can also be regarded as a recording medium. Each of the above configurations and processes can be combined to form the present invention as long as there is no technical contradiction.

本開示によれば、再構成に要する計算量を抑えながら複数の動画像の間で観察部位の動態の位相を高精度に合わせることができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to highly accurately match the phases of dynamics of observed regions between a plurality of moving images while reducing the amount of calculation required for reconstruction.

第1実施形態に係るX線CT装置の全体構成を示す図。1 is a diagram showing the overall configuration of an X-ray CT apparatus according to a first embodiment; FIG. 第1実施形態における情報処理装置の機器構成を示す図。2 is a diagram showing the configuration of an information processing apparatus according to the first embodiment; FIG. 第1実施形態における全体の処理手順の一例を示すフロー図。FIG. 4 is a flow diagram showing an example of an overall processing procedure in the first embodiment; 第1実施形態における撮像範囲の一例を示すフロー図。FIG. 2 is a flowchart showing an example of an imaging range in the first embodiment; FIG. 第1実施形態における再構成タイミングの取得の一例を示す図。FIG. 4 is a diagram showing an example of acquisition of reconfiguration timings in the first embodiment; 第2実施形態における情報処理装置の機器構成を示す図。The figure which shows the equipment structure of the information processing apparatus in 2nd Embodiment. 第2実施形態における全体の処理手順の一例を示すフロー図。FIG. 11 is a flowchart showing an example of the overall processing procedure in the second embodiment; FIG. 第2実施形態におけるサイノグラムの一例を示す図。The figure which shows an example of the sinogram in 2nd Embodiment.

以下、本開示の実施形態について図面を用いて説明する。なお、本開示は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。また、以下で説明する図面において、同じ機能を有するものは同一の符号を付し、その説明を省略又は簡潔にすることもある。 Embodiments of the present disclosure will be described below with reference to the drawings. Note that the present disclosure is not limited to the following embodiments, and can be modified as appropriate without departing from the scope of the present disclosure. In addition, in the drawings described below, the same reference numerals are assigned to elements having the same function, and the description thereof may be omitted or simplified.

<第1実施形態>
本実施形態に係る情報処理装置は、周期的な動態を示す観察部位を分割して複数回撮像した3次元動画像を、複数の動画像間で観察部位の動態の位相を整合させて各フレーム画像を結合した結合動画像を生成する装置である。
<First embodiment>
The information processing apparatus according to the present embodiment obtains three-dimensional moving images obtained by dividing an observation region showing periodic dynamics and imaging a plurality of times. This is a device for generating a combined moving image by combining images.

本実施形態の情報処理装置は、観察部位の領域の少なくとも一部が重複するように領域を2つの領域に分割し(第1の分割領域と第2の分割領域)、それぞれの分割領域が撮像されるように第1の撮像範囲と第2の撮像範囲を設定する。そして、観察部位の動態を、X線CT装置で、第1の撮像範囲と第2の撮像範囲のそれぞれを用いて時系列に撮像し、第1の投影データと第2の投影データを取得する。 The information processing apparatus according to the present embodiment divides the observation region into two regions (a first division region and a second division region) so that at least a part of the region of the observation site overlaps, and each division region is imaged. The first imaging range and the second imaging range are set so that Then, the dynamics of the observation site is imaged in time series using the first imaging range and the second imaging range with an X-ray CT apparatus, and the first projection data and the second projection data are obtained. .

次に、本実施形態の情報処理装置は、第1の投影データと第2の投影データの間で、撮像範囲が重複する領域(部分領域)を対象として所定のフレームレートでそれぞれの投影データから複数の(時系列の)画像を再構成し、動画像(3次元動画像)を取得する。すなわち、第1の投影データのうち、第2の投影データと撮像範囲が重複する第1の部分領域を対象に再構成した第1の部分領域の動画像を取得する。同様に、第2の投影データから第1の投影データと撮像範囲が重複する第2の部分領域を対象に再構成した第2の部分領域の動画像を取得する。 Next, the information processing apparatus according to the present embodiment targets an area (partial area) where the imaging range overlaps between the first projection data and the second projection data, from each projection data at a predetermined frame rate. A plurality of (time-series) images are reconstructed to obtain a moving image (three-dimensional moving image). That is, of the first projection data, a moving image of the first partial area reconstructed for the first partial area whose imaging range overlaps that of the second projection data is obtained. Similarly, a moving image of a second partial area reconstructed from the second projection data for a second partial area whose imaging range overlaps that of the first projection data is obtained.

このとき、第1の部分領域の動画像および第2の部分領域の動画像それぞれのフレームレート(時間分解能)は、後段の処理で生成する結合動画像のフレームレート(時間分解能)よりも高いことが望ましい。後段の処理では、第1の部分領域の動画像と第2の部分領域の動画像の間で観察部位の動態の位相が整合するタイミングを取得し、取得したタイミングで結合動画像の生成に利用するフレーム画像を再構成する。第1の部分領域の動画像および第2の部分領域の動画像のフレームレートが結合動画像より低い場合、結合動画像のフレームレートより観察部位の動態の位相が疎である。このため、結合画像の各フレーム画像に適した再構成のタイミング(動態の位相)を取得することが難しい。一方で、結合動画像のフレームレートより高い場合、結合動画像のフレームレートより観察部位の動態の位相が密であるため、結合画像の各フレーム画像により適した再構成のタイミング(動態の位相)を取得できる。 At this time, the frame rate (temporal resolution) of the moving image of the first partial area and the moving image of the second partial area must be higher than the frame rate (temporal resolution) of the combined moving image generated in the subsequent processing. is desirable. In the subsequent processing, the timing at which the dynamic phase of the observed region is matched between the moving image of the first partial region and the moving image of the second partial region is acquired, and the acquired timing is used to generate the combined moving image. Reconstruct the frame image to be used. When the frame rate of the moving image of the first partial area and the moving image of the second partial area is lower than that of the combined moving image, the dynamic phase of the observed region is sparse than the frame rate of the combined moving image. Therefore, it is difficult to acquire reconstruction timing (dynamic phase) suitable for each frame image of the combined image. On the other hand, when the frame rate is higher than the frame rate of the combined moving image, the phase of the dynamics of the observation site is denser than the frame rate of the combined moving image, so the reconstruction timing (phase of the dynamics) is more suitable for each frame image of the combined image. can be obtained.

次に、本実施形態の情報処理装置は、第1の部分領域の動画像と第2の部分領域の動画像の各フレームの間で、観察部位の類似度を取得する。そして、観察部位の類似度に基づいて、第1の投影データから第1の撮像範囲の全体(すなわち第1の分割領域)を再構成する第1のタイミング(再構成処理を行う対象とする複数の時間位置)を取得する。また、第2の投影データから第2の撮像範囲の全体(すなわち第2の分割領域)を再構成する第2のタイミング(再構成処理を行う対象とする複数の時間位置)を取得する。 Next, the information processing apparatus according to the present embodiment acquires the similarity of the observation part between each frame of the moving image of the first partial area and the moving image of the second partial area. Then, based on the degree of similarity of the observed parts, a first timing (a plurality of regions to be subjected to reconstruction processing) is set for reconstructing the entire first imaging range (that is, the first divided regions) from the first projection data. time position). Also, a second timing (a plurality of time positions to be subjected to reconstruction processing) for reconstructing the entire second imaging range (that is, the second divided area) is acquired from the second projection data.

さらに、本実施形態の情報処理装置は、第1の投影データから第1のタイミングで画像を再構成した第1の分割領域の動画像と、第2の投影データから第2のタイミングで画像を再構成した第2の分割領域の動画像を取得する。そして、第1の分割領域の動画像と第2の分割領域の動画像を観察部位が一致するように結合した結合動画像を生成する。すなわち、本実施形態では、撮像範囲が重複する部分領域を再構成した動画像の比較に基づいて、結合動画像の生成に必要なタイミングをそれぞれの投影データについて決定し、当該タイミングの投影データについてそれぞれの分割領域の動画像を再構成する。これにより、撮像範囲の全体の再構成が必要なタイミングを限定することが可能となり、再構成にかかる計算量を抑制できる。また、部分領域の動画像のみを高いフレームレートで再構成することで、再構成に要する計算量を抑えながら、第1の投影データと第2の投影データの間を高い時間分解能で対応付けることができる。 Further, the information processing apparatus according to the present embodiment reconstructs a moving image of the first divided region obtained by reconstructing the image from the first projection data at the first timing, and reconstructs the image from the second projection data at the second timing. A moving image of the reconstructed second divided area is obtained. Then, a combined moving image is generated by combining the moving image of the first divided area and the moving image of the second divided area so that the observed parts match. That is, in the present embodiment, the timing necessary for generating a combined moving image is determined for each piece of projection data based on a comparison of moving images reconstructed from partial regions having overlapping imaging ranges, and the projection data at that timing is determined. A moving image of each divided area is reconstructed. This makes it possible to limit the timing at which reconstruction of the entire imaging range is required, and reduce the amount of calculation required for reconstruction. Further, by reconstructing only the moving image of the partial region at a high frame rate, it is possible to associate the first projection data and the second projection data with high temporal resolution while suppressing the amount of calculation required for reconstruction. can.

以下、図1から図5を用いて、本実施形態の構成および処理を説明する。なお、本実施形態では、肺の呼吸運動を撮像した3次元動画像を例として説明を行う。ただし、本実施形態はこれに限らず、心臓のように自発的な動きを行う任意の部位を撮像した動画像や、被検体が周期的な運動(例えば、屈伸運動)を行った任意の部位を撮像した動画像などにも適用できる。 The configuration and processing of this embodiment will be described below with reference to FIGS. 1 to 5. FIG. Note that, in the present embodiment, a three-dimensional moving image obtained by picking up respiratory motion of the lungs will be described as an example. However, the present embodiment is not limited to this, and a moving image obtained by imaging an arbitrary site that spontaneously moves such as the heart, or an arbitrary site where the subject performs periodic motion (for example, bending and stretching). can also be applied to a moving image captured by

図1は、本実施形態に係るX線CT装置の全体構成を表す。図1に示すように、X線CT装置1は、架台装置10と、寝台装置11と、コンソール装置20とを含んで構成されている。 FIG. 1 shows the overall configuration of an X-ray CT apparatus according to this embodiment. As shown in FIG. 1 , the X-ray CT apparatus 1 includes a gantry device 10 , a bed device 11 and a console device 20 .

架台装置10は、被検体Eに対してX線を曝射し、被検体Eを透過した当該X線のスキャンデータ(検出データ)を収集する装置である。架台装置10は、X線発生部100と、X線検出部101と、回転体102と、高電圧発生部104と、架台駆動部105と、X線絞り部106と、絞り駆動部107と、データ収集部108とを有する。 The gantry device 10 is a device that irradiates the subject E with X-rays and collects scan data (detection data) of the X-rays that have passed through the subject E. FIG. The gantry device 10 includes an X-ray generation unit 100, an X-ray detection unit 101, a rotating body 102, a high voltage generation unit 104, a gantry drive unit 105, an X-ray aperture unit 106, an aperture drive unit 107, and a data collection unit 108 .

X線発生部100は、X線を発生させるX線管球(例えば、円錐状や角錐状のX線ビームを発生する真空管。図示なし)を含んで構成されている。X線発生部100は、発生したX線を被検体Eに対して曝射する。 The X-ray generator 100 includes an X-ray tube (for example, a vacuum tube for generating a conical or pyramidal X-ray beam; not shown) that generates X-rays. The X-ray generator 100 irradiates the subject E with the generated X-rays.

X線検出部101は、複数のX線検出素子(図示なし)を含んで構成されている。X線検出部101は、被検体Eを透過したX線を検出する。具体的には、X線検出部101は、被検体Eを透過したX線の強度分布を示すX線強度分布データをX線検出素子で検出し、その検出データを電気信号として生成し、生成された電気信号を増幅した後、デジタル信号に変換して出力する。X線検出部101には、例えば、検出素子が互いに直交する2方向(スライス方向とチャンネル方向)にそれぞれ複数配置された2次元のX線検出器(面検出器)が用いられる。複数のX線検出素子は、例えば、スライス方向に沿って320列設けられている。このように複数のX線検出素子が多列に設けられたX線検出器を用いることにより、1回転のスキャンでスライス方向に幅を有する3次元の撮像領域を撮像することができる(ボリュームスキャン)。なお、スライス方向は被検体Eの体軸方向に相当し、チャンネル方向はX線発生部100の回転方向に相当する。 The X-ray detection unit 101 includes a plurality of X-ray detection elements (not shown). The X-ray detection unit 101 detects X-rays that have passed through the subject E. FIG. Specifically, the X-ray detection unit 101 detects X-ray intensity distribution data representing the intensity distribution of X-rays that have passed through the subject E with an X-ray detection element, generates the detected data as an electric signal, and generates an electric signal. After amplifying the received electrical signal, it converts it into a digital signal and outputs it. The X-ray detection unit 101 uses, for example, a two-dimensional X-ray detector (surface detector) in which a plurality of detection elements are arranged in two mutually orthogonal directions (slice direction and channel direction). A plurality of X-ray detection elements are provided, for example, in 320 rows along the slice direction. By using an X-ray detector in which a plurality of X-ray detection elements are arranged in multiple rows, a three-dimensional imaging region having a width in the slice direction can be imaged in a single rotation scan (volume scan ). The slice direction corresponds to the body axis direction of the subject E, and the channel direction corresponds to the rotation direction of the X-ray generator 100 .

回転体102は、X線発生部100とX線検出部101とを被検体Eを挟んで対向するよう支持する部材である。回転体102は、スライス方向に貫通した開口部103を有する。架台装置10内において、回転体102は、被検体Eを中心とした円軌道で回転するよう配置されている。すなわち、X線発生部100及びX線検出部101は、被検体Eを中心とする円軌道に沿って回転可能に設けられている。 The rotor 102 is a member that supports the X-ray generator 100 and the X-ray detector 101 so as to face each other with the subject E interposed therebetween. The rotating body 102 has an opening 103 penetrating in the slice direction. In the gantry device 10, the rotating body 102 is arranged to rotate in a circular orbit with the subject E as the center. That is, the X-ray generation unit 100 and the X-ray detection unit 101 are rotatably provided along a circular orbit with the subject E as the center.

高電圧発生部104は、X線発生部100に対して高電圧を印加する(以下、「電圧」とは、X線管球におけるアノード-カソード間の電圧を意味する)。X線発生部100は、当該高電圧に基づいてX線を発生させる。 The high voltage generator 104 applies a high voltage to the X-ray generator 100 (hereinafter, "voltage" means the voltage between the anode and the cathode in the X-ray tube). The X-ray generator 100 generates X-rays based on the high voltage.

架台駆動部105は、回転体102を回転駆動させる。X線絞り部106は、所定幅のスリット(開口)を有し、スリットの幅を変えることで、X線発生部100から曝射されたX線のファン角(チャンネル方向の広がり角)とX線のコーン角(スライス方向の広がり角)とを調整する。絞り駆動部107は、X線発生部100で発生したX線が所定の形状となるようX線絞り部106を駆動させる。 The gantry drive unit 105 rotates the rotating body 102 . The X-ray aperture unit 106 has a slit (aperture) with a predetermined width. By changing the width of the slit, the fan angle (spread angle in the channel direction) of the X-rays emitted from the X-ray generation unit 100 and the X-ray Adjust the cone angle (spread angle in the slice direction) of the line. The aperture drive unit 107 drives the X-ray aperture unit 106 so that the X-rays generated by the X-ray generation unit 100 have a predetermined shape.

データ収集部108(DAS:Data Acquisition System)は、X線検出部101(各X線検出素子)からの検出データを収集する。そして、データ収集部108は、デジタル信号である検出データをコンソール装置20に送信する。 A data acquisition unit 108 (DAS: Data Acquisition System) acquires detection data from the X-ray detection unit 101 (each X-ray detection element). The data collection unit 108 then transmits the detected data, which is a digital signal, to the console device 20 .

寝台装置11は、撮像対象の被検体Eを載置・移動させる装置である。寝台装置11は、被検体Eの体軸方向及び体軸方向に直交する方向に移動することが可能となっている。すなわち、被検体Eが載置された寝台を、回転体102の開口部103に対して挿抜させることができる。 The bed device 11 is a device for placing and moving the subject E to be imaged. The bed device 11 can move in the body axis direction of the subject E and in a direction orthogonal to the body axis direction. That is, the bed on which the subject E is placed can be inserted into and removed from the opening 103 of the rotating body 102 .

本実施形態では、被検体Eの観察部位の領域(撮像範囲)の少なくとも一部が重複するように寝台装置11を回転体102の開口部103に対して挿抜させ、それぞれの撮像位置においてX線を曝射する。これにより、観察部位の領域の少なくとも一部が重複する第1の検出データおよび第2の検出データを収集する。第1の検出データおよび第2の検出データは、被検体Eの観察部位が運動を行っている間に所定期間継続してスキャン(ダイナミックスキャン)することで収集した時系列に沿ったデータである。 In the present embodiment, the couch device 11 is inserted into and removed from the opening 103 of the rotating body 102 so that at least a part of the region (imaging range) of the observation site of the subject E overlaps, and the X-ray beam is detected at each imaging position. to be exposed. As a result, the first detection data and the second detection data in which at least a part of the region of the observation site overlaps are collected. The first detection data and the second detection data are time-series data collected by continuous scanning (dynamic scanning) for a predetermined period of time while the observed region of the subject E is moving. .

コンソール装置20は、X線CT装置に対する操作入力に用いられる。また、コンソール装置20は、架台装置10によって収集された検出データから被検体Eの内部形態を表すCT画像データ(断層画像データやボリュームデータ)を再構成する機能等を有している。コンソール装置20は、処理部21と、スキャン制御部200と、表示制御部201と、表示部202と、記憶部203と、操作部204と、制御部205とを含んで構成さ
れている。
The console device 20 is used for operation input to the X-ray CT apparatus. The console device 20 also has a function of reconstructing CT image data (tomographic image data and volume data) representing the internal morphology of the subject E from the detection data collected by the gantry device 10 . The console device 20 includes a processing section 21 , a scan control section 200 , a display control section 201 , a display section 202 , a storage section 203 , an operation section 204 and a control section 205 .

図2は、図1の制御部等と共に、本実施形態に係る情報処理装置(処理部21)の構成を示す。図2において、図1と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 2 shows the configuration of an information processing apparatus (processing unit 21) according to this embodiment together with the control unit and the like in FIG. In FIG. 2, the same parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

処理部21は、架台装置10(データ収集部108)から送信された検出データ(第1の検出データおよび第2の検出データ)に対して各種処理を実行する。処理部21は、投影データ取得部210と、部分領域取得部211と、第1の再構成処理部212と、類似度取得部213と、再構成タイミング取得部214と、第2の再構成処理部215と、結合動画像取得部216とを含んで構成されている。 The processing unit 21 performs various processes on the detection data (first detection data and second detection data) transmitted from the gantry device 10 (data collection unit 108). The processing unit 21 includes a projection data acquisition unit 210, a partial area acquisition unit 211, a first reconstruction processing unit 212, a similarity acquisition unit 213, a reconstruction timing acquisition unit 214, and a second reconstruction processing. It includes a unit 215 and a combined moving image acquisition unit 216 .

投影データ取得部210は、架台装置10(X線検出部101)で検出された第1の検出データおよび第2の検出データそれぞれに対して対数変換処理、オフセット補正、感度補正、ビームハードニング補正等の処理を行う。これにより、投影データ取得部210は、第1の投影データと第2の投影データを作成する。すなわち、投影データは、被検体Eを架台装置10によって撮像することにより得られる。 The projection data acquisition unit 210 performs logarithmic conversion processing, offset correction, sensitivity correction, and beam hardening correction on each of the first detection data and the second detection data detected by the gantry 10 (X-ray detection unit 101). etc. are processed. Thereby, the projection data acquisition unit 210 creates the first projection data and the second projection data. That is, the projection data are obtained by imaging the subject E with the gantry device 10 .

部分領域取得部211は、スキャン制御部200によって制御される撮像位置に基づいて、第1の再構成処理部212で第1の投影データに対して再構成処理を行う第1の部分領域と、第2の投影データに対して再構成処理を行う第2の部分領域とを取得する。 The partial area acquisition unit 211 obtains a first partial area for which the first reconstruction processing unit 212 performs reconstruction processing on the first projection data based on the imaging position controlled by the scan control unit 200; and obtaining a second partial region on which reconstruction processing is to be performed on the second projection data.

第1の再構成処理部212は、部分領域取得部211で取得した第1の部分領域において、投影データ取得部210で作成された第1の投影データに対して再構成処理を行い、第1の部分領域の動画像(4DCT画像)を作成する。また、第1の再構成処理部212は、部分領域取得部211で取得した第2の部分領域において、投影データ取得部210で作成された第2の投影データに対して再構成処理を行い、第2の部分領域の動画像を作成する。 A first reconstruction processing unit 212 performs reconstruction processing on the first projection data created by the projection data acquisition unit 210 in the first partial region acquired by the partial region acquisition unit 211, and performs a reconstruction process on the first projection data. A moving image (4DCT image) of the partial area of is created. Further, the first reconstruction processing unit 212 performs reconstruction processing on the second projection data created by the projection data acquisition unit 210 in the second partial area acquired by the partial area acquisition unit 211, A moving image of the second partial area is created.

再構成条件は、変更することが可能となっている。断層画像の再構成には、たとえば、2次元フーリエ変換法、コンボリューション・バックプロジェクション法等、任意の方法を採用することができる。ボリュームデータは、再構成された複数の断層画像データを補間処理することにより作成される。ボリュームデータ(3DCT画像)の再構成には、たとえば、コーンビーム再構成法、マルチスライス再構成法、拡大再構成法等、任意の方法を採用することができる。上述のように複数のX線検出素子が多列に設けられたX線検出器を用いたボリュームスキャンにより、広範囲のボリュームデータを再構成することができる。 The reconstruction conditions can be changed. Any method such as a two-dimensional Fourier transform method, a convolution back-projection method, or the like can be used for reconstructing the tomographic image. Volume data is created by interpolating a plurality of reconstructed tomographic image data. For reconstruction of volume data (3DCT image), any method such as cone beam reconstruction method, multi-slice reconstruction method, enlargement reconstruction method, or the like can be adopted. A wide range of volume data can be reconstructed by volume scanning using an X-ray detector in which a plurality of X-ray detection elements are arranged in multiple rows as described above.

類似度取得部213は、第1の再構成処理部212で取得した第1の部分領域の動画像と第2の部分領域の動画像とを比較することにより、第1の部分領域の動画像と第2の部分領域の動画像との間の観察部位の類似度を取得する。観察部位の類似度は、第1の部分領域の動画像の各フレーム画像(第1の部分領域のフレーム画像)において、周期的に動く観察部位の、各周期内で位相が近い第2の部分領域の動画像のフレーム画像(第2の部分領域のフレーム画像)を特定する情報である。 The similarity acquisition unit 213 compares the moving image of the first partial region and the moving image of the second partial region acquired by the first reconstruction processing unit 212 to obtain the moving image of the first partial region. and the moving image of the second partial region. The degree of similarity of the observation part is obtained by determining the second part of the observation part that periodically moves in each frame image of the moving image of the first partial area (the frame image of the first partial area), which is close in phase within each period. This is information specifying the frame image of the moving image of the area (the frame image of the second partial area).

再構成タイミング取得部214は、類似度取得部213で取得した観察部位の類似度に基づいて、第1の投影データに対して撮像範囲の全体(すなわち第1の分割領域)で再構成するタイミング(第1のタイミング)を設定する。また、再構成タイミング取得部214は、観察部位の類似度に基づいて第2の投影データに対して再構成範囲の全体(すなわち第2の分割領域)で再構成するタイミング(第2のタイミング)を取得する。 The reconstruction timing acquisition unit 214 determines the timing for reconstructing the entire imaging range (that is, the first divided region) of the first projection data based on the similarity of the observed region acquired by the similarity acquisition unit 213. (first timing) is set. Further, the reconstruction timing acquisition unit 214 determines the timing (second timing) at which the second projection data is reconstructed in the entire reconstruction range (that is, the second divided region) based on the similarity of the observation part. to get

第2の再構成処理部215は、再構成タイミング取得部214で取得したタイミングで第1の投影データを再構成した第1の分割領域の動画像と、第2の投影データを再構成した第2の分割領域の動画像とを取得する。 The second reconstruction processing unit 215 generates a moving image of the first divided region reconstructed from the first projection data at the timing acquired by the reconstruction timing acquisition unit 214 and a second projection data reconstructed from the second projection data. A moving image of 2 divided areas is acquired.

結合動画像取得部216は、類似度取得部213で取得した観察部位の類似度に基づいて、第1の分割領域の動画像と第2の分割領域の動画像の各フレーム画像を結合した結合動画像を取得する。 The combined moving image acquiring unit 216 combines each frame image of the moving image of the first divided region and the moving image of the second divided region based on the similarity of the observation part acquired by the similarity acquiring unit 213. Acquire moving images.

スキャン制御部200は、X線スキャンに関する各種動作を制御する。例えば、スキャン制御部200は、X線発生部100に対して高電圧を印加させるよう高電圧発生部104を制御する。スキャン制御部200は、回転体102を回動駆動(回転駆動)させるよう架台駆動部105を制御する。スキャン制御部200は、X線絞り部106を動作させるよう絞り駆動部107を制御する。スキャン制御部200は、寝台装置11の移動を制御する。 The scan control unit 200 controls various operations related to X-ray scanning. For example, the scan controller 200 controls the high voltage generator 104 to apply a high voltage to the X-ray generator 100 . The scan control unit 200 controls the gantry driving unit 105 so as to rotationally drive (rotate) the rotor 102 . The scan control unit 200 controls the aperture drive unit 107 to operate the X-ray aperture unit 106 . The scan control unit 200 controls movement of the bed device 11 .

表示制御部201は、画像表示に関する各種制御を行う。例えば、結合動画処理部216によって取得した結合動画像を表示部202に表示させる制御を行う。 The display control unit 201 performs various controls related to image display. For example, it controls the display unit 202 to display the combined moving image acquired by the combined moving image processing unit 216 .

表示部202は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイ等の任意の表示デバイスによって構成される。例えば、表示部202には、結合動画像の各フレーム画像をレンダリング処理して得られるMPR(Multi Planer Reconstruction)画像が時系列に再生され表示される。 The display unit 202 is configured by any display device such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. For example, the display unit 202 reproduces and displays MPR (Multi Planer Reconstruction) images obtained by rendering each frame image of the combined moving image in time series.

記憶部203は、RAM(Random Access Memory)やROM(Read Only Memory)等の記憶装置によって構成される。記憶部203は、検出データや投影データ、あるいは再構成処理後の4DCT画像および結合動画像等を記憶する。 The storage unit 203 is configured by a storage device such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The storage unit 203 stores detection data, projection data, 4DCT images after reconstruction processing, combined moving images, and the like.

操作部204は、コンソール装置20に対する各種操作を行う入力デバイスとして用いられる。操作部204は、たとえばキーボード、マウス、トラックボール、ジョイスティック等により構成される。また、操作部204として、表示部202に表示されたGUI(Graphical User Interface)を用いることも可能である。この実施形態では、操作部204は、再構成条件を設定するために用いられたり、生成された画像の表示状態(例えば、MPR画像における断面位置や断面の向き等、又は画像の倍率)を変更するために用いられたりする。 An operation unit 204 is used as an input device for performing various operations on the console device 20 . The operation unit 204 is composed of, for example, a keyboard, mouse, trackball, joystick, and the like. A GUI (Graphical User Interface) displayed on the display unit 202 can also be used as the operation unit 204 . In this embodiment, the operation unit 204 is used to set reconstruction conditions and change the display state of generated images (for example, cross-sectional position and cross-sectional orientation in MPR images, or image magnification). It is used to

制御部205は、架台装置10、寝台装置11およびコンソール装置20の動作を制御することによって、X線CT装置の全体制御を行う。例えば、制御部205は、スキャン制御部200を制御することで、架台装置10に対して、スキャンを実行させ、検出データを収集させる。また、制御部205は、処理部205を制御することで、検出データに対する各種処理(投影データの取得、再構成処理、結合動画像の取得)を行わせる。あるいは、制御部205は、表示制御部201を制御することで、記憶部203に記憶された画像データ等に基づき、結合動画像等を表示部202に表示させる。 The control unit 205 performs overall control of the X-ray CT apparatus by controlling operations of the gantry device 10 , the bed device 11 and the console device 20 . For example, the control unit 205 controls the scan control unit 200 to cause the gantry device 10 to perform scanning and collect detection data. In addition, the control unit 205 controls the processing unit 205 to perform various processes (acquisition of projection data, reconstruction processing, acquisition of combined moving images) on the detected data. Alternatively, the control unit 205 controls the display control unit 201 to display the combined moving image or the like on the display unit 202 based on the image data or the like stored in the storage unit 203 .

図3は、本実施形態に係る情報処理装置(コンソール装置20)が行う全体の処理手順のフローチャートを示している。以下の説明では、観察部位として肺を想定する。 FIG. 3 shows a flowchart of the overall processing procedure performed by the information processing device (console device 20) according to the present embodiment. In the following description, lungs are assumed as an observation site.

(S300)(投影データの取得)
ステップS300において、投影データ取得部210は、架台装置10で収集した第1
の検出データから第1の投影データを作成し、第2の検出データから第2の投影データを作成して取得する。そして、取得した第1の投影データと第2の投影データの両方を、第1の再構成処理部212と第2の再構成処理部215へと出力する。
(S300) (Acquisition of projection data)
In step S300, the projection data acquisition unit 210 acquires the first
1st projection data is created from the detection data, and the 2nd projection data is created and acquired from the 2nd detection data. Then, both the acquired first projection data and second projection data are output to the first reconstruction processing unit 212 and the second reconstruction processing unit 215 .

本実施形態では、第1の投影データと第2の投影データは、少なくとも肺の一部の領域が重複するように肺を頭尾方向に分割して撮像された投影データであるとする。また、第1の投影データの撮像範囲(すなわち第1の分割領域)は肺尖部が含まれる肺の上部、第2の投影データの撮像範囲(すなわち第2の分割領域)は肺底部が含まれる肺の下部であるとする。図4に撮像範囲の一例を模式的に示す。図4において、被検体Eの肺400を観察部位とした場合、範囲410を撮像した投影データが第1の投影データであり、範囲420を撮像した投影データが第2の投影データである。そして、範囲430が肺の一部が重複する領域である。 In the present embodiment, it is assumed that the first projection data and the second projection data are projection data captured by dividing the lung in the craniocaudal direction so that at least partial areas of the lung overlap. The imaging range of the first projection data (that is, the first segmented region) includes the upper portion of the lung including the lung apex, and the imaging range of the second projection data (that is, the second segmented region) includes the lung base. Suppose it is the lower part of the lung where the FIG. 4 schematically shows an example of an imaging range. In FIG. 4, when the lung 400 of the subject E is the observation site, the projection data obtained by imaging the range 410 is the first projection data, and the projection data obtained by imaging the range 420 is the second projection data. A range 430 is the overlapping area of the lungs.

本実施形態の投影データはX線CT装置で収集した検出データから作成したデータを例としており、サイノグラムを含むデータであるとする。サイノグラムは、X線検出器(X線検出部101)に沿った「空間」(横軸)および一連の投影角度で行われる測定のスキャンの「角度」(縦軸)の関数としてX線の減衰を描画したものである。この空間次元は、X線検出器の1次元的な配列に沿った位置である。また、角度次元は、時間の経過に応じて投影角度が等量ずつ増加し、線形的に変化する一連の投影角度で投影測定が行われることを表す、時間の関数として変化するX線投影角度である。身体におけるある特定のボリューム(例えば、肺)に起因するX線の減衰は縦軸まわりに正弦波を描くが、ボリュームが回転の中心から遠くなるほど正弦波の振幅が大きく、正弦波の位相は回転軸に対するボリュームの角度位置を確定する。本実施形態では、逆ラドン(Radon)変換または同等の画像再構成方法を行うことにより、サイノグラム中の投影データから画像が再構成され、再構成された画像は身体の1つの断層画像データに対応する。 The projection data in this embodiment is data created from detection data acquired by an X-ray CT apparatus, and is data including a sinogram. The sinogram shows the attenuation of x-rays as a function of the "space" (horizontal axis) along the x-ray detector (x-ray detector 101) and the "angle" (vertical axis) of the scans of measurements taken at a series of projection angles. is drawn. This spatial dimension is the position along the one-dimensional array of x-ray detectors. Also, the angular dimension is the x-ray projection angle varying as a function of time, representing projection measurements made at a series of linearly varying projection angles in equal increments of projection angle over time. is. X-ray attenuation due to a particular volume in the body (e.g. lungs) describes a sine wave about the vertical axis, with the amplitude of the sine wave increasing and the phase of the sine wave changing as the volume moves away from the center of rotation. Determines the angular position of the volume with respect to the axis. In this embodiment, an image is reconstructed from the projection data in the sinogram by performing an inverse Radon transform or an equivalent image reconstruction method, and the reconstructed image corresponds to one tomographic image data of the body. do.

(S310)(部分領域の取得)
ステップS310において、部分領域取得部211は、スキャン制御部200によって制御される撮像位置に基づいて、第1の再構成処理部212で第1の投影データに対して再構成処理を行う第1の部分領域を取得する。同様に、第2の投影データに対して再構成処理を行う第2の部分領域を取得する。そして、取得した第1の部分領域と第2の部分領域を第1の再構成処理部212へと出力する。
(S310) (Acquisition of partial area)
In step S<b>310 , the partial region acquisition unit 211 causes the first reconstruction processing unit 212 to perform reconstruction processing on the first projection data based on the imaging position controlled by the scan control unit 200 . Get a subregion. Similarly, a second partial area is acquired for which reconstruction processing is to be performed on the second projection data. Then, the acquired first partial area and second partial area are output to the first reconstruction processing unit 212 .

本実施形態において、部分領域取得部211は、スキャン制御部200によって制御される撮像位置に基づいて定まる第1の検出データと第2の検出データの撮像範囲が重複する領域(図4の範囲430)を部分領域とする。なお、第1の部分領域と第2の部分領域は、撮像範囲が重複する領域をすべて含む領域でもよいし、撮像範囲が重複する領域の一部を含む領域でもよい。また、必ずしも撮像範囲が重複する領域を含まなくてもよい。 In the present embodiment, the partial area acquisition unit 211 acquires an area (range 430 in FIG. 4) where the imaging ranges of the first detection data and the second detection data that are determined based on the imaging position controlled by the scan control unit 200 overlap. ) is a partial area. Note that the first partial area and the second partial area may be areas that include all areas where the imaging ranges overlap, or may include areas that include a part of the areas where the imaging ranges overlap. In addition, it is not necessary to include areas where the imaging ranges overlap.

また、再構成処理を行う第1の部分領域と第2の部分領域は、実空間上で同一の領域であってもよいし、異なる領域でもよい。実空間上で同一の領域の場合、例えば、第1の部分領域と第2の部分領域の両方を、図4の範囲430としてもよいし、範囲430に含まれる一部の領域としてもよい。第1の部分領域と第2の部分領域を、実空間上で異なる領域とする場合、例えば、第1の部分領域と第2の部分領域の一方を範囲430とし、他方を範囲430に含まれる一部の領域としてもよい。 Also, the first partial area and the second partial area to be reconstructed may be the same area in the real space, or may be different areas. In the case of the same area in real space, for example, both the first partial area and the second partial area may be the range 430 in FIG. When the first partial area and the second partial area are different areas in the real space, for example, one of the first partial area and the second partial area is defined as the range 430, and the other is included in the range 430. It may be a partial area.

また、部分領域は、撮像範囲が重複していない領域でもよく、第1の部分領域を範囲430の少なくとも一部を含む範囲410内のいずれかの範囲としてもよいし、第1の部分領域を範囲410のすべての範囲としてもよい。同様に、第2の部分領域を範囲430の少なくとも一部を含む範囲420内のいずれかの範囲としてもよいし、第1の部分領域を
範囲410のすべての範囲としてもよい。あるいは、範囲410のうち範囲430を除いた範囲を第1の部分領域としてもよいし、範囲420のうち範囲430を除いた範囲を第2の部分領域としてもよい。これにより、観察部位のそれぞれ異なる領域を示す第1の部分領域と第2の部分領域の投影データの間を高い時間分解能で対応付けることができる。
Also, the partial areas may be areas where the imaging ranges do not overlap, the first partial area may be any range within the range 410 including at least a part of the range 430, or the first partial area may be All ranges of range 410 may be used. Similarly, the second partial area may be any range within range 420 including at least a portion of range 430 , and the first partial area may be all of range 410 . Alternatively, the range 410 excluding the range 430 may be the first partial area, and the range 420 excluding the range 430 may be the second partial area. Thereby, the projection data of the first partial area and the second partial area, which indicate different areas of the observation site, can be associated with each other with high temporal resolution.

(S320)(部分領域の動画像の取得)
ステップS320において、第1の再構成処理部212は、ステップS310で取得した第1の部分領域において、ステップS300で取得した第1の投影データに対して再構成処理を行い、第1の部分領域の動画像を取得する。また、ステップS310で取得した第2の部分領域において、ステップS300で取得した第2の投影データに対して再構成処理を行い、第2の部分領域の動画像を取得する。そして、取得した第1の部分領域の動画像と第2の部分領域の動画像を、類似度取得部213へと出力する。
(S320) (Acquisition of moving image of partial area)
In step S320, the first reconstruction processing unit 212 performs reconstruction processing on the first projection data acquired in step S300 in the first partial region acquired in step S310, and reconstructs the first partial region. Get the moving image of Also, in the second partial area acquired in step S310, reconstruction processing is performed on the second projection data acquired in step S300 to acquire a moving image of the second partial area. Then, the obtained moving image of the first partial region and the obtained moving image of the second partial region are output to the similarity obtaining unit 213 .

ここで、本ステップにおける再構成のフレームレートは、第1の部分領域の動画像と第2の部分領域の動画像との間で、略一致する位相の画像が存在する程度に高い時間分解能の値に設定されることが望ましい。本実施形態において、第1の部分領域の動画像と第2の部分領域の動画像の再構成は、あらかじめ設定したフレームレート(例えば、10フレーム/秒)で行う。第1の部分領域の動画像と第2の部分領域の動画像の間でフレームレートは同一でもよいし、異なってもよい。操作部204を介してユーザがフレームレートを設定する構成であってもよい。例えば、観察部位に適切なフレームレートを、操作部204を介してユーザが設定してもよい。または、第1の投影データと第2の投影データを取得したそれぞれの時間長を、所定のフレーム数で等分割するフレームレートでもよい。 Here, the frame rate of the reconstruction in this step is such that the video of the first partial region and the video of the second partial region have a high time resolution to the extent that there are images with substantially the same phase. value. In this embodiment, the moving image of the first partial area and the moving image of the second partial area are reconstructed at a preset frame rate (for example, 10 frames/second). The frame rate may be the same or different between the moving image of the first partial area and the moving image of the second partial area. The configuration may be such that the user sets the frame rate via the operation unit 204 . For example, the user may set the appropriate frame rate for the observation site via the operation unit 204 . Alternatively, a frame rate may be used that equally divides the length of time for acquiring the first projection data and the second projection data by a predetermined number of frames.

また、第1の再構成処理部212が、観察部位名に応じて、フレームレートを自動的に設定してもよい。このとき、観察部位名はユーザが指定してもよいし、架台装置10による観察部位の撮像に使用する撮像パラメータに応じて自動的に判断してもよい。例えば、心臓の心拍と肺の呼吸による周期的な運動では、1周期の時間間隔が異なる。したがって、観察部位名が心臓の場合(観察部位名が心臓であるという情報を取得した場合)は、フレームレートを高く設定してもよい。観察部位名が肺の場合でも、分割撮像時の撮像範囲に心臓が含まれる場合には、心臓の運動周期に合わせて、より高いフレームレートを設定してもよい。すなわち、撮像範囲内で肺のみが運動する肺の上部(第1の部分領域の動画像)は肺用にあらかじめ設定したフレームレートで再構成する。さらに、肺と共に心臓も撮像範囲に含まれる肺の下部(第2の部分領域の動画像)は心臓用にあらかじめ設定したフレームレートで再構成する。これにより、肺の下部の撮像時に心臓の心拍の影響で肺が変形する様子を捉えた動画像を取得できる。 Alternatively, the first reconstruction processing unit 212 may automatically set the frame rate according to the observation region name. At this time, the observation site name may be specified by the user, or may be determined automatically according to imaging parameters used for imaging the observation site by the gantry device 10 . For example, the time intervals of one cycle are different between the periodic motion due to heartbeat and lung breathing. Therefore, when the observation region name is the heart (when information indicating that the observation region name is the heart is obtained), the frame rate may be set high. Even if the name of the observation part is lungs, if the heart is included in the imaging range during divided imaging, a higher frame rate may be set according to the motion cycle of the heart. That is, the upper part of the lung (moving image of the first partial region) where only the lung moves within the imaging range is reconstructed at a frame rate preset for the lung. Furthermore, the lower portion of the lung (moving image of the second partial region), in which the heart is included in the imaging range together with the lung, is reconstructed at a frame rate set in advance for the heart. As a result, it is possible to obtain a moving image that captures how the lungs are deformed under the influence of the heartbeat when imaging the lower part of the lungs.

また、再構成のフレームレートは1つの動画像の中で一定でなくてもよい。例えば、観察部位の動きが遅い時間範囲のフレームレートは低くし、動きが速い時間範囲のフレームレートは高く設定して再構成してもよい。観察部位の動態の変化速度は、投影データを解析して取得してもよいし、不図示の外部装置で心拍や呼吸周期を観察することで取得してもよい。投影データを解析して観察部位の動態の変化速度を取得する方法としては、公知の方法を利用できる。例えば、X線CT装置1で収集した投影データの対向データ(「空間」は同一で「時間(角度)」が180度異なる2つのサイノグラム)の間で差異が大きい場合は、当該対向データを収集した時間の観察部位の動きが速いと判定できる。 Also, the reconstruction frame rate may not be constant in one moving image. For example, reconstruction may be performed by setting a low frame rate for a time range in which the movement of the observation site is slow and a high frame rate for a time range in which the observation site moves quickly. The rate of change in dynamics of the observation site may be obtained by analyzing projection data, or may be obtained by observing heartbeats and respiratory cycles with an external device (not shown). A known method can be used as a method of analyzing the projection data and acquiring the rate of change in dynamics of the observation site. For example, if there is a large difference between opposing data of projection data acquired by the X-ray CT apparatus 1 (two sinograms with the same "space" and different "time (angle)" by 180 degrees), the opposing data is acquired. It can be determined that the movement of the observation site during the time is fast.

(S330)(観察部位の類似度の取得)
ステップS330において、類似度取得部213は、ステップS320で取得した第1の部分領域の各フレーム画像と第2の部分領域の各フレーム画像の間の観察部位の類似度を取得する。観察部位の類似度の一例はフレーム画像の間の画像類似度であり、第1の部分領域の各フレーム画像と第2の部分領域の所定のフレーム画像との間の画像類似度を取
得する。本実施形態では、より適切な類似度を取得するために、フレーム画像間の相対的な位置を複数パターンで並進移動させた際の、画像類似度を取得する。そして、画像類似度が最も高くなる並進移動量とその画像類似度を観察部位の類似度として取得する。そして、前記処理により取得した観察部位の類似度を再構成タイミング取得部214および結合動画像取得部216へと出力する。
(S330) (Acquisition of similarity of observation site)
In step S330, the similarity acquisition unit 213 acquires the similarity of the observed region between each frame image of the first partial region and each frame image of the second partial region acquired in step S320. An example of the observed region similarity is the image similarity between frame images, and the image similarity between each frame image of the first partial region and a predetermined frame image of the second partial region is obtained. In this embodiment, in order to obtain a more appropriate degree of similarity, the degree of image similarity is obtained when the relative positions of the frame images are translated in a plurality of patterns. Then, the translational movement amount with the highest image similarity and its image similarity are acquired as the similarity of the observed region. Then, the degree of similarity of the observation parts acquired by the above processing is output to the reconstruction timing acquiring section 214 and the combined moving image acquiring section 216 .

本実施形態においては、観察部位が肺であり、観察部位の類似度が画像類似度である場合を例として観察部位の類似度の取得方法について具体的に説明する。画像類似度は、第1の部分領域の所定のフレーム画像と第2の部分領域の所定のフレーム画像の間で算出する。このとき、被検体の体動等に起因する位置ずれにより、第1の部分領域の所定のフレーム画像と第2の部分領域の所定のフレーム画像の間では、本来は同一位置である所定の部位が、各画像間で異なる位置に描出される可能性がある。これに対処するため、第1の部分領域のフレーム画像に対して第2の部分領域のフレーム画像の位置を移動させて位置を補正し、画像類似度を算出する。 In the present embodiment, a method for acquiring the similarity of the observed region will be specifically described by taking as an example the case where the observed region is the lung and the similarity of the observed region is the image similarity. The image similarity is calculated between a predetermined frame image of the first partial area and a predetermined frame image of the second partial area. At this time, due to a positional shift caused by the body movement of the subject, the predetermined frame image of the first partial region and the predetermined frame image of the second partial region are originally at the same position. may appear at different positions in each image. In order to deal with this, the position of the frame image of the second partial area is moved with respect to the frame image of the first partial area to correct the position, and the image similarity is calculated.

肺を観察部位とする場合、呼吸により主に体軸方向の体動が問題となることから、体軸方向に第2の部分領域のフレーム画像の位置を並進移動させて画像類似度を算出する。このとき、画像を並進移動させたときの複数の並進移動量に対してそれぞれ画像類似度を算出し、画像類似度が最も高くなる並進移動量とその画像類似度を取得する。また、必ずしも複数の並進移動量で位置の補正を行わなくてもよい。例えば、単一の並進移動量で第2の部分領域の各フレーム画像の位置を補正し、第1の部分領域の各フレーム画像との画像類似度を算出してもよい。このとき、前記単一の並進移動量はあらかじめユーザが指定した値を用いてもよいし、第1の部分領域と第2の部分領域の位置(例えば、体軸方向の中心位置)の差異としてもよい。また、位置の補正をせずに(並進移動量=0)画像類似度を算出してもよい。 When the lung is the observation site, body movement in the body axis direction due to respiration is a major problem. Therefore, the image similarity is calculated by translating the position of the frame image of the second partial region in the body axis direction. . At this time, the image similarity is calculated for each of a plurality of translational movement amounts when the image is translated, and the translational movement amount with the highest image similarity and its image similarity are obtained. Further, it is not always necessary to correct the position using a plurality of translational movement amounts. For example, the position of each frame image of the second partial area may be corrected by a single translation amount, and the image similarity with each frame image of the first partial area may be calculated. At this time, a value specified in advance by the user may be used as the single translation amount, or the difference between the positions of the first partial area and the second partial area (for example, the center position in the body axis direction) may be good too. Alternatively, the image similarity may be calculated without correcting the position (translational movement amount=0).

画像類似度としては、一般的に用いられているSum of Squared Difference(SSD)や相互情報量、相互相関係数などの公知の方法を用いることができる。画像類似度を算出する際には、関心領域を設定してもよい。例えば、第1の部分領域の所定のフレーム画像と第2の部分領域の所定のフレーム画像のそれぞれから肺野領域を抽出し、肺野領域のみを対象として画像類似度を算出してもよい。肺野領域の抽出処理は公知の画像処理手法を利用できる。画素値の閾値を利用した任意の閾値処理でもよいし、グラフカット処理をはじめとする既知のセグメンテーション処理でもよい。あるいは、肺領領域の観察に適した条件(例えば、ウインドウレベル(WL)を-600、ウインドウ幅(WW)を1500)に画素値変換等の前処理を施した画像を対象として画像類似度を算出してもよい。 As image similarity, known methods such as sum of squared difference (SSD), mutual information, and cross-correlation coefficient, which are generally used, can be used. A region of interest may be set when calculating the image similarity. For example, a lung region may be extracted from each of a predetermined frame image of the first partial region and a predetermined frame image of the second partial region, and the image similarity may be calculated for only the lung region. A well-known image processing method can be used for extraction processing of the lung region. Any threshold processing using a pixel value threshold may be used, or known segmentation processing such as graph cut processing may be used. Alternatively, an image that has been subjected to preprocessing such as pixel value conversion under conditions suitable for observation of the lung region (for example, window level (WL) of -600 and window width (WW) of 1500) is used to calculate the image similarity. can be calculated.

観察部位の類似度は、画像類似度以外の方法で取得してもよい。例えば、周期的な動態を示す観察部位の、周期内での位相の近さを類似度として取得してもよい。観察部位が肺の場合、第1の部分領域の動画像と第2の部分領域の動画像のそれぞれにおいて、各フレーム画像での肺の呼吸位相を推定する。そして、第1の部分領域の各フレーム画像と第2の部分領域の各フレーム画像の呼吸周期内での呼吸位相の近さを類似度として取得する。これによると、第1の部分領域の動画像と第2の部分領域の動画像で、それぞれ独立に位相を推定するため、撮像範囲が重複していない場合でも観察部位の類似度を取得できる。 The degree of similarity of observed regions may be acquired by a method other than the degree of image similarity. For example, the closeness of the phases within the cycle of observation sites showing periodic dynamics may be obtained as the degree of similarity. When the observation part is the lung, the breathing phase of the lung in each frame image is estimated in each of the moving image of the first partial area and the moving image of the second partial area. Then, the closeness of the respiratory phase within the respiratory cycle between each frame image of the first partial region and each frame image of the second partial region is obtained as a degree of similarity. According to this, since the phases are estimated independently for the moving image of the first partial area and the moving image of the second partial area, the similarity of the observation part can be obtained even if the imaging ranges do not overlap.

肺の呼吸位相は、フレーム画像を解析することで算出できる。例えば、呼吸位相とともに変動する画像特徴量を利用できる。画像特徴量としては、肺野領域の体積や面積、肺野領域の画素値の平均値、体表位置など追跡可能な特徴的な部位の位置などを利用でき、画像特徴量の類似度を観察部位の類似度とすることができる。すなわち、第1の部分領域の所定のフレーム画像から算出した画像特徴量と、第2の部分領域の所定のフレーム画像か
ら算出した画像特徴量の差分を観察部位の類似度とすることができる。
The respiratory phase of the lungs can be calculated by analyzing frame images. For example, it is possible to use an image feature quantity that varies with the respiratory phase. As image feature values, the volume and area of the lung region, the average value of the pixel values of the lung region, and the position of characteristic parts that can be tracked such as the position of the body surface can be used, and the similarity of the image feature values can be observed. It can be the similarity of parts. That is, the difference between the image feature amount calculated from the predetermined frame image of the first partial area and the image feature amount calculated from the predetermined frame image of the second partial area can be used as the degree of similarity of the observation part.

また、呼吸位相は、画像特徴量ではなく動画像における肺の動きを解析することで取得してもよい。例えば、画像特徴量の時間的変化率に基づいて肺の動きを解析し、その動きの解析結果に基づいて観察部位の類似度を取得してもよい。画像特徴量は呼吸位相とともに周期的に変動し、肺の動態の変化速度と画像特徴量の時間的変化率に相関があることを利用する。具体的には、第1の部分領域の各フレーム画像において画像特徴量を算出し、画像特徴量の推移に第1の曲線(例えば、サインカーブ)のあてはめを行う。同様に、第2の部分領域の各フレーム画像において画像特徴量を算出し、第2の曲線のあてはめを行う。そして、第1の曲線と第2の曲線の間でパラメータ(サインカーブの場合は位相)の類似度を観察部位の類似度として取得してもよい。 Also, the respiratory phase may be obtained by analyzing the movement of the lungs in the moving image instead of the image feature amount. For example, the movement of the lungs may be analyzed based on the temporal change rate of the image feature amount, and the similarity of the observation site may be acquired based on the analysis result of the movement. The image feature amount periodically fluctuates with the respiratory phase, and the fact that there is a correlation between the rate of change in lung dynamics and the temporal change rate of the image feature amount is utilized. Specifically, an image feature amount is calculated for each frame image of the first partial area, and a first curve (for example, a sine curve) is applied to the transition of the image feature amount. Similarly, an image feature amount is calculated for each frame image of the second partial area, and a second curve is fitted. Then, the degree of similarity of parameters (phase in the case of a sine curve) between the first curve and the second curve may be acquired as the degree of similarity of the observed region.

なお、上記の例では並進移動により位置の補正をする例を説明したが、並進移動に限らず回転や拡大、縮小(アフィン変換)を利用して位置を補正してもよい。また、非線形な変形モデルを利用して位置を補正してもよい。変形モデルには、Thin Plate Spline(TPS)などの放射基底関数に基づく変形モデルやFree Form Deformation(FFD)等の公知の変形モデルを利用できる。 In the above example, the position is corrected by translational movement, but the position may be corrected not only by translational movement but also by rotation, enlargement, or reduction (affine transformation). Alternatively, the position may be corrected using a nonlinear deformation model. As the deformation model, a deformation model based on a radial basis function such as Thin Plate Spline (TPS) or a known deformation model such as Free Form Deformation (FFD) can be used.

また、上記の例では複数の並進移動量に対してそれぞれ画像類似度を算出し、画像類似度が最も高くなる並進移動量とその画像類似度を取得したが、各並進移動量と画像類似度の組み合わせを観察部位の類似度として取得する構成であってもよい。 In the above example, the image similarity is calculated for each of a plurality of translational movement amounts, and the translational movement amount with the highest image similarity and its image similarity are obtained. may be acquired as the similarity of the observation site.

(S340)(再構成タイミングの取得)
ステップS340では、再構成タイミング取得部214は、ステップS330で取得した観察部位の類似度を基に、第1の投影データと第2の投影データを撮像した時間範囲の間で、周期的な動態を示す観察部位の周期内での位相が対応する時間位置を取得する。そして、第1の投影データを撮像した時間範囲から取得した時間位置を第1のタイミングとし、第2の投影データを撮像した時間範囲から取得した時間位置を第2のタイミングとして、第2の再構成処理部215へと出力する。
(S340) (Acquisition of reconstruction timing)
In step S<b>340 , the reconstruction timing acquisition unit 214 calculates periodic dynamics between the time ranges in which the first projection data and the second projection data are captured, based on the similarity of the observed region acquired in step S<b>330 . acquires the time position corresponding to the phase within the cycle of the observation site showing . Then, the time position obtained from the time range in which the first projection data is captured is set as the first timing, and the time position obtained from the time range in which the second projection data is captured is set as the second timing. Output to the configuration processing unit 215 .

本実施形態では、第1の部分領域の動画像と第2の部分領域の動画像の2つの入力系列に対し、第1のタイミングと第2のタイミングの最適な組み合わせを取得する一例として、Dymanic Programming(DP)によるマッチング方法を用いる。本実施形態におけるDPマッチングでは、ステップS330で取得した各動画像のフレーム画像間の観察部位の類似度をコストとしたコスト最小化問題を解くことで最適な組み合わせを取得する。 In this embodiment, Dynamic A matching method by programming (DP) is used. In the DP matching of the present embodiment, an optimum combination is obtained by solving a cost minimization problem in which the cost is the similarity of observation parts between frame images of each moving image obtained in step S330.

図5を用いて具体的に説明する。図5Aに示すマトリクス500は、iを第1の部分領域の動画像のフレーム番号(i=1,2,・・・,M)、jを第2の部分領域の動画像のフレーム番号(j=1,2,・・・,N)としたときの観察部位の類似度を格納したマトリクスである。例えば、観察部位の類似度を画像類似度とした場合、(i,j)=(1,2)のマトリクスの要素には、第1の部分領域の最初のフレーム画像と第2の部分領域の2番目のフレーム画像との間の画像類似度が格納されている。ここでは、(1,1)を始端510、(M,N)を終端520としてDP(Dynamic Programming)マッチングを行う。そして、始端510から終端520までに通るマトリクスの各要素に格納された値(観察部位の類似度)の総和をコストとし、コストが最良となるルート(組み合わせ)を探索する。図5Aでは、DPマッチングで最良のルートとして選択された要素をグレーで示している。最良ルートは始端510から終端520に至るまでの間、i軸方向に0または1、j軸方向に0または1だけ進む制約のもとで探索を行う。これにより、始端510から終端520までの間で時系列が逆になることを防ぐことができる。 A specific description will be given with reference to FIG. The matrix 500 shown in FIG. 5A has i as the frame number of the moving image of the first partial area (i=1, 2, . . . , M) and j as the frame number of the moving image of the second partial area (j = 1, 2, . . . , N). For example, if the similarity of the observed region is the image similarity, the elements of the matrix (i, j)=(1, 2) include the first frame image of the first partial region and the second partial region. The image similarity with the second frame image is stored. Here, DP (Dynamic Programming) matching is performed with (1, 1) as the start 510 and (M, N) as the end 520 . Then, a route (combination) with the best cost is searched for, using the total sum of the values (similarity of observation sites) stored in each element of the matrix passing from the start end 510 to the end end 520 as the cost. In FIG. 5A, the element selected as the best route by DP matching is shown in gray. The best route is searched from the starting point 510 to the terminal point 520 under the constraint of advancing 0 or 1 in the i-axis direction and 0 or 1 in the j-axis direction. As a result, it is possible to prevent the time series from being reversed from the beginning 510 to the end 520 .

次に、上記のようにフレーム画像を時系列に進めて最良ルートとして選択された各フレーム番号の一部を第1のタイミングおよび第2のタイミングとして取得する。例えば、第1の部分領域の動画像のフレーム番号を基準として、一定の間隔で第1のタイミングとそれに対応する第2のタイミングを取得する。 Next, the frame images are advanced in chronological order as described above, and a part of each frame number selected as the best route is acquired as the first timing and the second timing. For example, with reference to the frame number of the moving image of the first partial area, the first timing and the corresponding second timing are obtained at regular intervals.

まず、再構成タイミング取得部214は、第1のタイミングとして、第1の部分領域の動画像を等間隔に間引くようなタイミングを設定する。この間隔は、第1の部分領域の動画像のフレームレートと、結合動画像のフレームレートに基づいて設定できる。例えば、第1の部分領域の動画像が10フレーム/秒であり、結合動画像を5フレーム/秒とする場合は、2フレーム間隔で第1のタイミングを設定すればよい。同様に、第1の部分領域の動画像が12フレーム/秒であり、結合動画像を4フレーム/秒とする場合は、3フレーム間隔で第1のタイミングを設定すればよい。すなわち、第1の部分領域の動画像がaフレーム/秒であり、結合動画像をbフレーム/秒とする場合は、(a/b)フレーム間隔で第1のタイミングを設定すればよい。そして、第1の部分領域の動画像を2フレーム間隔で取得する場合は、奇数フレーム(i=1,3,5,・・・)を第1のタイミングとしてもよいし、偶数フレーム(i=2,4,6,・・・)を第1のタイミングとしてもよい。第1の部分領域の動画像をnフレーム間隔で取得する場合も同様であり、i=1,i=2,・・・,i=n-1のそれぞれから始めるn通りの組み合わせをとることができる。 First, the reconstruction timing acquisition unit 214 sets, as the first timing, timing for thinning out the moving image of the first partial region at equal intervals. This interval can be set based on the frame rate of the moving image of the first partial area and the frame rate of the combined moving image. For example, when the moving image of the first partial area is 10 frames/second and the combined moving image is 5 frames/second, the first timing may be set at intervals of two frames. Similarly, when the moving image of the first partial area is 12 frames/second and the combined moving image is 4 frames/second, the first timing may be set at intervals of 3 frames. That is, when the moving image of the first partial area is a frames/second and the combined moving image is set to be b frames/second, the first timing may be set at (a/b) frame intervals. When the moving image of the first partial area is acquired at intervals of two frames, the first timing may be odd frames (i=1, 3, 5, . . . ) or even frames (i= 2, 4, 6, . . . ) may be set as the first timing. The same is true when the moving image of the first partial area is acquired at n frame intervals, and n combinations starting from each of i=1, i=2, . can.

ここで、第2のタイミングの取得の処理を説明する例として、第1の部分領域の動画像を2フレーム間隔で取得する場合であって、第1のタイミングとして、iが奇数のフレーム(i=1,3,5,・・・)を選択する場合を考える。このとき、再構成タイミング取得部214は、第1のタイミングのそれぞれ(i=1,3,5,・・・)について、上記の処理で選択した最良ルート上においてiに対応するjを第2のタイミングとして取得する(すなわち、iとjを対応付ける)。ただし、1つのiに対して複数のjが最良ルート上に存在する場合は、観察部位の類似度が最良となるjを第2のタイミングとして取得する。 Here, as an example for explaining the process of acquiring the second timing, a case where the moving image of the first partial area is acquired at intervals of two frames, and i is an odd frame (i =1, 3, 5, . . . ). At this time, for each of the first timings (i=1, 3, 5, . (that is, associate i and j). However, if a plurality of j's exist on the best route for one i, the j with the best similarity of the observed region is acquired as the second timing.

例えば、図5Aのようにi=1のとき、(1,1)、(1,2)の二つが最良ルートとして選択されている場合、観察部位の類似度が高い方のj(図5Bの例では、j=2)のみを取得する。図5Bに、iが奇数の場合を基準として、第1のタイミングと第2のタイミングを取得する例を示す。図5Bでは、第1のタイミングは{1,3,5,7}であり、第1のタイミングと対応する第2のタイミング{2,4,5,8}を取得している。すなわち、二つの動画像のフレーム(1,2),(3,4),(5,5),(7,8)がそれぞれ対応付けられる。 For example, when i=1 as shown in FIG. 5A, when two routes (1, 1) and (1, 2) are selected as the best routes, j ( In the example, only j=2) is obtained. FIG. 5B shows an example of acquiring the first timing and the second timing, with i being an odd number as a reference. In FIG. 5B, the first timing is {1, 3, 5, 7}, and the second timing {2, 4, 5, 8} corresponding to the first timing is obtained. That is, the frames (1, 2), (3, 4), (5, 5), and (7, 8) of the two moving images are associated with each other.

また、同様に、iが偶数の場合(i=2,4,6,・・・)のそれぞれにおいて、最良ルート上において観察部位の類似度が最良となるjを取得し、iを第1のタイミング、jを第2のタイミングとしてもよい。あるいは、第1のタイミングのバリエーション(n=2の場合はiが奇数の場合と偶数の場合)に対してiに対応するjを同様にして求め、観察部位の類似度の総和が最良となる組み合わせを選択して第1のタイミングおよび第2のタイミングを取得してもよい。また、組み合わせの選択方法は類似度の総和に基づくものに限らず、例えば、第2のタイミングの間隔が等間隔により近いものを選ぶ等の基準であってもよいし、これら両方の基準を加味した基準であってもよい。 Similarly, when i is an even number (i=2, 4, 6, . The timing j may be the second timing. Alternatively, j corresponding to i is similarly obtained for the first timing variation (where i is an odd number and an even number when n=2), and the total sum of the similarities of the observed parts is the best. A combination may be selected to obtain the first timing and the second timing. Further, the method of selecting a combination is not limited to being based on the sum of similarities, and may be based on, for example, a criterion such as selecting a second timing interval that is closer to an equal interval. It may be a standard that

さらに、第1の部分領域の動画像のフレーム番号ではなく、第2の部分領域の動画像のフレーム番号を基準としてもよい。この場合、第2のタイミングを上述したnフレーム間隔で取得し、上記と同様に最良ルートを用いて対応する第1のタイミングを求めるように
してもよい。さらに、第1の部分領域の動画像を基準にするパターンと、第2の部分領域の動画像を基準にするパターンのそれぞれで最良の組み合わせを求めてもよい。さらに、それらの両者から最良の組み合わせを(例えば、観察部位の類似度の総和が最良となる組み合わせを)選択するようにしてもよい。
Furthermore, instead of the frame number of the moving image of the first partial area, the frame number of the moving image of the second partial area may be used as a reference. In this case, the second timing may be acquired at the above-described n frame interval, and the corresponding first timing may be obtained using the best route in the same manner as described above. Further, the best combination of the pattern based on the moving image of the first partial area and the pattern based on the moving image of the second partial area may be obtained. Furthermore, the best combination (for example, the combination that gives the best sum of the similarities of observation parts) may be selected from both of them.

なお、第1の投影データと第2の投影データの撮像の間で観察部位の動態が同一でない場合でも、いずれか一方を基準として間引くことで一方を基準にした時間軸で結合動画像を生成できる。例えば、第1の投影データと第2の投影データの間で撮像時の観察部位の動態の変化速度が異なる場合に、その速度に応じて何れか一方のデータの時間軸を基準として結合動画像を生成することができる。例えば、観察部位の動態の変化速度が速い方を基準として間引くことで、動きの情報が少ないフレームを除くことができるため、データの冗長性を削減できる。一方で、観察部位の動きが遅い方を基準として間引くことで、詳細な動きの情報を欠落させることなく結合動画像を生成できる。 Note that even if the dynamics of the observed region are not the same between the imaging of the first projection data and the second projection data, thinning is performed with one of them as a reference to generate a combined moving image on the time axis with one as a reference. can. For example, when the change speed of the dynamics of the observation site at the time of imaging differs between the first projection data and the second projection data, the time axis of either one of the data is used as a reference in accordance with the change speed. can be generated. For example, by thinning out images based on the rate of change in the dynamics of the observation site being faster, it is possible to remove frames with less motion information, thereby reducing data redundancy. On the other hand, by thinning out the slow motion of the observation part as a reference, a combined moving image can be generated without missing detailed motion information.

また、必ずしも一方を基準として間引くのではなく、両方を基準にして間引いてもよい。例えば、観察部位の動きの情報が比較的少ない位相(呼吸の最大吸気位や最大呼気位)では、動きが速い方の投影データを基準に間引き、他の位相では動きが遅い方の投影データを基準に間引いてもよい。これにより、データの冗長性を削減しつつ、詳細な動きの情報も保持した結合動画像を生成できる。 Also, the thinning may be performed using both as a reference instead of using one as the reference. For example, in phases with relatively little information on the movement of the observed region (maximal inspiratory and maximal expiratory positions), the projection data with faster movement is thinned out, and in other phases, the projection data with slower movement is used. Thinning may be performed according to the standard. As a result, it is possible to generate a combined moving image that retains detailed motion information while reducing data redundancy.

また、間引く間隔は、ユーザにより任意に設定できるようにしても良い。例えば、出力する結合動画像のフレームレートをユーザが設定し、それに基づいて間引く間隔を決めるようにできる。これにより、後段の第2の再構成処理部215において、結合動画像の生成に必要十分なタイミングでのみ効率的に再構成を行うことができる。 Also, the thinning interval may be arbitrarily set by the user. For example, the user can set the frame rate of the combined moving image to be output and determine the thinning interval based on it. As a result, the second reconstruction processing unit 215 in the subsequent stage can efficiently perform reconstruction only at necessary and sufficient timings for generating the combined moving image.

なお、図5Aでは、(1,1)を始端510、(M,N)を終端520としたが、必ずしもこれに限らない。始端または終端フリーのDPマッチングでもよい。この場合、始端をi=1(左端の列またはj=1(上端の行)のいずれであってもよく、終端をi=M(右端の列)またはj=N(下端の行)のいずれであってもよい。また、必ずしも始端と終端をマトリクス500の端の行および列としなくてもよい。例えば、第1の投影データを基準として2フレーム間隔で間引く場合で、偶数のiと観察部位の類似度が最良となるjを取得することがあらかじめ決まっている場合、始端をi=2のいずれかとすることで計算量を削減できる。 In FIG. 5A, (1, 1) is the starting end 510 and (M, N) is the ending end 520, but this is not necessarily the case. Start- or end-free DP matching is also possible. In this case the start can be either i=1 (leftmost column or j=1 (top row) and the end can be either i=M (rightmost column) or j=N (bottom row). Also, the start and end do not necessarily have to be the rows and columns at the ends of the matrix 500. For example, when thinning out at intervals of two frames based on the first projection data, an even number i and observation If it is predetermined to obtain j that maximizes the similarity of the part, the amount of calculation can be reduced by setting the starting point to i=2.

また、類似度の総和が最良となるルートの探索を行ったが、総和ではなく平均値や中央値等を含む他の統計値でもよい。これによるとルートの距離の長さに依存せずに最良ルートを探索することが可能となる。また、ルート探索時にi軸方向に0または1、j軸方向に0または1だけ進む制約のもとで探索を行っていたが、必ずしもこれに限らない。間引く軸方向と間隔を予め定め、その方向に関しては当該間隔だけ進むように制約を設けてもよい。 In addition, although a search for a route with the best sum of similarities was performed, other statistical values including average values and median values may be used instead of the sum. This makes it possible to search for the best route without depending on the distance of the route. In addition, the search is performed under the constraint that the route is searched by 0 or 1 in the i-axis direction and 0 or 1 in the j-axis direction, but this is not necessarily the case. The direction of the thinning axis and the interval may be determined in advance, and restrictions may be provided so that the direction advances by the interval.

また、間引く軸方向と間隔を予め定める場合には、間引きにより選択されることのないフレームをあらかじめマトリクス500から除いてもよい。例えば、i軸方向に2フレーム間隔で間引く場合、マトリクスのi軸方向の行数はM/2とし、マトリクスサイズを小さくできるため、計算量を削減することができる。 Further, when the axial direction and interval for thinning are determined in advance, frames that are not selected by thinning may be removed from the matrix 500 in advance. For example, when decimating at intervals of two frames in the i-axis direction, the number of rows in the i-axis direction of the matrix is set to M/2, and the matrix size can be reduced, so that the amount of calculation can be reduced.

また、進む方向に応じてコストにペナルティを加えてもよい。例えば、第1の投影データと第2の投影データのぞれぞれの撮像で、被検体の動態の対応関係として観察部位の周期的な動態の速度が類似している場合、第1の部分領域の動画像と第2の部分領域の動画像の各フレーム間で観察部位の動きの量は互いに類似する。このとき、多くの場合はi軸
とj軸方向の両方に1ずつ進むルートが適切なルートとなる。このことから、第1の投影データと第2の投影データのぞれぞれの撮像時に観察部位の周期的な動態の変化速度が類似していることが想定されるような場合、i軸とj軸方向の両方共に1進む場合のペナルティを低く(例えば、ペナルティ=0)してもよい。さらに、それ以外の場合には、ペナルティを高くしてもよい。これによると、ステップS330で取得した観察部位の類似度に誤差が含まれている場合でも、頑健にルート探索を行うことができる。
Also, a penalty may be added to the cost according to the direction of travel. For example, in the imaging of each of the first projection data and the second projection data, when the velocity of the periodic dynamics of the observed region is similar as the correspondence relationship of the dynamics of the subject, the first part The amount of movement of the observation site between each frame of the moving image of the region and the moving image of the second partial region is similar to each other. At this time, in many cases, a route that advances by 1 in both the i-axis and j-axis directions is an appropriate route. For this reason, when it is assumed that the rate of change in the periodic dynamics of the observation site is similar when imaging the first projection data and the second projection data, the i-axis and The penalty for advancing by 1 in both j-axis directions may be low (for example, penalty=0). In addition, the penalty may be higher in other cases. According to this, even when the similarity of the observation part obtained in step S330 contains an error, the route search can be robustly performed.

また、図5では、2次元のマトリクス500で最良ルートの探索(フレーム番号の組み合わせの最適化)を行っている。ただし、ステップS330で複数の並進移動量における観察部位の類似度を取得している場合、並進移動量の軸を加えた3次元のマトリクスを用いて最良ルートの探索を行ってもよい。この場合、フレーム番号の対応付けとフレーム間の並進移動量の最適化を同時に行うことができる。また、2次元のマトリクス上で進む方向に応じてペナルティを加えることと同様に、3次元のマトリクスの場合に並進移動量の軸方向の進む方向に対してもペナルティを加えてもよい。 In FIG. 5, a two-dimensional matrix 500 is used to search for the best route (optimization of combination of frame numbers). However, if the similarity of the observed region for a plurality of translational movements is obtained in step S330, the best route may be searched using a three-dimensional matrix to which the axes of the translational movements are added. In this case, the association of frame numbers and the optimization of the amount of translational movement between frames can be performed at the same time. Also, in the case of a three-dimensional matrix, a penalty may also be added to the axial direction of the translational movement amount in the same manner as adding a penalty according to the direction of movement on the two-dimensional matrix.

このように、第1の投影データと第2の投影データとの間の被検体の動態の対応関係やフレーム画像の相対位置に応じて、第1の時間位置と第2の時間位置との組み合わせの優先度が設定される。そして、観察部位の類似度がより高い組み合わせのうち優先度がより高い組み合わせに基づいて、第1の時間位置が第1のタイミングとされ、第2の時間位置が第2のタイミングとされる。これにより、第1のタイミングと第2のタイミングの組み合わせの最適化を図ることができる。 In this manner, the combination of the first time position and the second time position is determined according to the correspondence relationship of the dynamics of the subject between the first projection data and the second projection data and the relative position of the frame image. priority is set. Then, the first time position is set as the first timing, and the second time position is set as the second timing based on the combination with the higher priority among the combinations with the higher observation region similarity. This makes it possible to optimize the combination of the first timing and the second timing.

なお、第1のタイミングと第2のタイミングの組み合わせの最適化方法として、DPのアルゴリズムの一例を用いたが、これに限らず他のDPのアルゴリズムを用いてもよい。また、隠れマルコフモデルのような確率モデルを用いた方法でもよく、他の公知の方法を用いてもよい。 Although an example of the DP algorithm is used as a method of optimizing the combination of the first timing and the second timing, other DP algorithms may be used without being limited to this. Alternatively, a method using a probability model such as a hidden Markov model may be used, or another known method may be used.

(S350)(分割領域の動画像の再構成)
ステップS350において、第2の再構成処理部215は、第1の投影データから、ステップS340で取得した第1のタイミングにおいて、第1の投影データの撮像範囲の全体を再構成した第1の分割領域の動画像を取得する。また、同様に、第2の再構成処理部215は、第2の投影データから、ステップS340で取得した第2のタイミングにおいて、第2の投影データの撮像範囲の全体を再構成した第2の分割領域の動画像を取得する。そして、取得した第1の分割領域の動画像と第2の分割領域の動画像を結合動画像取得部216へと出力する。
(S350) (Reconstruction of moving image of divided area)
In step S350, the second reconstruction processing unit 215 reconstructs the entire imaging range of the first projection data from the first projection data at the first timing acquired in step S340 to create the first division Get a moving image of the area. Similarly, the second reconstruction processing unit 215 reconstructs the entire imaging range of the second projection data from the second projection data at the second timing acquired in step S340 to obtain a second projection data. Acquire a moving image of the segmented region. Then, the acquired moving image of the first divided area and the acquired moving image of the second divided area are output to the combined moving image acquisition unit 216 .

(S360)(結合動画像の取得)
ステップS360において、結合動画像取得部216は、ステップS350で取得した第1の分割領域の動画像と第2の分割領域の動画像の対応する各フレーム画像を結合した結合動画像を取得する。そして、取得した結合動画像を記憶部203へと出力する。
(S360) (Acquisition of Combined Moving Image)
In step S360, the combined moving image acquiring unit 216 acquires a combined moving image obtained by combining corresponding frame images of the moving image of the first divided area and the moving image of the second divided area acquired in step S350. Then, the acquired combined moving image is output to the storage unit 203 .

ここで、結合動画像取得部216は、第1の分割領域の動画像と第2の分割領域の動画像の対応するフレーム画像をそれぞれ結合する。このとき、ステップS330で取得した観察部位の類似度が最も高くなる並進移動量に基づいて、フレーム画像間の対応位置が一致するように結合して結合画像を生成する。あるいは、本ステップで第1の分割領域の動画像と第2の分割領域の動画像の対応するフレーム画像間で位置合わせし、位置合わせ結果に基づいてレーム画像間の対応位置が一致するように結合して結合画像を生成してもよい。なお、結合画像において、2つのフレーム画像が重複する領域の画素の画素値は、いずれか一方のフレーム画像の画素値を設定してもよいし、両方のフレーム画像の画素値の平均値を設定してもよい。あるいは、位置に応じて、観察部位が肺の場合は、肺尖部側の
画素では第1の分割領域のフレーム画像の画素値の重みを大きくし、肺底部側の画素では第2の分割領域のフレーム画像の画素値の重みを大きくした重み付き平均値を利用してもよい。または、ステップS350で、ステップS330で取得した観察部位の類似度が最も高くなる並進移動量を基に、第1の投影データの第1のタイミングと対応する第2の投影データの第2のタイミングを体軸方向に結合した結合投影データに対し再構成してもよい。これにより、結合動画像が再構成できる。この場合ステップS360の処理が不要となる。
Here, the combined moving image acquiring unit 216 combines corresponding frame images of the moving image of the first divided area and the moving image of the second divided area. At this time, a combined image is generated by combining the frame images so that the corresponding positions of the frame images match, based on the translational movement amount at which the similarity of the observation part acquired in step S330 is the highest. Alternatively, in this step, the corresponding frame images of the moving image of the first divided area and the moving image of the second divided area are aligned, and based on the alignment result, the corresponding positions of the frame images are aligned. They may be combined to produce a combined image. In the combined image, the pixel value of the pixels in the area where the two frame images overlap may be set to the pixel value of either one of the frame images, or set to the average value of the pixel values of both frame images. You may Alternatively, depending on the position, when the observation site is the lung, the weight of the pixel value of the frame image of the first segmented region is increased for the pixels on the lung apex side, and the weight of the pixel value of the frame image of the first segmented region is increased for the pixels on the lung bottom side. A weighted average value obtained by increasing the weight of the pixel value of the frame image may be used. Alternatively, in step S350, the second timing of the second projection data corresponding to the first timing of the first projection data is determined based on the amount of translational movement that maximizes the similarity of the observed region acquired in step S330. may be reconstructed for combined projection data combined in the axial direction. Thereby, a combined moving image can be reconstructed. In this case, the process of step S360 becomes unnecessary.

(S370)(結合動画像の表示)
ステップS370において、表示制御部201は、ステップS360において取得した結合動画像を表示部202に表示する。
(S370) (Display of Combined Moving Image)
In step S370, the display control unit 201 displays the combined moving image acquired in step S360 on the display unit 202. FIG.

例えば、結合動画像の各フレーム画像をMPR表示してもよいし、任意の角度の断面を表示してもよい。表示部202に表示されたGUIを介してユーザの操作を受け付け、結合動画像の再生や停止の操作、断面の切り替えや拡大率、断面の向きを変えて表示してもよい。 For example, each frame image of the combined moving image may be displayed in MPR, or a cross section at an arbitrary angle may be displayed. A user's operation may be received via a GUI displayed on the display unit 202, and the combined moving image may be played or stopped, and may be displayed by switching the cross section, changing the enlargement ratio, or changing the direction of the cross section.

なお、表示制御部201による結合動画像の表示は、必ずしも行わなくてもよい。その代わりに、ステップS360で生成した結合動画像を記憶部203や外部のサーバに保存または出力する構成であってもよい。これによっても、保存された結合動画像を不図示の医用画像ビューアによって表示することで、同様の効果を得ることができる。 Note that the display of the combined moving image by the display control unit 201 does not necessarily have to be performed. Alternatively, the combined moving image generated in step S360 may be stored in the storage unit 203 or an external server or output. Also in this case, the same effect can be obtained by displaying the saved combined moving image with a medical image viewer (not shown).

以上によって、情報処理装置の処理が実施される。本実施形態では、観察部位の領域全体が含まれるように領域を分割して複数回に分けて撮像した3次元動画像から、複数の動画像間で観察部位の位相が対応する各フレーム画像を結合した結合動画像を生成することができる。 As described above, the processing of the information processing apparatus is performed. In the present embodiment, each frame image corresponding to the phase of the observed part among the plurality of moving images is extracted from the three-dimensional moving images obtained by dividing the area so as to include the entire observation part area and capturing the images a plurality of times. A combined combined motion image can be generated.

次に、第1実施形態の変形例について以下説明する。なお、以下の説明において、上記の構成要素および処理と同様の構成要素および処理については、同一の符号を付し、詳細な説明は省略する。 Next, a modified example of the first embodiment will be described below. In the following description, components and processes similar to those described above are denoted by the same reference numerals, and detailed description thereof will be omitted.

(変形例1-1)
ステップS360において、第1の分割領域のフレーム画像と第2の分割領域のフレーム画像の間で観察部位の対応位置が一致するように位置を補正し結合していたが、必ずしもこれに限らない。例えば、ステップS350において、ステップS330で取得した観察部位の類似度が最も高くなる並進移動量に基づいて、位置を補正した第2の分割領域の動画像を生成してもよい。この場合、ステップS360では位置の補正は行なわずに第1の分割領域のフレーム画像と第2の分割領域のフレーム画像を結合し結合動画像を生成する。
(Modification 1-1)
In step S360, the positions of the frame images of the first segmented region and the frame images of the second segmented region are corrected and combined so that the corresponding positions of the observed regions match, but this is not necessarily the case. For example, in step S350, a moving image of the second segmented region whose position is corrected may be generated based on the amount of translational movement that maximizes the similarity of the observation part acquired in step S330. In this case, in step S360, the frame image of the first divided area and the frame image of the second divided area are combined to generate a combined moving image without correcting the position.

また、ステップS330における並進移動による補正量の算出を行わず、第1の分割領域のフレーム画像と第2の分割領域のフレーム画像を撮像範囲の情報に基づいて(並進移動補正せずに)結合して結合動画像を生成してもよい。これによると、計算量を削減できる。 Also, the frame image of the first divided area and the frame image of the second divided area are combined (without translational movement correction) based on the information of the imaging range without calculating the correction amount due to the translational movement in step S330. may be used to generate a combined moving image. According to this, the amount of calculation can be reduced.

(変形例1-2)
ステップS340において、図5Aのようにi=1のとき、(1,1)、(1,2)の二つが最良ルートとして選択されている場合、観察部位の類似度が高い方のjのみを取得したが、必ずしもこれに限らない。例えば、図5Aのように、最良ルートとして選択された組み合わせの一部が(1,1)、(1,2)、(2,3)となっている場合に、(1,
2)を(1.5,2)とするように、i=1とi=2の間のタイミングを第1のタイミングの候補として取得してもよい。i=1とi=2の間のタイミングとして、例えば、1と2の中間であるi=1.5を取得できる。このとき、その時刻に対応する第1の分割領域のフレーム画像をステップS350で取得するようにできる。
(Modification 1-2)
In step S340, when i=1 as shown in FIG. 5A, if two routes (1, 1) and (1, 2) are selected as the best route, only j with a higher similarity of the observed region is selected. Acquired, but not necessarily limited to this. For example, as shown in FIG. 5A, when some of the combinations selected as the best route are (1, 1), (1, 2), (2, 3), (1,
A timing between i=1 and i=2 may be acquired as a first timing candidate so that 2) is set to (1.5, 2). As the timing between i=1 and i=2, for example, i=1.5, which is between 1 and 2, can be obtained. At this time, the frame image of the first divided area corresponding to that time can be acquired in step S350.

また、図5Aの例において、i=5に対応するjを最良ルートから選択する際に、実施例ではj=4,5,6,7の中からi=5との類似度が最良になる整数jを選択している。さらに、これらをサブフレームに分割した値(すなわち小数)から選択するようにしてもよい。この値は、例えば、i=5とのそれぞれの類似度を近似するjの関数C(j)を求め(類似度に関数をあてはめ)、当該関数が最大値を示す位置(最も類似する位置)を求めることで取得できる。このとき、その時刻に対応する第2の分割領域のフレーム画像をステップS350で取得するようにできる。これらによると、部分領域の動画像よりも高い時間分解能で分割領域の再構成のタイミングを取得できる。 In the example of FIG. 5A, when j corresponding to i=5 is selected from the best routes, the similarity with i=5 is the best among j=4, 5, 6, and 7 in the embodiment. We have chosen an integer j. Furthermore, these may be selected from subframe-divided values (that is, decimals). This value is obtained, for example, by obtaining a function C(j) of j that approximates each similarity with i = 5 (applying a function to the similarity), and determining the position where the function exhibits the maximum value (most similar position) can be obtained by asking for At this time, the frame image of the second divided area corresponding to that time can be obtained in step S350. According to these, it is possible to obtain the reconstruction timing of the divided areas with higher temporal resolution than the moving image of the partial areas.

(変形例1-3)
ステップS320における部分領域の動画像の再構成処理と、ステップS350における分割領域の動画像の再構成処理は、異なる再構成条件でもよい。例えば、ステップS320では計算量を削減するために低解像度で再構成し、ステップS350では高解像度で再構成してもよい。これにより、第1のタイミングに基づいて、第1の投影データから、第1の部分領域の動画像を再構成する再構成条件と少なくとも一部が異なる第1の再構成条件で、第1の分割領域の画像が再構成される。また、第2のタイミングに基づいて、第2の投影データから、第2の部分領域の動画像を再構成する再構成条件と少なくとも一部が異なる第2の再構成条件で、第2の分割領域の画像が再構成される。
(Modification 1-3)
Different reconstruction conditions may be used for the reconstruction processing of the moving image of the partial area in step S320 and the reconstruction processing of the moving image of the divided area in step S350. For example, in step S320, reconstruction may be performed at a low resolution in order to reduce the amount of calculation, and at step S350, reconstruction may be performed at a high resolution. Thus, based on the first timing, the first projection data is reconstructed from the first projection data under the first reconstruction conditions that are at least partially different from the reconstruction conditions for reconstructing the moving image of the first partial region. An image of the segmented area is reconstructed. Further, based on the second timing, the second segmentation is performed under the second reconstruction condition that is at least partially different from the reconstruction condition for reconstructing the moving image of the second partial area from the second projection data. An image of the region is reconstructed.

また、ステップS320では高周波のノイズ成分を抑制する再構成関数(例えば、縦郭条件)で再構成し、ステップS350ではユーザが観察したい他の再構成関数で再構成してもよい。これによると、ステップS330で並進移動等によりフレーム画像間の位置の補正をする際に、ノイズ等による影響を抑制した頑健な処理を行うことができる。 Alternatively, in step S320, reconstruction may be performed using a reconstruction function that suppresses high-frequency noise components (for example, vertical contour condition), and in step S350, reconstruction may be performed using another reconstruction function that the user wants to observe. According to this, when correcting the position between frame images by translational movement or the like in step S330, it is possible to perform robust processing that suppresses the influence of noise or the like.

または、ステップS320では、肺内部の細かい構造を用いて位置を補正するために高周波成分を強調する再構成関数(例えば、肺野条件)で再構成し、ステップS350では異なる再構成関数(例えば、縦郭条件)で再構成してもよい。あるいは、ステップS350では複数の再構成条件で第1の分割領域の動画像と第2の分割領域の動画像を再構成して取得し、ステップS360では各再構成条件で取得した動画像をそれぞれ結合し、複数の結合動画像を生成してもよい。そして、ステップS370では、操作部204を介してユーザの選択を受け付け、ユーザが選択した再構成条件の結合動画像を表示部202に表示してもよい。 Alternatively, in step S320, reconstruction is performed with a reconstruction function that emphasizes high-frequency components (e.g., lung field condition) to correct the position using fine structures inside the lung, and in step S350, a different reconstruction function (e.g., longitudinal condition). Alternatively, in step S350, a moving image of the first divided region and a moving image of the second divided region are reconstructed and obtained under a plurality of reconstruction conditions, and in step S360, the moving images obtained under each reconstruction condition are obtained. may be combined to generate a plurality of combined moving images. Then, in step S370, the user's selection may be accepted via the operation unit 204, and the combined moving image of the reconstruction conditions selected by the user may be displayed on the display unit 202. FIG.

(変形例1-4)
ステップS340で取得した第1のタイミングに基づいて、ステップS350で第1の分割領域の動画像を再構成する一連の処理について説明したが、必ずしもこれに限らない。例えば、ステップS340で取得した第1のタイミングと第1の投影データを対応付けて記憶部203に保存しておき、操作部204を介してユーザからステップS350に処理を進める指示を受けた場合にステップS350に処理を進める構成でもよい。第2のタイミングと第2の投影データに対しても同様の処理を行うことができる。
(Modification 1-4)
Although a series of processes for reconstructing the moving image of the first divided area in step S350 based on the first timing acquired in step S340 has been described, the present invention is not necessarily limited to this. For example, when the first timing acquired in step S340 and the first projection data are associated with each other and stored in the storage unit 203, and an instruction to proceed to step S350 is received from the user via the operation unit 204, The configuration may be such that the process proceeds to step S350. Similar processing can be performed for the second timing and the second projection data.

また、ユーザが操作部204を介して、ステップS350で第1の分割領域の動画像と第2の分割領域の動画像について、上記の少なくとも1つの再構成条件を指定してもよい。そして、ステップS350では、第2の再構成処理部215が、ユーザが指定した再構成条件に基づいて、第1の分割領域の動画像と第2の分割領域の動画像を再構成する。こ
の場合、情報処理装置の最小構成としては、ステップS340までの処理と、その結果として得られる第1のタイミングと第2のタイミングを第1の投影データおよび第2の投影データと対応付けて保存する処理までを行えばよい。そして、これらのデータを取得し、それぞれのタイミングで投影データに再構成を施し結合する処理は、他の装置で行ってもよい。
Alternatively, the user may specify at least one reconstruction condition for the moving image of the first divided area and the moving image of the second divided area in step S350 via the operation unit 204 . Then, in step S350, the second reconstruction processing unit 215 reconstructs the moving image of the first divided area and the moving image of the second divided area based on the reconstruction conditions specified by the user. In this case, as a minimum configuration of the information processing apparatus, the processing up to step S340 and the first timing and second timing obtained as a result thereof are stored in association with the first projection data and the second projection data. It is only necessary to perform the processing up to the Then, the process of acquiring these data, reconstructing the projection data at respective timings, and combining them may be performed by another device.

(変形例1-5)
ステップS350において、再構成条件がステップS320における再構成条件と同じである場合は、ステップS320で既に再構成した部分領域以外の領域を再構成し、再構成後の画像を結合することで、分割領域の動画像を取得してもよい。例えば、図4の範囲430が第1の部分領域である場合、ステップS350において、範囲410から範囲430を除いた領域のみ再構成した各フレーム画像を取得する。そして、第1の部分領域の各フレーム画像と結合することで、第1の分割領域のフレーム画像を取得してもよい。これにより、ステップS350で再構成する範囲を限定することができるため、再構成に係る計算量を削減できる。
(Modification 1-5)
In step S350, if the reconstruction conditions are the same as the reconstruction conditions in step S320, the regions other than the partial regions already reconstructed in step S320 are reconstructed, and the reconstructed images are combined to obtain the divided image. A moving image of the area may be acquired. For example, if the range 430 in FIG. 4 is the first partial area, in step S350, each frame image reconstructed only from the range 410 excluding the range 430 is acquired. Then, by combining with each frame image of the first partial area, a frame image of the first divided area may be obtained. This makes it possible to limit the range to be reconfigured in step S350, thereby reducing the amount of computation involved in reconfiguration.

<第2実施形態>
第1実施形態では、第1の部分領域の動画像と第2の部分領域の動画像を取得(再構成)し、観察部位の位相の対応付けを行う。一方、本実施形態では部分領域の動画像を取得(再構成)せずに、第1の部分領域と第2の部分領域の投影データの間で周期的な動態を示す観察部位の、周期内での位相の対応付けを行い、結合動画像を生成する。
<Second embodiment>
In the first embodiment, the moving image of the first partial area and the moving image of the second partial area are acquired (reconfigured), and the phases of the observed regions are associated with each other. On the other hand, in the present embodiment, without acquiring (reconstructing) the moving images of the partial regions, the observation part showing periodic dynamics between the projection data of the first partial region and the second partial region , and generates a combined moving image.

なお、以下では第1実施形態と同様に観察部位は肺であって、第1の投影データと第2の投影データはX線CT装置で撮像したデータとして説明を行う。しかしながら、観察部位や、撮像装置はこれに限定されない。 As in the first embodiment, the following description assumes that the observation site is the lung, and the first projection data and the second projection data are data captured by an X-ray CT apparatus. However, the observation site and imaging device are not limited to these.

以下、図6と図8を用いて本実施形態の構成および処理を説明する。図6は、本実施形態に係る画像処理装置の構成を示す。本実施形態に係る画像処理装置には、第1実施形態と異なり、第1の再構成処理部212が存在しない。また、本実施形態では、類似度取得部213が行う処理が第1実施形態と異なるため、以下でその機能を説明する。その他の構成については、第1実施形態と同様の機能であるため、それぞれの構成要素には同一の符号を付し詳細な説明は省略する。 The configuration and processing of this embodiment will be described below with reference to FIGS. 6 and 8. FIG. FIG. 6 shows the configuration of an image processing apparatus according to this embodiment. Unlike the first embodiment, the image processing apparatus according to this embodiment does not have the first reconstruction processing unit 212 . Also, in the present embodiment, the processing performed by the similarity acquisition unit 213 is different from that in the first embodiment, so the function will be described below. Other configurations have the same functions as those of the first embodiment, so the same reference numerals are given to the respective constituent elements, and detailed description thereof will be omitted.

第1実施形態では、類似度取得部213は、第1の再構成処理部212で再構成した第1の部分領域の動画像と第2の部分領域の動画像を用いて観察部位の類似度を取得する。一方、本実施形態における類似度取得部213は、第1の投影データと第2の投影データを比較することにより観察部位の類似度を取得する。本実施形態において、観察部位の類似度は、第1の部分領域の時系列の投影データにおいて、周期的な動態を示す観察部位の、周期内での位相が近い第2の部分領域の投影データを特定する情報である。 In the first embodiment, the similarity acquisition unit 213 uses the moving image of the first partial region and the moving image of the second partial region reconstructed by the first reconstruction processing unit 212 to calculate the similarity of the observation part. to get On the other hand, the similarity acquisition unit 213 according to the present embodiment acquires the similarity of observation parts by comparing the first projection data and the second projection data. In the present embodiment, the similarity of the observed region is the projection data of the second partial region that is close in phase within the cycle of the observed region that exhibits periodic dynamics in the time-series projection data of the first partial region. It is information that identifies the

図7は、本実施形態に係る情報処理装置(コンソール装置20)が行う全体の処理手順のフローチャートを示している。ステップS700とS710、S740からS770は、第1実施形態のステップS300とS310、S340からS370と同様の処理を行うため、説明を省略する。以下、図3のフローチャートとの相違部分についてのみ説明する。 FIG. 7 shows a flowchart of the overall processing procedure performed by the information processing device (console device 20) according to the present embodiment. Steps S700 and S710, and S740 to S770 are the same as steps S300 and S310, and S340 to S370 of the first embodiment, so description thereof will be omitted. Only differences from the flow chart of FIG. 3 will be described below.

(S730)(観察部位の類似度の取得)
ステップS730において、類似度取得部213は、ステップS700で取得した第1の投影データと第2の投影データの間の観察部位の類似度を取得する。そして、取得した観察部位の類似度を、再構成タイミング取得部214および結合動画像取得部216へと
出力する。
(S730) (Acquisition of similarity of observation site)
In step S730, the similarity acquisition unit 213 acquires the similarity of the observed region between the first projection data and the second projection data acquired in step S700. Then, the obtained similarity of the observed parts is output to the reconstruction timing obtaining unit 214 and the combined moving image obtaining unit 216 .

第1実施形態では、第1の部分領域の動画像と第2の部分領域の動画像を比較することにより観察部位の類似度を取得していた。本実施形態においては、第1の投影データのうち第1の部分領域に対応する投影データと、第2の投影データのうち第2の部分領域に対応する投影データを比較することにより、観察部位の類似度を取得する。すなわち、第1実施形態のステップS330と同様に、ステップS730において、第1の部分領域の投影データと第2の部分領域の投影データの相対位置を移動させて比較することにより類似度を算出することができる。 In the first embodiment, the degree of similarity of observation parts is acquired by comparing the moving image of the first partial area and the moving image of the second partial area. In the present embodiment, by comparing the projection data corresponding to the first partial region out of the first projection data and the projection data corresponding to the second partial region out of the second projection data, Get the similarity of That is, similar to step S330 of the first embodiment, in step S730, the relative positions of the projection data of the first partial area and the projection data of the second partial area are moved and compared to calculate the degree of similarity. be able to.

ここで、第1の部分領域に対応する投影データは、第1実施形態において第1の部分領域の各フレーム画像を再構成する際に使用したサイノグラム(第1の部分領域のサイノグラム)に相当する。同様に、第2の部分領域に対応する投影データは、第1実施形態において第2の部分領域の各フレーム画像を再構成する際に使用したサイノグラム(第2の部分領域のサイノグラム)に相当する。すなわち、第1の部分領域のサイノグラムは、第1の検出データのうち、第1の部分領域を含む位置から収集された検出データから作成されたサイノグラムである。 Here, the projection data corresponding to the first partial area corresponds to the sinogram (sinogram of the first partial area) used when reconstructing each frame image of the first partial area in the first embodiment. . Similarly, the projection data corresponding to the second partial area corresponds to the sinogram (sinogram of the second partial area) used when reconstructing each frame image of the second partial area in the first embodiment. . That is, the sinogram of the first partial area is a sinogram created from the detection data collected from the positions including the first partial area among the first detection data.

同様に、第2の部分領域のサイノグラムは、第2の検出データのうち、第2の部分領域を含む位置から収集された検出データから作成されたサイノグラムである。なお、第1の部分領域のサイノグラムと第2の部分領域のサイノグラムは、観察部位の動態をそれぞれ時系列に沿って収集した検出データから作成される時系列の画像データである。 Similarly, the sinogram of the second partial area is a sinogram created from the detection data collected from the positions including the second partial area among the second detection data. The sinogram of the first partial region and the sinogram of the second partial region are time-series image data created from detection data obtained by collecting the dynamics of the observation site along the time series.

したがって、図8に示すように、第1の部分領域のサイノグラムにおける任意の空間(横軸)、角度(縦軸)、体軸方向の位置、時刻を、それぞれr、θ、z、t1としたときの値をS1(r、θ、z、t1)と表せる。同様に、第2の部分領域のサイノグラムにおける任意の空間(横軸)、角度(縦軸)、体軸方向の位置、時刻を、それぞれr、θ、z、t2としたときの値をS2(r、θ、z、t2)と表せる。空間(横軸)、角度(縦軸)、体軸方向の位置は、スキャン制御部200によって制御された、第1の部分領域のサイノグラムと第2の部分領域のサイノグラムの間で共通の座標を表す。 Therefore, as shown in FIG. 8, arbitrary space (horizontal axis), angle (vertical axis), body axis position, and time in the sinogram of the first partial area are set to r, θ, z, and t1, respectively. can be expressed as S1(r, θ, z, t1). Similarly, when an arbitrary space (horizontal axis), angle (vertical axis), position in the body axis direction, and time in the sinogram of the second partial area are r, θ, z, and t2, the values are S2 ( r, θ, z, t2). Spatial (horizontal axis), angle (vertical axis), and position in the body axis direction are common coordinates between the sinogram of the first partial area and the sinogram of the second partial area controlled by the scan control unit 200. show.

本実施形態において、観察部位の類似度は、各時刻の第1の部分領域のサイノグラムと第2の部分領域のサイノグラムにおいて、各サイノグラム内の対応する座標(r、θ、z)における値を比較することで類似度を取得する。これは、各時刻の第1の部分領域のサイノグラムと第2の部分領域のサイノグラムを(r、θ、z)を座標軸とする3次元画像とみなして画像類似度を算出する処理と同等である。また、第1実施形態のステップS330における第1の部分領域の動画像のフレーム番号iはt1に相当し、第2の部分領域の動画像のフレーム番号jはt2に相当する。 In the present embodiment, the similarity of observation regions is obtained by comparing the values at the corresponding coordinates (r, θ, z) in each sinogram in the sinogram of the first partial region and the sinogram of the second partial region at each time. to obtain the similarity. This is equivalent to the process of calculating the image similarity by regarding the sinogram of the first partial region and the sinogram of the second partial region at each time as three-dimensional images with coordinate axes (r, θ, z). . Also, the frame number i of the moving image of the first partial area in step S330 of the first embodiment corresponds to t1, and the frame number j of the moving image of the second partial area corresponds to t2.

したがって、第1の部分領域のサイノグラムと第2の部分領域のサイノグラムを、それぞれ第1実施形態の第1の部分領域の動画像と第2の部分領域の動画像とみなし、ステップS330と同等の処理を行うことで観察部位の類似度を取得できる。しかしながら、サイノグラムの値はX線の減衰(曝射方向の積算値)を表す数値であるため、再構成処理を行うことなく曝射方向(架台装置10のXY軸)における観察部位の内部構造の位置情報は取得することは難しい。この結果、観察部位の内部構造を詳細に位置合わせすることは困難である。したがって、体軸方向(架台装置10のZ軸)の補正量のみ取得することが好ましい。あるいは、本実施形態では位置の補正量を取得しなくてもよい(補正量=0)。 Therefore, the sinogram of the first partial area and the sinogram of the second partial area are regarded as the moving image of the first partial area and the moving image of the second partial area of the first embodiment, respectively, and the same steps as in step S330 are performed. By performing the processing, it is possible to acquire the degree of similarity of the observed parts. However, since the value of the sinogram is a numerical value representing the X-ray attenuation (integrated value in the irradiation direction), the internal structure of the observation site in the irradiation direction (XY axis of the gantry device 10) can be obtained without performing reconstruction processing. Location information is difficult to obtain. As a result, it is difficult to precisely align the internal structure of the observation site. Therefore, it is preferable to acquire only the correction amount in the body axis direction (the Z axis of the gantry device 10). Alternatively, in the present embodiment, the position correction amount may not be obtained (correction amount=0).

以上によって、情報処理装置の処理が実施される。本実施形態では、観察部位を分割し
て撮像した複数の投影データのうち、撮像範囲が重複する領域の投影データ間における観察部位の類似度を取得し、撮像範囲の全体を再構成するタイミングを取得する。そして、撮像範囲の全体を再構成した複数の動画像を結合した結合動画像を生成できる。本実施形態では、第1実施形態と比較して、部分領域の動画像を取得しないため、再構成にかかる計算量とメモリ使用量をより削減することができる。
As described above, the processing of the information processing apparatus is performed. In the present embodiment, among a plurality of pieces of projection data captured by dividing an observation region, the degree of similarity of the observation region between the projection data of the regions where the imaging ranges overlap is acquired, and the timing for reconstructing the entire imaging range is determined. get. Then, a combined moving image can be generated by combining a plurality of moving images in which the entire imaging range is reconstructed. Compared to the first embodiment, this embodiment does not acquire a moving image of a partial area, so that the computational complexity and memory usage required for reconstruction can be further reduced.

以上、本開示の実施形態について説明したが、本開示の技術は上記の実施形態に限定されるものではなく、請求項に記載された技術範囲内において種々の変更および/または変形することが可能である。 Although the embodiments of the present disclosure have been described above, the technology of the present disclosure is not limited to the above embodiments, and various changes and/or modifications can be made within the technical scope described in the claims. is.

<その他の実施形態>
また、本開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
<Other embodiments>
In addition, the technology of the present disclosure can be embodied as, for example, a system, device, method, program, recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本開示の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、上記の実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本開示の技術を構成することになる。 Moreover, it goes without saying that the object of the present disclosure is achieved by the following. That is, a recording medium (or storage medium) recording software program code (computer program) for realizing the functions of the above embodiments is supplied to the system or apparatus. Such a storage medium is, of course, a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the technique of the present disclosure.

また、本開示の技術は、上記実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、システム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In addition, the technology of the present disclosure supplies a program that implements one or more functions of the above embodiments to a system or device via a network or a storage medium, and one or more processors of a computer of the system or device executes the program. It can also be realized by a process of reading and executing. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

1 X線CT装置、10 架台装置、210 投影データ取得部、212 第1の再構成処理部、213 類似度取得部、214 再構成タイミング取得部 Reference Signs List 1 X-ray CT apparatus 10 gantry 210 projection data acquisition unit 212 first reconstruction processing unit 213 similarity acquisition unit 214 reconstruction timing acquisition unit

Claims (17)

被検体を第1の分割領域と第2の分割領域に分割して撮像した投影データであって、前記被検体の動態を前記第1の分割領域が含まれる第1の撮像範囲で撮像した第1の投影データと、前記被検体の動態を前記第2の分割領域が含まれる第2の撮像範囲で撮像した第2の投影データとを取得する投影データ取得手段と、
前記第1の撮像範囲の一部である第1の部分領域の画像を前記第1の投影データから再構成した第1の部分領域の動画像と、前記第2の撮像範囲の一部である第2の部分領域の画像を前記第2の投影データから再構成した第2の部分領域の動画像を取得する第1の再構成手段と、
前記第1の部分領域の動画像と前記第2の部分領域の動画像の各フレーム間の前記被検体の動態に関する類似度を取得する類似度取得手段と、
前記類似度に基づいて、前記第1の投影データから前記第1の分割領域の画像を再構成する第1のタイミングと、前記第2の投影データから前記第2の分割領域の画像を再構成する第2のタイミングを取得する再構成タイミング取得手段と
を有することを特徴とする情報処理装置。
Projection data obtained by imaging a subject by dividing it into a first segmented area and a second segmented area, wherein the dynamics of the subject is imaged in a first imaging range including the first segmented area. projection data acquiring means for acquiring the first projection data and second projection data obtained by imaging the dynamics of the subject in a second imaging range including the second divided region;
a moving image of a first partial area obtained by reconstructing an image of a first partial area, which is part of the first imaging range, from the first projection data; and a part of the second imaging range. a first reconstructing means for acquiring a moving image of a second partial area obtained by reconstructing an image of the second partial area from the second projection data;
a similarity obtaining means for obtaining a similarity regarding the dynamics of the subject between each frame of the moving image of the first partial region and the moving image of the second partial region;
Based on the degree of similarity, a first timing for reconstructing an image of the first segmented region from the first projection data and reconstructing an image of the second segmented region from the second projection data. and reconstruction timing obtaining means for obtaining a second timing for obtaining the second timing.
前記第1の部分領域と前記第2の部分領域のそれぞれは、前記第1の撮像範囲と前記第2の撮像範囲の間の重複する領域の一部を含むことを特徴とする請求項1に記載の情報処理装置。 2. The method according to claim 1, wherein each of said first partial area and said second partial area includes a portion of an overlapping area between said first imaging range and said second imaging range. The information processing device described. 前記第1のタイミングに基づいて、前記第1の投影データから、前記第1の部分領域の動画像を再構成する再構成条件と少なくとも一部が異なる第1の再構成条件で再構成した前記第1の分割領域の画像、および、前記第2のタイミングに基づいて、前記第2の投影データから、前記第2の部分領域の動画像を再構成する再構成条件と少なくとも一部が異なる第2の再構成条件で再構成した前記第2の分割領域の画像、を取得する第2の再構成手段をさらに有することを特徴とする請求項1または請求項2に記載の情報処理装置。 Based on the first timing, the moving image is reconstructed from the first projection data under a first reconstruction condition that is at least partially different from a reconstruction condition for reconstructing the moving image of the first partial area. A second reconstruction condition at least partially different from a reconstruction condition for reconstructing a moving image of the second partial area from the second projection data based on the image of the first divided area and the second timing. 3. The information processing apparatus according to claim 1, further comprising second reconstructing means for acquiring the image of the second divided area reconstructed under the second reconstruction condition. 前記第1の分割領域は前記第1の部分領域と少なくとも一部の領域が異なり、前記第1の再構成条件は前記第1の分割領域を再構成範囲とする再構成条件であり、前記第2の分割領域は前記第2の部分領域と少なくとも一部の領域が異なり、前記第2の再構成条件は前記第2の分割領域を再構成範囲とする再構成条件であることを特徴とする請求項3に記載の情報処理装置。 The first segmented region differs from the first partial region in at least a part thereof, the first reconstruction condition is a reconstruction condition with the first segmented region as a reconstruction range, and At least a part of the two divided areas is different from the second partial area, and the second reconstruction condition is a reconstruction condition with the second divided area as a reconstruction range. The information processing apparatus according to claim 3. 前記第1の分割領域の複数の画像と前記第2の分割領域の複数の画像とを結合した複数の結合画像から構成される結合動画像を取得する結合動画像取得手段をさらに有することを特徴とする請求項3または4に記載の情報処理装置。 The method further comprises combined moving image acquiring means for acquiring a combined moving image composed of a plurality of combined images obtained by combining a plurality of images of the first divided area and a plurality of images of the second divided area. 5. The information processing apparatus according to claim 3 or 4, wherein 前記第1のタイミングと前記第2のタイミングに基づいて、前記第1の投影データと前記第2の投影データとを結合した結合投影データを取得し、前記結合投影データを再構成することで結合動画像を取得する結合動画像取得手段をさらに有することを特徴とする請求項1または請求項2に記載の情報処理装置。 Combined projection data obtained by combining the first projection data and the second projection data based on the first timing and the second timing, and combining by reconstructing the combined projection data 3. The information processing apparatus according to claim 1, further comprising combined moving image obtaining means for obtaining moving images. 前記再構成タイミング取得手段は、前記第1のタイミングに対し前記被検体の動態における位相の類似度が高いタイミングを前記第2のタイミングとして取得することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 7. The second timing, wherein the reconstruction timing obtaining means obtains, as the second timing, a timing at which phase similarity in dynamics of the subject is high with respect to the first timing. The information processing device according to item 1. 前記被検体の動態は、前記被検体の呼吸運動であることを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。 8. The information processing apparatus according to any one of claims 1 to 7, wherein the dynamics of the subject is respiratory motion of the subject. 前記類似度は、前記呼吸運動における呼吸周期内での位相の近さであることを特徴とする請求項8に記載の情報処理装置。 9. The information processing apparatus according to claim 8, wherein the degree of similarity is the closeness of phases within a respiratory cycle in the respiratory motion. 前記第1の再構成手段は、前記第1の撮像範囲に含まれる前記被検体の観察部位に応じて、再構成する前記第1の部分領域の動画像のフレームレートを決定することを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 The first reconstructing means determines a frame rate of the moving image of the first partial area to be reconstructed according to the observed part of the subject included in the first imaging range. The information processing apparatus according to any one of claims 1 to 9. 前記第1の再構成手段は、前記被検体の動態の変化に応じて、再構成する前記第1の部分領域の動画像のフレームレートを決定することを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 11. The first reconstruction means according to any one of claims 1 to 10, wherein the frame rate of the moving image of the first partial region to be reconstructed is determined in accordance with a change in dynamics of the subject. 1. The information processing apparatus according to 1. 前記第1の部分領域の動画像のフレームレートは、前記第1のタイミングで再構成される前記第1の分割領域の画像と、前記第2のタイミングで再構成される前記第2の分割領域の画像との結合動画像のフレームレートよりも高いことを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。 The frame rate of the moving image of the first partial area is the image of the first divided area reconstructed at the first timing and the image of the second divided area reconstructed at the second timing. 12. The information processing apparatus according to any one of claims 1 to 11, wherein the frame rate is higher than the frame rate of the combined moving image. 前記類似度取得手段は、前記第1の部分領域の動画像または前記第2の部分領域の動画像のフレーム画像の相対位置を移動させて前記類似度を算出し、
前記再構成タイミング取得手段は、前記第1の投影データを撮像した時間範囲における第1の時間位置と、前記第2の投影データを撮像した時間範囲における第2の時間位置との組み合わせのうち、前記類似度がより高い組み合わせに基づいて、前記第1の時間位置を前記第1のタイミングとし、前記第2の時間位置を前記第2のタイミングとすることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。
the similarity obtaining means calculates the similarity by moving a relative position of a frame image of the moving image of the first partial area or the moving image of the second partial area;
The reconstruction timing acquisition means selects a combination of a first time position in the time range in which the first projection data is captured and a second time position in the time range in which the second projection data is captured, 13. The method according to any one of claims 1 to 12, wherein the first time position is set as the first timing and the second time position is set as the second timing based on the combination with the higher degree of similarity. The information processing apparatus according to any one of items 1 and 2.
前記再構成タイミング取得手段は、前記第1の投影データと前記第2の投影データとの間の前記被検体の動態の対応関係に応じて、前記第1の時間位置と前記第2の時間位置との組み合わせの優先度を設定し、前記類似度がより高い組み合わせのうち前記優先度がより高い組み合わせに基づいて、前記第1の時間位置を前記第1のタイミングとし、前記第2の時間位置を前記第2のタイミングとすることを特徴とする請求項12に記載の情報処理装置。 The reconstruction timing obtaining means obtains the first time position and the second time position in accordance with the correspondence relationship of the dynamics of the subject between the first projection data and the second projection data. and setting the priority of the combination with, based on the combination with the higher priority among the combinations with the higher similarity, the first time position as the first timing, and the second time position 13. The information processing apparatus according to claim 12, wherein . 前記再構成タイミング取得手段は、前記相対位置の移動量に応じて、前記第1の時間位置と前記第2の時間位置との組み合わせの優先度を設定し、前記第1の時間位置と前記第2の時間位置との組み合わせの優先度を設定し、前記類似度がより高い組み合わせのうち前記優先度がより高い組み合わせに基づいて、前記第1の時間位置を前記第1のタイミングとし、前記第2の時間位置を前記第2のタイミングとすることを特徴とする請求項13に記載の情報処理装置。 The reconstruction timing obtaining means sets the priority of the combination of the first time position and the second time position according to the amount of movement of the relative position, and sets the priority of the combination of the first time position and the second time position. setting the priority of the combination with the second time position, setting the first time position as the first timing based on the combination with the higher priority among the combinations with the higher degree of similarity, and setting the first time position as the first timing; 14. The information processing apparatus according to claim 13, wherein the time position of 2 is set as the second timing. コンピュータに、
被検体を第1の分割領域と第2の分割領域に分割して撮像した投影データであって、前記被検体の動態を前記第1の分割領域が含まれる第1の撮像範囲で撮像した第1の投影データと、前記被検体の動態を前記第2の分割領域が含まれる第2の撮像範囲で撮像した第2の投影データとを取得する投影データ取得ステップと、
前記第1の撮像範囲の一部である第1の部分領域を前記第1の投影データから再構成した第1の部分領域の動画像と、前記第2の撮像範囲の一部である第2の部分領域を前記第2の投影データから再構成した第2の部分領域の動画像を取得する第1の再構成ステップと、
前記第1の部分領域の動画像と前記第2の部分領域の動画像の各フレーム間の前記被検体の動態に関する類似度を取得する類似度取得ステップと、
前記類似度に基づいて、前記第1の投影データから前記第1の分割領域の画像を再構成
する第1のタイミングと、前記第2の投影データから前記第2の分割領域の画像を再構成する第2のタイミングを取得する再構成タイミング取得ステップと
を実行させる情報処理方法。
to the computer,
Projection data obtained by imaging a subject by dividing it into a first segmented area and a second segmented area, wherein the dynamics of the subject is imaged in a first imaging range including the first segmented area. a projection data acquisition step of acquiring projection data 1 and second projection data obtained by imaging the dynamics of the subject in a second imaging range including the second divided region;
a moving image of a first partial area reconstructed from the first projection data of the first partial area that is part of the first imaging range; a first reconstruction step of obtaining a moving image of a second partial area reconstructed from the second projection data;
a similarity obtaining step of obtaining a similarity regarding the dynamics of the subject between each frame of the moving image of the first partial region and the moving image of the second partial region;
Based on the degree of similarity, a first timing for reconstructing an image of the first segmented region from the first projection data and reconstructing an image of the second segmented region from the second projection data. and a reconstruction timing acquisition step of acquiring a second timing for performing an information processing method.
コンピュータに請求項16に記載の情報処理方法を実行させるプログラム。 A program that causes a computer to execute the information processing method according to claim 16.
JP2021148065A 2021-09-10 2021-09-10 Information processing device, information processing method, and program Pending JP2023040874A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021148065A JP2023040874A (en) 2021-09-10 2021-09-10 Information processing device, information processing method, and program
US17/939,217 US20230079025A1 (en) 2021-09-10 2022-09-07 Information processing apparatus, information processing method, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021148065A JP2023040874A (en) 2021-09-10 2021-09-10 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2023040874A true JP2023040874A (en) 2023-03-23

Family

ID=85632172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148065A Pending JP2023040874A (en) 2021-09-10 2021-09-10 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2023040874A (en)

Similar Documents

Publication Publication Date Title
US10748293B2 (en) Tomography apparatus and method for reconstructing tomography image thereof
US7924972B2 (en) Reconstruction of an image of a moving object from volumetric data
US7382852B2 (en) Method and apparatus for correcting motion in image reconstruction
US9576391B2 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
CN107427274B (en) Tomographic apparatus and method for reconstructing tomographic image thereof
US7782998B2 (en) Method and apparatus for correcting motion in image reconstruction
US9013471B2 (en) 3D X-ray imaging of coronary vessels with ECG gating and motion correction
EP3264985B1 (en) Tomography imaging apparatus and method of reconstructing tomography image
EP3107457B1 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
WO2011002874A1 (en) Image reconstruction incorporating organ motion
JP2007000408A (en) X-ray ct apparatus
KR101665513B1 (en) Computer tomography apparatus and method for reconstructing a computer tomography image thereof
CN103027705A (en) Method and system of CT image data set for generating motion compensation
US9965875B2 (en) Virtual projection image method
US20110176715A1 (en) Four-dimensional volume imaging system
US20180286087A1 (en) Volume image reconstruction using projection decomposition
JP2018020120A (en) Medical image processor and medical image processing program
JP2007260398A (en) Method for reducing stepwise artifact in computer tomographic displaying of heart and memory medium
JP2023040874A (en) Information processing device, information processing method, and program
JP2023040913A (en) Information processing device, information processing method, and program
US10796475B2 (en) Bone segmentation and display for 3D extremity imaging
US20230079025A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
Lindström Söraas Respiratory Motion Correction in PET Imaging: Comparative Analysis of External Device and Data-driven Gating Approaches
CN116704068A (en) Image correction method, imaging method and system for dual-source CT equipment
Prümmer Cardiac C-arm computed tomography: motion estimation and dynamic reconstruction