JP2023040874A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2023040874A JP2023040874A JP2021148065A JP2021148065A JP2023040874A JP 2023040874 A JP2023040874 A JP 2023040874A JP 2021148065 A JP2021148065 A JP 2021148065A JP 2021148065 A JP2021148065 A JP 2021148065A JP 2023040874 A JP2023040874 A JP 2023040874A
- Authority
- JP
- Japan
- Prior art keywords
- projection data
- timing
- moving image
- image
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims abstract description 84
- 238000000034 method Methods 0.000 claims description 43
- 230000008859 change Effects 0.000 claims description 12
- 230000000241 respiratory effect Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 abstract description 10
- 238000012545 processing Methods 0.000 description 67
- 210000004072 lung Anatomy 0.000 description 45
- 238000001514 detection method Methods 0.000 description 39
- 230000006870 function Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 11
- 230000000737 periodic effect Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000029058 respiratory gaseous exchange Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000013480 data collection Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003434 inspiratory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 229910052704 radon Inorganic materials 0.000 description 1
- SYUHGPGVQRZVTB-UHFFFAOYSA-N radon atom Chemical compound [Rn] SYUHGPGVQRZVTB-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法およびプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.
医療の分野において、医師は、種々のモダリティで撮像した医用画像を用いて診断を行う。特に、肺や心臓のように疾患の状態が臓器の動きに表れる部位を対象とする場合、連続する時刻に(すなわち時系列で)撮像した複数の医用画像からなる動画像を用いて診断が行われることがある。3次元断層画像を動画像で(時系列で)撮像可能なモダリティに、エリアディテクター型のX線CT装置がある。このモダリティは、3次元のCT画像が動画像として撮像されるため、時間軸を追加した4DCT装置とも呼ばれる。また、4DCT装置で撮像した画像は4DCT画像とも呼ばれる。 In the medical field, doctors make diagnoses using medical images captured by various modalities. In particular, when targeting a region such as the lungs or heart where the disease state is manifested by the movement of the organ, diagnosis is performed using a moving image consisting of multiple medical images captured at consecutive times (that is, in time series). sometimes An area detector type X-ray CT apparatus is available as a modality capable of capturing three-dimensional tomographic images as moving images (in time series). This modality is also called a 4DCT apparatus with an added time axis, since three-dimensional CT images are captured as moving images. An image captured by a 4DCT device is also called a 4DCT image.
4DCT装置には、1回の撮像で撮像可能な範囲に制限があるため、その撮像範囲よりも大きい臓器を観察するためには、撮像範囲を変えて複数回の撮像を行い結果を結合する場合がある。例えば、肺の上部と下部の4DCT画像を別々に撮像し、呼吸の位相が対応づく3次元画像同士を位置合わせして結合することで、肺全体の4DCT画像を生成することが試みられている。 Since the 4DCT apparatus has a limit to the range that can be imaged in one imaging, in order to observe an organ that is larger than the imaging range, it is necessary to change the imaging range and perform imaging multiple times and combine the results. There is For example, an attempt has been made to generate a 4DCT image of the entire lung by capturing 4DCT images of the upper and lower lungs separately, and aligning and combining the 3D images corresponding to the phases of respiration. .
また、特許文献1では、肺野を撮像した複数の動画像それぞれにおける肺野の動態を解析し、呼吸の位相が対応するフレームを選択する技術を開示している。一般的に、フレームレートが高いほど複数の動画像の間で精密に呼吸の位相を合わせることが可能となり、特許文献1では、一方の動画像のフレーム数が他方よりも少ない場合、フレーム間の画像を補間して生成することで補う技術を開示している。 Further, Japanese Patent Application Laid-Open No. 2004-100002 discloses a technique of analyzing dynamics of lung fields in each of a plurality of moving images obtained by imaging lung fields and selecting frames corresponding to phases of respiration. In general, the higher the frame rate, the more precisely the phase of respiration can be matched between a plurality of moving images. It discloses a technique for compensating by generating an image by interpolating it.
しかしながら、撮像範囲の全体を高いフレームレートで再構成した複数の動画像の間で観察部位の動態の位相を対応付ける場合に、計算量が膨大になるという課題があった。 However, there is a problem that the amount of calculation becomes enormous when matching the phases of dynamics of observed regions between a plurality of moving images obtained by reconstructing the entire imaging range at a high frame rate.
そこで、本開示は、上記課題に鑑みて、再構成に要する計算量を抑えながら複数の動画像の間で観察部位の動態の位相を高精度に合わせる技術を提供することを目的とする。 Therefore, in view of the above problems, an object of the present disclosure is to provide a technique for matching the dynamic phases of observation regions between a plurality of moving images with high accuracy while reducing the amount of calculation required for reconstruction.
上記目的を達成するために、本開示に係る情報処理装置は、
被検体を第1の分割領域と第2の分割領域に分割して撮像した投影データであって、前記被検体の動態を前記第1の分割領域が含まれる第1の撮像範囲で撮像した第1の投影データと、前記被検体の動態を前記第2の分割領域が含まれる第2の撮像範囲で撮像した第2の投影データとを取得する投影データ取得手段と、
前記第1の撮像範囲の一部である第1の部分領域の画像を前記第1の投影データから再構成した第1の部分領域の動画像と、前記第2の撮像範囲の一部である第2の部分領域の画像を前記第2の投影データから再構成した第2の部分領域の動画像を取得する第1の再構成手段と、
前記第1の部分領域の動画像と前記第2の部分領域の動画像の各フレーム間の前記被検
体の動態に関する類似度を取得する類似度取得手段と、
前記類似度に基づいて、前記第1の投影データから前記第1の分割領域の画像を再構成する第1のタイミングと、前記第2の投影データから前記第2の分割領域の画像を再構成する第2のタイミングを取得する再構成タイミング取得手段と
を有することを特徴とする情報処理装置を含む。
In order to achieve the above object, the information processing device according to the present disclosure includes:
Projection data obtained by imaging a subject by dividing it into a first segmented area and a second segmented area, wherein the dynamics of the subject is imaged in a first imaging range including the first segmented area. projection data acquiring means for acquiring the first projection data and second projection data obtained by imaging the dynamics of the subject in a second imaging range including the second divided region;
a moving image of a first partial area obtained by reconstructing an image of a first partial area, which is part of the first imaging range, from the first projection data; and a part of the second imaging range. a first reconstructing means for acquiring a moving image of a second partial area obtained by reconstructing an image of the second partial area from the second projection data;
a similarity obtaining means for obtaining a similarity regarding the dynamics of the subject between each frame of the moving image of the first partial region and the moving image of the second partial region;
Based on the degree of similarity, a first timing for reconstructing an image of the first segmented region from the first projection data and reconstructing an image of the second segmented region from the second projection data. and reconstruction timing obtaining means for obtaining a second timing for obtaining the second timing.
さらに、本開示は、上記手段の処理の少なくとも一部を含む、情報処理方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。 Furthermore, the present disclosure includes an information processing method including at least part of the processing of the above means, a program for causing a computer to execute these methods, or a computer-readable non-temporarily recorded such program. It can also be regarded as a recording medium. Each of the above configurations and processes can be combined to form the present invention as long as there is no technical contradiction.
本開示によれば、再構成に要する計算量を抑えながら複数の動画像の間で観察部位の動態の位相を高精度に合わせることができる。 Advantageous Effects of Invention According to the present disclosure, it is possible to highly accurately match the phases of dynamics of observed regions between a plurality of moving images while reducing the amount of calculation required for reconstruction.
以下、本開示の実施形態について図面を用いて説明する。なお、本開示は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。また、以下で説明する図面において、同じ機能を有するものは同一の符号を付し、その説明を省略又は簡潔にすることもある。 Embodiments of the present disclosure will be described below with reference to the drawings. Note that the present disclosure is not limited to the following embodiments, and can be modified as appropriate without departing from the scope of the present disclosure. In addition, in the drawings described below, the same reference numerals are assigned to elements having the same function, and the description thereof may be omitted or simplified.
<第1実施形態>
本実施形態に係る情報処理装置は、周期的な動態を示す観察部位を分割して複数回撮像した3次元動画像を、複数の動画像間で観察部位の動態の位相を整合させて各フレーム画像を結合した結合動画像を生成する装置である。
<First embodiment>
The information processing apparatus according to the present embodiment obtains three-dimensional moving images obtained by dividing an observation region showing periodic dynamics and imaging a plurality of times. This is a device for generating a combined moving image by combining images.
本実施形態の情報処理装置は、観察部位の領域の少なくとも一部が重複するように領域を2つの領域に分割し(第1の分割領域と第2の分割領域)、それぞれの分割領域が撮像されるように第1の撮像範囲と第2の撮像範囲を設定する。そして、観察部位の動態を、X線CT装置で、第1の撮像範囲と第2の撮像範囲のそれぞれを用いて時系列に撮像し、第1の投影データと第2の投影データを取得する。 The information processing apparatus according to the present embodiment divides the observation region into two regions (a first division region and a second division region) so that at least a part of the region of the observation site overlaps, and each division region is imaged. The first imaging range and the second imaging range are set so that Then, the dynamics of the observation site is imaged in time series using the first imaging range and the second imaging range with an X-ray CT apparatus, and the first projection data and the second projection data are obtained. .
次に、本実施形態の情報処理装置は、第1の投影データと第2の投影データの間で、撮像範囲が重複する領域(部分領域)を対象として所定のフレームレートでそれぞれの投影データから複数の(時系列の)画像を再構成し、動画像(3次元動画像)を取得する。すなわち、第1の投影データのうち、第2の投影データと撮像範囲が重複する第1の部分領域を対象に再構成した第1の部分領域の動画像を取得する。同様に、第2の投影データから第1の投影データと撮像範囲が重複する第2の部分領域を対象に再構成した第2の部分領域の動画像を取得する。 Next, the information processing apparatus according to the present embodiment targets an area (partial area) where the imaging range overlaps between the first projection data and the second projection data, from each projection data at a predetermined frame rate. A plurality of (time-series) images are reconstructed to obtain a moving image (three-dimensional moving image). That is, of the first projection data, a moving image of the first partial area reconstructed for the first partial area whose imaging range overlaps that of the second projection data is obtained. Similarly, a moving image of a second partial area reconstructed from the second projection data for a second partial area whose imaging range overlaps that of the first projection data is obtained.
このとき、第1の部分領域の動画像および第2の部分領域の動画像それぞれのフレームレート(時間分解能)は、後段の処理で生成する結合動画像のフレームレート(時間分解能)よりも高いことが望ましい。後段の処理では、第1の部分領域の動画像と第2の部分領域の動画像の間で観察部位の動態の位相が整合するタイミングを取得し、取得したタイミングで結合動画像の生成に利用するフレーム画像を再構成する。第1の部分領域の動画像および第2の部分領域の動画像のフレームレートが結合動画像より低い場合、結合動画像のフレームレートより観察部位の動態の位相が疎である。このため、結合画像の各フレーム画像に適した再構成のタイミング(動態の位相)を取得することが難しい。一方で、結合動画像のフレームレートより高い場合、結合動画像のフレームレートより観察部位の動態の位相が密であるため、結合画像の各フレーム画像により適した再構成のタイミング(動態の位相)を取得できる。 At this time, the frame rate (temporal resolution) of the moving image of the first partial area and the moving image of the second partial area must be higher than the frame rate (temporal resolution) of the combined moving image generated in the subsequent processing. is desirable. In the subsequent processing, the timing at which the dynamic phase of the observed region is matched between the moving image of the first partial region and the moving image of the second partial region is acquired, and the acquired timing is used to generate the combined moving image. Reconstruct the frame image to be used. When the frame rate of the moving image of the first partial area and the moving image of the second partial area is lower than that of the combined moving image, the dynamic phase of the observed region is sparse than the frame rate of the combined moving image. Therefore, it is difficult to acquire reconstruction timing (dynamic phase) suitable for each frame image of the combined image. On the other hand, when the frame rate is higher than the frame rate of the combined moving image, the phase of the dynamics of the observation site is denser than the frame rate of the combined moving image, so the reconstruction timing (phase of the dynamics) is more suitable for each frame image of the combined image. can be obtained.
次に、本実施形態の情報処理装置は、第1の部分領域の動画像と第2の部分領域の動画像の各フレームの間で、観察部位の類似度を取得する。そして、観察部位の類似度に基づいて、第1の投影データから第1の撮像範囲の全体(すなわち第1の分割領域)を再構成する第1のタイミング(再構成処理を行う対象とする複数の時間位置)を取得する。また、第2の投影データから第2の撮像範囲の全体(すなわち第2の分割領域)を再構成する第2のタイミング(再構成処理を行う対象とする複数の時間位置)を取得する。 Next, the information processing apparatus according to the present embodiment acquires the similarity of the observation part between each frame of the moving image of the first partial area and the moving image of the second partial area. Then, based on the degree of similarity of the observed parts, a first timing (a plurality of regions to be subjected to reconstruction processing) is set for reconstructing the entire first imaging range (that is, the first divided regions) from the first projection data. time position). Also, a second timing (a plurality of time positions to be subjected to reconstruction processing) for reconstructing the entire second imaging range (that is, the second divided area) is acquired from the second projection data.
さらに、本実施形態の情報処理装置は、第1の投影データから第1のタイミングで画像を再構成した第1の分割領域の動画像と、第2の投影データから第2のタイミングで画像を再構成した第2の分割領域の動画像を取得する。そして、第1の分割領域の動画像と第2の分割領域の動画像を観察部位が一致するように結合した結合動画像を生成する。すなわち、本実施形態では、撮像範囲が重複する部分領域を再構成した動画像の比較に基づいて、結合動画像の生成に必要なタイミングをそれぞれの投影データについて決定し、当該タイミングの投影データについてそれぞれの分割領域の動画像を再構成する。これにより、撮像範囲の全体の再構成が必要なタイミングを限定することが可能となり、再構成にかかる計算量を抑制できる。また、部分領域の動画像のみを高いフレームレートで再構成することで、再構成に要する計算量を抑えながら、第1の投影データと第2の投影データの間を高い時間分解能で対応付けることができる。 Further, the information processing apparatus according to the present embodiment reconstructs a moving image of the first divided region obtained by reconstructing the image from the first projection data at the first timing, and reconstructs the image from the second projection data at the second timing. A moving image of the reconstructed second divided area is obtained. Then, a combined moving image is generated by combining the moving image of the first divided area and the moving image of the second divided area so that the observed parts match. That is, in the present embodiment, the timing necessary for generating a combined moving image is determined for each piece of projection data based on a comparison of moving images reconstructed from partial regions having overlapping imaging ranges, and the projection data at that timing is determined. A moving image of each divided area is reconstructed. This makes it possible to limit the timing at which reconstruction of the entire imaging range is required, and reduce the amount of calculation required for reconstruction. Further, by reconstructing only the moving image of the partial region at a high frame rate, it is possible to associate the first projection data and the second projection data with high temporal resolution while suppressing the amount of calculation required for reconstruction. can.
以下、図1から図5を用いて、本実施形態の構成および処理を説明する。なお、本実施形態では、肺の呼吸運動を撮像した3次元動画像を例として説明を行う。ただし、本実施形態はこれに限らず、心臓のように自発的な動きを行う任意の部位を撮像した動画像や、被検体が周期的な運動(例えば、屈伸運動)を行った任意の部位を撮像した動画像などにも適用できる。 The configuration and processing of this embodiment will be described below with reference to FIGS. 1 to 5. FIG. Note that, in the present embodiment, a three-dimensional moving image obtained by picking up respiratory motion of the lungs will be described as an example. However, the present embodiment is not limited to this, and a moving image obtained by imaging an arbitrary site that spontaneously moves such as the heart, or an arbitrary site where the subject performs periodic motion (for example, bending and stretching). can also be applied to a moving image captured by
図1は、本実施形態に係るX線CT装置の全体構成を表す。図1に示すように、X線CT装置1は、架台装置10と、寝台装置11と、コンソール装置20とを含んで構成されている。
FIG. 1 shows the overall configuration of an X-ray CT apparatus according to this embodiment. As shown in FIG. 1 , the X-ray CT apparatus 1 includes a
架台装置10は、被検体Eに対してX線を曝射し、被検体Eを透過した当該X線のスキャンデータ(検出データ)を収集する装置である。架台装置10は、X線発生部100と、X線検出部101と、回転体102と、高電圧発生部104と、架台駆動部105と、X線絞り部106と、絞り駆動部107と、データ収集部108とを有する。
The
X線発生部100は、X線を発生させるX線管球(例えば、円錐状や角錐状のX線ビームを発生する真空管。図示なし)を含んで構成されている。X線発生部100は、発生したX線を被検体Eに対して曝射する。
The
X線検出部101は、複数のX線検出素子(図示なし)を含んで構成されている。X線検出部101は、被検体Eを透過したX線を検出する。具体的には、X線検出部101は、被検体Eを透過したX線の強度分布を示すX線強度分布データをX線検出素子で検出し、その検出データを電気信号として生成し、生成された電気信号を増幅した後、デジタル信号に変換して出力する。X線検出部101には、例えば、検出素子が互いに直交する2方向(スライス方向とチャンネル方向)にそれぞれ複数配置された2次元のX線検出器(面検出器)が用いられる。複数のX線検出素子は、例えば、スライス方向に沿って320列設けられている。このように複数のX線検出素子が多列に設けられたX線検出器を用いることにより、1回転のスキャンでスライス方向に幅を有する3次元の撮像領域を撮像することができる(ボリュームスキャン)。なお、スライス方向は被検体Eの体軸方向に相当し、チャンネル方向はX線発生部100の回転方向に相当する。
The
回転体102は、X線発生部100とX線検出部101とを被検体Eを挟んで対向するよう支持する部材である。回転体102は、スライス方向に貫通した開口部103を有する。架台装置10内において、回転体102は、被検体Eを中心とした円軌道で回転するよう配置されている。すなわち、X線発生部100及びX線検出部101は、被検体Eを中心とする円軌道に沿って回転可能に設けられている。
The
高電圧発生部104は、X線発生部100に対して高電圧を印加する(以下、「電圧」とは、X線管球におけるアノード-カソード間の電圧を意味する)。X線発生部100は、当該高電圧に基づいてX線を発生させる。
The
架台駆動部105は、回転体102を回転駆動させる。X線絞り部106は、所定幅のスリット(開口)を有し、スリットの幅を変えることで、X線発生部100から曝射されたX線のファン角(チャンネル方向の広がり角)とX線のコーン角(スライス方向の広がり角)とを調整する。絞り駆動部107は、X線発生部100で発生したX線が所定の形状となるようX線絞り部106を駆動させる。
The
データ収集部108(DAS:Data Acquisition System)は、X線検出部101(各X線検出素子)からの検出データを収集する。そして、データ収集部108は、デジタル信号である検出データをコンソール装置20に送信する。
A data acquisition unit 108 (DAS: Data Acquisition System) acquires detection data from the X-ray detection unit 101 (each X-ray detection element). The
寝台装置11は、撮像対象の被検体Eを載置・移動させる装置である。寝台装置11は、被検体Eの体軸方向及び体軸方向に直交する方向に移動することが可能となっている。すなわち、被検体Eが載置された寝台を、回転体102の開口部103に対して挿抜させることができる。
The
本実施形態では、被検体Eの観察部位の領域(撮像範囲)の少なくとも一部が重複するように寝台装置11を回転体102の開口部103に対して挿抜させ、それぞれの撮像位置においてX線を曝射する。これにより、観察部位の領域の少なくとも一部が重複する第1の検出データおよび第2の検出データを収集する。第1の検出データおよび第2の検出データは、被検体Eの観察部位が運動を行っている間に所定期間継続してスキャン(ダイナミックスキャン)することで収集した時系列に沿ったデータである。
In the present embodiment, the
コンソール装置20は、X線CT装置に対する操作入力に用いられる。また、コンソール装置20は、架台装置10によって収集された検出データから被検体Eの内部形態を表すCT画像データ(断層画像データやボリュームデータ)を再構成する機能等を有している。コンソール装置20は、処理部21と、スキャン制御部200と、表示制御部201と、表示部202と、記憶部203と、操作部204と、制御部205とを含んで構成さ
れている。
The
図2は、図1の制御部等と共に、本実施形態に係る情報処理装置(処理部21)の構成を示す。図2において、図1と同様の部分には同一符号を付し、適宜説明を省略する。 FIG. 2 shows the configuration of an information processing apparatus (processing unit 21) according to this embodiment together with the control unit and the like in FIG. In FIG. 2, the same parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
処理部21は、架台装置10(データ収集部108)から送信された検出データ(第1の検出データおよび第2の検出データ)に対して各種処理を実行する。処理部21は、投影データ取得部210と、部分領域取得部211と、第1の再構成処理部212と、類似度取得部213と、再構成タイミング取得部214と、第2の再構成処理部215と、結合動画像取得部216とを含んで構成されている。
The
投影データ取得部210は、架台装置10(X線検出部101)で検出された第1の検出データおよび第2の検出データそれぞれに対して対数変換処理、オフセット補正、感度補正、ビームハードニング補正等の処理を行う。これにより、投影データ取得部210は、第1の投影データと第2の投影データを作成する。すなわち、投影データは、被検体Eを架台装置10によって撮像することにより得られる。
The projection
部分領域取得部211は、スキャン制御部200によって制御される撮像位置に基づいて、第1の再構成処理部212で第1の投影データに対して再構成処理を行う第1の部分領域と、第2の投影データに対して再構成処理を行う第2の部分領域とを取得する。
The partial
第1の再構成処理部212は、部分領域取得部211で取得した第1の部分領域において、投影データ取得部210で作成された第1の投影データに対して再構成処理を行い、第1の部分領域の動画像(4DCT画像)を作成する。また、第1の再構成処理部212は、部分領域取得部211で取得した第2の部分領域において、投影データ取得部210で作成された第2の投影データに対して再構成処理を行い、第2の部分領域の動画像を作成する。
A first
再構成条件は、変更することが可能となっている。断層画像の再構成には、たとえば、2次元フーリエ変換法、コンボリューション・バックプロジェクション法等、任意の方法を採用することができる。ボリュームデータは、再構成された複数の断層画像データを補間処理することにより作成される。ボリュームデータ(3DCT画像)の再構成には、たとえば、コーンビーム再構成法、マルチスライス再構成法、拡大再構成法等、任意の方法を採用することができる。上述のように複数のX線検出素子が多列に設けられたX線検出器を用いたボリュームスキャンにより、広範囲のボリュームデータを再構成することができる。 The reconstruction conditions can be changed. Any method such as a two-dimensional Fourier transform method, a convolution back-projection method, or the like can be used for reconstructing the tomographic image. Volume data is created by interpolating a plurality of reconstructed tomographic image data. For reconstruction of volume data (3DCT image), any method such as cone beam reconstruction method, multi-slice reconstruction method, enlargement reconstruction method, or the like can be adopted. A wide range of volume data can be reconstructed by volume scanning using an X-ray detector in which a plurality of X-ray detection elements are arranged in multiple rows as described above.
類似度取得部213は、第1の再構成処理部212で取得した第1の部分領域の動画像と第2の部分領域の動画像とを比較することにより、第1の部分領域の動画像と第2の部分領域の動画像との間の観察部位の類似度を取得する。観察部位の類似度は、第1の部分領域の動画像の各フレーム画像(第1の部分領域のフレーム画像)において、周期的に動く観察部位の、各周期内で位相が近い第2の部分領域の動画像のフレーム画像(第2の部分領域のフレーム画像)を特定する情報である。
The
再構成タイミング取得部214は、類似度取得部213で取得した観察部位の類似度に基づいて、第1の投影データに対して撮像範囲の全体(すなわち第1の分割領域)で再構成するタイミング(第1のタイミング)を設定する。また、再構成タイミング取得部214は、観察部位の類似度に基づいて第2の投影データに対して再構成範囲の全体(すなわち第2の分割領域)で再構成するタイミング(第2のタイミング)を取得する。
The reconstruction
第2の再構成処理部215は、再構成タイミング取得部214で取得したタイミングで第1の投影データを再構成した第1の分割領域の動画像と、第2の投影データを再構成した第2の分割領域の動画像とを取得する。
The second
結合動画像取得部216は、類似度取得部213で取得した観察部位の類似度に基づいて、第1の分割領域の動画像と第2の分割領域の動画像の各フレーム画像を結合した結合動画像を取得する。
The combined moving
スキャン制御部200は、X線スキャンに関する各種動作を制御する。例えば、スキャン制御部200は、X線発生部100に対して高電圧を印加させるよう高電圧発生部104を制御する。スキャン制御部200は、回転体102を回動駆動(回転駆動)させるよう架台駆動部105を制御する。スキャン制御部200は、X線絞り部106を動作させるよう絞り駆動部107を制御する。スキャン制御部200は、寝台装置11の移動を制御する。
The
表示制御部201は、画像表示に関する各種制御を行う。例えば、結合動画処理部216によって取得した結合動画像を表示部202に表示させる制御を行う。
The
表示部202は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイ等の任意の表示デバイスによって構成される。例えば、表示部202には、結合動画像の各フレーム画像をレンダリング処理して得られるMPR(Multi Planer Reconstruction)画像が時系列に再生され表示される。
The
記憶部203は、RAM(Random Access Memory)やROM(Read Only Memory)等の記憶装置によって構成される。記憶部203は、検出データや投影データ、あるいは再構成処理後の4DCT画像および結合動画像等を記憶する。
The
操作部204は、コンソール装置20に対する各種操作を行う入力デバイスとして用いられる。操作部204は、たとえばキーボード、マウス、トラックボール、ジョイスティック等により構成される。また、操作部204として、表示部202に表示されたGUI(Graphical User Interface)を用いることも可能である。この実施形態では、操作部204は、再構成条件を設定するために用いられたり、生成された画像の表示状態(例えば、MPR画像における断面位置や断面の向き等、又は画像の倍率)を変更するために用いられたりする。
An
制御部205は、架台装置10、寝台装置11およびコンソール装置20の動作を制御することによって、X線CT装置の全体制御を行う。例えば、制御部205は、スキャン制御部200を制御することで、架台装置10に対して、スキャンを実行させ、検出データを収集させる。また、制御部205は、処理部205を制御することで、検出データに対する各種処理(投影データの取得、再構成処理、結合動画像の取得)を行わせる。あるいは、制御部205は、表示制御部201を制御することで、記憶部203に記憶された画像データ等に基づき、結合動画像等を表示部202に表示させる。
The
図3は、本実施形態に係る情報処理装置(コンソール装置20)が行う全体の処理手順のフローチャートを示している。以下の説明では、観察部位として肺を想定する。 FIG. 3 shows a flowchart of the overall processing procedure performed by the information processing device (console device 20) according to the present embodiment. In the following description, lungs are assumed as an observation site.
(S300)(投影データの取得)
ステップS300において、投影データ取得部210は、架台装置10で収集した第1
の検出データから第1の投影データを作成し、第2の検出データから第2の投影データを作成して取得する。そして、取得した第1の投影データと第2の投影データの両方を、第1の再構成処理部212と第2の再構成処理部215へと出力する。
(S300) (Acquisition of projection data)
In step S300, the projection
1st projection data is created from the detection data, and the 2nd projection data is created and acquired from the 2nd detection data. Then, both the acquired first projection data and second projection data are output to the first
本実施形態では、第1の投影データと第2の投影データは、少なくとも肺の一部の領域が重複するように肺を頭尾方向に分割して撮像された投影データであるとする。また、第1の投影データの撮像範囲(すなわち第1の分割領域)は肺尖部が含まれる肺の上部、第2の投影データの撮像範囲(すなわち第2の分割領域)は肺底部が含まれる肺の下部であるとする。図4に撮像範囲の一例を模式的に示す。図4において、被検体Eの肺400を観察部位とした場合、範囲410を撮像した投影データが第1の投影データであり、範囲420を撮像した投影データが第2の投影データである。そして、範囲430が肺の一部が重複する領域である。
In the present embodiment, it is assumed that the first projection data and the second projection data are projection data captured by dividing the lung in the craniocaudal direction so that at least partial areas of the lung overlap. The imaging range of the first projection data (that is, the first segmented region) includes the upper portion of the lung including the lung apex, and the imaging range of the second projection data (that is, the second segmented region) includes the lung base. Suppose it is the lower part of the lung where the FIG. 4 schematically shows an example of an imaging range. In FIG. 4, when the
本実施形態の投影データはX線CT装置で収集した検出データから作成したデータを例としており、サイノグラムを含むデータであるとする。サイノグラムは、X線検出器(X線検出部101)に沿った「空間」(横軸)および一連の投影角度で行われる測定のスキャンの「角度」(縦軸)の関数としてX線の減衰を描画したものである。この空間次元は、X線検出器の1次元的な配列に沿った位置である。また、角度次元は、時間の経過に応じて投影角度が等量ずつ増加し、線形的に変化する一連の投影角度で投影測定が行われることを表す、時間の関数として変化するX線投影角度である。身体におけるある特定のボリューム(例えば、肺)に起因するX線の減衰は縦軸まわりに正弦波を描くが、ボリュームが回転の中心から遠くなるほど正弦波の振幅が大きく、正弦波の位相は回転軸に対するボリュームの角度位置を確定する。本実施形態では、逆ラドン(Radon)変換または同等の画像再構成方法を行うことにより、サイノグラム中の投影データから画像が再構成され、再構成された画像は身体の1つの断層画像データに対応する。 The projection data in this embodiment is data created from detection data acquired by an X-ray CT apparatus, and is data including a sinogram. The sinogram shows the attenuation of x-rays as a function of the "space" (horizontal axis) along the x-ray detector (x-ray detector 101) and the "angle" (vertical axis) of the scans of measurements taken at a series of projection angles. is drawn. This spatial dimension is the position along the one-dimensional array of x-ray detectors. Also, the angular dimension is the x-ray projection angle varying as a function of time, representing projection measurements made at a series of linearly varying projection angles in equal increments of projection angle over time. is. X-ray attenuation due to a particular volume in the body (e.g. lungs) describes a sine wave about the vertical axis, with the amplitude of the sine wave increasing and the phase of the sine wave changing as the volume moves away from the center of rotation. Determines the angular position of the volume with respect to the axis. In this embodiment, an image is reconstructed from the projection data in the sinogram by performing an inverse Radon transform or an equivalent image reconstruction method, and the reconstructed image corresponds to one tomographic image data of the body. do.
(S310)(部分領域の取得)
ステップS310において、部分領域取得部211は、スキャン制御部200によって制御される撮像位置に基づいて、第1の再構成処理部212で第1の投影データに対して再構成処理を行う第1の部分領域を取得する。同様に、第2の投影データに対して再構成処理を行う第2の部分領域を取得する。そして、取得した第1の部分領域と第2の部分領域を第1の再構成処理部212へと出力する。
(S310) (Acquisition of partial area)
In step S<b>310 , the partial
本実施形態において、部分領域取得部211は、スキャン制御部200によって制御される撮像位置に基づいて定まる第1の検出データと第2の検出データの撮像範囲が重複する領域(図4の範囲430)を部分領域とする。なお、第1の部分領域と第2の部分領域は、撮像範囲が重複する領域をすべて含む領域でもよいし、撮像範囲が重複する領域の一部を含む領域でもよい。また、必ずしも撮像範囲が重複する領域を含まなくてもよい。
In the present embodiment, the partial
また、再構成処理を行う第1の部分領域と第2の部分領域は、実空間上で同一の領域であってもよいし、異なる領域でもよい。実空間上で同一の領域の場合、例えば、第1の部分領域と第2の部分領域の両方を、図4の範囲430としてもよいし、範囲430に含まれる一部の領域としてもよい。第1の部分領域と第2の部分領域を、実空間上で異なる領域とする場合、例えば、第1の部分領域と第2の部分領域の一方を範囲430とし、他方を範囲430に含まれる一部の領域としてもよい。
Also, the first partial area and the second partial area to be reconstructed may be the same area in the real space, or may be different areas. In the case of the same area in real space, for example, both the first partial area and the second partial area may be the
また、部分領域は、撮像範囲が重複していない領域でもよく、第1の部分領域を範囲430の少なくとも一部を含む範囲410内のいずれかの範囲としてもよいし、第1の部分領域を範囲410のすべての範囲としてもよい。同様に、第2の部分領域を範囲430の少なくとも一部を含む範囲420内のいずれかの範囲としてもよいし、第1の部分領域を
範囲410のすべての範囲としてもよい。あるいは、範囲410のうち範囲430を除いた範囲を第1の部分領域としてもよいし、範囲420のうち範囲430を除いた範囲を第2の部分領域としてもよい。これにより、観察部位のそれぞれ異なる領域を示す第1の部分領域と第2の部分領域の投影データの間を高い時間分解能で対応付けることができる。
Also, the partial areas may be areas where the imaging ranges do not overlap, the first partial area may be any range within the
(S320)(部分領域の動画像の取得)
ステップS320において、第1の再構成処理部212は、ステップS310で取得した第1の部分領域において、ステップS300で取得した第1の投影データに対して再構成処理を行い、第1の部分領域の動画像を取得する。また、ステップS310で取得した第2の部分領域において、ステップS300で取得した第2の投影データに対して再構成処理を行い、第2の部分領域の動画像を取得する。そして、取得した第1の部分領域の動画像と第2の部分領域の動画像を、類似度取得部213へと出力する。
(S320) (Acquisition of moving image of partial area)
In step S320, the first
ここで、本ステップにおける再構成のフレームレートは、第1の部分領域の動画像と第2の部分領域の動画像との間で、略一致する位相の画像が存在する程度に高い時間分解能の値に設定されることが望ましい。本実施形態において、第1の部分領域の動画像と第2の部分領域の動画像の再構成は、あらかじめ設定したフレームレート(例えば、10フレーム/秒)で行う。第1の部分領域の動画像と第2の部分領域の動画像の間でフレームレートは同一でもよいし、異なってもよい。操作部204を介してユーザがフレームレートを設定する構成であってもよい。例えば、観察部位に適切なフレームレートを、操作部204を介してユーザが設定してもよい。または、第1の投影データと第2の投影データを取得したそれぞれの時間長を、所定のフレーム数で等分割するフレームレートでもよい。
Here, the frame rate of the reconstruction in this step is such that the video of the first partial region and the video of the second partial region have a high time resolution to the extent that there are images with substantially the same phase. value. In this embodiment, the moving image of the first partial area and the moving image of the second partial area are reconstructed at a preset frame rate (for example, 10 frames/second). The frame rate may be the same or different between the moving image of the first partial area and the moving image of the second partial area. The configuration may be such that the user sets the frame rate via the
また、第1の再構成処理部212が、観察部位名に応じて、フレームレートを自動的に設定してもよい。このとき、観察部位名はユーザが指定してもよいし、架台装置10による観察部位の撮像に使用する撮像パラメータに応じて自動的に判断してもよい。例えば、心臓の心拍と肺の呼吸による周期的な運動では、1周期の時間間隔が異なる。したがって、観察部位名が心臓の場合(観察部位名が心臓であるという情報を取得した場合)は、フレームレートを高く設定してもよい。観察部位名が肺の場合でも、分割撮像時の撮像範囲に心臓が含まれる場合には、心臓の運動周期に合わせて、より高いフレームレートを設定してもよい。すなわち、撮像範囲内で肺のみが運動する肺の上部(第1の部分領域の動画像)は肺用にあらかじめ設定したフレームレートで再構成する。さらに、肺と共に心臓も撮像範囲に含まれる肺の下部(第2の部分領域の動画像)は心臓用にあらかじめ設定したフレームレートで再構成する。これにより、肺の下部の撮像時に心臓の心拍の影響で肺が変形する様子を捉えた動画像を取得できる。
Alternatively, the first
また、再構成のフレームレートは1つの動画像の中で一定でなくてもよい。例えば、観察部位の動きが遅い時間範囲のフレームレートは低くし、動きが速い時間範囲のフレームレートは高く設定して再構成してもよい。観察部位の動態の変化速度は、投影データを解析して取得してもよいし、不図示の外部装置で心拍や呼吸周期を観察することで取得してもよい。投影データを解析して観察部位の動態の変化速度を取得する方法としては、公知の方法を利用できる。例えば、X線CT装置1で収集した投影データの対向データ(「空間」は同一で「時間(角度)」が180度異なる2つのサイノグラム)の間で差異が大きい場合は、当該対向データを収集した時間の観察部位の動きが速いと判定できる。 Also, the reconstruction frame rate may not be constant in one moving image. For example, reconstruction may be performed by setting a low frame rate for a time range in which the movement of the observation site is slow and a high frame rate for a time range in which the observation site moves quickly. The rate of change in dynamics of the observation site may be obtained by analyzing projection data, or may be obtained by observing heartbeats and respiratory cycles with an external device (not shown). A known method can be used as a method of analyzing the projection data and acquiring the rate of change in dynamics of the observation site. For example, if there is a large difference between opposing data of projection data acquired by the X-ray CT apparatus 1 (two sinograms with the same "space" and different "time (angle)" by 180 degrees), the opposing data is acquired. It can be determined that the movement of the observation site during the time is fast.
(S330)(観察部位の類似度の取得)
ステップS330において、類似度取得部213は、ステップS320で取得した第1の部分領域の各フレーム画像と第2の部分領域の各フレーム画像の間の観察部位の類似度を取得する。観察部位の類似度の一例はフレーム画像の間の画像類似度であり、第1の部分領域の各フレーム画像と第2の部分領域の所定のフレーム画像との間の画像類似度を取
得する。本実施形態では、より適切な類似度を取得するために、フレーム画像間の相対的な位置を複数パターンで並進移動させた際の、画像類似度を取得する。そして、画像類似度が最も高くなる並進移動量とその画像類似度を観察部位の類似度として取得する。そして、前記処理により取得した観察部位の類似度を再構成タイミング取得部214および結合動画像取得部216へと出力する。
(S330) (Acquisition of similarity of observation site)
In step S330, the
本実施形態においては、観察部位が肺であり、観察部位の類似度が画像類似度である場合を例として観察部位の類似度の取得方法について具体的に説明する。画像類似度は、第1の部分領域の所定のフレーム画像と第2の部分領域の所定のフレーム画像の間で算出する。このとき、被検体の体動等に起因する位置ずれにより、第1の部分領域の所定のフレーム画像と第2の部分領域の所定のフレーム画像の間では、本来は同一位置である所定の部位が、各画像間で異なる位置に描出される可能性がある。これに対処するため、第1の部分領域のフレーム画像に対して第2の部分領域のフレーム画像の位置を移動させて位置を補正し、画像類似度を算出する。 In the present embodiment, a method for acquiring the similarity of the observed region will be specifically described by taking as an example the case where the observed region is the lung and the similarity of the observed region is the image similarity. The image similarity is calculated between a predetermined frame image of the first partial area and a predetermined frame image of the second partial area. At this time, due to a positional shift caused by the body movement of the subject, the predetermined frame image of the first partial region and the predetermined frame image of the second partial region are originally at the same position. may appear at different positions in each image. In order to deal with this, the position of the frame image of the second partial area is moved with respect to the frame image of the first partial area to correct the position, and the image similarity is calculated.
肺を観察部位とする場合、呼吸により主に体軸方向の体動が問題となることから、体軸方向に第2の部分領域のフレーム画像の位置を並進移動させて画像類似度を算出する。このとき、画像を並進移動させたときの複数の並進移動量に対してそれぞれ画像類似度を算出し、画像類似度が最も高くなる並進移動量とその画像類似度を取得する。また、必ずしも複数の並進移動量で位置の補正を行わなくてもよい。例えば、単一の並進移動量で第2の部分領域の各フレーム画像の位置を補正し、第1の部分領域の各フレーム画像との画像類似度を算出してもよい。このとき、前記単一の並進移動量はあらかじめユーザが指定した値を用いてもよいし、第1の部分領域と第2の部分領域の位置(例えば、体軸方向の中心位置)の差異としてもよい。また、位置の補正をせずに(並進移動量=0)画像類似度を算出してもよい。 When the lung is the observation site, body movement in the body axis direction due to respiration is a major problem. Therefore, the image similarity is calculated by translating the position of the frame image of the second partial region in the body axis direction. . At this time, the image similarity is calculated for each of a plurality of translational movement amounts when the image is translated, and the translational movement amount with the highest image similarity and its image similarity are obtained. Further, it is not always necessary to correct the position using a plurality of translational movement amounts. For example, the position of each frame image of the second partial area may be corrected by a single translation amount, and the image similarity with each frame image of the first partial area may be calculated. At this time, a value specified in advance by the user may be used as the single translation amount, or the difference between the positions of the first partial area and the second partial area (for example, the center position in the body axis direction) may be good too. Alternatively, the image similarity may be calculated without correcting the position (translational movement amount=0).
画像類似度としては、一般的に用いられているSum of Squared Difference(SSD)や相互情報量、相互相関係数などの公知の方法を用いることができる。画像類似度を算出する際には、関心領域を設定してもよい。例えば、第1の部分領域の所定のフレーム画像と第2の部分領域の所定のフレーム画像のそれぞれから肺野領域を抽出し、肺野領域のみを対象として画像類似度を算出してもよい。肺野領域の抽出処理は公知の画像処理手法を利用できる。画素値の閾値を利用した任意の閾値処理でもよいし、グラフカット処理をはじめとする既知のセグメンテーション処理でもよい。あるいは、肺領領域の観察に適した条件(例えば、ウインドウレベル(WL)を-600、ウインドウ幅(WW)を1500)に画素値変換等の前処理を施した画像を対象として画像類似度を算出してもよい。 As image similarity, known methods such as sum of squared difference (SSD), mutual information, and cross-correlation coefficient, which are generally used, can be used. A region of interest may be set when calculating the image similarity. For example, a lung region may be extracted from each of a predetermined frame image of the first partial region and a predetermined frame image of the second partial region, and the image similarity may be calculated for only the lung region. A well-known image processing method can be used for extraction processing of the lung region. Any threshold processing using a pixel value threshold may be used, or known segmentation processing such as graph cut processing may be used. Alternatively, an image that has been subjected to preprocessing such as pixel value conversion under conditions suitable for observation of the lung region (for example, window level (WL) of -600 and window width (WW) of 1500) is used to calculate the image similarity. can be calculated.
観察部位の類似度は、画像類似度以外の方法で取得してもよい。例えば、周期的な動態を示す観察部位の、周期内での位相の近さを類似度として取得してもよい。観察部位が肺の場合、第1の部分領域の動画像と第2の部分領域の動画像のそれぞれにおいて、各フレーム画像での肺の呼吸位相を推定する。そして、第1の部分領域の各フレーム画像と第2の部分領域の各フレーム画像の呼吸周期内での呼吸位相の近さを類似度として取得する。これによると、第1の部分領域の動画像と第2の部分領域の動画像で、それぞれ独立に位相を推定するため、撮像範囲が重複していない場合でも観察部位の類似度を取得できる。 The degree of similarity of observed regions may be acquired by a method other than the degree of image similarity. For example, the closeness of the phases within the cycle of observation sites showing periodic dynamics may be obtained as the degree of similarity. When the observation part is the lung, the breathing phase of the lung in each frame image is estimated in each of the moving image of the first partial area and the moving image of the second partial area. Then, the closeness of the respiratory phase within the respiratory cycle between each frame image of the first partial region and each frame image of the second partial region is obtained as a degree of similarity. According to this, since the phases are estimated independently for the moving image of the first partial area and the moving image of the second partial area, the similarity of the observation part can be obtained even if the imaging ranges do not overlap.
肺の呼吸位相は、フレーム画像を解析することで算出できる。例えば、呼吸位相とともに変動する画像特徴量を利用できる。画像特徴量としては、肺野領域の体積や面積、肺野領域の画素値の平均値、体表位置など追跡可能な特徴的な部位の位置などを利用でき、画像特徴量の類似度を観察部位の類似度とすることができる。すなわち、第1の部分領域の所定のフレーム画像から算出した画像特徴量と、第2の部分領域の所定のフレーム画像か
ら算出した画像特徴量の差分を観察部位の類似度とすることができる。
The respiratory phase of the lungs can be calculated by analyzing frame images. For example, it is possible to use an image feature quantity that varies with the respiratory phase. As image feature values, the volume and area of the lung region, the average value of the pixel values of the lung region, and the position of characteristic parts that can be tracked such as the position of the body surface can be used, and the similarity of the image feature values can be observed. It can be the similarity of parts. That is, the difference between the image feature amount calculated from the predetermined frame image of the first partial area and the image feature amount calculated from the predetermined frame image of the second partial area can be used as the degree of similarity of the observation part.
また、呼吸位相は、画像特徴量ではなく動画像における肺の動きを解析することで取得してもよい。例えば、画像特徴量の時間的変化率に基づいて肺の動きを解析し、その動きの解析結果に基づいて観察部位の類似度を取得してもよい。画像特徴量は呼吸位相とともに周期的に変動し、肺の動態の変化速度と画像特徴量の時間的変化率に相関があることを利用する。具体的には、第1の部分領域の各フレーム画像において画像特徴量を算出し、画像特徴量の推移に第1の曲線(例えば、サインカーブ)のあてはめを行う。同様に、第2の部分領域の各フレーム画像において画像特徴量を算出し、第2の曲線のあてはめを行う。そして、第1の曲線と第2の曲線の間でパラメータ(サインカーブの場合は位相)の類似度を観察部位の類似度として取得してもよい。 Also, the respiratory phase may be obtained by analyzing the movement of the lungs in the moving image instead of the image feature amount. For example, the movement of the lungs may be analyzed based on the temporal change rate of the image feature amount, and the similarity of the observation site may be acquired based on the analysis result of the movement. The image feature amount periodically fluctuates with the respiratory phase, and the fact that there is a correlation between the rate of change in lung dynamics and the temporal change rate of the image feature amount is utilized. Specifically, an image feature amount is calculated for each frame image of the first partial area, and a first curve (for example, a sine curve) is applied to the transition of the image feature amount. Similarly, an image feature amount is calculated for each frame image of the second partial area, and a second curve is fitted. Then, the degree of similarity of parameters (phase in the case of a sine curve) between the first curve and the second curve may be acquired as the degree of similarity of the observed region.
なお、上記の例では並進移動により位置の補正をする例を説明したが、並進移動に限らず回転や拡大、縮小(アフィン変換)を利用して位置を補正してもよい。また、非線形な変形モデルを利用して位置を補正してもよい。変形モデルには、Thin Plate Spline(TPS)などの放射基底関数に基づく変形モデルやFree Form Deformation(FFD)等の公知の変形モデルを利用できる。 In the above example, the position is corrected by translational movement, but the position may be corrected not only by translational movement but also by rotation, enlargement, or reduction (affine transformation). Alternatively, the position may be corrected using a nonlinear deformation model. As the deformation model, a deformation model based on a radial basis function such as Thin Plate Spline (TPS) or a known deformation model such as Free Form Deformation (FFD) can be used.
また、上記の例では複数の並進移動量に対してそれぞれ画像類似度を算出し、画像類似度が最も高くなる並進移動量とその画像類似度を取得したが、各並進移動量と画像類似度の組み合わせを観察部位の類似度として取得する構成であってもよい。 In the above example, the image similarity is calculated for each of a plurality of translational movement amounts, and the translational movement amount with the highest image similarity and its image similarity are obtained. may be acquired as the similarity of the observation site.
(S340)(再構成タイミングの取得)
ステップS340では、再構成タイミング取得部214は、ステップS330で取得した観察部位の類似度を基に、第1の投影データと第2の投影データを撮像した時間範囲の間で、周期的な動態を示す観察部位の周期内での位相が対応する時間位置を取得する。そして、第1の投影データを撮像した時間範囲から取得した時間位置を第1のタイミングとし、第2の投影データを撮像した時間範囲から取得した時間位置を第2のタイミングとして、第2の再構成処理部215へと出力する。
(S340) (Acquisition of reconstruction timing)
In step S<b>340 , the reconstruction
本実施形態では、第1の部分領域の動画像と第2の部分領域の動画像の2つの入力系列に対し、第1のタイミングと第2のタイミングの最適な組み合わせを取得する一例として、Dymanic Programming(DP)によるマッチング方法を用いる。本実施形態におけるDPマッチングでは、ステップS330で取得した各動画像のフレーム画像間の観察部位の類似度をコストとしたコスト最小化問題を解くことで最適な組み合わせを取得する。 In this embodiment, Dynamic A matching method by programming (DP) is used. In the DP matching of the present embodiment, an optimum combination is obtained by solving a cost minimization problem in which the cost is the similarity of observation parts between frame images of each moving image obtained in step S330.
図5を用いて具体的に説明する。図5Aに示すマトリクス500は、iを第1の部分領域の動画像のフレーム番号(i=1,2,・・・,M)、jを第2の部分領域の動画像のフレーム番号(j=1,2,・・・,N)としたときの観察部位の類似度を格納したマトリクスである。例えば、観察部位の類似度を画像類似度とした場合、(i,j)=(1,2)のマトリクスの要素には、第1の部分領域の最初のフレーム画像と第2の部分領域の2番目のフレーム画像との間の画像類似度が格納されている。ここでは、(1,1)を始端510、(M,N)を終端520としてDP(Dynamic Programming)マッチングを行う。そして、始端510から終端520までに通るマトリクスの各要素に格納された値(観察部位の類似度)の総和をコストとし、コストが最良となるルート(組み合わせ)を探索する。図5Aでは、DPマッチングで最良のルートとして選択された要素をグレーで示している。最良ルートは始端510から終端520に至るまでの間、i軸方向に0または1、j軸方向に0または1だけ進む制約のもとで探索を行う。これにより、始端510から終端520までの間で時系列が逆になることを防ぐことができる。
A specific description will be given with reference to FIG. The
次に、上記のようにフレーム画像を時系列に進めて最良ルートとして選択された各フレーム番号の一部を第1のタイミングおよび第2のタイミングとして取得する。例えば、第1の部分領域の動画像のフレーム番号を基準として、一定の間隔で第1のタイミングとそれに対応する第2のタイミングを取得する。 Next, the frame images are advanced in chronological order as described above, and a part of each frame number selected as the best route is acquired as the first timing and the second timing. For example, with reference to the frame number of the moving image of the first partial area, the first timing and the corresponding second timing are obtained at regular intervals.
まず、再構成タイミング取得部214は、第1のタイミングとして、第1の部分領域の動画像を等間隔に間引くようなタイミングを設定する。この間隔は、第1の部分領域の動画像のフレームレートと、結合動画像のフレームレートに基づいて設定できる。例えば、第1の部分領域の動画像が10フレーム/秒であり、結合動画像を5フレーム/秒とする場合は、2フレーム間隔で第1のタイミングを設定すればよい。同様に、第1の部分領域の動画像が12フレーム/秒であり、結合動画像を4フレーム/秒とする場合は、3フレーム間隔で第1のタイミングを設定すればよい。すなわち、第1の部分領域の動画像がaフレーム/秒であり、結合動画像をbフレーム/秒とする場合は、(a/b)フレーム間隔で第1のタイミングを設定すればよい。そして、第1の部分領域の動画像を2フレーム間隔で取得する場合は、奇数フレーム(i=1,3,5,・・・)を第1のタイミングとしてもよいし、偶数フレーム(i=2,4,6,・・・)を第1のタイミングとしてもよい。第1の部分領域の動画像をnフレーム間隔で取得する場合も同様であり、i=1,i=2,・・・,i=n-1のそれぞれから始めるn通りの組み合わせをとることができる。
First, the reconstruction
ここで、第2のタイミングの取得の処理を説明する例として、第1の部分領域の動画像を2フレーム間隔で取得する場合であって、第1のタイミングとして、iが奇数のフレーム(i=1,3,5,・・・)を選択する場合を考える。このとき、再構成タイミング取得部214は、第1のタイミングのそれぞれ(i=1,3,5,・・・)について、上記の処理で選択した最良ルート上においてiに対応するjを第2のタイミングとして取得する(すなわち、iとjを対応付ける)。ただし、1つのiに対して複数のjが最良ルート上に存在する場合は、観察部位の類似度が最良となるjを第2のタイミングとして取得する。 Here, as an example for explaining the process of acquiring the second timing, a case where the moving image of the first partial area is acquired at intervals of two frames, and i is an odd frame (i =1, 3, 5, . . . ). At this time, for each of the first timings (i=1, 3, 5, . (that is, associate i and j). However, if a plurality of j's exist on the best route for one i, the j with the best similarity of the observed region is acquired as the second timing.
例えば、図5Aのようにi=1のとき、(1,1)、(1,2)の二つが最良ルートとして選択されている場合、観察部位の類似度が高い方のj(図5Bの例では、j=2)のみを取得する。図5Bに、iが奇数の場合を基準として、第1のタイミングと第2のタイミングを取得する例を示す。図5Bでは、第1のタイミングは{1,3,5,7}であり、第1のタイミングと対応する第2のタイミング{2,4,5,8}を取得している。すなわち、二つの動画像のフレーム(1,2),(3,4),(5,5),(7,8)がそれぞれ対応付けられる。 For example, when i=1 as shown in FIG. 5A, when two routes (1, 1) and (1, 2) are selected as the best routes, j ( In the example, only j=2) is obtained. FIG. 5B shows an example of acquiring the first timing and the second timing, with i being an odd number as a reference. In FIG. 5B, the first timing is {1, 3, 5, 7}, and the second timing {2, 4, 5, 8} corresponding to the first timing is obtained. That is, the frames (1, 2), (3, 4), (5, 5), and (7, 8) of the two moving images are associated with each other.
また、同様に、iが偶数の場合(i=2,4,6,・・・)のそれぞれにおいて、最良ルート上において観察部位の類似度が最良となるjを取得し、iを第1のタイミング、jを第2のタイミングとしてもよい。あるいは、第1のタイミングのバリエーション(n=2の場合はiが奇数の場合と偶数の場合)に対してiに対応するjを同様にして求め、観察部位の類似度の総和が最良となる組み合わせを選択して第1のタイミングおよび第2のタイミングを取得してもよい。また、組み合わせの選択方法は類似度の総和に基づくものに限らず、例えば、第2のタイミングの間隔が等間隔により近いものを選ぶ等の基準であってもよいし、これら両方の基準を加味した基準であってもよい。 Similarly, when i is an even number (i=2, 4, 6, . The timing j may be the second timing. Alternatively, j corresponding to i is similarly obtained for the first timing variation (where i is an odd number and an even number when n=2), and the total sum of the similarities of the observed parts is the best. A combination may be selected to obtain the first timing and the second timing. Further, the method of selecting a combination is not limited to being based on the sum of similarities, and may be based on, for example, a criterion such as selecting a second timing interval that is closer to an equal interval. It may be a standard that
さらに、第1の部分領域の動画像のフレーム番号ではなく、第2の部分領域の動画像のフレーム番号を基準としてもよい。この場合、第2のタイミングを上述したnフレーム間隔で取得し、上記と同様に最良ルートを用いて対応する第1のタイミングを求めるように
してもよい。さらに、第1の部分領域の動画像を基準にするパターンと、第2の部分領域の動画像を基準にするパターンのそれぞれで最良の組み合わせを求めてもよい。さらに、それらの両者から最良の組み合わせを(例えば、観察部位の類似度の総和が最良となる組み合わせを)選択するようにしてもよい。
Furthermore, instead of the frame number of the moving image of the first partial area, the frame number of the moving image of the second partial area may be used as a reference. In this case, the second timing may be acquired at the above-described n frame interval, and the corresponding first timing may be obtained using the best route in the same manner as described above. Further, the best combination of the pattern based on the moving image of the first partial area and the pattern based on the moving image of the second partial area may be obtained. Furthermore, the best combination (for example, the combination that gives the best sum of the similarities of observation parts) may be selected from both of them.
なお、第1の投影データと第2の投影データの撮像の間で観察部位の動態が同一でない場合でも、いずれか一方を基準として間引くことで一方を基準にした時間軸で結合動画像を生成できる。例えば、第1の投影データと第2の投影データの間で撮像時の観察部位の動態の変化速度が異なる場合に、その速度に応じて何れか一方のデータの時間軸を基準として結合動画像を生成することができる。例えば、観察部位の動態の変化速度が速い方を基準として間引くことで、動きの情報が少ないフレームを除くことができるため、データの冗長性を削減できる。一方で、観察部位の動きが遅い方を基準として間引くことで、詳細な動きの情報を欠落させることなく結合動画像を生成できる。 Note that even if the dynamics of the observed region are not the same between the imaging of the first projection data and the second projection data, thinning is performed with one of them as a reference to generate a combined moving image on the time axis with one as a reference. can. For example, when the change speed of the dynamics of the observation site at the time of imaging differs between the first projection data and the second projection data, the time axis of either one of the data is used as a reference in accordance with the change speed. can be generated. For example, by thinning out images based on the rate of change in the dynamics of the observation site being faster, it is possible to remove frames with less motion information, thereby reducing data redundancy. On the other hand, by thinning out the slow motion of the observation part as a reference, a combined moving image can be generated without missing detailed motion information.
また、必ずしも一方を基準として間引くのではなく、両方を基準にして間引いてもよい。例えば、観察部位の動きの情報が比較的少ない位相(呼吸の最大吸気位や最大呼気位)では、動きが速い方の投影データを基準に間引き、他の位相では動きが遅い方の投影データを基準に間引いてもよい。これにより、データの冗長性を削減しつつ、詳細な動きの情報も保持した結合動画像を生成できる。 Also, the thinning may be performed using both as a reference instead of using one as the reference. For example, in phases with relatively little information on the movement of the observed region (maximal inspiratory and maximal expiratory positions), the projection data with faster movement is thinned out, and in other phases, the projection data with slower movement is used. Thinning may be performed according to the standard. As a result, it is possible to generate a combined moving image that retains detailed motion information while reducing data redundancy.
また、間引く間隔は、ユーザにより任意に設定できるようにしても良い。例えば、出力する結合動画像のフレームレートをユーザが設定し、それに基づいて間引く間隔を決めるようにできる。これにより、後段の第2の再構成処理部215において、結合動画像の生成に必要十分なタイミングでのみ効率的に再構成を行うことができる。
Also, the thinning interval may be arbitrarily set by the user. For example, the user can set the frame rate of the combined moving image to be output and determine the thinning interval based on it. As a result, the second
なお、図5Aでは、(1,1)を始端510、(M,N)を終端520としたが、必ずしもこれに限らない。始端または終端フリーのDPマッチングでもよい。この場合、始端をi=1(左端の列またはj=1(上端の行)のいずれであってもよく、終端をi=M(右端の列)またはj=N(下端の行)のいずれであってもよい。また、必ずしも始端と終端をマトリクス500の端の行および列としなくてもよい。例えば、第1の投影データを基準として2フレーム間隔で間引く場合で、偶数のiと観察部位の類似度が最良となるjを取得することがあらかじめ決まっている場合、始端をi=2のいずれかとすることで計算量を削減できる。
In FIG. 5A, (1, 1) is the starting
また、類似度の総和が最良となるルートの探索を行ったが、総和ではなく平均値や中央値等を含む他の統計値でもよい。これによるとルートの距離の長さに依存せずに最良ルートを探索することが可能となる。また、ルート探索時にi軸方向に0または1、j軸方向に0または1だけ進む制約のもとで探索を行っていたが、必ずしもこれに限らない。間引く軸方向と間隔を予め定め、その方向に関しては当該間隔だけ進むように制約を設けてもよい。 In addition, although a search for a route with the best sum of similarities was performed, other statistical values including average values and median values may be used instead of the sum. This makes it possible to search for the best route without depending on the distance of the route. In addition, the search is performed under the constraint that the route is searched by 0 or 1 in the i-axis direction and 0 or 1 in the j-axis direction, but this is not necessarily the case. The direction of the thinning axis and the interval may be determined in advance, and restrictions may be provided so that the direction advances by the interval.
また、間引く軸方向と間隔を予め定める場合には、間引きにより選択されることのないフレームをあらかじめマトリクス500から除いてもよい。例えば、i軸方向に2フレーム間隔で間引く場合、マトリクスのi軸方向の行数はM/2とし、マトリクスサイズを小さくできるため、計算量を削減することができる。
Further, when the axial direction and interval for thinning are determined in advance, frames that are not selected by thinning may be removed from the
また、進む方向に応じてコストにペナルティを加えてもよい。例えば、第1の投影データと第2の投影データのぞれぞれの撮像で、被検体の動態の対応関係として観察部位の周期的な動態の速度が類似している場合、第1の部分領域の動画像と第2の部分領域の動画像の各フレーム間で観察部位の動きの量は互いに類似する。このとき、多くの場合はi軸
とj軸方向の両方に1ずつ進むルートが適切なルートとなる。このことから、第1の投影データと第2の投影データのぞれぞれの撮像時に観察部位の周期的な動態の変化速度が類似していることが想定されるような場合、i軸とj軸方向の両方共に1進む場合のペナルティを低く(例えば、ペナルティ=0)してもよい。さらに、それ以外の場合には、ペナルティを高くしてもよい。これによると、ステップS330で取得した観察部位の類似度に誤差が含まれている場合でも、頑健にルート探索を行うことができる。
Also, a penalty may be added to the cost according to the direction of travel. For example, in the imaging of each of the first projection data and the second projection data, when the velocity of the periodic dynamics of the observed region is similar as the correspondence relationship of the dynamics of the subject, the first part The amount of movement of the observation site between each frame of the moving image of the region and the moving image of the second partial region is similar to each other. At this time, in many cases, a route that advances by 1 in both the i-axis and j-axis directions is an appropriate route. For this reason, when it is assumed that the rate of change in the periodic dynamics of the observation site is similar when imaging the first projection data and the second projection data, the i-axis and The penalty for advancing by 1 in both j-axis directions may be low (for example, penalty=0). In addition, the penalty may be higher in other cases. According to this, even when the similarity of the observation part obtained in step S330 contains an error, the route search can be robustly performed.
また、図5では、2次元のマトリクス500で最良ルートの探索(フレーム番号の組み合わせの最適化)を行っている。ただし、ステップS330で複数の並進移動量における観察部位の類似度を取得している場合、並進移動量の軸を加えた3次元のマトリクスを用いて最良ルートの探索を行ってもよい。この場合、フレーム番号の対応付けとフレーム間の並進移動量の最適化を同時に行うことができる。また、2次元のマトリクス上で進む方向に応じてペナルティを加えることと同様に、3次元のマトリクスの場合に並進移動量の軸方向の進む方向に対してもペナルティを加えてもよい。
In FIG. 5, a two-
このように、第1の投影データと第2の投影データとの間の被検体の動態の対応関係やフレーム画像の相対位置に応じて、第1の時間位置と第2の時間位置との組み合わせの優先度が設定される。そして、観察部位の類似度がより高い組み合わせのうち優先度がより高い組み合わせに基づいて、第1の時間位置が第1のタイミングとされ、第2の時間位置が第2のタイミングとされる。これにより、第1のタイミングと第2のタイミングの組み合わせの最適化を図ることができる。 In this manner, the combination of the first time position and the second time position is determined according to the correspondence relationship of the dynamics of the subject between the first projection data and the second projection data and the relative position of the frame image. priority is set. Then, the first time position is set as the first timing, and the second time position is set as the second timing based on the combination with the higher priority among the combinations with the higher observation region similarity. This makes it possible to optimize the combination of the first timing and the second timing.
なお、第1のタイミングと第2のタイミングの組み合わせの最適化方法として、DPのアルゴリズムの一例を用いたが、これに限らず他のDPのアルゴリズムを用いてもよい。また、隠れマルコフモデルのような確率モデルを用いた方法でもよく、他の公知の方法を用いてもよい。 Although an example of the DP algorithm is used as a method of optimizing the combination of the first timing and the second timing, other DP algorithms may be used without being limited to this. Alternatively, a method using a probability model such as a hidden Markov model may be used, or another known method may be used.
(S350)(分割領域の動画像の再構成)
ステップS350において、第2の再構成処理部215は、第1の投影データから、ステップS340で取得した第1のタイミングにおいて、第1の投影データの撮像範囲の全体を再構成した第1の分割領域の動画像を取得する。また、同様に、第2の再構成処理部215は、第2の投影データから、ステップS340で取得した第2のタイミングにおいて、第2の投影データの撮像範囲の全体を再構成した第2の分割領域の動画像を取得する。そして、取得した第1の分割領域の動画像と第2の分割領域の動画像を結合動画像取得部216へと出力する。
(S350) (Reconstruction of moving image of divided area)
In step S350, the second
(S360)(結合動画像の取得)
ステップS360において、結合動画像取得部216は、ステップS350で取得した第1の分割領域の動画像と第2の分割領域の動画像の対応する各フレーム画像を結合した結合動画像を取得する。そして、取得した結合動画像を記憶部203へと出力する。
(S360) (Acquisition of Combined Moving Image)
In step S360, the combined moving
ここで、結合動画像取得部216は、第1の分割領域の動画像と第2の分割領域の動画像の対応するフレーム画像をそれぞれ結合する。このとき、ステップS330で取得した観察部位の類似度が最も高くなる並進移動量に基づいて、フレーム画像間の対応位置が一致するように結合して結合画像を生成する。あるいは、本ステップで第1の分割領域の動画像と第2の分割領域の動画像の対応するフレーム画像間で位置合わせし、位置合わせ結果に基づいてレーム画像間の対応位置が一致するように結合して結合画像を生成してもよい。なお、結合画像において、2つのフレーム画像が重複する領域の画素の画素値は、いずれか一方のフレーム画像の画素値を設定してもよいし、両方のフレーム画像の画素値の平均値を設定してもよい。あるいは、位置に応じて、観察部位が肺の場合は、肺尖部側の
画素では第1の分割領域のフレーム画像の画素値の重みを大きくし、肺底部側の画素では第2の分割領域のフレーム画像の画素値の重みを大きくした重み付き平均値を利用してもよい。または、ステップS350で、ステップS330で取得した観察部位の類似度が最も高くなる並進移動量を基に、第1の投影データの第1のタイミングと対応する第2の投影データの第2のタイミングを体軸方向に結合した結合投影データに対し再構成してもよい。これにより、結合動画像が再構成できる。この場合ステップS360の処理が不要となる。
Here, the combined moving
(S370)(結合動画像の表示)
ステップS370において、表示制御部201は、ステップS360において取得した結合動画像を表示部202に表示する。
(S370) (Display of Combined Moving Image)
In step S370, the
例えば、結合動画像の各フレーム画像をMPR表示してもよいし、任意の角度の断面を表示してもよい。表示部202に表示されたGUIを介してユーザの操作を受け付け、結合動画像の再生や停止の操作、断面の切り替えや拡大率、断面の向きを変えて表示してもよい。
For example, each frame image of the combined moving image may be displayed in MPR, or a cross section at an arbitrary angle may be displayed. A user's operation may be received via a GUI displayed on the
なお、表示制御部201による結合動画像の表示は、必ずしも行わなくてもよい。その代わりに、ステップS360で生成した結合動画像を記憶部203や外部のサーバに保存または出力する構成であってもよい。これによっても、保存された結合動画像を不図示の医用画像ビューアによって表示することで、同様の効果を得ることができる。
Note that the display of the combined moving image by the
以上によって、情報処理装置の処理が実施される。本実施形態では、観察部位の領域全体が含まれるように領域を分割して複数回に分けて撮像した3次元動画像から、複数の動画像間で観察部位の位相が対応する各フレーム画像を結合した結合動画像を生成することができる。 As described above, the processing of the information processing apparatus is performed. In the present embodiment, each frame image corresponding to the phase of the observed part among the plurality of moving images is extracted from the three-dimensional moving images obtained by dividing the area so as to include the entire observation part area and capturing the images a plurality of times. A combined combined motion image can be generated.
次に、第1実施形態の変形例について以下説明する。なお、以下の説明において、上記の構成要素および処理と同様の構成要素および処理については、同一の符号を付し、詳細な説明は省略する。 Next, a modified example of the first embodiment will be described below. In the following description, components and processes similar to those described above are denoted by the same reference numerals, and detailed description thereof will be omitted.
(変形例1-1)
ステップS360において、第1の分割領域のフレーム画像と第2の分割領域のフレーム画像の間で観察部位の対応位置が一致するように位置を補正し結合していたが、必ずしもこれに限らない。例えば、ステップS350において、ステップS330で取得した観察部位の類似度が最も高くなる並進移動量に基づいて、位置を補正した第2の分割領域の動画像を生成してもよい。この場合、ステップS360では位置の補正は行なわずに第1の分割領域のフレーム画像と第2の分割領域のフレーム画像を結合し結合動画像を生成する。
(Modification 1-1)
In step S360, the positions of the frame images of the first segmented region and the frame images of the second segmented region are corrected and combined so that the corresponding positions of the observed regions match, but this is not necessarily the case. For example, in step S350, a moving image of the second segmented region whose position is corrected may be generated based on the amount of translational movement that maximizes the similarity of the observation part acquired in step S330. In this case, in step S360, the frame image of the first divided area and the frame image of the second divided area are combined to generate a combined moving image without correcting the position.
また、ステップS330における並進移動による補正量の算出を行わず、第1の分割領域のフレーム画像と第2の分割領域のフレーム画像を撮像範囲の情報に基づいて(並進移動補正せずに)結合して結合動画像を生成してもよい。これによると、計算量を削減できる。 Also, the frame image of the first divided area and the frame image of the second divided area are combined (without translational movement correction) based on the information of the imaging range without calculating the correction amount due to the translational movement in step S330. may be used to generate a combined moving image. According to this, the amount of calculation can be reduced.
(変形例1-2)
ステップS340において、図5Aのようにi=1のとき、(1,1)、(1,2)の二つが最良ルートとして選択されている場合、観察部位の類似度が高い方のjのみを取得したが、必ずしもこれに限らない。例えば、図5Aのように、最良ルートとして選択された組み合わせの一部が(1,1)、(1,2)、(2,3)となっている場合に、(1,
2)を(1.5,2)とするように、i=1とi=2の間のタイミングを第1のタイミングの候補として取得してもよい。i=1とi=2の間のタイミングとして、例えば、1と2の中間であるi=1.5を取得できる。このとき、その時刻に対応する第1の分割領域のフレーム画像をステップS350で取得するようにできる。
(Modification 1-2)
In step S340, when i=1 as shown in FIG. 5A, if two routes (1, 1) and (1, 2) are selected as the best route, only j with a higher similarity of the observed region is selected. Acquired, but not necessarily limited to this. For example, as shown in FIG. 5A, when some of the combinations selected as the best route are (1, 1), (1, 2), (2, 3), (1,
A timing between i=1 and i=2 may be acquired as a first timing candidate so that 2) is set to (1.5, 2). As the timing between i=1 and i=2, for example, i=1.5, which is between 1 and 2, can be obtained. At this time, the frame image of the first divided area corresponding to that time can be acquired in step S350.
また、図5Aの例において、i=5に対応するjを最良ルートから選択する際に、実施例ではj=4,5,6,7の中からi=5との類似度が最良になる整数jを選択している。さらに、これらをサブフレームに分割した値(すなわち小数)から選択するようにしてもよい。この値は、例えば、i=5とのそれぞれの類似度を近似するjの関数C(j)を求め(類似度に関数をあてはめ)、当該関数が最大値を示す位置(最も類似する位置)を求めることで取得できる。このとき、その時刻に対応する第2の分割領域のフレーム画像をステップS350で取得するようにできる。これらによると、部分領域の動画像よりも高い時間分解能で分割領域の再構成のタイミングを取得できる。 In the example of FIG. 5A, when j corresponding to i=5 is selected from the best routes, the similarity with i=5 is the best among j=4, 5, 6, and 7 in the embodiment. We have chosen an integer j. Furthermore, these may be selected from subframe-divided values (that is, decimals). This value is obtained, for example, by obtaining a function C(j) of j that approximates each similarity with i = 5 (applying a function to the similarity), and determining the position where the function exhibits the maximum value (most similar position) can be obtained by asking for At this time, the frame image of the second divided area corresponding to that time can be obtained in step S350. According to these, it is possible to obtain the reconstruction timing of the divided areas with higher temporal resolution than the moving image of the partial areas.
(変形例1-3)
ステップS320における部分領域の動画像の再構成処理と、ステップS350における分割領域の動画像の再構成処理は、異なる再構成条件でもよい。例えば、ステップS320では計算量を削減するために低解像度で再構成し、ステップS350では高解像度で再構成してもよい。これにより、第1のタイミングに基づいて、第1の投影データから、第1の部分領域の動画像を再構成する再構成条件と少なくとも一部が異なる第1の再構成条件で、第1の分割領域の画像が再構成される。また、第2のタイミングに基づいて、第2の投影データから、第2の部分領域の動画像を再構成する再構成条件と少なくとも一部が異なる第2の再構成条件で、第2の分割領域の画像が再構成される。
(Modification 1-3)
Different reconstruction conditions may be used for the reconstruction processing of the moving image of the partial area in step S320 and the reconstruction processing of the moving image of the divided area in step S350. For example, in step S320, reconstruction may be performed at a low resolution in order to reduce the amount of calculation, and at step S350, reconstruction may be performed at a high resolution. Thus, based on the first timing, the first projection data is reconstructed from the first projection data under the first reconstruction conditions that are at least partially different from the reconstruction conditions for reconstructing the moving image of the first partial region. An image of the segmented area is reconstructed. Further, based on the second timing, the second segmentation is performed under the second reconstruction condition that is at least partially different from the reconstruction condition for reconstructing the moving image of the second partial area from the second projection data. An image of the region is reconstructed.
また、ステップS320では高周波のノイズ成分を抑制する再構成関数(例えば、縦郭条件)で再構成し、ステップS350ではユーザが観察したい他の再構成関数で再構成してもよい。これによると、ステップS330で並進移動等によりフレーム画像間の位置の補正をする際に、ノイズ等による影響を抑制した頑健な処理を行うことができる。 Alternatively, in step S320, reconstruction may be performed using a reconstruction function that suppresses high-frequency noise components (for example, vertical contour condition), and in step S350, reconstruction may be performed using another reconstruction function that the user wants to observe. According to this, when correcting the position between frame images by translational movement or the like in step S330, it is possible to perform robust processing that suppresses the influence of noise or the like.
または、ステップS320では、肺内部の細かい構造を用いて位置を補正するために高周波成分を強調する再構成関数(例えば、肺野条件)で再構成し、ステップS350では異なる再構成関数(例えば、縦郭条件)で再構成してもよい。あるいは、ステップS350では複数の再構成条件で第1の分割領域の動画像と第2の分割領域の動画像を再構成して取得し、ステップS360では各再構成条件で取得した動画像をそれぞれ結合し、複数の結合動画像を生成してもよい。そして、ステップS370では、操作部204を介してユーザの選択を受け付け、ユーザが選択した再構成条件の結合動画像を表示部202に表示してもよい。
Alternatively, in step S320, reconstruction is performed with a reconstruction function that emphasizes high-frequency components (e.g., lung field condition) to correct the position using fine structures inside the lung, and in step S350, a different reconstruction function (e.g., longitudinal condition). Alternatively, in step S350, a moving image of the first divided region and a moving image of the second divided region are reconstructed and obtained under a plurality of reconstruction conditions, and in step S360, the moving images obtained under each reconstruction condition are obtained. may be combined to generate a plurality of combined moving images. Then, in step S370, the user's selection may be accepted via the
(変形例1-4)
ステップS340で取得した第1のタイミングに基づいて、ステップS350で第1の分割領域の動画像を再構成する一連の処理について説明したが、必ずしもこれに限らない。例えば、ステップS340で取得した第1のタイミングと第1の投影データを対応付けて記憶部203に保存しておき、操作部204を介してユーザからステップS350に処理を進める指示を受けた場合にステップS350に処理を進める構成でもよい。第2のタイミングと第2の投影データに対しても同様の処理を行うことができる。
(Modification 1-4)
Although a series of processes for reconstructing the moving image of the first divided area in step S350 based on the first timing acquired in step S340 has been described, the present invention is not necessarily limited to this. For example, when the first timing acquired in step S340 and the first projection data are associated with each other and stored in the
また、ユーザが操作部204を介して、ステップS350で第1の分割領域の動画像と第2の分割領域の動画像について、上記の少なくとも1つの再構成条件を指定してもよい。そして、ステップS350では、第2の再構成処理部215が、ユーザが指定した再構成条件に基づいて、第1の分割領域の動画像と第2の分割領域の動画像を再構成する。こ
の場合、情報処理装置の最小構成としては、ステップS340までの処理と、その結果として得られる第1のタイミングと第2のタイミングを第1の投影データおよび第2の投影データと対応付けて保存する処理までを行えばよい。そして、これらのデータを取得し、それぞれのタイミングで投影データに再構成を施し結合する処理は、他の装置で行ってもよい。
Alternatively, the user may specify at least one reconstruction condition for the moving image of the first divided area and the moving image of the second divided area in step S350 via the
(変形例1-5)
ステップS350において、再構成条件がステップS320における再構成条件と同じである場合は、ステップS320で既に再構成した部分領域以外の領域を再構成し、再構成後の画像を結合することで、分割領域の動画像を取得してもよい。例えば、図4の範囲430が第1の部分領域である場合、ステップS350において、範囲410から範囲430を除いた領域のみ再構成した各フレーム画像を取得する。そして、第1の部分領域の各フレーム画像と結合することで、第1の分割領域のフレーム画像を取得してもよい。これにより、ステップS350で再構成する範囲を限定することができるため、再構成に係る計算量を削減できる。
(Modification 1-5)
In step S350, if the reconstruction conditions are the same as the reconstruction conditions in step S320, the regions other than the partial regions already reconstructed in step S320 are reconstructed, and the reconstructed images are combined to obtain the divided image. A moving image of the area may be acquired. For example, if the
<第2実施形態>
第1実施形態では、第1の部分領域の動画像と第2の部分領域の動画像を取得(再構成)し、観察部位の位相の対応付けを行う。一方、本実施形態では部分領域の動画像を取得(再構成)せずに、第1の部分領域と第2の部分領域の投影データの間で周期的な動態を示す観察部位の、周期内での位相の対応付けを行い、結合動画像を生成する。
<Second embodiment>
In the first embodiment, the moving image of the first partial area and the moving image of the second partial area are acquired (reconfigured), and the phases of the observed regions are associated with each other. On the other hand, in the present embodiment, without acquiring (reconstructing) the moving images of the partial regions, the observation part showing periodic dynamics between the projection data of the first partial region and the second partial region , and generates a combined moving image.
なお、以下では第1実施形態と同様に観察部位は肺であって、第1の投影データと第2の投影データはX線CT装置で撮像したデータとして説明を行う。しかしながら、観察部位や、撮像装置はこれに限定されない。 As in the first embodiment, the following description assumes that the observation site is the lung, and the first projection data and the second projection data are data captured by an X-ray CT apparatus. However, the observation site and imaging device are not limited to these.
以下、図6と図8を用いて本実施形態の構成および処理を説明する。図6は、本実施形態に係る画像処理装置の構成を示す。本実施形態に係る画像処理装置には、第1実施形態と異なり、第1の再構成処理部212が存在しない。また、本実施形態では、類似度取得部213が行う処理が第1実施形態と異なるため、以下でその機能を説明する。その他の構成については、第1実施形態と同様の機能であるため、それぞれの構成要素には同一の符号を付し詳細な説明は省略する。
The configuration and processing of this embodiment will be described below with reference to FIGS. 6 and 8. FIG. FIG. 6 shows the configuration of an image processing apparatus according to this embodiment. Unlike the first embodiment, the image processing apparatus according to this embodiment does not have the first
第1実施形態では、類似度取得部213は、第1の再構成処理部212で再構成した第1の部分領域の動画像と第2の部分領域の動画像を用いて観察部位の類似度を取得する。一方、本実施形態における類似度取得部213は、第1の投影データと第2の投影データを比較することにより観察部位の類似度を取得する。本実施形態において、観察部位の類似度は、第1の部分領域の時系列の投影データにおいて、周期的な動態を示す観察部位の、周期内での位相が近い第2の部分領域の投影データを特定する情報である。
In the first embodiment, the
図7は、本実施形態に係る情報処理装置(コンソール装置20)が行う全体の処理手順のフローチャートを示している。ステップS700とS710、S740からS770は、第1実施形態のステップS300とS310、S340からS370と同様の処理を行うため、説明を省略する。以下、図3のフローチャートとの相違部分についてのみ説明する。 FIG. 7 shows a flowchart of the overall processing procedure performed by the information processing device (console device 20) according to the present embodiment. Steps S700 and S710, and S740 to S770 are the same as steps S300 and S310, and S340 to S370 of the first embodiment, so description thereof will be omitted. Only differences from the flow chart of FIG. 3 will be described below.
(S730)(観察部位の類似度の取得)
ステップS730において、類似度取得部213は、ステップS700で取得した第1の投影データと第2の投影データの間の観察部位の類似度を取得する。そして、取得した観察部位の類似度を、再構成タイミング取得部214および結合動画像取得部216へと
出力する。
(S730) (Acquisition of similarity of observation site)
In step S730, the
第1実施形態では、第1の部分領域の動画像と第2の部分領域の動画像を比較することにより観察部位の類似度を取得していた。本実施形態においては、第1の投影データのうち第1の部分領域に対応する投影データと、第2の投影データのうち第2の部分領域に対応する投影データを比較することにより、観察部位の類似度を取得する。すなわち、第1実施形態のステップS330と同様に、ステップS730において、第1の部分領域の投影データと第2の部分領域の投影データの相対位置を移動させて比較することにより類似度を算出することができる。 In the first embodiment, the degree of similarity of observation parts is acquired by comparing the moving image of the first partial area and the moving image of the second partial area. In the present embodiment, by comparing the projection data corresponding to the first partial region out of the first projection data and the projection data corresponding to the second partial region out of the second projection data, Get the similarity of That is, similar to step S330 of the first embodiment, in step S730, the relative positions of the projection data of the first partial area and the projection data of the second partial area are moved and compared to calculate the degree of similarity. be able to.
ここで、第1の部分領域に対応する投影データは、第1実施形態において第1の部分領域の各フレーム画像を再構成する際に使用したサイノグラム(第1の部分領域のサイノグラム)に相当する。同様に、第2の部分領域に対応する投影データは、第1実施形態において第2の部分領域の各フレーム画像を再構成する際に使用したサイノグラム(第2の部分領域のサイノグラム)に相当する。すなわち、第1の部分領域のサイノグラムは、第1の検出データのうち、第1の部分領域を含む位置から収集された検出データから作成されたサイノグラムである。 Here, the projection data corresponding to the first partial area corresponds to the sinogram (sinogram of the first partial area) used when reconstructing each frame image of the first partial area in the first embodiment. . Similarly, the projection data corresponding to the second partial area corresponds to the sinogram (sinogram of the second partial area) used when reconstructing each frame image of the second partial area in the first embodiment. . That is, the sinogram of the first partial area is a sinogram created from the detection data collected from the positions including the first partial area among the first detection data.
同様に、第2の部分領域のサイノグラムは、第2の検出データのうち、第2の部分領域を含む位置から収集された検出データから作成されたサイノグラムである。なお、第1の部分領域のサイノグラムと第2の部分領域のサイノグラムは、観察部位の動態をそれぞれ時系列に沿って収集した検出データから作成される時系列の画像データである。 Similarly, the sinogram of the second partial area is a sinogram created from the detection data collected from the positions including the second partial area among the second detection data. The sinogram of the first partial region and the sinogram of the second partial region are time-series image data created from detection data obtained by collecting the dynamics of the observation site along the time series.
したがって、図8に示すように、第1の部分領域のサイノグラムにおける任意の空間(横軸)、角度(縦軸)、体軸方向の位置、時刻を、それぞれr、θ、z、t1としたときの値をS1(r、θ、z、t1)と表せる。同様に、第2の部分領域のサイノグラムにおける任意の空間(横軸)、角度(縦軸)、体軸方向の位置、時刻を、それぞれr、θ、z、t2としたときの値をS2(r、θ、z、t2)と表せる。空間(横軸)、角度(縦軸)、体軸方向の位置は、スキャン制御部200によって制御された、第1の部分領域のサイノグラムと第2の部分領域のサイノグラムの間で共通の座標を表す。
Therefore, as shown in FIG. 8, arbitrary space (horizontal axis), angle (vertical axis), body axis position, and time in the sinogram of the first partial area are set to r, θ, z, and t1, respectively. can be expressed as S1(r, θ, z, t1). Similarly, when an arbitrary space (horizontal axis), angle (vertical axis), position in the body axis direction, and time in the sinogram of the second partial area are r, θ, z, and t2, the values are S2 ( r, θ, z, t2). Spatial (horizontal axis), angle (vertical axis), and position in the body axis direction are common coordinates between the sinogram of the first partial area and the sinogram of the second partial area controlled by the
本実施形態において、観察部位の類似度は、各時刻の第1の部分領域のサイノグラムと第2の部分領域のサイノグラムにおいて、各サイノグラム内の対応する座標(r、θ、z)における値を比較することで類似度を取得する。これは、各時刻の第1の部分領域のサイノグラムと第2の部分領域のサイノグラムを(r、θ、z)を座標軸とする3次元画像とみなして画像類似度を算出する処理と同等である。また、第1実施形態のステップS330における第1の部分領域の動画像のフレーム番号iはt1に相当し、第2の部分領域の動画像のフレーム番号jはt2に相当する。 In the present embodiment, the similarity of observation regions is obtained by comparing the values at the corresponding coordinates (r, θ, z) in each sinogram in the sinogram of the first partial region and the sinogram of the second partial region at each time. to obtain the similarity. This is equivalent to the process of calculating the image similarity by regarding the sinogram of the first partial region and the sinogram of the second partial region at each time as three-dimensional images with coordinate axes (r, θ, z). . Also, the frame number i of the moving image of the first partial area in step S330 of the first embodiment corresponds to t1, and the frame number j of the moving image of the second partial area corresponds to t2.
したがって、第1の部分領域のサイノグラムと第2の部分領域のサイノグラムを、それぞれ第1実施形態の第1の部分領域の動画像と第2の部分領域の動画像とみなし、ステップS330と同等の処理を行うことで観察部位の類似度を取得できる。しかしながら、サイノグラムの値はX線の減衰(曝射方向の積算値)を表す数値であるため、再構成処理を行うことなく曝射方向(架台装置10のXY軸)における観察部位の内部構造の位置情報は取得することは難しい。この結果、観察部位の内部構造を詳細に位置合わせすることは困難である。したがって、体軸方向(架台装置10のZ軸)の補正量のみ取得することが好ましい。あるいは、本実施形態では位置の補正量を取得しなくてもよい(補正量=0)。 Therefore, the sinogram of the first partial area and the sinogram of the second partial area are regarded as the moving image of the first partial area and the moving image of the second partial area of the first embodiment, respectively, and the same steps as in step S330 are performed. By performing the processing, it is possible to acquire the degree of similarity of the observed parts. However, since the value of the sinogram is a numerical value representing the X-ray attenuation (integrated value in the irradiation direction), the internal structure of the observation site in the irradiation direction (XY axis of the gantry device 10) can be obtained without performing reconstruction processing. Location information is difficult to obtain. As a result, it is difficult to precisely align the internal structure of the observation site. Therefore, it is preferable to acquire only the correction amount in the body axis direction (the Z axis of the gantry device 10). Alternatively, in the present embodiment, the position correction amount may not be obtained (correction amount=0).
以上によって、情報処理装置の処理が実施される。本実施形態では、観察部位を分割し
て撮像した複数の投影データのうち、撮像範囲が重複する領域の投影データ間における観察部位の類似度を取得し、撮像範囲の全体を再構成するタイミングを取得する。そして、撮像範囲の全体を再構成した複数の動画像を結合した結合動画像を生成できる。本実施形態では、第1実施形態と比較して、部分領域の動画像を取得しないため、再構成にかかる計算量とメモリ使用量をより削減することができる。
As described above, the processing of the information processing apparatus is performed. In the present embodiment, among a plurality of pieces of projection data captured by dividing an observation region, the degree of similarity of the observation region between the projection data of the regions where the imaging ranges overlap is acquired, and the timing for reconstructing the entire imaging range is determined. get. Then, a combined moving image can be generated by combining a plurality of moving images in which the entire imaging range is reconstructed. Compared to the first embodiment, this embodiment does not acquire a moving image of a partial area, so that the computational complexity and memory usage required for reconstruction can be further reduced.
以上、本開示の実施形態について説明したが、本開示の技術は上記の実施形態に限定されるものではなく、請求項に記載された技術範囲内において種々の変更および/または変形することが可能である。 Although the embodiments of the present disclosure have been described above, the technology of the present disclosure is not limited to the above embodiments, and various changes and/or modifications can be made within the technical scope described in the claims. is.
<その他の実施形態>
また、本開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
<Other embodiments>
In addition, the technology of the present disclosure can be embodied as, for example, a system, device, method, program, recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.
また、本開示の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、上記の実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本開示の技術を構成することになる。 Moreover, it goes without saying that the object of the present disclosure is achieved by the following. That is, a recording medium (or storage medium) recording software program code (computer program) for realizing the functions of the above embodiments is supplied to the system or apparatus. Such a storage medium is, of course, a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the technique of the present disclosure.
また、本開示の技術は、上記実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、システム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 In addition, the technology of the present disclosure supplies a program that implements one or more functions of the above embodiments to a system or device via a network or a storage medium, and one or more processors of a computer of the system or device executes the program. It can also be realized by a process of reading and executing. It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
1 X線CT装置、10 架台装置、210 投影データ取得部、212 第1の再構成処理部、213 類似度取得部、214 再構成タイミング取得部
Reference Signs List 1
Claims (17)
前記第1の撮像範囲の一部である第1の部分領域の画像を前記第1の投影データから再構成した第1の部分領域の動画像と、前記第2の撮像範囲の一部である第2の部分領域の画像を前記第2の投影データから再構成した第2の部分領域の動画像を取得する第1の再構成手段と、
前記第1の部分領域の動画像と前記第2の部分領域の動画像の各フレーム間の前記被検体の動態に関する類似度を取得する類似度取得手段と、
前記類似度に基づいて、前記第1の投影データから前記第1の分割領域の画像を再構成する第1のタイミングと、前記第2の投影データから前記第2の分割領域の画像を再構成する第2のタイミングを取得する再構成タイミング取得手段と
を有することを特徴とする情報処理装置。 Projection data obtained by imaging a subject by dividing it into a first segmented area and a second segmented area, wherein the dynamics of the subject is imaged in a first imaging range including the first segmented area. projection data acquiring means for acquiring the first projection data and second projection data obtained by imaging the dynamics of the subject in a second imaging range including the second divided region;
a moving image of a first partial area obtained by reconstructing an image of a first partial area, which is part of the first imaging range, from the first projection data; and a part of the second imaging range. a first reconstructing means for acquiring a moving image of a second partial area obtained by reconstructing an image of the second partial area from the second projection data;
a similarity obtaining means for obtaining a similarity regarding the dynamics of the subject between each frame of the moving image of the first partial region and the moving image of the second partial region;
Based on the degree of similarity, a first timing for reconstructing an image of the first segmented region from the first projection data and reconstructing an image of the second segmented region from the second projection data. and reconstruction timing obtaining means for obtaining a second timing for obtaining the second timing.
前記再構成タイミング取得手段は、前記第1の投影データを撮像した時間範囲における第1の時間位置と、前記第2の投影データを撮像した時間範囲における第2の時間位置との組み合わせのうち、前記類似度がより高い組み合わせに基づいて、前記第1の時間位置を前記第1のタイミングとし、前記第2の時間位置を前記第2のタイミングとすることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。 the similarity obtaining means calculates the similarity by moving a relative position of a frame image of the moving image of the first partial area or the moving image of the second partial area;
The reconstruction timing acquisition means selects a combination of a first time position in the time range in which the first projection data is captured and a second time position in the time range in which the second projection data is captured, 13. The method according to any one of claims 1 to 12, wherein the first time position is set as the first timing and the second time position is set as the second timing based on the combination with the higher degree of similarity. The information processing apparatus according to any one of items 1 and 2.
被検体を第1の分割領域と第2の分割領域に分割して撮像した投影データであって、前記被検体の動態を前記第1の分割領域が含まれる第1の撮像範囲で撮像した第1の投影データと、前記被検体の動態を前記第2の分割領域が含まれる第2の撮像範囲で撮像した第2の投影データとを取得する投影データ取得ステップと、
前記第1の撮像範囲の一部である第1の部分領域を前記第1の投影データから再構成した第1の部分領域の動画像と、前記第2の撮像範囲の一部である第2の部分領域を前記第2の投影データから再構成した第2の部分領域の動画像を取得する第1の再構成ステップと、
前記第1の部分領域の動画像と前記第2の部分領域の動画像の各フレーム間の前記被検体の動態に関する類似度を取得する類似度取得ステップと、
前記類似度に基づいて、前記第1の投影データから前記第1の分割領域の画像を再構成
する第1のタイミングと、前記第2の投影データから前記第2の分割領域の画像を再構成する第2のタイミングを取得する再構成タイミング取得ステップと
を実行させる情報処理方法。 to the computer,
Projection data obtained by imaging a subject by dividing it into a first segmented area and a second segmented area, wherein the dynamics of the subject is imaged in a first imaging range including the first segmented area. a projection data acquisition step of acquiring projection data 1 and second projection data obtained by imaging the dynamics of the subject in a second imaging range including the second divided region;
a moving image of a first partial area reconstructed from the first projection data of the first partial area that is part of the first imaging range; a first reconstruction step of obtaining a moving image of a second partial area reconstructed from the second projection data;
a similarity obtaining step of obtaining a similarity regarding the dynamics of the subject between each frame of the moving image of the first partial region and the moving image of the second partial region;
Based on the degree of similarity, a first timing for reconstructing an image of the first segmented region from the first projection data and reconstructing an image of the second segmented region from the second projection data. and a reconstruction timing acquisition step of acquiring a second timing for performing an information processing method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148065A JP2023040874A (en) | 2021-09-10 | 2021-09-10 | Information processing device, information processing method, and program |
US17/939,217 US20230079025A1 (en) | 2021-09-10 | 2022-09-07 | Information processing apparatus, information processing method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148065A JP2023040874A (en) | 2021-09-10 | 2021-09-10 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023040874A true JP2023040874A (en) | 2023-03-23 |
Family
ID=85632172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148065A Pending JP2023040874A (en) | 2021-09-10 | 2021-09-10 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023040874A (en) |
-
2021
- 2021-09-10 JP JP2021148065A patent/JP2023040874A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10748293B2 (en) | Tomography apparatus and method for reconstructing tomography image thereof | |
US7924972B2 (en) | Reconstruction of an image of a moving object from volumetric data | |
US7382852B2 (en) | Method and apparatus for correcting motion in image reconstruction | |
US9576391B2 (en) | Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus | |
CN107427274B (en) | Tomographic apparatus and method for reconstructing tomographic image thereof | |
US7782998B2 (en) | Method and apparatus for correcting motion in image reconstruction | |
US9013471B2 (en) | 3D X-ray imaging of coronary vessels with ECG gating and motion correction | |
EP3264985B1 (en) | Tomography imaging apparatus and method of reconstructing tomography image | |
EP3107457B1 (en) | Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus | |
WO2011002874A1 (en) | Image reconstruction incorporating organ motion | |
JP2007000408A (en) | X-ray ct apparatus | |
KR101665513B1 (en) | Computer tomography apparatus and method for reconstructing a computer tomography image thereof | |
CN103027705A (en) | Method and system of CT image data set for generating motion compensation | |
US9965875B2 (en) | Virtual projection image method | |
US20110176715A1 (en) | Four-dimensional volume imaging system | |
US20180286087A1 (en) | Volume image reconstruction using projection decomposition | |
JP2018020120A (en) | Medical image processor and medical image processing program | |
JP2007260398A (en) | Method for reducing stepwise artifact in computer tomographic displaying of heart and memory medium | |
JP2023040874A (en) | Information processing device, information processing method, and program | |
JP2023040913A (en) | Information processing device, information processing method, and program | |
US10796475B2 (en) | Bone segmentation and display for 3D extremity imaging | |
US20230079025A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
Lindström Söraas | Respiratory Motion Correction in PET Imaging: Comparative Analysis of External Device and Data-driven Gating Approaches | |
CN116704068A (en) | Image correction method, imaging method and system for dual-source CT equipment | |
Prümmer | Cardiac C-arm computed tomography: motion estimation and dynamic reconstruction |