JP2009240723A - Image processor, image processing method and x-ray diagnostic apparatus - Google Patents

Image processor, image processing method and x-ray diagnostic apparatus Download PDF

Info

Publication number
JP2009240723A
JP2009240723A JP2008094278A JP2008094278A JP2009240723A JP 2009240723 A JP2009240723 A JP 2009240723A JP 2008094278 A JP2008094278 A JP 2008094278A JP 2008094278 A JP2008094278 A JP 2008094278A JP 2009240723 A JP2009240723 A JP 2009240723A
Authority
JP
Japan
Prior art keywords
image data
dimensional image
area
subject
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008094278A
Other languages
Japanese (ja)
Other versions
JP5525697B2 (en
Inventor
Takuya Sakaguchi
卓弥 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2008094278A priority Critical patent/JP5525697B2/en
Publication of JP2009240723A publication Critical patent/JP2009240723A/en
Application granted granted Critical
Publication of JP5525697B2 publication Critical patent/JP5525697B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide appropriate three-dimensional image data even when a preferable method is different according to parts in the target range of a subject. <P>SOLUTION: The image processor for generating virtual three-dimensional images to be the base of forming images to be displayed comprises: a first image reconfiguration part for configuring the first three-dimensional image data 51 of the subject P by a specified processing method on the basis of the photographed image data of the subject P; a second image reconfiguration part for configuring the second three-dimensional image data 52 of the subject by a processing method different from the one in a first configuration means; and a third image reconfiguration part for applying the first three-dimensional image data 51 to the prescribed first area A1 of the virtual three-dimensional images, applying the second three-dimensional image data 52 to a second area A2 different from the first area A1, combining the first three-dimensional image data 51 and the second three-dimensional image data 52 and thus configuring third three-dimensional image data 53 in a third area A3 including the first area A1 and the second area A2. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像処理装置、画像処理方法及びX線診断装置に係り、例えば複数の被検体の画像から3次元画像データを構成するものに関する。   The present invention relates to an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus, and more particularly to an apparatus that constitutes three-dimensional image data from images of a plurality of subjects.

近年、X線源と検出器を被験者のまわりに回転させて多方向から撮影した異なる撮影方向からの複数のX線撮影画像データから、3次元画像データを再構成する技術として、多種の手法が検討されている。   In recent years, as a technique for reconstructing three-dimensional image data from a plurality of X-ray image data taken from different directions obtained by rotating an X-ray source and a detector around a subject and taking images from multiple directions, there are various methods. It is being considered.

このような手法としては、例えば2方向の2次元撮影画像データから3次元の画像データを再構成するCoronaryTreeと呼ばれる手法がある。このCoronaryTreeでは、簡易に立体構築ができるという利点がある。また、心臓等の動きのある被検体を対象として、心位相の一致する多方向の2次元画像から3次元再構成するECG gated VCT等の手法がある。この手法によれば心臓が動いていないとみなすことにより心臓の動きによる画像のぼけ(ぼやけ)を低減できる。さらに、心臓の動きを補正して再構成するMotion compensation VCT手法も知られている。この手法によると、動き補正された心臓部位が精度よく再構成される。   As such a method, for example, there is a method called “CoronaryTree” for reconstructing three-dimensional image data from two-dimensional two-dimensional captured image data. This Coronary Tree has an advantage that a three-dimensional construction can be easily performed. Further, there is a technique such as ECG gated VCT that reconstructs three-dimensionally from a multi-directional two-dimensional image with a matching cardiac phase for a subject such as a heart. According to this method, it is possible to reduce blur (blurring) of an image due to the motion of the heart by regarding that the heart is not moving. Furthermore, a motion compensation VCT method for reconstructing by correcting the motion of the heart is also known. According to this method, the motion-corrected heart part is accurately reconstructed.

このように、複数の手法はそれぞれ処理速度や画像の正確さ等に特徴を有し、通常被検体の部位や使用状況に応じて好ましい手法が採用される。
米国特許第6501848号明細書 米国特許第6047080号明細書
As described above, each of the plurality of methods has a feature in processing speed, image accuracy, and the like, and a preferable method is usually employed according to the region of the subject and the use situation.
US Pat. No. 6,501,848 US Pat. No. 6,047,080

しかしながら上記技術には以下のような問題がある。被検体の対象範囲に、複数の臓器が含まれている場合や、関心のある特定領域とその周囲の対応関係を観察したい場合等、対象範囲の部位によって好ましい手法が異なる場合がある。例えば、心臓や心臓冠状動脈等の動く臓器と、骨や大動脈等の動かない臓器の両方を対象として含む場合や、対象範囲の一部分のみに高精度の画像を得る必要がある場合等が挙げられる。このような場合には、上述のいずれの手法を用いても、被検体の良好な画像を得ることは困難である。すなわち例えば、動き補正を用いない手法によれば動いている臓器の画像がぼけてしまう。一方で、動き補正を用いた手法では動いている臓器はシャープに構成されるが、動き補正の影響により、動かない臓器の画像がぼけてしまうという問題がある。また、関心のある特定領域の詳細な画像を得るためにその周囲を含めた対象範囲の全てについて高精度の画像を構成すると、処理量の増加や処理速度の低下を招く。   However, the above technique has the following problems. The preferred technique may differ depending on the region of the target range, such as when the target range of the subject includes a plurality of organs or when it is desired to observe the correspondence between the specific region of interest and its surroundings. Examples include cases where both moving organs such as the heart and coronary arteries and non-moving organs such as bones and aorta are included as targets, and cases where it is necessary to obtain a high-accuracy image only in a part of the target range. . In such a case, it is difficult to obtain a good image of the subject using any of the methods described above. That is, for example, according to a technique that does not use motion correction, an image of a moving organ is blurred. On the other hand, in the method using motion correction, a moving organ is sharply configured, but there is a problem that an image of a non-moving organ is blurred due to the effect of motion correction. Further, if a high-accuracy image is constructed for the entire target range including the periphery in order to obtain a detailed image of a specific region of interest, an increase in processing amount and a reduction in processing speed are caused.

本発明は、このような問題点に鑑みてなされたものであり、その目的は、被検体の対象範囲における部分によって好ましい手法が異なる場合にも適当な3次元画像データを得ることができる画像処理装置、画像処理方法及びX線診断装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to perform image processing capable of obtaining appropriate three-dimensional image data even when a preferred method differs depending on a portion in the target range of the subject. An object is to provide an apparatus, an image processing method, and an X-ray diagnostic apparatus.

本発明の一形態に係る画像処理装置は、表示される画像を形成する元になる仮想3次元画像を生成する画像処理装置であって、被検体の撮影画像データに基づいて特定の処理方法で前記被検体の第1の3次元画像データを構成する第1構成手段と、第1構成手段とは異なる処理方法で前記被検体の第2の3次元画像データを構成する第2構成手段と、前記仮想3次元画像の所定の第1領域に前記第1の3次元画像データを当てはめるとともに前記第1領域と異なる第2領域に前記第2の3次元画像データを当てはめて前記第1の3次元画像データと前記第2の3次元画像データとを合成することにより前記第1領域及び第2領域を含む第3領域における第3の3次元画像データを構成する第3構成手段と、を備えたことを特徴とする。   An image processing apparatus according to an aspect of the present invention is an image processing apparatus that generates a virtual three-dimensional image from which a displayed image is formed. The image processing apparatus uses a specific processing method based on captured image data of a subject. First configuration means for configuring the first three-dimensional image data of the subject, second configuration means for configuring the second three-dimensional image data of the subject by a processing method different from the first configuration means, The first three-dimensional image data is applied to a predetermined first region of the virtual three-dimensional image, and the second three-dimensional image data is applied to a second region different from the first region. A third constructing unit configured to compose the third three-dimensional image data in the third region including the first region and the second region by combining the image data and the second three-dimensional image data; It is characterized by that.

本発明の一形態に係る画像処理方法は、表示される画像を形成する元になる仮想3次元画像を生成する画像処理方法であって、被検体の撮影画像データに基づいて前記被検体の第1の3次元画像データを構成し、前記第1の3次元画像データとは異なる処理方法で前記被検体の第2の3次元画像データを構成し、所定の第1領域に前記第1の3次元画像データを適用するとともに前記第1領域と異なる第2領域に前記第2の3次元画像データを適用して前記第1の3次元画像データと前記第2の3次元画像データとを合成することにより前記第1領域及び第2領域を含む前記被検体の第3領域における第3の3次元画像データを構成することを特徴とする。   An image processing method according to an aspect of the present invention is an image processing method for generating a virtual three-dimensional image from which a displayed image is formed. The image processing method of the subject is based on captured image data of the subject. 1st 3D image data is constructed, and 2nd 3D image data of the subject is constructed by a processing method different from the 1st 3D image data, and the first 3D image data is formed in a predetermined first area. The first three-dimensional image data and the second three-dimensional image data are synthesized by applying the second three-dimensional image data to a second region different from the first region while applying the three-dimensional image data. Thus, the third three-dimensional image data in the third region of the subject including the first region and the second region is configured.

本発明の一形態に係るX線診断装置は、表示される画像を形成する元になる仮想3次元画像を生成するX線診断装置であって、被検体に対してX線の照射と検出を行ない被検体のデータを得る撮影手段と、被検体の撮影画像データに基づいて前記被検体の第1の3次元画像データを構成する第1構成手段と、第1構成手段とは異なる処理方法で前記被検体の第2の3次元画像データを構成する第2構成手段と、所定の第1領域に前記第1の3次元画像データを適用するとともに前記第1領域と異なる第2領域に前記第2の3次元画像データを適用して前記第1の3次元画像データと前記第2の3次元画像データとを合成することにより前記第1領域及び第2領域を含む前記被検体の第3領域における第3の3次元画像データを構成する第3構成手段と、を備えたことを特徴とする。   An X-ray diagnostic apparatus according to an aspect of the present invention is an X-ray diagnostic apparatus that generates a virtual three-dimensional image from which a displayed image is formed, and performs X-ray irradiation and detection on a subject. An imaging means for obtaining data of the subject, a first configuration means for configuring the first three-dimensional image data of the subject based on the captured image data of the subject, and a processing method different from the first configuration means Second constructing means for constructing second three-dimensional image data of the subject; and applying the first three-dimensional image data to a predetermined first region and applying the first three-dimensional image data to a second region different from the first region. The third region of the subject including the first region and the second region by combining the first three-dimensional image data and the second three-dimensional image data by applying two three-dimensional image data The third structure constituting the third three-dimensional image data in Characterized by comprising a means.

本発明によれば、被検体の対象範囲によって好ましい手法が異なる場合にも適当な3次元画像データを得ることができる。   According to the present invention, appropriate three-dimensional image data can be obtained even when the preferred method differs depending on the target range of the subject.

[第1実施形態]
以下、図面を参照して本発明の実施例による画像処理装置及びX線診断装置を図1及び図2を参照して説明する。なお、ここでは、画像処理装置はX線診断装置に組み込まれるものとして説明するが、もちろん単独で構成可能である。また、画像処理装置の機能をコンピュータに実現させるためのプログラムとして構成可能であり、またそれを記憶したコンピュータで読み取り可能な記憶媒体として提供され得る。またこの実施形態においては対象となる被検体は、動く臓器としての心臓血管と動かない臓器としての骨と大動脈を含む心臓周辺部位を例にとって述べるが、もちろんこれに限定されるものではなく、心臓血管以外の臓器や、ステントなど体内に挿入するデバイスでも3次元画像処理が可能である。
[First Embodiment]
An image processing apparatus and an X-ray diagnostic apparatus according to embodiments of the present invention will be described below with reference to FIGS. 1 and 2 with reference to the drawings. Here, the image processing apparatus will be described as being incorporated in the X-ray diagnostic apparatus, but can of course be configured alone. Further, it can be configured as a program for causing a computer to realize the functions of the image processing apparatus, and can be provided as a computer-readable storage medium storing the program. In this embodiment, the subject is described as an example of a peripheral portion of the heart including a cardiovascular as a moving organ and a bone and an aorta as a non-moving organ. However, the present invention is not limited to this. Three-dimensional image processing is possible even with devices other than blood vessels, such as organs and devices inserted into the body.

図1は本実施例に係るX線診断装置1を示している。X線診断装置1はX線撮影装置10と、X線撮影装置10で取得した撮影画像データを再構成するための画像処理装置20とを備える。   FIG. 1 shows an X-ray diagnostic apparatus 1 according to this embodiment. The X-ray diagnostic apparatus 1 includes an X-ray imaging apparatus 10 and an image processing apparatus 20 for reconstructing captured image data acquired by the X-ray imaging apparatus 10.

図2に示すX線撮影装置10は、X線管11とX線検出器12とを備えている。X線管11は例えば床置き型のスタンド14に回転自在に支持されるCアーム13の一端に取り付けられ、X線検出器12はCアーム13の他端に取り付けられる。一端側には、さらに、X線管11の電極間に印加するための高電圧を発生する高電圧発生部15が設けられている。X線管11は高電圧の印加を受けてX線を発生する。   An X-ray imaging apparatus 10 illustrated in FIG. 2 includes an X-ray tube 11 and an X-ray detector 12. For example, the X-ray tube 11 is attached to one end of a C-arm 13 that is rotatably supported by a floor-standing stand 14, and the X-ray detector 12 is attached to the other end of the C-arm 13. On one end side, a high voltage generator 15 that generates a high voltage to be applied between the electrodes of the X-ray tube 11 is further provided. The X-ray tube 11 generates X-rays when a high voltage is applied.

X線検出器12は、典型的には、入射X線を直接的又は間接的に電荷に変換する複数の検出素子(画素)が2次元状に配列されてなる固体平面検出器である。X線検出器12は、寝台16上に載置された被検体Pを挟んでX線管11に対向する。Cアーム13が回転しながら撮影を繰り返すことで、3次元画像データ再構成に必要な多方向の撮影画像データ(X線投影画像データ)を取得することができる。   The X-ray detector 12 is typically a solid flat detector in which a plurality of detection elements (pixels) that directly or indirectly convert incident X-rays into electric charges are two-dimensionally arranged. The X-ray detector 12 faces the X-ray tube 11 with the subject P placed on the bed 16 interposed therebetween. By repeating imaging while the C-arm 13 rotates, it is possible to acquire multidirectional captured image data (X-ray projection image data) necessary for three-dimensional image data reconstruction.

Cアーム13の回転、高電圧発生部15からX線管11への高電圧の印加、及びX線検出器12の信号読み出しは制御部21により制御され、それにより撮影動作が実行され、撮影画像データが発生される。   The rotation of the C arm 13, the application of a high voltage from the high voltage generation unit 15 to the X-ray tube 11, and the signal reading of the X-ray detector 12 are controlled by the control unit 21, thereby performing an imaging operation, and a captured image Data is generated.

また、撮影画像データを表示するためのモニタ22aで構成される表示部22、被検体情報や各種コマンド信号の入力、X線照射条件や撮影条件の設定、心拍時相の選択、画像表示モードの選択、特徴点の入力等を行なう入力デバイスで構成される入力部23が設けられている。   Further, a display unit 22 including a monitor 22a for displaying captured image data, input of subject information and various command signals, setting of X-ray irradiation conditions and imaging conditions, selection of a heartbeat time phase, and an image display mode An input unit 23 composed of an input device for selecting, inputting feature points, and the like is provided.

さらに、撮影された画像や生成された画像データや心位相のデータ等の付帯情報及び各制御に必要な各種情報を記憶するための記憶部24と、記憶部24に記憶された多方向の撮影画像データから3次元画像データを再構成するための画像再構成部25が設けられる。   Furthermore, a storage unit 24 for storing incidental information such as a captured image, generated image data and cardiac phase data, and various types of information necessary for each control, and multi-directional imaging stored in the storage unit 24 An image reconstruction unit 25 for reconstructing 3D image data from image data is provided.

画像再構成部25は、ECG gated VCT (multiple pass)手法により第1の3次元画像データ51を再構成する第1の3次元画像データ再構成部26(第1構成手段)、Motion compensated VCT手法により第2の3次元画像データを再構成する第2の3次元画像データ再構成部27(第2構成手段)、第1の3次元画像データのデータと第2の3次元画像データのデータから第3の3次元画像データのデータを再構成する第3の3次元画像データ再構成部28(第3構成手段)を有する。第1の3次元画像データ及び第2の3次元画像データの切り出しを行う切出部39、重み付け処理をする重付部40が設けられている。   The image reconstruction unit 25 includes a first three-dimensional image data reconstruction unit 26 (first configuration unit) that reconstructs the first three-dimensional image data 51 using an ECG gated VCT (multiple pass) method, and a motion compensated VCT method. From the second three-dimensional image data reconstruction unit 27 (second construction means) for reconstructing the second three-dimensional image data, the first three-dimensional image data data and the second three-dimensional image data data A third three-dimensional image data reconstruction unit 28 (third configuration unit) for reconstructing the data of the third three-dimensional image data is provided. A cutout unit 39 that cuts out the first 3D image data and the second 3D image data, and a weighting unit 40 that performs weighting processing are provided.

さらに、第1の3次元画像データ再構成部26や第2の3次元画像データ再構成部27において呼吸や心拍動等に起因する多方向の撮影画像データ間での画像座標系における被検体像の位置ずれを補正するためのシステムとして、心電図解析部31、特徴点指定画像選択部32、特徴点指定支援部33、特徴点3次元座標計算部34、特徴点投影処理部35、特徴点抽出部(トラッキング部)36、位置ズレ計算部37、動き補正部38、が設けられている。上述した各部は、制御部21によって統括して制御される。   Further, in the first three-dimensional image data reconstruction unit 26 and the second three-dimensional image data reconstruction unit 27, the subject image in the image coordinate system between the multidirectional captured image data caused by respiration, heartbeat, etc. As a system for correcting the positional deviation, an electrocardiogram analysis unit 31, a feature point designation image selection unit 32, a feature point designation support unit 33, a feature point three-dimensional coordinate calculation unit 34, a feature point projection processing unit 35, a feature point extraction A part (tracking part) 36, a position deviation calculation part 37, and a motion correction part 38 are provided. Each unit described above is controlled by the control unit 21 in an integrated manner.

心電図解析部6は、被検体Pに装着された心電計(不図示)で得られる心電図41から撮影画像データを撮影した時の心位相を同定する。心位相とはR波とR波の間隔における各時点を表し、通常は百分率で表す。各々の撮影画像データ42には撮影時の心位相のデータが関連付けられる。   The electrocardiogram analysis unit 6 identifies the cardiac phase when the captured image data is captured from the electrocardiogram 41 obtained by an electrocardiograph (not shown) attached to the subject P. The cardiac phase represents each point in time between the R wave and the R wave, and is usually expressed as a percentage. Each captured image data 42 is associated with cardiac phase data at the time of imaging.

特徴点指定画像選択部32は、画像記憶部に記憶された多方向の撮影画像データから同じ心位相に対応する少なくとも2フレームの撮影画像データ(キー画像データ42a)を選択する。初期的条件のもとでは、例えば拡張末期に取得された5フレームの撮影画像データが、キー画像データ42aとして、選択される。   The feature point designation image selection unit 32 selects at least two frames of captured image data (key image data 42a) corresponding to the same cardiac phase from multidirectional captured image data stored in the image storage unit. Under the initial conditions, for example, five frames of captured image data acquired at the end of expansion are selected as key image data 42a.

特徴点3次元座標計算部34は、複数のキー画像データ42aについて、表示画像上において指定された複数の特徴点43aの2次元座標と、各々の撮影方向とに基づいて、幾何学的計算により特徴点43aの3次元座標(3次元位置)を計算する。特徴点投影処理部は、計算された特徴点43aの3次元座標と、キー画像以外の残りの画像データ(ノンキー画像データ)42bの撮影方向とに基づいて、ノンキー画像データ42b各々に投影される特徴点43bの2次元座標を計算する。特徴点トラッキング部は、ノンキー画像データ42b各々から特徴点43bを抽出する。位置ズレ計算部37は、特徴点投影処理部により計算された特徴点43aの2次元座標に対する、特徴点抽出部によりノンキー画像データ42bから抽出した特徴点43bの2次元座標の位置ズレをノンキー画像データ42b毎に計算する。動き補正部は、位置ズレ計算部で計算された位置ズレに従って、ノンキー画像データ42bの位置を補正する。キー画像データ42aと、位置補正されたノンキー画像データ42bとに基づいて、3次元の第2の3次元画像データ52が再構成される。   The feature point three-dimensional coordinate calculation unit 34 performs geometric calculation on the plurality of key image data 42a based on the two-dimensional coordinates of the plurality of feature points 43a designated on the display image and the respective shooting directions. The three-dimensional coordinates (three-dimensional position) of the feature point 43a are calculated. The feature point projection processing unit projects each non-key image data 42b based on the calculated three-dimensional coordinates of the feature point 43a and the shooting direction of the remaining image data (non-key image data) 42b other than the key image. The two-dimensional coordinates of the feature point 43b are calculated. The feature point tracking unit extracts feature points 43b from each of the non-key image data 42b. The positional deviation calculation unit 37 calculates the positional deviation of the two-dimensional coordinates of the feature points 43b extracted from the non-key image data 42b by the feature point extraction unit with respect to the two-dimensional coordinates of the feature points 43a calculated by the feature point projection processing unit. Calculation is performed for each data 42b. The motion correction unit corrects the position of the non-key image data 42b according to the position shift calculated by the position shift calculation unit. Based on the key image data 42a and the position-corrected non-key image data 42b, the three-dimensional second three-dimensional image data 52 is reconstructed.

撮影装置で得られた複数の撮影画像データ42から3次元画像データを再構成する手法の例を説明する。   An example of a method for reconstructing 3D image data from a plurality of captured image data 42 obtained by the imaging apparatus will be described.

図3及び図4に示すCoronary tree(coronary 3D, coronary tree)手法は、心臓血管立体表示であり、2方向から造影された血管を撮影し、撮影データからEpipolar幾何理論を用いて立体構築を実現したものである。   The coronary tree (coronary 3D, coronary tree) method shown in FIG. 3 and FIG. 4 is a three-dimensional display of cardiovascular blood vessels, and images three-dimensionally contrasted blood vessels and realizes three-dimensional construction using Epipolar geometric theory from the image data. It is a thing.

図3のフロー図に示すように、まず、2方向から被検体Pの対象範囲の撮影を行い(ST101)、二つの動画を取得し(ST102)、2フレームの画像を選択する(ST103)。得られた2フレームの投影画像上で対応点をマニュアルで指定し(ST104)、Epipolar幾何の理論により、血管を立体構築(ST105)する。   As shown in the flowchart of FIG. 3, first, imaging of the target range of the subject P is performed from two directions (ST101), two moving images are acquired (ST102), and two-frame images are selected (ST103). Corresponding points are manually designated on the obtained two-frame projection image (ST104), and a blood vessel is three-dimensionally constructed (ST105) by Epipolar geometry theory.

図4を用いて説明すると、点Aに投影されるobjectは、3次元空間内では線Bのどこかに存在するが、特定できない。一方、異なる方向から撮影した投影画像をFrontal画像とすると、線Bは線Cのように投影されることから、objectは線C上のどこかに投影されていることになる。Frontal面でユーザが対応点を指定すると、そのobjectの3次元空間内の位置が定まる。すなわち、3次元位置を特定するには、lateral画像上とFrontal画像上での対応点座標を指定することが必要となる。   Referring to FIG. 4, the object projected onto the point A exists somewhere on the line B in the three-dimensional space, but cannot be specified. On the other hand, when a projected image taken from a different direction is a frontal image, the line B is projected like the line C, and therefore the object is projected somewhere on the line C. When the user designates a corresponding point on the Front plane, the position of the object in the three-dimensional space is determined. That is, in order to specify a three-dimensional position, it is necessary to designate corresponding point coordinates on the lateral image and the front image.

このCoronary tree手法は、2次元投影画像から簡易に立体構築ができるという利点がある。なお、上記のように2方向で構成する場合は仮定される血管断面は楕円となるが、2方向からのみならず多方向画像を用いても構成可能である。多方向の場合はより次元の高い血管断面が仮定可能になる。   This Coronary tree method has an advantage that a three-dimensional structure can be easily constructed from a two-dimensional projection image. Note that, when configured in two directions as described above, the assumed blood vessel cross section is an ellipse, but it can be configured not only from two directions but also using a multidirectional image. In the case of multiple directions, a higher-dimensional blood vessel cross section can be assumed.

VCT手法は、図5に示すように、被検体Pの周りでX線管11と検出器12を回転して撮影した複数枚(複数フレーム、複数方向)の撮影画像データ42を用いて再構成する手法である。具体的には、例えば5秒間かけて200方向から200枚の撮影画像データを撮影し、その約200枚からFeldkamp法などの再構成手法を用いて再構成処理を行い、3次元画像データを得る。この処理方法は主に静止臓器に対して用いられている。   As shown in FIG. 5, the VCT technique is reconstructed using a plurality of (multiple frames, multiple directions) captured image data 42 captured by rotating the X-ray tube 11 and the detector 12 around the subject P. It is a technique to do. Specifically, for example, 200 pieces of photographed image data are photographed from 200 directions for 5 seconds, and reconstruction processing is performed from about 200 pieces of images using a reconstruction technique such as the Feldkamp method, thereby obtaining three-dimensional image data. . This processing method is mainly used for stationary organs.

ECG gated VCT手法は、上記VCT手法と同様に図5に示すように被検体Pの周りにX線管11と検出器12を回転して撮影した複数枚(複数フレーム、複数方向)の撮影画像データ42のうち、図6に示す被検体の心電図41における心位相がほぼ一致するフレーム42aのみを使用して再構成する手法である。すなわち、この心位相における画像が特定の動作状態における画像となる。   In the ECG gated VCT technique, a plurality of images (multiple frames, multiple directions) taken by rotating the X-ray tube 11 and the detector 12 around the subject P as shown in FIG. This is a method of reconstructing using only the frame 42a in which the cardiac phases in the electrocardiogram 41 of the subject shown in FIG. That is, an image in this cardiac phase becomes an image in a specific operation state.

具体的には例えば、4秒間かけて200方向から200枚を撮影し、その間に心臓が3心拍したとする。1心拍のうちほぼ同じ心位相(特定の動作状態)とみなしてよいのを約2割とすると、約40枚の撮影画像データ42が選択でき、約40枚の撮影画像データ42から再構成画像を得る。   Specifically, for example, it is assumed that 200 images are taken from 200 directions over 4 seconds, and the heart has 3 heartbeats during that time. Assuming that about 20% can be regarded as substantially the same heart phase (specific operation state) in one heartbeat, about 40 shot image data 42 can be selected, and a reconstructed image can be selected from about 40 shot image data 42. Get.

本手法によると、CoronaryTreeより多い枚数から再構成するため、画質は向上する。一方で、略同一心位相のフレームを使っているため、若干の心臓動きボケの影響が含まれてしまい、心臓血管がぼける。さらに再構成は一部フレームが存在しない再構成(歯抜け再構成)となるため、アーチファクトが発生する。   According to this method, image quality is improved because reconstruction is performed from a larger number than the number of CoronaryTrees. On the other hand, since frames having substantially the same cardiac phase are used, the influence of a slight heart motion blur is included and the cardiovascular is blurred. Furthermore, since the reconstruction is a reconstruction (tooth missing reconstruction) in which some frames do not exist, artifacts occur.

本実施形態で第1の3次元画像データとして用いるECG gated VCT(multiple pass)は、ECG gated VCT手法と同様に図5に示すように被検体Pの周りにX線管11と検出器12を回転させて撮影を行い、同一心位相のフレームの撮影画像データ42を用いるものであるが、ここでは図7に示すように複数回回動させて撮影を行い、それらを組みあせて、再構成することにより、歯抜け再構成の影響を低減する手法である。詳細は後述する。   An ECG gated VCT (multiple pass) used as the first three-dimensional image data in the present embodiment includes an X-ray tube 11 and a detector 12 around the subject P as shown in FIG. The image is rotated and photographed, and the photographed image data 42 of the frame of the same heart phase is used. Here, as shown in FIG. 7, the image is photographed by being rotated a plurality of times, and these are assembled and reconstructed. Thus, this is a technique for reducing the influence of the missing tooth reconstruction. Details will be described later.

本手法で再構成される第1の3次元画像データ51は、CoronaryTreeや単純ECG gated VCTより多い枚数から再構成するため、画質は向上する。しかし略同一心位相のフレームを使っているため、若干の心臓動きボケの影響が含まれてしまい、動きを伴う心臓血管がぼける画像となる。   Since the first three-dimensional image data 51 reconstructed by this method is reconstructed from a larger number than the number of CoronaryTrees or simple ECG gated VCTs, the image quality is improved. However, since the frames having substantially the same cardiac phase are used, the influence of a slight heart motion blur is included, and the cardiovascular with motion is blurred.

本実施形態で第2の3次元画像データとして用いるMotion compensated VCT手法は、観察対象領域の動きを補正する方法である。一般に、2D画像で補正してから再構成する手法と、再構成後に3Dで動き補正する手法が知られている。詳細は後述の第2再構成処理で説明する。本手法によると、全方向画像から再構成するため画質は最も良い。一方、動き補正処理を要するため、処理時間は長い。さらに、心臓はねじれるような運動をするため、心臓のある部分ではうまく動き補正できたとしても、他の部分にはうまく補正することが困難となる。この手法で得られる第2の3次元画像データ52は、観察対象の領域は画質が良いものの、周囲の画質は劣化する画像となる。   The Motion compensated VCT method used as the second three-dimensional image data in this embodiment is a method for correcting the movement of the observation target region. In general, there are known a method of reconstructing after correcting with a 2D image, and a method of correcting motion in 3D after reconstruction. Details will be described in a second reconstruction process described later. According to this method, the image quality is the best because it is reconstructed from omnidirectional images. On the other hand, since a motion correction process is required, the processing time is long. Furthermore, since the heart moves in a twisting manner, even if the motion can be corrected well in one part of the heart, it is difficult to correct it in the other part. The second three-dimensional image data 52 obtained by this method is an image in which the image quality of the surrounding area is good, but the image quality of the surrounding area is deteriorated.

図8には本実施例において全体的な動作概要を示している。図8に示すように、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置は、上述した異なる手法によって再構成された第1及び第2の3次元画像データのデータから、それぞれ所定の領域を切り出し、これらを合成して第3の3次元画像データ53を再構成する。例えば第1の3次元画像データ51は、ECG gated VCT(multiple pass)手法を採用して構成された骨と大動脈がシャープな3次元画像データである。一方、第2の3次元画像データ52は動き補正をするMotion compensated VCT手法を採用して構成された心臓部分がシャープな3次元画像データである。これらを合成することにより心臓部分と周囲の骨や大動脈が両方ともシャープな第3の3次元画像データ53を得る。   FIG. 8 shows an overall operation overview in this embodiment. As shown in FIG. 8, the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment are respectively obtained from the data of the first and second 3D image data reconstructed by the different methods described above. A predetermined area is cut out and synthesized to reconstruct the third three-dimensional image data 53. For example, the first three-dimensional image data 51 is three-dimensional image data having a sharp bone and aorta, which are configured by adopting an ECG gated VCT (multiple pass) method. On the other hand, the second three-dimensional image data 52 is three-dimensional image data having a sharp heart portion formed by employing a motion compensated VCT technique for correcting motion. By synthesizing these, the third three-dimensional image data 53 in which the heart portion and the surrounding bone and aorta are both sharp is obtained.

図9及び図10には本実施形態にかかる制御部の制御に基づく画像処理装置の一連の処理手順を流れ図で示している。   9 and 10 are flowcharts showing a series of processing procedures of the image processing apparatus based on the control of the control unit according to the present embodiment.

[画像収集処理]
まず、ST1(ステップ1)において、制御部の制御のもとで撮影装置が作動し、X線投影画像である撮影画像データを収集する。すなわち、図5に示すようにCアーム13が連続的に回転し、その間に撮影が繰り返される。例えば、Cアーム13は50度/秒の速度で回転される。それにより撮影方向の異なる複数の撮影画像データのデータが収集される。例えばCアーム13が4秒間に200度回転する間に200フレームの2次元の撮影画像データ42を収集する。
[Image collection processing]
First, in ST1 (step 1), the imaging apparatus operates under the control of the control unit, and captured image data that is an X-ray projection image is collected. That is, as shown in FIG. 5, the C-arm 13 is continuously rotated, and photographing is repeated during that time. For example, the C-arm 13 is rotated at a speed of 50 degrees / second. Thereby, data of a plurality of photographed image data having different photographing directions is collected. For example, 200 frames of two-dimensional captured image data 42 are collected while the C-arm 13 rotates 200 degrees for 4 seconds.

収集された撮影画像データのデータに、撮影方向のデータ等の付帯情報が関連付けられて記憶部に記憶され保存される(ST2)。   Accompanying information such as shooting direction data is associated with the collected image data and stored in the storage unit (ST2).

なお、ここでいう2次元の撮影画像データ42とは、収集したデータ、もしくは収集後に加工されたデータ、これらの2次元画像データが複数方向(複数枚)(複数フレーム)集まったものを含む意味で用いている。   Here, the two-dimensional captured image data 42 includes collected data, data processed after collection, and a collection of these two-dimensional image data in a plurality of directions (multiple frames) (multiple frames). Used in.

また、第1、第2、第3の3次元画像データ51,52,53は、表示される画像を作成する元になる仮想3次元画像として図示及び説明するとともに第1、第2、第3領域A1,A2,A3は、その仮想3次元画像における範囲として対応させて示している。   The first, second, and third three-dimensional image data 51, 52, and 53 are illustrated and described as virtual three-dimensional images from which a displayed image is created, and the first, second, and third Regions A1, A2, and A3 are shown as corresponding ranges in the virtual three-dimensional image.

また、撮影画像データ42、第1、第2、第3の3次元画像データ51,52,53、表示用画像データ54を元にした3次元あるいは2次元の画像について、符号にそれぞれMを追加した対応する撮影画像M42、第1画像M51,第2画像M52,第3画像M53、表示画像54として示す。   Further, M is added to the code for each of the three-dimensional or two-dimensional images based on the photographed image data 42, the first, second, and third three-dimensional image data 51, 52, and 53 and the display image data 54. The corresponding captured image M42, first image M51, second image M52, third image M53, and display image 54 are shown.

[第1再構成処理]
第1再構成部では、記憶部に記憶された撮影画像データ42から、ECG gated−VCT手法を用いて、第3領域A3における3次元の第1の3次元画像データ51を再構成する。第1の3次元画像データ51、第2の3次元画像データ52、第3の3次元画像データ53は、上記収集した2次元の撮影画像データ42を再構成して得られるもので、3次元(x、y、z)のデータから成る画像データである。
[First reconstruction process]
In the first reconstruction unit, the three-dimensional first three-dimensional image data 51 in the third region A3 is reconstructed from the photographed image data 42 stored in the storage unit using the ECG gated-VCT method. The first three-dimensional image data 51, the second three-dimensional image data 52, and the third three-dimensional image data 53 are obtained by reconstructing the collected two-dimensional captured image data 42, and are three-dimensional. This is image data composed of (x, y, z) data.

第1領域A1、第2領域A2、第3領域A3は、収集された撮影画像データ42に関する情報や入力デバイス5の入力や各種設定等の条件に基づいて決定される。   The first area A1, the second area A2, and the third area A3 are determined based on the collected information about the captured image data 42 and the input device 5 input and various settings.

例えば図11に示すように、撮影画像データ42の中心C1(x,y,z)を中心を基準として決定され、アイソセンターC1を中心とした153.6x153.6x153.6mmの領域を第33次元画像データの作成対象となる第3領域A3とする。また、アイソセンターC1を中心とした51.2x51.2x51.2mmの領域を第2領域A2とし、第3領域A3から第2領域A2を除いた周辺領域を第1領域A1とする。例えば、心臓が撮影画像データ42の中心に位置し、骨などの動かない臓器は周辺に位置している、と仮定できる場合等に用いられる。 For example, as shown in FIG. 11, an area of 153.6 × 153.6 × 153.6 mm centered on the isocenter C1 is determined based on the center C1 (x 1 , y 1 , z 1 ) of the captured image data 42 as a reference. It is assumed that the third region A3 is a creation target of the 33D image data. Further, an area of 51.2 × 51.2 × 51.2 mm centered on the isocenter C1 is defined as a second area A2, and a peripheral area obtained by removing the second area A2 from the third area A3 is defined as a first area A1. For example, it is used when it can be assumed that the heart is located at the center of the captured image data 42 and a non-moving organ such as a bone is located in the vicinity.

図6に示すように、被検体の心電図41における心位相がほぼ一致するフレームを選択する(ST3)。同じ心位相では、例えば血管はほぼ同じ三次元位置にある。選択されたほぼ同位相の画像データ42aから、第1の3次元画像データ51としての三次元データを構成する(ST4)。再構成された第1の3次元画像データ51は記憶部に保存される(ST5)。   As shown in FIG. 6, a frame in which the cardiac phases in the electrocardiogram 41 of the subject substantially coincide is selected (ST3). In the same cardiac phase, for example, the blood vessels are in approximately the same three-dimensional position. Three-dimensional data as the first three-dimensional image data 51 is constructed from the selected image data 42a having substantially the same phase (ST4). The reconstructed first three-dimensional image data 51 is stored in the storage unit (ST5).

再構成された第1の3次元画像データ51は、例えば図12に示すように、アイソセンターC1を中心とした153.6x153.6x153.6mmの領域をカバーし、256x256x256、ボクセルピッチ0.60mmの3次元画像データとする。この第1の3次元画像データには心臓血管と骨を含む全体が描出されている。この第1の3次元画像データ51では、心臓周辺の骨部分は正確に構成されているが、心臓の血管位置が動くため、血管が1点に結像されず、動きぼけが生じている。   The reconstructed first three-dimensional image data 51 covers, for example, an area of 153.6 × 153.6 × 153.6 mm centered on the isocenter C1, as shown in FIG. 12, and has a 256 × 256 × 256, voxel pitch of 0.60 mm. Let it be three-dimensional image data. In the first three-dimensional image data, the whole including the cardiovascular vessel and the bone is depicted. In the first three-dimensional image data 51, the bone portion around the heart is accurately configured. However, since the blood vessel position of the heart moves, the blood vessel is not imaged at one point, and motion blur occurs.

[第2再構成処理]
一方、第2再構成部において、ST13において記憶部に記憶された2次元投影データから、第1の3次元画像データ51とは異なるmotion compensated VCT手法によって、少なくとも第2領域A2における第2の3次元画像データが再構成される。ここでは第2領域A2と第1領域A1を含む第3領域A3に対応する全範囲について第2の3次元画像データを再構成する場合について説明する。上述したように、第2領域A2は、アイソセンターC1を中心とした51.2x51.2x51.2mmの領域である。
[Second reconstruction process]
On the other hand, the second reconstruction unit uses the motion compensated VCT technique different from the first three-dimensional image data 51 from the two-dimensional projection data stored in the storage unit in ST13 to at least the second 3 in the second region A2. The dimensional image data is reconstructed. Here, a case will be described in which the second 3D image data is reconstructed for the entire range corresponding to the third area A3 including the second area A2 and the first area A1. As described above, the second area A2 is an area of 51.2 × 51.2 × 51.2 mm with the isocenter C1 as the center.

図13に示すように、上記第1のデータを生成する際に撮影した拡張末期の数フレームのキー画像データ42aが入力順番に1フレームずつ表示され、操作者による入力デバイス5の指定操作に従って各キー画像上で特徴点43が指定される(ST6)。   As shown in FIG. 13, key image data 42a of several frames in the end diastole captured when the first data is generated is displayed one frame at a time in the input order, and each frame is displayed according to the designation operation of the input device 5 by the operator. A feature point 43 is designated on the key image (ST6).

特徴点43としては、解剖学上(形態上)で比較的識別容易な例えば血管分岐部、狭窄部、ステントのマーカーが採用される。   As the feature point 43, for example, a blood vessel bifurcation, a stenosis, or a stent marker that is relatively easy to identify in terms of anatomy (form) is employed.

全てのキー画像データ42aについて特徴点43の指定が完了すると、特徴点3次元座標計算部9により特徴点43の3次元座標が計算される(ST7)。計算された特徴点の3次元座標と、キー画像データ42a以外の残りのノンキー画像データ42bの撮影方向とに基づいて、再投影処理により、特徴点43が投影されるノンキー画像データ42b上での特徴点43bの2次元座標が計算される(ST8)。   When the specification of the feature point 43 is completed for all the key image data 42a, the feature point three-dimensional coordinate calculation unit 9 calculates the three-dimensional coordinates of the feature point 43 (ST7). Based on the calculated three-dimensional coordinates of the feature points and the shooting directions of the remaining non-key image data 42b other than the key image data 42a, the re-projection process is performed on the non-key image data 42b on which the feature points 43 are projected. The two-dimensional coordinates of the feature point 43b are calculated (ST8).

続いて、複数のノンキー画像データ42bにて特徴点が抽出される(ST9)。抽出された特徴点の2次元座標を、実際上の特徴点の2次元座標と称して、上記計算の特徴点の2次元座標と区別する。抽出処理としては、画像に映っている被検体像はフレーム間でほんの少ししか移動しない状況において、特徴点として第Nフレーム目の画像において例えば31×31程度の小さな領域を設定した場合、隣接する第(N+1)フレーム目のノンキー画像において最も形態類似した領域を探すことであり、これを逐次繰りかえすことにより、最初に設定した小領域の特徴点の移動軌跡を得ることができる(トラッキング)。類似度の計算方法としては、Sum of square distance、 Sum of square distance、相互相関法、Mutual informationなどの周知の計算方法を任意に採用すればよい。   Subsequently, feature points are extracted from the plurality of non-key image data 42b (ST9). The two-dimensional coordinates of the extracted feature points are referred to as the actual two-dimensional coordinates of the feature points, and are distinguished from the two-dimensional coordinates of the calculated feature points. As an extraction process, in a situation where the subject image shown in the image moves only slightly between frames, if a small region of about 31 × 31, for example, is set as the feature point in the image of the Nth frame, it is adjacent. This is to search for a region having the most similar shape in the non-key image of the (N + 1) th frame, and by repeating this, it is possible to obtain the trajectory of the feature point of the first set small region (tracking). As a calculation method of the similarity, a well-known calculation method such as Sum of square distance, Sum of square distance, a cross-correlation method, and Mutual information may be arbitrarily adopted.

位置ズレ計算部37では、計算の特徴点の2次元座標に対する実際上の特徴点の2次元座標の位置ズレが動き補正関数として計算される(ST10)。計算された位置ズレに従ってノンキー画像を位置補正し(ST11)、補正したノンキー画像データ42bとキー画像データ42aとに基づいて3次元画像データのデータが再構成される(ST12)。   In the positional deviation calculation unit 37, the positional deviation of the actual two-dimensional coordinates of the feature points with respect to the two-dimensional coordinates of the calculated characteristic points is calculated as a motion correction function (ST10). The position of the non-key image is corrected according to the calculated position shift (ST11), and the data of the three-dimensional image data is reconstructed based on the corrected non-key image data 42b and key image data 42a (ST12).

生成された第2の3次元画像データは、記憶部に保存される(ST13)。   The generated second 3D image data is stored in the storage unit (ST13).

再構成された第2の3次元画像データ52は第1の3次元画像データと同じ2次元画像から異種法で生成された画像データである。例えば図14に示すように、アイソセンターC1を中心とし、51.2x51.2x51.2mmの領域をカバーし、256x256x256、ボクセルピッチ0.20mmの3次元画像データとなる。   The reconstructed second three-dimensional image data 52 is image data generated by the heterogeneous method from the same two-dimensional image as the first three-dimensional image data. For example, as shown in FIG. 14, the center of the isocenter C1 covers a region of 51.2 × 51.2 × 51.2 mm, resulting in three-dimensional image data of 256 × 256 × 256 and a voxel pitch of 0.20 mm.

この処理をした場合は、図16に示すように、aをbに動かす処理がおこなわれるため、bからの逆投影とcからの逆投影が1点dに結像され、血管はシャープな3次元画像データとなる。   When this process is performed, as shown in FIG. 16, a process of moving a to b is performed, so that the back projection from b and the back projection from c are imaged at one point d, and the blood vessel is sharp 3 It becomes dimensional image data.

一方で図16に示すように、骨などの静止臓器については、本来はiの部分に再構成されるべきものであるが、血管のための動き補正のため、eがfに移動され、fからの逆投影とgからの逆投影がhに結像されてしまう。よって本来iにあるべきものがhの場所にいわゆる虚像としてでてしまう。   On the other hand, as shown in FIG. 16, a stationary organ such as a bone should originally be reconstructed into a portion i, but e is moved to f for motion correction for blood vessels, and f The back projection from and the back projection from g are imaged on h. Therefore, what should originally be in i appears as a so-called virtual image in the place of h.

したがって、図14に示すように、第2の3次元画像データ52では、中心部分の心臓血管がシャープに描出されている一方で、周辺の骨等の部分はぼやけている。   Therefore, as shown in FIG. 14, in the second three-dimensional image data 52, the heart blood vessel in the central portion is depicted sharply, while the surrounding bones and the like are blurred.

[第3再構成処理]
第3再構成部において、上記異なる手法で再構成された第1の3次元画像データ51と第2の3次元画像データ52とを合成し、第3の3次元画像データ53を再構成する。
[Third reconfiguration processing]
In the third reconstruction unit, the first three-dimensional image data 51 and the second three-dimensional image data 52 reconstructed by the different methods are combined to reconstruct the third three-dimensional image data 53.

まず、重付部40において、入力部23の入力内容や設定内容等の各条件にしたがって、重み付け処理をする(ST14)。ここでは図17に示すように、第3の3次元画像データにおける割合である重み付け係数を決定し、この重み付け係数に応じて合成処理を行う。すなわち、重み付け係数が100または0でない範囲においては、第1領域A1と第2領域A2が重なっていることになる。   First, in the weighting unit 40, weighting processing is performed in accordance with each condition such as input content and setting content of the input unit 23 (ST14). Here, as shown in FIG. 17, a weighting coefficient that is a ratio in the third three-dimensional image data is determined, and a synthesis process is performed in accordance with the weighting coefficient. That is, in the range where the weighting coefficient is not 100 or 0, the first area A1 and the second area A2 overlap.

ここでは、第2の3次元画像データ重み付け係数は、第2領域A2においては100%、第1領域A1においては0%とし、同様に第1の3次元画像データの重み付け係数は第1領域において100%、第2領域において0%とするため、はっきりと領域毎に画像が異なるものとなる。なお、図17においては、説明のため2次元で示している。   Here, the second 3D image data weighting coefficient is 100% in the second area A2, and 0% in the first area A1, and similarly, the weighting coefficient of the first 3D image data is in the first area. Since 100% is set to 0% in the second area, the image is clearly different for each area. Note that FIG. 17 shows a two-dimensional diagram for explanation.

切出部39において、領域と重み付けを含む各種条件に基づき、第1の3次元画像データ51と第2の3次元画像データ52の必要な領域に対応する部分を切り出す。ここでは、第3領域A3について構成された第1の3次元画像データ51から第1領域A1に対応する部分を切り出し処理する(ST15)。   The cutout unit 39 cuts out portions corresponding to necessary regions of the first three-dimensional image data 51 and the second three-dimensional image data 52 based on various conditions including regions and weights. Here, a portion corresponding to the first area A1 is cut out from the first three-dimensional image data 51 configured for the third area A3 (ST15).

切り出した各画像を合成する(ST16)。まず、アイソセンターC1を中心とした51.2x51.2x51.2の第2領域A2に、第2の三次元画像データ52を当てはめる。ついで、全体領域(第3領域A3)から第2領域A2を除いた周囲の第1領域A1に第1の3次元画像データ51を補間して当てはめて合成する。すなわち、第1領域A1と前記第2領域A2とは互いに連続する隣り合う領域となる。   The cut out images are synthesized (ST16). First, the second three-dimensional image data 52 is applied to the second region A2 of 51.2 × 51.2 × 51.2 centered on the isocenter C1. Next, the first three-dimensional image data 51 is interpolated and applied to the surrounding first area A1 excluding the second area A2 from the entire area (third area A3) and synthesized. That is, the first region A1 and the second region A2 are adjacent to each other.

ここで、第3の3次元画像データ53のボクセルピッチは、第1の3次元画像データ51と第2の3次元画像データ52の小さいほうに合わせることとする。例えば、第1の3次元画像データはNmm/voxelとし、第2の3次元画像データはMmm/voxelとし、N>Mとすると、第3の3次元画像データ53はMmm/voxelとする。   Here, the voxel pitch of the third three-dimensional image data 53 is set to the smaller one of the first three-dimensional image data 51 and the second three-dimensional image data 52. For example, the first three-dimensional image data is Nmm / voxel, the second three-dimensional image data is Mmm / voxel, and if N> M, the third three-dimensional image data 53 is Mmm / voxel.

以上により再構成された第3の3次元画像データ53は例えば図18に示すように、153.6x153.6x153.6mmの第3領域A3をカバーし、768x768x768、ボクセルピッチ0.20mmの3次元画像データとする。この第3の3次元画像データ53は、中心部の心臓冠動脈部分には動き補正をする手法を用い、周囲の骨部分は動き補正をしない手法による画像を用いたため双方ともはっきりと表示される。これにより、動いている臓器も動いていない臓器もシャープに表示される。   For example, as shown in FIG. 18, the reconstructed third three-dimensional image data 53 covers the third area A3 of 153.6 × 153.6 × 153.6 mm, and the three-dimensional image of 768 × 768 × 768 and the voxel pitch 0.20 mm. Data. The third three-dimensional image data 53 is clearly displayed because both the heart coronary artery portion uses a motion correction method and the surrounding bone portion uses a motion correction method. Thereby, the moving organ and the non-moving organ are displayed sharply.

なお、本実施形態の第1の3次元画像データと第2の3次元画像データは同じ撮影系にて撮影された画像に基づくため、両者の座標軸は等しいので、合成のためのregistration等の特別な手続きは必要としない。   Since the first three-dimensional image data and the second three-dimensional image data of the present embodiment are based on an image photographed by the same photographing system, the coordinate axes of both are the same, so that special registration such as registration for synthesis is performed. There is no need for complicated procedures.

なお、このとき、立方体となる第2領域A2の境界のボクセルのアウトライン44が黒色等の濃い色で示されるようにする。   At this time, the outline 44 of the voxel at the boundary of the second region A2 that is a cube is displayed in a dark color such as black.

[保存処理]
ついで第3の3次元画像データに関する情報が記憶部に保存される(ST17)。ここでは、第3の3次元画像自体は保存せず、第1の3次元画像データ53のファイル名、第1の3次元画像データ51の付帯情報ファイル名、第2の3次元画像データのファイル名、第2の3次元画像データの付帯情報ファイル名、合成方法、デフォルト表示方法、等の情報で構成される組み合わせルールのみが保存される。この手法によれば、新たな画像保存が不要なためディスクサイズを無駄にしない。また、第1の3次元画像データ51のみの表示や第2の3次元画像データ52のみ表示といった操作が可能になる。
[Save processing]
Next, information regarding the third three-dimensional image data is stored in the storage unit (ST17). Here, the third 3D image itself is not saved, but the file name of the first 3D image data 53, the incidental information file name of the first 3D image data 51, the file of the second 3D image data Only the combination rule including information such as the name, the incidental information file name of the second 3D image data, the synthesis method, the default display method, etc. is stored. According to this method, since no new image storage is required, the disk size is not wasted. Further, operations such as displaying only the first three-dimensional image data 51 and displaying only the second three-dimensional image data 52 are possible.

[表示処理]
制御部21の制御に基づき、第3の3次元画像データを記憶部から読み出し、第3の3次元画像データ53から、表示用の画像データ54を生成する(S18)。例えば、ボリュームレンダリング法やMPR(Multi−Planar−Reconstruction)法、更には、MIP(Maximum−Intensity−Projection)法を適用して表示用の3次元画像や2次元画像である表示画像M54が生成される。表示部において、この生成された表示画像M54を表示する(ST19)。
[Display processing]
Based on the control of the control unit 21, the third three-dimensional image data is read from the storage unit, and display image data 54 is generated from the third three-dimensional image data 53 (S18). For example, by applying a volume rendering method, an MPR (Multi-Planar-Reconstruction) method, and a MIP (Maximum-Intensity-Projection) method, a display image M54 that is a three-dimensional image for display or a two-dimensional image is generated. The In the display unit, the generated display image M54 is displayed (ST19).

図19に表示画像M54を示す。この表示画像M54は第3の3次元画像データ53に対応する第3画像M53としての2次元投影画像を含んでいる。   FIG. 19 shows a display image M54. The display image M54 includes a two-dimensional projection image as the third image M53 corresponding to the third three-dimensional image data 53.

第3画像M53の隣には複数のボタン45が表示されている。このボタン45は入力部23のインターフェイスであって、3つのボタン45に夫々「1のみ表示」「2のみ表示」「3(両方)表示」と記載されている。ユーザーがこのボタン45をクリックすることで、第1の3次元画像データ51から生成される第1画像M51、第2の3次元画像データ52から生成される第2画像M52、第3の3次元画像データ53から生成される第3画像M53とを切り替えて表示することができるようになっている。   A plurality of buttons 45 are displayed next to the third image M53. This button 45 is an interface of the input unit 23, and “display only 1”, “display only 2”, and “display 3 (both)” are described on the three buttons 45, respectively. When the user clicks the button 45, the first image M51 generated from the first three-dimensional image data 51, the second image M52 generated from the second three-dimensional image data 52, and the third three-dimensional The third image M53 generated from the image data 53 can be switched and displayed.

本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置によれば、以下のような効果が得られる。   According to the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment, the following effects can be obtained.

周辺領域については第1の3次元画像データ51を用いるとともに中心の領域については第2の3次元画像データ52を用いて合成することにより、中心部分で動作する心臓血管も、周辺部分で静止している骨も大動脈もシャープになった再構成像が得られる。   By using the first three-dimensional image data 51 for the peripheral region and combining the second three-dimensional image data 52 for the central region, the cardiovascular that operates in the central portion also stops at the peripheral portion. Reconstructed images with sharpened bones and aorta are obtained.

このため、診断の際には、臓器同士の前後左右の関係がつかみやすくなり、どちらから見た画像か、どちらから見たら病変がはっきり見えるか、が直感的にわかりやすくなる。また、病変と骨(ランドマーク)の位置関係がわかるため、病変が肋骨の何番目と何番目の間にあるか、がわかりやすくなり、その後の手術をやる時の位置の目安となる。   Therefore, at the time of diagnosis, it becomes easy to grasp the front-rear and left-right relationship between organs, and it is intuitively easy to understand from which image the image is viewed and from which the lesion is clearly visible. In addition, since the positional relationship between the lesion and the bone (landmark) is known, it is easy to understand the position between the ribs and the position of the ribs, and it is a guide for the position when performing a subsequent operation.

特に心臓血管のインターベンション治療時の画像観察において利用されると、手技時間を早くする効果を生む。   In particular, when used in image observation during cardiovascular interventional treatment, it produces an effect of speeding up the procedure time.

例えば、エコー信号は骨で反射されてしまうため、心臓を狙う場合には骨と骨の間にビームを通す必要があるが、本手法の画像を見ると、肋骨と心臓血管の位置関係がわかるため、どの角度でエコーのプローブを向けたら心臓血管上の病変が描出できるかが簡単にわかり、エコーを投射する角度を決定しやすい。   For example, since echo signals are reflected by bones, it is necessary to pass a beam between bones when aiming at the heart, but the image of this method shows the positional relationship between the ribs and cardiovascular vessels Therefore, it is easy to determine at which angle the echo probe is pointed and the lesion on the cardiovascular can be depicted, and it is easy to determine the angle at which the echo is projected.

また、X線撮影する際に、縦隔と病変が重なる方向からX線を照射すると、画像で重なってしまい見にくいため、縦隔にかからない角度で撮影したい場合にも、本手法を適応すれば縦隔が3次元画像データで表現されるため、その後の撮影の撮影方法の選択が容易となる。すなわち、縦隔にかからないView Angleが直感的に容易に決定できる。   In addition, when X-ray imaging is performed, if X-rays are irradiated from the direction in which the mediastinum and lesion overlap, the images overlap and are difficult to see. Since the interval is expressed by the three-dimensional image data, it becomes easy to select a shooting method for subsequent shooting. That is, the View Angle that does not fall on the mediastinum can be determined easily and intuitively.

さらに、他の装置で撮影した3次元画像データと位置あわせする際、心臓が動くために位置合わせが困難な場合にも、本手法を用いれば骨が描出されるため、骨での位置あわせが可能となる。したがって、CTやMRと骨を用いたregistrationができる。   In addition, when aligning with 3D image data taken with other devices, even if alignment is difficult due to the movement of the heart, this technique can be used to depict bones, so alignment with bones is possible. It becomes possible. Therefore, registration using CT, MR, and bone can be performed.

また、心臓血管と他の血管をバイパス手術する場合、動き補正したほうが良く見える心臓血管側の端と、補正しないほうがよい他血管側の端の両方が同時に良くみえるようになる。   In addition, when performing bypass surgery on the cardiovascular and other blood vessels, both the end on the cardiovascular side that looks better when the motion is corrected and the end on the other blood vessel side that should not be corrected can be seen at the same time.

Biopsyのように体外から針を刺して手術や検査をおこなう場合、肋骨の間など針が通るパスを手術計画しやすくなり、戦略決定が容易になる。   When performing surgery or examination by inserting a needle from outside the body like Biopsy, it is easier to plan a path through which the needle passes, such as between the ribs, and it becomes easier to make a strategy decision.

[第2実施形態]
次に、本発明の第2実施形態にかかる画像処理装置、画像処理方法及びX線診断装置について図20及び図21を参照して説明する。なお、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置において、切り出し処理以外は上記第1実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様であるため説明を省略する。
[Second Embodiment]
Next, an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus according to a second embodiment of the present invention will be described with reference to FIGS. The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment are the same as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the first embodiment except for the clipping process. Is omitted.

本実施形態では、図20、図21に示されるように、第2の3次元画像データを構成する際に、特徴点指定(ST6)の前に、先に撮影画像データ42から第2の3次元画像データが必要な領域である第2領域の2次元画像を切り出す切出処理を行う(ST21)。すなわち、小さい領域である第2領域A2に対応する2次元画像データ42cを先に切り出してから、第2の3次元画像データ52を再構成する。以下、ST6以降は上記第1実施形態と同様である。   In the present embodiment, as shown in FIGS. 20 and 21, when the second three-dimensional image data is constructed, the second 3D image data 42 is first used before the feature point designation (ST6). A cut-out process is performed to cut out a two-dimensional image of the second region, which is a region requiring the two-dimensional image data (ST21). That is, the 2D image data 42c corresponding to the second area A2 which is a small area is cut out first, and then the second 3D image data 52 is reconstructed. Hereinafter, ST6 and subsequent steps are the same as those in the first embodiment.

一方、第1の3次元画像データ51は、上記第1実施形態と同様に第3領域A3に対応する範囲について構成する。   On the other hand, the first three-dimensional image data 51 is configured for a range corresponding to the third area A3, as in the first embodiment.

第3の3次元画像データ53を再構成する際には、これら第3領域A3についての第1の3次元画像データ51から第1領域に対応する部分を切り出し処理するとともに、予め第2領域A2のみについて構成された第2の3次元画像データ52をそれぞれの領域に当てはめることにより合成処理を行う。   When the third three-dimensional image data 53 is reconstructed, a portion corresponding to the first area is cut out from the first three-dimensional image data 51 for the third area A3, and the second area A2 is preliminarily processed. The composition process is performed by applying the second three-dimensional image data 52 configured only for each to the respective regions.

本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置においても上記第1実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様の効果を得られる。さらに、第2の3次元画像データについては、小さい範囲の第2領域A2のみについて再構成を行うため、処理速度の向上及び第2の3次元画像データ52の保存領域の節約が可能となる。   The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment can achieve the same effects as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the first embodiment. Furthermore, since the second 3D image data is reconstructed only in the second area A2 in a small range, the processing speed can be improved and the storage area of the second 3D image data 52 can be saved.

[第3実施形態]
次に、本発明の第3実施形態にかかる画像処理装置、画像処理方法及びX線診断装置について図22を参照して説明する。なお、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置において、被検体の対象以外は上記第1及び第2実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様であるため説明を省略する。
[Third Embodiment]
Next, an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus according to a third embodiment of the present invention will be described with reference to FIG. In addition, in the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment, the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the first and second embodiments, except for the subject, Since it is the same, description is abbreviate | omitted.

本実施形態では、被検体の心臓部位を第3領域A3とする。また、この心臓部位の血管のうちの例えば狭窄等の病変部位や分岐部分である特定の位置を第2領域A2として第2の3次元画像データを採用し、それ以外の周囲の血管部分を第1領域A1として第1の3次元画像データを適用する。   In the present embodiment, the heart region of the subject is the third region A3. In addition, the second three-dimensional image data is adopted as a second region A2 with a specific position that is a lesion part such as a stenosis or a branching part of the blood vessel of the heart part, and the other surrounding blood vessel part is the first part. The first three-dimensional image data is applied as one area A1.

なお、切り出し処理については第2実施形態と同様とし、少ない範囲である第2領域についてのみ第2の3次元画像データを構成する手法を採用する。   Note that the clipping process is the same as in the second embodiment, and a method of configuring the second three-dimensional image data only for the second region that is a small range is employed.

一方、第1及び第2の3次元画像データを構成する手法は上記第1実施形態と同様であり、第1の3次元画像データはECG gated VCT(multiple pass)手法により構成し、第2の3次元画像データはMotion compensated VCT手法により構成するものとする。   On the other hand, the method for constructing the first and second three-dimensional image data is the same as that in the first embodiment, and the first three-dimensional image data is constructed by the ECG gated VCT (multiple pass) method. It is assumed that the three-dimensional image data is configured by the Motion compensated VCT method.

上記手法により再構成された第1の3次元画像データ51は、図22に示すように、造影した心臓血管全体が起始部から末梢部までの全体が描出されているが、全体的にぼけた画像となっている。一方、第2の3次元画像データ52は、狭窄部位である特定の領域のみであるが描出されておりシャープな画像になっている。これらを合成して再構成された第3の3次元画像データ53は、小領域である第2領域A2に対応する一部分の血管のみ、動き補正された精巧な画像で描出され、周囲の血管については動き補正処理が行われていない画像で描出されている。   As shown in FIG. 22, the first three-dimensional image data 51 reconstructed by the above method depicts the entire contrasted cardiovascular region from the beginning to the distal portion, but is totally blurred. It is an image. On the other hand, the second three-dimensional image data 52 is drawn only in a specific region which is a stenosis site, and is a sharp image. In the third three-dimensional image data 53 reconstructed by synthesizing these, only a part of the blood vessels corresponding to the second region A2, which is a small region, is depicted as a motion-corrected elaborate image. Is depicted as an image that has not undergone motion compensation.

本実施形態によれば、対象とする被検体の範囲において、例えば狭窄等の病変や分岐等、特に観察したい特定の一部分のみに精巧な画像を得たい場合等に、処理量を必要最低限に抑えることができるため、処理速度の低下を防止することができる。   According to the present embodiment, the processing amount is minimized in the range of the target subject, for example, when it is desired to obtain an elaborate image of only a specific portion to be observed, such as a lesion or branching such as stenosis. Since it can suppress, the fall of processing speed can be prevented.

[第4実施形態]
次に、本発明の第4実施形態にかかる画像処理装置、画像処理方法及びX線診断装置について図23を参照して説明する。なお、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置において、領域の決定方法以外は第1乃至第3実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様であるため説明を省略する。
[Fourth Embodiment]
Next, an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus according to a fourth embodiment of the present invention will be described with reference to FIG. The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment are the same as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the first to third embodiments except for the region determination method. Therefore, the description is omitted.

本実施形態では、図23に示されるように、第1及び第2領域A1,A2は、ユーザーによって指定される特定点C2に基づいて決定される。なお、第3領域は、第1実施形態と同様に収集された撮影画像データ42のアイソセンターC1を中心とした所定範囲とされる。   In the present embodiment, as shown in FIG. 23, the first and second regions A1, A2 are determined based on a specific point C2 designated by the user. The third area is a predetermined range centered on the isocenter C1 of the captured image data 42 collected as in the first embodiment.

図24のフローに示すように、本実施形態においては、ST2の処理の後、ユーザは、入力デバイス5の操作により、例えば画面表示された撮影画像データ上の特定の位置をクリックする等により、特定点C2(ランドマーク)を指定する(ST21)。この特定点C2(x,y,z)を中心とした所定の領域が第2領域とされ、第3領域のうち第2領域を除いた範囲を第1領域A1とする。以降の処理は上記第1実施形態と同様である。 As shown in the flow of FIG. 24, in the present embodiment, after the process of ST2, the user operates the input device 5, for example, by clicking on a specific position on the captured image data displayed on the screen. A specific point C2 (landmark) is designated (ST21). A predetermined area centered on the specific point C2 (x 2 , y 2 , z 2 ) is defined as a second area, and a range excluding the second area in the third area is defined as a first area A1. The subsequent processing is the same as in the first embodiment.

例えば、上記第1実施形態のように心臓等の動く臓器と周囲の臓器と区別したい場合には撮影画像データにおける心臓の位置が特定点として入力され、第2実施形態のように特定の病変を観察したい場合には血管における狭窄や分岐の位置が特定点C2として選択指定されることとなる。   For example, when it is desired to distinguish between a moving organ such as the heart and surrounding organs as in the first embodiment, the position of the heart in the captured image data is input as a specific point, and a specific lesion is detected as in the second embodiment. When observation is desired, the position of stenosis or branching in the blood vessel is selected and specified as the specific point C2.

本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置においても他の実施形態と同様の効果を得られる。   In the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to this embodiment, the same effects as those of the other embodiments can be obtained.

さらに、被検体の種類や部位に応じた適当な領域を決定でき、例えば第2の3次元画像データを得たい心臓部位や、血管のうちの狭窄や分岐部分等の観察したい特定の部位が、撮影画像データの中心から外れている場合にも適用できる。   Furthermore, an appropriate region according to the type and part of the subject can be determined. For example, a heart part where second 3D image data is to be obtained, or a specific part that is desired to be observed, such as a stenosis or branching part of a blood vessel, The present invention can also be applied when the image data is not in the center.

[第5実施形態]
次に、本発明の第5実施形態にかかる画像処理装置、画像処理方法及びX線診断装置について図25を参照して説明する。なお、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置において、各領域に当てはめる画像の決定方法以外は上記各実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様であるため説明を省略する。
[Fifth Embodiment]
Next, an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus according to a fifth embodiment of the present invention will be described with reference to FIG. The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment are the same as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the above-described embodiments except for the method for determining an image applied to each region. Since it is the same, description is abbreviate | omitted.

本実施形態においては、第3の3次元画像データの第3領域A3において、各部位に当てはめる画像は、第1の3次元画像データ51と第2の3次元画像データ52のヒストグラム(不図示)を用いて、それぞれの画素輝度に応じて決定される。例えば、第2領域A2には、心臓血管のCT値に近い輝度の画像を適用し、第1領域には、骨のCT値に近い輝度の画像を適用して、合成することができる。また、この輝度が基準の値にどれだけ近いかによってその重み付けを変更してもよい。例えば第2領域A2には、心臓血管のCT値に近い輝度の画像を強調し、第1領域には、骨のCT値に近い輝度の画像を強調して合成する。   In the present embodiment, in the third region A3 of the third three-dimensional image data, the image applied to each part is a histogram (not shown) of the first three-dimensional image data 51 and the second three-dimensional image data 52. Is determined according to the luminance of each pixel. For example, an image having a luminance close to the CT value of the cardiovascular can be applied to the second region A2, and an image having a luminance close to the CT value of the bone can be applied to the first region. The weight may be changed depending on how close the luminance is to the reference value. For example, an image having a luminance close to the cardiovascular CT value is emphasized in the second region A2, and an image having a luminance close to the CT value of the bone is emphasized and synthesized in the first region.

本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置においても他の実施形態と同様の効果を得られる。さらに、本実施形態の画像決定方法によれば、ノイズ低減という効果が得られる。   In the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to this embodiment, the same effects as those of the other embodiments can be obtained. Furthermore, according to the image determination method of the present embodiment, an effect of noise reduction can be obtained.

[第6実施形態]
次に、本発明の第6実施形態にかかる画像処理装置、画像処理方法及びX線診断装置について図26乃至図28を参照して説明する。なお、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置において、重み付け処理以外は第1実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様であるため説明を省略する。
[Sixth Embodiment]
Next, an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus according to a sixth embodiment of the present invention will be described with reference to FIGS. The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment are the same as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the first embodiment except for the weighting process. Omitted.

本実施形態では、重み付け係数は第2領域A2の中心C2からの半径Rに依存した関数としてあらかじめ定めた関数を用いて決定される。関数とは、2値(図26)、リニア(図27)、γ関数(図28)、シグモイド関数、LUT(look up table)、などである。   In the present embodiment, the weighting coefficient is determined using a predetermined function as a function depending on the radius R from the center C2 of the second region A2. The functions are binary (FIG. 26), linear (FIG. 27), γ function (FIG. 28), sigmoid function, LUT (look up table), and the like.

この場合、図26乃至図28に示されるように、領域の中心からの距離に応じて重み付け係数が変わるため、第3の3次元画像データ53においては、第1の3次元画像データと第2の3次元画像データの境界がはっきりせず、除序に変化するように合成される。   In this case, as shown in FIGS. 26 to 28, the weighting coefficient changes according to the distance from the center of the region. Therefore, in the third three-dimensional image data 53, the first three-dimensional image data and the second three-dimensional image data The three-dimensional image data are not clearly defined, and are synthesized so as to change into the order.

本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置においても他の実施形態と同様の効果を得られる。さらに、境界領域にて違和感なく画像がつながっているように見えるという効果が得られる。   In the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to this embodiment, the same effects as those of the other embodiments can be obtained. Furthermore, an effect is obtained that the images appear to be connected in the boundary region without a sense of incongruity.

[第7実施形態]
次に、本発明の第7実施形態にかかる画像処理装置、画像処理方法及びX線診断装置について図29を参照して説明する。なお、本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置において、領域の決定方法以外は第1実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様であるため説明を省略する。
[Seventh Embodiment]
Next, an image processing apparatus, an image processing method, and an X-ray diagnostic apparatus according to Embodiment 7 of the present invention will be described with reference to FIG. The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment are the same as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the first embodiment except for the region determination method. Description is omitted.

本実施形態では、第2領域の範囲は、図29に示されるように、第2の3次元画像データの動き補正の量(動かす距離)に応じて決定される。   In the present embodiment, as shown in FIG. 29, the range of the second region is determined according to the motion correction amount (moving distance) of the second three-dimensional image data.

ここでは、第2の3次元画像データ構成の際にST10で算出した動き補正量の情報を元に、動き補正量が小さければ第2の3次元画像データの使用領域である第2領域A2を小さくし、動き補正量を大きければ第2の3次元画像データの使用領域である第2領域A2を広くとって第3の3次元画像データ構成(合成)の際の切り出し処理を行うこととする。   Here, based on the information of the motion correction amount calculated in ST10 when the second 3D image data is configured, if the motion correction amount is small, the second region A2 that is the use region of the second 3D image data is determined. If the motion correction amount is reduced and the motion correction amount is increased, the second area A2 that is the use area of the second 3D image data is widened, and the cutout process is performed in the third 3D image data configuration (synthesis). .

すなわち、もし血管のための動き補正の量が小さければ、動き補正をして構成された第2の3次元画像データにおいて、虚像が生成される位置も本来の臓器位置から近いため、広い領域までも精度よく再構成できていると考えられる。一方、動き補正量が大きい場合には虚像が生成される位置が本来の臓器位置から遠くなると考えられる。   That is, if the amount of motion correction for the blood vessel is small, the position where the virtual image is generated in the second 3D image data configured by motion correction is also close to the original organ position, so Can be reconstructed with high accuracy. On the other hand, when the motion correction amount is large, the position where the virtual image is generated is considered to be far from the original organ position.

したがって、動き補正量が小さい場合には、動き補正量が大きい場合よりも、第2の3次元画像データを適用できる範囲が広いと考えられる。一方、動き補正量が大きい場合は、小さい場合に比べて、特徴点(注目する心臓血管)近傍の極めて小領域のみについてのみ第2の3次元画像データが適用できる。 Therefore, when the motion correction amount is small, it is considered that the range in which the second 3D image data can be applied is wider than when the motion correction amount is large. On the other hand, when the motion correction amount is large, the second three-dimensional image data can be applied only to an extremely small region in the vicinity of the feature point (target cardiovascular) as compared with the case where the motion correction amount is small.

本実施形態にかかる画像処理装置、画像処理方法及びX線診断装置においても上記各実施形態にかかる画像処理装置、画像処理方法及びX線診断装置と同様の効果を得られる。さらに本実施形態では動き補正量に応じた適切な範囲で領域を決定することができるため、心臓の動きの度合いを考慮することで、より適切な第3の3次元画像データを得ることができる。   The image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the present embodiment can achieve the same effects as the image processing apparatus, the image processing method, and the X-ray diagnostic apparatus according to the above embodiments. Furthermore, in the present embodiment, since the region can be determined within an appropriate range according to the motion correction amount, more appropriate third 3D image data can be obtained by considering the degree of heart motion. .

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。変形例として、例えば以下の実施形態がある。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. As a modification, for example, there are the following embodiments.

上述した実施形態においては第3領域A3の中に第2領域は一箇所のみである場合について説明したが、これに限られるものではなく、複数箇所に別れていてもよい。例えば、図30に示すように、第3の3次元画像データ53に、第2の3次元画像データを2箇所以上用いることとしてもよい。この複数の第2領域は、例えば、第5実施形態における特定点C2の指定に加えて第2の特定点C3が指定されて決定され、あるいは、各種設定により予め決定されている。   In the embodiment described above, the case where the second area is only one place in the third area A3 has been described. However, the present invention is not limited to this, and the second area may be divided into a plurality of places. For example, as shown in FIG. 30, two or more second 3D image data may be used for the third 3D image data 53. The plurality of second regions are determined by specifying the second specific point C3 in addition to the specification of the specific point C2 in the fifth embodiment, or are determined in advance by various settings.

第3の3次元画像データ53は、第1の3次元画像データと、2箇所における第2の3次元画像データ52,55がそれぞれ第1領域A1及び2箇所の第2領域A2に当てはめられて合成される。   In the third three-dimensional image data 53, the first three-dimensional image data and the second three-dimensional image data 52 and 55 at two places are respectively applied to the first area A1 and the two second areas A2. Synthesized.

したがって、表示状態において、第3の3次元画像データ53は、第3領域A3の中に第2領域A2が2箇所あり、一方に第2の3次元画像データ52、他方に別の第2の3次元画像データ55が配置されている。第3領域A3から、これら2箇所の第2領域A2を除いた領域を第1領域としている。このときの表示画像M54においては図31に示すように、2箇所の第2領域A2と、第1領域の境界のアウトライン44の色を分けて、異なる色で表示している。さらに、第3画像M53から構成された表示画像M54の隣には、2つの第2画像M52が並列して表示されている。   Therefore, in the display state, the third three-dimensional image data 53 includes two second regions A2 in the third region A3, the second three-dimensional image data 52 on one side, and another second region A2 on the other side. Three-dimensional image data 55 is arranged. A region excluding these two second regions A2 from the third region A3 is defined as a first region. In the display image M54 at this time, as shown in FIG. 31, the colors of the two second areas A2 and the outline 44 at the boundary of the first area are divided and displayed in different colors. Further, two second images M52 are displayed side by side next to the display image M54 configured from the third image M53.

さらに上記では2種類の手法で構成した第1の3次元画像データ及び第2の3次元画像データを用いて第3の3次元画像データを構成した場合について説明したが、さらに異なる手法で用いた画像を採用して3種類以上の画像から1つの画像を再構成する場合にも本発明が適用できる。 In the above description, the case where the third 3D image data is configured by using the first 3D image data and the second 3D image data configured by two types of methods has been described. The present invention can also be applied to a case where one image is reconstructed from three or more types of images by adopting the image.

もちろん、表示方法も上記実施形態に限られるものではない。例えば、図32、33に示すように第1、第2、第3画像M51,M52,M53、収集した撮影画像M42のいずれか2つ以上を並列して表示しても良い。例えば図32では、第3画像M53と、第2画像M52を並列している表示例を示す。また、図33では、収集した撮影画像M41と二つの第2画像M52を並列するとともに、第2領域(ここでは2箇所ある場合を示す)と第1領域の境界のアウトライン44を撮影画像M41上に表示している。   Of course, the display method is not limited to the above embodiment. For example, as shown in FIGS. 32 and 33, any two or more of the first, second, and third images M51, M52, and M53 and the collected captured image M42 may be displayed in parallel. For example, FIG. 32 shows a display example in which the third image M53 and the second image M52 are arranged in parallel. In FIG. 33, the collected captured image M41 and the two second images M52 are arranged in parallel, and the outline 44 of the boundary between the second region (here, two locations are shown) and the first region is displayed on the captured image M41. Is displayed.

これらの実施形態の表示の際、複数の表示用の画像データ51、52、53、54、42等の観察角度を合わせ、同一方向から観察した画像を表示するようにする。また、一方の画像を進めると(回転させると)他方の表示用の画像データも回転することとして動作を連携させる。   In the display of these embodiments, the observation angles of a plurality of display image data 51, 52, 53, 54, 42, etc. are matched to display images observed from the same direction. Further, when one image is advanced (rotated), the other display image data is also rotated to link the operations.

第2画像M52のオリエンテーションは第3画像M53と同一としてもよい。この場合には、直感的にわかりやすいという効果が得られる。一方で、第2の3次元画像データのオリエンテーションは第3の3次元画像データと異なるものとしてもよい。この場合にはより見やすい方向から観察できるという効果が得られる。   The orientation of the second image M52 may be the same as that of the third image M53. In this case, an effect that it is intuitively easy to understand is obtained. On the other hand, the orientation of the second three-dimensional image data may be different from that of the third three-dimensional image data. In this case, the effect of being able to observe from a more easily viewable direction is obtained.

表示された状態で重み付け係数を任意に変更できるインターフェイス46をさらに備えてもよい。たとえば図34、図35に示すように、第2領域A2において、第1の3次元画像データと第2の3次元画像データの重み付け係数(この形態では)を変更できるボタンなどのインターフェイス46を備えている。ユーザのボタン操作により「100%」が選ばれると第2の3次元画像データの画素値で表示され、「0%」が選ばれると第1の3次元画像データの画素値で表示され、「50%」が選ばれると第1の3次元画像データの値と第2の3次元画像データの値の平均値で表示される。   An interface 46 that can arbitrarily change the weighting coefficient in the displayed state may be further provided. For example, as shown in FIGS. 34 and 35, in the second area A2, an interface 46 such as a button capable of changing the weighting coefficient (in this embodiment) between the first three-dimensional image data and the second three-dimensional image data is provided. ing. When “100%” is selected by the user's button operation, the pixel value of the second 3D image data is displayed. When “0%” is selected, the pixel value of the first 3D image data is displayed. When “50%” is selected, an average value of the value of the first three-dimensional image data and the value of the second three-dimensional image data is displayed.

図36に示すように、第3の3次元画像データ自体を表示せず、第3領域A3に対応する第1の3次元画像データ51において、第2領域の境界のアウトライン44だけを表示するとともに、その隣に第3の3次元画像データ53と第2の3次元画像データ52を並べて表示してもよい。   As shown in FIG. 36, the third 3D image data itself is not displayed, and only the outline 44 of the boundary of the second region is displayed in the first 3D image data 51 corresponding to the third region A3. Next, the third 3D image data 53 and the second 3D image data 52 may be displayed side by side.

図37に示すように、境界のアウトライン44の表示を省略してもよい。例えば重み付け係数を100%と0%の間の中間の値を用いて両者の境界を曖昧にする場合等に適している。   As shown in FIG. 37, the display of the outline 44 of the boundary may be omitted. For example, this is suitable when the weighting coefficient is an intermediate value between 100% and 0% and the boundary between the two is made ambiguous.

第2の3次元画像データと第1の3次元画像データを別ウインドに表示した場合に、第1の3次元画像データ表示に変えて、第3の3次元画像データを表示するように変更するインターフェイスを備えてもよい。   When the second 3D image data and the first 3D image data are displayed in separate windows, the display is changed to display the third 3D image data instead of the first 3D image data display. An interface may be provided.

第5実施形態における特定点C2の代わりに、入力デバイス5においてドラッグ等により、一定の範囲を入力し、この範囲を第2領域A2としてもよい。   Instead of the specific point C2 in the fifth embodiment, a certain range may be input by dragging or the like on the input device 5, and this range may be set as the second region A2.

第2実施形態では第2領域A2のみについて、先に切り出し処理を行ったが、上記第2領域A2の切り出しに代えて、あるいはこれに加えて、第1領域A1についても同様に撮影画像データ42の段階で切り出し処理をしてから第1の3次元画像データ51を再構成することとしてもよい。   In the second embodiment, the cutout process is performed on only the second area A2, but instead of or in addition to the cutout of the second area A2, the captured image data 42 is similarly applied to the first area A1. The first three-dimensional image data 51 may be reconstructed after the cut-out process is performed at this stage.

また上述した実施形態では、動く臓器として心臓血管を動かない臓器として骨と大動脈を例にとって述べたがこれに限定されるものではない。また、被検体の心拍情報を得るためにECG信号の収集を行なったが、例えば左室容積変化曲線など他の生体情報であってもよい。   Further, in the above-described embodiment, the bone and the aorta are described as examples of the organ that does not move the cardiovascular as the moving organ, but the present invention is not limited to this. Further, the ECG signal is collected in order to obtain heartbeat information of the subject, but other biological information such as a left ventricular volume change curve may be used.

一方、特定の動作状態として、拡張末期の画像を用いたが、これに限定されるものではなく、例えば収縮末期であってもよい。   On the other hand, the end-diastolic image is used as the specific operation state, but the image is not limited to this, and may be, for example, the end systole.

更に、上記の実施例では、撮影系を回動させながら所定間隔でX線撮影を行なって得られた投影データの中から拡張末期に得られた投影データを選択して再構成処理したが、所定心拍時相(拡張末期)においてのみX線撮影を行なうこととしてもよい。この場合被検体に対するX線の被曝量が減少する利点を有している。   Furthermore, in the above embodiment, the projection data obtained at the end of the expansion is selected and reconstructed from the projection data obtained by performing X-ray imaging at predetermined intervals while rotating the imaging system. X-ray imaging may be performed only in a predetermined heartbeat time phase (end diastole). In this case, there is an advantage that the amount of X-ray exposure to the subject is reduced.

第1の3次元画像データと第2の3次元画像データを得る再構成の手法は、一方を動き補正を用いる手法とし、他方を動き補正をしない手法としたが、これに限られるものではなく、第1の3次元画像データのいずれかが他方よりも分解能が高い画像を用いることとしてもよい。たとえば、第1の3次元画像データは8bit画像とし、第2の3次元画像データは8bit以上の画像であることを特徴とする手法を用いてもよい。この実施形態では例えば一部の領域のみ詳しく見たい等の場合に適しており、処理時間の短縮という効果を得ることができる。   The reconstruction method for obtaining the first three-dimensional image data and the second three-dimensional image data is one using motion correction and the other not using motion correction, but is not limited thereto. Alternatively, any one of the first three-dimensional image data may use an image having a higher resolution than the other. For example, a technique characterized in that the first 3D image data is an 8-bit image and the second 3D image data is an image of 8 bits or more may be used. This embodiment is suitable, for example, when only a part of the region is desired to be seen in detail, and the effect of shortening the processing time can be obtained.

上述の実施例では表示用の画像データ54は、再構成によって得られた第3の3次元画像データを、ボリュームデータをボリュームレンダリング処理した3次元画像データや、MIP画像データあるいはMPR画像データなどの2次元画像データを生成する場合について述べたが、これらに限定されない。   In the above-described embodiment, the display image data 54 is the third 3D image data obtained by reconstruction, such as 3D image data obtained by volume rendering processing of volume data, MIP image data, or MPR image data. Although the case of generating two-dimensional image data has been described, the present invention is not limited to this.

表示データ構成部29は、第3の3次元画像データ再構成部28に含まれることとしてもよい。すなわち、第1及び第2の3次元画像データを合成して第3の3次元画像データを構成する際に、領域の境界を示すライン44を付加して表示用の3次元画像データを構成することも可能である。   The display data configuration unit 29 may be included in the third 3D image data reconstruction unit 28. That is, when the first and second 3D image data are combined to form the third 3D image data, the line 44 indicating the boundary of the region is added to form the display 3D image data. It is also possible.

なお、上記の領域決定方法に代えて、2種類の第1及び第2の3次元画像データのうち画素値の大きい方の画像を採用することもできる。   Instead of the region determination method described above, an image having a larger pixel value among the two types of first and second three-dimensional image data may be employed.

また、保存処理に関し、上記実施形態に代えて、新しい画像として第3の3次元画像データ53を保存することとしてもよい。第3の3次元画像データにおけるボクセルピッチは均一とし、第1と第2の細かいほうにあわせる。本手法によれば、保存した画像を読み出す際に特殊な手続きが不要なため汎用性が高い。   Further, regarding the saving process, the third three-dimensional image data 53 may be saved as a new image instead of the above embodiment. The voxel pitch in the third three-dimensional image data is made uniform and is matched to the first and second finer ones. According to this method, since a special procedure is not required when reading a stored image, versatility is high.

一方、新しい画像として第3の3次元画像データを保存する際、第3の3次元画像データ53におけるボクセルピッチは不均一とし、別途保存する付帯情報データに画素ごとのボクセルピッチを記載する。本手法によれば、ディスクサイズが節約できる。   On the other hand, when the third 3D image data is stored as a new image, the voxel pitch in the third 3D image data 53 is not uniform, and the voxel pitch for each pixel is described in the additional information data stored separately. According to this method, the disk size can be saved.

なお、境界の表示は、表示用処理として保存後に行ったが、これに代えて、第3の3次元画像データの再構成の際に第1領域A1と第2領域A2の境界を含めて構成してもよい。   The boundary display is performed after the storage as the display process. Instead, the boundary is configured to include the boundary between the first area A1 and the second area A2 when the third three-dimensional image data is reconstructed. May be.

さらに各手順の順番や位置づけについても、上記各実施形態に限定されるものではない。   Further, the order and positioning of each procedure are not limited to the above embodiments.

また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の第1実施形態にかかるX線診断装置の構成を示すブロック図。1 is a block diagram showing a configuration of an X-ray diagnostic apparatus according to a first embodiment of the present invention. 同実施形態にかかるX線撮影装置の構成を示す説明図。Explanatory drawing which shows the structure of the X-ray imaging apparatus concerning the embodiment. coronary3D手法を説明するフロー図。The flow figure explaining coronary3D method. coronary3D手法の説明図。Explanatory drawing of coronary3D method. ECG gated VCT手法の説明図。Explanatory drawing of an ECG gated VCT technique. ECG gated VCT手法の説明図。Explanatory drawing of an ECG gated VCT technique. multiple pass ECG gated VCT手法の説明図。Explanatory drawing of a multiple pass ECG gated VCT method. 本発明の第1実施形態にかかる画像処理方法の全体的な動作概要を示す説明図。Explanatory drawing which shows the whole operation | movement outline | summary of the image processing method concerning 1st Embodiment of this invention. 同実施形態にかかる画像処理方法の手順を示すフロー図。The flowchart which shows the procedure of the image processing method concerning the embodiment. 同実施形態にかかる画像処理方法の手順を示すフロー図。The flowchart which shows the procedure of the image processing method concerning the embodiment. 同実施形態にかかる領域の説明図。Explanatory drawing of the area | region concerning the embodiment. 同実施形態にかかる第1の3次元画像データを示す説明図。Explanatory drawing which shows the 1st three-dimensional image data concerning the embodiment. 同実施形態にかかる第2の3次元画像の再構成処理の概要を示す説明図。Explanatory drawing which shows the outline | summary of the reconstruction process of the 2nd three-dimensional image concerning the embodiment. 同実施形態にかかる第1の3次元画像データを示す説明図。Explanatory drawing which shows the 1st three-dimensional image data concerning the embodiment. 同実施形態にかかる第2の3次元画像データの再構成処理の概要を示す説明図。Explanatory drawing which shows the outline | summary of the reconstruction process of the 2nd three-dimensional image data concerning the embodiment. 同実施形態にかかる第2の3次元画像データの再構成処理の概要を示す説明図。Explanatory drawing which shows the outline | summary of the reconstruction process of the 2nd three-dimensional image data concerning the embodiment. 同実施形態にかかる第3の3次元画像データの再構成処理の概要を示す説明図。Explanatory drawing which shows the outline | summary of the reconstruction process of the 3rd three-dimensional image data concerning the embodiment. 同実施形態にかかる第3の3次元画像データを示す説明図。Explanatory drawing which shows the 3rd three-dimensional image data concerning the embodiment. 同実施形態にかかる表示画像を表示したモニタの表示例を示す説明図。Explanatory drawing which shows the example of a display of the monitor which displayed the display image concerning the embodiment. 本発明の第2実施形態にかかる画像処理方法の全体的な動作概要を示す説明図。Explanatory drawing which shows the whole operation | movement outline | summary of the image processing method concerning 2nd Embodiment of this invention. 同実施形態にかかる画像処理方法の手順を示すフロー図。The flowchart which shows the procedure of the image processing method concerning the embodiment. 本発明の第3実施形態にかかる画像処理方法を示す説明図。Explanatory drawing which shows the image processing method concerning 3rd Embodiment of this invention. 本発明の第4実施形態にかかる画像処理方法を示す説明図。Explanatory drawing which shows the image processing method concerning 4th Embodiment of this invention. 同実施形態にかかる画像処理方法の手順を示すフロー図。The flowchart which shows the procedure of the image processing method concerning the embodiment. 本発明の第5実施形態にかかる画像処理方法を示す説明図。Explanatory drawing which shows the image processing method concerning 5th Embodiment of this invention. 本発明の第6実施形態にかかる画像処理方法における重み付け処理の一例を示す説明図。Explanatory drawing which shows an example of the weighting process in the image processing method concerning 6th Embodiment of this invention. 本発明の第6実施形態にかかる画像処理方法における重み付け処理の一例を示す説明図。Explanatory drawing which shows an example of the weighting process in the image processing method concerning 6th Embodiment of this invention. 本発明の第6実施形態にかかる画像処理方法における重み付け処理の一例を示す説明図。Explanatory drawing which shows an example of the weighting process in the image processing method concerning 6th Embodiment of this invention. 本発明の第7実施形態にかかる画像処理方法における重み付け処理の一例を示す説明図。Explanatory drawing which shows an example of the weighting process in the image processing method concerning 7th Embodiment of this invention. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention. 同実施形態にかかる画像処理方法における重み付け処理の一例を示す説明図。Explanatory drawing which shows an example of the weighting process in the image processing method concerning the embodiment. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention. 本発明の他の実施形態にかかる表示例を示す説明図。Explanatory drawing which shows the example of a display concerning other embodiment of this invention.

符号の説明Explanation of symbols

1…X線診断装置、5…入力デバイス、6…心電図解析部、7…特徴点指定画像選択部、9…次元座標計算部、10…X線撮影装置、11…X線管、12…X線検出器、
20…画像処理装置、21…制御部、22a…モニタ、22…表示部、23…入力部、
24…記憶部、25…画像再構成部、26…第1の3次元画像データ再構成部、
27…第2の3次元画像データ再構成部、28…第3の3次元画像データ再構成部、
29…表示データ構成部、31…心電図解析部、39…切出部、40…重付部、
42…撮影画像データ、44…アウトライン、51…第1の3次元画像データ、
52.55…第2の3次元画像データ、53…第3の3次元画像データ、
54…表示用画像データ、P…被検体、M42…撮影画像、M51…第1画像、
M52…第2画像、M53…第3画像、M54…表示画像、A1…第1領域、
A2…第2領域、A3…第3領域、C1…アイソセンター(中心)。
DESCRIPTION OF SYMBOLS 1 ... X-ray diagnostic apparatus, 5 ... Input device, 6 ... Electrocardiogram analysis part, 7 ... Feature point designation image selection part, 9 ... Dimension coordinate calculation part, 10 ... X-ray imaging apparatus, 11 ... X-ray tube, 12 ... X Line detector,
DESCRIPTION OF SYMBOLS 20 ... Image processing apparatus, 21 ... Control part, 22a ... Monitor, 22 ... Display part, 23 ... Input part,
24 ... Storage unit, 25 ... Image reconstruction unit, 26 ... First three-dimensional image data reconstruction unit,
27 ... second 3D image data reconstruction unit, 28 ... third 3D image data reconstruction unit,
29 ... display data configuration unit, 31 ... electrocardiogram analysis unit, 39 ... cut-out unit, 40 ... weighting unit,
42 ... Shooting image data, 44 ... Outline, 51 ... First three-dimensional image data,
52.55 ... second three-dimensional image data, 53 ... third three-dimensional image data,
54: Display image data, P: Subject, M42: Captured image, M51: First image,
M52 ... second image, M53 ... third image, M54 ... display image, A1 ... first region,
A2 ... second region, A3 ... third region, C1 ... isocenter (center).

Claims (22)

表示される画像を形成する元になる仮想3次元画像を生成する画像処理装置であって、
被検体の撮影画像データに基づいて特定の処理方法で前記被検体の第1の3次元画像データを構成する第1構成手段と、
第1構成手段とは異なる処理方法で前記被検体の第2の3次元画像データを構成する第2構成手段と、
前記仮想3次元画像の所定の第1領域に前記第1の3次元画像データを当てはめるとともに前記第1領域と異なる第2領域に前記第2の3次元画像データを当てはめて前記第1の3次元画像データと前記第2の3次元画像データとを合成することにより前記第1領域及び第2領域を含む第3領域における第3の3次元画像データを構成する第3構成手段と、
を備えたことを特徴とする画像処理装置。
An image processing device that generates a virtual three-dimensional image that forms a source of a displayed image,
First constructing means for constructing the first three-dimensional image data of the subject by a specific processing method based on the captured image data of the subject;
Second configuration means for configuring the second three-dimensional image data of the subject by a processing method different from the first configuration means;
The first three-dimensional image data is applied to a predetermined first region of the virtual three-dimensional image, and the second three-dimensional image data is applied to a second region different from the first region. A third constructing means for composing third 3D image data in a third region including the first region and the second region by combining image data and the second 3D image data;
An image processing apparatus comprising:
前記第3領域から、前記第2領域を除いた領域が前記第1領域であることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein an area obtained by removing the second area from the third area is the first area. 前記第3の3次元画像データに基づき2次元または3次元の表示用の画像データを作成する表示データ構成手段と、
前記表示用の画像データを表示する表示手段と、をさらに備えたことを特徴とする請求項1記載の画像処理装置。
Display data composing means for creating image data for two-dimensional or three-dimensional display based on the third three-dimensional image data;
The image processing apparatus according to claim 1, further comprising display means for displaying the image data for display.
前記第1の3次元画像データ及び前記第2の3次元画像データのうちの少なくとも一方は、前記被検体の複数方向からのX線撮影画像データに基づいて、coronary3D手法,coronary tree手法、VCT手法、ECG gated VCT手法、multiple pass ECG gated VCT手法、及びMotion compensated VCT手法、のうち少なくともいずれかの手法を用いて構成されることを特徴とする請求項1記載の画像処理装置。   At least one of the first three-dimensional image data and the second three-dimensional image data is based on X-ray image data from a plurality of directions of the subject, a coronary 3D method, a coronary tree method, a VCT method. The image processing apparatus according to claim 1, wherein the image processing apparatus is configured using at least one of an ECG gated VCT method, a multiple pass ECG gated VCT method, and a motion compensated VCT method. 前記第1領域及び前記第2領域のうち小さい領域を構成する前記第1または第2の3次元画像データは、少なくとも前記小さい領域に対応する被検体の撮影画像データから構成されることを特徴とする請求項1記載の画像処理装置。   The first or second three-dimensional image data constituting a small area of the first area and the second area is composed of at least captured image data of a subject corresponding to the small area. The image processing apparatus according to claim 1. 前記第3領域における前記第1領域及び前記第2領域は、第3の3次元画像データの中心位置からの距離に基づいて決定されることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first area and the second area in the third area are determined based on a distance from a center position of the third three-dimensional image data. 前記第3領域における前記第1領域及び前記第2領域は、前記第1の3次元画像データと前記第2の3次元画像データの輝度に基づいて決定されることを特徴とする請求項1記載の画像処理装置。   2. The first area and the second area in the third area are determined based on brightness of the first three-dimensional image data and the second three-dimensional image data. Image processing apparatus. 前記第2の3次元画像データが被検体の動きによる位置ずれを補正する動き補正処理を伴う手法で構成され、
前記第3領域における前記第2領域は、前記動き補正処理における補正量に基づいて決定されることを特徴とする請求項1記載の画像処理装置。
The second three-dimensional image data is constituted by a technique involving a motion correction process for correcting a positional shift due to the movement of the subject,
The image processing apparatus according to claim 1, wherein the second area in the third area is determined based on a correction amount in the motion correction process.
前記第1領域と前記第2領域の一部が共通し、
前記第3構成手段は、前記合成の際に、前記第1の3次元画像データと前記第2の3次元画像データの境界を滑らかにするための重み付け処理をすることを特徴とする請求項1記載の画像処理装置。
A portion of the first region and the second region are common,
The said 3rd structure means performs the weighting process for smoothing the boundary of the said 1st three-dimensional image data and the said 2nd three-dimensional image data at the time of the said synthesis | combination. The image processing apparatus described.
前記重み付け処理の度合いは、前記第1領域と前記第2領域との境界からの距離に基づいて決定されることを特徴とする請求項9記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the degree of the weighting process is determined based on a distance from a boundary between the first area and the second area. 前記表示データまたは前記第3の三次元画像における前記第1領域と前記第2領域との間には境界表示がされることを特徴とする請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein a boundary is displayed between the first area and the second area in the display data or the third three-dimensional image. 被検体に対してX線の照射と検出を行ない前記被検体の撮影画像データを取得する撮影手段と、
前記撮影手段を前記被検体の周囲に設定された所定の回動経路に沿って複数回回動させる移動手段と、を備えたことを特徴とする請求項1記載の画像処理装置。。
An imaging means for irradiating and detecting X-rays on the subject and acquiring captured image data of the subject;
The image processing apparatus according to claim 1, further comprising a moving unit that rotates the imaging unit a plurality of times along a predetermined rotation path set around the subject. .
表示される画像を形成する元になる仮想3次元画像を生成する画像処理方法であって、
被検体の撮影画像データに基づいて前記被検体の第1の3次元画像データを構成し、
前記第1の3次元画像データとは異なる処理方法で前記被検体の第2の3次元画像データを構成し、
所定の第1領域に前記第1の3次元画像データを適用するとともに前記第1領域と異なる第2領域に前記第2の3次元画像データを適用して前記第1の3次元画像データと前記第2の3次元画像データとを合成することにより前記第1領域及び第2領域を含む前記被検体の第3領域における第3の3次元画像データを構成することを特徴とする画像処理方法。
An image processing method for generating a virtual three-dimensional image from which a displayed image is formed,
Configuring the first three-dimensional image data of the subject based on the captured image data of the subject;
Configuring the second 3D image data of the subject by a different processing method from the first 3D image data;
Applying the first three-dimensional image data to a predetermined first region and applying the second three-dimensional image data to a second region different from the first region and the first three-dimensional image data and the An image processing method comprising: composing third 3D image data in a third region of the subject including the first region and the second region by combining the second 3D image data.
前記第3領域から、前記第2領域を除いた領域が前記第1領域であることを特徴とする請求項13記載の画像処理方法。   14. The image processing method according to claim 13, wherein an area obtained by excluding the second area from the third area is the first area. 前記第3の3次元画像データから2次元または3次元の表示用の画像データを作成し、
前記表示用の画像データを表示することを特徴とする請求項13記載の画像処理方法。
Creating two-dimensional or three-dimensional display image data from the third three-dimensional image data;
14. The image processing method according to claim 13, wherein the image data for display is displayed.
前記第1の3次元画像データ及び前記第2の3次元画像データのうちの少なくとも一方は、前記被検体の複数方向からのX線撮影画像データに基づいて、coronary3D手法,coronary tree手法、VCT手法、ECG gated VCT手法、multiple pass ECG gated VCT手法、及びMotion compensated VCT手法、のうち少なくともいずれかの手法を用いて構成されることを特徴とする請求項13記載の画像処理方法。   At least one of the first three-dimensional image data and the second three-dimensional image data is based on X-ray image data from a plurality of directions of the subject, a coronary 3D method, a coronary tree method, a VCT method. 14. The image processing method according to claim 13, wherein the image processing method is configured using at least one of an ECG gated VCT method, a multiple pass ECG gated VCT method, and a Motion compensated VCT method. 前記第1領域及び前記第2領域のうち小さい領域を構成する前記第1または第2の3次元画像データは、少なくとも前記小さい領域に対応する被検体の撮影画像データから構成されることを特徴とする請求項13記載の画像処理方法。   The first or second three-dimensional image data constituting a small area of the first area and the second area is composed of at least captured image data of a subject corresponding to the small area. The image processing method according to claim 13. 表示される画像を形成する元になる仮想3次元画像を生成するX線診断装置であって、
被検体に対してX線の照射と検出を行ない被検体のデータを得る撮影手段と、
被検体の撮影画像データに基づいて前記被検体の第1の3次元画像データを構成する第1構成手段と、
第1構成手段とは異なる処理方法で前記被検体の第2の3次元画像データを構成する第2構成手段と、
所定の第1領域に前記第1の3次元画像データを適用するとともに前記第1領域と異なる第2領域に前記第2の3次元画像データを適用して前記第1の3次元画像データと前記第2の3次元画像データとを合成することにより前記第1領域及び第2領域を含む前記被検体の第3領域における第3の3次元画像データを構成する第3構成手段と、
を備えたことを特徴とするX線診断装置。
An X-ray diagnostic apparatus that generates a virtual three-dimensional image from which a displayed image is formed,
Imaging means for performing X-ray irradiation and detection on the subject to obtain subject data;
First constructing means for constructing first three-dimensional image data of the subject based on photographed image data of the subject;
Second configuration means for configuring the second three-dimensional image data of the subject by a processing method different from the first configuration means;
Applying the first three-dimensional image data to a predetermined first region and applying the second three-dimensional image data to a second region different from the first region and the first three-dimensional image data and the A third constructing means for composing third 3D image data in the third region of the subject including the first region and the second region by combining the second 3D image data;
An X-ray diagnostic apparatus comprising:
前記撮影手段を前記被検体の周囲に設定された所定の回動経路に沿って複数回回動させる移動手段をさらに備え、
前記第1構成手段において、前記撮影手段が被検体の周囲で回動しながら被検体に対してX線の照射と検出を行なうことにより得られる前記被検体の所定の動作状況における前記被検体のデータから、前記第1の3次元画像データが構成され、
前記第2構成手段において、前記所定の動作状況における被検体のデータに動き補正処理がなされて前記第2の3次元画像データが生成されることを特徴とする請求項18記載のX線診断装置。
A moving means for rotating the imaging means a plurality of times along a predetermined rotation path set around the subject;
In the first configuration means, the imaging means rotates the X-ray around the subject and irradiates and detects the subject with X-rays and detects the subject in a predetermined operation state. From the data, the first three-dimensional image data is constructed,
19. The X-ray diagnostic apparatus according to claim 18, wherein in the second configuration means, motion correction processing is performed on the data of the subject in the predetermined operation situation to generate the second three-dimensional image data. .
前記第3の3次元画像データに基づき2次元または3次元の表示用の画像データ)を作成する表示データ構成手段と、
前記表示用の画像データを表示する表示手段と、をさらに備えたことを特徴とする請求項18記載のX線診断装置。
Display data composing means for creating 2D or 3D display image data) based on the third 3D image data;
19. The X-ray diagnostic apparatus according to claim 18, further comprising display means for displaying the display image data.
前記第1の3次元画像データ及び前記第2の3次元画像データのうちの少なくとも一方は、前記被検体の複数方向からのX線撮影画像データに基づいて、coronary3D手法,coronary tree手法、VCT手法、ECG gated VCT手法、multiple pass ECG gated VCT手法、及びMotion compensated VCT手法、のうち少なくともいずれかの手法を用いて構成されることを特徴とする請求項18記載のX線診断装置。   At least one of the first three-dimensional image data and the second three-dimensional image data is based on X-ray image data from a plurality of directions of the subject, a coronary 3D method, a coronary tree method, a VCT method. The X-ray diagnostic apparatus according to claim 18, wherein the X-ray diagnostic apparatus is configured using at least one of an ECG gated VCT method, a multiple pass ECG gated VCT method, and a Motion compensated VCT method. 前記第1領域及び前記第2領域のうち小さい領域を構成する前記第1または第2の3次元画像データは、少なくとも前記小さい領域に対応する被検体の撮影画像データから構成されることを特徴とする請求項18記載のX線診断装置。   The first or second three-dimensional image data constituting a small area of the first area and the second area is composed of at least captured image data of a subject corresponding to the small area. The X-ray diagnostic apparatus according to claim 18.
JP2008094278A 2008-03-31 2008-03-31 Image processing apparatus and X-ray diagnostic apparatus Active JP5525697B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008094278A JP5525697B2 (en) 2008-03-31 2008-03-31 Image processing apparatus and X-ray diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094278A JP5525697B2 (en) 2008-03-31 2008-03-31 Image processing apparatus and X-ray diagnostic apparatus

Publications (2)

Publication Number Publication Date
JP2009240723A true JP2009240723A (en) 2009-10-22
JP5525697B2 JP5525697B2 (en) 2014-06-18

Family

ID=41303332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094278A Active JP5525697B2 (en) 2008-03-31 2008-03-31 Image processing apparatus and X-ray diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP5525697B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140087207A (en) * 2012-12-28 2014-07-09 삼성전자주식회사 X-ray imaging apparatus, producing method of x-ray image and 3d imaging apparatus
KR20140087206A (en) * 2012-12-28 2014-07-09 삼성전자주식회사 X-ray imaging system and method for processing X-ray image
JP2014522711A (en) * 2011-08-09 2014-09-08 アイモーフィクス リミテッド Image processing method
US10249064B2 (en) 2016-08-02 2019-04-02 Toshiba Medical Systems Corporation Motion estimation method and apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153893A (en) * 2001-11-21 2003-05-27 Hitachi Medical Corp Apparatus for forming tomographic image
JP2004513735A (en) * 2000-11-22 2004-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D planning target volume
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2005349205A (en) * 2004-06-09 2005-12-22 Siemens Ag Method for optimizing display of tomogram of examination object and tomography unit
JP2007236502A (en) * 2006-03-07 2007-09-20 Ge Medical Systems Global Technology Co Llc X-ray ct system
JP2009082306A (en) * 2007-09-28 2009-04-23 Ge Medical Systems Global Technology Co Llc Image display device and radiation ct apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004513735A (en) * 2000-11-22 2004-05-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D planning target volume
JP2003153893A (en) * 2001-11-21 2003-05-27 Hitachi Medical Corp Apparatus for forming tomographic image
JP2004215846A (en) * 2003-01-14 2004-08-05 Ziosoft Inc Method and device for volume rendering image processing and program therefor
JP2005349205A (en) * 2004-06-09 2005-12-22 Siemens Ag Method for optimizing display of tomogram of examination object and tomography unit
JP2007236502A (en) * 2006-03-07 2007-09-20 Ge Medical Systems Global Technology Co Llc X-ray ct system
JP2009082306A (en) * 2007-09-28 2009-04-23 Ge Medical Systems Global Technology Co Llc Image display device and radiation ct apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522711A (en) * 2011-08-09 2014-09-08 アイモーフィクス リミテッド Image processing method
KR20140087207A (en) * 2012-12-28 2014-07-09 삼성전자주식회사 X-ray imaging apparatus, producing method of x-ray image and 3d imaging apparatus
KR20140087206A (en) * 2012-12-28 2014-07-09 삼성전자주식회사 X-ray imaging system and method for processing X-ray image
KR102089976B1 (en) 2012-12-28 2020-03-18 삼성전자주식회사 X-ray imaging apparatus, producing method of x-ray image and 3d imaging apparatus
KR102090597B1 (en) 2012-12-28 2020-03-19 삼성전자주식회사 X-ray imaging system and method for processing X-ray image
US10249064B2 (en) 2016-08-02 2019-04-02 Toshiba Medical Systems Corporation Motion estimation method and apparatus

Also Published As

Publication number Publication date
JP5525697B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP6534998B2 (en) Method and apparatus for displaying a medical image
JP5872593B2 (en) Multimodality cardiac imaging
US8463014B2 (en) Optimal rotational trajectory determination for RA based on pre-determined optimal view map
JP5242144B2 (en) 3D image processing device
JP5091644B2 (en) X-ray computed tomography apparatus and medical image processing apparatus
JP4854137B2 (en) Medical diagnostic imaging equipment
US7433507B2 (en) Imaging chain for digital tomosynthesis on a flat panel detector
JP6034028B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
US8094772B2 (en) Reconstruction unit for reconstructing a fine reproduction of at least a part of an object
JP5491914B2 (en) Image display apparatus and X-ray diagnostic apparatus
US20070016108A1 (en) Method for 3D visualization of vascular inserts in the human body using the C-arm
US20060036167A1 (en) Vascular image processing
JP5595762B2 (en) X-ray diagnostic apparatus and image reconstruction processing apparatus
JP4157302B2 (en) X-ray CT system
US20100189337A1 (en) Method for acquiring 3-dimensional images of coronary vessels, particularly of coronary veins
JP2003290192A (en) Drawing method for image of medical instrument introduced into examination region of patient
JP2008035895A (en) Image processing method and image processing program
JP2010154982A (en) X-ray computer tomographic imaging apparatus and image processor
JP5525697B2 (en) Image processing apparatus and X-ray diagnostic apparatus
JP2007260187A (en) Radiation tomographic apparatus
US20090238412A1 (en) Local motion compensated reconstruction of stenosis
JP2016168120A (en) Medical image processor and image display control method in medical image processor
JP2013169359A (en) X-ray ct apparatus
JP2008206965A (en) Medical image forming device, method and program
JP2009268522A (en) Medical image processing apparatus, image processing method and x-ray diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130716

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131212

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140414

R150 Certificate of patent or registration of utility model

Ref document number: 5525697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350