JP2018046922A - Radiation image processing apparatus and radiation image processing method - Google Patents

Radiation image processing apparatus and radiation image processing method Download PDF

Info

Publication number
JP2018046922A
JP2018046922A JP2016183052A JP2016183052A JP2018046922A JP 2018046922 A JP2018046922 A JP 2018046922A JP 2016183052 A JP2016183052 A JP 2016183052A JP 2016183052 A JP2016183052 A JP 2016183052A JP 2018046922 A JP2018046922 A JP 2018046922A
Authority
JP
Japan
Prior art keywords
image
contrast
blood vessel
image processing
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016183052A
Other languages
Japanese (ja)
Other versions
JP6750425B2 (en
Inventor
貴則 吉田
Takanori Yoshida
貴則 吉田
敬一 後藤
Keiichi Goto
敬一 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2016183052A priority Critical patent/JP6750425B2/en
Publication of JP2018046922A publication Critical patent/JP2018046922A/en
Application granted granted Critical
Publication of JP6750425B2 publication Critical patent/JP6750425B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a radiation image processing apparatus capable of clearly and simultaneously checking both a device introduced into a subject and a blood vessel part in a transparent image.SOLUTION: An image processing apparatus 10 (radiation image processing apparatus) includes an image generation part 13, a storage part 12, and an image processing part 14. The image processing part 14 is configured so as to generate a device fixing image 41 in which positioning is made so that the positions of the device 30 introduced into a subject T coincide in a plurality of continuously generated transparent images 40, generate a map image 51 displaying a blood vessel part 60 identifiably to the device 30 from a contrast image 50 of the blood vessel of the subject T stored in the storage part 12, and generates a device map superimposition image 70 by superimposing the device fixing image 41 on the map image 51.SELECTED DRAWING: Figure 1

Description

本発明は、放射線画像処理装置および放射線画像処理方法に関する。   The present invention relates to a radiation image processing apparatus and a radiation image processing method.

従来、被検体(患者)の体内に導入されたデバイスを撮像した透視画像を処理する放射線画像処理装置が知られている(たとえば、特許文献1参照)。   Conventionally, a radiographic image processing apparatus that processes a fluoroscopic image obtained by imaging a device introduced into the body of a subject (patient) is known (see, for example, Patent Document 1).

上記特許文献1には、血管内インターベンション治療において、被検体(患者)の体内にカテーテル導入されたステント(デバイス)のX線画像(透視画像)を処理する画像処理装置が開示されている。ステントや、ステントが挿入された血管部分は、透視画像中での視認性が低い。この画像処理装置は、ステントを運ぶためのガイドワイヤ先端部の動きベクトルを生成し、動きベクトルを用いて、順次取得される透視画像のガイドワイヤ先端部が互いに一致するように各透視画像を位置合わせし、位置合わせされた各透視画像を時間積分することにより、ステントおよびステントが配置された血管内壁を強調する。   Patent Document 1 discloses an image processing apparatus that processes an X-ray image (fluoroscopic image) of a stent (device) introduced into a body of a subject (patient) in an intravascular intervention treatment. The visibility of the stent and the blood vessel portion in which the stent is inserted is low in the fluoroscopic image. The image processing apparatus generates a motion vector of a guide wire tip for carrying a stent, and uses the motion vector to position each fluoroscopic image so that the guide wire tips of sequentially acquired fluoroscopic images coincide with each other. The stent and the inner wall of the blood vessel on which the stent is placed are emphasized by time integration of the aligned fluoroscopic images.

特表2006−506117号公報JP-T-2006-506117

しかしながら、上記のような画像の時間積分による強調処理では、透視画像にほとんど写らない血管内壁の視認性を十分に向上できるとは限らない。造影剤を用いれば、血管部分の視認性が顕著に向上する一方で、血管の内部に存在するデバイス(ステント)は造影剤に埋もれて視認性が低下してしまう。たとえば、ステントの留置状態を把握して、追加の血管拡張や追加のステント留置の必要性を判断するには、ステントと血管内壁との両方を確認する必要性が高い。そこで、透視画像において、被検体内に導入されたデバイスと血管部分との両方を、より明確に、かつ同時に確認できるようにすることが望まれている。   However, the enhancement process based on the time integration of the image as described above cannot sufficiently improve the visibility of the inner wall of the blood vessel that hardly appears in the fluoroscopic image. When the contrast agent is used, the visibility of the blood vessel portion is remarkably improved, while the device (stent) existing inside the blood vessel is buried in the contrast agent and the visibility is lowered. For example, in order to grasp the indwelling state of the stent and determine the necessity for additional vasodilation or additional stent placement, it is highly necessary to confirm both the stent and the inner wall of the blood vessel. Therefore, it is desired to be able to confirm both the device introduced into the subject and the blood vessel part more clearly and simultaneously in the fluoroscopic image.

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、被検体内に導入されたデバイスと血管部分との両方を、透視画像中で明確かつ同時に確認することが可能な放射線画像処理装置および放射線画像処理方法を提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to clearly show both a device introduced into a subject and a blood vessel portion in a fluoroscopic image. A radiological image processing apparatus and a radiographic image processing method that can be simultaneously confirmed.

上記目的を達成するために、この発明の第1の局面における放射線画像処理装置は、被検体を透過した放射線の検出信号に基づく透視画像を生成する画像生成部と、画像生成部により生成された透視画像を記憶する記憶部と、画像生成部により生成された透視画像に画像処理を行う画像処理部とを備え、画像処理部は、連続的に生成される複数の透視画像において、被検体内に導入されたデバイスの位置が一致するように位置合わせしたデバイス固定画像を作成し、記憶部に記憶された被検体の血管の造影画像から、デバイスに対して識別可能に血管部分を表示するマップ画像を作成し、マップ画像にデバイス固定画像を重畳させることにより、デバイスマップ重畳画像を作成するように構成されている。   In order to achieve the above object, a radiographic image processing apparatus according to a first aspect of the present invention is generated by an image generation unit that generates a fluoroscopic image based on a detection signal of radiation that has passed through a subject, and the image generation unit. A storage unit that stores a fluoroscopic image; and an image processing unit that performs image processing on the fluoroscopic image generated by the image generation unit. The image processing unit includes a plurality of consecutively generated fluoroscopic images in a subject. A map that creates a fixed device image that is aligned so that the position of the device that was introduced into the device matches, and displays the blood vessel portion in an identifiable manner for the device from the contrast image of the blood vessel of the subject stored in the storage unit A device map superimposed image is created by creating an image and superimposing a device fixed image on the map image.

この発明の第1の局面による放射線画像処理装置では、上記のように、連続的に生成される複数の透視画像において、被検体内に導入されたデバイスの位置が一致するように位置合わせしたデバイス固定画像を作成し、記憶部に記憶された被検体の血管の造影画像から、デバイスに対して識別可能に血管部分を表示するマップ画像を作成し、マップ画像にデバイス固定画像を重畳させることにより、デバイスマップ重畳画像を作成するように画像処理部を構成する。これにより、マップ画像では、造影画像を用いて血管部分を明確に視認可能にすることができ、かつ、デバイスが識別可能なように血管部分を表示することができる。そして、デバイスマップ重畳画像では、デバイス固定画像のデバイスを、マップ画像の血管部分に重ねることによって、通常の造影画像では造影剤に埋もれてしまうデバイスと、造影画像から得られた明確な血管部分とを同時に表示することができる。その結果、被検体内に導入されたデバイスと血管部分との両方を、透視画像中で明確かつ同時に確認することができる。   In the radiographic image processing apparatus according to the first aspect of the present invention, as described above, in a plurality of continuously generated fluoroscopic images, the devices are aligned so that the positions of the devices introduced into the subject coincide with each other. By creating a fixed image, creating a map image that displays the blood vessel portion in an identifiable manner for the device from the contrast image of the blood vessel of the subject stored in the storage unit, and superimposing the device fixed image on the map image The image processing unit is configured to create a device map superimposed image. Thereby, in the map image, the blood vessel portion can be clearly visible using the contrast image, and the blood vessel portion can be displayed so that the device can be identified. In the device map superimposed image, a device that is buried in a contrast medium in a normal contrast image by overlaying the device of the device fixed image on the blood vessel portion of the map image, and a clear blood vessel portion obtained from the contrast image Can be displayed simultaneously. As a result, both the device introduced into the subject and the blood vessel portion can be clearly and simultaneously confirmed in the fluoroscopic image.

上記第1の局面による放射線画像処理装置において、好ましくは、画像処理部は、造影画像における血管部分の画素値を反転させる処理、または、造影画像における血管部分の色をデバイスに対して識別可能な色に変更する処理を行って、マップ画像を生成するように構成されている。ここで、造影中にデバイスが埋もれるのは、造影剤の放射線吸収によって血管部分がデバイスと同等以上に黒く(画素値が低く)なるためである。そのため、造影画像における血管部分の画素値を反転させるか、デバイスを視認可能な別の色で血管部分を表示することにより、デバイスの識別性を向上させることが可能なマップ画像を容易に生成することができる。その結果、デバイスマップ重畳画像において、デバイスと血管部分との両方をより明確に確認できるようになる。   In the radiological image processing apparatus according to the first aspect, preferably, the image processing unit can identify the device for inverting the pixel value of the blood vessel portion in the contrast image or the color of the blood vessel portion in the contrast image. A map image is generated by performing a process of changing to a color. Here, the reason why the device is buried during the contrast is that the blood vessel portion becomes blacker than the device (the pixel value is low) by the radiation absorption of the contrast agent. Therefore, it is easy to generate a map image that can improve the discriminability of the device by inverting the pixel value of the blood vessel portion in the contrast image or displaying the blood vessel portion in another color that allows the device to be visually recognized. be able to. As a result, both the device and the blood vessel portion can be more clearly confirmed in the device map superimposed image.

この場合、好ましくは、画像処理部は、造影画像における血管部分の輪郭抽出により、血管部分の輪郭を識別可能に表示するマップ画像を生成するように構成されている。このように構成すれば、デバイスマップ重畳画像において、血管部分の輪郭(すなわち、血管壁)だけを識別可能に表示し、血管部分の内部にはデバイス固定画像そのものを表示することができる。これにより、識別可能な表示色により血管部分が塗りつぶされる場合と異なり、透視画像に慣れたユーザにとっても違和感なく、デバイスと血管部分との両方を明確に確認可能なデバイスマップ重畳画像を生成することができる。   In this case, preferably, the image processing unit is configured to generate a map image that displays the contour of the blood vessel portion in an identifiable manner by extracting the contour of the blood vessel portion in the contrast image. With this configuration, in the device map superimposed image, only the outline of the blood vessel part (that is, the blood vessel wall) can be displayed in an identifiable manner, and the device fixed image itself can be displayed inside the blood vessel part. This makes it possible to generate a device map superimposed image that can clearly confirm both the device and the blood vessel portion without feeling uncomfortable for the user who is used to the fluoroscopic image, unlike when the blood vessel portion is filled with an identifiable display color. Can do.

上記第1の局面による放射線画像処理装置において、好ましくは、画像処理部は、連続して生成された複数の造影画像を用いて、造影画像における血管部分以外の背景部分の一部または全部を除去して、マップ画像を作成するように構成されている。このように構成すれば、マップ画像から血管部分以外の背景部分を除去することができるので、デバイスマップ重畳画像において背景部分の多重化を抑制して、画像全体としての視認性を向上させることができる。   In the radiological image processing apparatus according to the first aspect, preferably, the image processing unit removes part or all of the background portion other than the blood vessel portion in the contrast image using a plurality of consecutively generated contrast images. The map image is created. If configured in this way, the background part other than the blood vessel part can be removed from the map image, so that the multiplexing of the background part in the device map superimposed image can be suppressed and the visibility of the entire image can be improved. it can.

この場合、好ましくは、画像処理部は、造影画像と造影画像の直近フレームの過去造影画像との差分画像を作成し、差分画像に対して画素値の閾値を用いて画像成分を除去する閾値処理を行うことにより、背景部分の除去を行うように構成されている。このように構成すれば、心血管インターベンション治療時の造影画像の場合に、連続するフレームで血管位置は変動するのに対して骨や動きの少ない臓器は位置が変わらないことを利用して、容易に、血管部分を残しつつ背景部分を除去することができる。   In this case, preferably, the image processing unit creates a difference image between the contrast image and the previous contrast image of the most recent frame of the contrast image, and removes an image component from the difference image using a pixel value threshold. By performing the above, the background portion is removed. By configuring in this way, in the case of contrast images during cardiovascular intervention treatment, the blood vessel position fluctuates in successive frames, whereas the bones and organs with little movement do not change the position, The background portion can be easily removed while leaving the blood vessel portion.

上記第1の局面による放射線画像処理装置において、好ましくは、画像処理部は、心電図波形または透視画像から、透視画像の心拍位相情報を取得し、心拍位相情報に基づいて、記憶部に記憶された複数の造影画像のうちからデバイス固定画像と略一致する心拍位相において取得された造影画像を選択し、選択した造影画像からマップ画像を作成するように構成されている。このように構成すれば、心血管インターベンション治療時の造影画像の場合に、血管部分の移動は主として心臓の拍動に起因する周期的運動となるので、心拍位相の一致に基づいて、デバイス固定画像と精度よく一致するマップ画像を選択することができる。   In the radiological image processing apparatus according to the first aspect, preferably, the image processing unit acquires heartbeat phase information of the fluoroscopic image from the electrocardiogram waveform or the fluoroscopic image, and is stored in the storage unit based on the heartbeat phase information. A contrast image acquired at a heartbeat phase substantially coincident with the device fixed image is selected from a plurality of contrast images, and a map image is created from the selected contrast image. If configured in this way, in the case of contrast-enhanced images at the time of cardiovascular intervention treatment, the movement of the blood vessel part is a periodic motion mainly due to the heartbeat, so the device is fixed based on the coincidence of the heartbeat phase. A map image that accurately matches the image can be selected.

上記第1の局面による放射線画像処理装置において、好ましくは、画像処理部は、造影中に生成される造影画像において、デバイス近傍における部分マップ画像を作成し、造影終了後に生成されるデバイス固定画像と、部分マップ画像とを、デバイス位置に基づいて重畳させることにより、デバイスマップ重畳画像を作成するように構成されている。このように構成すれば、デバイス位置に基づくことにより、造影中と造影終了後とに取得される一連の透視画像(造影画像)を用いて、造影終了後に直ちにデバイスマップ重畳画像を作成することができる。   In the radiographic image processing apparatus according to the first aspect, preferably, the image processing unit creates a partial map image in the vicinity of the device in the contrast image generated during the contrast, and the device fixed image generated after the contrast is completed. A device map superimposed image is generated by superimposing the partial map image on the basis of the device position. If comprised in this way, based on a device position, a device map superimposition image will be created immediately after the end of contrast using a series of fluoroscopic images (contrast images) acquired during contrast and after the end of contrast it can.

上記第1の局面による放射線画像処理装置において、好ましくは、画像処理部は、連続する複数フレームの透視画像を用いてデバイスを強調したデバイス強調画像により、デバイス固定画像を作成するように構成されている。このように構成すれば、デバイス固定画像におけるデバイスの視認性を向上させることができる。その結果、デバイスマップ重畳画像において、デバイスと血管部分との両方をさらに明確に確認できるようになる。   In the radiological image processing apparatus according to the first aspect, preferably, the image processing unit is configured to create a device fixed image by a device-enhanced image in which the device is emphasized using a plurality of consecutive frames of fluoroscopic images. Yes. If comprised in this way, the visibility of the device in a device fixed image can be improved. As a result, both the device and the blood vessel portion can be more clearly confirmed in the device map superimposed image.

上記第1の局面による放射線画像処理装置において、好ましくは、デバイスは、血管治療用のステントを含み、透視画像および造影画像は、被検体の心拍に伴って周期的に動く部位の放射線画像である。心血管インターベンション治療など、血管を含む体組織が心拍に伴って周期的に動く場合には、ステントおよび血管部分の各々について十分に視認性を向上させることが難しいため、デバイス固定画像によって位置変動を抑制しつつマップ画像によって血管部分とデバイスとを識別可能にすることが可能な本発明は、特に有効である。   In the radiological image processing apparatus according to the first aspect described above, the device preferably includes a stent for vascular treatment, and the fluoroscopic image and the contrast image are radiographic images of a region that periodically moves with the heartbeat of the subject. . When body tissues including blood vessels periodically move with heartbeat, such as in cardiovascular intervention therapy, it is difficult to sufficiently improve the visibility of each of the stent and blood vessel part. The present invention that can distinguish a blood vessel portion and a device by a map image while suppressing the above is particularly effective.

この発明の第2の局面における放射線画像処理方法は、放射線透視撮影による被検体の血管の造影画像を取得するステップと、放射線透視撮影による被検体の透視画像を連続的に取得するステップと、連続的に生成される複数の透視画像において、被検体内に導入されたデバイスの位置が一致するように位置合わせしたデバイス固定画像を作成するステップと、造影画像から、デバイスに対して識別可能に血管部分を表示するマップ画像を作成するステップと、マップ画像にデバイス固定画像を重畳させることにより、デバイスマップ重畳画像を作成するステップとを備える。   The radiographic image processing method according to the second aspect of the present invention includes a step of acquiring a contrast image of a blood vessel of a subject by radiographic imaging, a step of continuously acquiring a fluoroscopic image of the subject by radiographic imaging, A device fixed image that is aligned so that the positions of devices introduced into the subject coincide with each other in a plurality of generated fluoroscopic images, and a blood vessel that is identifiable to the device from the contrast image The method includes a step of creating a map image for displaying a portion, and a step of creating a device map superimposed image by superimposing a device fixed image on the map image.

この発明の第2の局面による放射線画像処理方法では、連続的に生成される複数の透視画像において、被検体内に導入されたデバイスの位置が一致するように位置合わせしたデバイス固定画像を作成するステップと、造影画像から、デバイスに対して識別可能に血管部分を表示するマップ画像を作成するステップと、マップ画像にデバイス固定画像を重畳させることにより、デバイスマップ重畳画像を作成するステップとを備える。これにより、マップ画像では、造影画像を用いて血管部分を明確に視認可能にすることができ、かつ、デバイスが識別可能なように血管部分を表示することができる。そして、デバイスマップ重畳画像では、デバイス固定画像のデバイスを、マップ画像の血管部分に重ねることによって、通常の造影画像では造影剤に埋もれてしまうデバイスと、造影画像から得られた明確な血管部分とを同時に表示することができる。その結果、被検体内に導入されたデバイスと血管部分との両方を、透視画像中で明確かつ同時に確認することができる。   In the radiological image processing method according to the second aspect of the present invention, a device fixed image is created in which a plurality of continuously generated fluoroscopic images are aligned so that the positions of the devices introduced into the subject coincide with each other. And a step of creating a map image for displaying a blood vessel portion in an identifiable manner with respect to the device from the contrast image, and a step of creating a device map superimposed image by superimposing the device fixed image on the map image. . Thereby, in the map image, the blood vessel portion can be clearly visible using the contrast image, and the blood vessel portion can be displayed so that the device can be identified. In the device map superimposed image, a device that is buried in a contrast medium in a normal contrast image by overlaying the device of the device fixed image on the blood vessel portion of the map image, and a clear blood vessel portion obtained from the contrast image Can be displayed simultaneously. As a result, both the device introduced into the subject and the blood vessel portion can be clearly and simultaneously confirmed in the fluoroscopic image.

本発明によれば、上記のように、被検体内に導入されたデバイスと血管部分との両方を、透視画像中で明確かつ同時に確認することができる。   According to the present invention, as described above, both the device introduced into the subject and the blood vessel portion can be clearly and simultaneously confirmed in the fluoroscopic image.

本発明の第1実施形態による画像処理装置を備える放射線撮影装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a radiation imaging apparatus including an image processing apparatus according to a first embodiment of the present invention. デバイスの一例を示す図(A)、血管内におけるデバイスの状態を説明するための図(B)および(C)である。FIG. 4A is a diagram illustrating an example of a device, and FIG. 4B is a diagram illustrating a state of the device in a blood vessel. 画像処理装置による画像処理を説明するための図である。It is a figure for demonstrating the image processing by an image processing apparatus. デバイス固定画像の作成処理を説明するための図である。It is a figure for demonstrating the creation process of a device fixed image. 背景部分の除去処理を説明するための図である。It is a figure for demonstrating the removal process of a background part. デバイス強調画像の作成処理を説明するための図である。It is a figure for demonstrating the creation process of a device emphasis image. 画像処理装置による画像処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the image processing by an image processing apparatus. 第2実施形態の画像処理装置による画像処理を説明するための図である。It is a figure for demonstrating the image processing by the image processing apparatus of 2nd Embodiment. 第3実施形態の画像処理装置による造影画像の自動選択処理を説明するための図である。It is a figure for demonstrating the automatic selection process of the contrast image by the image processing apparatus of 3rd Embodiment. 第4実施形態の画像処理装置による部分マップ画像の作成処理を説明するための図である。It is a figure for demonstrating the creation process of the partial map image by the image processing apparatus of 4th Embodiment.

以下、本発明を具体化した実施形態を図面に基づいて説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments embodying the present invention will be described below with reference to the drawings.

[第1実施形態]
(放射線画像処理装置の構成)
図1〜図6を参照して、本発明の第1実施形態による画像処理装置10の構成について説明する。画像処理装置10は、特許請求の範囲の「放射線画像処理装置」の一例である。
[First Embodiment]
(Configuration of radiation image processing apparatus)
With reference to FIGS. 1-6, the structure of the image processing apparatus 10 by 1st Embodiment of this invention is demonstrated. The image processing apparatus 10 is an example of the “radiation image processing apparatus” in the claims.

第1実施形態による画像処理装置10は、放射線画像を撮影する放射線撮影装置100と組み合わせて、透視画像の撮影中にリアルタイムで画像処理を行うように構成されている。放射線撮影装置100は、人体などの被検体Tの外側から放射線を照射することによって、被検体T内を画像化した放射線画像(透視画像)を撮影する装置である。放射線撮影装置100は、放射線の一例であるX線を用いてX線画像を撮影するX線撮影装置である。   The image processing apparatus 10 according to the first embodiment is configured to perform image processing in real time while capturing a fluoroscopic image in combination with the radiation imaging apparatus 100 that captures a radiation image. The radiation imaging apparatus 100 is an apparatus that captures a radiation image (perspective image) obtained by imaging the inside of the subject T by irradiating radiation from the outside of the subject T such as a human body. The radiation imaging apparatus 100 is an X-ray imaging apparatus that captures an X-ray image using X-rays that are an example of radiation.

放射線撮影装置100は、被検体Tに放射線(X線)を照射する照射部1と、被検体Tを透過した放射線を検出する放射線検出部2とを備えている。照射部1と放射線検出部2とは、それぞれ、被検体Tが載置される天板3を挟んで対向するように配置されている。照射部1および放射線検出部2は、移動機構4に移動可能に支持されている。天板3は、天板駆動部5により水平方向に移動可能である。被検体Tの関心領域を撮影できるように、移動機構4および天板駆動部5を介して照射部1、放射線検出部2および天板3が移動される。関心領域は、被検体Tのうちで、検査や治療のために撮影の対象となる領域である。放射線撮影装置100は、移動機構4および天板駆動部5を制御する制御部6を備えている。   The radiation imaging apparatus 100 includes an irradiation unit 1 that irradiates a subject T with radiation (X-rays), and a radiation detection unit 2 that detects radiation transmitted through the subject T. The irradiation unit 1 and the radiation detection unit 2 are arranged so as to face each other with the top 3 on which the subject T is placed. The irradiation unit 1 and the radiation detection unit 2 are supported by the moving mechanism 4 so as to be movable. The top plate 3 can be moved in the horizontal direction by the top plate drive unit 5. The irradiation unit 1, the radiation detection unit 2, and the top plate 3 are moved via the moving mechanism 4 and the top plate driving unit 5 so that the region of interest of the subject T can be imaged. The region of interest is a region to be imaged in the subject T for examination or treatment. The radiation imaging apparatus 100 includes a control unit 6 that controls the moving mechanism 4 and the top plate driving unit 5.

照射部1は、放射線源1aを含んでいる。放射線源1aは、図示しない高電圧発生部に接続されており、高電圧が印加されることによりX線を発生させるX線管である。放射線源1aは、X線出射方向を放射線検出部2の検出面に向けて配置されている。照射部1は、制御部6に接続されている。制御部6は、管電圧、管電流およびX線照射の時間間隔などの予め設定された撮影条件に従って照射部1を制御し、放射線源1aからX線を発生させる。   The irradiation unit 1 includes a radiation source 1a. The radiation source 1a is an X-ray tube that is connected to a high voltage generator (not shown) and generates X-rays when a high voltage is applied. The radiation source 1 a is arranged with the X-ray emission direction facing the detection surface of the radiation detection unit 2. The irradiation unit 1 is connected to the control unit 6. The control unit 6 controls the irradiation unit 1 according to preset imaging conditions such as a tube voltage, a tube current, and a time interval of X-ray irradiation, and generates X-rays from the radiation source 1a.

放射線検出部2は、照射部1から照射され、被検体Tを透過したX線を検出し、検出したX線強度に応じた検出信号を出力する。放射線検出部2は、たとえば、FPD(Flat Panel Detector)により構成されている。放射線検出部2は、所定の解像度のX線検出信号を画像処理装置10に出力する。画像処理装置10は、放射線検出部2からX線検出信号を取得して、透視画像40(図3参照)を生成する。   The radiation detection unit 2 detects X-rays emitted from the irradiation unit 1 and transmitted through the subject T, and outputs a detection signal corresponding to the detected X-ray intensity. The radiation detection part 2 is comprised by FPD (Flat Panel Detector), for example. The radiation detection unit 2 outputs an X-ray detection signal having a predetermined resolution to the image processing apparatus 10. The image processing apparatus 10 acquires an X-ray detection signal from the radiation detection unit 2 and generates a fluoroscopic image 40 (see FIG. 3).

制御部6は、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などを含んで構成されたコンピュータである。制御部6は、CPUが所定の制御プログラムを実行することにより、放射線撮影装置100の各部を制御する制御部として機能する。制御部6は、照射部1および画像処理装置10の制御や、移動機構4および天板駆動部5の駆動制御を行う。   The control unit 6 is a computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 6 functions as a control unit that controls each unit of the radiation imaging apparatus 100 when the CPU executes a predetermined control program. The control unit 6 performs control of the irradiation unit 1 and the image processing apparatus 10 and drive control of the moving mechanism 4 and the top plate driving unit 5.

放射線撮影装置100は、表示部7、操作部8および記憶部9を備える。表示部7は、たとえば液晶ディスプレイなどのモニタである。操作部8は、たとえばキーボードおよびマウス、タッチパネルまたは他のコントローラーなどを含んで構成される。記憶部9は、たとえばハードディスクドライブなどの記憶装置により構成される。制御部6は、画像処理装置10により生成された画像を表示部7に表示させる制御を行うように構成されている。また、制御部6は、操作部8を介した入力操作を受け付けるように構成されている。記憶部9は、画像データ、撮影条件および各種の設定値を記憶するように構成されている。表示部7および操作部8の各々は、画像処理装置10に設けられていてもよい。   The radiation imaging apparatus 100 includes a display unit 7, an operation unit 8, and a storage unit 9. The display unit 7 is a monitor such as a liquid crystal display. The operation unit 8 includes, for example, a keyboard and a mouse, a touch panel, other controllers, and the like. The storage unit 9 is configured by a storage device such as a hard disk drive. The control unit 6 is configured to perform control to display an image generated by the image processing apparatus 10 on the display unit 7. The control unit 6 is configured to accept an input operation via the operation unit 8. The storage unit 9 is configured to store image data, shooting conditions, and various set values. Each of the display unit 7 and the operation unit 8 may be provided in the image processing apparatus 10.

画像処理装置10は、たとえば、CPUあるいはGPU(Graphics Processing Unit)などのプロセッサ11と、ROMおよびRAMなどの記憶部12とを含んで構成されるコンピュータである。すなわち、画像処理装置10は、記憶部12に記憶された画像処理プログラムをプロセッサ11に実行させることにより構成される。画像処理装置10は、制御部6と同一のハードウェア(CPU)に画像処理プログラムを実行させることにより、制御部6と一体的に構成されてもよい。   The image processing apparatus 10 is a computer including a processor 11 such as a CPU or a GPU (Graphics Processing Unit) and a storage unit 12 such as a ROM and a RAM. That is, the image processing apparatus 10 is configured by causing the processor 11 to execute an image processing program stored in the storage unit 12. The image processing apparatus 10 may be configured integrally with the control unit 6 by causing the same hardware (CPU) as the control unit 6 to execute the image processing program.

記憶部12は、コンピュータを画像処理装置10として機能させるためのプログラム15(画像処理プログラム)を記憶している。また、第1実施形態では、記憶部12は、後述する画像生成部13により生成された透視画像40および後述する造影画像50を含む画像データ16を記憶するように構成されている。   The storage unit 12 stores a program 15 (image processing program) for causing a computer to function as the image processing apparatus 10. In the first embodiment, the storage unit 12 is configured to store image data 16 including a fluoroscopic image 40 generated by an image generation unit 13 described later and a contrast image 50 described later.

画像処理装置10は、画像処理プログラム15を実行することによる機能として、画像生成部13と、画像処理部14とを含む。画像生成部13と画像処理部14とが専用のプロセッサにより個別に構成されていてもよい。   The image processing apparatus 10 includes an image generation unit 13 and an image processing unit 14 as functions by executing the image processing program 15. The image generation unit 13 and the image processing unit 14 may be individually configured by a dedicated processor.

画像生成部13は、被検体Tを透過した放射線の検出信号に基づく透視画像40を生成するように構成されている。画像生成部13は、放射線検出部2の検出信号に基づき、透視画像40を動画像の形式で生成する。すなわち、照射部1から被検体Tに対してX線が所定時間間隔で断続的に照射され、被検体Tを透過したX線が放射線検出部2により順次検出される。画像生成部13は、放射線検出部2から順次出力される検出信号を画像化することにより、透視画像40を所定のフレームレートで生成する。フレームレートは、たとえば15FPS〜30FPS程度である。透視画像40は、たとえばグレースケールで所定の階調数(10〜12ビットなど)の画素値を有する画像である。そのため、低画素値の画素では黒く(暗く)表示され、高画素値の画素では白く(明るく)表示される。   The image generation unit 13 is configured to generate a fluoroscopic image 40 based on a detection signal of radiation that has passed through the subject T. The image generation unit 13 generates the fluoroscopic image 40 in the form of a moving image based on the detection signal of the radiation detection unit 2. That is, X-rays are intermittently emitted from the irradiation unit 1 to the subject T at predetermined time intervals, and X-rays transmitted through the subject T are sequentially detected by the radiation detection unit 2. The image generation unit 13 generates a fluoroscopic image 40 at a predetermined frame rate by imaging the detection signals sequentially output from the radiation detection unit 2. The frame rate is, for example, about 15 FPS to 30 FPS. The perspective image 40 is, for example, an image having pixel values of a predetermined number of gradations (such as 10 to 12 bits) in gray scale. Therefore, a pixel having a low pixel value is displayed in black (dark), and a pixel having a high pixel value is displayed in white (bright).

画像処理部14は、画像生成部13により生成された透視画像40に画像処理を行うように構成されている。画像処理の詳細については、後述する。   The image processing unit 14 is configured to perform image processing on the fluoroscopic image 40 generated by the image generation unit 13. Details of the image processing will be described later.

第1実施形態では、画像処理装置10(放射線撮影装置100)は、被検体T内に導入されるデバイス30(図2参照)の透視画像40および被検体Tの血管の造影画像50を生成するように構成されている。第1実施形態では、透視画像40および造影画像50は、被検体の心拍に伴って周期的に動く部位の放射線画像である。   In the first embodiment, the image processing apparatus 10 (radiation imaging apparatus 100) generates a fluoroscopic image 40 of the device 30 (see FIG. 2) introduced into the subject T and a contrast image 50 of the blood vessel of the subject T. It is configured as follows. In the first embodiment, the fluoroscopic image 40 and the contrast image 50 are radiographic images of sites that periodically move with the heartbeat of the subject.

第1実施形態では、図2(A)に示すように、被検体T内に導入されるデバイス30は、血管治療用のステント31を含む。ステント31は、たとえば、冠動脈(心血管)インターベンション治療に用いられる。冠動脈インターベンション治療は、内部にガイドワイヤ32を備えたカテーテル33を被検体Tの血管内に挿入し、血管を介してカテーテル33を心臓の冠動脈へ到達させて治療を行うものである。ステント31は、細い金属などで形成された網目構造を有する筒状形状を有する。ステント31は、血管の狭窄部分に配置され、内側からバルーンを利用して拡張されることにより血管内に留置され、狭窄した血管を拡げて内側から支える。網目構造のステント31は透視画像40に写りにくいため、放射線透過性の低い(または不透過の)マーカー34が、目印としてステント31あるいはバルーンなどに設けられる。マーカー34は、1つあるいは2つ設けられることが多い。   In the first embodiment, as shown in FIG. 2A, the device 30 introduced into the subject T includes a stent 31 for vascular treatment. The stent 31 is used, for example, for coronary (cardiovascular) intervention treatment. In the coronary intervention treatment, a catheter 33 having a guide wire 32 therein is inserted into the blood vessel of the subject T, and the catheter 33 is made to reach the coronary artery of the heart via the blood vessel. The stent 31 has a cylindrical shape having a mesh structure formed of a thin metal or the like. The stent 31 is disposed in a stenosis portion of a blood vessel, is expanded from the inside by using a balloon, is placed in the blood vessel, and expands the stenotic blood vessel to support it from the inside. Since the mesh-structured stent 31 is difficult to be seen in the fluoroscopic image 40, a marker 34 having low radiation transparency (or non-transmission) is provided on the stent 31 or a balloon as a mark. In many cases, one or two markers 34 are provided.

冠動脈インターベンション治療では、医師が、画像処理装置10(放射線撮影装置100)によりリアルタイムで生成される動画像である透視画像40を参照しながら、カテーテル33を心臓の冠動脈へ送り込む。治療に際しては、狭窄部位の特定、ステント31および血管拡張用バルーンの狭窄部位への位置決め、ステント31を留置した後の確認が必要とされる。血管の中の血液と、周囲の体組織とで、X線透過性の差が小さいことから、血管部分は透視画像40において視認性が低い。そこで、治療開始前や、治療中には、造影剤を用いた造影画像50(図3参照)の撮影が行われる。造影剤は、マーカー34と同様、放射線透過性が低いため、透視画像40において暗部(黒色部)として写る。カテーテルを介して血管内に造影剤を注入することにより、造影画像50では、通常の透視画像40ではほとんど写らない血管部分60(図3参照)を明確に写すことができる。   In the coronary intervention treatment, a doctor sends the catheter 33 to the coronary artery of the heart while referring to a fluoroscopic image 40 that is a moving image generated in real time by the image processing apparatus 10 (radiography apparatus 100). In the treatment, it is necessary to specify the stenosis site, position the stent 31 and the vascular dilatation balloon at the stenosis site, and confirm the stent 31 after placement. Since the difference in X-ray permeability between the blood in the blood vessel and the surrounding body tissue is small, the blood vessel portion has low visibility in the fluoroscopic image 40. Therefore, before or during treatment, a contrast image 50 (see FIG. 3) using a contrast agent is taken. Like the marker 34, the contrast agent has a low radiolucency, and therefore appears as a dark part (black part) in the fluoroscopic image 40. By injecting the contrast medium into the blood vessel through the catheter, the blood vessel portion 60 (see FIG. 3) that is hardly visible in the normal fluoroscopic image 40 can be clearly shown in the contrast image 50.

ステント31を留置した後の確認には、図2(B)および図2(C)に示すように、ステント31(血管の狭窄部位)が十分に拡張したか否か、ステント31が血管壁VWに密着しているか否か、の確認などが含まれる。たとえば図2(B)では、ステント31および狭窄部分が十分に拡張し、血管壁VWにステント31が密着している。図2(C)では、ステント31の端部付近で十分に拡張ができておらず、血管壁VWとステント31との密着も不十分である。確認結果は、バルーンによる追加拡張や、追加のステント留置を行うか否かの判断の基礎となる。   As shown in FIGS. 2 (B) and 2 (C), whether the stent 31 (the stenosis part of the blood vessel) has sufficiently expanded or not is confirmed by the confirmation of the stent 31 after the placement of the stent 31. Confirmation of whether or not it is in close contact with the device is included. For example, in FIG. 2B, the stent 31 and the narrowed portion are sufficiently expanded, and the stent 31 is in close contact with the blood vessel wall VW. In FIG. 2C, the stent 31 is not sufficiently expanded in the vicinity of the end portion, and the adhesion between the blood vessel wall VW and the stent 31 is insufficient. The confirmation result is the basis for determining whether or not to perform additional dilation with a balloon or additional stent placement.

このため、ステント31の留置後の確認には、ステント31と、血管部分60との両方が確認(視認)できることが重要となる。しかし、図3に示すように、通常の透視画像40では、画像中に黒色の点として写るマーカー34に基づいて、ステント31の位置を把握することが可能である一方、血管部分60(破線部参照)はほとんど視認できない。造影画像50では、造影剤を注入された血管部分60が、黒色領域として鮮明に写る一方で、血管内のマーカー34(ステント31)は造影剤に埋もれてほとんど視認できない。   For this reason, it is important for the confirmation after the placement of the stent 31 that both the stent 31 and the blood vessel portion 60 can be confirmed (visually recognized). However, as shown in FIG. 3, in the normal fluoroscopic image 40, the position of the stent 31 can be grasped based on the marker 34 that appears as a black dot in the image, while the blood vessel portion 60 (broken line portion) Is almost invisible. In the contrast image 50, the blood vessel portion 60 into which the contrast agent has been injected appears clearly as a black region, while the marker 34 (stent 31) in the blood vessel is buried in the contrast agent and is hardly visible.

そこで、第1実施形態では、図3に示すように、画像処理部14は、デバイス30(ステント31およびマーカー34)が視認可能に写る透視画像40と、血管部分60が写る造影画像50とを用いて画像合成(重畳)を行うことにより、デバイス30(ステント31およびマーカー34)と血管部分60との両方を視認可能なデバイスマップ重畳画像70を作成するように構成されている。   Therefore, in the first embodiment, as illustrated in FIG. 3, the image processing unit 14 includes a fluoroscopic image 40 in which the device 30 (the stent 31 and the marker 34) is visible and a contrast image 50 in which the blood vessel portion 60 is captured. By performing image composition (superimposition) using the device map, a device map superimposed image 70 in which both the device 30 (the stent 31 and the marker 34) and the blood vessel portion 60 can be visually recognized is created.

(透視画像の画像処理)
第1実施形態では、画像処理部14は、連続的に生成される複数の透視画像40から、デバイス固定画像41をリアルタイムで作成する処理、造影画像50を用いて血管部分60のマップ画像51を作成する処理、デバイス固定画像41とマップ画像51とを用いてデバイスマップ重畳画像70を作成する処理を行うように構成されている。以下各々の処理について具体的に説明する。なお、以下の説明では便宜的に、造影中の透視画像を造影画像50とし、非造影中の透視画像を透視画像40として、区別する。
(Image processing of fluoroscopic images)
In the first embodiment, the image processing unit 14 creates a map image 51 of the blood vessel portion 60 using a contrast image 50, which is a process of creating a device fixed image 41 in real time from a plurality of continuously generated fluoroscopic images 40. It is configured to perform a process of creating a device map superimposed image 70 using the device fixed image 41 and the map image 51. Each process will be specifically described below. In the following description, for the sake of convenience, a fluoroscopic image being contrasted is referred to as a contrast image 50, and a non-contrast fluoroscopic image is referred to as a fluoroscopic image 40.

〈デバイス固定画像〉
デバイス固定画像41は、連続的に生成される複数の透視画像40において、被検体T内に導入されたデバイス30の位置が一致するように位置合わせした透視画像である。リアルタイムで動画像として生成される透視画像40では、心拍や被検体Tの呼吸などによって、血管部分60および血管部分60内のデバイス30が常に周期的に運動する。デバイス固定画像41は、透視画像40に写るデバイス30の位置を画像中(表示画面中)で固定して表示させるものである。
<Device fixed image>
The device fixed image 41 is a fluoroscopic image obtained by aligning the positions of the devices 30 introduced into the subject T in a plurality of continuously generated fluoroscopic images 40. In the fluoroscopic image 40 generated as a moving image in real time, the blood vessel portion 60 and the device 30 in the blood vessel portion 60 always move periodically due to a heartbeat, respiration of the subject T, and the like. The device fixed image 41 is for fixing and displaying the position of the device 30 in the fluoroscopic image 40 in the image (in the display screen).

具体的には、図4に示すように、画像処理部14は、画像生成部13によりリアルタイムで生成される透視画像40(非造影画像)の各々から、デバイス30のマーカー34を検出する。マーカー34の検出は、公知の画像認識技術により可能である。画像処理部14は、透視画像40中におけるマーカー34の位置座標を取得する。   Specifically, as illustrated in FIG. 4, the image processing unit 14 detects the marker 34 of the device 30 from each of the fluoroscopic images 40 (non-contrast images) generated in real time by the image generation unit 13. The marker 34 can be detected by a known image recognition technique. The image processing unit 14 acquires the position coordinates of the marker 34 in the fluoroscopic image 40.

画像処理部14は、動画像として生成される複数の透視画像40のうちから、所定のタイミングで、デバイス固定画像41の基準となる基準画像42を選択する。つまり、画像処理部14は、透視画像40のうちのいずれか1フレームの画像を基準画像42として選択する。   The image processing unit 14 selects a reference image 42 serving as a reference for the device fixed image 41 from the plurality of perspective images 40 generated as the moving image at a predetermined timing. That is, the image processing unit 14 selects any one frame image of the fluoroscopic images 40 as the reference image 42.

画像処理部14は、基準画像42以降の各フレームの透視画像40について、各々のマーカー34(デバイス30)の位置が基準画像42に写るマーカー34(デバイス30)の位置と一致するように位置合わせを行う。すなわち、各フレームの透視画像40について、水平移動および回転移動の一方または両方を行う。これにより、マーカー34(デバイス30)の位置が互いに一致するデバイス固定画像41がフレーム毎に作成される。この結果、基準画像42以降のフレームでは、マーカー34(デバイス30)の位置が固定された状態の透視画像(デバイス固定画像41)が連続的に出力される。   The image processing unit 14 aligns the perspective image 40 of each frame after the reference image 42 so that the position of each marker 34 (device 30) matches the position of the marker 34 (device 30) shown in the reference image 42. I do. That is, one or both of horizontal movement and rotational movement are performed on the perspective image 40 of each frame. Thereby, the device fixed image 41 in which the positions of the markers 34 (devices 30) coincide with each other is created for each frame. As a result, in the frames after the reference image 42, a fluoroscopic image (device fixed image 41) in which the position of the marker 34 (device 30) is fixed is continuously output.

〈マップ画像〉
図3に示すように、マップ画像51は、被検体Tの血管の造影画像50から作成され、デバイス30に対して識別可能に血管部分60を表示する画像である。第1実施形態では、デバイスマップ重畳画像70の作成前に、血管内に造影剤を注入して撮影された造影画像50が予め取得され、記憶部12に記憶される。画像処理部14は、記憶部12に記憶された被検体Tの血管の造影画像50からマップ画像51を作成する。
<Map image>
As shown in FIG. 3, the map image 51 is an image that is created from the blood vessel contrast image 50 of the subject T and displays the blood vessel portion 60 so that the device 30 can identify the blood vessel portion 60. In the first embodiment, before the device map superimposed image 70 is created, a contrast image 50 photographed by injecting a contrast medium into a blood vessel is acquired in advance and stored in the storage unit 12. The image processing unit 14 creates a map image 51 from the contrast image 50 of the blood vessel of the subject T stored in the storage unit 12.

造影画像50は、心拍や被検体Tの呼吸などによって周期的に運動する造影画像50の少なくとも1周期分にわたって、記憶部12に記憶されることが好ましい。画像処理部14は、記憶部12に記憶された所定時間分の複数の造影画像50のうちから、デバイス固定画像41に重畳させる造影画像50を選択する。すなわち、画像処理部14は、血管部分60がデバイス固定画像41の血管部分60(破線部参照)に一致または近似する造影画像50を選択する。なお、デバイス固定画像41と造影画像50とは、血管部分60の全体が一致または近似する必要はない。デバイス固定画像41は、デバイス30(マーカー34)の位置が固定され、デバイス30(マーカー34)以外の部位が動く動画像となることから、造影画像50は、デバイス30の位置(マーカー34の位置)の近傍領域における血管部分60がデバイス固定画像41と一致していればよい。   The contrast image 50 is preferably stored in the storage unit 12 over at least one period of the contrast image 50 that periodically moves due to heartbeats, breathing of the subject T, and the like. The image processing unit 14 selects the contrast image 50 to be superimposed on the device fixed image 41 from the plurality of contrast images 50 for a predetermined time stored in the storage unit 12. That is, the image processing unit 14 selects the contrast image 50 in which the blood vessel portion 60 matches or approximates the blood vessel portion 60 (see the broken line portion) of the device fixed image 41. Note that the device-fixed image 41 and the contrast image 50 do not have to match or approximate the entire blood vessel portion 60. Since the device fixed image 41 is a moving image in which the position of the device 30 (marker 34) is fixed and a part other than the device 30 (marker 34) moves, the contrast image 50 is the position of the device 30 (the position of the marker 34). It is only necessary that the blood vessel portion 60 in the vicinity region of) matches the device fixed image 41.

造影画像50の選択は、画像処理部14が自動で行ってもよいし、ユーザ(インターベンション治療を行う医師)による選択操作を受け付けることにより手動で行ってもよい。選択操作は、たとえば複数の造影画像50を表示部7に一覧可能に表示させ、いずれかの造影画像50に対しての操作部8を介した選択操作を受け付けることにより実施される。画像処理部14が自動で造影画像50の選択を行う例は、後述の第3実施形態において説明する。   The selection of the contrast image 50 may be performed automatically by the image processing unit 14 or may be performed manually by receiving a selection operation by a user (a doctor who performs interventional therapy). The selection operation is performed by, for example, displaying a plurality of contrast images 50 on the display unit 7 in a listable manner and accepting a selection operation for any one of the contrast images 50 via the operation unit 8. An example in which the image processing unit 14 automatically selects the contrast image 50 will be described in a third embodiment to be described later.

画像処理部14は、選択された造影画像50から、デバイス30に対して識別可能に血管部分60を表示するマップ画像51を作成する。デバイス30に対して識別可能に血管部分60を表示するとは、デバイス30(ステント31)の画像部分(画素)と、血管部分60の画像部分(画素)とが、ユーザにとって識別できる程度に明暗(画素値)あるいは色彩上のコントラストを有することである。   The image processing unit 14 creates a map image 51 that displays the blood vessel portion 60 so as to be identifiable to the device 30 from the selected contrast image 50. Displaying the blood vessel portion 60 in an identifiable manner with respect to the device 30 means that the image portion (pixel) of the device 30 (stent 31) and the image portion (pixel) of the blood vessel portion 60 are so bright and dark as to be discernible for the user Pixel value) or color contrast.

第1実施形態では、画像処理部14は、造影画像50における血管部分60の画素値を反転させる処理、または、造影画像50における血管部分60の色をデバイス30に対して識別可能な色に変更する処理を行って、マップ画像51を生成するように構成されている。図3に示すように、造影画像50における血管部分60は造影剤によって画素値が低く(黒く)現れる。また、透視画像40(デバイス固定画像41)におけるデバイス30も、周囲の体組織に比べれば画素値が低く(黒く)現れる傾向にある。造影画像50における血管部分60の画素値を反転させることにより、血管部分60の画素値が高い(白い)反転画像が得られる。これにより、反転画像からなるマップ画像51にデバイス固定画像41を重畳させると、画素反転された白地の血管部分60にデバイス30およびマーカー34が黒く写り、識別が可能となる。   In the first embodiment, the image processing unit 14 inverts the pixel value of the blood vessel portion 60 in the contrast image 50 or changes the color of the blood vessel portion 60 in the contrast image 50 to a color that can be identified with respect to the device 30. The map image 51 is generated by performing the above process. As shown in FIG. 3, the blood vessel portion 60 in the contrast image 50 appears low (black) due to the contrast agent. In addition, the device 30 in the fluoroscopic image 40 (device fixed image 41) also tends to appear lower (black) in pixel value than the surrounding body tissue. By inverting the pixel value of the blood vessel portion 60 in the contrast image 50, a reverse image with a high (white) pixel value of the blood vessel portion 60 is obtained. As a result, when the device fixed image 41 is superimposed on the map image 51 composed of an inverted image, the device 30 and the marker 34 appear black on the white blood vessel portion 60 with the pixel inverted, and identification becomes possible.

血管部分60は、画素値の反転に限らず、白黒(グレースケール)とは異なる他の色に置き換えてもよい。反転画像における白色(反転画素値)に代えて、たとえば黄色や緑色などの、黒色(灰色)のデバイス30と区別可能な所定色に変更することでも、同様にデバイス30と血管部分60とを識別可能に表示することが可能である。   The blood vessel portion 60 is not limited to the inversion of the pixel value, and may be replaced with another color different from black and white (grayscale). The device 30 and the blood vessel portion 60 are similarly identified by changing to a predetermined color distinguishable from the black (gray) device 30 such as yellow or green instead of white (inverted pixel value) in the inverted image. It is possible to display as possible.

〈背景部分の除去〉
マップ画像51の作成にあたっては、選択された造影画像50をそのまま用いることができるが、連続して生成された複数の造影画像50を用いて背景部分61を除去した画像を用いることもできる。第1実施形態において、好ましくは、画像処理部14は、連続して生成された複数の造影画像50を用いて、造影画像50における血管部分60以外の背景部分61の一部または全部を除去して、マップ画像51を作成するように構成されている。
<Removal of background part>
In creating the map image 51, the selected contrast image 50 can be used as it is, but an image obtained by removing the background portion 61 using a plurality of continuously generated contrast images 50 can also be used. In the first embodiment, preferably, the image processing unit 14 removes a part or all of the background portion 61 other than the blood vessel portion 60 in the contrast image 50 using a plurality of contrast images 50 generated in succession. Thus, the map image 51 is created.

具体的には、図5に示すように、画像処理部14は、現在の造影画像50と、現在の造影画像50の直近フレームの過去造影画像52との差分画像53を作成する。図5では、たとえば3フレームの(直近の3つの)過去造影画像52を用いる例を示している。まず、画像処理部14は、複数の過去造影画像52の合成画像52aを作成する。たとえば、画像処理部14は、複数の過去造影画像52の各画素値同士を平均した合成画像52a(平均画像)を作成する。心拍動に伴って変動する血管部分60などは、合成画像52aにおいてぶれて(ぼやけて)写り、平均により画素値が均一化され、灰色に近くなる。骨や時間的に変動しない臓器などの背景部分61は平均しても変化しないため、合成画像52aにおいても過去造影画像52と同様に写る。   Specifically, as illustrated in FIG. 5, the image processing unit 14 creates a difference image 53 between the current contrast image 50 and the past contrast image 52 of the latest frame of the current contrast image 50. FIG. 5 shows an example in which, for example, three frames (the latest three) past contrast images 52 are used. First, the image processing unit 14 creates a composite image 52 a of a plurality of past contrast images 52. For example, the image processing unit 14 creates a composite image 52a (average image) by averaging the pixel values of the plurality of past contrast images 52. The blood vessel portion 60 and the like that fluctuate with the heartbeat are blurred (blurred) in the synthesized image 52a, and the pixel values are uniformed by the average and become close to gray. Since the background portion 61 such as a bone or an organ that does not change with time does not change even if averaged, the composite image 52a also appears in the same manner as the past contrast image 52.

なお、画像処理部14は、複数の過去造影画像52を時間的に異なる割合で加算した合成画像52aを作成してもよい。たとえば、画像処理部14は、複数の過去造影画像52を時間フィルタであるリカーシブフィルタにより合成する。この場合、現在の造影画像50に近いフレームの過去造影画像52ほど、合成画像52aにおいて大きな割合を占めるように合成される。   Note that the image processing unit 14 may create a composite image 52a obtained by adding a plurality of past contrast images 52 at different rates in time. For example, the image processing unit 14 synthesizes a plurality of past contrast images 52 using a recursive filter that is a time filter. In this case, the past contrast image 52 of the frame closer to the current contrast image 50 is synthesized so as to occupy a larger proportion in the synthesized image 52a.

画像処理部14は、現在の造影画像50と合成画像52aとの差分処理(サブトラクション)を行うことにより、差分画像53を作成する。画像処理部14は、現在の造影画像50(画像Aとする)と合成画像52a(画像Bとする)と、画素値の中間値からなる中間値画像54(画像Cとする)とにより、A−B+Cの演算処理(対応画素同士の画素値の加減算処理)を行い、差分画像53を作成する。差分画像53では、現在の造影画像50において写る血管部分60は黒い(画素値が低い)ままとなる。合成画像52aにおけるぶれた血管部分60は、差分画像53では、より白く(画素値が高く)なり、動かない背景部分61は、灰色(中間値近傍)となる。つまり、差分画像53では、現在の造影画像50における血管部分60と、背景部分61や合成画像52aにおける平均化された血管部分60と、の間でのコントラスト(画素値の差)が明確化される。   The image processing unit 14 creates a difference image 53 by performing a difference process (subtraction) between the current contrast image 50 and the composite image 52a. The image processing unit 14 uses a current contrast image 50 (referred to as image A), a composite image 52a (referred to as image B), and an intermediate value image 54 (referred to as image C) composed of intermediate values of pixel values to A difference image 53 is generated by performing a calculation process of −B + C (addition / subtraction process of pixel values of corresponding pixels). In the difference image 53, the blood vessel portion 60 shown in the current contrast image 50 remains black (the pixel value is low). The blurred blood vessel portion 60 in the composite image 52a becomes whiter (the pixel value is higher) in the difference image 53, and the background portion 61 that does not move becomes gray (near the intermediate value). That is, in the difference image 53, the contrast (pixel value difference) between the blood vessel portion 60 in the current contrast image 50 and the averaged blood vessel portion 60 in the background portion 61 or the composite image 52a is clarified. The

そして、画像処理部14は、差分画像53に対して画素値の閾値を用いて画像成分を除去する閾値処理を行うことにより、背景部分61の除去を行う。差分画像53においては、現在の造影画像50における血管部分60と、他の背景部分61などとの画素値の差が大きくなっているため、血管部分60と、背景部分61などとの間に閾値を設定することにより、容易に背景部分61が除去される。この結果、画像処理部14は、血管部分60が写り、血管部分60以外の背景部分61が除去された背景除去画像55を取得する。画像処理部14は、この背景除去画像55を用いてマップ画像51を作成することができる。   Then, the image processing unit 14 removes the background portion 61 by performing threshold processing for removing the image component on the difference image 53 using the threshold value of the pixel value. In the difference image 53, since the difference in pixel value between the blood vessel portion 60 in the current contrast image 50 and the other background portion 61 is large, a threshold value is set between the blood vessel portion 60 and the background portion 61. By setting, the background portion 61 is easily removed. As a result, the image processing unit 14 acquires the background removed image 55 in which the blood vessel portion 60 is captured and the background portion 61 other than the blood vessel portion 60 is removed. The image processing unit 14 can create the map image 51 using the background removal image 55.

〈デバイスマップ重畳画像〉
図3に示すように、画像処理部14は、マップ画像51にデバイス固定画像41を重畳させることにより、デバイスマップ重畳画像70を作成するように構成されている。画像処理部14は、リアルタイムで生成される透視画像40からデバイス固定画像41を作成して、順次マップ画像51に重畳させていく。
<Device map superimposed image>
As shown in FIG. 3, the image processing unit 14 is configured to create a device map superimposed image 70 by superimposing a device fixed image 41 on a map image 51. The image processing unit 14 creates a device fixed image 41 from the perspective image 40 generated in real time, and sequentially superimposes it on the map image 51.

上記の通り、デバイス固定画像41はデバイス30(マーカー34)の位置で位置合わせされているため、デバイス30(マーカー34)およびデバイス30の周辺の血管部分60は位置が固定されて表示される。選択された造影画像50は、デバイス30の周辺における血管部分60の位置がデバイス固定画像41(基準画像42)に一致または近似するため、マップ画像51とデバイス固定画像41とを重畳することにより、デバイス固定画像41の視認性が低い血管部分60にマップ画像51の血管部分60が重なる。この結果、デバイスマップ重畳画像70では、マップ画像51の血管部分60中に、デバイス固定画像41のデバイス30が配置された透視画像となり、血管部分60およびデバイス30の識別性が共に向上する。   As described above, since the device fixed image 41 is aligned at the position of the device 30 (marker 34), the position of the device 30 (marker 34) and the blood vessel portion 60 around the device 30 is fixed and displayed. In the selected contrast image 50, the position of the blood vessel portion 60 in the periphery of the device 30 matches or approximates the device fixed image 41 (reference image 42). Therefore, by superimposing the map image 51 and the device fixed image 41, The blood vessel portion 60 of the map image 51 overlaps the blood vessel portion 60 with low visibility of the device fixed image 41. As a result, the device map superimposed image 70 is a fluoroscopic image in which the device 30 of the device fixed image 41 is arranged in the blood vessel portion 60 of the map image 51, and both the blood vessel portion 60 and the device 30 are improved in distinguishability.

〈デバイス強調処理〉
第1実施形態では、さらに、デバイス固定画像41におけるデバイス30を強調して表示する強調処理を行ってもよい。
<Device enhancement processing>
In the first embodiment, an enhancement process for emphasizing and displaying the device 30 in the device fixed image 41 may be performed.

すなわち、第1実施形態では、好ましくは、画像処理部14は、連続する複数フレームの透視画像40を用いてデバイス30を強調したデバイス強調画像43により、デバイス固定画像41を作成するように構成されている。具体的には、図6に示すように、画像処理部14は、最新フレームF1の透視画像40を含む直前の複数フレームの透視画像40から、デバイス30(マーカー34)を位置合わせして重ね合わせる(画像を積算処理する)ことにより、デバイス強調画像43を生成する。重ね合わせる画像枚数は任意であるが、図6では、最新フレームF1を含めて5枚(F1〜F5の5フレーム分)の例を示している。   That is, in the first embodiment, preferably, the image processing unit 14 is configured to create the device fixed image 41 by the device-enhanced image 43 in which the device 30 is emphasized by using a plurality of consecutive frames of perspective images 40. ing. Specifically, as illustrated in FIG. 6, the image processing unit 14 aligns and superimposes the device 30 (marker 34) from the perspective image 40 of a plurality of immediately preceding frames including the perspective image 40 of the latest frame F <b> 1. A device-enhanced image 43 is generated by performing (integration processing of images). Although the number of images to be superimposed is arbitrary, FIG. 6 shows an example of five sheets (five frames F1 to F5) including the latest frame F1.

デバイス強調画像43をデバイス固定画像41として用いてデバイスマップ重畳画像70を作成することにより、デバイス30の視認性がさらに向上する。   By creating the device map superimposed image 70 using the device emphasized image 43 as the device fixed image 41, the visibility of the device 30 is further improved.

〈デバイス拡大処理〉
図3に示すように、第1実施形態では、さらに、デバイスマップ重畳画像70におけるデバイス30を拡大して表示する拡大表示処理を行ってもよい。
<Device expansion processing>
As shown in FIG. 3, in the first embodiment, an enlargement display process for enlarging and displaying the device 30 in the device map superimposed image 70 may be performed.

すなわち、第1実施形態では、画像処理部14は、デバイスマップ重畳画像70中のデバイス30の像を拡大して切り出し(トリミング)することにより、デバイス30の拡大画像44を表示することが可能に構成されている。画像処理装置10は、たとえば、最新フレームの透視画像40とステント31の拡大画像44とを並べて表示した表示用画像71を生成し、制御部6(表示部7)に出力する。なお、デバイス強調画像43を、拡大画像44のみに適用してもよい。図3の表示用画像71では、デバイスマップ重畳画像70と、拡大画像44と、拡大画像44に強調処理を適用するのに用いた複数のトリミング画像45(図3、図6参照)とを並べて表示する形態の例を示している。   That is, in the first embodiment, the image processing unit 14 can display the enlarged image 44 of the device 30 by enlarging and trimming the image of the device 30 in the device map superimposed image 70. It is configured. For example, the image processing apparatus 10 generates a display image 71 in which the perspective image 40 of the latest frame and the enlarged image 44 of the stent 31 are displayed side by side, and outputs the display image 71 to the control unit 6 (display unit 7). Note that the device emphasized image 43 may be applied only to the enlarged image 44. In the display image 71 of FIG. 3, the device map superimposed image 70, the enlarged image 44, and a plurality of trimmed images 45 (see FIGS. 3 and 6) used to apply enhancement processing to the enlarged image 44 are arranged. The example of the form to display is shown.

デバイスマップ重畳画像70では、デバイス固定画像41において位置合わせされたデバイス30(マーカー34)の周辺領域以外では、背景が移動することになる。一方、拡大画像44では、位置合わせされたデバイス30(マーカー34)の周辺領域のみが拡大されるため、移動する背景部分が取り除かれて静止画に近くなる。このため、特に画像を注視する場合に視認性が向上する。   In the device map superimposed image 70, the background moves outside the peripheral region of the device 30 (marker 34) aligned in the device fixed image 41. On the other hand, in the enlarged image 44, since only the peripheral region of the aligned device 30 (marker 34) is enlarged, the moving background portion is removed and the image becomes close to a still image. For this reason, visibility is improved particularly when an image is watched.

(画像処理装置の処理動作)
次に、図7を参照して、画像処理装置10の処理動作を説明する。
(Processing operation of image processing device)
Next, the processing operation of the image processing apparatus 10 will be described with reference to FIG.

図7のステップS1において、画像処理装置10は、造影画像50を取得し、記憶部12に記憶する。すなわち、血管内に造影剤を注入した造影中の状態で、画像処理装置10は、照射部1から照射され、被検体Tを透過したX線を検出した放射線検出部2からの検出信号を取得する。画像生成部13が、取得した検出信号に基づいて、造影画像50を生成する。造影画像50は、心拍動の1周期以上の期間にわたって複数生成され、それぞれ記憶部12に記憶される。   In step S <b> 1 of FIG. 7, the image processing apparatus 10 acquires the contrast image 50 and stores it in the storage unit 12. That is, the image processing apparatus 10 acquires a detection signal from the radiation detection unit 2 that detects X-rays irradiated from the irradiation unit 1 and transmitted through the subject T in a state in which a contrast medium is injected into the blood vessel. To do. The image generation unit 13 generates a contrast image 50 based on the acquired detection signal. A plurality of contrast images 50 are generated over a period of one or more cycles of heartbeat, and each is stored in the storage unit 12.

ステップS2において、画像処理装置10は、透視画像40の取得を開始する。すなわち、非造影中の状態で、照射部1から照射され、被検体Tを透過したX線を検出した放射線検出部2からの検出信号を取得する。画像生成部13が、取得した検出信号に基づいて、透視画像40を生成する。造影画像50は、動画像としてフレーム単位で連続的に生成され、順次、画像処理部14に出力される。   In step S <b> 2, the image processing apparatus 10 starts obtaining the fluoroscopic image 40. That is, a detection signal is acquired from the radiation detection unit 2 that has detected X-rays irradiated from the irradiation unit 1 and transmitted through the subject T in a non-contrast state. The image generation unit 13 generates a fluoroscopic image 40 based on the acquired detection signal. The contrast image 50 is continuously generated in units of frames as a moving image and is sequentially output to the image processing unit 14.

ステップS3において、画像処理部14は、生成された透視画像40から、画像認識によりマーカー34を検出する。画像処理部14は、透視画像40におけるマーカー34の位置(すなわち、デバイス30の位置)を取得する。   In step S <b> 3, the image processing unit 14 detects the marker 34 from the generated perspective image 40 by image recognition. The image processing unit 14 acquires the position of the marker 34 (that is, the position of the device 30) in the fluoroscopic image 40.

ステップS4において、画像処理部14は、デバイス固定画像41を作成する。すなわち、画像処理部14は、フレーム毎の透視画像40から基準画像42を選択し、基準画像42のフレーム以降の各透視画像40について、基準画像42のマーカー位置に位置合わせすることにより、デバイス固定画像41を作成する。デバイス強調画像43を作成する場合には、画像処理部14は、図6に示したように連続する複数フレームの透視画像40を積算(加算)してデバイス強調画像43を作成する。   In step S <b> 4, the image processing unit 14 creates a device fixed image 41. That is, the image processing unit 14 selects the reference image 42 from the perspective image 40 for each frame, and aligns each perspective image 40 after the frame of the reference image 42 with the marker position of the reference image 42 to fix the device. An image 41 is created. When creating the device-enhanced image 43, the image processing unit 14 accumulates (adds) a plurality of consecutive fluoroscopic images 40 as shown in FIG.

ステップS5において、画像処理部14は、マップ画像51の作成に用いる造影画像50を選択する。画像処理部14は、血管部分60がデバイス固定画像41の血管部分60に一致または近似する造影画像50を選択する。上記の通り、マップ画像51は、ユーザ(医師)の選択を受け付けることにより手動で選択するか、画像処理部14が自動で選択する。   In step S <b> 5, the image processing unit 14 selects the contrast image 50 used for creating the map image 51. The image processing unit 14 selects the contrast image 50 in which the blood vessel portion 60 matches or approximates the blood vessel portion 60 of the device fixed image 41. As described above, the map image 51 is manually selected by accepting the selection of the user (doctor) or automatically selected by the image processing unit 14.

ステップS6において、画像処理部14は、選択した造影画像50を用いてマップ画像51を作成する。背景部分61の除去を行う場合、画像処理部14は、選択した造影画像50の直近の複数フレームの過去造影画像52を用いて差分画像53を作成し、閾値処理を行うことによりマップ画像51から背景部分61を除去する(背景除去画像55を作成する)。   In step S <b> 6, the image processing unit 14 creates a map image 51 using the selected contrast image 50. When removing the background portion 61, the image processing unit 14 creates a difference image 53 using the past contrast images 52 of a plurality of frames nearest to the selected contrast image 50, and performs threshold processing from the map image 51. The background portion 61 is removed (a background removal image 55 is created).

ステップS7において、画像処理部14は、マップ画像51にデバイス固定画像41を重畳させることにより、デバイスマップ重畳画像70を作成する。   In step S <b> 7, the image processing unit 14 creates a device map superimposed image 70 by superimposing the device fixed image 41 on the map image 51.

ステップS8において、画像処理装置10(画像処理部14)は、表示部7(制御部6)に画像出力を行う。この際、デバイスマップ重畳画像70が出力されてもよいし、図3に示した表示用画像71が出力されてもよい。表示用画像71を出力する場合、画像処理部14は、デバイス強調画像43のデバイス周辺をトリミングした拡大画像44を作成するとともに、拡大画像44に強調処理を適用するのに用いた複数のトリミング画像45とを並べて表示させる。   In step S8, the image processing apparatus 10 (image processing unit 14) outputs an image to the display unit 7 (control unit 6). At this time, the device map superimposed image 70 may be output, or the display image 71 shown in FIG. 3 may be output. When outputting the display image 71, the image processing unit 14 creates an enlarged image 44 obtained by trimming the device periphery of the device emphasized image 43, and a plurality of trimmed images used for applying the enhancement process to the enlarged image 44. 45 are displayed side by side.

以降、画像処理部14は、デバイス固定画像41をフレーム毎に作成すると、順次マップ画像51にデバイス固定画像41を重畳させていくことにより、画像を更新する。また、画像処理部14は、最新フレームの透視画像40が得られる度に、その最新フレームの透視画像40を用いたデバイス強調画像43を作成し、拡大画像44を更新する。   Thereafter, when the device fixed image 41 is created for each frame, the image processing unit 14 sequentially updates the image by superimposing the device fixed image 41 on the map image 51. The image processing unit 14 creates a device-enhanced image 43 using the perspective image 40 of the latest frame and updates the enlarged image 44 every time the perspective image 40 of the latest frame is obtained.

(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effect of 1st Embodiment)
In the first embodiment, the following effects can be obtained.

第1実施形態では、上記のように、連続的に生成される複数の透視画像40において、被検体T内に導入されたデバイス30の位置が一致するように位置合わせしたデバイス固定画像41を作成し、記憶部12に記憶された被検体Tの血管の造影画像50から、デバイス30に対して識別可能に血管部分60を表示するマップ画像51を作成し、マップ画像51にデバイス固定画像41を重畳させることにより、デバイスマップ重畳画像70を作成するように画像処理部14を構成する。これにより、マップ画像51では、造影画像50を用いて血管部分60を明確に視認可能にすることができ、かつ、デバイス30が識別可能なように血管部分60を表示することができる。そして、デバイスマップ重畳画像70では、デバイス固定画像41のデバイス30を、マップ画像51の血管部分60に重ねることによって、通常の造影画像50では造影剤に埋もれてしまうデバイス30と、造影画像50から得られた明確な血管部分60とを同時に表示することができる。その結果、被検体T内に導入されたデバイス30と血管部分60との両方を、透視画像40中で明確かつ同時に確認することができる。   In the first embodiment, as described above, a device fixed image 41 is created in which a plurality of continuously generated fluoroscopic images 40 are aligned so that the positions of the devices 30 introduced into the subject T coincide with each other. Then, from the blood vessel contrast image 50 of the subject T stored in the storage unit 12, a map image 51 that displays the blood vessel portion 60 in an identifiable manner with respect to the device 30 is created, and the device fixed image 41 is added to the map image 51. By superimposing, the image processing unit 14 is configured to create a device map superimposed image 70. Thereby, in the map image 51, the blood vessel portion 60 can be clearly visually recognized using the contrast image 50, and the blood vessel portion 60 can be displayed so that the device 30 can be identified. In the device map superimposed image 70, the device 30 of the device fixed image 41 is superimposed on the blood vessel portion 60 of the map image 51, so that the normal contrast image 50 is buried in the contrast agent and the contrast image 50. The obtained clear blood vessel portion 60 can be displayed simultaneously. As a result, both the device 30 and the blood vessel portion 60 introduced into the subject T can be confirmed clearly and simultaneously in the fluoroscopic image 40.

また、第1実施形態では、上記のように、画像処理部14を、造影画像50における血管部分60の画素値を反転させる処理、または、造影画像50における血管部分60の色をデバイス30に対して識別可能な色に変更する処理を行って、マップ画像51を生成するように構成する。これにより、デバイス30の識別性を向上させることが可能なマップ画像51を容易に生成することができる。また、その結果、デバイスマップ重畳画像70において、デバイス30と血管部分60との両方をより明確に確認できるようになる。   In the first embodiment, as described above, the image processing unit 14 performs processing for inverting the pixel value of the blood vessel portion 60 in the contrast image 50 or the color of the blood vessel portion 60 in the contrast image 50 with respect to the device 30. The map image 51 is generated by performing a process of changing the color to an identifiable color. Thereby, the map image 51 which can improve the discriminability of the device 30 can be easily generated. As a result, in the device map superimposed image 70, both the device 30 and the blood vessel portion 60 can be confirmed more clearly.

また、第1実施形態では、上記のように、画像処理部14を、連続して生成された複数の造影画像50を用いて、造影画像50における血管部分60以外の背景部分61の一部または全部を除去して、マップ画像51を作成するように構成する。これにより、マップ画像51から血管部分60以外の背景部分61を除去することができるので、デバイスマップ重畳画像70において背景部分61の多重化を抑制して、画像全体としての視認性を向上させることができる。   In the first embodiment, as described above, the image processing unit 14 uses a plurality of continuously generated contrast images 50, or a part of the background portion 61 other than the blood vessel portion 60 in the contrast image 50 or The map image 51 is created by removing all of them. Thereby, since the background part 61 other than the blood vessel part 60 can be removed from the map image 51, the multiplexing of the background part 61 in the device map superimposed image 70 is suppressed, and the visibility of the entire image is improved. Can do.

また、第1実施形態では、上記のように、造影画像50と造影画像50の直近フレームの過去造影画像52との差分画像53を作成し、差分画像53に対して画素値の閾値を用いて画像成分を除去する閾値処理を行うことにより、背景部分61の除去を行うように画像処理部14を構成する。これにより、連続するフレームで血管位置は変動するのに対して骨や動きの少ない臓器は位置が変わらないことを利用して、容易に、血管部分60を残しつつ背景部分61を除去することができる。   In the first embodiment, as described above, the difference image 53 between the contrast image 50 and the past contrast image 52 of the most recent frame of the contrast image 50 is created, and the threshold value of the pixel value is used for the difference image 53. The image processing unit 14 is configured to remove the background portion 61 by performing threshold processing for removing the image component. This makes it possible to easily remove the background portion 61 while leaving the blood vessel portion 60 by utilizing the fact that the position of a bone or an organ with little movement does not change while the blood vessel position varies in successive frames. it can.

また、第1実施形態では、上記のように、連続する複数フレームの透視画像40を用いてデバイス30を強調したデバイス強調画像43により、デバイス固定画像41を作成するように画像処理部14を構成する。これにより、デバイス固定画像41におけるデバイス30の視認性を向上させることができる。その結果、デバイスマップ重畳画像70において、デバイス30と血管部分60との両方をさらに明確に確認できるようになる。特に、心血管インターベンション治療においては、留置したステント31(デバイス30)を強調させた上で、血管部分60を識別可能に表示することができるので、ステント31の血管壁VW(図2参照)への密着度が容易かつ正確に確認でき、バルーンによる追加拡張の必要性の判断などを適切に行うことが可能となる。   In the first embodiment, as described above, the image processing unit 14 is configured so as to create the device fixed image 41 by using the device-enhanced image 43 in which the device 30 is emphasized using the continuous images 40 of a plurality of frames. To do. Thereby, the visibility of the device 30 in the device fixed image 41 can be improved. As a result, both the device 30 and the blood vessel portion 60 can be more clearly confirmed in the device map superimposed image 70. In particular, in the cardiovascular intervention treatment, the indwelling stent 31 (device 30) can be highlighted and the blood vessel portion 60 can be displayed in an identifiable manner, so that the blood vessel wall VW of the stent 31 (see FIG. 2) It is possible to easily and accurately confirm the degree of close contact with the balloon, and to appropriately determine the necessity for additional expansion using a balloon.

また、第1実施形態では、上記のように、デバイス30が血管治療用のステント31を含み、透視画像40および造影画像50が、被検体Tの心拍に伴って周期的に動く部位のX線画像である。心血管インターベンション治療など、血管を含む体組織が心拍に伴って周期的に動く場合には、ステント31および血管部分60の各々について十分に視認性を向上させることが難しい。本実施形態の画像処理装置10は、デバイス固定画像41によって位置変動を抑制しつつマップ画像51によって血管部分60とデバイス30とを識別可能にすることが可能であるため、このような場合に特に有効である。   Further, in the first embodiment, as described above, the device 30 includes the stent 31 for vascular treatment, and the fluoroscopic image 40 and the contrast image 50 are X-rays of a site that periodically moves with the heartbeat of the subject T. It is an image. In the case where a body tissue including a blood vessel periodically moves with a heartbeat, such as a cardiovascular intervention treatment, it is difficult to sufficiently improve the visibility of each of the stent 31 and the blood vessel portion 60. The image processing apparatus 10 according to the present embodiment can distinguish the blood vessel portion 60 and the device 30 by the map image 51 while suppressing the position variation by the device fixed image 41. It is valid.

[第2実施形態]
次に、図8を参照して、第2実施形態について説明する。この第2実施形態では、上記第1実施形態に加えて、造影画像における血管部分の輪郭抽出を行う例について説明する。なお、第2実施形態における装置構成は上記第1実施形態と同様であるので、同一の符号を用いるとともに説明を省略する。
[Second Embodiment]
Next, a second embodiment will be described with reference to FIG. In the second embodiment, in addition to the first embodiment, an example of performing contour extraction of a blood vessel portion in a contrast image will be described. In addition, since the apparatus structure in 2nd Embodiment is the same as that of the said 1st Embodiment, it abbreviate | omits description while using the same code | symbol.

第2実施形態では、画像処理部14による画像処理のうち、マップ画像51の作成に関する処理(図7のステップS6における画像処理部14の処理)が上記第1実施形態と異なる。第2実施形態では、図8に示すように、画像処理部14は、造影画像50における血管部分60の輪郭抽出により、血管部分60の輪郭を識別可能に表示するマップ画像(輪郭マップ画像51A)を生成するように構成されている。輪郭マップ画像51Aは、特許請求の範囲の「マップ画像」の一例である。   In the second embodiment, of the image processing performed by the image processing unit 14, processing relating to the creation of the map image 51 (processing of the image processing unit 14 in step S <b> 6 in FIG. 7) is different from that in the first embodiment. In the second embodiment, as shown in FIG. 8, the image processing unit 14 displays a map image (contour map image 51 </ b> A) that displays the contour of the blood vessel portion 60 in an identifiable manner by extracting the contour of the blood vessel portion 60 in the contrast image 50. Is configured to generate The contour map image 51A is an example of the “map image” in the claims.

輪郭抽出は、たとえばラプラシアンフィルタや、画素勾配から輪郭(エッジ)を検出する方法などの公知のエッジ抽出技術を用いることができる。造影画像50は、造影された血管部分60と血管部分60以外の部分とのコントラストが明確であるので、容易に精度よく輪郭抽出を行うことができる。また、造影画像50に対して、図5に示した背景除去処理を行って得られた背景除去画像55を用いて輪郭抽出を行ってもよい。この場合、余計な背景部分61が除去されるので、さらに精度よく、血管部分60の輪郭のみを抽出することが可能となる。   For the contour extraction, a known edge extraction technique such as a Laplacian filter or a method of detecting a contour (edge) from a pixel gradient can be used. Since the contrast between the contrasted blood vessel portion 60 and the portion other than the blood vessel portion 60 is clear, the contrast image 50 can easily perform contour extraction with high accuracy. Further, the contour extraction may be performed on the contrast image 50 by using the background removed image 55 obtained by performing the background removal process shown in FIG. In this case, since the extra background portion 61 is removed, only the contour of the blood vessel portion 60 can be extracted with higher accuracy.

図8に示すように、画像処理部14は、造影画像50(背景除去画像55)から、血管部分60の輪郭を識別可能に表示した輪郭マップ画像51Aを作成する。輪郭マップ画像51Aでは、血管部分60の輪郭線62について、血管部分60の画素値を反転させる処理、または、造影画像50における血管部分60の色をデバイス30に対して識別可能な色に変更する処理が行われる。これにより、輪郭マップ画像51Aをマップ画像51として用いてデバイスマップ重畳画像70を作成すると、デバイス30が存在する血管部分60の血管壁が輪郭線62によって表示されることになる。   As illustrated in FIG. 8, the image processing unit 14 creates an outline map image 51 </ b> A that displays the outline of the blood vessel portion 60 in an identifiable manner from the contrast image 50 (background removal image 55). In the contour map image 51 </ b> A, processing for inverting the pixel value of the blood vessel portion 60 for the contour line 62 of the blood vessel portion 60, or the color of the blood vessel portion 60 in the contrast image 50 is changed to a color that can be identified by the device 30. Processing is performed. Thus, when the device map superimposed image 70 is created using the contour map image 51A as the map image 51, the blood vessel wall of the blood vessel portion 60 in which the device 30 exists is displayed by the contour line 62.

輪郭マップ画像51Aでは、血管部分60の内、輪郭線62のみが表示され、輪郭線62の内側(血管部分60の内部領域)は非着色(透明領域)とすることができる。この場合、デバイスマップ重畳画像70を作成すると、血管部分60の内部領域ではデバイス固定画像41の画像がそのまま表示されるので、ユーザ(医師)は、造影画像50から作成された画像ではなく、デバイス30が存在する領域の実際の画像を確認できる。   In the contour map image 51A, only the contour line 62 of the blood vessel portion 60 is displayed, and the inside of the contour line 62 (inner region of the blood vessel portion 60) can be uncolored (transparent region). In this case, when the device map superimposed image 70 is created, the image of the device fixed image 41 is displayed as it is in the internal region of the blood vessel portion 60, so that the user (doctor) is not an image created from the contrast image 50, but the device The actual image of the area where 30 exists can be confirmed.

第2実施形態のその他の構成については、上記第1実施形態と同様である。   Other configurations of the second embodiment are the same as those of the first embodiment.

(第2実施形態の効果)
第2実施形態では、上記第1実施形態と同様に、造影画像50から輪郭マップ画像51Aを作成し、輪郭マップ画像51Aにデバイス固定画像41を重畳させることにより、デバイスマップ重畳画像70を作成することによって、被検体T内に導入されたデバイス30と血管部分60との両方を、透視画像40中で明確かつ同時に確認することができる。
(Effect of 2nd Embodiment)
In the second embodiment, as in the first embodiment, a contour map image 51A is created from the contrast image 50, and the device fixed image 41 is superimposed on the contour map image 51A, thereby creating a device map superimposed image 70. Thus, both the device 30 and the blood vessel portion 60 introduced into the subject T can be clearly and simultaneously confirmed in the fluoroscopic image 40.

また、第2実施形態では、上記のように、造影画像50における血管部分60の輪郭抽出により、血管部分60の輪郭を識別可能に表示する輪郭マップ画像51Aを生成するように画像処理部14を構成する。これにより、デバイスマップ重畳画像70において、血管部分60の輪郭(すなわち、血管壁)だけを識別可能に表示し、血管部分60の内部にはデバイス固定画像41そのものを表示することができる。これにより、識別可能な表示色により血管部分60が塗りつぶされる場合と異なり、透視画像40に慣れたユーザにとっても違和感なく、デバイス30と血管部分60との両方を明確に確認可能なデバイスマップ重畳画像70を生成することができる。   Further, in the second embodiment, as described above, the image processing unit 14 is configured to generate the contour map image 51A that displays the contour of the blood vessel portion 60 in an identifiable manner by extracting the contour of the blood vessel portion 60 in the contrast image 50. Configure. Thereby, in the device map superimposed image 70, only the outline of the blood vessel portion 60 (that is, the blood vessel wall) can be displayed in an identifiable manner, and the device fixed image 41 itself can be displayed inside the blood vessel portion 60. Thus, unlike the case where the blood vessel portion 60 is filled with an identifiable display color, a device map superimposed image that can clearly confirm both the device 30 and the blood vessel portion 60 without feeling uncomfortable for a user who is used to the fluoroscopic image 40. 70 can be generated.

[第3実施形態]
次に、図9を参照して、第3実施形態について説明する。この第3実施形態では、上記第1実施形態におけるマップ画像に用いる造影画像の選択を、画像処理部が自動で行う構成例について説明する。なお、第3実施形態における装置構成は上記第1実施形態と同様であるので、同一の符号を用いるとともに説明を省略する。
[Third Embodiment]
Next, a third embodiment will be described with reference to FIG. In the third embodiment, a configuration example in which an image processing unit automatically selects a contrast image used for a map image in the first embodiment will be described. In addition, since the apparatus structure in 3rd Embodiment is the same as that of the said 1st Embodiment, it uses the same code | symbol and abbreviate | omits description.

画像処理部14がマップ画像51の作成に用いる造影画像50を自動で選択する方法は、たとえば画像認識によりデバイス固定画像41と各造影画像50との類似度を算出する方法なども可能である。第3実施形態では、造影画像50の選択方法の一例として、画像処理部14が、心拍位相に基づいて、マップ画像51の作成に用いる造影画像50を自動で選択する例を示す。すなわち、第3実施形態では、画像処理部14による図7のステップS5の処理が上記第1実施形態と異なっている。   As a method of automatically selecting the contrast image 50 used by the image processing unit 14 for creating the map image 51, for example, a method of calculating the degree of similarity between the device fixed image 41 and each contrast image 50 by image recognition is also possible. In the third embodiment, as an example of the selection method of the contrast image 50, an example in which the image processing unit 14 automatically selects the contrast image 50 used for creating the map image 51 based on the heartbeat phase is shown. That is, in the third embodiment, the process of step S5 in FIG. 7 by the image processing unit 14 is different from that in the first embodiment.

第3実施形態では、画像処理部14は、透視画像40(造影画像50)の心拍位相情報に基づいて、造影画像50を選択することができる。心拍位相とは、心拍周期における1周期内のタイミング(時間位置)を意味する。心拍位相情報は、透視画像40(造影画像50)の生成タイミングにおける心拍位相を反映する情報である。透視画像40および造影画像50における血管部分60の動きは、被検体Tの心拍動の周期性に従うため、略一致(完全一致を含む)する心拍位相の画像同士は、血管部分60の位置が類似(または一致)した画像になる。   In the third embodiment, the image processing unit 14 can select the contrast image 50 based on the heartbeat phase information of the fluoroscopic image 40 (contrast image 50). The heartbeat phase means a timing (time position) within one cycle in the heartbeat cycle. The heartbeat phase information is information reflecting the heartbeat phase at the generation timing of the fluoroscopic image 40 (contrast image 50). Since the movement of the blood vessel portion 60 in the fluoroscopic image 40 and the contrast image 50 follows the periodicity of the heartbeat of the subject T, the positions of the blood vessel portion 60 are similar between images of heartbeat phases that are substantially identical (including complete coincidence). (Or match) images.

画像処理部14は、心電図波形111または透視画像40から、透視画像40の心拍位相情報を取得し、心拍位相情報に基づいて、記憶部12に記憶された複数の造影画像50のうちからデバイス固定画像41と略一致する心拍位相において取得された造影画像50を選択し、選択した造影画像50からマップ画像51を作成するように構成されている。   The image processing unit 14 acquires heartbeat phase information of the fluoroscopic image 40 from the electrocardiogram waveform 111 or the fluoroscopic image 40, and fixes the device from among the plurality of contrast images 50 stored in the storage unit 12 based on the heartbeat phase information. A contrast image 50 acquired at a heartbeat phase substantially coincident with the image 41 is selected, and a map image 51 is created from the selected contrast image 50.

図9に示すように、心電図波形111を用いる場合、画像処理部14は、透視画像40(造影画像50)の撮影と並行して、心電図波形111を取得し、記憶部12に記憶しておく。これにより、画像処理部14は、個々の透視画像40(造影画像50)の生成タイミングにおける心拍位相(心拍位相情報)を心電図波形111から取得することが可能である。   As shown in FIG. 9, when using the electrocardiogram waveform 111, the image processing unit 14 acquires the electrocardiogram waveform 111 and stores it in the storage unit 12 in parallel with the imaging of the fluoroscopic image 40 (contrast image 50). . Thereby, the image processing unit 14 can acquire the heartbeat phase (heartbeat phase information) at the generation timing of each fluoroscopic image 40 (contrast image 50) from the electrocardiogram waveform 111.

造影画像50(および心電図波形111)の記録後、画像処理部14は、基準画像42を決定し、以降のフレームについてデバイス固定画像41を作成する。画像処理部14は、デバイス固定画像41に用いた基準画像42の生成タイミングにおける心拍位相を取得し、記憶部12に記憶された各造影画像50のうちから、基準画像42の心拍位相と略一致する心拍位相において生成された造影画像50を選択する。   After recording the contrast image 50 (and the electrocardiogram waveform 111), the image processing unit 14 determines the reference image 42 and creates the device fixed image 41 for the subsequent frames. The image processing unit 14 acquires the heartbeat phase at the generation timing of the reference image 42 used for the device fixed image 41, and substantially matches the heartbeat phase of the reference image 42 from each contrast image 50 stored in the storage unit 12. The contrast image 50 generated in the heartbeat phase to be selected is selected.

また、心拍位相情報は、個々の透視画像40(造影画像50)から取得することができる。透視画像40(造影画像50)から取得した心拍位相情報に基づいて、デバイス固定画像41と略一致する心拍位相の造影画像50を選択する方法には、本出願人による特願2015−232474号に詳細に開示された内容を採用することができる。本明細書では、この特願2015−232474号の記載を参照により引用する。   Further, the heartbeat phase information can be acquired from each perspective image 40 (contrast image 50). Japanese Patent Application No. 2015-232474 filed by the present applicant discloses a method for selecting a contrast image 50 having a heartbeat phase substantially matching the device fixed image 41 based on the heartbeat phase information acquired from the fluoroscopic image 40 (contrast image 50). The details disclosed in detail can be adopted. In this specification, the description of Japanese Patent Application No. 2015-232474 is cited by reference.

要約すると、画像処理部14は、デバイス固定画像41(造影画像50)において共通して写る特徴点を画像認識により複数(3点以上)抽出する。各特徴点は、心拍位相に応じて周期的に移動する点である。そして、画像処理部14は、各特徴点位置の重心位置を求め、重心位置に対する各特徴点の位置ベクトルを求める。画像処理部14は、デバイス固定画像41における各特徴点の位置ベクトル群と最も一致する位置ベクトル群を有する造影画像50を、略一致する心拍位相において生成された造影画像50として選択する。この場合、各特徴点の位置ベクトル群が心拍位相情報である。このように、心拍位相情報は、心拍位相そのものである必要はなく、複数の画像同士が略一致または近似する心拍位相において撮像された画像であると判断可能な情報であればよい。   In summary, the image processing unit 14 extracts a plurality (three or more points) of feature points that appear in common in the device fixed image 41 (contrast image 50) by image recognition. Each feature point is a point that moves periodically according to the heartbeat phase. Then, the image processing unit 14 obtains the centroid position of each feature point position, and obtains the position vector of each feature point with respect to the centroid position. The image processing unit 14 selects the contrast image 50 having the position vector group that most closely matches the position vector group of each feature point in the device fixed image 41 as the contrast image 50 generated in the substantially matching heartbeat phase. In this case, the position vector group of each feature point is heartbeat phase information. As described above, the heartbeat phase information does not need to be the heartbeat phase itself, but may be any information that can be determined to be an image captured in a heartbeat phase in which a plurality of images are substantially coincident or approximate.

このような構成により、画像処理部14は、血管部分60がデバイス固定画像41の血管部分60(破線部参照)に一致または近似する造影画像50を自動的に選択する。第3実施形態のその他の構成は、上記第1実施形態と同様である。第2実施形態に第3実施形態の構成を適用してもよい。   With such a configuration, the image processing unit 14 automatically selects the contrast image 50 in which the blood vessel portion 60 matches or approximates the blood vessel portion 60 (see the broken line portion) of the device fixed image 41. Other configurations of the third embodiment are the same as those of the first embodiment. The configuration of the third embodiment may be applied to the second embodiment.

(第3実施形態の効果)
第3実施形態においても、上記第1実施形態と同様に、選択した造影画像50からマップ画像51を作成し、マップ画像51にデバイス固定画像41を重畳させることにより、デバイスマップ重畳画像70を作成することによって、被検体T内に導入されたデバイス30と血管部分60との両方を、透視画像40中で明確かつ同時に確認することができる。
(Effect of the third embodiment)
Also in the third embodiment, similarly to the first embodiment, a map image 51 is created from the selected contrast image 50, and a device fixed image 41 is superimposed on the map image 51, thereby creating a device map superimposed image 70. By doing so, both the device 30 introduced into the subject T and the blood vessel portion 60 can be clearly and simultaneously confirmed in the fluoroscopic image 40.

また、第3実施形態では、上記のように、心電図波形111または透視画像40から、透視画像40の心拍位相情報を取得し、心拍位相情報に基づいて、記憶部に記憶された複数の造影画像50のうちからデバイス固定画像41と略一致する心拍位相において取得された造影画像50を選択し、選択した造影画像50からマップ画像51を作成するように画像処理部14を構成する。これにより、心血管インターベンション治療時の造影画像50の場合に、血管部分60の移動は主として心臓の拍動に起因する周期的運動となるので、心拍位相の一致に基づいて、デバイス固定画像41と精度よく一致するマップ画像51を選択することができる。   In the third embodiment, as described above, the heartbeat phase information of the fluoroscopic image 40 is acquired from the electrocardiogram waveform 111 or the fluoroscopic image 40, and a plurality of contrast images stored in the storage unit based on the heartbeat phase information. The image processing unit 14 is configured to select a contrast image 50 acquired at a heartbeat phase substantially matching the device fixed image 41 from 50 and create a map image 51 from the selected contrast image 50. Thereby, in the case of the contrast image 50 at the time of the cardiovascular intervention treatment, the movement of the blood vessel portion 60 is a periodic motion mainly caused by the pulsation of the heart. Therefore, the device fixed image 41 is based on the coincidence of the heartbeat phases. Can be selected with high accuracy.

[第4実施形態]
次に、図10を参照して、第4実施形態について説明する。この第4実施形態では、上記第1実施形態に加えて、造影画像においてもデバイス(マーカー)の検出を行い、造影終了後からデバイス(マーカー)近傍における局所的なデバイスマップ重畳画像を生成する例について説明する。なお、第4実施形態における装置構成は上記第1実施形態と同様であるので、同一の符号を用いるとともに説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment will be described with reference to FIG. In the fourth embodiment, in addition to the first embodiment, a device (marker) is detected also in a contrast image, and a local device map superimposed image in the vicinity of the device (marker) is generated after the contrast is completed. Will be described. In addition, since the apparatus structure in 4th Embodiment is the same as that of the said 1st Embodiment, it abbreviate | omits description while using the same code | symbol.

この第4実施形態は、図3または図8に示したような造影画像50と比較して、造影剤の希釈度を高め、造影中にもデバイス30のマーカー34が検出できるようにする利用形態で適用される。希釈された造影剤では、血管部分60のX線透過量が増大するため、マーカー34が検出可能な程度の画素値に押さえることが可能である。なお、図10に示す第4実施形態では、造影剤は、マーカー34が検出可能であっても、ステント31などのデバイス30までは視認できない希釈率で用いられる。ここでは、希釈された造影剤を用いた造影画像50を、希釈造影画像150という。   In the fourth embodiment, the contrast agent 50 is increased in dilution compared to the contrast image 50 shown in FIG. 3 or FIG. 8, and the marker 34 of the device 30 can be detected even during the contrast. Applied at. In the diluted contrast agent, the amount of X-ray transmission through the blood vessel portion 60 increases, so that it is possible to suppress the pixel value to such a level that the marker 34 can be detected. In the fourth embodiment shown in FIG. 10, the contrast agent is used at a dilution rate that is not visible to the device 30 such as the stent 31 even if the marker 34 can be detected. Here, the contrast image 50 using the diluted contrast agent is referred to as a diluted contrast image 150.

図10に示すように、画像処理部14は、造影中に生成される希釈造影画像150において、デバイス30近傍における部分マップ画像51Bを作成する。具体的には、画像処理部14は、希釈造影画像150からマーカー34を検出し、マーカー34に位置に基づいてデバイス30近傍の領域を切り取る(トリミングする)。画像処理部14は、切り取った画像部分について、血管部分60の画素値を反転させる処理、または、血管部分60の色をデバイス30に対して識別可能な色に変更する処理を行って、部分マップ画像51Bを生成する。なお、予め造影剤の注入時間を記憶部12に設定しておくか、画像認識により希釈造影剤の注入(血管部分60の画素値変化)を検出することにより、画像処理部14は、希釈造影画像150を自動で特定することができる。   As shown in FIG. 10, the image processing unit 14 creates a partial map image 51B in the vicinity of the device 30 in the diluted contrast image 150 generated during the contrast. Specifically, the image processing unit 14 detects the marker 34 from the diluted contrast image 150, and cuts out (trims) the region near the device 30 based on the position of the marker 34. The image processing unit 14 performs a process of inverting the pixel value of the blood vessel part 60 or a process of changing the color of the blood vessel part 60 to a color that can be identified by the device 30 with respect to the cut image part. An image 51B is generated. Note that the contrast processing unit 14 sets the time for injecting the contrast agent in the storage unit 12 in advance, or detects the injection of the diluted contrast agent (change in the pixel value of the blood vessel portion 60) by image recognition. The image 150 can be automatically specified.

画像処理部14は、造影終了後に生成されるデバイス固定画像41と、部分マップ画像51Bとを、デバイス位置に基づいて重畳させることにより、デバイスマップ重畳画像70を作成するように構成されている。デバイス固定画像41の作成については上記第1実施形態と同様である。第4実施形態の場合、部分マップ画像51Bについてもマーカー34が検出されているので、部分マップ画像51Bに対して平行移動および回転移動の一方または両方を行うことにより、部分マップ画像51Bのマーカー34(デバイス30)の位置がデバイス固定画像41(基準画像42)に写るマーカー34(デバイス30)の位置と一致するように位置合わせを行うことが可能である。画像処理部14は、デバイス固定画像41と、部分マップ画像51Bとのマーカー34の位置を位置合わせして重畳する。   The image processing unit 14 is configured to create a device map superimposed image 70 by superimposing the device fixed image 41 generated after the contrast enhancement and the partial map image 51B based on the device position. The creation of the device fixed image 41 is the same as in the first embodiment. In the case of the fourth embodiment, since the marker 34 is also detected for the partial map image 51B, by performing one or both of parallel movement and rotational movement with respect to the partial map image 51B, the marker 34 of the partial map image 51B. It is possible to perform alignment so that the position of the (device 30) matches the position of the marker 34 (device 30) shown in the device fixed image 41 (reference image 42). The image processing unit 14 aligns and superimposes the positions of the markers 34 in the device fixed image 41 and the partial map image 51B.

第4実施形態の場合、部分マップ画像51Bをデバイス30の近傍領域の画像部分とすることができるため、心拍位相などに基づいてデバイス固定画像41に一致または近似する希釈造影画像150を選択しなくてもよい。デバイス30の近傍領域の画像部分に限定すれば、デバイス固定画像41に一致または近似する希釈造影画像150でなくても高い一致度が得られるためである。   In the case of the fourth embodiment, since the partial map image 51B can be an image portion in the vicinity region of the device 30, it is not necessary to select the diluted contrast image 150 that matches or approximates the device fixed image 41 based on the heartbeat phase or the like. May be. This is because, if limited to the image portion in the vicinity region of the device 30, a high degree of coincidence can be obtained even if it is not the diluted contrast image 150 that matches or approximates the device fixed image 41.

第4実施形態のその他の構成については、上記第1実施形態と同様である。   Other configurations of the fourth embodiment are the same as those of the first embodiment.

(第4実施形態の効果)
第4実施形態では、上記第1実施形態と同様に、希釈造影画像150からマップ画像51(部分マップ画像51B)を作成し、部分マップ画像51Bにデバイス固定画像41を重畳させることにより、デバイスマップ重畳画像70を作成することによって、被検体T内に導入されたデバイス30と血管部分60との両方を、透視画像40中で明確かつ同時に確認することができる。
(Effect of 4th Embodiment)
In the fourth embodiment, as in the first embodiment, a map image 51 (partial map image 51B) is created from the diluted contrast image 150, and the device fixed image 41 is superimposed on the partial map image 51B. By creating the superimposed image 70, both the device 30 introduced into the subject T and the blood vessel portion 60 can be clearly and simultaneously confirmed in the fluoroscopic image 40.

また、第4実施形態では、上記のように、造影中に生成される希釈造影画像150において、デバイス30近傍における部分マップ画像51Bを作成し、造影終了後に生成されるデバイス固定画像41と、部分マップ画像51Bとを、デバイス位置に基づいて重畳させることにより、デバイスマップ重畳画像70を作成するように画像処理部14を構成する。この結果、デバイス位置に基づくことにより、造影中と造影終了後とに取得される一連の透視画像40(希釈造影画像150)を用いて、造影終了後に直ちにデバイスマップ重畳画像70を作成することができる。   In the fourth embodiment, as described above, the partial map image 51B in the vicinity of the device 30 is created in the diluted contrast image 150 generated during the contrast, and the device fixed image 41 generated after the contrast is completed. The image processing unit 14 is configured to create a device map superimposed image 70 by superimposing the map image 51B on the basis of the device position. As a result, based on the device position, the device map superimposed image 70 can be created immediately after the contrast is completed using a series of fluoroscopic images 40 (diluted contrast images 150) acquired during and after the contrast. it can.

[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
[Modification]
The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiment but by the scope of claims for patent, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims for patent.

たとえば、上記第1〜第4実施形態では、冠動脈(心血管)インターベンション治療に用いる画像処理装置10の例を示したが、本発明はこれに限られない。本発明は、冠動脈(心血管)インターベンション治療以外の用途に用いる放射線画像処理装置に適用されてもよい。血管部分とデバイスとの両方を同時に確認することが可能な本発明は、特に血管内IVR(インターベンショナルラジオロジー)治療に用いられる放射線画像処理装置に好適である。また、デバイス固定画像をマップ画像と重畳させることが可能な本発明は、心臓周辺の画像中で血管部分が動く部位の透視画像を扱う場合に好適である。   For example, in the first to fourth embodiments, the example of the image processing apparatus 10 used for the coronary artery (cardiovascular) intervention treatment is shown, but the present invention is not limited to this. The present invention may be applied to a radiographic image processing apparatus used for purposes other than coronary (cardiovascular) interventional treatment. The present invention capable of simultaneously confirming both a blood vessel portion and a device is particularly suitable for a radiographic image processing apparatus used for intravascular IVR (interventional radiology) treatment. Further, the present invention capable of superimposing a device fixed image on a map image is suitable for handling a fluoroscopic image of a site where a blood vessel portion moves in an image around the heart.

また、上記第1〜第4実施形態では、デバイス30としてステント31を用いる例を示したが、本発明はこれに限られない。本発明では、デバイスは、血管内に導入される治療器具であればステント以外のどのようなものでもよい。   Moreover, although the example which uses the stent 31 as the device 30 was shown in the said 1st-4th embodiment, this invention is not limited to this. In the present invention, the device may be any device other than a stent as long as it is a therapeutic instrument introduced into a blood vessel.

また、上記実施形態では、放射線画像処理の一例として、X線を用いたX線画像の画像処理を行う画像処理装置に本発明を適用した例を示したが、本発明はこれに限られない。本発明は、X線以外の放射線を用いた放射線画像の画像処理装置に適用してもよい。   In the above embodiment, an example in which the present invention is applied to an image processing apparatus that performs image processing of an X-ray image using X-rays is shown as an example of radiation image processing, but the present invention is not limited thereto. . The present invention may be applied to an image processing apparatus for radiographic images using radiation other than X-rays.

また、上記実施形態では、説明の便宜上、画像処理部の処理を処理フローに沿って順番に処理を行うフロー駆動型のフローを用いて説明したが、本発明はこれに限られない。本発明では、画像処理部の処理を、イベント単位で処理を実行するイベント駆動型(イベントドリブン型)の処理により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。   In the above-described embodiment, for convenience of explanation, the processing of the image processing unit has been described using a flow-driven flow that performs processing in order along the processing flow. However, the present invention is not limited to this. In the present invention, the processing of the image processing unit may be performed by event-driven (event-driven) processing that executes processing in units of events. In this case, it may be performed by a complete event drive type or a combination of event drive and flow drive.

10 画像処理装置(放射線画像処理装置)
12 記憶部
13 画像生成部
14 画像処理部
30 デバイス
31 ステント
40 透視画像
41 デバイス固定画像
43 デバイス強調画像
50 造影画像
51 マップ画像
51A 輪郭マップ画像(マップ画像)
51B 部分マップ画像(マップ画像)
52 過去造影画像
53 差分画像
60 血管部分
61 背景部分
70 デバイスマップ重畳画像
111 心電図波形
10 Image processing device (Radiation image processing device)
DESCRIPTION OF SYMBOLS 12 Memory | storage part 13 Image generation part 14 Image processing part 30 Device 31 Stent 40 Perspective image 41 Device fixed image 43 Device emphasis image 50 Contrast image 51 Map image 51A Contour map image (map image)
51B Partial map image (map image)
52 Past contrast image 53 Difference image 60 Blood vessel part 61 Background part 70 Device map superimposed image 111 ECG waveform

Claims (10)

被検体を透過した放射線の検出信号に基づく透視画像を生成する画像生成部と、
前記画像生成部により生成された透視画像を記憶する記憶部と、
前記画像生成部により生成された透視画像に画像処理を行う画像処理部とを備え、
前記画像処理部は、
連続的に生成される複数の前記透視画像において、被検体内に導入されたデバイスの位置が一致するように位置合わせしたデバイス固定画像を作成し、
前記記憶部に記憶された被検体の血管の造影画像から、前記デバイスに対して識別可能に血管部分を表示するマップ画像を作成し、
前記マップ画像に前記デバイス固定画像を重畳させることにより、デバイスマップ重畳画像を作成するように構成されている、放射線画像処理装置。
An image generation unit that generates a fluoroscopic image based on a detection signal of radiation transmitted through the subject;
A storage unit for storing the fluoroscopic image generated by the image generation unit;
An image processing unit that performs image processing on the fluoroscopic image generated by the image generation unit,
The image processing unit
In a plurality of continuously generated fluoroscopic images, create a device fixed image aligned so that the position of the device introduced into the subject coincides,
From the contrast image of the blood vessel of the subject stored in the storage unit, create a map image that displays the blood vessel portion in an identifiable manner with respect to the device,
A radiation image processing apparatus configured to create a device map superimposed image by superimposing the device fixed image on the map image.
前記画像処理部は、前記造影画像における血管部分の画素値を反転させる処理、または、前記造影画像における血管部分の色を前記デバイスに対して識別可能な色に変更する処理を行って、前記マップ画像を生成するように構成されている、請求項1に記載の放射線画像処理装置。   The image processing unit performs a process of inverting a pixel value of a blood vessel part in the contrast image or a process of changing a color of a blood vessel part in the contrast image to a color that can be identified with respect to the device. The radiation image processing apparatus according to claim 1, wherein the radiation image processing apparatus is configured to generate an image. 前記画像処理部は、前記造影画像における血管部分の輪郭抽出により、血管部分の輪郭を識別可能に表示する前記マップ画像を生成するように構成されている、請求項2に記載の放射線画像処理装置。   The radiographic image processing apparatus according to claim 2, wherein the image processing unit is configured to generate the map image that displays the contour of the blood vessel portion in an identifiable manner by extracting the contour of the blood vessel portion in the contrast image. . 前記画像処理部は、連続して生成された複数の前記造影画像を用いて、前記造影画像における血管部分以外の背景部分の一部または全部を除去して、前記マップ画像を作成するように構成されている、請求項1〜3のいずれか1項に記載の放射線画像処理装置。   The image processing unit is configured to create the map image by removing a part or all of a background portion other than a blood vessel portion in the contrast image using the plurality of contrast images generated successively. The radiographic image processing apparatus of any one of Claims 1-3. 前記画像処理部は、
前記造影画像と前記造影画像の直近フレームの過去造影画像との差分画像を作成し、
前記差分画像に対して画素値の閾値を用いて画像成分を除去する閾値処理を行うことにより、前記背景部分の除去を行うように構成されている、請求項4に記載の放射線画像処理装置。
The image processing unit
Create a difference image between the contrast image and the past contrast image of the latest frame of the contrast image,
The radiographic image processing apparatus according to claim 4, wherein the background image is removed by performing threshold processing for removing an image component using a pixel value threshold for the difference image.
前記画像処理部は、
心電図波形または前記透視画像から、前記透視画像の心拍位相情報を取得し、
前記心拍位相情報に基づいて、前記記憶部に記憶された複数の前記造影画像のうちから前記デバイス固定画像と略一致する心拍位相において取得された前記造影画像を選択し、
選択した前記造影画像から前記マップ画像を作成するように構成されている、請求項1〜5のいずれか1項に記載の放射線画像処理装置。
The image processing unit
From the electrocardiogram waveform or the fluoroscopic image, obtain heartbeat phase information of the fluoroscopic image,
Based on the heartbeat phase information, select the contrast image acquired at the heartbeat phase substantially matching the device fixed image from the plurality of contrast images stored in the storage unit,
The radiographic image processing apparatus of any one of Claims 1-5 comprised so that the said map image may be produced from the selected said contrast image.
前記画像処理部は、
造影中に生成される前記造影画像において、前記デバイス近傍における部分マップ画像を作成し、
造影終了後に生成される前記デバイス固定画像と、前記部分マップ画像とを、前記デバイス位置に基づいて重畳させることにより、前記デバイスマップ重畳画像を作成するように構成されている、請求項1〜6のいずれか1項に記載の放射線画像処理装置。
The image processing unit
In the contrast image generated during the contrast, a partial map image in the vicinity of the device is created,
The device map superimposed image is created by superimposing the device fixed image generated after contrast enhancement and the partial map image on the basis of the device position. The radiation image processing apparatus according to any one of the above.
前記画像処理部は、連続する複数フレームの前記透視画像を用いて前記デバイスを強調したデバイス強調画像により、前記デバイス固定画像を作成するように構成されている、請求項1〜7のいずれか1項に記載の放射線画像処理装置。   The said image process part is comprised so that the said device fixed image may be produced with the device emphasis image which emphasized the said device using the said fluoroscopic image of several continuous frames. The radiation image processing apparatus according to item. 前記デバイスは、血管治療用のステントを含み、
前記透視画像および前記造影画像は、被検体の心拍に伴って周期的に動く部位の放射線画像である、請求項1〜8のいずれか1項に記載の放射線画像処理装置。
The device includes a stent for vascular treatment;
The radiographic image processing apparatus according to claim 1, wherein the fluoroscopic image and the contrast image are radiographic images of a region that periodically moves with a heartbeat of the subject.
放射線透視撮影による被検体の血管の造影画像を取得するステップと、
放射線透視撮影による被検体の透視画像を連続的に取得するステップと、
連続的に生成される複数の前記透視画像において、被検体内に導入されたデバイスの位置が一致するように位置合わせしたデバイス固定画像を作成するステップと、
前記造影画像から、前記デバイスに対して識別可能に血管部分を表示するマップ画像を作成するステップと、
前記マップ画像に前記デバイス固定画像を重畳させることにより、デバイスマップ重畳画像を作成するステップとを備える、放射線画像処理方法。
Acquiring a contrast image of a blood vessel of a subject by radiographic imaging; and
Continuously obtaining a fluoroscopic image of the subject by radiographic imaging;
Creating a device-fixed image that is aligned so that the positions of the devices introduced into the subject coincide with each other in the plurality of continuously generated fluoroscopic images;
Creating a map image from the contrast image that displays a blood vessel portion identifiable to the device;
Creating a device map superimposed image by superimposing the device fixed image on the map image.
JP2016183052A 2016-09-20 2016-09-20 Radiation image processing apparatus and radiation image processing method Active JP6750425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016183052A JP6750425B2 (en) 2016-09-20 2016-09-20 Radiation image processing apparatus and radiation image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183052A JP6750425B2 (en) 2016-09-20 2016-09-20 Radiation image processing apparatus and radiation image processing method

Publications (2)

Publication Number Publication Date
JP2018046922A true JP2018046922A (en) 2018-03-29
JP6750425B2 JP6750425B2 (en) 2020-09-02

Family

ID=61766800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183052A Active JP6750425B2 (en) 2016-09-20 2016-09-20 Radiation image processing apparatus and radiation image processing method

Country Status (1)

Country Link
JP (1) JP6750425B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110384511A (en) * 2018-04-23 2019-10-29 株式会社岛津制作所 X-ray shooting system
JP2021058281A (en) * 2019-10-03 2021-04-15 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus, medical image processing device and program
JP2021078847A (en) * 2019-11-20 2021-05-27 コニカミノルタ株式会社 Medical image display device, area display method, and area display program
WO2024042721A1 (en) * 2022-08-26 2024-02-29 朝日インテック株式会社 Surgery assistance device, angiography device, surgery assistance system, method for controlling same, and computer program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291313A (en) * 2008-06-03 2009-12-17 Toshiba Corp Image display device, program, and image display system
JP2010131371A (en) * 2008-10-27 2010-06-17 Toshiba Corp X-ray diagnostic apparatus and image processing apparatus
JP2011245158A (en) * 2010-05-28 2011-12-08 Toshiba Corp X-ray image diagnostic apparatus
JP2013521969A (en) * 2010-03-24 2013-06-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for generating an image of a physical object
JP2015523183A (en) * 2012-08-03 2015-08-13 コーニンクレッカ フィリップス エヌ ヴェ Device location dependent overlay for road mapping
JP2015167793A (en) * 2014-03-10 2015-09-28 株式会社島津製作所 X-ray imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291313A (en) * 2008-06-03 2009-12-17 Toshiba Corp Image display device, program, and image display system
JP2010131371A (en) * 2008-10-27 2010-06-17 Toshiba Corp X-ray diagnostic apparatus and image processing apparatus
JP2013521969A (en) * 2010-03-24 2013-06-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for generating an image of a physical object
JP2011245158A (en) * 2010-05-28 2011-12-08 Toshiba Corp X-ray image diagnostic apparatus
JP2015523183A (en) * 2012-08-03 2015-08-13 コーニンクレッカ フィリップス エヌ ヴェ Device location dependent overlay for road mapping
JP2015167793A (en) * 2014-03-10 2015-09-28 株式会社島津製作所 X-ray imaging apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110384511A (en) * 2018-04-23 2019-10-29 株式会社岛津制作所 X-ray shooting system
JP2019187679A (en) * 2018-04-23 2019-10-31 株式会社島津製作所 Radiographic system
JP2021058281A (en) * 2019-10-03 2021-04-15 キヤノンメディカルシステムズ株式会社 X-ray diagnostic apparatus, medical image processing device and program
JP7353900B2 (en) 2019-10-03 2023-10-02 キヤノンメディカルシステムズ株式会社 X-ray diagnostic equipment, medical image processing equipment and programs
JP2021078847A (en) * 2019-11-20 2021-05-27 コニカミノルタ株式会社 Medical image display device, area display method, and area display program
JP7424003B2 (en) 2019-11-20 2024-01-30 コニカミノルタ株式会社 Medical image display device, area display method, and area display program
WO2024042721A1 (en) * 2022-08-26 2024-02-29 朝日インテック株式会社 Surgery assistance device, angiography device, surgery assistance system, method for controlling same, and computer program

Also Published As

Publication number Publication date
JP6750425B2 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
JP4426297B2 (en) Medical viewing system and method for enhancing structures in noisy images
JP4842511B2 (en) Medical observation apparatus and method for detecting and enhancing structures in noisy images
JP5965840B2 (en) Vascular road mapping
EP1817743B1 (en) Multi-feature time filtering for enhancing structures in noisy images
JP5319180B2 (en) X-ray imaging apparatus, image processing apparatus, and image processing program
JP4804005B2 (en) Medical viewing system and method for detecting boundary structures
JP4988557B2 (en) Viewing device for control of PTCA angiogram
US7877132B2 (en) Medical viewing system and method for detecting and enhancing static structures in noisy images using motion of the image acquisition means
KR20080043774A (en) System and method for spatially enhancing structures in noisy images with blind de-convolution
JP5405045B2 (en) X-ray imaging apparatus and image processing apparatus
JP2010131371A (en) X-ray diagnostic apparatus and image processing apparatus
JP6750425B2 (en) Radiation image processing apparatus and radiation image processing method
CN106456080B (en) Apparatus for modifying imaging of a TEE probe in X-ray data
JP2012005636A (en) Medical image diagnosis apparatus and medical diagnosis support method
JP6828083B2 (en) Automatic motion detection
JP2018114203A (en) X-ray fluoroscopic imaging apparatus
JP2005137798A (en) X-ray imaging system and x-ray image data displaying method
JP2018171297A (en) Image processing device and x-ray diagnostic device
US20200305828A1 (en) Radiation Image Processing Apparatus and Radiation Image Processing Method
JP6750424B2 (en) Radiation image processing apparatus and radiation image processing method
CN113662570A (en) X-ray imaging apparatus and X-ray image processing method
JP2017196037A (en) X-ray diagnostic device
JP7107182B2 (en) radiography equipment
JP7303144B2 (en) Radiation imaging apparatus, object detection program for radiographic image, and object detection method for radiographic image
US20200305819A1 (en) Radiation Image Processing Apparatus and Radiation Image Processing Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200727

R151 Written notification of patent or utility model registration

Ref document number: 6750425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151