JP7341667B2 - Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems - Google Patents

Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems Download PDF

Info

Publication number
JP7341667B2
JP7341667B2 JP2019021252A JP2019021252A JP7341667B2 JP 7341667 B2 JP7341667 B2 JP 7341667B2 JP 2019021252 A JP2019021252 A JP 2019021252A JP 2019021252 A JP2019021252 A JP 2019021252A JP 7341667 B2 JP7341667 B2 JP 7341667B2
Authority
JP
Japan
Prior art keywords
image data
dimensional
ray image
ray
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019021252A
Other languages
Japanese (ja)
Other versions
JP2020127600A (en
Inventor
翔 佐々木
亮一 長江
智生 藤戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019021252A priority Critical patent/JP7341667B2/en
Publication of JP2020127600A publication Critical patent/JP2020127600A/en
Application granted granted Critical
Publication of JP7341667B2 publication Critical patent/JP7341667B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、医用画像処理装置、X線診断装置及び医用情報処理システムに関する。 Embodiments of the present invention relate to a medical image processing device, an X-ray diagnostic device, and a medical information processing system.

従来、X線診断装置を用いた検査において、撮影条件を設定するためにX線透視が用いられている。具体的には、X線診断装置は、操作者による操作の下、撮影位置や撮影角度等の撮影条件を変更しながら透視像を表示する。そして、操作者は、透視像を参照することで、検査対象部位を観察しやすい撮影条件を選択することができる。しかしながら、X線透視により撮影条件を設定する場合、撮影条件の設定段階において透視像を収集するための被ばくを生じることとなる。 Conventionally, in an examination using an X-ray diagnostic apparatus, X-ray fluoroscopy has been used to set imaging conditions. Specifically, the X-ray diagnostic apparatus displays a fluoroscopic image while changing imaging conditions such as an imaging position and an imaging angle under the operation of an operator. Then, by referring to the fluoroscopic image, the operator can select imaging conditions that make it easier to observe the region to be examined. However, when setting imaging conditions using X-ray fluoroscopy, radiation exposure occurs in order to collect fluoroscopic images at the stage of setting imaging conditions.

撮影条件の設定段階における被ばく量を低減するため、LIH(Last Image Hold)が用いた手法が知られている。具体的には、X線診断装置は、LIHをディスプレイに表示するとともに、LIH上に撮影位置を示すROI(Region Of Interest)を表示させる。そして、操作者は、検査対象部位を観察しやすいようにLIH上のROIを調整することで、撮影位置を設定することができる。しかしながら、LIHにより撮影条件を設定する場合、LIHに含まれない位置の画像やLIHと異なる角度の画像は表示されないため、撮影条件を設定しにくい場合があった。 A method used by LIH (Last Image Hold) is known to reduce the amount of radiation exposure at the stage of setting imaging conditions. Specifically, the X-ray diagnostic apparatus displays the LIH on the display and also displays a ROI (Region of Interest) indicating the imaging position on the LIH. Then, the operator can set the imaging position by adjusting the ROI on the LIH so that the region to be examined can be easily observed. However, when setting imaging conditions using the LIH, images at positions not included in the LIH or images at angles different from the LIH are not displayed, which may make it difficult to set the imaging conditions.

特表2012-529319号公報Special Publication No. 2012-529319

本発明が解決しようとする課題は、被ばく量を低減しつつ、撮影条件の設定を容易にすることである。 The problem to be solved by the present invention is to facilitate the setting of imaging conditions while reducing the amount of radiation exposure.

実施形態の医用画像処理装置は、取得部と、付加部と、生成部とを備える。取得部は、2次元X線画像データを取得する。付加部は、前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する。生成部は、前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する。 The medical image processing apparatus of the embodiment includes an acquisition section, an addition section, and a generation section. The acquisition unit acquires two-dimensional X-ray image data. The addition unit generates three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data. The generation unit generates pseudo image data that pseudo-illustrates X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data by projecting the three-dimensional data.

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a medical information processing system according to the first embodiment. 図2は、第1の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus according to the first embodiment. 図3は、第1の実施形態に係る2次元X線画像データを示す図である。FIG. 3 is a diagram showing two-dimensional X-ray image data according to the first embodiment. 図4は、第1の実施形態に係る撮影条件の設定の一例を示す図である。FIG. 4 is a diagram illustrating an example of setting shooting conditions according to the first embodiment. 図5Aは、第1の実施形態に係るアイソセンターを通る軸を示す図である。FIG. 5A is a diagram showing an axis passing through the isocenter according to the first embodiment. 図5Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 5B is a diagram illustrating an example of pseudo image data generation processing according to the first embodiment. 図6は、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of the pseudo image data generation process according to the first embodiment. 図7Aは、第1の実施形態に係るアイソセンターを通る軸を示す図である。FIG. 7A is a diagram showing an axis passing through the isocenter according to the first embodiment. 図7Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 7B is a diagram illustrating an example of the pseudo image data generation process according to the first embodiment. 図8は、第1の実施形態に係る2次元X線画像データを示す図である。FIG. 8 is a diagram showing two-dimensional X-ray image data according to the first embodiment. 図9は、第1の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 9 is a flowchart for explaining a series of processing steps of the medical image processing apparatus according to the first embodiment. 図10は、第2の実施形態に係る医用画像処理装置の構成の一例を示すブロック図である。FIG. 10 is a block diagram showing an example of the configuration of a medical image processing apparatus according to the second embodiment. 図11は、第2の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 11 is a diagram for explaining a trained model generation process according to the second embodiment. 図12は、第2の実施形態に係る学習済みモデルを用いた処理について説明するための図である。FIG. 12 is a diagram for explaining processing using a learned model according to the second embodiment. 図13は、第2の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 13 is a diagram for explaining a trained model generation process according to the second embodiment. 図14は、第2の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 14 is a flowchart for explaining a series of processing steps of the medical image processing apparatus according to the second embodiment. 図15は、第3の実施形態に係る医用画像処理装置の構成の一例を示すブロック図である。FIG. 15 is a block diagram showing an example of the configuration of a medical image processing apparatus according to the third embodiment. 図16は、第3の実施形態に係る被検体マップの一例を示す図である。FIG. 16 is a diagram illustrating an example of a subject map according to the third embodiment. 図17は、第3の実施形態に係る撮影条件の設定の一例を示す図である。FIG. 17 is a diagram illustrating an example of setting photographing conditions according to the third embodiment. 図18は、第3の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 18 is a diagram illustrating an example of pseudo image data generation processing according to the third embodiment. 図19は、第4の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 19 is a block diagram showing an example of the configuration of an X-ray diagnostic apparatus according to the fourth embodiment.

以下、図面を参照して、実施形態に係る医用画像処理装置、X線診断装置及び医用情報処理システムを説明する。 Hereinafter, a medical image processing device, an X-ray diagnostic device, and a medical information processing system according to embodiments will be described with reference to the drawings.

(第1の実施形態)
まず、第1の実施形態について説明する。第1の実施形態では、X線診断装置10、画像保管装置20及び医用画像処理装置30を含んだ医用情報処理システム1について説明する。
(First embodiment)
First, a first embodiment will be described. In the first embodiment, a medical information processing system 1 including an X-ray diagnostic apparatus 10, an image storage apparatus 20, and a medical image processing apparatus 30 will be described.

図1は、第1の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。図1に示すように、第1の実施形態に係る医用情報処理システム1は、X線診断装置10と、画像保管装置20と、医用画像処理装置30とを備える。図1に示すように、X線診断装置10、画像保管装置20及び医用画像処理装置30は、ネットワークNWを介して相互に接続される。 FIG. 1 is a block diagram showing an example of the configuration of a medical information processing system 1 according to the first embodiment. As shown in FIG. 1, the medical information processing system 1 according to the first embodiment includes an X-ray diagnostic device 10, an image storage device 20, and a medical image processing device 30. As shown in FIG. 1, an X-ray diagnostic apparatus 10, an image storage apparatus 20, and a medical image processing apparatus 30 are interconnected via a network NW.

なお、第1の実施形態では、医用画像処理装置30においてX線診断装置10の撮影条件の設定を行なう場合について説明する。即ち、医用画像処理装置30は設定した撮影条件をX線診断装置10に対して送信し、X線診断装置10は、医用画像処理装置30から受け付けた撮影条件に基づいてX線画像データの収集を実行する。 Note that in the first embodiment, a case will be described in which imaging conditions for the X-ray diagnostic apparatus 10 are set in the medical image processing apparatus 30. That is, the medical image processing device 30 transmits the set imaging conditions to the X-ray diagnostic device 10, and the X-ray diagnostic device 10 collects X-ray image data based on the imaging conditions received from the medical image processing device 30. Execute.

X線診断装置10は、被検体からX線画像データを収集する装置である。例えば、X線診断装置10は、撮影条件の設定段階において被検体から2次元X線画像データを収集し、収集したX線画像データを医用画像処理装置30に対して送信する。また、例えば、X線診断装置10は、被検体から3次元X線画像データを収集し、収集した3次元X線画像データを画像保管装置20に対して送信する。また、例えば、X線診断装置10は、医用画像処理装置30から受け付けた撮影条件に基づいて、2次元X線画像データの収集を実行する。なお、X線診断装置10の構成については後述する。 The X-ray diagnostic device 10 is a device that collects X-ray image data from a subject. For example, the X-ray diagnostic apparatus 10 collects two-dimensional X-ray image data from the subject during the imaging condition setting stage, and transmits the collected X-ray image data to the medical image processing apparatus 30. Further, for example, the X-ray diagnostic apparatus 10 collects three-dimensional X-ray image data from the subject and transmits the collected three-dimensional X-ray image data to the image storage apparatus 20. Further, for example, the X-ray diagnostic apparatus 10 collects two-dimensional X-ray image data based on the imaging conditions received from the medical image processing apparatus 30. Note that the configuration of the X-ray diagnostic apparatus 10 will be described later.

画像保管装置20は、医用情報処理システム1に含まれる装置により収集された各種の医用画像データを保管する装置である。例えば、画像保管装置20は、X線診断装置10等の医用画像診断装置により収集された被検体の3次元画像データを受け付けて、装置内又は装置外に設けられたメモリに記憶させる。なお、被検体の3次元画像データについては後述する。例えば、画像保管装置20は、サーバ装置等のコンピュータ機器によって実現される。 The image storage device 20 is a device that stores various types of medical image data collected by devices included in the medical information processing system 1. For example, the image storage device 20 receives three-dimensional image data of a subject collected by a medical image diagnostic device such as the X-ray diagnostic device 10, and stores it in a memory provided within the device or outside the device. Note that the three-dimensional image data of the subject will be described later. For example, the image storage device 20 is realized by computer equipment such as a server device.

医用画像処理装置30は、撮影条件の設定段階において、X線診断装置10から被検体の2次元X線画像データを取得し、取得した2次元X線画像データに基づいて撮影条件の設定を行なう。例えば、医用画像処理装置30は、2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する。また、医用画像処理装置30は、生成した3次元データを投影することにより、2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する。また、医用画像処理装置30は、生成した擬似画像データを表示し、擬似画像データを参照した操作者からの入力操作を受け付けることで撮影条件を設定する。なお、医用画像処理装置30が行なう処理については後述する。例えば、医用画像処理装置30は、ワークステーション等のコンピュータ機器によって実現される。 In the imaging condition setting stage, the medical image processing device 30 acquires two-dimensional X-ray image data of the subject from the X-ray diagnostic device 10, and sets imaging conditions based on the acquired two-dimensional X-ray image data. . For example, the medical image processing device 30 generates three-dimensional data to which depth information is added for each position in two-dimensional X-ray image data. Furthermore, by projecting the generated three-dimensional data, the medical image processing device 30 generates pseudo image data that pseudo-represents the X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data. . Furthermore, the medical image processing device 30 displays the generated pseudo image data and sets imaging conditions by accepting an input operation from an operator who refers to the pseudo image data. Note that the processing performed by the medical image processing device 30 will be described later. For example, the medical image processing device 30 is realized by computer equipment such as a workstation.

なお、ネットワークNWを介して接続可能であれば、X線診断装置10、画像保管装置20及び医用画像処理装置30が設置される場所は任意である。例えば、医用画像処理装置30は、X線診断装置10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図1においてはX線診断装置10を1つ示すが、医用情報処理システム1は複数のX線診断装置10を含んでもよい。 Note that the X-ray diagnostic device 10, the image storage device 20, and the medical image processing device 30 can be installed at any location as long as they can be connected via the network NW. For example, the medical image processing device 30 may be installed in a different hospital from the X-ray diagnostic device 10. That is, the network NW may be configured as a local network closed within the hospital, or may be a network via the Internet. Further, although one X-ray diagnostic apparatus 10 is shown in FIG. 1, the medical information processing system 1 may include a plurality of X-ray diagnostic apparatuses 10.

図1に示すように、医用画像処理装置30は、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34とを有する。 As shown in FIG. 1, the medical image processing device 30 includes an input interface 31, a display 32, a storage circuit 33, and a processing circuit 34.

入力インターフェース31は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース31は、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用画像処理装置30とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路34へ出力する電気信号の処理回路も入力インターフェース31の例に含まれる。 The input interface 31 receives various input operations from an operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 34 . For example, the input interface 31 may include a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad that performs input operations by touching the operation surface, a touchscreen that integrates a display screen and a touchpad, and an optical sensor. This is realized by using a non-contact input circuit, a voice input circuit, etc. Note that the input interface 31 may be configured with a tablet terminal or the like that can wirelessly communicate with the main body of the medical image processing apparatus 30. Furthermore, the input interface 31 is not limited to one that includes physical operating components such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the medical image processing device 30 and outputs this electrical signal to the processing circuit 34 is also included in the input interface 31 . Included in the example.

ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、入力インターフェース31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示する。また、ディスプレイ32は、被検体について収集された各種の画像データを表示する。例えば、ディスプレイ32は、X線診断装置10によって収集された被検体の2次元X線画像データや、処理回路34によって生成された擬似画像データを表示する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 32 displays various information. For example, the display 32 displays a GUI (Graphical User Interface) for receiving various instructions, various settings, etc. from the operator via the input interface 31. Further, the display 32 displays various image data collected about the subject. For example, the display 32 displays two-dimensional X-ray image data of the subject collected by the X-ray diagnostic apparatus 10 or pseudo image data generated by the processing circuit 34. For example, the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 32 may be of a desktop type, or may be composed of a tablet terminal or the like that can wirelessly communicate with the main body of the medical image processing apparatus 30.

記憶回路33は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、記憶回路33は、X線診断装置10から取得した被検体の2次元X線画像データや、画像保管装置20から取得した被検体の3次元画像データを記憶する。また、例えば、記憶回路33は、医用画像処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、記憶回路33は、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The storage circuit 33 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the storage circuit 33 stores two-dimensional X-ray image data of the subject obtained from the X-ray diagnostic apparatus 10 and three-dimensional image data of the subject obtained from the image storage device 20. Further, for example, the storage circuit 33 stores a program for a circuit included in the medical image processing apparatus 30 to realize its function. Note that the storage circuit 33 may be realized by a server group (cloud) connected to the medical image processing device 30 via the network NW.

処理回路34は、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345を実行することで、医用画像処理装置30全体の動作を制御する。ここで、取得機能341は、取得部の一例である。また、付加機能342は、付加部の一例である。また、生成機能343は、生成部の一例である。 The processing circuit 34 controls the overall operation of the medical image processing apparatus 30 by executing an acquisition function 341, an additional function 342, a generation function 343, a display control function 344, and a control function 345. Here, the acquisition function 341 is an example of an acquisition unit. Additionally, the additional function 342 is an example of an additional section. Further, the generation function 343 is an example of a generation unit.

例えば、処理回路34は、取得機能341に対応するプログラムを記憶回路33から読み出して実行することにより、X線診断装置10から2次元X線画像データを取得する。また、例えば、処理回路34は、付加機能342に対応するプログラムを記憶回路33から読み出して実行することにより、2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する。また、例えば、処理回路34は、生成機能343に対応するプログラムを記憶回路33から読み出して実行することにより、擬似画像データを生成する。また、例えば、処理回路34は、表示制御機能344に対応するプログラムを記憶回路33から読み出して実行することにより、擬似画像データをディスプレイ32に表示させる。また、例えば、処理回路34は、制御機能345に対応するプログラムを記憶回路33から読み出して実行することにより、操作者から受け付けた入力操作に応じて撮影位置や撮影角度等の撮影条件を設定し、設定した撮影条件をX線診断装置10に対して送信する。なお、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345による処理については後述する。 For example, the processing circuit 34 acquires two-dimensional X-ray image data from the X-ray diagnostic apparatus 10 by reading a program corresponding to the acquisition function 341 from the storage circuit 33 and executing it. Further, for example, the processing circuit 34 reads a program corresponding to the additional function 342 from the storage circuit 33 and executes it, thereby generating three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data. Further, for example, the processing circuit 34 generates pseudo image data by reading out a program corresponding to the generation function 343 from the storage circuit 33 and executing it. Further, for example, the processing circuit 34 displays the pseudo image data on the display 32 by reading out a program corresponding to the display control function 344 from the storage circuit 33 and executing it. Further, for example, the processing circuit 34 reads out a program corresponding to the control function 345 from the storage circuit 33 and executes it, thereby setting photographing conditions such as a photographing position and a photographing angle according to input operations received from the operator. , transmits the set imaging conditions to the X-ray diagnostic apparatus 10. Note that processing by the acquisition function 341, additional function 342, generation function 343, display control function 344, and control function 345 will be described later.

図1に示す医用画像処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態で記憶回路33へ記憶されている。処理回路34は、記憶回路33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。 In the medical image processing apparatus 30 shown in FIG. 1, each processing function is stored in the storage circuit 33 in the form of a program executable by a computer. The processing circuit 34 is a processor that reads programs from the storage circuit 33 and executes them to implement functions corresponding to each program. In other words, the processing circuit 34 that has read each program has a function corresponding to the read program.

なお、図1においては単一の処理回路34にて、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345が実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 Note that in FIG. 1, the acquisition function 341, additional function 342, generation function 343, display control function 344, and control function 345 are realized by a single processing circuit 34; They may be combined to form the processing circuit 34, and functions may be realized by each processor executing a program. Further, each processing function of the processing circuit 34 may be realized by being appropriately distributed or integrated into a single or multiple processing circuits.

次に、図2を用いて、X線診断装置10について説明する。図2は、第1の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。図2に示すように、X線診断装置10は、X線高電圧装置101と、X線管102と、X線絞り器103と、天板104と、Cアーム105と、X線検出器106と、記憶回路107と、ディスプレイ108と、入力インターフェース109と、処理回路110とを備える。 Next, the X-ray diagnostic apparatus 10 will be explained using FIG. 2. FIG. 2 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 10 according to the first embodiment. As shown in FIG. 2, the X-ray diagnostic apparatus 10 includes an X-ray high voltage device 101, an X-ray tube 102, an X-ray diaphragm 103, a top plate 104, a C-arm 105, and an X-ray detector 106. , a storage circuit 107 , a display 108 , an input interface 109 , and a processing circuit 110 .

X線高電圧装置101は、処理回路110による制御の下、X線管102に高電圧を供給する。例えば、X線高電圧装置101は、変圧器(トランス)及び整流器等の電気回路を有し、X線管102に印加する高電圧を発生する高電圧発生装置と、X線管102が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。なお、高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。 The X-ray high voltage device 101 supplies high voltage to the X-ray tube 102 under the control of the processing circuit 110 . For example, the X-ray high-voltage device 101 includes an electric circuit such as a transformer and a rectifier, and includes a high-voltage generator that generates a high voltage to be applied to the X-ray tube 102 and a high-voltage generator that generates the high voltage that the X-ray tube 102 emits. and an X-ray control device that controls the output voltage according to the X-rays. Note that the high voltage generator may be of a transformer type or an inverter type.

X線管102は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管102は、X線高電圧装置101から供給される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。 The X-ray tube 102 is a vacuum tube that has a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays upon collision with the thermoelectrons. The X-ray tube 102 uses the high voltage supplied from the X-ray high voltage device 101 to generate X-rays by irradiating thermoelectrons from the cathode to the anode.

X線絞り器103は、X線管102により発生されたX線の照射範囲を絞り込むコリメータと、X線管102から曝射されたX線を調節するフィルタとを有する。 The X-ray restrictor 103 includes a collimator that narrows down the irradiation range of the X-rays generated by the X-ray tube 102 and a filter that adjusts the X-rays emitted from the X-ray tube 102.

X線絞り器103におけるコリメータは、例えば、スライド可能な4枚の絞り羽根を有する。コリメータは、絞り羽根をスライドさせることで、X線管102が発生したX線を絞り込んで被検体Pに照射させる。ここで、絞り羽根は、鉛などで構成された板状部材であり、X線の照射範囲を調整するためにX線管102のX線照射口付近に設けられる。 The collimator in the X-ray diaphragm 103 has, for example, four slidable aperture blades. The collimator narrows down the X-rays generated by the X-ray tube 102 and irradiates the subject P by sliding the aperture blades. Here, the aperture blade is a plate-like member made of lead or the like, and is provided near the X-ray irradiation port of the X-ray tube 102 in order to adjust the X-ray irradiation range.

X線絞り器103におけるフィルタは、被検体Pに対する被曝線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体Pに吸収されやすい軟線成分を低減したり、X線画像データのコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタは、その材質や厚み、位置などによってX線の線量及び照射範囲を変化させ、X線管102から被検体Pへ照射されるX線が予め定められた分布になるようにX線を減衰させる。 The filter in the X-ray diaphragm 103 changes the quality of the transmitted X-rays depending on the material and thickness of the filter, and absorbs the This reduces soft line components that are easily detected, and reduces high energy components that cause a decrease in the contrast of X-ray image data. In addition, the filter changes the X-ray dose and irradiation range depending on its material, thickness, position, etc., so that the X-rays irradiated from the X-ray tube 102 to the subject P have a predetermined distribution. attenuate.

例えば、X線絞り器103は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることによりX線の照射を制御する。例えば、X線絞り器103は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、コリメータの絞り羽根の開度を調整して、被検体Pに対して照射されるX線の照射範囲を制御する。また、例えば、X線絞り器103は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、フィルタの位置を調整することで、被検体Pに対して照射されるX線の線量の分布を制御する。 For example, the X-ray diaphragm 103 has a drive mechanism such as a motor and an actuator, and controls X-ray irradiation by operating the drive mechanism under the control of a processing circuit 110, which will be described later. For example, the X-ray diaphragm 103 applies a drive voltage to the drive mechanism according to a control signal received from the processing circuit 110, adjusts the opening degree of the diaphragm blades of the collimator, and irradiates the subject P. control the irradiation range of X-rays. Further, for example, the X-ray diaphragm 103 applies a drive voltage to the drive mechanism according to a control signal received from the processing circuit 110 to adjust the position of the filter, thereby irradiating the subject P. Controls the distribution of X-ray doses.

天板104は、被検体Pを載せるベッドであり、図示しない寝台駆動装置の上に配置される。なお、被検体Pは、X線診断装置10に含まれない。例えば、寝台駆動装置は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることにより、天板104の移動・傾斜を制御する。例えば、寝台駆動装置は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、天板104を移動させたり、傾斜させたりする。 The top plate 104 is a bed on which the subject P is placed, and is placed on a bed driving device (not shown). Note that the subject P is not included in the X-ray diagnostic apparatus 10. For example, the bed driving device has a driving mechanism such as a motor and an actuator, and controls the movement and inclination of the top plate 104 by operating the driving mechanism under the control of a processing circuit 110, which will be described later. For example, the bed driving device moves or tilts the top plate 104 by applying a driving voltage to the driving mechanism according to a control signal received from the processing circuit 110.

なお、本実施形態では、図2に示すように、天板104の短手方向をX軸方向とする。また、X軸方向に直交し、天板104に対して水平な方向をY軸方向とする。Y軸方向は、天板104の長手方向に対応する。また、X軸方向及びY軸方向に直交する方向をZ軸方向とする。即ち、天板104に対して垂直な方向をZ軸方向とする。また、天板104を基準としたXYZ座標系については、基準座標系とも記載する。 In this embodiment, as shown in FIG. 2, the lateral direction of the top plate 104 is the X-axis direction. Further, the direction perpendicular to the X-axis direction and horizontal to the top plate 104 is defined as the Y-axis direction. The Y-axis direction corresponds to the longitudinal direction of the top plate 104. Further, the direction perpendicular to the X-axis direction and the Y-axis direction is defined as the Z-axis direction. That is, the direction perpendicular to the top plate 104 is defined as the Z-axis direction. Furthermore, the XYZ coordinate system based on the top plate 104 is also referred to as a reference coordinate system.

Cアーム105は、X線管102及びX線絞り器103と、X線検出器106とを、被検体Pを挟んで対向するように保持する。例えば、Cアーム105は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることにより、回転したり移動したりする。例えば、Cアーム105は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、X線管102及びX線絞り器103と、X線検出器106とを被検体Pに対して回転・移動させ、X線の照射位置や照射角度を制御する。なお、図2では、X線診断装置10がシングルプレーンの場合を例に挙げて説明しているが、実施形態はこれに限定されるものではなく、バイプレーンの場合であってもよい。 The C-arm 105 holds the X-ray tube 102, the X-ray diaphragm 103, and the X-ray detector 106 so as to face each other with the subject P in between. For example, the C-arm 105 has a drive mechanism such as a motor and an actuator, and rotates or moves by operating the drive mechanism under the control of a processing circuit 110, which will be described later. For example, the C-arm 105 connects the X-ray tube 102, the X-ray diaphragm 103, and the X-ray detector 106 to the subject by applying a drive voltage to the drive mechanism according to a control signal received from the processing circuit 110. It is rotated and moved relative to P to control the X-ray irradiation position and irradiation angle. Although FIG. 2 illustrates an example in which the X-ray diagnostic apparatus 10 is a single plane, the embodiment is not limited to this, and may be a biplane.

X線検出器106は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器106は、X線管102から照射されて被検体Pを透過したX線を検出して、検出したX線量に対応した検出信号を処理回路110へと出力する。なお、X線検出器106は、グリッド、シンチレータアレイ及び光センサアレイを有する間接変換型の検出器であってもよいし、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 The X-ray detector 106 is, for example, an X-ray flat panel detector (FPD) having detection elements arranged in a matrix. The X-ray detector 106 detects the X-rays emitted from the X-ray tube 102 and transmitted through the subject P, and outputs a detection signal corresponding to the detected X-ray dose to the processing circuit 110. Note that the X-ray detector 106 may be an indirect conversion type detector having a grid, a scintillator array, and a photosensor array, or a direct conversion type detector having a semiconductor element that converts incident X-rays into electrical signals. It may be a detector.

記憶回路107は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、記憶回路107は、処理回路110によって収集されたX線画像データを受け付けて記憶する。また、記憶回路107は、処理回路110によって読み出されて実行される各種機能に対応するプログラムを記憶する。なお、記憶回路107は、X線診断装置10とネットワークを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The storage circuit 107 is realized by, for example, a RAM, a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the storage circuit 107 receives and stores X-ray image data collected by the processing circuit 110. Furthermore, the storage circuit 107 stores programs corresponding to various functions read and executed by the processing circuit 110. Note that the storage circuit 107 may be realized by a server group (cloud) connected to the X-ray diagnostic apparatus 10 via a network.

ディスプレイ108は、各種の情報を表示する。例えば、ディスプレイ108は、処理回路110による制御の下、操作者の指示を受け付けるためのGUIや、各種のX線画像を表示する。例えば、ディスプレイ108は、液晶ディスプレイやCRTディスプレイである。なお、ディスプレイ108はデスクトップ型でもよいし、処理回路110と無線通信可能なタブレット端末等で構成されることにしても構わない。 Display 108 displays various information. For example, the display 108 displays a GUI for receiving instructions from an operator and various X-ray images under the control of the processing circuit 110. For example, display 108 is a liquid crystal display or a CRT display. Note that the display 108 may be of a desktop type, or may be configured of a tablet terminal or the like that can communicate wirelessly with the processing circuit 110.

入力インターフェース109は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路110に出力する。例えば、入力インターフェース109は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース109は、処理回路110と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース109は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、X線診断装置10とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路110へ出力する電気信号の処理回路も入力インターフェース109の例に含まれる。 The input interface 109 receives various input operations from an operator, converts the received input operations into electrical signals, and outputs the electrical signals to the processing circuit 110. For example, the input interface 109 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touchpad that performs input operations by touching the operation surface, a touchscreen that integrates a display screen and a touchpad, and an optical sensor. This is realized by using a non-contact input circuit, a voice input circuit, etc. Note that the input interface 109 may be configured with a tablet terminal or the like that can communicate wirelessly with the processing circuit 110. Further, the input interface 109 is not limited to one that includes physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the X-ray diagnostic apparatus 10 and outputs this electrical signal to the processing circuit 110 is also included in the input interface 109 . Included in the example.

処理回路110は、収集機能110a、表示制御機能110b及び送信機能110cを実行することで、X線診断装置10全体の動作を制御する。 The processing circuit 110 controls the overall operation of the X-ray diagnostic apparatus 10 by executing an acquisition function 110a, a display control function 110b, and a transmission function 110c.

例えば、処理回路110は、記憶回路107から収集機能110aに相当するプログラムを読み出して実行することにより、被検体PからX線画像データを収集する。例えば、収集機能110aは、X線高電圧装置101を制御し、X線管102に供給する電圧を調整することで、被検体Pに対して照射されるX線量やオン/オフを制御する。 For example, the processing circuit 110 collects X-ray image data from the subject P by reading out a program corresponding to the collection function 110a from the storage circuit 107 and executing it. For example, the acquisition function 110a controls the X-ray high voltage device 101 and adjusts the voltage supplied to the X-ray tube 102, thereby controlling the amount of X-rays irradiated to the subject P and the on/off state.

また、例えば、収集機能110aは、X線管102、X線絞り器103、天板104、Cアーム105及びX線検出器106の動作を制御することにより、撮影位置や撮影角度、X線条件(管電流値や管電圧値等)等の撮影条件を制御する。以下では、X線診断装置10においてX線画像データの収集に用いられる機構(X線管102、X線絞り器103、天板104、Cアーム105及びX線検出器106)を、撮影系とも記載する。 Furthermore, for example, the acquisition function 110a controls the operations of the X-ray tube 102, X-ray diaphragm 103, top plate 104, C-arm 105, and X-ray detector 106 to control the imaging position, imaging angle, and X-ray conditions. Controls imaging conditions such as (tube current value, tube voltage value, etc.). Below, the mechanisms used to collect X-ray image data in the X-ray diagnostic apparatus 10 (X-ray tube 102, X-ray diaphragm 103, top plate 104, C-arm 105, and X-ray detector 106) are also referred to as the imaging system. Describe it.

具体的には、収集機能110aは、X線絞り器103の動作を制御し、コリメータが有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。また、収集機能110aは、X線絞り器103の動作を制御し、フィルタの位置を調整することで、X線の線量の分布を制御する。また、収集機能110aは、Cアーム105を回転させたり、移動させたりすることで、X線の照射範囲及び照射角度を制御する。また、収集機能110aは、天板104を移動させたり、傾斜させたりすることで、X線の照射範囲及び照射角度を制御する。また、収集機能110aは、X線検出器106から受信した検出信号に基づいてX線画像データを生成し、生成したX線画像データを記憶回路107に格納する。 Specifically, the acquisition function 110a controls the operation of the X-ray diaphragm 103 and adjusts the opening degree of the diaphragm blades of the collimator, thereby controlling the irradiation range of the X-rays irradiated onto the subject P. Control. The acquisition function 110a also controls the X-ray dose distribution by controlling the operation of the X-ray diaphragm 103 and adjusting the position of the filter. Furthermore, the acquisition function 110a controls the irradiation range and irradiation angle of X-rays by rotating or moving the C-arm 105. Furthermore, the acquisition function 110a controls the irradiation range and irradiation angle of X-rays by moving or tilting the top plate 104. The collection function 110a also generates X-ray image data based on the detection signal received from the X-ray detector 106, and stores the generated X-ray image data in the storage circuit 107.

また、処理回路110は、記憶回路107から表示制御機能110bに相当するプログラムを読み出して実行することにより、GUIや各種のX線画像をディスプレイ108に表示させる。また、処理回路110は、記憶回路107から送信機能110cに相当するプログラムを読み出して実行することにより、収集機能110aによって収集されたX線画像データを、画像保管装置20又は医用画像処理装置30に対して送信する。 Furthermore, the processing circuit 110 displays the GUI and various X-ray images on the display 108 by reading out and executing a program corresponding to the display control function 110b from the storage circuit 107. Furthermore, the processing circuit 110 reads out and executes a program corresponding to the transmission function 110c from the storage circuit 107, thereby transmitting the X-ray image data collected by the collection function 110a to the image storage device 20 or the medical image processing device 30. Send to.

図2に示すX線診断装置10においては、各処理機能がコンピュータによって実行可能なプログラムの形態で記憶回路107へ記憶されている。処理回路110は、記憶回路107からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路110は、読み出したプログラムに対応する機能を有することとなる。 In the X-ray diagnostic apparatus 10 shown in FIG. 2, each processing function is stored in the storage circuit 107 in the form of a program executable by a computer. The processing circuit 110 is a processor that reads programs from the storage circuit 107 and executes them to realize functions corresponding to each program. In other words, the processing circuit 110 in a state where the program has been read has a function corresponding to the read program.

なお、図2においては単一の処理回路110にて、収集機能110a、表示制御機能110b及び送信機能110cが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路110を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路110が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In FIG. 2, the collection function 110a, display control function 110b, and transmission function 110c are realized by a single processing circuit 110. However, the processing circuit 110 may be configured by combining a plurality of independent processors. , functions may be realized by each processor executing a program. Further, each processing function of the processing circuit 110 may be realized by being appropriately distributed or integrated into a single or multiple processing circuits.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路33又は記憶回路107に保存されたプログラムを読み出し実行することで機能を実現する。 The term "processor" used in the above explanation refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (for example, Refers to circuits such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor realizes its functions by reading and executing programs stored in the memory circuit 33 or the memory circuit 107.

なお、図1及び図2においては、単一の記憶回路33又は記憶回路107が各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数の記憶回路33を分散して配置し、処理回路34は、個別の記憶回路33から対応するプログラムを読み出す構成としても構わない。同様に、複数の記憶回路107を分散して配置し、処理回路110は、個別の記憶回路107から対応するプログラムを読み出す構成としても構わない。また、記憶回路33及び記憶回路107にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 Note that in FIGS. 1 and 2, the explanation has been made assuming that the single storage circuit 33 or the storage circuit 107 stores programs corresponding to each processing function. However, embodiments are not limited thereto. For example, a configuration may be adopted in which a plurality of memory circuits 33 are arranged in a distributed manner, and the processing circuit 34 reads a corresponding program from each individual memory circuit 33. Similarly, a configuration may be adopted in which a plurality of memory circuits 107 are arranged in a distributed manner and the processing circuit 110 reads the corresponding program from each individual memory circuit 107. Further, instead of storing the program in the memory circuit 33 and the memory circuit 107, the program may be directly incorporated into the processor circuit. In this case, the processor realizes its functions by reading and executing a program built into the circuit.

また、処理回路34及び処理回路110は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、記憶回路33から各機能に対応するプログラムを読み出して実行するとともに、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。 Further, the processing circuit 34 and the processing circuit 110 may realize their functions by using a processor of an external device connected via the network NW. For example, the processing circuit 34 reads and executes a program corresponding to each function from the storage circuit 33, and uses a server group (cloud) connected to the medical image processing device 30 via the network NW as a computing resource. Thus, each function shown in FIG. 1 is realized.

以上、X線診断装置10、画像保管装置20及び医用画像処理装置30を含んだ医用情報処理システム1について説明した。かかる構成のもと、医用情報処理システム1における医用画像処理装置30は、処理回路34による処理によって、被ばく量を低減しつつ、X線診断装置10における撮影条件の設定を容易にする。 The medical information processing system 1 including the X-ray diagnostic device 10, the image storage device 20, and the medical image processing device 30 has been described above. With this configuration, the medical image processing device 30 in the medical information processing system 1 facilitates setting of imaging conditions in the X-ray diagnostic device 10 while reducing the amount of radiation exposure through processing by the processing circuit 34.

まず、図3及び図4を用いて、医用画像処理装置30における撮影条件の設定の例を説明する。例えば、医用画像処理装置30は、撮影条件の設定段階において、図3に示す2次元X線画像データI11をX線診断装置10から取得し、取得した2次元X線画像データI11に基づいて撮影条件の設定を行なう。なお、図3は、第1の実施形態に係る2次元X線画像データI11を示す図である。また、図4は、第1の実施形態に係る撮影条件の設定の一例を示す図である。 First, an example of setting imaging conditions in the medical image processing apparatus 30 will be explained using FIGS. 3 and 4. For example, in the imaging condition setting stage, the medical image processing device 30 acquires two-dimensional X-ray image data I11 shown in FIG. Set conditions. Note that FIG. 3 is a diagram showing two-dimensional X-ray image data I11 according to the first embodiment. Further, FIG. 4 is a diagram illustrating an example of setting of photographing conditions according to the first embodiment.

例えば、取得機能341は、図3に示す2次元X線画像データI11として、LIHを取得する。具体的には、X線診断装置10における収集機能110aは、時系列的に複数の2次元X線画像データを収集し、収集した2次元X線画像データを、医用画像処理装置30に対して順次送信する。また、取得機能341は、X線診断装置10から送信された2次元X線画像データを順次取得する。また、表示制御機能344は、取得機能341が取得した2次元X線画像データを、ディスプレイ32に順次表示させる。なお、2次元X線画像データの収集及び表示を並行して実行する処理については、X線透視とも記載する。また、収集と並行して表示される2次元X線画像データについては、透視像とも記載する。次に、操作者は、所望のタイミングで、X線透視を停止する旨の入力操作を行なう。例えば、操作者は、ディスプレイ32に表示される透視像を参照しつつ、撮影位置や撮影角度を適宜変更する。そして、操作者は、透視像上に検査対象部位が現れたタイミングで入力インターフェース31が備える停止ボタンを押下することにより、透視を停止する旨の入力操作を行なう。一例を挙げると、図3に示す部位A1が検査対象部位である場合において、操作者は、透視像上に部位A1が現れたタイミングで停止ボタンを押下する。ここで、表示制御機能344は、停止ボタンが押下された際に表示されていた2次元X線画像データを、ディスプレイ32に表示させたままとする。即ち、表示制御機能344は、LIHをディスプレイ32に表示させる。また、取得機能341は、LIHを、2次元X線画像データI11として特定する。 For example, the acquisition function 341 acquires LIH as the two-dimensional X-ray image data I11 shown in FIG. Specifically, the collection function 110a in the X-ray diagnostic apparatus 10 collects a plurality of two-dimensional X-ray image data in time series, and sends the collected two-dimensional X-ray image data to the medical image processing apparatus 30. Send sequentially. Further, the acquisition function 341 sequentially acquires two-dimensional X-ray image data transmitted from the X-ray diagnostic apparatus 10. Further, the display control function 344 sequentially displays the two-dimensional X-ray image data acquired by the acquisition function 341 on the display 32. Note that the process of collecting and displaying two-dimensional X-ray image data in parallel is also referred to as X-ray fluoroscopy. Furthermore, two-dimensional X-ray image data displayed in parallel with acquisition is also referred to as a fluoroscopic image. Next, the operator performs an input operation to stop the X-ray fluoroscopy at a desired timing. For example, the operator changes the photographing position and photographing angle as appropriate while referring to the perspective image displayed on the display 32. Then, the operator performs an input operation to stop the fluoroscopy by pressing a stop button provided on the input interface 31 at the timing when the region to be inspected appears on the fluoroscopic image. For example, in a case where site A1 shown in FIG. 3 is the site to be inspected, the operator presses the stop button at the timing when site A1 appears on the fluoroscopic image. Here, the display control function 344 causes the display 32 to continue displaying the two-dimensional X-ray image data that was being displayed when the stop button was pressed. That is, the display control function 344 causes the LIH to be displayed on the display 32. Furthermore, the acquisition function 341 specifies LIH as two-dimensional X-ray image data I11.

次に、表示制御機能344は、図4の左図に示すように、2次元X線画像データI11上に、撮影位置を示すROIを表示させる。ここで、操作者は、検査対象部位を観察しやすいように2次元X線画像データI11上のROIを調整することで、撮影位置の設定を行なうことができる。例えば、部位A1が検査対象部位である場合において、操作者は、ROIの中心に部位A1が位置するように2次元X線画像データI11上でROIを移動させることで、部位A1を観察しやすいように撮影位置の設定を行なうことができる。 Next, the display control function 344 displays an ROI indicating the imaging position on the two-dimensional X-ray image data I11, as shown in the left diagram of FIG. Here, the operator can set the imaging position by adjusting the ROI on the two-dimensional X-ray image data I11 so that the region to be examined can be easily observed. For example, when part A1 is the part to be examined, the operator can easily observe part A1 by moving the ROI on the two-dimensional X-ray image data I11 so that part A1 is located at the center of the ROI. You can set the shooting position as follows.

図4に示したように、操作者は、2次元X線画像データI11上のROIを調整することで、直感的に撮影位置の設定を行なうことができる。また、操作者が2次元X線画像データI11上のROIを調整している間はX線透視の必要がないため、X線透視のみによって撮影位置を設定する場合と比較して、被ばく量を低減することができる。 As shown in FIG. 4, the operator can intuitively set the imaging position by adjusting the ROI on the two-dimensional X-ray image data I11. Furthermore, since there is no need for X-ray fluoroscopy while the operator is adjusting the ROI on the two-dimensional X-ray image data I11, the amount of radiation exposure can be reduced compared to the case where the imaging position is set only by X-ray fluoroscopy. can be reduced.

ここで、撮影位置の設定に加えて、或いは撮影位置の設定に代えて、撮影角度の設定が行われる場合がある。即ち、2次元X線画像データI11を参照した操作者が撮影角度の変更を希望する場合がある。例えば、2次元X線画像データI11において検査対象部位に対して奥行き方向に骨などの背景成分が重なっている場合、操作者は、より検査対象部位を観察しやすくなるように、Cアーム105を被検体Pに対して回転させることを希望する場合がある。 Here, in addition to or instead of setting the photographing position, the photographing angle may be set. That is, the operator who has referred to the two-dimensional X-ray image data I11 may wish to change the imaging angle. For example, in the two-dimensional X-ray image data I11, when background components such as bones overlap in the depth direction with respect to the region to be examined, the operator may move the C-arm 105 to make it easier to observe the region to be examined. There are cases where it is desired to rotate the subject P.

しかしながら、2次元X線画像データI11を参照しても、変更後の撮影角度を直感的に理解することはできない。即ち、撮影角度に応じてX線画像データ上に現れる各部位(例えば、図3の部位A1や部位A2等)の配置は変化するため、撮影角度を変更した場合、2次元X線画像データI11とは各部位の配置が異なるX線画像データが収集されることとなる。そして、変更後の撮影角度のX線画像データについて操作者が想像するしかないとなれば、その撮影角度が適切であるか否かを直感的に判断することはできない。このため、操作者にとって、2次元X線画像データI11のみを参照して撮影角度を設定することは容易でない。また、X線透視を再開すれば、追加収集した透視像によって変更後の撮影角度を直感的に理解することはできるものの、被検体Pの被ばく量が増加する。 However, even by referring to the two-dimensional X-ray image data I11, it is not possible to intuitively understand the changed imaging angle. That is, since the arrangement of each region (for example, region A1 and region A2 in FIG. 3) that appears on the X-ray image data changes depending on the imaging angle, when the imaging angle is changed, the two-dimensional X-ray image data I11 This means that X-ray image data with different locations for each part will be collected. If the operator has no choice but to imagine the X-ray image data at the changed imaging angle, it will not be possible to intuitively determine whether the imaging angle is appropriate. Therefore, it is not easy for the operator to set the imaging angle by referring only to the two-dimensional X-ray image data I11. Moreover, if X-ray fluoroscopy is restarted, although the changed imaging angle can be intuitively understood from the additionally collected fluoroscopic images, the amount of radiation exposure of the subject P increases.

そこで、医用画像処理装置30は、透視像の追加収集によらず、変更後の撮影角度を直感的に理解することができる画像データを生成することで、被ばく量を低減しつつ、撮影角度の設定を容易にする。具体的には、医用画像処理装置30は、2次元X線画像データI11と異なる撮影角度で収集されるX線画像データを擬似的に示した画像データを生成することで、被ばく量を低減しつつ、撮影角度の設定を容易にする。なお、以下では、2次元X線画像データI11と異なる撮影角度で収集されるX線画像データを、回転画像データとも記載する。また、以下では、回転画像データを擬似的に示した画像データを、擬似画像データと記載する。 Therefore, the medical image processing device 30 generates image data that allows the user to intuitively understand the changed imaging angle without additional collection of fluoroscopic images, thereby reducing the amount of radiation exposure and changing the imaging angle. Make configuration easier. Specifically, the medical image processing device 30 reduces the amount of radiation exposure by generating image data that pseudo-represents X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data I11. It also makes it easier to set the shooting angle. Note that, hereinafter, X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data I11 will also be referred to as rotated image data. Furthermore, hereinafter, image data that pseudo-represents rotated image data will be referred to as pseudo-image data.

以下、擬似画像データの生成処理の一例について、図5A及び図5Bを用いて説明する。図5Aに示す軸y’は、図2等に示したY軸方向(天板104の長手方向)と平行であり、且つ、アイソセンター(Cアーム105の回転中心)を通る軸である。以下では一例として、軸y’を回転軸としてCアーム105を回転させることにより、撮影角度を変化させる場合について説明する。なお、図5Aは、第1の実施形態に係るアイソセンターを通る軸y’を示す図である。また、図5Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。 An example of the process of generating pseudo image data will be described below with reference to FIGS. 5A and 5B. The axis y' shown in FIG. 5A is parallel to the Y-axis direction (longitudinal direction of the top plate 104) shown in FIG. As an example, a case will be described below in which the photographing angle is changed by rotating the C-arm 105 with axis y' as the rotation axis. Note that FIG. 5A is a diagram showing an axis y' passing through the isocenter according to the first embodiment. Further, FIG. 5B is a diagram illustrating an example of the pseudo image data generation process according to the first embodiment.

例えば、生成機能343は、まず、アイソセンターと2次元X線画像データI11との位置関係を特定する。一例を挙げると、生成機能343は、天板104を基準とする基準座標系において、実空間におけるアイソセンターに対応する点を特定する。ここで、アイソセンターはCアーム105の配置に応じて決まるものであるため、生成機能343は、X線診断装置10からCアーム105の制御情報を取得することにより、アイソセンターに対応する点を特定することができる。また、生成機能343は、プリセットされた条件に基づいて、基準座標系における2次元X線画像データI11の位置を特定する。例えば、生成機能343は、天板104の上方(+Z方向)に「10cm」の位置を、2次元X線画像データI11の位置として特定する。 For example, the generation function 343 first specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11. For example, the generation function 343 identifies a point corresponding to the isocenter in real space in a reference coordinate system based on the top plate 104. Here, since the isocenter is determined according to the arrangement of the C-arm 105, the generation function 343 obtains the point corresponding to the isocenter by acquiring the control information of the C-arm 105 from the X-ray diagnostic apparatus 10. can be specified. Furthermore, the generation function 343 specifies the position of the two-dimensional X-ray image data I11 in the reference coordinate system based on preset conditions. For example, the generation function 343 specifies a position “10 cm” above the top plate 104 (in the +Z direction) as the position of the two-dimensional X-ray image data I11.

なお、生成機能343は、被検体Pの体格に基づいて、基準座標系における2次元X線画像データI11の位置を特定してもよい。例えば、生成機能343は、HIS(Hospital Information System)やRIS(Radiology Information System)等のシステムから、被検体Pの体格に関わるパラメータ(年齢や性別、体重、身長など)を取得する。そして、生成機能343は、取得したパラメータに基づいて、基準座標系における2次元X線画像データI11の位置を特定する。例えば、生成機能343は、取得したパラメータに対応付いた高さ「12cm」に基づき、天板104の上方「12cm」の位置を2次元X線画像データI11の位置として特定する。 Note that the generation function 343 may specify the position of the two-dimensional X-ray image data I11 in the reference coordinate system based on the physique of the subject P. For example, the generation function 343 acquires parameters related to the physique of the subject P (age, sex, weight, height, etc.) from a system such as a HIS (Hospital Information System) or a RIS (Radiology Information System). The generation function 343 then identifies the position of the two-dimensional X-ray image data I11 in the reference coordinate system based on the acquired parameters. For example, the generation function 343 specifies a position "12 cm" above the top plate 104 as the position of the two-dimensional X-ray image data I11 based on the height "12 cm" associated with the acquired parameter.

基準座標系においてアイソセンターに対応する点及び2次元X線画像データI11の位置をそれぞれ特定することにより、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係を特定することができる。また、軸y’は、Y軸方向と平行であり且つアイソセンターを通る軸である。従って、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係を特定することにより、軸y’と2次元X線画像データI11との位置関係を特定することができる。 By specifying the point corresponding to the isocenter in the reference coordinate system and the position of the two-dimensional X-ray image data I11, the generation function 343 specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11. I can do it. Further, the axis y' is an axis that is parallel to the Y-axis direction and passes through the isocenter. Therefore, the generation function 343 can specify the positional relationship between the axis y' and the two-dimensional X-ray image data I11 by specifying the positional relationship between the isocenter and the two-dimensional X-ray image data I11.

別の例を挙げると、生成機能343は、被検体Pの3次元画像データに基づいて、アイソセンターと2次元X線画像データI11との位置関係を特定する。ここで、3次元画像データとは、例えば、X線CT(Computed Tomography)装置により収集されるCT画像データや、MRI(Magnetic Resonance Imaging)装置により収集されるMR画像データ、X線診断装置10により収集される3次元X線画像データ等である。 To give another example, the generation function 343 specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11 based on the three-dimensional image data of the subject P. Here, the three-dimensional image data is, for example, CT image data collected by an X-ray CT (Computed Tomography) device, MR image data collected by an MRI (Magnetic Resonance Imaging) device, or This includes collected three-dimensional X-ray image data, etc.

以下では、3次元画像データの例として、X線診断装置10により収集される3次元X線画像データV11について説明する。例えば、X線診断装置10は、2次元X線画像データI11の収集に先立って、被検体Pに対する回転撮影を実行し、3次元X線画像データV11を収集する。具体的には、収集機能110aは、Cアーム105を回転させることにより、X線管102及びX線検出器106を被検体Pの周囲で回転移動させながら、所定のフレームレートでX線管102からX線を照射させる。ここで、X線検出器106は、検出したX線量に対応した検出信号を出力し、収集機能110aは、X線検出器106から受信した検出信号に基づいて複数の投影データを生成する。即ち、収集機能110aは、回転撮影を実行することによって、所定のフレームレートで複数の投影データを収集する。そして、収集機能110aは、収集した複数の投影データから3次元X線画像データV11を再構成する。なお、3次元X線画像データV11は、天板104の上に載置された被検体Pについて収集されたものであるため、天板104を基準とする基準座標系における3次元X線画像データV11の位置は既知である。また、送信機能110cは、再構成された3次元X線画像データV11を、画像保管装置20に対して送信する。 Below, three-dimensional X-ray image data V11 collected by the X-ray diagnostic apparatus 10 will be described as an example of three-dimensional image data. For example, prior to collecting the two-dimensional X-ray image data I11, the X-ray diagnostic apparatus 10 performs rotational imaging on the subject P and collects the three-dimensional X-ray image data V11. Specifically, the collection function 110a rotates the C-arm 105 to rotate the X-ray tube 102 and the X-ray detector 106 around the subject P, and rotates the X-ray tube 102 at a predetermined frame rate. irradiate with X-rays. Here, the X-ray detector 106 outputs a detection signal corresponding to the detected X-ray dose, and the acquisition function 110a generates a plurality of projection data based on the detection signal received from the X-ray detector 106. That is, the collection function 110a collects a plurality of pieces of projection data at a predetermined frame rate by executing rotational imaging. The acquisition function 110a then reconstructs three-dimensional X-ray image data V11 from the plurality of acquired projection data. Note that the three-dimensional X-ray image data V11 is collected for the subject P placed on the top plate 104, and therefore the three-dimensional X-ray image data in the reference coordinate system with the top plate 104 as a reference. The position of V11 is known. Furthermore, the transmission function 110c transmits the reconstructed three-dimensional X-ray image data V11 to the image storage device 20.

また、取得機能341は、2次元X線画像データI11を取得した後、ネットワークNWを介して、画像保管装置20から3次元X線画像データV11を取得する。次に、生成機能343は、3次元X線画像データV11と2次元X線画像データI11とを位置合わせすることで、3次元X線画像データV11に対する2次元X線画像データI11の位置を特定する。これにより、生成機能343は、基準座標系における2次元X線画像データI11の位置を特定する。また、生成機能343は、基準座標系において、実空間におけるアイソセンターに対応する点を特定する。そして、基準座標系においてアイソセンターに対応する点及び2次元X線画像データI11の位置をそれぞれ特定することにより、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係を特定することができる。また、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係に基づいて、軸y’と2次元X線画像データI11との位置関係を特定することができる。 Further, after acquiring the two-dimensional X-ray image data I11, the acquisition function 341 acquires the three-dimensional X-ray image data V11 from the image storage device 20 via the network NW. Next, the generation function 343 identifies the position of the two-dimensional X-ray image data I11 with respect to the three-dimensional X-ray image data V11 by aligning the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11. do. Thereby, the generation function 343 specifies the position of the two-dimensional X-ray image data I11 in the reference coordinate system. Furthermore, the generation function 343 identifies a point corresponding to the isocenter in real space in the reference coordinate system. Then, by specifying the point corresponding to the isocenter in the reference coordinate system and the position of the two-dimensional X-ray image data I11, the generation function 343 specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11. can do. Furthermore, the generation function 343 can specify the positional relationship between the axis y' and the two-dimensional X-ray image data I11 based on the positional relationship between the isocenter and the two-dimensional X-ray image data I11.

なお、図5Bにおいては一例として、2次元X線画像データI11がY軸に対して平行であり、且つ、アイソセンターに対応する点が2次元X線画像データI11上に位置している場合について説明する。即ち、図5Bにおいては、軸y’と2次元X線画像データI11とが平行であり、且つ、軸y’が2次元X線画像データI11を通る場合について説明する。 In addition, in FIG. 5B, as an example, the two-dimensional X-ray image data I11 is parallel to the Y axis, and the point corresponding to the isocenter is located on the two-dimensional X-ray image data I11. explain. That is, in FIG. 5B, a case will be described in which the axis y' and the two-dimensional X-ray image data I11 are parallel and the axis y' passes through the two-dimensional X-ray image data I11.

例えば、2次元X線画像データI11を参照した操作者は、入力インターフェース31を介して、撮影角度の変更操作を入力する。なお、以下では、2次元X線画像データI11の撮影角度を、撮影角度W11と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W12と記載する。また、以下では、撮影角度W12で収集されるX線画像データを、回転画像データI12と記載する。図5Bに示す場合、2次元X線画像データI11の撮影角度W11は、Z軸方向に一致する。また、図5Bに示す場合、変更後の撮影角度W12(即ち、回転画像データI12の撮影角度)は、撮影角度W11から角度「θ1」だけ変更された角度である。 For example, an operator who refers to the two-dimensional X-ray image data I11 inputs an operation to change the imaging angle via the input interface 31. In addition, below, the imaging angle of the two-dimensional X-ray image data I11 will be described as the imaging angle W11. Furthermore, hereinafter, the photographing angle after being changed by the operator will be referred to as photographing angle W12. Furthermore, hereinafter, the X-ray image data collected at the imaging angle W12 will be referred to as rotated image data I12. In the case shown in FIG. 5B, the imaging angle W11 of the two-dimensional X-ray image data I11 coincides with the Z-axis direction. Further, in the case shown in FIG. 5B, the changed photographing angle W12 (that is, the photographing angle of the rotated image data I12) is an angle that is changed from the photographing angle W11 by an angle "θ1".

生成機能343は、2次元X線画像データI11に基づいて、回転画像データI12を擬似的に示す擬似画像データを生成する。例えば、生成機能343は、図5Bに示すように、軸y’を回転軸として2次元X線画像データI11を角度「θ1」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、2次元X線画像データI11を角度「θ1」だけ回転させる。次に、生成機能343は、回転後の2次元X線画像データI11をXY平面上に投影することで、擬似画像データI13aを生成する。即ち、生成機能343は、角度「θ1」に応じて2次元X線画像データI11を正射影することで、回転画像データI12を擬似した擬似画像データI13aを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI13aをディスプレイ32に表示させる。 The generation function 343 generates pseudo image data that pseudo-represents the rotated image data I12 based on the two-dimensional X-ray image data I11. For example, as shown in FIG. 5B, the generation function 343 rotates the two-dimensional X-ray image data I11 by an angle "θ1" using the axis y' as the rotation axis. That is, the generation function 343 rotates the two-dimensional X-ray image data I11 by an angle "θ1" around a point corresponding to the isocenter. Next, the generation function 343 generates pseudo image data I13a by projecting the rotated two-dimensional X-ray image data I11 onto the XY plane. That is, the generation function 343 orthogonally projects the two-dimensional X-ray image data I11 according to the angle "θ1" to generate pseudo image data I13a that simulates the rotated image data I12. Further, the display control function 344 causes the display 32 to display the pseudo image data I13a generated by the generation function 343.

しかしながら、図5Bに示す擬似画像データI13aにおいては、2次元X線画像データI11に含まれる各部位(部位A1や部位A2等)の奥行き方向の位置が考慮されていない。即ち、擬似画像データI13aにおいては、2次元X線画像データI11における各位置の深度情報が考慮されていない。このため、擬似画像データI13aは、回転画像データI12と大きく異なる画像となってしまう場合がある。ひいては、擬似画像データI13aを参照した操作者が、変更後の撮影角度W12を直感的に理解することができない場合がある。 However, in the pseudo image data I13a shown in FIG. 5B, the position in the depth direction of each part (part A1, part A2, etc.) included in the two-dimensional X-ray image data I11 is not taken into account. That is, in the pseudo image data I13a, depth information at each position in the two-dimensional X-ray image data I11 is not taken into account. Therefore, the pseudo image data I13a may end up being an image that is significantly different from the rotated image data I12. Furthermore, the operator who refers to the pseudo image data I13a may not be able to intuitively understand the changed photographing angle W12.

そこで、処理回路34は、2次元X線画像データI11における各位置の深度情報を考慮した擬似画像データを生成することにより、変更後の撮影角度W12を直感的に理解することを可能とする。具体的には、処理回路34は、図6に示すように、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成し、生成した3次元データD11を投影することにより、深度情報を考慮した擬似画像データI13bを生成する。なお、図6は、第1の実施形態に係る擬似画像データI13bの生成処理の一例を示す図である。 Therefore, the processing circuit 34 makes it possible to intuitively understand the changed imaging angle W12 by generating pseudo image data that takes into account the depth information of each position in the two-dimensional X-ray image data I11. Specifically, as shown in FIG. 6, the processing circuit 34 generates three-dimensional data D11 with depth information added for each position in the two-dimensional X-ray image data I11, and projects the generated three-dimensional data D11. By doing so, pseudo image data I13b is generated in consideration of depth information. Note that FIG. 6 is a diagram illustrating an example of the process of generating the pseudo image data I13b according to the first embodiment.

以下、処理回路34による擬似画像データI13bの生成処理について詳細に説明する。まず、付加機能342は、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成する。ここで、深度情報は、2次元X線画像データI11の奥行き方向の位置を示す情報である。例えば、図6に示す場合、深度情報は、Z軸方向の位置を示す情報である。一例を挙げると、深度情報は、Z座標である。 Hereinafter, the generation process of the pseudo image data I13b by the processing circuit 34 will be described in detail. First, the additional function 342 generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11. Here, the depth information is information indicating the position of the two-dimensional X-ray image data I11 in the depth direction. For example, in the case shown in FIG. 6, the depth information is information indicating the position in the Z-axis direction. For example, the depth information is a Z coordinate.

例えば、付加機能342は、2次元X線画像データI11と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI11における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI11の各位置に付加することで3次元データD11を生成する。以下、3次元画像データの例として、X線診断装置10により収集される3次元X線画像データV11について説明する。 For example, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I11 based on three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I11, and Three-dimensional data D11 is generated by adding depth information to each position of two-dimensional X-ray image data I11. Three-dimensional X-ray image data V11 collected by the X-ray diagnostic apparatus 10 will be described below as an example of three-dimensional image data.

例えば、X線診断装置10は、2次元X線画像データI11の収集に先立って、被検体Pから3次元X線画像データV11を収集し、収集した3次元X線画像データV11を画像保管装置20に対して送信する。また、取得機能341は、2次元X線画像データI11を取得した後、ネットワークNWを介して、画像保管装置20から3次元X線画像データV11を取得する。次に、付加機能342は、3次元X線画像データV11と2次元X線画像データI11とを位置合わせすることで、2次元X線画像データI11における各位置について深度情報を推定する。 For example, prior to collecting the two-dimensional X-ray image data I11, the X-ray diagnostic apparatus 10 collects three-dimensional X-ray image data V11 from the subject P, and stores the collected three-dimensional X-ray image data V11 in the image storage device. 20. Further, after acquiring the two-dimensional X-ray image data I11, the acquisition function 341 acquires the three-dimensional X-ray image data V11 from the image storage device 20 via the network NW. Next, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I11 by aligning the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11.

例えば、付加機能342は、まず、2次元X線画像データI11のうち骨に対応する領域の輪郭データLcを抽出する。一例を挙げると、付加機能342は、2次元X線画像データI11についてエッジ抽出処理を行なうことにより、輪郭データLcを抽出する。輪郭データLcは、例えば、2次元座標値を持つ頂点の集合として表現される。また、付加機能342は、3次元X線画像データV11を平面に投影した投影画像データを複数生成する。ここで、付加機能342は、位置及び向きを変化させつつ3次元X線画像データV11を平面に透視することで、様々な投影画像データを生成する。次に、付加機能342は、複数の投影画像データそれぞれについて、投影画像データのうち骨に対応する領域の輪郭データLvを抽出する。輪郭データLvは、例えば、2次元座標値を持つ頂点の集合として表現される。次に、付加機能342は、複数の投影画像データそれぞれについて、輪郭データLc上の各頂点と、その頂点から最短距離にある輪郭データLvの頂点との間の距離値の総和を算出する。次に、付加機能342は、算出した距離値の総和が最小となる投影画像データを特定する。そして、付加機能342は、特定した投影画像データの生成時における3次元X線画像データV11の位置及び向きを、2次元X線画像データI11に対する3次元X線画像データV11の位置及び向きとして特定する。 For example, the additional function 342 first extracts contour data Lc of a region corresponding to a bone from the two-dimensional X-ray image data I11. For example, the additional function 342 extracts contour data Lc by performing edge extraction processing on the two-dimensional X-ray image data I11. The contour data Lc is expressed, for example, as a set of vertices having two-dimensional coordinate values. Further, the additional function 342 generates a plurality of projection image data obtained by projecting the three-dimensional X-ray image data V11 onto a plane. Here, the additional function 342 generates various projection image data by viewing the three-dimensional X-ray image data V11 on a plane while changing the position and orientation. Next, the additional function 342 extracts contour data Lv of a region corresponding to a bone from among the projection image data for each of the plurality of projection image data. The contour data Lv is expressed, for example, as a set of vertices having two-dimensional coordinate values. Next, the additional function 342 calculates, for each of the plurality of projection image data, the sum of distance values between each vertex on the contour data Lc and the vertex of the contour data Lv that is the shortest distance from the vertex. Next, the additional function 342 identifies the projection image data for which the sum of the calculated distance values is the minimum. The additional function 342 then specifies the position and orientation of the three-dimensional X-ray image data V11 at the time of generation of the specified projection image data as the position and orientation of the three-dimensional X-ray image data V11 with respect to the two-dimensional X-ray image data I11. do.

即ち、付加機能342は、2次元X線画像データI11から抽出した輪郭データLcの頂点と、3次元X線画像データV11から抽出した輪郭データLvの頂点との間の距離値の総和を、3次元X線画像データV11の位置及び向きを変数とする評価関数として定義する。そして、付加機能342は、評価関数の最小化を図ることで、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。 That is, the additional function 342 calculates the sum of the distance values between the vertices of the contour data Lc extracted from the 2-dimensional X-ray image data I11 and the vertices of the contour data Lv extracted from the 3-dimensional X-ray image data V11 by 3. It is defined as an evaluation function whose variables are the position and orientation of the dimensional X-ray image data V11. The additional function 342 then aligns the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 by minimizing the evaluation function.

なお、評価関数の変数は、3次元X線画像データV11の位置及び向きに限定されるものではない。例えば、付加機能342は、3次元X線画像データV11の位置及び向きと、3次元X線画像データV11の変形度とを変数として、評価関数を定義してもよい。即ち、付加機能342は、3次元X線画像データV11を剛体として2次元X線画像データI11と位置合わせしてもよいし、3次元X線画像データV11を変形させながら2次元X線画像データI11と位置合わせしてもよい。 Note that the variables of the evaluation function are not limited to the position and orientation of the three-dimensional X-ray image data V11. For example, the additional function 342 may define an evaluation function using the position and orientation of the three-dimensional X-ray image data V11 and the degree of deformation of the three-dimensional X-ray image data V11 as variables. That is, the additional function 342 may align the three-dimensional X-ray image data V11 with the two-dimensional X-ray image data I11 as a rigid body, or may align the three-dimensional X-ray image data V11 with the two-dimensional X-ray image data I11 while deforming the three-dimensional X-ray image data V11. It may be aligned with I11.

また、付加機能342は、血管造影の有無に応じて、3次元X線画像データV11と2次元X線画像データI11との位置合わせを行なってもよい。例えば、2次元X線画像データI11が血管非造影画像であり、3次元X線画像データV11が血管造影画像である場合、付加機能342は、3次元X線画像データV11を、血管モデルと非血管モデルとに分離する。次に、付加機能342は、3次元X線画像データV11に基づく非血管モデルと、2次元X線画像データI11とを位置合わせる。これにより、付加機能342は、2次元X線画像データI11が血管非造影画像であり、3次元X線画像データV11が血管造影画像である場合においても、3次元X線画像データV11と2次元X線画像データI11とを精度良く位置合わせすることができる。 Further, the additional function 342 may align the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 depending on the presence or absence of angiography. For example, when the two-dimensional X-ray image data I11 is a blood vessel non-contrast image and the three-dimensional X-ray image data V11 is an angiographic image, the additional function 342 converts the three-dimensional X-ray image data V11 into a blood vessel model and a non-contrast image. Separate into blood vessel model. Next, the additional function 342 aligns the non-vascular model based on the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11. As a result, the additional function 342 allows the 3D X-ray image data V11 and the 2D It is possible to align the position with the X-ray image data I11 with high accuracy.

また、付加機能342は、他の医用画像データを介して、3次元X線画像データV11と2次元X線画像データI11とを位置合わせしてもよい。例えば、付加機能342は、被検体Pを撮像した3次元超音波画像データV12を用いて、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。一例を挙げると、付加機能342は、3次元X線画像データV11と3次元超音波画像データV12との位置合わせを実行し、3次元X線画像データV11に対する3次元超音波画像データV12の位置及び向きを特定する。また、付加機能342は、2次元X線画像データI11において、3次元超音波画像データV12の撮像に用いられる超音波プローブの位置及び向きを特定することにより、2次元X線画像データI11に対する3次元超音波画像データV12の位置及び向きを特定する。例えば、付加機能342は、超音波プローブの構造を示す3次元モデルを2次元X線画像データI11に対してマッチングすることにより、2次元X線画像データI11において超音波プローブの位置及び向きを特定する。そして、付加機能342は、3次元X線画像データV11に対する3次元超音波画像データV12の位置及び向きと、2次元X線画像データI11に対する3次元超音波画像データV12の位置及び向きとに基づいて、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。 Further, the additional function 342 may align the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 via other medical image data. For example, the additional function 342 aligns the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 using the three-dimensional ultrasound image data V12 obtained by imaging the subject P. For example, the additional function 342 executes alignment between the three-dimensional X-ray image data V11 and the three-dimensional ultrasound image data V12, and positions the three-dimensional ultrasound image data V12 relative to the three-dimensional X-ray image data V11. and specify the orientation. Additionally, the additional function 342 specifies the position and orientation of the ultrasound probe used for imaging the three-dimensional ultrasound image data V12 in the two-dimensional X-ray image data I11. The position and orientation of the dimensional ultrasound image data V12 are specified. For example, the additional function 342 identifies the position and orientation of the ultrasound probe in the two-dimensional X-ray image data I11 by matching a three-dimensional model showing the structure of the ultrasound probe to the two-dimensional X-ray image data I11. do. The additional function 342 is based on the position and orientation of the three-dimensional ultrasound image data V12 with respect to the three-dimensional X-ray image data V11, and the position and orientation of the three-dimensional ultrasound image data V12 with respect to the two-dimensional X-ray image data I11. Then, the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 are aligned.

また、付加機能342は、操作者からの入力操作に基づいて、3次元X線画像データV11と2次元X線画像データI11とを位置合わせしてもよい。一例を挙げると、操作者は、ディスプレイ32に表示された3次元X線画像データV11及び2次元X線画像データI11を参照しつつ、入力インターフェース31を介して、2次元X線画像データI11に対する3次元X線画像データV11の位置及び向きを変化させる。そして、操作者は、2次元X線画像データI11に対する3次元X線画像データV11の位置及び向き決定する操作を入力することにより、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。 Further, the additional function 342 may align the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 based on an input operation from the operator. For example, while referring to the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 displayed on the display 32, the operator inputs the two-dimensional X-ray image data I11 via the input interface 31. The position and orientation of the three-dimensional X-ray image data V11 are changed. Then, the operator inputs an operation to determine the position and orientation of the 3-dimensional X-ray image data V11 relative to the 2-dimensional X-ray image data I11, thereby allowing the 3-dimensional X-ray image data V11 and the 2-dimensional X-ray image data I11 to be Align.

3次元X線画像データV11と2次元X線画像データI11とを位置合わせした後、付加機能342は、2次元X線画像データI11における各位置について、深度情報を推定する。例えば、付加機能342は、3次元X線画像データV11において部位A1の位置を特定する。次に、付加機能342は、3次元X線画像データV11と2次元X線画像データI11との位置合わせの結果に基づいて、2次元X線画像データI11から、3次元X線画像データV11における部位A1までの距離を算出する。なお、2次元X線画像データI11から3次元X線画像データV11における部位A1までの距離は、例えば、2次元X線画像データI11の奥行き方向(即ち、図6に示すZ方向)の距離である。 After aligning the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I11. For example, the additional function 342 specifies the position of part A1 in three-dimensional X-ray image data V11. Next, the additional function 342 converts the two-dimensional X-ray image data I11 into the three-dimensional X-ray image data V11 based on the result of alignment between the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11. Calculate the distance to site A1. Note that the distance from the two-dimensional X-ray image data I11 to the part A1 in the three-dimensional X-ray image data V11 is, for example, the distance in the depth direction of the two-dimensional X-ray image data I11 (that is, the Z direction shown in FIG. 6). be.

即ち、付加機能342は、2次元X線画像データI11から3次元X線画像データV11における部位A1までの距離を、2次元X線画像データI11における部位A1の位置の深度情報として推定する。同様に、付加機能342は、2次元X線画像データI11における他の位置(部位A2の位置等)の深度情報を推定する。 That is, the additional function 342 estimates the distance from the two-dimensional X-ray image data I11 to the part A1 in the three-dimensional X-ray image data V11 as depth information of the position of the part A1 in the two-dimensional X-ray image data I11. Similarly, the additional function 342 estimates depth information at other positions (such as the position of site A2) in the two-dimensional X-ray image data I11.

次に、付加機能342は、推定した深度情報を2次元X線画像データI11における各位置に付加することで、図6に示す3次元データD11を生成する。例えば、2次元X線画像データI11における各画素は、それぞれがX座標及びY座標を有している。ここで、付加機能342は、2次元X線画像データI11における各画素に対して、推定した深度情報をZ座標として付加する。これにより、付加機能342は、3次元データD11として、2次元X線画像データI11における各画素を3次元空間に配置した3次元画像データを生成する。即ち、付加機能342は、深度情報に応じて2次元X線画像データI11を3次元に拡張することで、3次元データD11を生成する。なお、3次元データD11の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。 Next, the additional function 342 generates three-dimensional data D11 shown in FIG. 6 by adding the estimated depth information to each position in the two-dimensional X-ray image data I11. For example, each pixel in the two-dimensional X-ray image data I11 has an X coordinate and a Y coordinate. Here, the additional function 342 adds the estimated depth information as a Z coordinate to each pixel in the two-dimensional X-ray image data I11. Thereby, the additional function 342 generates, as three-dimensional data D11, three-dimensional image data in which each pixel in the two-dimensional X-ray image data I11 is arranged in a three-dimensional space. That is, the additional function 342 generates three-dimensional data D11 by expanding the two-dimensional X-ray image data I11 into three dimensions according to the depth information. Note that the generation of the three-dimensional data D11 may be performed before the operator performs an operation to change the photographing angle, or may be performed after the operator performs an operation to change the photographic angle.

次に、生成機能343は、図6に示すように、生成した3次元データD11を角度「θ1」だけ回転させる。例えば、生成機能343は、基準座標系における3次元データD11の位置に基づき、3次元データD11において、実空間におけるアイソセンターに対応する点を特定する。次に、生成機能343は、アイソセンターを通る軸y’を回転軸として、3次元データD11を角度「θ1」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、3次元データD11を角度「θ1」だけ回転させる。 Next, the generation function 343 rotates the generated three-dimensional data D11 by an angle "θ1", as shown in FIG. For example, the generation function 343 identifies a point corresponding to the isocenter in real space in the three-dimensional data D11 based on the position of the three-dimensional data D11 in the reference coordinate system. Next, the generation function 343 rotates the three-dimensional data D11 by an angle "θ1" using the axis y' passing through the isocenter as the rotation axis. That is, the generation function 343 rotates the three-dimensional data D11 by an angle "θ1" around a point corresponding to the isocenter.

次に、生成機能343は、図6に示すように、回転後の3次元データD11をXY平面上に投影することで、擬似画像データI13bを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI13bをディスプレイ32に表示させる。ここで、擬似画像データI13bは、上述したように、2次元X線画像データI11における各位置の深度情報を考慮して生成されたものである。このため、擬似画像データI13bは、回転画像データI12を十分に近似した画像となる。ひいては、擬似画像データI13bを参照した操作者は、変更後の撮影角度W12を直感的に理解することができる。 Next, as shown in FIG. 6, the generation function 343 generates pseudo image data I13b by projecting the rotated three-dimensional data D11 onto the XY plane. Further, the display control function 344 causes the display 32 to display the pseudo image data I13b generated by the generation function 343. Here, the pseudo image data I13b is generated in consideration of the depth information of each position in the two-dimensional X-ray image data I11, as described above. Therefore, the pseudo image data I13b becomes an image that sufficiently approximates the rotated image data I12. Furthermore, the operator who refers to the pseudo image data I13b can intuitively understand the changed photographing angle W12.

なお、変更後の撮影角度W12が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。例えば、擬似画像データI13bにおいて検査対象部位に背景成分が重なっている場合、操作者は、より検査対象部位を観察しやすくなるように、再度撮影角度の変更操作を行なう。この場合、生成機能343は、変更後の撮影角度に応じて3次元データD11を回転させ、回転後の3次元データD11を投影することにより、変更後の撮影角度で収集される回転画像データを擬似的に示した擬似画像データを生成する。また、表示制御機能344は、生成された擬似画像データをディスプレイ32に表示させる。 Note that if the operator determines that the changed photographing angle W12 is not appropriate, the operator performs the photographing angle changing operation again. For example, if a background component overlaps the region to be inspected in the pseudo image data I13b, the operator performs an operation to change the imaging angle again to make it easier to observe the region to be inspected. In this case, the generation function 343 rotates the three-dimensional data D11 according to the changed shooting angle, and projects the rotated three-dimensional data D11 to generate rotated image data collected at the changed shooting angle. Generate pseudo image data that is shown in a pseudo manner. Furthermore, the display control function 344 causes the display 32 to display the generated pseudo image data.

一方で、変更後の撮影角度W12が適切であると判断した場合、操作者は、撮影角度W12を撮影条件とする旨の入力操作を行なう。この場合、制御機能345は、撮影角度W12を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。また、収集機能110aは、医用画像処理装置30から受け付けた撮影条件に基づいて、2次元X線画像データの収集を実行する。即ち、収集機能110aは、回転画像データI12の収集を実行する。 On the other hand, if it is determined that the changed photographing angle W12 is appropriate, the operator performs an input operation to set the photographing angle W12 as the photographing condition. In this case, the control function 345 sets the imaging angle W12 as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10. Furthermore, the collection function 110a executes collection of two-dimensional X-ray image data based on the imaging conditions received from the medical image processing device 30. That is, the collection function 110a executes collection of rotated image data I12.

例えば、収集機能110aは、まず、医用画像処理装置30から受け付けた撮影条件に基づいて、Cアーム105等の撮影系を配置する。一例を挙げると、収集機能110aは、アイソセンターまわりにCアーム105を角度「θ1」だけ回転させる。次に、収集機能110aは、X線高電圧装置101を制御して、X線管102から被検体Pに対してX線を照射させる。そして、収集機能110aは、X線検出器106から受信した検出信号に基づいて回転画像データI12を生成する。 For example, the collection function 110a first arranges an imaging system such as the C-arm 105 based on the imaging conditions received from the medical image processing device 30. In one example, acquisition function 110a rotates C-arm 105 about the isocenter by an angle "θ1." Next, the collection function 110a controls the X-ray high voltage device 101 to irradiate the subject P with X-rays from the X-ray tube 102. The acquisition function 110a then generates rotated image data I12 based on the detection signal received from the X-ray detector 106.

一例を挙げると、収集機能110aは、被検体Pに対する手技の間、医用画像処理装置30から受け付けた撮影角度をワーキングアングルとして、複数の回転画像データI12を順次収集する。また、表示制御機能110bは、収集された回転画像データI12を順次表示させる。即ち、収集機能110aは、回転画像データI12を透視像として収集する。 For example, the collection function 110a sequentially collects a plurality of rotated image data I12 during a procedure on the subject P, using the imaging angle received from the medical image processing device 30 as a working angle. Furthermore, the display control function 110b sequentially displays the collected rotated image data I12. That is, the collection function 110a collects the rotated image data I12 as a perspective image.

なお、図6に示した擬似画像データI13bにおいては、2次元X線画像データI11と比較して、部位A1が+X方向にずれるとともに、部位A2が-X方向にずれている。
このため、擬似画像データI13bのうち部位A1の-X方向側に近接する箇所の画素は、2次元X線画像データI11に基づく情報を有していない場合がある。以下、擬似画像データI13bの画素のうち、2次元X線画像データI11に基づく情報を有していない画素を、空白画素と記載する。即ち、擬似画像データI13bにおいては、部位A1の-X方向側に近接する箇所の画素が空白画素となっている場合がある。また、部位A2の+X方向側に近接する箇所の画素も同様に、空白画素となっている場合がある。
In the pseudo image data I13b shown in FIG. 6, compared to the two-dimensional X-ray image data I11, the region A1 is shifted in the +X direction, and the region A2 is shifted in the −X direction.
Therefore, pixels in the pseudo image data I13b located close to the region A1 in the −X direction may not have information based on the two-dimensional X-ray image data I11. Hereinafter, among the pixels of the pseudo image data I13b, pixels that do not have information based on the two-dimensional X-ray image data I11 will be referred to as blank pixels. That is, in the pseudo image data I13b, there are cases where pixels near the region A1 in the −X direction are blank pixels. Similarly, pixels in locations adjacent to the +X direction side of portion A2 may also be blank pixels.

そこで、生成機能343は、擬似画像データI13bの空白画素の補完処理を行なうこととしてもよい。例えば、生成機能343は、空白画素の画素値を、擬似画像データI13bにおける背景画素の画素値の平均値により置換することで、空白画素の補完処理を行なう。なお、背景画素とは、例えば、擬似画像データI13bの画素のうち、部位A1の位置の画素、部位A2の位置の画素、及び、空白画素を除く画素である。別の例を挙げると、生成機能343は、空白画素の画素値をプリセット値により置換することで、空白画素の補完処理を行なう。 Therefore, the generation function 343 may perform complementation processing for blank pixels in the pseudo image data I13b. For example, the generation function 343 performs blank pixel complementation processing by replacing the pixel value of the blank pixel with the average value of the pixel values of the background pixels in the pseudo image data I13b. Note that the background pixels are, for example, the pixels of the pseudo image data I13b excluding the pixels at the position of part A1, the pixels at the position of part A2, and blank pixels. To give another example, the generation function 343 performs blank pixel complementation processing by replacing the pixel value of the blank pixel with a preset value.

また、図6においては、アイソセンターに対応する点が2次元X線画像データI11上に位置している場合について説明した。即ち、図6においては、軸y’が2次元X線画像データI11を通る場合について説明した。しかしながら、実施形態はこれに限定されるものではない。以下、アイソセンターに対応する点が2次元X線画像データI11上に位置していない場合における擬似画像データの生成処理について説明する。 Further, in FIG. 6, a case has been described in which the point corresponding to the isocenter is located on the two-dimensional X-ray image data I11. That is, in FIG. 6, the case where the axis y' passes through the two-dimensional X-ray image data I11 has been described. However, embodiments are not limited thereto. The process of generating pseudo image data when the point corresponding to the isocenter is not located on the two-dimensional X-ray image data I11 will be described below.

例えば、アイソセンターに対応する点は、2次元X線画像データI11に対してZ方向にずれている場合がある。この場合、Y軸方向と平行であり且つアイソセンターを通る軸y’は、図7Aに示すように、Z方向から見れば2次元X線画像データI11と重なって見えるものの、Z方向にずれているため、2次元X線画像データI11を通らない。なお、図7Aは、第1の実施形態に係るアイソセンターを通る軸y’を示す図である。 For example, the point corresponding to the isocenter may be shifted in the Z direction with respect to the two-dimensional X-ray image data I11. In this case, as shown in FIG. 7A, the axis y' that is parallel to the Y-axis direction and passes through the isocenter appears to overlap with the two-dimensional X-ray image data I11 when viewed from the Z direction, but it is shifted in the Z direction. Therefore, the two-dimensional X-ray image data I11 is not passed through. Note that FIG. 7A is a diagram showing an axis y' passing through the isocenter according to the first embodiment.

この場合、付加機能342は、まず、図7Bに示すように、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成する。例えば、付加機能342は、3次元X線画像データV11に基づいて2次元X線画像データI11における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI11の各位置に付加することで3次元データD11を生成する。なお、図7Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。図7Bにおいては、アイソセンターに対応する点が3次元データD11の外部領域に位置しているものとして説明する。即ち、図7Bにおいては、軸y’が3次元データD11を通らないものとして説明する。 In this case, the additional function 342 first generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11, as shown in FIG. 7B. For example, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I11 based on the three-dimensional X-ray image data V11, and applies the estimated depth information to each position in the two-dimensional X-ray image data I11. By adding, three-dimensional data D11 is generated. Note that FIG. 7B is a diagram illustrating an example of the pseudo image data generation process according to the first embodiment. In FIG. 7B, the explanation will be made assuming that the point corresponding to the isocenter is located in the external area of the three-dimensional data D11. That is, in FIG. 7B, the explanation will be made assuming that the axis y' does not pass through the three-dimensional data D11.

次に、生成機能343は、図7Bに示すように、生成した3次元データD11を角度「θ1」だけ回転させる。例えば、生成機能343は、基準座標系における3次元データD11の位置に基づき、3次元データD11において、実空間におけるアイソセンターに対応する点を特定する。次に、生成機能343は、アイソセンターを通る軸y’を回転軸として、3次元データD11を角度「θ1」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、3次元データD11を角度「θ1」だけ回転させる。なお、アイソセンターに対応する点が3次元データD11の外部領域に位置している場合においては、アイソセンターに対応する点まわりに3次元データD11を回転させる際、3次元データD11は、アイソセンターに対応する点を中心とする円軌道に沿って移動することとなる。 Next, the generation function 343 rotates the generated three-dimensional data D11 by an angle "θ1", as shown in FIG. 7B. For example, the generation function 343 identifies a point corresponding to the isocenter in real space in the three-dimensional data D11 based on the position of the three-dimensional data D11 in the reference coordinate system. Next, the generation function 343 rotates the three-dimensional data D11 by an angle "θ1" using the axis y' passing through the isocenter as the rotation axis. That is, the generation function 343 rotates the three-dimensional data D11 by an angle "θ1" around a point corresponding to the isocenter. Note that when the point corresponding to the isocenter is located in the external area of the three-dimensional data D11, when rotating the three-dimensional data D11 around the point corresponding to the isocenter, the three-dimensional data D11 is located at the isocenter. It will move along a circular orbit centered on the point corresponding to .

次に、生成機能343は、図7Bに示すように、回転後の3次元データD11をXY平面上に投影することで、擬似画像データI13cを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI13cをディスプレイ32に表示させる。ここで、擬似画像データI13cは、上述したように、2次元X線画像データI11における各位置の深度情報を考慮して生成されたものである。このため、擬似画像データI13cは、回転画像データI12を十分に近似した画像となる。ひいては、擬似画像データI13cを参照した操作者は、変更後の撮影角度W12を直感的に理解し、変更後の撮影角度W12が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W12が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。また、変更後の撮影角度W12が適切であると判断した場合、操作者は、撮影角度W12を撮影条件とする旨の入力操作を行なう。 Next, as shown in FIG. 7B, the generation function 343 generates pseudo image data I13c by projecting the rotated three-dimensional data D11 onto the XY plane. Furthermore, the display control function 344 causes the display 32 to display the pseudo image data I13c generated by the generation function 343. Here, the pseudo image data I13c is generated in consideration of the depth information of each position in the two-dimensional X-ray image data I11, as described above. Therefore, the pseudo image data I13c becomes an image that sufficiently approximates the rotated image data I12. Furthermore, the operator who refers to the pseudo image data I13c can intuitively understand the changed shooting angle W12 and easily determine whether the changed shooting angle W12 is appropriate. For example, if the operator determines that the changed photographing angle W12 is not appropriate, the operator performs the photographing angle changing operation again. Further, when it is determined that the changed photographing angle W12 is appropriate, the operator performs an input operation to set the photographing angle W12 as the photographing condition.

なお、図7Bに示したように、アイソセンターに対応する点まわりに3次元データD11を回転させる際、3次元データD11は、アイソセンターに対応する点を中心とする円軌道に沿って+X方向に移動する。このため、擬似画像データI13cにおいては、2次元X線画像データI11と比較して、部位A1や部位A2等の各部位が全体的に+X方向に移動している。ここで、擬似画像データI13cのうち-X方向側の端部の画素は、2次元X線画像データI11に基づく情報を有していない場合がある。即ち、擬似画像データI13cにおいては、-X方向側の端部の画素が空白画素となっている場合がある。そこで、生成機能343は、擬似画像データI13cの空白画素の補完処理を行なうこととしてもよい。例えば、生成機能343は、空白画素の画素値を、擬似画像データI13cにおける背景画素の画素値の平均値や、プリセット値により置換することで、空白画素の補完処理を行なう。 Note that, as shown in FIG. 7B, when rotating the three-dimensional data D11 around a point corresponding to the isocenter, the three-dimensional data D11 rotates in the +X direction along a circular orbit centered on the point corresponding to the isocenter. Move to. Therefore, in the pseudo image data I13c, compared to the two-dimensional X-ray image data I11, each part such as part A1 and part A2 has moved in the +X direction as a whole. Here, pixels at the end of the pseudo image data I13c on the -X direction side may not have information based on the two-dimensional X-ray image data I11. That is, in the pseudo image data I13c, pixels at the end on the −X direction side may be blank pixels. Therefore, the generation function 343 may perform complementation processing for blank pixels in the pseudo image data I13c. For example, the generation function 343 performs blank pixel complementation processing by replacing the pixel value of the blank pixel with the average value of the pixel values of background pixels in the pseudo image data I13c or a preset value.

なお、図6及び図7Bにおいては、説明の便宜のため、3次元データD11を3次元画像データとして示したが、実施形態はこれに限定されるものではない。例えば、3次元データD11は、2次元X線画像データI11における各画素に深度情報を付帯させたデータであってもよい。即ち、3次元データD11は、2次元画像データであってもよい。この場合、生成機能343は、軸y’を回転軸として3次元データD11を角度「θ1」だけ回転させ、回転後の3次元データD11をXY平面上に投影する。この際、生成機能343は、付帯する深度情報に応じて投影方向を画素ごとにシフトさせる。これにより、生成機能343は、2次元X線画像データI11における各位置の深度情報を考慮した擬似画像データを生成することができる。 Note that in FIGS. 6 and 7B, for convenience of explanation, the three-dimensional data D11 is shown as three-dimensional image data, but the embodiments are not limited to this. For example, the three-dimensional data D11 may be data in which depth information is attached to each pixel in the two-dimensional X-ray image data I11. That is, the three-dimensional data D11 may be two-dimensional image data. In this case, the generation function 343 rotates the three-dimensional data D11 by an angle "θ1" using the axis y' as the rotation axis, and projects the rotated three-dimensional data D11 onto the XY plane. At this time, the generation function 343 shifts the projection direction for each pixel according to the accompanying depth information. Thereby, the generation function 343 can generate pseudo image data that takes into account the depth information of each position in the two-dimensional X-ray image data I11.

また、これまで、3次元X線画像データV11等の3次元画像データに基づいて、2次元X線画像データI11における各位置の深度情報を推定する場合について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、付加機能342は、2次元X線画像データI11における各位置について、画素値に基づいて深度情報を推定してもよい。 Furthermore, so far, a case has been described in which depth information at each position in the two-dimensional X-ray image data I11 is estimated based on three-dimensional image data such as the three-dimensional X-ray image data V11. However, embodiments are not limited thereto. For example, the additional function 342 may estimate depth information for each position in the two-dimensional X-ray image data I11 based on pixel values.

ここで、画素値に基づく深度情報の推定について、図8を用いて説明する。図8は、第1の実施形態に係る2次元X線画像データI11aを示す図である。図8に示す2次元X線画像データI11aは、被検体Pの右股関節における動脈を造影した血管画像であり、2次元X線画像データI11の一例である。 Here, estimation of depth information based on pixel values will be explained using FIG. 8. FIG. 8 is a diagram showing two-dimensional X-ray image data I11a according to the first embodiment. The two-dimensional X-ray image data I11a shown in FIG. 8 is a blood vessel image obtained by contrasting the artery in the right hip joint of the subject P, and is an example of the two-dimensional X-ray image data I11.

図8に示すように、2次元X線画像データI11aにおいては、造影された血管を示す画素は低い画素値を有し、血管以外の背景画素(骨など)は高い画素値を有する。即ち、2次元X線画像データI11aにおいては、血管を示す画素は黒に近い色を有し、背景画素は白に近い色を有する。例えば、付加機能342は、2次元X線画像データI11aにおける各画素の画素値が閾値を超えるか否かに応じて、各画素を、血管を示す画素と背景画素とに分離する。ここで、股関節における動脈(大腿動脈等)は、股関節を構成する骨に対して、被検体Pの前方に位置することが知られている。そこで、付加機能342は、2次元X線画像データI11において、血管を示す画素が背景画素よりも前方(即ち、+Z方向)に位置することを示すように、2次元X線画像データI11における各位置の深度情報を推定する。即ち、付加機能342は、2次元X線画像データI11における各位置について、画素値に基づいて血管を示す画素か背景画素かを判定し、判定の結果に応じて深度情報を推定する。 As shown in FIG. 8, in the two-dimensional X-ray image data I11a, pixels indicating contrasted blood vessels have low pixel values, and background pixels other than blood vessels (bones, etc.) have high pixel values. That is, in the two-dimensional X-ray image data I11a, pixels indicating blood vessels have a color close to black, and background pixels have a color close to white. For example, the additional function 342 separates each pixel into a pixel indicating a blood vessel and a background pixel depending on whether the pixel value of each pixel in the two-dimensional X-ray image data I11a exceeds a threshold value. Here, it is known that the arteries in the hip joint (such as the femoral artery) are located in front of the subject P with respect to the bones that make up the hip joint. Therefore, the additional function 342 allows each pixel in the two-dimensional X-ray image data I11 to indicate that, in the two-dimensional Estimate the depth information of the location. That is, the additional function 342 determines whether each position in the two-dimensional X-ray image data I11 is a pixel indicating a blood vessel or a background pixel based on the pixel value, and estimates depth information according to the result of the determination.

また、これまで、2次元X線画像データI11がLIHであるものとして説明したが、実施形態はこれに限定されるものではない。例えば、2次元X線画像データI11は、LIH以外の透視像であってもよいし、透視像以外の2次元X線画像データであってもよい。例えば、X線診断装置10は、撮影条件の設定段階において2次元X線画像データを1つだけ収集し、取得機能341は、収集された2次元X線画像データを、2次元X線画像データI11として取得してもよい。 Further, although the two-dimensional X-ray image data I11 has been described as LIH, the embodiments are not limited to this. For example, the two-dimensional X-ray image data I11 may be a fluoroscopic image other than LIH, or may be two-dimensional X-ray image data other than a fluoroscopic image. For example, the X-ray diagnostic apparatus 10 collects only one piece of two-dimensional X-ray image data in the imaging condition setting stage, and the acquisition function 341 converts the collected two-dimensional X-ray image data into two-dimensional X-ray image data. It may be acquired as I11.

次に、医用画像処理装置30による処理の手順の一例を、図9を用いて説明する。図9は、第1の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS101は、取得機能341に対応するステップである。ステップS107は、付加機能342に対応するステップである。ステップS109は、生成機能343に対応するステップである。ステップS103及びステップS110は、表示制御機能344に対応するステップである。ステップS102、ステップS104、ステップS105、ステップS106、ステップS108、ステップS111及びステップS112は、制御機能345に対応するステップである。 Next, an example of a processing procedure by the medical image processing apparatus 30 will be described using FIG. 9. FIG. 9 is a flowchart for explaining a series of processing steps of the medical image processing apparatus 30 according to the first embodiment. Step S101 is a step corresponding to the acquisition function 341. Step S107 is a step corresponding to the additional function 342. Step S109 is a step corresponding to the generation function 343. Step S103 and step S110 are steps corresponding to the display control function 344. Step S102, step S104, step S105, step S106, step S108, step S111, and step S112 are steps corresponding to the control function 345.

まず、処理回路34は、X線診断装置10から、2次元X線画像データI11を取得する(ステップS101)。次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影位置を変更するか否かを判定する(ステップS102)。即ち、処理回路34は、2次元X線画像データI11の撮影位置をそのまま撮影条件として用いるか否かを判定する。ここで、撮影位置を変更する場合(ステップS102肯定)、処理回路34は、2次元X線画像データI11、及び、撮影位置を示すROIをディスプレイ32に表示させる(ステップS103)。次に、処理回路34は、操作者から、2次元X線画像データI11上のROIを調整する操作を受け付ける(ステップS104)。 First, the processing circuit 34 acquires two-dimensional X-ray image data I11 from the X-ray diagnostic apparatus 10 (step S101). Next, the processing circuit 34 determines whether or not to change the photographing position by accepting an input operation from the operator (step S102). That is, the processing circuit 34 determines whether or not the imaging position of the two-dimensional X-ray image data I11 is to be used as is as the imaging condition. If the imaging position is to be changed (Yes at step S102), the processing circuit 34 causes the display 32 to display the two-dimensional X-ray image data I11 and the ROI indicating the imaging position (step S103). Next, the processing circuit 34 receives an operation for adjusting the ROI on the two-dimensional X-ray image data I11 from the operator (step S104).

次に、処理回路34は、撮影位置の変更操作を終了するか否かを判定する(ステップS105)。ここで、撮影位置の変更操作を終了しない場合(ステップS105否定)、処理回路34は、再度ステップS103に移行する。一方で、撮影位置の変更操作を終了する場合(ステップS105肯定)、処理回路34は、調整後のROIに応じた撮影位置を撮影条件として設定する。なお、撮影位置を変更しない場合(ステップS102否定)、処理回路34は、2次元X線画像データI11の撮影位置をそのまま撮影条件として設定する。 Next, the processing circuit 34 determines whether or not to end the photographing position changing operation (step S105). Here, if the photographing position changing operation is not completed (No in step S105), the processing circuit 34 moves to step S103 again. On the other hand, when the operation for changing the photographing position is to be completed (Yes in step S105), the processing circuit 34 sets the photographing position according to the adjusted ROI as the photographing condition. Note that if the imaging position is not changed (No in step S102), the processing circuit 34 sets the imaging position of the two-dimensional X-ray image data I11 as it is as the imaging condition.

次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影角度を変更するか否かを判定する(ステップS106)。即ち、処理回路34は、2次元X線画像データI11の撮影角度をそのまま撮影条件として用いるか否かを判定する。ここで、撮影角度を変更する場合(ステップS106肯定)、処理回路34は、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成し(ステップS107)、撮影角度の変更操作を受け付ける(ステップS108)。次に、処理回路34は、3次元データD11を投影することにより、変更後の撮影角度で収集される回転画像データを擬似的に示した擬似画像データを生成する(ステップS109)。次に、処理回路34は、生成した擬似画像データをディスプレイ32に表示させる(ステップS110)。 Next, the processing circuit 34 determines whether or not to change the photographing angle by accepting an input operation from the operator (step S106). That is, the processing circuit 34 determines whether or not the imaging angle of the two-dimensional X-ray image data I11 is to be used as is as the imaging condition. Here, when changing the imaging angle (Yes in step S106), the processing circuit 34 generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11 (step S107), and The change operation is accepted (step S108). Next, the processing circuit 34 projects the three-dimensional data D11 to generate pseudo image data that pseudo-illustrates the rotated image data collected at the changed photographing angle (step S109). Next, the processing circuit 34 displays the generated pseudo image data on the display 32 (step S110).

ここで、処理回路34は、撮影角度の変更操作を終了するか否かを判定する(ステップS111)。ここで、撮影角度の変更操作を終了しない場合(ステップS111否定)、処理回路34は、再度ステップS108に移行する。即ち、処理回路34は、操作者から撮影角度の変更操作を受け付けるごとに、入力された撮影角度に応じた擬似画像データを生成してディスプレイ32に表示させる。 Here, the processing circuit 34 determines whether or not to end the photographing angle changing operation (step S111). Here, if the photographing angle changing operation is not completed (No in step S111), the processing circuit 34 moves to step S108 again. That is, each time the processing circuit 34 receives an operation to change the photographing angle from the operator, the processing circuit 34 generates pseudo image data according to the input photographing angle and causes the display 32 to display the generated pseudo image data.

一方で、撮影角度の変更操作を終了する場合(ステップS111肯定)、処理回路34は、変更後の撮影角度を撮影条件として設定する。なお、撮影角度を変更しない場合(ステップS106否定)、処理回路34は、2次元X線画像データI11の撮影角度をそのまま撮影条件として設定する。そして、処理回路34は、撮影条件として設定した撮影位置及び撮影角度をX線診断装置10に対して送信し(ステップS112)、処理を終了する。 On the other hand, when the operation for changing the photographing angle is ended (Yes at step S111), the processing circuit 34 sets the changed photographing angle as the photographing condition. Note that if the imaging angle is not changed (No in step S106), the processing circuit 34 sets the imaging angle of the two-dimensional X-ray image data I11 as it is as the imaging condition. Then, the processing circuit 34 transmits the imaging position and imaging angle set as imaging conditions to the X-ray diagnostic apparatus 10 (step S112), and ends the process.

なお、図9においては、撮影位置を設定した後に撮影角度を設定するものとして説明したが、実施形態はこれに限定されるものではない。例えば、処理回路34は、撮影角度を設定した後に撮影位置を設定してもよい。また、撮影位置の設定及び撮影角度の設定は、繰り返し行われてもよい。例えば、処理回路34は、2次元X線画像データI11及び撮影位置を示すROIに基づいて撮影位置の設定を行なった後、擬似画像データに基づいて撮影角度を設定し、更に、擬似画像データ及び撮影位置を示すROIに基づいて撮影位置の再設定を行なってもよい。また、3次元データD11の生成(ステップS107)と、撮影角度の変更操作の受け付け(ステップS108)とを行なう順序は任意であり、並行して行なってもよい。 In addition, in FIG. 9, the description has been made assuming that the photographing angle is set after the photographing position is set, but the embodiment is not limited to this. For example, the processing circuit 34 may set the shooting position after setting the shooting angle. Further, the setting of the photographing position and the setting of the photographing angle may be repeated. For example, the processing circuit 34 sets the imaging position based on the two-dimensional X-ray image data I11 and the ROI indicating the imaging position, sets the imaging angle based on the pseudo image data, and further sets the imaging angle based on the pseudo image data and the The photographing position may be reset based on the ROI indicating the photographing position. Moreover, the order in which the generation of the three-dimensional data D11 (step S107) and the reception of the photographing angle changing operation (step S108) are performed is arbitrary, and they may be performed in parallel.

上述したように、第1の実施形態によれば、取得機能341は、2次元X線画像データI11を取得する。また、付加機能342は、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成する。また、生成機能343は、3次元データD11を投影することにより、2次元X線画像データI11と異なる撮影角度で収集される回転画像データを擬似的に示した擬似画像データを生成する。従って、第1の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影条件の設定を容易にすることができる。即ち、医用画像処理装置30は、透視像の追加収集を行なわずとも、擬似画像データによって変更後の撮影角度を直感的に理解することを可能とし、撮影角度の設定を容易にすることができる。 As described above, according to the first embodiment, the acquisition function 341 acquires the two-dimensional X-ray image data I11. Further, the additional function 342 generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11. Furthermore, the generation function 343 generates pseudo image data that pseudo-illustrates rotated image data collected at a different imaging angle from the two-dimensional X-ray image data I11 by projecting the three-dimensional data D11. Therefore, the medical image processing apparatus 30 according to the first embodiment can facilitate setting of imaging conditions while reducing the amount of radiation exposure. In other words, the medical image processing device 30 allows the user to intuitively understand the changed imaging angle using the pseudo image data without additionally collecting fluoroscopic images, making it easy to set the imaging angle. .

また、上述したように、生成機能343は、3次元データD11を投影することにより、擬似画像データを生成する。このため、生成機能343は、擬似画像データにおいて、画像の歪みを抑制することができる。例えば、深度情報に応じて2次元X線画像データI11を変形させる場合、2次元X線画像データI11上の部位が変形してしまったり、部位の変形に引きずられて背景が歪んでしまったりする。これに対して、擬似画像データは投影によって生成されるものであるため、このような画像の歪みは生じない。即ち、生成機能343は、3次元データD11を投影することにより、擬似画像データにおいて画像の歪みを抑制することができる。 Further, as described above, the generation function 343 generates pseudo image data by projecting the three-dimensional data D11. Therefore, the generation function 343 can suppress image distortion in the pseudo image data. For example, when deforming the two-dimensional X-ray image data I11 according to depth information, the part on the two-dimensional X-ray image data I11 may be deformed, or the background may be distorted due to the deformation of the part. . On the other hand, since pseudo image data is generated by projection, such image distortion does not occur. That is, the generation function 343 can suppress image distortion in the pseudo image data by projecting the three-dimensional data D11.

(第2の実施形態)
上述した第1の実施形態では、被検体Pについて収集された3次元画像データ又は画素値に基づいて、2次元X線画像データにおける各位置の深度情報を推定する場合について説明した。これに対し、第2の実施形態では、深度情報を推定するように機能付けられた学習済みモデルを用いて、2次元X線画像データにおける各位置の深度情報を推定する場合について説明する。
(Second embodiment)
In the first embodiment described above, a case has been described in which depth information at each position in two-dimensional X-ray image data is estimated based on three-dimensional image data or pixel values collected for the subject P. In contrast, in the second embodiment, a case will be described in which depth information at each position in two-dimensional X-ray image data is estimated using a trained model that is equipped with a function to estimate depth information.

第2の実施形態に係る医用情報処理システム1は、図1~図2に示した第1の実施形態に係る医用情報処理システム1と比較して、医用画像処理装置30がモデル記憶回路35を更に有するとともに、処理回路34がモデル生成機能346を更に有する点で相違する。例えば、第2の実施形態に係る医用画像処理装置30は、図10に示すように、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34と、モデル記憶回路35とを有する。また、第2の実施形態に係る処理回路34は、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345に加えて、モデル生成機能346を更に実行する。なお、図10は、第2の実施形態に係る医用画像処理装置30の構成の一例を示すブロック図である。以下、第1の実施形態において説明した構成と同様の構成を有する点については図1~図2と同一の符号を付し、説明を省略する。 The medical information processing system 1 according to the second embodiment is different from the medical information processing system 1 according to the first embodiment shown in FIGS. The difference is that the processing circuit 34 further includes a model generation function 346. For example, the medical image processing apparatus 30 according to the second embodiment includes an input interface 31, a display 32, a storage circuit 33, a processing circuit 34, and a model storage circuit 35, as shown in FIG. Furthermore, the processing circuit 34 according to the second embodiment further executes a model generation function 346 in addition to the acquisition function 341, additional function 342, generation function 343, display control function 344, and control function 345. Note that FIG. 10 is a block diagram showing an example of the configuration of the medical image processing apparatus 30 according to the second embodiment. Hereinafter, the same reference numerals as those in FIGS. 1 and 2 will be used to denote the same configurations as those described in the first embodiment, and the explanation will be omitted.

まず、モデル生成機能346は、深度情報を推定するように機能付けられた学習済みモデルを生成して、モデル記憶回路35に記憶させる。例えば、モデル生成機能346は、図11に示すように、第1画像データと第2画像データとを用いて学習済みモデルM1を生成し、モデル記憶回路35に記憶させる。なお、図11は、第2の実施形態に係る学習済みモデルM1の生成処理について説明するための図である。 First, the model generation function 346 generates a trained model equipped with a function to estimate depth information, and stores it in the model storage circuit 35. For example, as shown in FIG. 11, the model generation function 346 generates a trained model M1 using the first image data and second image data, and stores it in the model storage circuit 35. Note that FIG. 11 is a diagram for explaining the generation process of the learned model M1 according to the second embodiment.

図11に示す第1画像データは、2次元で収集されたX線画像データである。第1画像データは、被検体Pから収集されたX線画像データであってもよいし、他の被検体から収集されたX線画像データであってもよい。また、第1画像データは、X線診断装置10によって収集されたX線画像データであってもよいし、他の装置によって収集されたX線画像データであってもよい。一例を挙げると、第1画像データは、図3に示した2次元X線画像データI11である。また、図11に示す第2画像データは、第1画像データにおける各位置について深度情報を付加したデータである。例えば、取得機能341は、まず、X線診断装置10によって収集された2次元X線画像データを第1画像データとして取得する。次に、付加機能342は、第1画像データにおける各位置について深度情報を付加することにより、第2画像データを生成する。 The first image data shown in FIG. 11 is X-ray image data collected two-dimensionally. The first image data may be X-ray image data collected from the subject P, or may be X-ray image data collected from another subject. Moreover, the first image data may be X-ray image data collected by the X-ray diagnostic apparatus 10, or may be X-ray image data collected by another apparatus. For example, the first image data is the two-dimensional X-ray image data I11 shown in FIG. 3. Further, the second image data shown in FIG. 11 is data to which depth information is added for each position in the first image data. For example, the acquisition function 341 first acquires two-dimensional X-ray image data collected by the X-ray diagnostic apparatus 10 as first image data. Next, the additional function 342 generates second image data by adding depth information to each position in the first image data.

一例を挙げると、付加機能342は、操作者から、第1画像データの各位置に深度情報を付加する操作を受け付けることにより、第2画像データを生成する。例えば、まず、表示制御機能344は、第1画像データをディスプレイ32に表示させる。次に、付加機能342は、操作者から、第1画像データの各位置に深度情報を付加する操作を受け付ける。なお、付加機能342は、第1画像データの全画素について深度情報を付加する操作を受け付けてもよいし、一部の画素についてのみ深度情報を付加する操作を受け付けてもよい。一部の画素についてのみ深度情報が付加された場合、付加機能342は、例えば、深度情報が付加されなかった画素を背景画素とし、背景画素についてはプリセットされた深度情報を付加する。 For example, the additional function 342 generates the second image data by receiving an operation from the operator to add depth information to each position of the first image data. For example, first, the display control function 344 displays the first image data on the display 32. Next, the addition function 342 receives an operation from the operator to add depth information to each position of the first image data. Note that the additional function 342 may accept an operation to add depth information to all pixels of the first image data, or may accept an operation to add depth information to only some pixels. When depth information is added to only some pixels, the addition function 342, for example, sets the pixels to which no depth information is added as background pixels, and adds preset depth information to the background pixels.

別の例を挙げると、付加機能342は、付加機能342は、第1画像データと同じ被検体について収集された3次元画像データに基づいて、第1画像データにおける各位置について深度情報を推定し、推定した深度情報を第1画像データの各位置に付加することで第2画像データを生成する。例えば、取得機能341は、第1画像データを取得した後、ネットワークNWを介して、画像保管装置20から第1画像データと同じ被検体について収集された3次元画像データ(CT画像データ、MR画像データ、3次元X線画像データ等)を取得する。次に、付加機能342は、第1画像データと3次元画像データとを位置合わせすることで、第1画像データにおける各位置について深度情報を推定する。そして、付加機能342は、推定した深度情報を第1画像データの各位置に付加することで、第2画像データを生成する。 To give another example, the additional function 342 estimates depth information for each position in the first image data based on three-dimensional image data collected for the same subject as the first image data. , the second image data is generated by adding the estimated depth information to each position of the first image data. For example, after acquiring the first image data, the acquisition function 341 transmits three-dimensional image data (CT image data, MR image data, data, three-dimensional X-ray image data, etc.). Next, the additional function 342 estimates depth information for each position in the first image data by aligning the first image data and the three-dimensional image data. Then, the additional function 342 generates second image data by adding the estimated depth information to each position of the first image data.

次に、モデル生成機能346は、第1画像データと第2画像データとを用いて、深度情報を推定する学習済みモデルM1を生成する。例えば、モデル生成機能346は、図11に示すように、第1画像データを入力側データとし、第2画像データを出力側データとする機械学習により、学習済みモデルM1を生成する。即ち、モデル生成機能346は、第2画像データの各位置に付加されている深度情報を正解出力とする教師付き学習により、深度情報を推定する学習済みモデルM1を生成する。 Next, the model generation function 346 uses the first image data and the second image data to generate a learned model M1 that estimates depth information. For example, as shown in FIG. 11, the model generation function 346 generates the learned model M1 by machine learning using the first image data as input data and the second image data as output data. That is, the model generation function 346 generates a trained model M1 for estimating depth information by supervised learning in which the depth information added to each position of the second image data is used as the correct answer output.

図11に示す学習済みモデルM1は、例えば、ニューラルネットワーク(Neural Network)により構成することができる。ニューラルネットワークとは、層状に並べた隣接層間が結合した構造を有し、情報が入力層側から出力層側に伝播するネットワークである。例えば、モデル生成機能346によって入力側データ(第1画像データ)が入力された場合、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に、隣接層間でのみ結合しながら情報が伝播する。このようなニューラルネットワークは、パラメータに応じて変化する関数として表現することができる。 The learned model M1 shown in FIG. 11 can be configured by, for example, a neural network. A neural network is a network that has a structure in which adjacent layers arranged in a layered manner are connected, and information is propagated from the input layer side to the output layer side. For example, when input side data (first image data) is input by the model generation function 346, in the neural network, information is transmitted in one direction from the input layer side to the output layer side, connecting only between adjacent layers. propagate. Such a neural network can be expressed as a function that changes depending on a parameter.

例えば、モデル生成機能346は、第1画像データ及び第2画像データを学習データとし、多層のニューラルネットワークについて深層学習(ディープラーニング)を実行することで、学習済みモデルM1を生成する。なお、多層のニューラルネットワークは、例えば、入力層と、複数の中間層と、出力層とにより構成される。 For example, the model generation function 346 uses the first image data and the second image data as learning data, and generates the learned model M1 by performing deep learning on a multilayer neural network. Note that a multilayer neural network includes, for example, an input layer, a plurality of intermediate layers, and an output layer.

例えば、モデル生成機能346は、第1画像データを入力した際にニューラルネットワークが好ましい結果を出力することができるように、ニューラルネットワークのパラメータを調整する。例えば、モデル生成機能346は、第1画像データを入力した際のニューラルネットワークからの出力と、出力側データ(第2画像データ)との近さを表す関数(誤差関数)を用いて、ニューラルネットワークのパラメータを調整する。一例を挙げると、モデル生成機能346は、パラメータを変化させながら誤差関数を繰り返し算出して、誤差関数が極小となるようにパラメータを調整する。即ち、モデル生成機能346は、誤差関数が極小となるように、ニューラルネットワークを学習させる。これにより、モデル生成機能346は、深度情報を推定する学習済みモデルM1を生成することができる。 For example, the model generation function 346 adjusts the parameters of the neural network so that the neural network can output favorable results when inputting the first image data. For example, the model generation function 346 uses a function (error function) representing the proximity between the output from the neural network when the first image data is input and the output side data (second image data) to create a neural network. Adjust the parameters of For example, the model generation function 346 repeatedly calculates the error function while changing the parameters, and adjusts the parameters so that the error function becomes minimum. That is, the model generation function 346 trains the neural network so that the error function becomes minimum. Thereby, the model generation function 346 can generate a learned model M1 that estimates depth information.

なお、図11においては、第1画像データを入力側データとし、第2画像データを出力側データとする場合について説明したが、実施形態はこれに限定されるものではない。例えば、モデル生成機能346は、入力側データとして、第1画像データに基づくデータを用いてもよい。一例を挙げると、モデル生成機能346は、第1画像データに対する前処理(例えば、入力側データの画素数を揃えるためのリサイズ処理、空間フィルタやコンボリューションフィルタを用いた画像処理等)を実行し、前処理後の画像データを入力側データとして、学習済みモデルM1の生成処理を実行する。また、例えば、モデル生成機能346は、出力側データとして、第2画像データに基づくデータを用いてもよい。一例を挙げると、モデル生成機能346は、第2画像データから深度情報を抽出し、抽出した深度情報を出力側データとして、学習済みモデルM1の生成処理を実行する。 Although FIG. 11 describes the case where the first image data is the input data and the second image data is the output data, the embodiment is not limited to this. For example, the model generation function 346 may use data based on the first image data as the input side data. For example, the model generation function 346 performs preprocessing on the first image data (for example, resizing processing to make the number of pixels of input side data the same, image processing using a spatial filter or a convolution filter, etc.). , executes the generation process of the learned model M1 using the preprocessed image data as input side data. Furthermore, for example, the model generation function 346 may use data based on the second image data as the output side data. For example, the model generation function 346 extracts depth information from the second image data, uses the extracted depth information as output data, and executes the generation process of the learned model M1.

また、学習済みモデルM1がニューラルネットワークにより構成されるものとして説明したが、実施形態はこれに限定されるものではない。即ち、モデル生成機能346は、ニューラルネットワーク以外の機械学習手法により、学習済みモデルM1を生成してもよい。例えば、モデル生成機能346は、SVM(サポートベクターマシン)等のデータの分類を行う機械学習手法によって、深度情報を推定する学習済みモデルM1を生成してもよい。一例を挙げると、モデル生成機能346は、第1画像データを入力側データとし、分類先のクラスを深度情報の数値範囲とする。そして、モデル生成機能346は、第2画像データが示す深度情報が分類先のクラスに含まれるよう学習させることで、学習済みモデルM1を生成する。 Further, although the learned model M1 has been described as being configured by a neural network, the embodiment is not limited to this. That is, the model generation function 346 may generate the trained model M1 using a machine learning method other than the neural network. For example, the model generation function 346 may generate the learned model M1 for estimating depth information using a machine learning method such as a support vector machine (SVM) that classifies data. For example, the model generation function 346 uses the first image data as input data and uses the class to be classified as the numerical range of the depth information. Then, the model generation function 346 generates a learned model M1 by performing learning so that the depth information indicated by the second image data is included in the classification destination class.

モデル生成機能346が学習済みモデルM1をモデル記憶回路35に記憶させた後、取得機能341は、X線診断装置10から被検体Pの2次元X線画像データを取得する。以下、取得機能341が取得した2次元X線画像データの例として、2次元X線画像データI21について説明する。2次元X線画像データI21は、例えば、LIHである。 After the model generation function 346 stores the learned model M1 in the model storage circuit 35, the acquisition function 341 acquires two-dimensional X-ray image data of the subject P from the X-ray diagnostic apparatus 10. The two-dimensional X-ray image data I21 will be described below as an example of the two-dimensional X-ray image data acquired by the acquisition function 341. The two-dimensional X-ray image data I21 is, for example, LIH.

次に、表示制御機能344は、2次元X線画像データI21をディスプレイ32に表示させる。ここで、2次元X線画像データI21を参照した操作者は、入力インターフェース31を介して、撮影角度の変更操作を入力することができる。なお、以下では、2次元X線画像データI21の撮影角度を、撮影角度W21と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W22と記載する。例えば、変更後の撮影角度W22は、撮影角度W21から角度「θ2」だけ変更された角度である。また、以下では、撮影角度W22で収集されるX線画像データを、回転画像データI22と記載する。 Next, the display control function 344 causes the display 32 to display the two-dimensional X-ray image data I21. Here, the operator who has referred to the two-dimensional X-ray image data I21 can input an operation to change the imaging angle via the input interface 31. In addition, below, the imaging angle of the two-dimensional X-ray image data I21 will be described as the imaging angle W21. Furthermore, hereinafter, the photographing angle after being changed by the operator will be referred to as photographing angle W22. For example, the changed photographing angle W22 is an angle that is changed by an angle "θ2" from the photographing angle W21. Furthermore, hereinafter, the X-ray image data collected at the imaging angle W22 will be referred to as rotated image data I22.

また、付加機能342は、2次元X線画像データI21における各位置について深度情報を付加した3次元データD21を生成する。例えば、付加機能342は、図12に示すように、2次元X線画像データI21を学習済みモデルM1に入力することで2次元X線画像データI21における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データI21の各位置に付加することで、3次元データD21を生成する。なお、図12は、第2の実施形態に係る学習済みモデルM1を用いた処理について説明するための図である。3次元データD21の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。 Further, the additional function 342 generates three-dimensional data D21 to which depth information is added for each position in the two-dimensional X-ray image data I21. For example, as shown in FIG. 12, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I21 by inputting the two-dimensional X-ray image data I21 into the trained model M1. The three-dimensional data D21 is generated by adding the depth information to each position of the two-dimensional X-ray image data I21. Note that FIG. 12 is a diagram for explaining processing using the trained model M1 according to the second embodiment. The generation of the three-dimensional data D21 may be performed before the operator performs an operation to change the photographing angle, or may be performed after the operator performs an operation to change the photographic angle.

次に、生成機能343は、3次元データD21を投影することにより、回転画像データI22を擬似的に示した擬似画像データI23を生成する。また、表示制御機能344は、生成された擬似画像データI23をディスプレイ32に表示させる。ここで、擬似画像データI23は、2次元X線画像データI21における各位置の深度情報を考慮して生成されたものであり、回転画像データI22を十分に近似した画像となる。従って、擬似画像データI23を参照した操作者は、変更後の撮影角度W22を直感的に理解し、変更後の撮影角度W22が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W22が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。 Next, the generation function 343 generates pseudo image data I23 that pseudo-represents the rotated image data I22 by projecting the three-dimensional data D21. Furthermore, the display control function 344 causes the display 32 to display the generated pseudo image data I23. Here, the pseudo image data I23 is generated in consideration of the depth information of each position in the two-dimensional X-ray image data I21, and is an image that sufficiently approximates the rotated image data I22. Therefore, the operator who refers to the pseudo image data I23 can intuitively understand the changed photographing angle W22 and easily determine whether the changed photographic angle W22 is appropriate. For example, if the operator determines that the changed photographing angle W22 is not appropriate, the operator performs an operation to change the photographing angle again.

一方で、変更後の撮影角度W22が適切であると判断した場合、操作者は、撮影角度W22を撮影条件とする旨の入力操作を行なう。この場合、制御機能345は、撮影角度W22を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。また、X線診断装置10は、医用画像処理装置30から受け付けた撮影条件に基づいて、2次元X線画像データの収集を実行する。即ち、X線診断装置10は、回転画像データI22の収集を実行する。 On the other hand, if it is determined that the changed photographing angle W22 is appropriate, the operator performs an input operation to set the photographing angle W22 as the photographing condition. In this case, the control function 345 sets the imaging angle W22 as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10. Furthermore, the X-ray diagnostic apparatus 10 collects two-dimensional X-ray image data based on the imaging conditions received from the medical image processing apparatus 30. That is, the X-ray diagnostic apparatus 10 collects the rotational image data I22.

ここで、モデル生成機能346は、X線診断装置10により収集された回転画像データI22に基づいて、再度、学習済みモデルM1を生成することができる。即ち、モデル生成機能346は、収集された回転画像データI22に基づいて、学習済みモデルM1を更新することができる。 Here, the model generation function 346 can generate the learned model M1 again based on the rotated image data I22 collected by the X-ray diagnostic apparatus 10. That is, the model generation function 346 can update the trained model M1 based on the collected rotated image data I22.

例えば、X線診断装置10により回転画像データI22が収集された後、付加機能342は、図12に示すように、回転画像データI22に基づいて3次元データD21を補正する。一例を挙げると、付加機能342は、回転画像データI22を逆投影して生成した3次元データと3次元データD21との不整合を解消するように、3次元データD21を補正する。別の例を挙げると、付加機能342は、3次元データD21を投影して生成した2次元データ(擬似画像データI23等)と回転画像データI22との不整合を解消するように、3次元データD21を補正する。以下では、回転画像データI22に基づいて補正された3次元データD21を、3次元データD21’とも記載する。 For example, after the rotated image data I22 is collected by the X-ray diagnostic apparatus 10, the additional function 342 corrects the three-dimensional data D21 based on the rotated image data I22, as shown in FIG. For example, the additional function 342 corrects the three-dimensional data D21 so as to eliminate the mismatch between the three-dimensional data D21 and the three-dimensional data generated by back projecting the rotated image data I22. To give another example, the additional function 342 uses the three-dimensional data so as to eliminate the mismatch between the two-dimensional data (pseudo image data I23, etc.) generated by projecting the three-dimensional data D21 and the rotated image data I22. Correct D21. In the following, the three-dimensional data D21 corrected based on the rotated image data I22 will also be referred to as three-dimensional data D21'.

なお、3次元データD21の補正とは、例えば、深度情報の補正である。即ち、付加機能342は、回転画像データI22に基づいて、2次元X線画像データI21における各位置について付加された深度情報を補正することで、補正後の3次元データD21’を生成する。別の例を挙げると、3次元データD21の補正とは、画像変形処理である。即ち、3次元データD21が3次元画像データである場合において、付加機能342は、回転画像データI22に基づいて3次元データD21を変形させることで、補正後の3次元データD21’を生成する。 Note that the correction of the three-dimensional data D21 is, for example, correction of depth information. That is, the additional function 342 generates corrected three-dimensional data D21' by correcting the depth information added for each position in the two-dimensional X-ray image data I21 based on the rotated image data I22. To give another example, the correction of the three-dimensional data D21 is image deformation processing. That is, when the three-dimensional data D21 is three-dimensional image data, the additional function 342 generates corrected three-dimensional data D21' by transforming the three-dimensional data D21 based on the rotated image data I22.

次に、モデル生成機能346は、図13に示すように、2次元X線画像データI21と、補正後の3次元データD21’とを用いて、学習済みモデルM1を生成する。なお、図13は、第2の実施形態に係る学習済みモデルM1の生成処理について説明するための図である。即ち、モデル生成機能346は、2次元X線画像データI21を第1画像データとし、補正後の3次元データD21’を第2画像データとして用いて、学習済みモデルM1を生成する。これにより、モデル生成機能346は、学習済みモデルM1による深度情報推定の精度を向上させることができる。 Next, as shown in FIG. 13, the model generation function 346 generates a learned model M1 using the two-dimensional X-ray image data I21 and the corrected three-dimensional data D21'. Note that FIG. 13 is a diagram for explaining the generation process of the learned model M1 according to the second embodiment. That is, the model generation function 346 generates the learned model M1 using the two-dimensional X-ray image data I21 as first image data and the corrected three-dimensional data D21' as second image data. Thereby, the model generation function 346 can improve the accuracy of depth information estimation using the trained model M1.

次に、医用画像処理装置30による処理の手順の一例を、図14を用いて説明する。図14は、第2の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS201及びステップS214は、取得機能341に対応するステップである。ステップS207、ステップS208及びステップS215は、付加機能342に対応するステップである。ステップS210は、生成機能343に対応するステップである。ステップS203及びステップS211は、表示制御機能344に対応するステップである。ステップS202、ステップS204、ステップS205、ステップS206、ステップS209、ステップS212及びステップS213は、制御機能345に対応するステップである。ステップS216は、モデル生成機能346に対応するステップである。 Next, an example of a processing procedure by the medical image processing apparatus 30 will be described using FIG. 14. FIG. 14 is a flowchart for explaining a series of processing steps of the medical image processing apparatus 30 according to the second embodiment. Step S201 and step S214 are steps corresponding to the acquisition function 341. Step S207, step S208, and step S215 are steps corresponding to the additional function 342. Step S210 is a step corresponding to the generation function 343. Step S203 and step S211 are steps corresponding to the display control function 344. Step S202, step S204, step S205, step S206, step S209, step S212, and step S213 are steps corresponding to the control function 345. Step S216 is a step corresponding to the model generation function 346.

まず、処理回路34は、X線診断装置10から、2次元X線画像データI21を取得する(ステップS201)。次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影位置を変更するか否かを判定する(ステップS202)。即ち、処理回路34は、2次元X線画像データI21の撮影位置をそのまま撮影条件として用いるか否かを判定する。ここで、撮影位置を変更する場合(ステップS202肯定)、処理回路34は、2次元X線画像データI21、及び、撮影位置を示すROIをディスプレイ32に表示させる(ステップS203)。次に、処理回路34は、操作者から、2次元X線画像データI21上のROIを調整する操作を受け付ける(ステップS204)。 First, the processing circuit 34 acquires two-dimensional X-ray image data I21 from the X-ray diagnostic apparatus 10 (step S201). Next, the processing circuit 34 determines whether or not to change the photographing position by accepting an input operation from the operator (step S202). That is, the processing circuit 34 determines whether or not the imaging position of the two-dimensional X-ray image data I21 is to be used as is as the imaging condition. Here, when changing the imaging position (Yes at step S202), the processing circuit 34 causes the display 32 to display the two-dimensional X-ray image data I21 and the ROI indicating the imaging position (step S203). Next, the processing circuit 34 receives an operation for adjusting the ROI on the two-dimensional X-ray image data I21 from the operator (step S204).

次に、処理回路34は、撮影位置の変更操作を終了するか否かを判定する(ステップS205)。ここで、撮影位置の変更操作を終了しない場合(ステップS205否定)、処理回路34は、再度ステップS203に移行する。一方で、撮影位置の変更操作を終了する場合(ステップS205肯定)、処理回路34は、調整後のROIに応じた撮影位置を撮影条件として設定する。なお、撮影位置を変更しない場合(ステップS202否定)、処理回路34は、2次元X線画像データI21の撮影位置をそのまま撮影条件として設定する。 Next, the processing circuit 34 determines whether to end the photographing position changing operation (step S205). Here, if the photographing position changing operation is not completed (No in step S205), the processing circuit 34 moves to step S203 again. On the other hand, when the operation for changing the photographing position is to be completed (Yes at step S205), the processing circuit 34 sets the photographing position according to the adjusted ROI as the photographing condition. Note that if the imaging position is not changed (No in step S202), the processing circuit 34 sets the imaging position of the two-dimensional X-ray image data I21 as it is as the imaging condition.

次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影角度を変更するか否かを判定する(ステップS206)。即ち、処理回路34は、2次元X線画像データI21の撮影角度をそのまま撮影条件として用いるか否かを判定する。ここで、撮影角度を変更する場合(ステップS206肯定)、処理回路34は、2次元X線画像データI21を学習済みモデルM1に入力し(ステップS207)、3次元データD21を生成する(ステップS208)。 Next, the processing circuit 34 determines whether or not to change the photographing angle by accepting an input operation from the operator (step S206). That is, the processing circuit 34 determines whether or not the imaging angle of the two-dimensional X-ray image data I21 is to be used as is as the imaging condition. Here, when changing the imaging angle (Yes in step S206), the processing circuit 34 inputs the two-dimensional X-ray image data I21 to the trained model M1 (step S207), and generates three-dimensional data D21 (step S208). ).

次に、処理回路34は、撮影角度の変更操作を受け付ける(ステップS209)。次に、処理回路34は、3次元データD21を投影することにより、変更後の撮影角度で収集される回転画像データI22を擬似的に示した擬似画像データを生成する(ステップS210)。次に、処理回路34は、生成した擬似画像データをディスプレイ32に表示させる(ステップS211)。 Next, the processing circuit 34 receives an operation to change the photographing angle (step S209). Next, the processing circuit 34 generates pseudo image data that pseudo-represents the rotated image data I22 collected at the changed shooting angle by projecting the three-dimensional data D21 (step S210). Next, the processing circuit 34 displays the generated pseudo image data on the display 32 (step S211).

ここで、処理回路34は、撮影角度の変更操作を終了するか否かを判定する(ステップS212)。ここで、撮影角度の変更操作を終了しない場合(ステップS212否定)、処理回路34は、再度ステップS209に移行する。一方で、撮影角度の変更操作を終了する場合(ステップS212肯定)、処理回路34は、変更後の撮影角度を撮影条件として設定する。なお、撮影角度を変更しない場合(ステップS206否定)、処理回路34は、2次元X線画像データI21の撮影角度をそのまま撮影条件として設定する。次に、処理回路34は、撮影条件として設定した撮影位置及び撮影角度をX線診断装置10に対して送信する(ステップS213)。 Here, the processing circuit 34 determines whether or not to end the photographing angle changing operation (step S212). Here, if the photographing angle changing operation is not completed (No in step S212), the processing circuit 34 moves to step S209 again. On the other hand, when the operation for changing the photographing angle is to be ended (Yes at step S212), the processing circuit 34 sets the changed photographing angle as the photographing condition. Note that if the imaging angle is not changed (No in step S206), the processing circuit 34 sets the imaging angle of the two-dimensional X-ray image data I21 as it is as the imaging condition. Next, the processing circuit 34 transmits the imaging position and imaging angle set as imaging conditions to the X-ray diagnostic apparatus 10 (step S213).

次に、処理回路34は、回転画像データI22を取得したか否かを判定する(ステップS214)。即ち、処理回路34は、ステップS213において送信した撮影条件に基づく撮影が実行されたか否かを判定する。ここで、回転画像データI22を取得した場合(ステップS214肯定)、処理回路34は、回転画像データI22に基づいて3次元データD21を補正する(ステップS215)。次に、処理回路34は、補正後の3次元データD21’に基づいて学習済みモデルM1を更新し(ステップS216)、処理を終了する。例えば、処理回路34は、2次元X線画像データI21を第1画像データとし、補正後の3次元データD21’を第2画像データとして用いて、学習済みモデルM1を更新する。また、ステップS213において送信した撮影条件と異なる撮影条件で撮影が実行された場合や、撮影が実行されなかった場合、処理回路34は、回転画像データI22を取得しなかったと判定して(ステップS214否定)、処理を終了する。 Next, the processing circuit 34 determines whether rotated image data I22 has been acquired (step S214). That is, the processing circuit 34 determines whether or not photography has been performed based on the photography conditions transmitted in step S213. Here, when the rotated image data I22 is acquired (step S214 affirmative), the processing circuit 34 corrects the three-dimensional data D21 based on the rotated image data I22 (step S215). Next, the processing circuit 34 updates the learned model M1 based on the corrected three-dimensional data D21' (step S216), and ends the process. For example, the processing circuit 34 updates the learned model M1 using the two-dimensional X-ray image data I21 as first image data and the corrected three-dimensional data D21' as second image data. Furthermore, if the photographing is performed under different photographing conditions from the photographing conditions transmitted in step S213, or if the photographing is not performed, the processing circuit 34 determines that the rotated image data I22 has not been acquired (step S214 negative), the process ends.

上述したように、第2の実施形態によれば、モデル記憶回路35は、深度情報を推定するように機能付けられた学習済みモデルM1を記憶する。また、付加機能342は、2次元X線画像データI21を学習済みモデルM1に入力することで、2次元X線画像データI21における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データの各位置に付加することで、3次元データD21を生成する。また、生成機能343は、学習済みモデルM1に基づく3次元データD21を投影することにより、回転画像データI22を擬似的に示した擬似画像データを生成する。従って、第2の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影条件の設定を容易にすることができる。即ち、医用画像処理装置30は、透視像の追加収集を行なわずとも、擬似画像データによって変更後の撮影角度を直感的に理解することを可能とし、撮影角度の設定を容易にすることができる。 As described above, according to the second embodiment, the model storage circuit 35 stores the trained model M1 that is functionalized to estimate depth information. Additionally, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I21 by inputting the two-dimensional X-ray image data I21 into the learned model M1, and converts the estimated depth information into two-dimensional Three-dimensional data D21 is generated by adding it to each position of the X-ray image data. Furthermore, the generation function 343 generates pseudo image data that pseudo-illustrates the rotated image data I22 by projecting the three-dimensional data D21 based on the learned model M1. Therefore, the medical image processing apparatus 30 according to the second embodiment can facilitate setting of imaging conditions while reducing the amount of radiation exposure. In other words, the medical image processing device 30 allows the user to intuitively understand the changed imaging angle using the pseudo image data without additionally collecting fluoroscopic images, making it easy to set the imaging angle. .

また、付加機能342は、X線診断装置10によって収集された回転画像データI22に基づいて、3次元データD21を補正する。また、モデル生成機能346は、2次元X線画像データI21を第1画像データとし、補正後の3次元データD21’を第2画像データとして用いて、学習済みモデルM1を生成する。従って、第2の実施形態に係る医用画像処理装置30は、3次元データD21の生成及び回転画像データI22の収集が行われる毎に、学習済みモデルM1の学習データを収集することができる。そして、医用画像処理装置30は、新たに収集した学習データに基づいて学習済みモデルM1を更新し、深度情報推定の精度を向上させることができる。即ち、医用画像処理装置30は、撮影条件の設定及び撮影が実行されるごとに学習済みモデルM1を更新し、深度情報推定の精度を次第に向上させることができる。 Further, the additional function 342 corrects the three-dimensional data D21 based on the rotated image data I22 collected by the X-ray diagnostic apparatus 10. Furthermore, the model generation function 346 generates the learned model M1 using the two-dimensional X-ray image data I21 as first image data and the corrected three-dimensional data D21' as second image data. Therefore, the medical image processing apparatus 30 according to the second embodiment can collect learning data of the trained model M1 every time the three-dimensional data D21 is generated and the rotated image data I22 is collected. The medical image processing apparatus 30 can then update the learned model M1 based on the newly collected learning data, thereby improving the accuracy of depth information estimation. That is, the medical image processing apparatus 30 can update the learned model M1 every time imaging conditions are set and imaging is performed, and can gradually improve the accuracy of depth information estimation.

(第3の実施形態)
上述した第1~第2の実施形態では、擬似画像データによって撮影角度の設定を容易にすることについて説明した。これに対し、第3の実施形態では、撮影角度の設定に加えて、或いは撮影角度の設定に代えて、撮影位置の設定を容易にすることについて説明する。
(Third embodiment)
In the first and second embodiments described above, it has been explained that the shooting angle can be easily set using pseudo image data. On the other hand, in the third embodiment, in addition to or in place of setting the photographing angle, a method of facilitating the setting of the photographing position will be described.

第2の実施形態に係る医用情報処理システム1は、図1、図2及び図10に示した第1の実施形態に係る医用情報処理システム1と比較して、医用画像処理装置30がマップ記憶回路36を更に有するとともに、処理回路34がマップ生成機能347を更に有する点で相違する。例えば、第2の実施形態に係る医用画像処理装置30は、図15に示すように、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34と、モデル記憶回路35と、マップ記憶回路36とを有する。また、第2の実施形態に係る処理回路34は、取得機能341、付加機能342、生成機能343、表示制御機能344、制御機能345及びモデル生成機能346に加えて、マップ生成機能347を更に実行する。なお、図15は、第3の実施形態に係る医用画像処理装置30の構成の一例を示すブロック図である。以下、第1~第2の実施形態において説明した構成と同様の構成を有する点については図1、図2及び図10と同一の符号を付し、説明を省略する。 The medical information processing system 1 according to the second embodiment is different from the medical information processing system 1 according to the first embodiment shown in FIG. 1, FIG. 2, and FIG. The difference is that the processing circuit 34 further includes a circuit 36 and a map generation function 347. For example, as shown in FIG. 15, the medical image processing apparatus 30 according to the second embodiment includes an input interface 31, a display 32, a memory circuit 33, a processing circuit 34, a model memory circuit 35, and a map memory. It has a circuit 36. Further, the processing circuit 34 according to the second embodiment further executes a map generation function 347 in addition to an acquisition function 341, an additional function 342, a generation function 343, a display control function 344, a control function 345, and a model generation function 346. do. Note that FIG. 15 is a block diagram showing an example of the configuration of the medical image processing apparatus 30 according to the third embodiment. Hereinafter, the same reference numerals as those in FIGS. 1, 2, and 10 will be used to designate the same components as those described in the first and second embodiments, and the description thereof will be omitted.

まず、マップ生成機能347は、被検体Pについて収集されたX線画像データを3次元空間上に登録した被検体マップを生成して、マップ記憶回路36に記憶させる。以下、図16を用いて、被検体マップについて説明する。図16は、第3の実施形態に係る被検体マップの一例を示す図である。 First, the map generation function 347 generates a subject map in which X-ray image data collected for the subject P is registered in a three-dimensional space, and stores it in the map storage circuit 36. The object map will be described below using FIG. 16. FIG. 16 is a diagram illustrating an example of a subject map according to the third embodiment.

図16に示す被検体モデルP’は、被検体Pを示す3次元のモデルデータである。例えば、マップ生成機能347は、事前に生成された複数のモデルデータの中から、被検体Pの体型に応じたモデルデータを被検体モデルP’として取得する。なお、複数のモデルデータは、例えば、体格に関わるパラメータ(年齢や性別、体重、身長など)の組み合わせごとに、標準的な体格を有する人体について実際に3次元画像データを収集することにより生成される。複数のモデルデータは、記憶回路33が記憶してもよいし、ネットワークNWを介して医用画像処理装置30と接続された他の装置が記憶してもよい。 The subject model P' shown in FIG. 16 is three-dimensional model data representing the subject P. For example, the map generation function 347 acquires model data according to the body shape of the subject P as the subject model P' from among a plurality of model data generated in advance. Note that the multiple model data are generated by actually collecting three-dimensional image data of a human body with a standard physique for each combination of parameters related to physique (age, gender, weight, height, etc.). Ru. The plurality of model data may be stored in the storage circuit 33 or in another device connected to the medical image processing device 30 via the network NW.

マップ生成機能347は、X線画像データを被検体モデルP’上に登録することによって被検体マップを生成する。即ち、マップ生成機能347は、X線画像データを3次元空間上に登録することによって被検体マップを生成する。具体的には、マップ生成機能347は、X線画像データを撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを生成する。なお、図16に示すX線画像データI34a、X線画像データI34b、X線画像データI34c、X線画像データI34d、X線画像データI34e、X線画像データI34f、X線画像データI34g、X線画像データI34h、X線画像データI34i、X線画像データI34j、X線画像データI34k、X線画像データI34l、X線画像データI34m及びX線画像データI34nは、いずれも、被検体Pから収集されたX線画像データである。即ち、マップ生成機能347は、同じ被検体Pについて収集されたX線画像データを撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを生成する。 The map generation function 347 generates a subject map by registering X-ray image data on the subject model P'. That is, the map generation function 347 generates a subject map by registering X-ray image data on a three-dimensional space. Specifically, the map generation function 347 generates a subject map by registering X-ray image data on the subject model P' according to the imaging position and imaging angle. Note that the X-ray image data I34a, X-ray image data I34b, X-ray image data I34c, X-ray image data I34d, X-ray image data I34e, X-ray image data I34f, X-ray image data I34g, and X-ray shown in FIG. Image data I34h, X-ray image data I34i, X-ray image data I34j, X-ray image data I34k, X-ray image data I34l, X-ray image data I34m, and X-ray image data I34n are all collected from the subject P. This is X-ray image data. That is, the map generation function 347 generates a subject map by registering X-ray image data collected for the same subject P on the subject model P' according to the imaging position and imaging angle.

例えば、X線画像データI34a、X線画像データI34b、X線画像データI34c、X線画像データI34d、X線画像データI34g、X線画像データI34k及びX線画像データI34mは、撮影角度が「+Z方向」の2次元X線画像データである。また、X線画像データI34e及びX線画像データI34fは、撮影角度が「-X方向」の2次元X線画像データである。また、X線画像データI34h、X線画像データI34i、X線画像データI34j及びX線画像データI34lは、撮影角度が「+X方向」の2次元X線画像データである。マップ生成機能347は、これら複数の2次元X線画像データを、各2次元X線画像データの撮影位置及び撮影角度に応じて被検体モデルP’上に登録する。 For example, X-ray image data I34a, X-ray image data I34b, X-ray image data I34c, X-ray image data I34d, X-ray image data I34g, X-ray image data I34k, and X-ray image data I34m have an imaging angle of "+Z". This is two-dimensional X-ray image data of "direction". Furthermore, the X-ray image data I34e and the X-ray image data I34f are two-dimensional X-ray image data whose imaging angle is in the "-X direction." Further, the X-ray image data I34h, the X-ray image data I34i, the X-ray image data I34j, and the X-ray image data I34l are two-dimensional X-ray image data whose imaging angle is "+X direction". The map generation function 347 registers these plurality of two-dimensional X-ray image data on the subject model P' according to the photographing position and photographing angle of each two-dimensional X-ray image data.

また、X線画像データI34nは、被検体Pの頭部について収集された3次元X線画像データである。マップ生成機能347は、3次元X線画像データであるX線画像データI34nを、撮影位置及び撮影角度に応じて被検体モデルP’上に登録する。例えば、マップ生成機能347は、被検体モデルP’とX線画像データI34nとを3次元で位置合わせした状態において、X線画像データI34nを被検体モデルP’上に登録する。 Furthermore, the X-ray image data I34n is three-dimensional X-ray image data collected about the head of the subject P. The map generation function 347 registers the X-ray image data I34n, which is three-dimensional X-ray image data, on the subject model P' according to the imaging position and imaging angle. For example, the map generation function 347 registers the X-ray image data I34n on the subject model P' in a state where the subject model P' and the X-ray image data I34n are three-dimensionally aligned.

また、マップ生成機能347は、図示しないX線画像データが新たに収集された場合、新たに収集されたX線画像データを撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを更新する。例えば、マップ生成機能347は、2次元X線画像データI11や2次元X線画像データI21等のX線画像データを、各X線画像データの撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを更新する。 Furthermore, when X-ray image data (not shown) is newly collected, the map generation function 347 registers the newly collected X-ray image data on the subject model P' according to the imaging position and imaging angle. to update the subject map. For example, the map generation function 347 converts X-ray image data such as two-dimensional X-ray image data I11 and two-dimensional X-ray image data I21 into a subject model P' according to the imaging position and imaging angle of each X-ray image data. By registering above, the subject map will be updated.

なお、マップ生成機能347は、3次元X線画像データの生成に必要な2次元X線画像データが得られた場合、3次元X線画像データを生成してもよい。具体的には、マップ生成機能347は、撮影位置が同じであり且つ撮影角度が異なる複数の2次元X線画像データに基づいて、3次元X線画像データを生成してもよい。例えば、図16に示すX線画像データI34d、X線画像データI34e、X線画像データI34f、X線画像データI34g、X線画像データI34h、X線画像データI34i及びX線画像データI34jは、いずれも被検体Pの大腿の2次元X線画像データであり、且つ、撮影角度が異なっている。従って、マップ生成機能347は、これら複数の2次元X線画像データに基づいて、被検体Pの大腿の3次元X線画像データを生成することができる。例えば、マップ生成機能347は、撮影角度が異なる少なくとも2つの2次元X線画像データに現れた部位(骨や臓器、血管等)の3次元空間における位置をエピポーララインに基づいて特定することにより、3次元X線画像データを生成する。そして、マップ生成機能347は、生成した3次元X線画像データを被検体モデルP’上に登録することで、被検体マップを更新する。なお、マップ生成機能347は、生成した3次元X線画像データを追加的に被検体モデルP’上に登録してもよいし、複数の2次元X線画像データに代えて被検体モデルP’上に登録してもよい。 Note that the map generation function 347 may generate three-dimensional X-ray image data when two-dimensional X-ray image data necessary for generating three-dimensional X-ray image data is obtained. Specifically, the map generation function 347 may generate three-dimensional X-ray image data based on a plurality of two-dimensional X-ray image data having the same imaging position and different imaging angles. For example, X-ray image data I34d, X-ray image data I34e, X-ray image data I34f, X-ray image data I34g, X-ray image data I34h, X-ray image data I34i, and X-ray image data I34j shown in FIG. Both are two-dimensional X-ray image data of the thigh of the subject P, and the imaging angles are different. Therefore, the map generation function 347 can generate three-dimensional X-ray image data of the thigh of the subject P based on the plurality of two-dimensional X-ray image data. For example, the map generation function 347 identifies, based on epipolar lines, the positions in three-dimensional space of parts (bones, organs, blood vessels, etc.) that appear in at least two two-dimensional X-ray image data taken at different imaging angles. Generate three-dimensional X-ray image data. Then, the map generation function 347 updates the subject map by registering the generated three-dimensional X-ray image data on the subject model P'. Note that the map generation function 347 may additionally register the generated three-dimensional X-ray image data on the subject model P', or may register the generated three-dimensional X-ray image data on the subject model P' instead of the plurality of two-dimensional X-ray image data. You can register above.

また、マップ生成機能347は、撮影位置が同じ複数の2次元X線画像データが得られた場合、差分画像データを生成してもよい。例えば、図16に示すX線画像データI34aとX線画像データI34bとは、いずれも被検体Pの胸部の2次元X線画像データであって重複しており、且つ、撮影角度も同じである。従って、マップ生成機能347は、これら複数の2次元X線画像データの重複部分について、差分画像データを生成することができる。例えば、X線画像データI34aに医療デバイスが現れており、且つ、X線画像データI34bに医療デバイスが現れていない場合、マップ生成機能347は、これら複数の2次元X線画像データを差分することにより、医療デバイスを除去した差分画像データを生成することができる。なお、医療デバイスとは、例えば、カテーテルやガイドワイヤ等の体内で操作されるデバイスであってもよいし、ステントやペースメーカー等の体内に留置されるデバイスであってもよい。そして、マップ生成機能347は、生成した差分画像データを被検体モデルP’上に登録することで、被検体マップを更新する。なお、マップ生成機能347は、生成した差分画像データを追加的に被検体モデルP’上に登録してもよいし、複数の2次元X線画像データに代えて被検体モデルP’上に登録してもよい。 Further, the map generation function 347 may generate differential image data when a plurality of two-dimensional X-ray image data having the same imaging position are obtained. For example, the X-ray image data I34a and the X-ray image data I34b shown in FIG. 16 are two-dimensional X-ray image data of the chest of the subject P and overlap, and the imaging angles are also the same. . Therefore, the map generation function 347 can generate differential image data for the overlapping portions of these plurality of two-dimensional X-ray image data. For example, if a medical device appears in the X-ray image data I34a, but no medical device appears in the X-ray image data I34b, the map generation function 347 can differentiate these two-dimensional X-ray image data. Accordingly, it is possible to generate differential image data from which the medical device has been removed. Note that the medical device may be, for example, a device that is operated within the body, such as a catheter or a guide wire, or a device that is indwelled within the body, such as a stent or a pacemaker. Then, the map generation function 347 updates the subject map by registering the generated difference image data on the subject model P'. Note that the map generation function 347 may additionally register the generated differential image data on the subject model P', or register it on the subject model P' instead of the plurality of two-dimensional X-ray image data. You may.

また、マップ生成機能347は、複数のX線画像データが重なる部分が滑らかに繋がるように、被検体マップを更新してもよい。例えば、X線画像データI34bが被検体モデルP’上に既に登録されており、X線画像データI34cを新たに登録する場合において、マップ生成機能347は、X線画像データI34bとX線画像データI34cとが滑らかに繋がるように、被検体マップを更新する。例えば、マップ生成機能347は、平均の画素値やコントラストがX線画像データI34bと一致するように、X線画像データI34cに対して画像処理を行なう。また、例えば、マップ生成機能347は、X線画像データI34cを登録した後、X線画像データI34bとX線画像データI34cとが重なる部分に生じる境界線(即ち、X線画像データI34b又はX線画像データI34cの輪郭線)を暈すように画素処理を施す。一例を挙げると、マップ生成機能347は、X線画像データI34bとX線画像データI34cとが重なる部分について、ガウシアンフィルタを用いた画像処理を実行する。 The map generation function 347 may also update the subject map so that the overlapping portions of multiple X-ray image data are smoothly connected. For example, in a case where X-ray image data I34b has already been registered on the subject model P' and X-ray image data I34c is newly registered, the map generation function 347 combines the X-ray image data I34b and the X-ray image data The subject map is updated so that it is smoothly connected to I34c. For example, the map generation function 347 performs image processing on the X-ray image data I34c so that the average pixel value and contrast match those of the X-ray image data I34b. For example, after registering the X-ray image data I34c, the map generation function 347 generates a boundary line (i.e., a boundary line between the X-ray image data I34b and the Pixel processing is performed so as to blur the outline of the image data I34c. For example, the map generation function 347 performs image processing using a Gaussian filter on a portion where the X-ray image data I34b and the X-ray image data I34c overlap.

以上、第3の実施形態に係る被検体マップについて説明した。第3の実施形態に係る医用画像処理装置30は、かかる被検体マップを用いて、被ばく量を低減しつつ、撮影条件の設定をより容易にする。 The object map according to the third embodiment has been described above. The medical image processing apparatus 30 according to the third embodiment makes it easier to set imaging conditions while reducing the amount of radiation exposure using such a subject map.

まず、被検体マップを用いた撮影位置の設定について、図17を用いて説明する。図17は、第3の実施形態に係る撮影条件の設定の一例を示す図である。まず、取得機能341は、X線診断装置10から、被検体Pの2次元X線画像データを取得する。以下、被検体Pの2次元X線画像データの例として、図17に示す2次元X線画像データI31について説明する。2次元X線画像データI31は、例えば、LIHである。 First, setting of the imaging position using the subject map will be explained using FIG. 17. FIG. 17 is a diagram illustrating an example of setting photographing conditions according to the third embodiment. First, the acquisition function 341 acquires two-dimensional X-ray image data of the subject P from the X-ray diagnostic apparatus 10. The two-dimensional X-ray image data I31 shown in FIG. 17 will be described below as an example of the two-dimensional X-ray image data of the subject P. The two-dimensional X-ray image data I31 is, for example, LIH.

次に、表示制御機能344は、2次元X線画像データI31をディスプレイ32に表示させる。ここで、制御機能345は、操作者からの入力操作に基づいて、撮影位置を変更するか否かを判定する。即ち、制御機能345は、2次元X線画像データI31の撮影位置をそのまま撮影条件として用いるか否かを判定する。ここで、撮影位置を変更する場合、表示制御機能344は、図16に示すように、被検体マップに基づいて2次元X線画像データI31を拡張した拡張画像データI31’をディスプレイ32に表示させる。 Next, the display control function 344 causes the display 32 to display the two-dimensional X-ray image data I31. Here, the control function 345 determines whether or not to change the photographing position based on an input operation from the operator. That is, the control function 345 determines whether or not the imaging position of the two-dimensional X-ray image data I31 is to be used as is as the imaging condition. Here, when changing the imaging position, the display control function 344 causes the display 32 to display extended image data I31' that is obtained by expanding the two-dimensional X-ray image data I31 based on the subject map, as shown in FIG. .

例えば、2次元X線画像データI31の撮影角度が「+Z方向」であり且つ撮影位置が被検体Pの大腿である場合、表示制御機能344は、図16に示したX線画像データI34d及びX線画像データI34gに基づいて、2次元X線画像データI31を拡張することができる。一例を挙げると、表示制御機能344は、X線画像データI34d及びX線画像データI34gから、2次元X線画像データI31の周辺領域に対応する領域を切り出し、切り出した領域を2次元X線画像データI31の周辺領域に配置することで、2次元X線画像データI31を拡張する。別の例を挙げると、表示制御機能344は、2次元X線画像データI31に対してX線画像データI34d及びX線画像データI34gを合成することで、2次元X線画像データI31を拡張する。そして、表示制御機能344は、拡張画像データI31’をディスプレイ32に表示させる。また、表示制御機能344は、拡張画像データI31’上に、撮影位置を示すROIを表示させる。 For example, if the imaging angle of the two-dimensional X-ray image data I31 is the "+Z direction" and the imaging position is the thigh of the subject P, the display control function 344 can display the X-ray image data I34d and The two-dimensional X-ray image data I31 can be expanded based on the line image data I34g. For example, the display control function 344 cuts out a region corresponding to the peripheral region of the two-dimensional X-ray image data I31 from the X-ray image data I34d and the X-ray image data I34g, and converts the cut-out region into a two-dimensional X-ray image. The two-dimensional X-ray image data I31 is expanded by arranging it in the peripheral area of the data I31. To give another example, the display control function 344 expands the two-dimensional X-ray image data I31 by combining the X-ray image data I34d and the X-ray image data I34g with respect to the two-dimensional X-ray image data I31. . Then, the display control function 344 causes the display 32 to display the extended image data I31'. Furthermore, the display control function 344 displays an ROI indicating the photographing position on the extended image data I31'.

次に、操作者は、検査対象部位を観察しやすいように拡張画像データI31’上のROIを調整することで、撮影位置の設定を行なう。ここで、拡張画像データI31’は2次元X線画像データI31より広い範囲を示すものである。例えば、図17に示すように、拡張画像データI31’上には、部位A1及び部位A2に加えて、2次元X線画像データI31上には現れていなかった部位A3が現れている。従って、拡張画像データI31’上で撮影位置の設定を行なう場合、操作者は、2次元X線画像データI31上で撮影位置の設定を行なう場合と比較して、より高い自由度で撮影位置の設定を行なうことができる。例えば、部位A3が検査対象部位である場合、操作者は、ROIに部位A3が含まれるように拡張画像データI31’上でROIを移動させることで、部位A3を観察しやすいように撮影位置の設定を行なうことができる。そして、制御機能345は、操作者による調整後のROIが示す撮影位置を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。 Next, the operator sets the imaging position by adjusting the ROI on the expanded image data I31' so that the region to be examined can be easily observed. Here, the extended image data I31' indicates a wider range than the two-dimensional X-ray image data I31. For example, as shown in FIG. 17, in addition to site A1 and site A2, site A3, which did not appear on two-dimensional X-ray image data I31, appears on extended image data I31'. Therefore, when setting the imaging position on the extended image data I31', the operator has a higher degree of freedom in setting the imaging position than when setting the imaging position on the two-dimensional X-ray image data I31. You can make settings. For example, if part A3 is the part to be examined, the operator can change the imaging position to make it easier to observe part A3 by moving the ROI on the expanded image data I31' so that part A3 is included in the ROI. You can make settings. Then, the control function 345 sets the imaging position indicated by the ROI after adjustment by the operator as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10.

図17に示したように、第3の実施形態に係る医用画像処理装置30は、被検体マップに基づいて2次元X線画像データI31を拡張することにより、2次元X線画像データI31に含まれない位置を含む拡張画像データI31’を生成する。そして、操作者は、拡張画像データI31’上のROIを調整することで、直感的に撮影位置の設定を行なうことができる。また、操作者が拡張画像データI31’上のROIを調整している間はX線透視の必要がないため、X線透視のみによって撮影位置を設定する場合と比較して、被ばく量を低減することができる。 As shown in FIG. 17, the medical image processing apparatus 30 according to the third embodiment expands the two-dimensional X-ray image data I31 based on the subject map, so that the information contained in the two-dimensional X-ray image data I31 is Extended image data I31' including the positions that are not included is generated. The operator can intuitively set the shooting position by adjusting the ROI on the extended image data I31'. In addition, since there is no need for X-ray fluoroscopy while the operator is adjusting the ROI on the expanded image data I31', the amount of radiation exposure is reduced compared to the case where the imaging position is set only by X-ray fluoroscopy. be able to.

次に、被検体マップを用いた撮影角度の設定について説明する。例えば、制御機能345は、2次元X線画像データI31又は拡張画像データI31’を参照した操作者からの入力操作に基づいて、撮影角度を変更するか否かを判定する。即ち、制御機能345は、2次元X線画像データI31の撮影角度をそのまま撮影条件として用いるか否かを判定する。ここで、撮影角度を変更する場合、付加機能342は、2次元X線画像データI31における各位置について深度情報を付加した3次元データD31を生成する。 Next, setting of the imaging angle using the subject map will be explained. For example, the control function 345 determines whether or not to change the imaging angle based on an input operation from an operator who refers to the two-dimensional X-ray image data I31 or extended image data I31'. That is, the control function 345 determines whether or not the imaging angle of the two-dimensional X-ray image data I31 is to be used as is as the imaging condition. Here, when changing the imaging angle, the additional function 342 generates three-dimensional data D31 with depth information added for each position in the two-dimensional X-ray image data I31.

例えば、付加機能342は、2次元X線画像データI31と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI31における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。別の例を挙げると、付加機能342は、2次元X線画像データI31における各位置について、画素値に基づいて深度情報を推定し、推定した深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。別の例を挙げると、付加機能342は、モデル記憶回路35から学習済みモデルM1を読み出し、2次元X線画像データI31を学習済みモデルM1に入力することで2次元X線画像データI31における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。 For example, the additional function 342 estimates the depth information for each position in the two-dimensional X-ray image data I31 based on the three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I31, and Three-dimensional data D31 is generated by adding depth information to each position of two-dimensional X-ray image data I31. To give another example, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I31 based on the pixel value, and applies the estimated depth information to each position in the two-dimensional X-ray image data I31. The three-dimensional data D31 is generated by adding the three-dimensional data D31. To give another example, the additional function 342 reads out the learned model M1 from the model storage circuit 35, and inputs the two-dimensional X-ray image data I31 into the learned model M1, so that each of the two-dimensional X-ray image data I31 is Three-dimensional data D31 is generated by estimating depth information for a position and adding the estimated depth information to each position of two-dimensional X-ray image data I31.

或いは、付加機能342は、マップ記憶回路36から被検体マップを読み出し、被検体マップに基づいて2次元X線画像データI31における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。例えば、付加機能342は、2次元X線画像データI31と、被検体マップに登録された3次元X線画像データとを位置合わせすることで、2次元X線画像データI31における各位置について深度情報を推定する。一例を挙げると、2次元X線画像データI31の撮影位置が被検体Pの頭部である場合、付加機能342は、2次元X線画像データI31と、図16に示したX線画像データI34nとを位置合わせすることで、2次元X線画像データI31における各位置について深度情報を推定する。 Alternatively, the additional function 342 reads the subject map from the map storage circuit 36, estimates depth information for each position in the two-dimensional X-ray image data I31 based on the subject map, and uses the estimated depth information as a two-dimensional Three-dimensional data D31 is generated by adding it to each position of image data I31. For example, the additional function 342 provides depth information for each position in the two-dimensional X-ray image data I31 by aligning the two-dimensional X-ray image data I31 and the three-dimensional X-ray image data registered in the subject map. Estimate. To give an example, when the photographing position of the two-dimensional X-ray image data I31 is the head of the subject P, the additional function 342 combines the two-dimensional X-ray image data I31 and the X-ray image data I34n shown in FIG. By aligning the two, depth information is estimated for each position in the two-dimensional X-ray image data I31.

別の例を挙げると、付加機能342は、2次元X線画像データI31と、被検体マップに登録された2次元X線画像データとを比較することで、2次元X線画像データI31における各位置について深度情報を推定する。例えば、付加機能342は、まず、被検体マップに登録された2次元X線画像データのうち、2次元X線画像データI31と撮影位置が同じであり且つ撮影角度が異なる2次元X線画像データを特定する。そして、付加機能342は、特定した2次元X線画像データと、2次元X線画像データI31とのそれぞれに現れた部位の3次元空間における位置をエピポーララインに基づいて特定することにより、2次元X線画像データI31における各位置について深度情報を推定する。 To give another example, the additional function 342 compares the two-dimensional X-ray image data I31 with the two-dimensional X-ray image data registered in the subject map, so that each of the two-dimensional X-ray image data I31 is Estimate depth information for a location. For example, the additional function 342 first selects two-dimensional X-ray image data that has the same imaging position as the two-dimensional X-ray image data I31 and a different imaging angle from among the two-dimensional X-ray image data registered in the subject map. Identify. Then, the additional function 342 specifies the position in the three-dimensional space of the region appearing in the specified two-dimensional X-ray image data and the two-dimensional X-ray image data I31 based on the epipolar line. Depth information is estimated for each position in the X-ray image data I31.

また、制御機能345は、操作者から撮影角度の変更操作を受け付ける。なお、3次元データD31の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。以下では、2次元X線画像データI31の撮影角度を、撮影角度W31と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W32と記載する。例えば、変更後の撮影角度W32は、撮影角度W31から角度「θ3」だけ変更された角度である。また、以下では、撮影角度W32で収集されるX線画像データを、回転画像データI32と記載する。 The control function 345 also receives an operation to change the photographing angle from the operator. Note that the generation of the three-dimensional data D31 may be performed before the operator performs an operation to change the photographing angle, or may be performed after the operator performs an operation to change the photographic angle. Below, the imaging angle of the two-dimensional X-ray image data I31 will be referred to as an imaging angle W31. Furthermore, hereinafter, the photographing angle after being changed by the operator will be referred to as photographing angle W32. For example, the changed photographing angle W32 is an angle that is changed by an angle "θ3" from the photographing angle W31. Furthermore, hereinafter, the X-ray image data collected at the imaging angle W32 will be referred to as rotated image data I32.

次に、付加機能342は、被検体マップに基づいて3次元データD31を拡張し、生成機能343は、拡張後の3次元データD31を投影することにより、回転画像データI32を擬似的に示した擬似画像データI33aを生成する。以下、擬似画像データI33aの生成処理について、図18を用いて説明する。図18は、第3の実施形態に係る擬似画像データI33aの生成処理の一例を示す図である。なお、図18においては、アイソセンターに対応する点が3次元データD31の外部領域に位置しているものとして説明する。即ち、図18においては軸y’が3次元データD31を通らないものとして説明する。 Next, the additional function 342 expands the three-dimensional data D31 based on the subject map, and the generation function 343 displays the rotated image data I32 in a pseudo manner by projecting the expanded three-dimensional data D31. Pseudo image data I33a is generated. The generation process of the pseudo image data I33a will be described below using FIG. 18. FIG. 18 is a diagram illustrating an example of a process for generating pseudo image data I33a according to the third embodiment. In addition, in FIG. 18, the explanation will be made assuming that the point corresponding to the isocenter is located in an area outside the three-dimensional data D31. That is, in FIG. 18, the explanation will be made assuming that the axis y' does not pass through the three-dimensional data D31.

図18に示すように、付加機能342は、被検体マップに基づいて3次元データD11を拡張することで、拡張3次元データD31’を生成する。例えば、付加機能342は、まず、被検体マップに基づいて2次元X線画像データI31を拡張する。そして、付加機能342は、2次元X線画像データI31における各位置に加え、拡張した領域の各位置について深度情報を付加することで、3次元データD11を拡張する。即ち、付加機能342は、被検体マップに基づいて、2次元X線画像データI31を拡張した拡張画像データI31’を生成し、拡張画像データI31’における各位置について深度情報を付加することで、拡張3次元データD31’を生成する。 As shown in FIG. 18, the additional function 342 generates expanded three-dimensional data D31' by expanding three-dimensional data D11 based on the subject map. For example, the additional function 342 first expands the two-dimensional X-ray image data I31 based on the subject map. Then, the additional function 342 expands the three-dimensional data D11 by adding depth information for each position in the expanded region in addition to each position in the two-dimensional X-ray image data I31. That is, the additional function 342 generates extended image data I31' by extending the two-dimensional X-ray image data I31 based on the subject map, and adds depth information to each position in the extended image data I31'. Extended three-dimensional data D31' is generated.

次に、付加機能342は、図18に示すように、拡張3次元データD31’を角度「θ3」だけ回転させる。例えば、生成機能343は、基準座標系における拡張3次元データD31’の位置に基づき、拡張3次元データD31’において、実空間におけるアイソセンターに対応する点を特定する。次に、生成機能343は、アイソセンターを通る軸y’を回転軸として、拡張3次元データD31’を角度「θ3」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、拡張3次元データD31’を角度「θ3」だけ回転させる。なお、図18においては、アイソセンターに対応する点が拡張3次元データD31’の外部領域に位置しているため、アイソセンターに対応する点まわりに拡張3次元データD31’を回転させる際、拡張3次元データD31’は、アイソセンターに対応する点を中心とする円軌道に沿って移動する。 Next, the additional function 342 rotates the extended three-dimensional data D31' by an angle "θ3", as shown in FIG. For example, the generation function 343 identifies a point corresponding to the isocenter in real space in the extended three-dimensional data D31' based on the position of the extended three-dimensional data D31' in the reference coordinate system. Next, the generation function 343 rotates the extended three-dimensional data D31' by an angle "θ3" using the axis y' passing through the isocenter as the rotation axis. That is, the generation function 343 rotates the extended three-dimensional data D31' by an angle "θ3" around a point corresponding to the isocenter. In FIG. 18, since the point corresponding to the isocenter is located in the external area of the extended three-dimensional data D31', when rotating the extended three-dimensional data D31' around the point corresponding to the isocenter, the extended three-dimensional data D31' is The three-dimensional data D31' moves along a circular trajectory centered on a point corresponding to the isocenter.

次に、生成機能343は、回転後の拡張3次元データD31’をXY平面上に投影することで、擬似画像データI33aを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI33aをディスプレイ32に表示させる。これにより、操作者は、変更後の撮影角度W32を直感的に理解し、変更後の撮影角度W32が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W32が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。一方で、変更後の撮影角度W32が適切であると判断した場合、操作者は、撮影角度W32を撮影条件とする旨の入力操作を行なう。この場合、制御機能345は、撮影角度W32を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。 Next, the generation function 343 generates pseudo image data I33a by projecting the expanded three-dimensional data D31' after rotation onto the XY plane. Furthermore, the display control function 344 causes the display 32 to display the pseudo image data I33a generated by the generation function 343. Thereby, the operator can intuitively understand the changed shooting angle W32 and easily determine whether the changed shooting angle W32 is appropriate. For example, if the operator determines that the changed photographing angle W32 is not appropriate, the operator performs the photographing angle changing operation again. On the other hand, if it is determined that the changed photographing angle W32 is appropriate, the operator performs an input operation to set the photographing angle W32 as the photographing condition. In this case, the control function 345 sets the imaging angle W32 as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10.

なお、図18に示したように、アイソセンターに対応する点まわりに拡張3次元データD31’を回転させる際、拡張3次元データD31’は、アイソセンターに対応する点を中心とする円軌道に沿って+X方向に移動する。このため、擬似画像データI33aにおいては、2次元X線画像データI31と比較して部位A1や部位A2等の各部位が全体的に+X方向に移動している。しかしながら、擬似画像データI33aは、被検体マップに基づいて拡張された拡張3次元データD31’に基づいて生成されたものであるため、このような+X方向への移動を補完することができる。 As shown in FIG. 18, when rotating the extended three-dimensional data D31' around a point corresponding to the isocenter, the extended three-dimensional data D31' is rotated in a circular orbit centered around the point corresponding to the isocenter. along the +X direction. Therefore, in the pseudo image data I33a, compared to the two-dimensional X-ray image data I31, each part such as part A1 and part A2 has moved in the +X direction as a whole. However, since the pseudo image data I33a is generated based on the expanded three-dimensional data D31' expanded based on the subject map, it can complement such movement in the +X direction.

例えば、被検体マップに基づく拡張を行なっていない状態の3次元データD31を投影することによって擬似画像データI33bを生成した場合、擬似画像データI33bが示す範囲は、擬似画像データI33aよりも狭いものとなる。例えば、擬似画像データI33bが示す範囲は、図18に示す領域RIに対応する範囲のみとなる。そして、擬似画像データI33bにおいては、図18に示すように、部位A2の一部が画像の範囲外に出てしまう場合がある。即ち、擬似画像データI33bにおいては、2次元X線画像データI31と比較して部位A2が+X方向に移動したことにより、部位A2の一部を表わすことができなくなる場合がある。これに対し、擬似画像データI33aは、部位A2の+X方向への移動を許容して、部位A2の全体を表わすことができる。 For example, when pseudo image data I33b is generated by projecting three-dimensional data D31 that has not been expanded based on the subject map, the range indicated by pseudo image data I33b is narrower than that of pseudo image data I33a. Become. For example, the range indicated by the pseudo image data I33b is only the range corresponding to the region RI shown in FIG. 18. In the pseudo image data I33b, as shown in FIG. 18, part of the part A2 may be outside the range of the image. That is, in the pseudo image data I33b, part of the part A2 may no longer be represented because the part A2 has moved in the +X direction compared to the two-dimensional X-ray image data I31. On the other hand, the pseudo image data I33a can represent the entire part A2 by allowing movement of the part A2 in the +X direction.

なお、撮影位置を変更しない場合、撮影角度W32で収集される回転画像データI32が示す範囲は、図18に示す領域RIに対応する範囲となる。表示制御機能344は、擬似画像データI33a上に領域RIを表示することで、収集される回転画像データI32において部位A2の一部が画像の範囲外に出てしまうことを操作者に示すことができる。ここで、制御機能345は、擬似画像データI33a及び領域RIを参照した操作者から、撮影位置の変更操作を受け付けてもよい。例えば、表示制御機能344は、擬似画像データI33a上の領域RIを、撮影位置を示すROIとして表示させる。次に、操作者は、検査対象部位を観察しやすいように擬似画像データI33a上のROIを調整する。例えば、操作者は、部位A1及び部位A2の全体を含むように擬似画像データI33a上のROIを調整する。そして、制御機能345は、調整後のROIが示す撮影位置を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。 Note that when the photographing position is not changed, the range indicated by the rotated image data I32 collected at the photographing angle W32 corresponds to the region RI shown in FIG. 18. By displaying the region RI on the pseudo image data I33a, the display control function 344 can indicate to the operator that part of the part A2 will be outside the image range in the rotated image data I32 to be collected. can. Here, the control function 345 may receive an operation to change the photographing position from an operator who has referred to the pseudo image data I33a and the region RI. For example, the display control function 344 displays the region RI on the pseudo image data I33a as an ROI indicating the photographing position. Next, the operator adjusts the ROI on the pseudo image data I33a to make it easier to observe the region to be examined. For example, the operator adjusts the ROI on the pseudo image data I33a to include the entire region A1 and region A2. Then, the control function 345 sets the imaging position indicated by the adjusted ROI as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10.

上述したように、第3の実施形態によれば、マップ記憶回路36は、同じ被検体について収集されたX線画像データを撮影位置及び撮影角度に応じて3次元空間上に登録した被検体マップを記憶する。また、マップ生成部は、新たに収集されたX線画像データを撮影位置及び撮影角度に応じて3次元空間上に登録することで、マップ記憶回路36が記憶する被検体マップを更新する。従って、第3の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影位置の設定を容易にすることができる。例えば、医用画像処理装置30は、2次元X線画像データI31を表示する際、被検体マップに基づいて2次元X線画像データI31に含まれない位置をも表示することができる。即ち、医用画像処理装置30は、過去に撮影された位置については新たに撮影を行なわずとも被検体マップに基づいて表示を行なうことができるため、被ばく量を低減しつつ撮影位置の設定を容易にすることができる。 As described above, according to the third embodiment, the map storage circuit 36 stores a subject map in which X-ray image data collected for the same subject is registered in a three-dimensional space according to the imaging position and imaging angle. remember. The map generation unit also updates the subject map stored in the map storage circuit 36 by registering the newly collected X-ray image data in the three-dimensional space according to the imaging position and imaging angle. Therefore, the medical image processing apparatus 30 according to the third embodiment can easily set the imaging position while reducing the amount of radiation exposure. For example, when displaying the two-dimensional X-ray image data I31, the medical image processing apparatus 30 can also display positions not included in the two-dimensional X-ray image data I31 based on the subject map. In other words, the medical image processing device 30 can display positions that have been photographed in the past based on the subject map without having to take new photographs, so it is easy to set the photographing position while reducing the amount of radiation exposure. It can be done.

また、上述したように、第3の実施形態によれば、付加機能342は、被検体マップに基づいて3次元データD31を拡張する。また、生成機能343は、拡張後の拡張3次元データD31’を投影することにより、回転画像データI32を擬似的に示した擬似画像データI33aを生成する。従って、第3の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影角度の設定をより容易にすることができる。即ち、アイソセンターの位置によっては、アイソセンターに対応する点を中心とする円軌道に沿って3次元データD31が移動してしまう。これは、アイソセンターの位置によっては、Cアーム105の回転によって撮影位置がずれることに対応する。これに対して、第3の実施形態に係る医用画像処理装置30は、予め3次元データD31を拡張しておくことによって、撮影位置のずれを許容できる広範囲の擬似画像データを生成し、撮影角度の設定を容易にすることができる。 Further, as described above, according to the third embodiment, the additional function 342 expands the three-dimensional data D31 based on the subject map. Furthermore, the generation function 343 generates pseudo image data I33a that pseudo-represents the rotated image data I32 by projecting the expanded three-dimensional data D31'. Therefore, the medical image processing apparatus 30 according to the third embodiment can more easily set the imaging angle while reducing the amount of radiation exposure. That is, depending on the position of the isocenter, the three-dimensional data D31 may move along a circular trajectory centered on a point corresponding to the isocenter. This corresponds to the fact that the photographing position shifts due to rotation of the C-arm 105 depending on the position of the isocenter. In contrast, the medical image processing apparatus 30 according to the third embodiment expands the three-dimensional data D31 in advance to generate pseudo image data over a wide range that can tolerate deviations in the imaging position, and adjusts the imaging angle. can be easily configured.

(第4の実施形態)
さて、これまで第1~第3の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Fourth embodiment)
Although the first to third embodiments have been described so far, the present invention may be implemented in various different forms in addition to the embodiments described above.

上述した実施形態では、生成機能343が生成した擬似画像データを、医用画像処理装置30におけるディスプレイ32に表示させる場合について説明した。しかしながら実施形態はこれに限定されるものではない。例えば、生成機能343が生成した擬似画像データについて、医用画像処理装置30と異なる他の装置が表示を行なう場合であってもよい。例えば、生成機能343は、生成した擬似画像データを、ネットワークNWを介して、X線診断装置10に送信してもよい。この場合、X線診断装置10における表示制御機能110bは、医用画像処理装置30から送信された擬似画像データを、ディスプレイ108に表示させることができる。 In the embodiment described above, a case has been described in which pseudo image data generated by the generation function 343 is displayed on the display 32 in the medical image processing apparatus 30. However, embodiments are not limited thereto. For example, the pseudo image data generated by the generation function 343 may be displayed by another device other than the medical image processing device 30. For example, the generation function 343 may transmit the generated pseudo image data to the X-ray diagnostic apparatus 10 via the network NW. In this case, the display control function 110b in the X-ray diagnostic apparatus 10 can display the pseudo image data transmitted from the medical image processing apparatus 30 on the display 108.

また、上述した実施形態では、医用画像処理装置30における処理回路34が、擬似画像データの生成処理を行なうものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、X線診断装置10における処理回路110が、擬似画像データの生成処理を行なう場合であってもよい。 Furthermore, in the embodiment described above, the processing circuit 34 in the medical image processing apparatus 30 was described as performing the process of generating pseudo image data. However, embodiments are not limited thereto. For example, the processing circuit 110 in the X-ray diagnostic apparatus 10 may perform the process of generating pseudo image data.

一例を挙げると、処理回路110は、図19に示すように、収集機能110a、表示制御機能110b及び送信機能110cに加えて、付加機能110d、生成機能110e、制御機能110f、モデル生成機能110g、及び、マップ生成機能110hを実行する。また、X線診断装置10は、更に、モデル記憶回路111及びマップ記憶回路112を備える。なお、図19は、第4の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。 For example, as shown in FIG. 19, the processing circuit 110 includes, in addition to a collection function 110a, a display control function 110b, and a transmission function 110c, an additional function 110d, a generation function 110e, a control function 110f, a model generation function 110g, Then, the map generation function 110h is executed. Furthermore, the X-ray diagnostic apparatus 10 further includes a model storage circuit 111 and a map storage circuit 112. Note that FIG. 19 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 10 according to the fourth embodiment.

図19に示す場合、収集機能110aは、まず、被検体Pから2次元X線画像データを収集する。なお、以下では2次元X線画像データの例として、2次元X線画像データI41について説明する。次に、表示制御機能110bは、マップ記憶回路112が記憶する被検体マップに基づいて、2次元X線画像データI41を拡張した拡張画像データI41’を生成し、生成した拡張画像データI41’をディスプレイ32に表示させる。また、表示制御機能110bは、拡張画像データI41’上に、撮影位置を示すROIを表示させる。ここで、操作者は、検査対象部位を観察しやすいように拡張画像データI41’上のROIを調整する。そして、制御機能110fは、操作者による調整後のROIが示す撮影位置を撮影条件として設定する。 In the case shown in FIG. 19, the collection function 110a first collects two-dimensional X-ray image data from the subject P. Note that two-dimensional X-ray image data I41 will be described below as an example of two-dimensional X-ray image data. Next, the display control function 110b generates expanded image data I41' by expanding the two-dimensional X-ray image data I41 based on the subject map stored in the map storage circuit 112, and expands the generated expanded image data I41'. It is displayed on the display 32. Furthermore, the display control function 110b displays an ROI indicating the photographing position on the extended image data I41'. Here, the operator adjusts the ROI on the expanded image data I41' to make it easier to observe the region to be examined. Then, the control function 110f sets the imaging position indicated by the ROI after adjustment by the operator as the imaging condition.

次に、付加機能110dは、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成する。例えば、付加機能110dは、2次元X線画像データI41と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI41における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。別の例を挙げると、付加機能110dは、2次元X線画像データI41における各位置について、画素値に基づいて深度情報を推定し、推定した深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。別の例を挙げると、付加機能110dは、モデル記憶回路111から学習済みモデルM1を読み出し、2次元X線画像データI41を学習済みモデルM1に入力することで2次元X線画像データI41における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。別の例を挙げると、付加機能110dは、マップ記憶回路112から被検体マップを読み出し、被検体マップに基づいて2次元X線画像データI41における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。 Next, the additional function 110d generates three-dimensional data D41 to which depth information is added for each position in the two-dimensional X-ray image data I41. For example, the additional function 110d estimates depth information for each position in the two-dimensional X-ray image data I41 based on three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I41, and Three-dimensional data D41 is generated by adding depth information to each position of two-dimensional X-ray image data I41. To give another example, the additional function 110d estimates depth information for each position in the two-dimensional X-ray image data I41 based on pixel values, and applies the estimated depth information to each position in the two-dimensional X-ray image data I41. The three-dimensional data D41 is generated by adding the three-dimensional data D41. To give another example, the additional function 110d reads out the learned model M1 from the model storage circuit 111, and inputs the two-dimensional X-ray image data I41 into the learned model M1, so that each of the two-dimensional X-ray image data I41 is Three-dimensional data D41 is generated by estimating depth information for a position and adding the estimated depth information to each position of two-dimensional X-ray image data I41. To give another example, the additional function 110d reads the subject map from the map storage circuit 112, estimates depth information for each position in the two-dimensional X-ray image data I41 based on the subject map, and estimates the depth information for each position in the two-dimensional X-ray image data I41. is added to each position of the two-dimensional X-ray image data I41 to generate three-dimensional data D41.

また、制御機能110fは、操作者から撮影角度の変更操作を受け付ける。なお、3次元データD41の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。以下では、2次元X線画像データI41の撮影角度を、撮影角度W41と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W42と記載する。例えば、変更後の撮影角度W42は、撮影角度W41から角度「θ4」だけ変更された角度である。また、以下では、撮影角度W42で収集されるX線画像データを、回転画像データI42と記載する。 The control function 110f also receives an operation to change the photographing angle from the operator. Note that the generation of the three-dimensional data D41 may be performed before the operator performs an operation to change the photographing angle, or may be performed after the operator performs an operation to change the photographic angle. Below, the photographing angle of the two-dimensional X-ray image data I41 will be referred to as a photographing angle W41. Furthermore, hereinafter, the photographing angle after being changed by the operator will be referred to as photographing angle W42. For example, the changed photographing angle W42 is an angle that is changed by an angle "θ4" from the photographing angle W41. Furthermore, hereinafter, the X-ray image data collected at the imaging angle W42 will be referred to as rotated image data I42.

次に、生成機能110eは、3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成する。例えば、生成機能110eは、3次元データD41において実空間におけるアイソセンターに対応する点を特定し、特定した対応する点まわりに3次元データD41を回転させ、回転後の3次元データD41を投影することによって擬似画像データI43を生成する。なお、付加機能110dは、被検体マップに基づいて3次元データD41を拡張してもよい。この場合、生成機能110eは、拡張後の3次元データD41を投影することによって擬似画像データI43を生成する。 Next, the generation function 110e generates pseudo image data I43 that pseudo-represents the rotated image data I42 by projecting the three-dimensional data D41. For example, the generation function 110e identifies a point corresponding to the isocenter in real space in the three-dimensional data D41, rotates the three-dimensional data D41 around the identified corresponding point, and projects the rotated three-dimensional data D41. By doing this, pseudo image data I43 is generated. Note that the additional function 110d may expand the three-dimensional data D41 based on the subject map. In this case, the generation function 110e generates pseudo image data I43 by projecting the expanded three-dimensional data D41.

次に、表示制御機能110bは、生成機能110eが生成した擬似画像データI43をディスプレイ32に表示させる。これにより、操作者は、変更後の撮影角度W42を直感的に理解し、変更後の撮影角度W42が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W42が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。一方で、変更後の撮影角度W42が適切であると判断した場合、操作者は、撮影角度W42を撮影条件とする旨の入力操作を行なう。この場合、制御機能110fは、撮影角度W42を撮影条件として設定する。また、収集機能110aは、設定された撮影条件に従って、X線画像データの収集を実行する。例えば、収集機能110aは、回転画像データI42の収集を実行する。 Next, the display control function 110b causes the display 32 to display the pseudo image data I43 generated by the generation function 110e. Thereby, the operator can intuitively understand the changed shooting angle W42 and easily determine whether the changed shooting angle W42 is appropriate. For example, if the operator determines that the changed photographing angle W42 is not appropriate, the operator performs the photographing angle changing operation again. On the other hand, if it is determined that the changed photographing angle W42 is appropriate, the operator performs an input operation to set the photographing angle W42 as the photographing condition. In this case, the control function 110f sets the photographing angle W42 as the photographing condition. Furthermore, the collection function 110a executes collection of X-ray image data according to set imaging conditions. For example, the collection function 110a executes collection of rotated image data I42.

ここで、モデル生成機能110gは、収集された回転画像データI42に基づいて、
モデル記憶回路111が記憶する学習済みモデルM1を更新してもよい。例えば、まず、付加機能110dは、回転画像データI42に基づいて3次元データD41を補正する。そして、モデル生成機能110gは、2次元X線画像データI41を第1画像データとし、回転画像データI42を第2画像データとして用いて、学習済みモデルM1を更新する。また、マップ生成機能110hは、2次元X線画像データI41に基づいて、マップ記憶回路112が記憶する被検体マップを更新してもよい。例えば、マップ生成機能110hは、2次元X線画像データI41を撮影位置及び撮影角度に基づいて3次元空間上に登録することで、被検体マップを更新する。
Here, the model generation function 110g, based on the collected rotated image data I42,
The trained model M1 stored in the model storage circuit 111 may be updated. For example, first, the additional function 110d corrects the three-dimensional data D41 based on the rotated image data I42. Then, the model generation function 110g updates the learned model M1 using the two-dimensional X-ray image data I41 as first image data and the rotated image data I42 as second image data. The map generation function 110h may also update the subject map stored in the map storage circuit 112 based on the two-dimensional X-ray image data I41. For example, the map generation function 110h updates the subject map by registering the two-dimensional X-ray image data I41 in a three-dimensional space based on the imaging position and imaging angle.

また、上述した実施形態では、3次元データの生成及び擬似画像データの生成を、医用画像処理装置30又はX線診断装置10のいずれか一方の装置が行なうものとして説明した。しかしながら、実施形態はこれに限定されるものではない。即ち、3次元データの生成及び擬似画像データの生成は、複数の装置に分散されて実行されてもよい。 Further, in the embodiment described above, the generation of three-dimensional data and the generation of pseudo image data are described as being performed by either the medical image processing device 30 or the X-ray diagnostic device 10. However, embodiments are not limited thereto. That is, the generation of three-dimensional data and the generation of pseudo image data may be distributed and executed by a plurality of devices.

例えば、収集機能110aは、まず、被検体Pから2次元X線画像データI41を収集する。次に、付加機能110dは、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成する。次に、送信機能110cは、付加機能110dが生成した3次元データD41を医用画像処理装置30に送信する。次に、生成機能343は、3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成し、生成した擬似画像データI43をX線診断装置10に送信する。そして、表示制御機能110bは、受信した擬似画像データI43を、ディスプレイ108に表示させる。 For example, the collection function 110a first collects two-dimensional X-ray image data I41 from the subject P. Next, the additional function 110d generates three-dimensional data D41 to which depth information is added for each position in the two-dimensional X-ray image data I41. Next, the transmission function 110c transmits the three-dimensional data D41 generated by the additional function 110d to the medical image processing apparatus 30. Next, the generation function 343 generates pseudo image data I43 that pseudo-represents the rotated image data I42 by projecting the three-dimensional data D41, and sends the generated pseudo image data I43 to the X-ray diagnostic apparatus 10. do. Then, the display control function 110b causes the display 108 to display the received pseudo image data I43.

別の例を挙げると、送信機能110cは、被検体Pから収集された2次元X線画像データI41を、医用画像処理装置30に送信する。次に、付加機能342は、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成し、生成した3次元データD41をX線診断装置10に送信する。次に、生成機能110eは、受信した3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成する。そして、表示制御機能110bは、生成機能110eにより生成された擬似画像データI43を、ディスプレイ108に表示させる。 To give another example, the transmission function 110c transmits two-dimensional X-ray image data I41 collected from the subject P to the medical image processing apparatus 30. Next, the additional function 342 generates three-dimensional data D41 to which depth information is added for each position in the two-dimensional X-ray image data I41, and transmits the generated three-dimensional data D41 to the X-ray diagnostic apparatus 10. Next, the generation function 110e generates pseudo image data I43 that pseudo-represents the rotated image data I42 by projecting the received three-dimensional data D41. Then, the display control function 110b causes the display 108 to display the pseudo image data I43 generated by the generation function 110e.

別の例を挙げると、送信機能110cは、被検体Pから収集された2次元X線画像データI41を、医用画像処理装置30に送信する。次に、付加機能342は、2次元X線画像データI41における各位置について深度情報を推定し、推定結果と2次元X線画像データI41とをX線診断装置10に送信する。次に、付加機能110dは、医用画像処理装置30から受信した推定結果と2次元X線画像データI41とに基づいて、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成する。次に、生成機能110eは、受信した3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成する。そして、表示制御機能110bは、生成機能110eにより生成された擬似画像データI43を、ディスプレイ108に表示させる。 To give another example, the transmission function 110c transmits two-dimensional X-ray image data I41 collected from the subject P to the medical image processing apparatus 30. Next, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I41, and transmits the estimation result and the two-dimensional X-ray image data I41 to the X-ray diagnostic apparatus 10. Next, the additional function 110d generates three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data I41, based on the estimation result received from the medical image processing device 30 and the two-dimensional X-ray image data I41. Generate D41. Next, the generation function 110e generates pseudo image data I43 that pseudo-represents the rotated image data I42 by projecting the received three-dimensional data D41. Then, the display control function 110b causes the display 108 to display the pseudo image data I43 generated by the generation function 110e.

また、上述した実施形態では、3次元データの生成処理において、3次元画像データに基づいて深度情報を推定する場合、画素値に基づいて深度情報を推定する場合、学習済みモデルM1を用いて深度情報を推定する場合、及び、被検体マップを用いて深度情報を推定する場合について説明した。しかしながら実施形態はこれに限定されるものではない。
例えば、付加機能342又は付加機能110dは、2次元X線画像データI41における各位置について複数の手法により深度情報を推定し、推定した複数の深度情報を合成し、合成した深度情報を2次元X線画像データI41の各位置に付加することで、3次元データD41を生成してもよい。
Furthermore, in the embodiment described above, in the three-dimensional data generation process, when estimating depth information based on three-dimensional image data, when estimating depth information based on pixel values, the trained model M1 is used to estimate depth information. The case of estimating information and the case of estimating depth information using a subject map have been described. However, embodiments are not limited thereto.
For example, the additional function 342 or the additional function 110d estimates depth information using a plurality of methods for each position in the two-dimensional X-ray image data I41, synthesizes the plurality of estimated depth information, and combines the two-dimensional Three-dimensional data D41 may be generated by adding it to each position of line image data I41.

一例を挙げると、収集機能110aは、被検体Pから2次元X線画像データI41を収集し、送信機能110cは、収集された2次元X線画像データI41を医用画像処理装置30に送信する。次に、付加機能342は、2次元X線画像データI41における各位置について複数の手法により深度情報を推定する。例えば、付加機能342は、2次元X線画像データI41と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI41における各位置について深度情報を推定する。以下、3次元画像データに基づく深度情報を、深度情報B1とする。また、例えば、付加機能342は、2次元X線画像データI41における各位置について、画素値に基づいて深度情報を推定する。以下、画素値に基づく深度情報を、深度情報B2とする。また、例えば、付加機能342は、モデル記憶回路35から学習済みモデルM1を読み出し、2次元X線画像データI41を学習済みモデルM1に入力することで2次元X線画像データI41における各位置について深度情報を推定させる。以下、学習済みモデルM1に基づく深度情報を、深度情報B3とする。また、例えば、付加機能342は、マップ記憶回路36から被検体マップを読み出し、被検体マップに基づいて2次元X線画像データI41における各位置について深度情報を推定する。以下、学習済みモデルM1に基づく深度情報を、深度情報B4とする。次に、付加機能342は、複数の深度情報を合成する。例えば、付加機能342は、上述した深度情報B1、深度情報B2、深度情報B3及び深度情報B4のうち少なくとも2つを合成する。 For example, the collection function 110a collects two-dimensional X-ray image data I41 from the subject P, and the transmission function 110c transmits the collected two-dimensional X-ray image data I41 to the medical image processing apparatus 30. Next, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I41 using a plurality of methods. For example, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I41 based on three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I41. Hereinafter, depth information based on three-dimensional image data will be referred to as depth information B1. Further, for example, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I41 based on pixel values. Hereinafter, depth information based on pixel values will be referred to as depth information B2. Further, for example, the additional function 342 reads out the learned model M1 from the model storage circuit 35 and inputs the two-dimensional X-ray image data I41 into the learned model M1, thereby obtaining depth information for each position in the two-dimensional X-ray image data I41. Let information be estimated. Hereinafter, depth information based on the learned model M1 will be referred to as depth information B3. Further, for example, the additional function 342 reads the subject map from the map storage circuit 36 and estimates depth information for each position in the two-dimensional X-ray image data I41 based on the subject map. Hereinafter, depth information based on the learned model M1 will be referred to as depth information B4. Next, the additional function 342 combines the plurality of depth information. For example, the additional function 342 combines at least two of the above-mentioned depth information B1, depth information B2, depth information B3, and depth information B4.

一例を挙げると、付加機能342は、深度情報B1及び深度情報B2をそれぞれ推定する。ここで、深度情報がZ座標で表される場合、付加機能342は、深度情報B1及び深度情報B2の平均値(2つのZ座標の中点)を算出する。そして、付加機能342は、算出した平均値を2次元X線画像データI41の各位置に付加することで、3次元データD41を生成する。 For example, the additional function 342 estimates depth information B1 and depth information B2, respectively. Here, when the depth information is represented by the Z coordinate, the additional function 342 calculates the average value (the midpoint of the two Z coordinates) of the depth information B1 and the depth information B2. Then, the additional function 342 generates three-dimensional data D41 by adding the calculated average value to each position of the two-dimensional X-ray image data I41.

第1~第4の実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the first to fourth embodiments is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured. Furthermore, all or any part of each processing function performed by each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware using wired logic.

また、第1~第4の実施形態で説明した医用画像処理方法は、予め用意された医用画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この医用画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この医用画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the medical image processing methods described in the first to fourth embodiments can be realized by executing a medical image processing program prepared in advance on a computer such as a personal computer or a workstation. This medical image processing program can be distributed via a network such as the Internet. Further, this medical image processing program is recorded on a computer-readable non-transitory recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, DVD, etc., and is readable from the recording medium by the computer. It can also be executed by

以上説明した少なくとも一つの実施形態によれば、被ばく量を低減しつつ、撮影条件の設定を容易にすることができる。 According to at least one embodiment described above, it is possible to easily set imaging conditions while reducing the amount of radiation exposure.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1 医用情報処理システム
10 X線診断装置
110 処理回路
110a 収集機能
110b 表示制御機能
110c 送信機能
110d 付加機能
110e 生成機能
110f 制御機能
110g モデル生成機能
110h マップ生成機能
111 モデル記憶回路
112 マップ記憶回路
30 医用画像処理装置
34 処理回路
341 取得機能
342 付加機能
343 生成機能
344 表示制御機能
345 制御機能
346 モデル生成機能
347 マップ生成機能
35 モデル記憶回路
36 マップ記憶回路
1 Medical information processing system 10 X-ray diagnostic device 110 Processing circuit 110a Acquisition function 110b Display control function 110c Transmission function 110d Additional function 110e Generation function 110f Control function 110g Model generation function 110h Map generation function 111 Model storage circuit 112 Map storage circuit 30 Medical Image processing device 34 Processing circuit 341 Acquisition function 342 Additional function 343 Generation function 344 Display control function 345 Control function 346 Model generation function 347 Map generation function 35 Model storage circuit 36 Map storage circuit

Claims (19)

2次元X線画像データを取得する取得部と、
前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する付加部と、
前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する生成部と
を備える、医用画像処理装置。
an acquisition unit that acquires two-dimensional X-ray image data;
an addition unit that generates three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data;
a generation unit that generates pseudo image data that pseudo-represents X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data by projecting the three-dimensional data; Device.
前記付加部は、前記2次元X線画像データと同じ被検体について収集された3次元画像データに基づいて、前記2次元X線画像データにおける各位置について深度情報を推定し、推定した深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項1に記載の医用画像処理装置。 The adding unit estimates depth information for each position in the two-dimensional X-ray image data based on three-dimensional image data collected for the same subject as the two-dimensional X-ray image data, and stores the estimated depth information. The medical image processing apparatus according to claim 1, wherein the three-dimensional data is generated by adding the three-dimensional data to each position of the two-dimensional X-ray image data. 前記付加部は、前記2次元X線画像データと前記3次元画像データとを位置合わせすることで、前記2次元X線画像データにおける各位置について深度情報を推定する、請求項2に記載の医用画像処理装置。 The medical device according to claim 2, wherein the adding unit estimates depth information for each position in the two-dimensional X-ray image data by aligning the two-dimensional X-ray image data and the three-dimensional image data. Image processing device. 深度情報を推定するように機能付けられた学習済みモデルを記憶するモデル記憶部を更に備え、
前記付加部は、前記2次元X線画像データを前記学習済みモデルに入力することで前記2次元X線画像データにおける各位置について深度情報を推定させ、推定させた深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項1~3のいずれか一項に記載の医用画像処理装置。
further comprising a model storage unit storing a trained model functionalized to estimate depth information,
The addition unit estimates depth information for each position in the two-dimensional X-ray image data by inputting the two-dimensional X-ray image data into the learned model, and applies the estimated depth information to the two-dimensional X-ray image data. The medical image processing apparatus according to claim 1, wherein the three-dimensional data is generated by adding the three-dimensional data to each position of image data.
前記学習済みモデルを生成するモデル生成部を更に備える、請求項4に記載の医用画像処理装置。 The medical image processing apparatus according to claim 4, further comprising a model generation unit that generates the learned model. 前記モデル生成部は、2次元で収集されたX線画像データである第1画像データと、当該第1画像データにおける各位置について深度情報を付加した第2画像データとを用いて、前記学習済みモデルを生成する、請求項5に記載の医用画像処理装置。 The model generation unit uses first image data, which is X-ray image data collected two-dimensionally, and second image data to which depth information is added for each position in the first image data. The medical image processing device according to claim 5, which generates a model. 前記付加部は、前記第1画像データの各位置に深度情報を付加する操作を受け付けることで、前記第2画像データを生成する、請求項6に記載の医用画像処理装置。 The medical image processing apparatus according to claim 6, wherein the addition unit generates the second image data by receiving an operation for adding depth information to each position of the first image data. 前記付加部は、前記第1画像データと同じ被検体について収集された3次元画像データに基づいて、前記第1画像データにおける各位置について深度情報を推定し、推定した深度情報を前記第1画像データの各位置に付加することで、前記第2画像データを生成する、請求項6に記載の医用画像処理装置。 The adding unit estimates depth information for each position in the first image data based on three-dimensional image data collected for the same subject as the first image data, and applies the estimated depth information to the first image. The medical image processing apparatus according to claim 6, wherein the second image data is generated by adding data to each position. 前記モデル生成部は、前記2次元X線画像データを前記第1画像データとして用いて、前記学習済みモデルを生成する、請求項6~8のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to claim 6, wherein the model generation unit generates the learned model using the two-dimensional X-ray image data as the first image data. 前記付加部は、前記異なる撮影角度で収集されたX線画像データに基づいて前記3次元データを補正し、
前記モデル生成部は、前記2次元X線画像データを前記第1画像データとし、補正後の前記3次元データを前記第2画像データとして用いて、前記学習済みモデルを生成する、請求項6に記載の医用画像処理装置。
The addition unit corrects the three-dimensional data based on the X-ray image data collected at the different imaging angles,
7. The model generation unit generates the learned model using the two-dimensional X-ray image data as the first image data and the corrected three-dimensional data as the second image data. The medical image processing device described.
前記付加部は、前記2次元X線画像データにおける各位置について、画素値に基づいて深度情報を推定し、推定した深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項1~10のいずれか一項に記載の医用画像処理装置。 The addition unit estimates depth information for each position in the two-dimensional X-ray image data based on pixel values, and adds the estimated depth information to each position in the two-dimensional X-ray image data. The medical image processing device according to any one of claims 1 to 10, which generates dimensional data. 前記生成部は、前記3次元データにおいて実空間におけるアイソセンターに対応する点を特定し、当該対応する点まわりに前記3次元データを回転させ、回転後の前記3次元データを投影することにより、前記擬似画像データを生成する、請求項1~11のいずれか一項に記載の医用画像処理装置。 The generation unit identifies a point corresponding to an isocenter in real space in the three-dimensional data, rotates the three-dimensional data around the corresponding point, and projects the rotated three-dimensional data, The medical image processing apparatus according to any one of claims 1 to 11, which generates the pseudo image data. 前記2次元X線画像データと同じ被検体について収集されたX線画像データを当該X線画像データの撮影位置及び撮影角度に応じて3次元空間上に登録した被検体マップを記憶するマップ記憶部と、
前記2次元X線画像データを、当該2次元X線画像データの撮影位置及び撮影角度に応じて前記3次元空間上に登録することで、前記被検体マップを更新するマップ生成部とを更に備える、請求項1~12のいずれか一項に記載の医用画像処理装置。
a map storage unit that stores a subject map in which X-ray image data collected for the same subject as the two-dimensional X-ray image data is registered in a three-dimensional space according to the imaging position and imaging angle of the X-ray image data; and,
The method further includes a map generation unit that updates the subject map by registering the two-dimensional X-ray image data in the three-dimensional space according to the photographing position and photographing angle of the two-dimensional X-ray image data. , a medical image processing device according to any one of claims 1 to 12.
前記マップ生成部は、撮影位置が同じであり且つ撮影角度が異なる複数の2次元のX線画像データに基づいて3次元のX線画像データを生成し、生成した3次元のX線画像データを前記3次元空間上に登録することで、前記被検体マップを更新する、請求項13に記載の医用画像処理装置。 The map generation unit generates three-dimensional X-ray image data based on a plurality of two-dimensional X-ray image data having the same imaging position and different imaging angles, and generates the generated three-dimensional X-ray image data. The medical image processing apparatus according to claim 13, wherein the subject map is updated by registering on the three-dimensional space. 前記マップ生成部は、複数のX線画像データが重なる部分が滑らかに繋がるように、前記被検体マップを更新する、請求項13又は14に記載の医用画像処理装置。 The medical image processing apparatus according to claim 13 or 14, wherein the map generation unit updates the subject map so that overlapping portions of a plurality of X-ray image data are smoothly connected. 前記付加部は、前記被検体マップに基づいて、前記2次元X線画像データにおける各位置について深度情報を推定し、推定した深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項13~15のいずれか一項に記載の医用画像処理装置。 The addition unit estimates depth information for each position in the two-dimensional X-ray image data based on the object map, and adds the estimated depth information to each position in the two-dimensional X-ray image data. The medical image processing device according to any one of claims 13 to 15, which generates the three-dimensional data. 前記付加部は、前記被検体マップに基づいて前記3次元データを拡張し、
前記生成部は、拡張後の前記3次元データを投影することにより、前記擬似画像データを生成する、請求項13~16のいずれか一項に記載の医用画像処理装置。
The addition unit expands the three-dimensional data based on the subject map,
The medical image processing apparatus according to any one of claims 13 to 16, wherein the generation unit generates the pseudo image data by projecting the expanded three-dimensional data.
2次元X線画像データを収集する収集部と、
前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する付加部と、
前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する生成部と
を備える、X線診断装置。
a collection unit that collects two-dimensional X-ray image data;
an addition unit that generates three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data;
an X-ray diagnosis comprising: a generation unit that generates pseudo image data that pseudo-represents X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data by projecting the three-dimensional data; Device.
2次元X線画像データを収集する収集部と、
前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する付加部と、
前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する生成部と
を備える、医用情報処理システム。
a collection unit that collects two-dimensional X-ray image data;
an addition unit that generates three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data;
a generation unit that generates pseudo image data that pseudo-represents X-ray image data collected at a different imaging angle from the two-dimensional X-ray image data by projecting the three-dimensional data; system.
JP2019021252A 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems Active JP7341667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021252A JP7341667B2 (en) 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021252A JP7341667B2 (en) 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems

Publications (2)

Publication Number Publication Date
JP2020127600A JP2020127600A (en) 2020-08-27
JP7341667B2 true JP7341667B2 (en) 2023-09-11

Family

ID=72174869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021252A Active JP7341667B2 (en) 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems

Country Status (1)

Country Link
JP (1) JP7341667B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098316A1 (en) 2008-10-13 2010-04-22 George Yiorgos Papaioannou Dynamic biplane roentgen stereophotogrammetric analysis
JP2019500146A (en) 2015-12-30 2019-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3D body model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098316A1 (en) 2008-10-13 2010-04-22 George Yiorgos Papaioannou Dynamic biplane roentgen stereophotogrammetric analysis
JP2019500146A (en) 2015-12-30 2019-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3D body model

Also Published As

Publication number Publication date
JP2020127600A (en) 2020-08-27

Similar Documents

Publication Publication Date Title
CN111938678B (en) Imaging system and method
EP3161785B1 (en) System and method for image composition
EP2193479B1 (en) Radiation systems and methods using deformable image registration
US9833210B2 (en) Medical image diagnostic apparatus
CN111803110B (en) X-ray fluoroscopic apparatus
US10245001B2 (en) Generation of a three-dimensional reconstruction of a body part by an X-ray machine
JP2019202087A (en) Medical information processing system, medical information processing device, radiation diagnostic device, ultrasonic diagnostic device, learning data production method, and program
JP7242284B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP2019017656A (en) Medical image diagnostic apparatus, medical information processing apparatus, and medical information processing program
JP2017189526A (en) Information processing device and radiotherapy system
US10786220B2 (en) Device for imaging an object
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
JP2017202031A (en) Medical information processing device
JP6824641B2 (en) X-ray CT device
CN114052758A (en) Method for recording X-ray images, medical X-ray system and medium
CN110267594B (en) Isocenter in C-arm computed tomography
JP6167841B2 (en) Medical image processing apparatus and program
KR20220035428A (en) A medical image processing apparatus, a storage medium, a medical apparatus, and a treatment system
JP2020062324A (en) Medical image processing device, x-ray diagnostic device and medical image processing program
JP7334034B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
WO2023176264A1 (en) Medical image processing device, treatment system, medical image processing method, and program
CN111789606B (en) Imaging system and method
JP2021185969A (en) Medical information processing device, x-ray diagnostic device, and program
JP7292871B2 (en) Medical information processing device and X-ray diagnostic device
WO2024117129A1 (en) Medical image processing device, treatment system, medical image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7341667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150