JP2020127600A - Medical image processing device, x-ray diagnostic device, and medical information processing system - Google Patents

Medical image processing device, x-ray diagnostic device, and medical information processing system Download PDF

Info

Publication number
JP2020127600A
JP2020127600A JP2019021252A JP2019021252A JP2020127600A JP 2020127600 A JP2020127600 A JP 2020127600A JP 2019021252 A JP2019021252 A JP 2019021252A JP 2019021252 A JP2019021252 A JP 2019021252A JP 2020127600 A JP2020127600 A JP 2020127600A
Authority
JP
Japan
Prior art keywords
image data
dimensional
ray image
ray
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019021252A
Other languages
Japanese (ja)
Other versions
JP7341667B2 (en
Inventor
翔 佐々木
Sho Sasaki
翔 佐々木
亮一 長江
Ryoichi Nagae
亮一 長江
智生 藤戸
Tomoki Fujito
智生 藤戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019021252A priority Critical patent/JP7341667B2/en
Publication of JP2020127600A publication Critical patent/JP2020127600A/en
Application granted granted Critical
Publication of JP7341667B2 publication Critical patent/JP7341667B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To facilitate setting of an imaging condition while reducing exposure quantity.SOLUTION: A medical image processing device includes an acquisition part, an adding part, and a generation part. The acquisition part acquires two-dimensional X-ray image data. The adding part generates three-dimensional data in which depth information is added for each position in the two-dimensional X-ray image data. The generation part generates pseudo image data in which X-ray image data collected at an imaging angle different from the imaging angle of the two-dimensional X-ray image data is indicated in a pseudo manner by projecting the three-dimensional data.SELECTED DRAWING: Figure 6

Description

本発明の実施形態は、医用画像処理装置、X線診断装置及び医用情報処理システムに関する。 Embodiments of the present invention relate to a medical image processing apparatus, an X-ray diagnostic apparatus, and a medical information processing system.

従来、X線診断装置を用いた検査において、撮影条件を設定するためにX線透視が用いられている。具体的には、X線診断装置は、操作者による操作の下、撮影位置や撮影角度等の撮影条件を変更しながら透視像を表示する。そして、操作者は、透視像を参照することで、検査対象部位を観察しやすい撮影条件を選択することができる。しかしながら、X線透視により撮影条件を設定する場合、撮影条件の設定段階において透視像を収集するための被ばくを生じることとなる。 Conventionally, in an examination using an X-ray diagnostic apparatus, X-ray fluoroscopy is used to set imaging conditions. Specifically, the X-ray diagnostic apparatus displays a fluoroscopic image while changing imaging conditions such as an imaging position and an imaging angle under the operation of an operator. Then, the operator can select an imaging condition that makes it easy to observe the inspection target region by referring to the perspective image. However, when the imaging condition is set by X-ray fluoroscopy, exposure for collecting a fluoroscopic image is generated in the setting stage of the imaging condition.

撮影条件の設定段階における被ばく量を低減するため、LIH(Last Image Hold)が用いた手法が知られている。具体的には、X線診断装置は、LIHをディスプレイに表示するとともに、LIH上に撮影位置を示すROI(Region Of Interest)を表示させる。そして、操作者は、検査対象部位を観察しやすいようにLIH上のROIを調整することで、撮影位置を設定することができる。しかしながら、LIHにより撮影条件を設定する場合、LIHに含まれない位置の画像やLIHと異なる角度の画像は表示されないため、撮影条件を設定しにくい場合があった。 A method used by LIH (Last Image Hold) is known in order to reduce the exposure dose in the stage of setting the imaging conditions. Specifically, the X-ray diagnostic apparatus displays the LIH on the display and also displays the ROI (Region Of Interest) indicating the imaging position on the LIH. Then, the operator can set the imaging position by adjusting the ROI on the LIH so that the inspection target region can be easily observed. However, when the shooting condition is set by the LIH, an image at a position not included in the LIH or an image at an angle different from the LIH is not displayed, and thus it may be difficult to set the shooting condition.

特表2012−529319号公報Special table 2012-523319 gazette

本発明が解決しようとする課題は、被ばく量を低減しつつ、撮影条件の設定を容易にすることである。 The problem to be solved by the present invention is to facilitate setting of imaging conditions while reducing the exposure dose.

実施形態の医用画像処理装置は、取得部と、付加部と、生成部とを備える。取得部は、2次元X線画像データを取得する。付加部は、前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する。生成部は、前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する。 The medical image processing apparatus according to the embodiment includes an acquisition unit, an addition unit, and a generation unit. The acquisition unit acquires two-dimensional X-ray image data. The adding unit generates three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data. The generation unit generates pseudo image data that pseudo-shows the X-ray image data acquired at an imaging angle different from that of the two-dimensional X-ray image data, by projecting the three-dimensional data.

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of the medical information processing system according to the first embodiment. 図2は、第1の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus according to the first embodiment. 図3は、第1の実施形態に係る2次元X線画像データを示す図である。FIG. 3 is a diagram showing two-dimensional X-ray image data according to the first embodiment. 図4は、第1の実施形態に係る撮影条件の設定の一例を示す図である。FIG. 4 is a diagram showing an example of setting of shooting conditions according to the first embodiment. 図5Aは、第1の実施形態に係るアイソセンターを通る軸を示す図である。FIG. 5A is a diagram showing an axis passing through the isocenter according to the first embodiment. 図5Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 5B is a diagram illustrating an example of a pseudo image data generation process according to the first embodiment. 図6は、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of a pseudo image data generation process according to the first embodiment. 図7Aは、第1の実施形態に係るアイソセンターを通る軸を示す図である。FIG. 7A is a diagram showing an axis passing through the isocenter according to the first embodiment. 図7Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 7B is a diagram illustrating an example of a pseudo image data generation process according to the first embodiment. 図8は、第1の実施形態に係る2次元X線画像データを示す図である。FIG. 8 is a diagram showing the two-dimensional X-ray image data according to the first embodiment. 図9は、第1の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 9 is a flowchart for explaining a series of processing flows of the medical image processing apparatus according to the first embodiment. 図10は、第2の実施形態に係る医用画像処理装置の構成の一例を示すブロック図である。FIG. 10 is a block diagram showing an example of the configuration of the medical image processing apparatus according to the second embodiment. 図11は、第2の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 11 is a diagram for explaining a learning model generation process according to the second embodiment. 図12は、第2の実施形態に係る学習済みモデルを用いた処理について説明するための図である。FIG. 12 is a diagram for explaining the process using the learned model according to the second embodiment. 図13は、第2の実施形態に係る学習済みモデルの生成処理について説明するための図である。FIG. 13 is a diagram for explaining a learning model generation process according to the second embodiment. 図14は、第2の実施形態に係る医用画像処理装置の処理の一連の流れを説明するためのフローチャートである。FIG. 14 is a flowchart for explaining a series of processing flows of the medical image processing apparatus according to the second embodiment. 図15は、第3の実施形態に係る医用画像処理装置の構成の一例を示すブロック図である。FIG. 15 is a block diagram showing an example of the configuration of the medical image processing apparatus according to the third embodiment. 図16は、第3の実施形態に係る被検体マップの一例を示す図である。FIG. 16 is a diagram showing an example of the subject map according to the third embodiment. 図17は、第3の実施形態に係る撮影条件の設定の一例を示す図である。FIG. 17 is a diagram illustrating an example of shooting condition setting according to the third embodiment. 図18は、第3の実施形態に係る擬似画像データの生成処理の一例を示す図である。FIG. 18 is a diagram illustrating an example of pseudo image data generation processing according to the third embodiment. 図19は、第4の実施形態に係るX線診断装置の構成の一例を示すブロック図である。FIG. 19 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus according to the fourth embodiment.

以下、図面を参照して、実施形態に係る医用画像処理装置、X線診断装置及び医用情報処理システムを説明する。 Hereinafter, a medical image processing apparatus, an X-ray diagnostic apparatus, and a medical information processing system according to embodiments will be described with reference to the drawings.

(第1の実施形態)
まず、第1の実施形態について説明する。第1の実施形態では、X線診断装置10、画像保管装置20及び医用画像処理装置30を含んだ医用情報処理システム1について説明する。
(First embodiment)
First, the first embodiment will be described. In the first embodiment, a medical information processing system 1 including an X-ray diagnostic apparatus 10, an image storage apparatus 20, and a medical image processing apparatus 30 will be described.

図1は、第1の実施形態に係る医用情報処理システム1の構成の一例を示すブロック図である。図1に示すように、第1の実施形態に係る医用情報処理システム1は、X線診断装置10と、画像保管装置20と、医用画像処理装置30とを備える。図1に示すように、X線診断装置10、画像保管装置20及び医用画像処理装置30は、ネットワークNWを介して相互に接続される。 FIG. 1 is a block diagram showing an example of the configuration of a medical information processing system 1 according to the first embodiment. As shown in FIG. 1, the medical information processing system 1 according to the first embodiment includes an X-ray diagnostic apparatus 10, an image storage apparatus 20, and a medical image processing apparatus 30. As shown in FIG. 1, the X-ray diagnostic apparatus 10, the image storage apparatus 20, and the medical image processing apparatus 30 are connected to each other via a network NW.

なお、第1の実施形態では、医用画像処理装置30においてX線診断装置10の撮影条件の設定を行なう場合について説明する。即ち、医用画像処理装置30は設定した撮影条件をX線診断装置10に対して送信し、X線診断装置10は、医用画像処理装置30から受け付けた撮影条件に基づいてX線画像データの収集を実行する。 In the first embodiment, a case where the medical image processing apparatus 30 sets the imaging conditions of the X-ray diagnostic apparatus 10 will be described. That is, the medical image processing apparatus 30 transmits the set imaging conditions to the X-ray diagnostic apparatus 10, and the X-ray diagnostic apparatus 10 collects X-ray image data based on the imaging conditions received from the medical image processing apparatus 30. To execute.

X線診断装置10は、被検体からX線画像データを収集する装置である。例えば、X線診断装置10は、撮影条件の設定段階において被検体から2次元X線画像データを収集し、収集したX線画像データを医用画像処理装置30に対して送信する。また、例えば、X線診断装置10は、被検体から3次元X線画像データを収集し、収集した3次元X線画像データを画像保管装置20に対して送信する。また、例えば、X線診断装置10は、医用画像処理装置30から受け付けた撮影条件に基づいて、2次元X線画像データの収集を実行する。なお、X線診断装置10の構成については後述する。 The X-ray diagnostic apparatus 10 is an apparatus that collects X-ray image data from a subject. For example, the X-ray diagnostic apparatus 10 collects two-dimensional X-ray image data from the subject at the stage of setting the imaging conditions, and transmits the collected X-ray image data to the medical image processing apparatus 30. Further, for example, the X-ray diagnostic apparatus 10 collects three-dimensional X-ray image data from the subject and transmits the collected three-dimensional X-ray image data to the image storage device 20. Further, for example, the X-ray diagnostic apparatus 10 executes collection of two-dimensional X-ray image data based on the imaging conditions received from the medical image processing apparatus 30. The configuration of the X-ray diagnostic apparatus 10 will be described later.

画像保管装置20は、医用情報処理システム1に含まれる装置により収集された各種の医用画像データを保管する装置である。例えば、画像保管装置20は、X線診断装置10等の医用画像診断装置により収集された被検体の3次元画像データを受け付けて、装置内又は装置外に設けられたメモリに記憶させる。なお、被検体の3次元画像データについては後述する。例えば、画像保管装置20は、サーバ装置等のコンピュータ機器によって実現される。 The image storage device 20 is a device for storing various types of medical image data collected by the devices included in the medical information processing system 1. For example, the image storage device 20 receives the three-dimensional image data of the subject collected by the medical image diagnostic device such as the X-ray diagnostic device 10 and stores it in a memory provided inside or outside the device. The three-dimensional image data of the subject will be described later. For example, the image storage device 20 is realized by a computer device such as a server device.

医用画像処理装置30は、撮影条件の設定段階において、X線診断装置10から被検体の2次元X線画像データを取得し、取得した2次元X線画像データに基づいて撮影条件の設定を行なう。例えば、医用画像処理装置30は、2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する。また、医用画像処理装置30は、生成した3次元データを投影することにより、2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する。また、医用画像処理装置30は、生成した擬似画像データを表示し、擬似画像データを参照した操作者からの入力操作を受け付けることで撮影条件を設定する。なお、医用画像処理装置30が行なう処理については後述する。例えば、医用画像処理装置30は、ワークステーション等のコンピュータ機器によって実現される。 The medical image processing apparatus 30 acquires the two-dimensional X-ray image data of the subject from the X-ray diagnostic apparatus 10 and sets the imaging condition based on the acquired two-dimensional X-ray image data at the stage of setting the imaging conditions. .. For example, the medical image processing apparatus 30 generates three-dimensional data with depth information added for each position in the two-dimensional X-ray image data. Further, the medical image processing apparatus 30 projects pseudo three-dimensional data that has been generated to generate pseudo image data that pseudo-shows X-ray image data that is acquired at an imaging angle different from that of the two-dimensional X-ray image data. .. Further, the medical image processing apparatus 30 displays the generated pseudo image data and receives the input operation from the operator who refers to the pseudo image data to set the shooting condition. The processing performed by the medical image processing apparatus 30 will be described later. For example, the medical image processing apparatus 30 is realized by computer equipment such as a workstation.

なお、ネットワークNWを介して接続可能であれば、X線診断装置10、画像保管装置20及び医用画像処理装置30が設置される場所は任意である。例えば、医用画像処理装置30は、X線診断装置10と異なる病院に設置されてもよい。即ち、ネットワークNWは、院内で閉じたローカルネットワークにより構成されてもよいし、インターネットを介したネットワークでもよい。また、図1においてはX線診断装置10を1つ示すが、医用情報処理システム1は複数のX線診断装置10を含んでもよい。 It should be noted that if the X-ray diagnostic apparatus 10, the image storage apparatus 20, and the medical image processing apparatus 30 are installed as long as they can be connected via the network NW, any place can be installed. For example, the medical image processing apparatus 30 may be installed in a hospital different from the X-ray diagnostic apparatus 10. That is, the network NW may be a local network closed in the hospital or a network via the Internet. Further, although one X-ray diagnostic apparatus 10 is shown in FIG. 1, the medical information processing system 1 may include a plurality of X-ray diagnostic apparatuses 10.

図1に示すように、医用画像処理装置30は、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34とを有する。 As shown in FIG. 1, the medical image processing apparatus 30 includes an input interface 31, a display 32, a storage circuit 33, and a processing circuit 34.

入力インターフェース31は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース31は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース31は、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース31は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、医用画像処理装置30とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路34へ出力する電気信号の処理回路も入力インターフェース31の例に含まれる。 The input interface 31 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the electric signals to the processing circuit 34. For example, the input interface 31 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the non-contact input circuit and the voice input circuit used. The input interface 31 may be composed of a tablet terminal or the like that can wirelessly communicate with the main body of the medical image processing apparatus 30. Further, the input interface 31 is not limited to the one including physical operation parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the medical image processing apparatus 30 and outputs the electric signal to the processing circuit 34 is also included in the input interface 31. Included in the example.

ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、入力インターフェース31を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical User Interface)を表示する。また、ディスプレイ32は、被検体について収集された各種の画像データを表示する。例えば、ディスプレイ32は、X線診断装置10によって収集された被検体の2次元X線画像データや、処理回路34によって生成された擬似画像データを表示する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。ディスプレイ32は、デスクトップ型でもよいし、医用画像処理装置30本体と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 32 displays various information. For example, the display 32 displays a GUI (Graphical User Interface) for receiving various instructions and various settings from the operator via the input interface 31. The display 32 also displays various image data collected about the subject. For example, the display 32 displays the two-dimensional X-ray image data of the subject collected by the X-ray diagnostic apparatus 10 and the pseudo image data generated by the processing circuit 34. For example, the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display. The display 32 may be a desktop type or a tablet terminal or the like that can wirelessly communicate with the main body of the medical image processing apparatus 30.

記憶回路33は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、記憶回路33は、X線診断装置10から取得した被検体の2次元X線画像データや、画像保管装置20から取得した被検体の3次元画像データを記憶する。また、例えば、記憶回路33は、医用画像処理装置30に含まれる回路がその機能を実現するためのプログラムを記憶する。なお、記憶回路33は、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The storage circuit 33 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. For example, the storage circuit 33 stores the two-dimensional X-ray image data of the subject acquired from the X-ray diagnostic apparatus 10 and the three-dimensional image data of the subject acquired from the image storage device 20. Further, for example, the storage circuit 33 stores a program for a circuit included in the medical image processing apparatus 30 to realize its function. The storage circuit 33 may be realized by a server group (cloud) connected to the medical image processing apparatus 30 via the network NW.

処理回路34は、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345を実行することで、医用画像処理装置30全体の動作を制御する。ここで、取得機能341は、取得部の一例である。また、付加機能342は、付加部の一例である。また、生成機能343は、生成部の一例である。 The processing circuit 34 controls the overall operation of the medical image processing apparatus 30 by executing the acquisition function 341, the additional function 342, the generation function 343, the display control function 344, and the control function 345. Here, the acquisition function 341 is an example of an acquisition unit. The additional function 342 is an example of an addition unit. The generation function 343 is an example of a generation unit.

例えば、処理回路34は、取得機能341に対応するプログラムを記憶回路33から読み出して実行することにより、X線診断装置10から2次元X線画像データを取得する。また、例えば、処理回路34は、付加機能342に対応するプログラムを記憶回路33から読み出して実行することにより、2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する。また、例えば、処理回路34は、生成機能343に対応するプログラムを記憶回路33から読み出して実行することにより、擬似画像データを生成する。また、例えば、処理回路34は、表示制御機能344に対応するプログラムを記憶回路33から読み出して実行することにより、擬似画像データをディスプレイ32に表示させる。また、例えば、処理回路34は、制御機能345に対応するプログラムを記憶回路33から読み出して実行することにより、操作者から受け付けた入力操作に応じて撮影位置や撮影角度等の撮影条件を設定し、設定した撮影条件をX線診断装置10に対して送信する。なお、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345による処理については後述する。 For example, the processing circuit 34 acquires the two-dimensional X-ray image data from the X-ray diagnostic apparatus 10 by reading the program corresponding to the acquisition function 341 from the storage circuit 33 and executing the program. Further, for example, the processing circuit 34 reads the program corresponding to the additional function 342 from the storage circuit 33 and executes the program to generate three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data. In addition, for example, the processing circuit 34 generates pseudo image data by reading a program corresponding to the generation function 343 from the storage circuit 33 and executing the program. Further, for example, the processing circuit 34 causes the display 32 to display the pseudo image data by reading the program corresponding to the display control function 344 from the storage circuit 33 and executing the program. In addition, for example, the processing circuit 34 reads a program corresponding to the control function 345 from the storage circuit 33 and executes the program to set shooting conditions such as a shooting position and a shooting angle according to an input operation received from an operator. , The set imaging conditions are transmitted to the X-ray diagnostic apparatus 10. The processing by the acquisition function 341, the additional function 342, the generation function 343, the display control function 344, and the control function 345 will be described later.

図1に示す医用画像処理装置30においては、各処理機能がコンピュータによって実行可能なプログラムの形態で記憶回路33へ記憶されている。処理回路34は、記憶回路33からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路34は、読み出したプログラムに対応する機能を有することとなる。 In the medical image processing apparatus 30 shown in FIG. 1, each processing function is stored in the storage circuit 33 in the form of a program executable by a computer. The processing circuit 34 is a processor that realizes a function corresponding to each program by reading the program from the storage circuit 33 and executing the program. In other words, the processing circuit 34 in the state where each program is read has a function corresponding to the read program.

なお、図1においては単一の処理回路34にて、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345が実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路34が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In FIG. 1, the single processing circuit 34 has been described as realizing the acquisition function 341, the additional function 342, the generation function 343, the display control function 344, and the control function 345, but a plurality of independent processors may be used. The processing circuit 34 may be configured in combination and each processor may execute the program to realize the function. Further, each processing function of the processing circuit 34 may be implemented by being appropriately dispersed or integrated in a single or a plurality of processing circuits.

次に、図2を用いて、X線診断装置10について説明する。図2は、第1の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。図2に示すように、X線診断装置10は、X線高電圧装置101と、X線管102と、X線絞り器103と、天板104と、Cアーム105と、X線検出器106と、記憶回路107と、ディスプレイ108と、入力インターフェース109と、処理回路110とを備える。 Next, the X-ray diagnostic apparatus 10 will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 10 according to the first embodiment. As shown in FIG. 2, the X-ray diagnostic apparatus 10 includes an X-ray high voltage apparatus 101, an X-ray tube 102, an X-ray diaphragm 103, a top plate 104, a C arm 105, and an X-ray detector 106. A memory circuit 107, a display 108, an input interface 109, and a processing circuit 110.

X線高電圧装置101は、処理回路110による制御の下、X線管102に高電圧を供給する。例えば、X線高電圧装置101は、変圧器(トランス)及び整流器等の電気回路を有し、X線管102に印加する高電圧を発生する高電圧発生装置と、X線管102が照射するX線に応じた出力電圧の制御を行うX線制御装置とを有する。なお、高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であってもよい。 The X-ray high voltage device 101 supplies a high voltage to the X-ray tube 102 under the control of the processing circuit 110. For example, the X-ray high-voltage device 101 has an electric circuit such as a transformer and a rectifier, and the X-ray tube 102 irradiates the high-voltage generator that generates a high voltage to be applied to the X-ray tube 102. And an X-ray control device that controls the output voltage according to the X-rays. The high voltage generator may be of a transformer type or an inverter type.

X線管102は、熱電子を発生する陰極(フィラメント)と、熱電子の衝突を受けてX線を発生する陽極(ターゲット)とを有する真空管である。X線管102は、X線高電圧装置101から供給される高電圧を用いて、陰極から陽極に向けて熱電子を照射することにより、X線を発生する。 The X-ray tube 102 is a vacuum tube having a cathode (filament) that generates thermoelectrons and an anode (target) that generates X-rays when the thermoelectrons collide. The X-ray tube 102 generates X-rays by irradiating thermoelectrons from the cathode to the anode using the high voltage supplied from the X-ray high voltage device 101.

X線絞り器103は、X線管102により発生されたX線の照射範囲を絞り込むコリメータと、X線管102から曝射されたX線を調節するフィルタとを有する。 The X-ray diaphragm device 103 has a collimator that narrows the irradiation range of the X-rays generated by the X-ray tube 102, and a filter that adjusts the X-rays emitted from the X-ray tube 102.

X線絞り器103におけるコリメータは、例えば、スライド可能な4枚の絞り羽根を有する。コリメータは、絞り羽根をスライドさせることで、X線管102が発生したX線を絞り込んで被検体Pに照射させる。ここで、絞り羽根は、鉛などで構成された板状部材であり、X線の照射範囲を調整するためにX線管102のX線照射口付近に設けられる。 The collimator in the X-ray diaphragm 103 has, for example, four slidable diaphragm blades. The collimator narrows down the X-rays generated by the X-ray tube 102 and irradiates the subject P by sliding the diaphragm blades. Here, the diaphragm blade is a plate-shaped member made of lead or the like, and is provided near the X-ray irradiation port of the X-ray tube 102 for adjusting the X-ray irradiation range.

X線絞り器103におけるフィルタは、被検体Pに対する被曝線量の低減とX線画像データの画質向上を目的として、その材質や厚みによって透過するX線の線質を変化させ、被検体Pに吸収されやすい軟線成分を低減したり、X線画像データのコントラスト低下を招く高エネルギー成分を低減したりする。また、フィルタは、その材質や厚み、位置などによってX線の線量及び照射範囲を変化させ、X線管102から被検体Pへ照射されるX線が予め定められた分布になるようにX線を減衰させる。 The filter in the X-ray concentrator 103 changes the quality of X-rays that are transmitted by the material and the thickness thereof for the purpose of reducing the exposure dose to the subject P and improving the image quality of the X-ray image data, and absorbs it in the subject P. The soft line component that is easily affected is reduced, and the high energy component that causes a reduction in the contrast of the X-ray image data is reduced. Further, the filter changes the X-ray dose and irradiation range depending on the material, thickness, position, etc., so that the X-rays irradiated from the X-ray tube 102 to the subject P have a predetermined distribution. To attenuate.

例えば、X線絞り器103は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることによりX線の照射を制御する。例えば、X線絞り器103は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、コリメータの絞り羽根の開度を調整して、被検体Pに対して照射されるX線の照射範囲を制御する。また、例えば、X線絞り器103は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、フィルタの位置を調整することで、被検体Pに対して照射されるX線の線量の分布を制御する。 For example, the X-ray diaphragm device 103 has a drive mechanism such as a motor and an actuator, and controls the X-ray irradiation by operating the drive mechanism under the control of the processing circuit 110 described later. For example, the X-ray diaphragm device 103 adjusts the opening of the diaphragm blade of the collimator by applying a driving voltage to the driving mechanism in accordance with the control signal received from the processing circuit 110, and irradiates the subject P with it. The irradiation range of X-rays to be controlled is controlled. In addition, for example, the X-ray diaphragm device 103 adjusts the position of the filter by applying a drive voltage to the drive mechanism according to the control signal received from the processing circuit 110, so that the subject P is irradiated. Control the distribution of X-ray dose.

天板104は、被検体Pを載せるベッドであり、図示しない寝台駆動装置の上に配置される。なお、被検体Pは、X線診断装置10に含まれない。例えば、寝台駆動装置は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることにより、天板104の移動・傾斜を制御する。例えば、寝台駆動装置は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、天板104を移動させたり、傾斜させたりする。 The top board 104 is a bed on which the subject P is placed, and is placed on a bed driving device (not shown). The subject P is not included in the X-ray diagnostic apparatus 10. For example, the bed driving device has a drive mechanism such as a motor and an actuator, and controls the movement/tilt of the top 104 by operating the drive mechanism under the control of the processing circuit 110 described later. For example, the bed driving device moves or tilts the tabletop 104 by applying a driving voltage to the driving mechanism according to the control signal received from the processing circuit 110.

なお、本実施形態では、図2に示すように、天板104の短手方向をX軸方向とする。また、X軸方向に直交し、天板104に対して水平な方向をY軸方向とする。Y軸方向は、天板104の長手方向に対応する。また、X軸方向及びY軸方向に直交する方向をZ軸方向とする。即ち、天板104に対して垂直な方向をZ軸方向とする。また、天板104を基準としたXYZ座標系については、基準座標系とも記載する。 In this embodiment, as shown in FIG. 2, the lateral direction of the top plate 104 is the X-axis direction. A direction orthogonal to the X-axis direction and horizontal to the top plate 104 is defined as the Y-axis direction. The Y-axis direction corresponds to the longitudinal direction of the top plate 104. Further, the direction orthogonal to the X-axis direction and the Y-axis direction is the Z-axis direction. That is, the direction perpendicular to the top plate 104 is the Z-axis direction. Further, the XYZ coordinate system with the top plate 104 as a reference is also referred to as a reference coordinate system.

Cアーム105は、X線管102及びX線絞り器103と、X線検出器106とを、被検体Pを挟んで対向するように保持する。例えば、Cアーム105は、モータ及びアクチュエータ等の駆動機構を有し、後述する処理回路110による制御の下、駆動機構を動作させることにより、回転したり移動したりする。例えば、Cアーム105は、処理回路110から受け付けた制御信号に応じて駆動電圧を駆動機構に付加することにより、X線管102及びX線絞り器103と、X線検出器106とを被検体Pに対して回転・移動させ、X線の照射位置や照射角度を制御する。なお、図2では、X線診断装置10がシングルプレーンの場合を例に挙げて説明しているが、実施形態はこれに限定されるものではなく、バイプレーンの場合であってもよい。 The C-arm 105 holds the X-ray tube 102, the X-ray diaphragm 103, and the X-ray detector 106 so as to face each other with the subject P interposed therebetween. For example, the C-arm 105 has a drive mechanism such as a motor and an actuator, and is rotated or moved by operating the drive mechanism under the control of the processing circuit 110 described later. For example, the C-arm 105 applies the drive voltage to the drive mechanism in accordance with the control signal received from the processing circuit 110, and thereby the X-ray tube 102, the X-ray squeezer 103, and the X-ray detector 106 are subjected to the test. It is rotated and moved with respect to P to control the irradiation position and irradiation angle of X-rays. In FIG. 2, the case where the X-ray diagnostic apparatus 10 is a single plane has been described as an example, but the embodiment is not limited to this and may be a biplane case.

X線検出器106は、例えば、マトリクス状に配列された検出素子を有するX線平面検出器(Flat Panel Detector:FPD)である。X線検出器106は、X線管102から照射されて被検体Pを透過したX線を検出して、検出したX線量に対応した検出信号を処理回路110へと出力する。なお、X線検出器106は、グリッド、シンチレータアレイ及び光センサアレイを有する間接変換型の検出器であってもよいし、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。 The X-ray detector 106 is, for example, an X-ray flat panel detector (FPD) having detection elements arranged in a matrix. The X-ray detector 106 detects X-rays emitted from the X-ray tube 102 and transmitted through the subject P, and outputs a detection signal corresponding to the detected X-ray dose to the processing circuit 110. The X-ray detector 106 may be an indirect conversion type detector having a grid, a scintillator array and an optical sensor array, or a direct conversion type detector having a semiconductor element that converts incident X-rays into electric signals. It may be a detector.

記憶回路107は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。例えば、記憶回路107は、処理回路110によって収集されたX線画像データを受け付けて記憶する。また、記憶回路107は、処理回路110によって読み出されて実行される各種機能に対応するプログラムを記憶する。なお、記憶回路107は、X線診断装置10とネットワークを介して接続されたサーバ群(クラウド)により実現されることとしてもよい。 The storage circuit 107 is realized by, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. For example, the storage circuit 107 receives and stores the X-ray image data collected by the processing circuit 110. The storage circuit 107 also stores programs corresponding to various functions read and executed by the processing circuit 110. The storage circuit 107 may be realized by a server group (cloud) connected to the X-ray diagnostic apparatus 10 via a network.

ディスプレイ108は、各種の情報を表示する。例えば、ディスプレイ108は、処理回路110による制御の下、操作者の指示を受け付けるためのGUIや、各種のX線画像を表示する。例えば、ディスプレイ108は、液晶ディスプレイやCRTディスプレイである。なお、ディスプレイ108はデスクトップ型でもよいし、処理回路110と無線通信可能なタブレット端末等で構成されることにしても構わない。 The display 108 displays various information. For example, the display 108 displays a GUI for receiving an operator's instruction and various X-ray images under the control of the processing circuit 110. For example, the display 108 is a liquid crystal display or a CRT display. The display 108 may be a desktop type, or may be a tablet terminal or the like capable of wireless communication with the processing circuit 110.

入力インターフェース109は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路110に出力する。例えば、入力インターフェース109は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、音声入力回路等により実現される。なお、入力インターフェース109は、処理回路110と無線通信可能なタブレット端末等で構成されることにしても構わない。また、入力インターフェース109は、マウスやキーボード等の物理的な操作部品を備えるものだけに限られない。例えば、X線診断装置10とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路110へ出力する電気信号の処理回路も入力インターフェース109の例に含まれる。 The input interface 109 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the electric signals to the processing circuit 110. For example, the input interface 109 includes a mouse, a keyboard, a trackball, a switch, a button, a joystick, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and an optical sensor. It is realized by the non-contact input circuit and the voice input circuit used. The input interface 109 may be composed of a tablet terminal or the like that can wirelessly communicate with the processing circuit 110. Further, the input interface 109 is not limited to the one including physical operation parts such as a mouse and a keyboard. For example, an electric signal processing circuit that receives an electric signal corresponding to an input operation from an external input device provided separately from the X-ray diagnostic apparatus 10 and outputs the electric signal to the processing circuit 110 is also included in the input interface 109. Included in the example.

処理回路110は、収集機能110a、表示制御機能110b及び送信機能110cを実行することで、X線診断装置10全体の動作を制御する。 The processing circuit 110 controls the overall operation of the X-ray diagnostic apparatus 10 by executing the acquisition function 110a, the display control function 110b, and the transmission function 110c.

例えば、処理回路110は、記憶回路107から収集機能110aに相当するプログラムを読み出して実行することにより、被検体PからX線画像データを収集する。例えば、収集機能110aは、X線高電圧装置101を制御し、X線管102に供給する電圧を調整することで、被検体Pに対して照射されるX線量やオン/オフを制御する。 For example, the processing circuit 110 acquires X-ray image data from the subject P by reading a program corresponding to the acquisition function 110a from the storage circuit 107 and executing the program. For example, the collection function 110a controls the X-ray high-voltage device 101 and adjusts the voltage supplied to the X-ray tube 102 to control the X-ray dose and the ON/OFF of the subject P to be irradiated.

また、例えば、収集機能110aは、X線管102、X線絞り器103、天板104、Cアーム105及びX線検出器106の動作を制御することにより、撮影位置や撮影角度、X線条件(管電流値や管電圧値等)等の撮影条件を制御する。以下では、X線診断装置10においてX線画像データの収集に用いられる機構(X線管102、X線絞り器103、天板104、Cアーム105及びX線検出器106)を、撮影系とも記載する。 In addition, for example, the acquisition function 110a controls the operations of the X-ray tube 102, the X-ray diaphragm 103, the top plate 104, the C-arm 105, and the X-ray detector 106, and thereby the imaging position, the imaging angle, and the X-ray condition. It controls imaging conditions such as (tube current value and tube voltage value). In the following, the mechanism (X-ray tube 102, X-ray diaphragm 103, top plate 104, C-arm 105 and X-ray detector 106) used for collecting X-ray image data in the X-ray diagnostic apparatus 10 will be referred to as an imaging system. Enter.

具体的には、収集機能110aは、X線絞り器103の動作を制御し、コリメータが有する絞り羽根の開度を調整することで、被検体Pに対して照射されるX線の照射範囲を制御する。また、収集機能110aは、X線絞り器103の動作を制御し、フィルタの位置を調整することで、X線の線量の分布を制御する。また、収集機能110aは、Cアーム105を回転させたり、移動させたりすることで、X線の照射範囲及び照射角度を制御する。また、収集機能110aは、天板104を移動させたり、傾斜させたりすることで、X線の照射範囲及び照射角度を制御する。また、収集機能110aは、X線検出器106から受信した検出信号に基づいてX線画像データを生成し、生成したX線画像データを記憶回路107に格納する。 Specifically, the collection function 110a controls the operation of the X-ray diaphragm device 103 and adjusts the opening of the diaphragm blade of the collimator to determine the irradiation range of the X-rays irradiated to the subject P. Control. Further, the collection function 110a controls the operation of the X-ray diaphragm 103 and adjusts the position of the filter to control the distribution of the X-ray dose. Further, the collection function 110a controls the X-ray irradiation range and irradiation angle by rotating or moving the C-arm 105. Further, the collection function 110a controls the irradiation range and the irradiation angle of X-rays by moving or inclining the top plate 104. The acquisition function 110a also generates X-ray image data based on the detection signal received from the X-ray detector 106, and stores the generated X-ray image data in the storage circuit 107.

また、処理回路110は、記憶回路107から表示制御機能110bに相当するプログラムを読み出して実行することにより、GUIや各種のX線画像をディスプレイ108に表示させる。また、処理回路110は、記憶回路107から送信機能110cに相当するプログラムを読み出して実行することにより、収集機能110aによって収集されたX線画像データを、画像保管装置20又は医用画像処理装置30に対して送信する。 In addition, the processing circuit 110 displays a GUI or various X-ray images on the display 108 by reading a program corresponding to the display control function 110b from the storage circuit 107 and executing the program. In addition, the processing circuit 110 reads out the program corresponding to the transmission function 110c from the storage circuit 107 and executes the program to transfer the X-ray image data acquired by the acquisition function 110a to the image storage device 20 or the medical image processing device 30. To send.

図2に示すX線診断装置10においては、各処理機能がコンピュータによって実行可能なプログラムの形態で記憶回路107へ記憶されている。処理回路110は、記憶回路107からプログラムを読み出して実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、プログラムを読み出した状態の処理回路110は、読み出したプログラムに対応する機能を有することとなる。 In the X-ray diagnostic apparatus 10 shown in FIG. 2, each processing function is stored in the storage circuit 107 in the form of a program that can be executed by a computer. The processing circuit 110 is a processor that realizes a function corresponding to each program by reading the program from the storage circuit 107 and executing the program. In other words, the processing circuit 110 that has read the program has a function corresponding to the read program.

なお、図2においては単一の処理回路110にて、収集機能110a、表示制御機能110b及び送信機能110cが実現するものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路110を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路110が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。 In FIG. 2, the single processing circuit 110 has been described as realizing the collection function 110a, the display control function 110b, and the transmission function 110c, but the processing circuit 110 is configured by combining a plurality of independent processors. The function may be realized by each processor executing a program. Further, each processing function of the processing circuit 110 may be implemented by being appropriately dispersed or integrated into a single or a plurality of processing circuits.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路33又は記憶回路107に保存されたプログラムを読み出し実行することで機能を実現する。 The word "processor" used in the above description means, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor realizes the function by reading and executing the program stored in the memory circuit 33 or the memory circuit 107.

なお、図1及び図2においては、単一の記憶回路33又は記憶回路107が各処理機能に対応するプログラムを記憶するものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、複数の記憶回路33を分散して配置し、処理回路34は、個別の記憶回路33から対応するプログラムを読み出す構成としても構わない。同様に、複数の記憶回路107を分散して配置し、処理回路110は、個別の記憶回路107から対応するプログラムを読み出す構成としても構わない。また、記憶回路33及び記憶回路107にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。 1 and 2, the single storage circuit 33 or the storage circuit 107 has been described as storing a program corresponding to each processing function. However, the embodiment is not limited to this. For example, the plurality of storage circuits 33 may be arranged in a distributed manner, and the processing circuit 34 may be configured to read the corresponding program from the individual storage circuits 33. Similarly, a plurality of storage circuits 107 may be arranged in a distributed manner, and the processing circuit 110 may be configured to read a corresponding program from the individual storage circuits 107. Further, instead of storing the program in the memory circuit 33 and the memory circuit 107, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit.

また、処理回路34及び処理回路110は、ネットワークNWを介して接続された外部装置のプロセッサを利用して、機能を実現することとしてもよい。例えば、処理回路34は、記憶回路33から各機能に対応するプログラムを読み出して実行するとともに、医用画像処理装置30とネットワークNWを介して接続されたサーバ群(クラウド)を計算資源として利用することにより、図1に示す各機能を実現する。 Further, the processing circuit 34 and the processing circuit 110 may implement the functions by using the processor of the external device connected via the network NW. For example, the processing circuit 34 reads out and executes a program corresponding to each function from the storage circuit 33, and uses a server group (cloud) connected to the medical image processing apparatus 30 via the network NW as a computing resource. This realizes each function shown in FIG.

以上、X線診断装置10、画像保管装置20及び医用画像処理装置30を含んだ医用情報処理システム1について説明した。かかる構成のもと、医用情報処理システム1における医用画像処理装置30は、処理回路34による処理によって、被ばく量を低減しつつ、X線診断装置10における撮影条件の設定を容易にする。 The medical information processing system 1 including the X-ray diagnostic apparatus 10, the image storage apparatus 20, and the medical image processing apparatus 30 has been described above. With such a configuration, the medical image processing apparatus 30 in the medical information processing system 1 facilitates setting of imaging conditions in the X-ray diagnostic apparatus 10 while reducing the exposure dose by the processing by the processing circuit 34.

まず、図3及び図4を用いて、医用画像処理装置30における撮影条件の設定の例を説明する。例えば、医用画像処理装置30は、撮影条件の設定段階において、図3に示す2次元X線画像データI11をX線診断装置10から取得し、取得した2次元X線画像データI11に基づいて撮影条件の設定を行なう。なお、図3は、第1の実施形態に係る2次元X線画像データI11を示す図である。また、図4は、第1の実施形態に係る撮影条件の設定の一例を示す図である。 First, an example of setting imaging conditions in the medical image processing apparatus 30 will be described with reference to FIGS. 3 and 4. For example, the medical image processing apparatus 30 acquires the two-dimensional X-ray image data I11 shown in FIG. 3 from the X-ray diagnostic apparatus 10 at the stage of setting the imaging conditions, and performs imaging based on the acquired two-dimensional X-ray image data I11. Set the conditions. Note that FIG. 3 is a diagram showing the two-dimensional X-ray image data I11 according to the first embodiment. In addition, FIG. 4 is a diagram illustrating an example of setting of shooting conditions according to the first embodiment.

例えば、取得機能341は、図3に示す2次元X線画像データI11として、LIHを取得する。具体的には、X線診断装置10における収集機能110aは、時系列的に複数の2次元X線画像データを収集し、収集した2次元X線画像データを、医用画像処理装置30に対して順次送信する。また、取得機能341は、X線診断装置10から送信された2次元X線画像データを順次取得する。また、表示制御機能344は、取得機能341が取得した2次元X線画像データを、ディスプレイ32に順次表示させる。なお、2次元X線画像データの収集及び表示を並行して実行する処理については、X線透視とも記載する。また、収集と並行して表示される2次元X線画像データについては、透視像とも記載する。次に、操作者は、所望のタイミングで、X線透視を停止する旨の入力操作を行なう。例えば、操作者は、ディスプレイ32に表示される透視像を参照しつつ、撮影位置や撮影角度を適宜変更する。そして、操作者は、透視像上に検査対象部位が現れたタイミングで入力インターフェース31が備える停止ボタンを押下することにより、透視を停止する旨の入力操作を行なう。一例を挙げると、図3に示す部位A1が検査対象部位である場合において、操作者は、透視像上に部位A1が現れたタイミングで停止ボタンを押下する。ここで、表示制御機能344は、停止ボタンが押下された際に表示されていた2次元X線画像データを、ディスプレイ32に表示させたままとする。即ち、表示制御機能344は、LIHをディスプレイ32に表示させる。また、取得機能341は、LIHを、2次元X線画像データI11として特定する。 For example, the acquisition function 341 acquires LIH as the two-dimensional X-ray image data I11 shown in FIG. Specifically, the collection function 110a in the X-ray diagnostic apparatus 10 collects a plurality of two-dimensional X-ray image data in time series, and collects the collected two-dimensional X-ray image data to the medical image processing apparatus 30. Send sequentially. Further, the acquisition function 341 sequentially acquires the two-dimensional X-ray image data transmitted from the X-ray diagnostic apparatus 10. Further, the display control function 344 causes the display 32 to sequentially display the two-dimensional X-ray image data acquired by the acquisition function 341. Note that the process of executing the collection and display of the two-dimensional X-ray image data in parallel is also referred to as X-ray fluoroscopy. Further, the two-dimensional X-ray image data displayed in parallel with the acquisition is also referred to as a perspective image. Next, the operator performs an input operation to stop the X-ray fluoroscopy at a desired timing. For example, the operator appropriately changes the shooting position and the shooting angle while referring to the perspective image displayed on the display 32. Then, the operator performs an input operation for stopping the fluoroscopy by depressing a stop button included in the input interface 31 at the timing when the examination target portion appears on the fluoroscopic image. For example, when the site A1 shown in FIG. 3 is the site to be inspected, the operator presses the stop button at the timing when the site A1 appears on the fluoroscopic image. Here, the display control function 344 keeps the two-dimensional X-ray image data displayed when the stop button is pressed on the display 32. That is, the display control function 344 displays the LIH on the display 32. Further, the acquisition function 341 identifies the LIH as the two-dimensional X-ray image data I11.

次に、表示制御機能344は、図4の左図に示すように、2次元X線画像データI11上に、撮影位置を示すROIを表示させる。ここで、操作者は、検査対象部位を観察しやすいように2次元X線画像データI11上のROIを調整することで、撮影位置の設定を行なうことができる。例えば、部位A1が検査対象部位である場合において、操作者は、ROIの中心に部位A1が位置するように2次元X線画像データI11上でROIを移動させることで、部位A1を観察しやすいように撮影位置の設定を行なうことができる。 Next, the display control function 344 displays the ROI indicating the imaging position on the two-dimensional X-ray image data I11, as shown in the left diagram of FIG. Here, the operator can set the imaging position by adjusting the ROI on the two-dimensional X-ray image data I11 so that the inspection target part can be easily observed. For example, when the site A1 is the site to be inspected, the operator can easily observe the site A1 by moving the ROI on the two-dimensional X-ray image data I11 so that the site A1 is located at the center of the ROI. The shooting position can be set as follows.

図4に示したように、操作者は、2次元X線画像データI11上のROIを調整することで、直感的に撮影位置の設定を行なうことができる。また、操作者が2次元X線画像データI11上のROIを調整している間はX線透視の必要がないため、X線透視のみによって撮影位置を設定する場合と比較して、被ばく量を低減することができる。 As shown in FIG. 4, the operator can intuitively set the imaging position by adjusting the ROI on the two-dimensional X-ray image data I11. Further, since there is no need for X-ray fluoroscopy while the operator is adjusting the ROI on the two-dimensional X-ray image data I11, the exposure dose can be reduced as compared with the case where the imaging position is set only by X-ray fluoroscopy. It can be reduced.

ここで、撮影位置の設定に加えて、或いは撮影位置の設定に代えて、撮影角度の設定が行われる場合がある。即ち、2次元X線画像データI11を参照した操作者が撮影角度の変更を希望する場合がある。例えば、2次元X線画像データI11において検査対象部位に対して奥行き方向に骨などの背景成分が重なっている場合、操作者は、より検査対象部位を観察しやすくなるように、Cアーム105を被検体Pに対して回転させることを希望する場合がある。 Here, in addition to the setting of the shooting position or instead of the setting of the shooting position, the setting of the shooting angle may be performed. That is, the operator who referred to the two-dimensional X-ray image data I11 may desire to change the imaging angle. For example, in the two-dimensional X-ray image data I11, when a background component such as a bone overlaps the examination target portion in the depth direction, the operator sets the C arm 105 so that the examination target portion can be observed more easily. It may be desired to rotate the object P.

しかしながら、2次元X線画像データI11を参照しても、変更後の撮影角度を直感的に理解することはできない。即ち、撮影角度に応じてX線画像データ上に現れる各部位(例えば、図3の部位A1や部位A2等)の配置は変化するため、撮影角度を変更した場合、2次元X線画像データI11とは各部位の配置が異なるX線画像データが収集されることとなる。そして、変更後の撮影角度のX線画像データについて操作者が想像するしかないとなれば、その撮影角度が適切であるか否かを直感的に判断することはできない。このため、操作者にとって、2次元X線画像データI11のみを参照して撮影角度を設定することは容易でない。また、X線透視を再開すれば、追加収集した透視像によって変更後の撮影角度を直感的に理解することはできるものの、被検体Pの被ばく量が増加する。 However, even if the two-dimensional X-ray image data I11 is referred to, it is not possible to intuitively understand the changed imaging angle. That is, since the arrangement of each part (for example, the part A1 and the part A2 in FIG. 3) appearing on the X-ray image data changes according to the imaging angle, the two-dimensional X-ray image data I11 is changed when the imaging angle is changed. Means that X-ray image data in which the arrangement of each part is different is collected. If the operator has no choice but to imagine the X-ray image data of the changed shooting angle, it is impossible to intuitively determine whether or not the shooting angle is appropriate. Therefore, it is not easy for the operator to set the imaging angle by referring to only the two-dimensional X-ray image data I11. Further, when the X-ray fluoroscopy is restarted, the changed imaging angle can be intuitively understood from the additionally acquired fluoroscopic images, but the exposure amount of the subject P increases.

そこで、医用画像処理装置30は、透視像の追加収集によらず、変更後の撮影角度を直感的に理解することができる画像データを生成することで、被ばく量を低減しつつ、撮影角度の設定を容易にする。具体的には、医用画像処理装置30は、2次元X線画像データI11と異なる撮影角度で収集されるX線画像データを擬似的に示した画像データを生成することで、被ばく量を低減しつつ、撮影角度の設定を容易にする。なお、以下では、2次元X線画像データI11と異なる撮影角度で収集されるX線画像データを、回転画像データとも記載する。また、以下では、回転画像データを擬似的に示した画像データを、擬似画像データと記載する。 Therefore, the medical image processing apparatus 30 generates image data that allows the user to intuitively understand the changed shooting angle without depending on the additional acquisition of the fluoroscopic image, thereby reducing the exposure amount and reducing the exposure angle. Easy to set up. Specifically, the medical image processing apparatus 30 reduces the exposure dose by generating image data that is a pseudo representation of the X-ray image data acquired at an imaging angle different from that of the two-dimensional X-ray image data I11. At the same time, it is easy to set the shooting angle. Note that, hereinafter, the X-ray image data acquired at an imaging angle different from that of the two-dimensional X-ray image data I11 will also be described as rotation image data. Further, in the following, the image data in which the rotated image data is shown in a pseudo manner will be referred to as pseudo image data.

以下、擬似画像データの生成処理の一例について、図5A及び図5Bを用いて説明する。図5Aに示す軸y’は、図2等に示したY軸方向(天板104の長手方向)と平行であり、且つ、アイソセンター(Cアーム105の回転中心)を通る軸である。以下では一例として、軸y’を回転軸としてCアーム105を回転させることにより、撮影角度を変化させる場合について説明する。なお、図5Aは、第1の実施形態に係るアイソセンターを通る軸y’を示す図である。また、図5Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。 Hereinafter, an example of the pseudo image data generation process will be described with reference to FIGS. 5A and 5B. The axis y'shown in FIG. 5A is an axis that is parallel to the Y-axis direction (longitudinal direction of the top plate 104) shown in FIG. 2 and the like and passes through the isocenter (center of rotation of the C arm 105). Hereinafter, as an example, a case will be described in which the photographing angle is changed by rotating the C-arm 105 with the axis y′ as the rotation axis. Note that FIG. 5A is a diagram showing an axis y′ passing through the isocenter according to the first embodiment. Further, FIG. 5B is a diagram illustrating an example of a pseudo image data generation process according to the first embodiment.

例えば、生成機能343は、まず、アイソセンターと2次元X線画像データI11との位置関係を特定する。一例を挙げると、生成機能343は、天板104を基準とする基準座標系において、実空間におけるアイソセンターに対応する点を特定する。ここで、アイソセンターはCアーム105の配置に応じて決まるものであるため、生成機能343は、X線診断装置10からCアーム105の制御情報を取得することにより、アイソセンターに対応する点を特定することができる。また、生成機能343は、プリセットされた条件に基づいて、基準座標系における2次元X線画像データI11の位置を特定する。例えば、生成機能343は、天板104の上方(+Z方向)に「10cm」の位置を、2次元X線画像データI11の位置として特定する。 For example, the generation function 343 first specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11. As an example, the generation function 343 specifies a point corresponding to the isocenter in the real space in the reference coordinate system with the top plate 104 as a reference. Here, since the isocenter is determined according to the arrangement of the C arm 105, the generation function 343 acquires the control information of the C arm 105 from the X-ray diagnostic apparatus 10 to determine the point corresponding to the isocenter. Can be specified. Further, the generation function 343 identifies the position of the two-dimensional X-ray image data I11 in the reference coordinate system based on the preset condition. For example, the generation function 343 specifies the position “10 cm” above the top plate 104 (+Z direction) as the position of the two-dimensional X-ray image data I11.

なお、生成機能343は、被検体Pの体格に基づいて、基準座標系における2次元X線画像データI11の位置を特定してもよい。例えば、生成機能343は、HIS(Hospital Information System)やRIS(Radiology Information System)等のシステムから、被検体Pの体格に関わるパラメータ(年齢や性別、体重、身長など)を取得する。そして、生成機能343は、取得したパラメータに基づいて、基準座標系における2次元X線画像データI11の位置を特定する。例えば、生成機能343は、取得したパラメータに対応付いた高さ「12cm」に基づき、天板104の上方「12cm」の位置を2次元X線画像データI11の位置として特定する。 The generation function 343 may specify the position of the two-dimensional X-ray image data I11 in the reference coordinate system based on the physique of the subject P. For example, the generation function 343 acquires parameters (age, sex, weight, height, etc.) related to the physique of the subject P from a system such as HIS (Hospital Information System) or RIS (Radiology Information System). Then, the generation function 343 specifies the position of the two-dimensional X-ray image data I11 in the reference coordinate system based on the acquired parameters. For example, the generation function 343 specifies the position “12 cm” above the top 104 as the position of the two-dimensional X-ray image data I11 based on the height “12 cm” associated with the acquired parameter.

基準座標系においてアイソセンターに対応する点及び2次元X線画像データI11の位置をそれぞれ特定することにより、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係を特定することができる。また、軸y’は、Y軸方向と平行であり且つアイソセンターを通る軸である。従って、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係を特定することにより、軸y’と2次元X線画像データI11との位置関係を特定することができる。 The generation function 343 specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11 by specifying the point corresponding to the isocenter and the position of the two-dimensional X-ray image data I11 in the reference coordinate system. You can The axis y'is an axis parallel to the Y-axis direction and passing through the isocenter. Therefore, the generation function 343 can specify the positional relationship between the axis y'and the two-dimensional X-ray image data I11 by specifying the positional relationship between the isocenter and the two-dimensional X-ray image data I11.

別の例を挙げると、生成機能343は、被検体Pの3次元画像データに基づいて、アイソセンターと2次元X線画像データI11との位置関係を特定する。ここで、3次元画像データとは、例えば、X線CT(Computed Tomography)装置により収集されるCT画像データや、MRI(Magnetic Resonance Imaging)装置により収集されるMR画像データ、X線診断装置10により収集される3次元X線画像データ等である。 As another example, the generation function 343 specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11 based on the three-dimensional image data of the subject P. Here, the three-dimensional image data is, for example, CT image data acquired by an X-ray CT (Computed Tomography) apparatus, MR image data acquired by an MRI (Magnetic Resonance Imaging) apparatus, or the X-ray diagnostic apparatus 10. These are collected three-dimensional X-ray image data and the like.

以下では、3次元画像データの例として、X線診断装置10により収集される3次元X線画像データV11について説明する。例えば、X線診断装置10は、2次元X線画像データI11の収集に先立って、被検体Pに対する回転撮影を実行し、3次元X線画像データV11を収集する。具体的には、収集機能110aは、Cアーム105を回転させることにより、X線管102及びX線検出器106を被検体Pの周囲で回転移動させながら、所定のフレームレートでX線管102からX線を照射させる。ここで、X線検出器106は、検出したX線量に対応した検出信号を出力し、収集機能110aは、X線検出器106から受信した検出信号に基づいて複数の投影データを生成する。即ち、収集機能110aは、回転撮影を実行することによって、所定のフレームレートで複数の投影データを収集する。そして、収集機能110aは、収集した複数の投影データから3次元X線画像データV11を再構成する。なお、3次元X線画像データV11は、天板104の上に載置された被検体Pについて収集されたものであるため、天板104を基準とする基準座標系における3次元X線画像データV11の位置は既知である。また、送信機能110cは、再構成された3次元X線画像データV11を、画像保管装置20に対して送信する。 Hereinafter, as an example of the three-dimensional image data, the three-dimensional X-ray image data V11 collected by the X-ray diagnostic apparatus 10 will be described. For example, the X-ray diagnostic apparatus 10 performs rotation imaging on the subject P before collecting the two-dimensional X-ray image data I11 and collects the three-dimensional X-ray image data V11. Specifically, the collection function 110a rotates the C-arm 105 to rotate and move the X-ray tube 102 and the X-ray detector 106 around the subject P, and at the same time, the X-ray tube 102 at a predetermined frame rate. To irradiate X-rays. Here, the X-ray detector 106 outputs a detection signal corresponding to the detected X-ray dose, and the collection function 110a generates a plurality of projection data based on the detection signal received from the X-ray detector 106. That is, the collection function 110a collects a plurality of projection data at a predetermined frame rate by executing rotation imaging. Then, the collecting function 110a reconstructs the three-dimensional X-ray image data V11 from the plurality of collected projection data. Since the three-dimensional X-ray image data V11 is collected for the subject P placed on the top 104, the three-dimensional X-ray image data in the reference coordinate system with the top 104 as a reference. The position of V11 is known. Further, the transmission function 110c transmits the reconstructed three-dimensional X-ray image data V11 to the image storage device 20.

また、取得機能341は、2次元X線画像データI11を取得した後、ネットワークNWを介して、画像保管装置20から3次元X線画像データV11を取得する。次に、生成機能343は、3次元X線画像データV11と2次元X線画像データI11とを位置合わせすることで、3次元X線画像データV11に対する2次元X線画像データI11の位置を特定する。これにより、生成機能343は、基準座標系における2次元X線画像データI11の位置を特定する。また、生成機能343は、基準座標系において、実空間におけるアイソセンターに対応する点を特定する。そして、基準座標系においてアイソセンターに対応する点及び2次元X線画像データI11の位置をそれぞれ特定することにより、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係を特定することができる。また、生成機能343は、アイソセンターと2次元X線画像データI11との位置関係に基づいて、軸y’と2次元X線画像データI11との位置関係を特定することができる。 Further, the acquisition function 341 acquires the two-dimensional X-ray image data I11 and then acquires the three-dimensional X-ray image data V11 from the image storage device 20 via the network NW. Next, the generation function 343 identifies the position of the two-dimensional X-ray image data I11 with respect to the three-dimensional X-ray image data V11 by aligning the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11. To do. Thereby, the generation function 343 specifies the position of the two-dimensional X-ray image data I11 in the reference coordinate system. Further, the generation function 343 specifies a point corresponding to the isocenter in the real space in the reference coordinate system. Then, the generation function 343 specifies the positional relationship between the isocenter and the two-dimensional X-ray image data I11 by specifying the point corresponding to the isocenter and the position of the two-dimensional X-ray image data I11 in the reference coordinate system. can do. Further, the generation function 343 can specify the positional relationship between the axis y'and the two-dimensional X-ray image data I11 based on the positional relationship between the isocenter and the two-dimensional X-ray image data I11.

なお、図5Bにおいては一例として、2次元X線画像データI11がY軸に対して平行であり、且つ、アイソセンターに対応する点が2次元X線画像データI11上に位置している場合について説明する。即ち、図5Bにおいては、軸y’と2次元X線画像データI11とが平行であり、且つ、軸y’が2次元X線画像データI11を通る場合について説明する。 Note that, in FIG. 5B, as an example, the case where the two-dimensional X-ray image data I11 is parallel to the Y axis and the point corresponding to the isocenter is located on the two-dimensional X-ray image data I11. explain. That is, in FIG. 5B, the case where the axis y′ and the two-dimensional X-ray image data I11 are parallel and the axis y′ passes through the two-dimensional X-ray image data I11 will be described.

例えば、2次元X線画像データI11を参照した操作者は、入力インターフェース31を介して、撮影角度の変更操作を入力する。なお、以下では、2次元X線画像データI11の撮影角度を、撮影角度W11と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W12と記載する。また、以下では、撮影角度W12で収集されるX線画像データを、回転画像データI12と記載する。図5Bに示す場合、2次元X線画像データI11の撮影角度W11は、Z軸方向に一致する。また、図5Bに示す場合、変更後の撮影角度W12(即ち、回転画像データI12の撮影角度)は、撮影角度W11から角度「θ1」だけ変更された角度である。 For example, the operator who refers to the two-dimensional X-ray image data I11 inputs the operation of changing the imaging angle via the input interface 31. In the following, the imaging angle of the two-dimensional X-ray image data I11 will be referred to as the imaging angle W11. In the following, the shooting angle after being changed by the operator will be referred to as a shooting angle W12. In the following, the X-ray image data acquired at the imaging angle W12 will be referred to as rotated image data I12. In the case shown in FIG. 5B, the imaging angle W11 of the two-dimensional X-ray image data I11 matches the Z axis direction. Further, in the case shown in FIG. 5B, the changed shooting angle W12 (that is, the shooting angle of the rotated image data I12) is an angle obtained by changing the shooting angle W11 by the angle “θ1”.

生成機能343は、2次元X線画像データI11に基づいて、回転画像データI12を擬似的に示す擬似画像データを生成する。例えば、生成機能343は、図5Bに示すように、軸y’を回転軸として2次元X線画像データI11を角度「θ1」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、2次元X線画像データI11を角度「θ1」だけ回転させる。次に、生成機能343は、回転後の2次元X線画像データI11をXY平面上に投影することで、擬似画像データI13aを生成する。即ち、生成機能343は、角度「θ1」に応じて2次元X線画像データI11を正射影することで、回転画像データI12を擬似した擬似画像データI13aを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI13aをディスプレイ32に表示させる。 The generation function 343 generates pseudo image data that pseudo-displays the rotated image data I12 based on the two-dimensional X-ray image data I11. For example, as shown in FIG. 5B, the generation function 343 rotates the two-dimensional X-ray image data I11 by the angle “θ1” with the axis y′ as the rotation axis. That is, the generation function 343 rotates the two-dimensional X-ray image data I11 by the angle “θ1” around the point corresponding to the isocenter. Next, the generation function 343 generates the pseudo image data I13a by projecting the rotated two-dimensional X-ray image data I11 on the XY plane. That is, the generation function 343 orthonormally projects the two-dimensional X-ray image data I11 in accordance with the angle “θ1” to generate the pseudo image data I13a that is the simulated rotation image data I12. Further, the display control function 344 causes the display 32 to display the pseudo image data I13a generated by the generation function 343.

しかしながら、図5Bに示す擬似画像データI13aにおいては、2次元X線画像データI11に含まれる各部位(部位A1や部位A2等)の奥行き方向の位置が考慮されていない。即ち、擬似画像データI13aにおいては、2次元X線画像データI11における各位置の深度情報が考慮されていない。このため、擬似画像データI13aは、回転画像データI12と大きく異なる画像となってしまう場合がある。ひいては、擬似画像データI13aを参照した操作者が、変更後の撮影角度W12を直感的に理解することができない場合がある。 However, in the pseudo image data I13a shown in FIG. 5B, the position in the depth direction of each part (the part A1, the part A2, etc.) included in the two-dimensional X-ray image data I11 is not considered. That is, the pseudo image data I13a does not consider the depth information of each position in the two-dimensional X-ray image data I11. Therefore, the pseudo image data I13a may be an image that is significantly different from the rotated image data I12. In some cases, the operator who refers to the pseudo image data I13a may not be able to intuitively understand the changed shooting angle W12.

そこで、処理回路34は、2次元X線画像データI11における各位置の深度情報を考慮した擬似画像データを生成することにより、変更後の撮影角度W12を直感的に理解することを可能とする。具体的には、処理回路34は、図6に示すように、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成し、生成した3次元データD11を投影することにより、深度情報を考慮した擬似画像データI13bを生成する。なお、図6は、第1の実施形態に係る擬似画像データI13bの生成処理の一例を示す図である。 Therefore, the processing circuit 34 makes it possible to intuitively understand the changed shooting angle W12 by generating the pseudo image data in consideration of the depth information of each position in the two-dimensional X-ray image data I11. Specifically, as shown in FIG. 6, the processing circuit 34 generates the three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11, and projects the generated three-dimensional data D11. As a result, the pseudo image data I13b considering the depth information is generated. Note that FIG. 6 is a diagram illustrating an example of a process of generating the pseudo image data I13b according to the first embodiment.

以下、処理回路34による擬似画像データI13bの生成処理について詳細に説明する。まず、付加機能342は、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成する。ここで、深度情報は、2次元X線画像データI11の奥行き方向の位置を示す情報である。例えば、図6に示す場合、深度情報は、Z軸方向の位置を示す情報である。一例を挙げると、深度情報は、Z座標である。 Hereinafter, the process of generating the pseudo image data I13b by the processing circuit 34 will be described in detail. First, the additional function 342 generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11. Here, the depth information is information indicating the position of the two-dimensional X-ray image data I11 in the depth direction. For example, in the case shown in FIG. 6, the depth information is information indicating the position in the Z-axis direction. As an example, the depth information is the Z coordinate.

例えば、付加機能342は、2次元X線画像データI11と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI11における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI11の各位置に付加することで3次元データD11を生成する。以下、3次元画像データの例として、X線診断装置10により収集される3次元X線画像データV11について説明する。 For example, the additional function 342 estimates and estimates depth information for each position in the two-dimensional X-ray image data I11 based on the three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I11. Three-dimensional data D11 is generated by adding depth information to each position of the two-dimensional X-ray image data I11. Hereinafter, as an example of the three-dimensional image data, the three-dimensional X-ray image data V11 collected by the X-ray diagnostic apparatus 10 will be described.

例えば、X線診断装置10は、2次元X線画像データI11の収集に先立って、被検体Pから3次元X線画像データV11を収集し、収集した3次元X線画像データV11を画像保管装置20に対して送信する。また、取得機能341は、2次元X線画像データI11を取得した後、ネットワークNWを介して、画像保管装置20から3次元X線画像データV11を取得する。次に、付加機能342は、3次元X線画像データV11と2次元X線画像データI11とを位置合わせすることで、2次元X線画像データI11における各位置について深度情報を推定する。 For example, the X-ray diagnostic apparatus 10 collects the three-dimensional X-ray image data V11 from the subject P before collecting the two-dimensional X-ray image data I11, and collects the collected three-dimensional X-ray image data V11 in the image storage device. Send to 20. Further, the acquisition function 341 acquires the two-dimensional X-ray image data I11 and then acquires the three-dimensional X-ray image data V11 from the image storage device 20 via the network NW. Next, the additional function 342 aligns the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 to estimate depth information at each position in the two-dimensional X-ray image data I11.

例えば、付加機能342は、まず、2次元X線画像データI11のうち骨に対応する領域の輪郭データLcを抽出する。一例を挙げると、付加機能342は、2次元X線画像データI11についてエッジ抽出処理を行なうことにより、輪郭データLcを抽出する。輪郭データLcは、例えば、2次元座標値を持つ頂点の集合として表現される。また、付加機能342は、3次元X線画像データV11を平面に投影した投影画像データを複数生成する。ここで、付加機能342は、位置及び向きを変化させつつ3次元X線画像データV11を平面に透視することで、様々な投影画像データを生成する。次に、付加機能342は、複数の投影画像データそれぞれについて、投影画像データのうち骨に対応する領域の輪郭データLvを抽出する。輪郭データLvは、例えば、2次元座標値を持つ頂点の集合として表現される。次に、付加機能342は、複数の投影画像データそれぞれについて、輪郭データLc上の各頂点と、その頂点から最短距離にある輪郭データLvの頂点との間の距離値の総和を算出する。次に、付加機能342は、算出した距離値の総和が最小となる投影画像データを特定する。そして、付加機能342は、特定した投影画像データの生成時における3次元X線画像データV11の位置及び向きを、2次元X線画像データI11に対する3次元X線画像データV11の位置及び向きとして特定する。 For example, the additional function 342 first extracts the contour data Lc of the region corresponding to the bone in the two-dimensional X-ray image data I11. As an example, the additional function 342 extracts the contour data Lc by performing edge extraction processing on the two-dimensional X-ray image data I11. The contour data Lc is represented as, for example, a set of vertices having two-dimensional coordinate values. Further, the additional function 342 generates a plurality of projection image data obtained by projecting the three-dimensional X-ray image data V11 on a plane. Here, the additional function 342 generates various projection image data by seeing through the three-dimensional X-ray image data V11 on a plane while changing the position and the direction. Next, the additional function 342 extracts the contour data Lv of the region corresponding to the bone in the projection image data for each of the plurality of projection image data. The contour data Lv is represented as, for example, a set of vertices having two-dimensional coordinate values. Next, the additional function 342 calculates, for each of the plurality of projection image data, the sum of the distance values between each vertex on the contour data Lc and the vertex of the contour data Lv located at the shortest distance from the vertex. Next, the additional function 342 identifies the projection image data for which the calculated sum of the distance values is the smallest. Then, the additional function 342 identifies the position and orientation of the three-dimensional X-ray image data V11 when the identified projection image data is generated, as the position and orientation of the three-dimensional X-ray image data V11 with respect to the two-dimensional X-ray image data I11. To do.

即ち、付加機能342は、2次元X線画像データI11から抽出した輪郭データLcの頂点と、3次元X線画像データV11から抽出した輪郭データLvの頂点との間の距離値の総和を、3次元X線画像データV11の位置及び向きを変数とする評価関数として定義する。そして、付加機能342は、評価関数の最小化を図ることで、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。 That is, the additional function 342 calculates the sum of the distance values between the vertices of the contour data Lc extracted from the two-dimensional X-ray image data I11 and the vertices of the contour data Lv extracted from the three-dimensional X-ray image data V11 by 3 It is defined as an evaluation function having the position and orientation of the dimensional X-ray image data V11 as variables. Then, the additional function 342 aligns the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 by minimizing the evaluation function.

なお、評価関数の変数は、3次元X線画像データV11の位置及び向きに限定されるものではない。例えば、付加機能342は、3次元X線画像データV11の位置及び向きと、3次元X線画像データV11の変形度とを変数として、評価関数を定義してもよい。即ち、付加機能342は、3次元X線画像データV11を剛体として2次元X線画像データI11と位置合わせしてもよいし、3次元X線画像データV11を変形させながら2次元X線画像データI11と位置合わせしてもよい。 The variables of the evaluation function are not limited to the position and orientation of the three-dimensional X-ray image data V11. For example, the additional function 342 may define the evaluation function with the position and orientation of the three-dimensional X-ray image data V11 and the deformation degree of the three-dimensional X-ray image data V11 as variables. That is, the additional function 342 may align the three-dimensional X-ray image data V11 with the two-dimensional X-ray image data I11 as a rigid body, or the two-dimensional X-ray image data while deforming the three-dimensional X-ray image data V11. It may be aligned with I11.

また、付加機能342は、血管造影の有無に応じて、3次元X線画像データV11と2次元X線画像データI11との位置合わせを行なってもよい。例えば、2次元X線画像データI11が血管非造影画像であり、3次元X線画像データV11が血管造影画像である場合、付加機能342は、3次元X線画像データV11を、血管モデルと非血管モデルとに分離する。次に、付加機能342は、3次元X線画像データV11に基づく非血管モデルと、2次元X線画像データI11とを位置合わせる。これにより、付加機能342は、2次元X線画像データI11が血管非造影画像であり、3次元X線画像データV11が血管造影画像である場合においても、3次元X線画像データV11と2次元X線画像データI11とを精度良く位置合わせすることができる。 Further, the additional function 342 may perform alignment between the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 according to the presence or absence of angiography. For example, when the two-dimensional X-ray image data I11 is a blood vessel non-contrast image and the three-dimensional X-ray image data V11 is a blood vessel contrast image, the additional function 342 sets the three-dimensional X-ray image data V11 as a blood vessel model. Separated into a blood vessel model. Next, the additional function 342 aligns the non-vascular model based on the three-dimensional X-ray image data V11 with the two-dimensional X-ray image data I11. As a result, even when the two-dimensional X-ray image data I11 is a blood vessel non-contrast image and the three-dimensional X-ray image data V11 is a blood vessel contrast image, the additional function 342 and the three-dimensional X-ray image data V11 are two-dimensional. The X-ray image data I11 can be accurately aligned.

また、付加機能342は、他の医用画像データを介して、3次元X線画像データV11と2次元X線画像データI11とを位置合わせしてもよい。例えば、付加機能342は、被検体Pを撮像した3次元超音波画像データV12を用いて、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。一例を挙げると、付加機能342は、3次元X線画像データV11と3次元超音波画像データV12との位置合わせを実行し、3次元X線画像データV11に対する3次元超音波画像データV12の位置及び向きを特定する。また、付加機能342は、2次元X線画像データI11において、3次元超音波画像データV12の撮像に用いられる超音波プローブの位置及び向きを特定することにより、2次元X線画像データI11に対する3次元超音波画像データV12の位置及び向きを特定する。例えば、付加機能342は、超音波プローブの構造を示す3次元モデルを2次元X線画像データI11に対してマッチングすることにより、2次元X線画像データI11において超音波プローブの位置及び向きを特定する。そして、付加機能342は、3次元X線画像データV11に対する3次元超音波画像データV12の位置及び向きと、2次元X線画像データI11に対する3次元超音波画像データV12の位置及び向きとに基づいて、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。 Further, the additional function 342 may align the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 via other medical image data. For example, the additional function 342 aligns the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 by using the three-dimensional ultrasonic image data V12 obtained by imaging the subject P. As an example, the additional function 342 executes alignment of the three-dimensional X-ray image data V11 and the three-dimensional ultrasonic image data V12, and the position of the three-dimensional ultrasonic image data V12 with respect to the three-dimensional X-ray image data V11. And specify the orientation. Further, the additional function 342 specifies the position and the orientation of the ultrasonic probe used for imaging the three-dimensional ultrasonic image data V12 in the two-dimensional X-ray image data I11, and thereby the 3D for the two-dimensional X-ray image data I11 is obtained. The position and orientation of the three-dimensional ultrasonic image data V12 are specified. For example, the additional function 342 specifies the position and orientation of the ultrasonic probe in the two-dimensional X-ray image data I11 by matching the three-dimensional model showing the structure of the ultrasonic probe with the two-dimensional X-ray image data I11. To do. Then, the additional function 342 is based on the position and orientation of the three-dimensional ultrasonic image data V12 with respect to the three-dimensional X-ray image data V11 and the position and orientation of the three-dimensional ultrasonic image data V12 with respect to the two-dimensional X-ray image data I11. Then, the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 are aligned.

また、付加機能342は、操作者からの入力操作に基づいて、3次元X線画像データV11と2次元X線画像データI11とを位置合わせしてもよい。一例を挙げると、操作者は、ディスプレイ32に表示された3次元X線画像データV11及び2次元X線画像データI11を参照しつつ、入力インターフェース31を介して、2次元X線画像データI11に対する3次元X線画像データV11の位置及び向きを変化させる。そして、操作者は、2次元X線画像データI11に対する3次元X線画像データV11の位置及び向き決定する操作を入力することにより、3次元X線画像データV11と2次元X線画像データI11とを位置合わせする。 Further, the additional function 342 may align the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 based on the input operation from the operator. As an example, the operator refers to the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 displayed on the display 32 and, with respect to the two-dimensional X-ray image data I11, through the input interface 31. The position and orientation of the three-dimensional X-ray image data V11 are changed. Then, the operator inputs the operation for determining the position and orientation of the three-dimensional X-ray image data V11 with respect to the two-dimensional X-ray image data I11, and thereby the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11 are obtained. Align.

3次元X線画像データV11と2次元X線画像データI11とを位置合わせした後、付加機能342は、2次元X線画像データI11における各位置について、深度情報を推定する。例えば、付加機能342は、3次元X線画像データV11において部位A1の位置を特定する。次に、付加機能342は、3次元X線画像データV11と2次元X線画像データI11との位置合わせの結果に基づいて、2次元X線画像データI11から、3次元X線画像データV11における部位A1までの距離を算出する。なお、2次元X線画像データI11から3次元X線画像データV11における部位A1までの距離は、例えば、2次元X線画像データI11の奥行き方向(即ち、図6に示すZ方向)の距離である。 After aligning the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I11. For example, the additional function 342 identifies the position of the part A1 in the three-dimensional X-ray image data V11. Next, the additional function 342 changes the two-dimensional X-ray image data I11 to the three-dimensional X-ray image data V11 based on the alignment result of the three-dimensional X-ray image data V11 and the two-dimensional X-ray image data I11. The distance to the part A1 is calculated. The distance from the two-dimensional X-ray image data I11 to the part A1 in the three-dimensional X-ray image data V11 is, for example, the distance in the depth direction of the two-dimensional X-ray image data I11 (that is, the Z direction shown in FIG. 6). is there.

即ち、付加機能342は、2次元X線画像データI11から3次元X線画像データV11における部位A1までの距離を、2次元X線画像データI11における部位A1の位置の深度情報として推定する。同様に、付加機能342は、2次元X線画像データI11における他の位置(部位A2の位置等)の深度情報を推定する。 That is, the additional function 342 estimates the distance from the two-dimensional X-ray image data I11 to the part A1 in the three-dimensional X-ray image data V11 as depth information of the position of the part A1 in the two-dimensional X-ray image data I11. Similarly, the additional function 342 estimates the depth information of other positions (such as the position of the part A2) in the two-dimensional X-ray image data I11.

次に、付加機能342は、推定した深度情報を2次元X線画像データI11における各位置に付加することで、図6に示す3次元データD11を生成する。例えば、2次元X線画像データI11における各画素は、それぞれがX座標及びY座標を有している。ここで、付加機能342は、2次元X線画像データI11における各画素に対して、推定した深度情報をZ座標として付加する。これにより、付加機能342は、3次元データD11として、2次元X線画像データI11における各画素を3次元空間に配置した3次元画像データを生成する。即ち、付加機能342は、深度情報に応じて2次元X線画像データI11を3次元に拡張することで、3次元データD11を生成する。なお、3次元データD11の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。 Next, the adding function 342 adds the estimated depth information to each position in the two-dimensional X-ray image data I11 to generate the three-dimensional data D11 shown in FIG. For example, each pixel in the two-dimensional X-ray image data I11 has an X coordinate and a Y coordinate. Here, the additional function 342 adds the estimated depth information as Z coordinates to each pixel in the two-dimensional X-ray image data I11. Accordingly, the additional function 342 generates, as the three-dimensional data D11, three-dimensional image data in which each pixel in the two-dimensional X-ray image data I11 is arranged in the three-dimensional space. That is, the additional function 342 generates the three-dimensional data D11 by expanding the two-dimensional X-ray image data I11 into three dimensions according to the depth information. The three-dimensional data D11 may be generated before the operator changes the shooting angle or after the operator changes the shooting angle.

次に、生成機能343は、図6に示すように、生成した3次元データD11を角度「θ1」だけ回転させる。例えば、生成機能343は、基準座標系における3次元データD11の位置に基づき、3次元データD11において、実空間におけるアイソセンターに対応する点を特定する。次に、生成機能343は、アイソセンターを通る軸y’を回転軸として、3次元データD11を角度「θ1」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、3次元データD11を角度「θ1」だけ回転させる。 Next, the generation function 343 rotates the generated three-dimensional data D11 by the angle “θ1” as shown in FIG. For example, the generation function 343 identifies a point in the three-dimensional data D11 corresponding to the isocenter in the real space based on the position of the three-dimensional data D11 in the reference coordinate system. Next, the generation function 343 rotates the three-dimensional data D11 by the angle “θ1” with the axis y′ passing through the isocenter as the rotation axis. That is, the generation function 343 rotates the three-dimensional data D11 by the angle “θ1” around the point corresponding to the isocenter.

次に、生成機能343は、図6に示すように、回転後の3次元データD11をXY平面上に投影することで、擬似画像データI13bを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI13bをディスプレイ32に表示させる。ここで、擬似画像データI13bは、上述したように、2次元X線画像データI11における各位置の深度情報を考慮して生成されたものである。このため、擬似画像データI13bは、回転画像データI12を十分に近似した画像となる。ひいては、擬似画像データI13bを参照した操作者は、変更後の撮影角度W12を直感的に理解することができる。 Next, the generation function 343 generates the pseudo image data I13b by projecting the rotated three-dimensional data D11 on the XY plane as shown in FIG. Further, the display control function 344 causes the display 32 to display the pseudo image data I13b generated by the generation function 343. Here, the pseudo image data I13b is generated in consideration of the depth information of each position in the two-dimensional X-ray image data I11 as described above. Therefore, the pseudo image data I13b is an image that is sufficiently approximate to the rotated image data I12. As a result, the operator who refers to the pseudo image data I13b can intuitively understand the changed shooting angle W12.

なお、変更後の撮影角度W12が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。例えば、擬似画像データI13bにおいて検査対象部位に背景成分が重なっている場合、操作者は、より検査対象部位を観察しやすくなるように、再度撮影角度の変更操作を行なう。この場合、生成機能343は、変更後の撮影角度に応じて3次元データD11を回転させ、回転後の3次元データD11を投影することにより、変更後の撮影角度で収集される回転画像データを擬似的に示した擬似画像データを生成する。また、表示制御機能344は、生成された擬似画像データをディスプレイ32に表示させる。 When it is determined that the changed shooting angle W12 is not appropriate, the operator again performs the shooting angle changing operation. For example, in the pseudo image data I13b, when the background component overlaps the inspection target portion, the operator performs the operation of changing the imaging angle again so that the inspection target portion can be observed more easily. In this case, the generation function 343 rotates the three-dimensional data D11 according to the changed shooting angle, and projects the rotated three-dimensional data D11 to obtain the rotation image data collected at the changed shooting angle. The pseudo image data shown in a pseudo manner is generated. Further, the display control function 344 causes the display 32 to display the generated pseudo image data.

一方で、変更後の撮影角度W12が適切であると判断した場合、操作者は、撮影角度W12を撮影条件とする旨の入力操作を行なう。この場合、制御機能345は、撮影角度W12を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。また、収集機能110aは、医用画像処理装置30から受け付けた撮影条件に基づいて、2次元X線画像データの収集を実行する。即ち、収集機能110aは、回転画像データI12の収集を実行する。 On the other hand, when it is determined that the changed shooting angle W12 is appropriate, the operator performs an input operation to set the shooting angle W12 as the shooting condition. In this case, the control function 345 sets the imaging angle W12 as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10. Further, the collection function 110a executes collection of the two-dimensional X-ray image data based on the imaging conditions received from the medical image processing apparatus 30. That is, the collection function 110a executes collection of the rotated image data I12.

例えば、収集機能110aは、まず、医用画像処理装置30から受け付けた撮影条件に基づいて、Cアーム105等の撮影系を配置する。一例を挙げると、収集機能110aは、アイソセンターまわりにCアーム105を角度「θ1」だけ回転させる。次に、収集機能110aは、X線高電圧装置101を制御して、X線管102から被検体Pに対してX線を照射させる。そして、収集機能110aは、X線検出器106から受信した検出信号に基づいて回転画像データI12を生成する。 For example, the collection function 110a first arranges the imaging system such as the C-arm 105 based on the imaging conditions received from the medical image processing apparatus 30. As an example, the collection function 110a rotates the C-arm 105 around the isocenter by an angle “θ1”. Next, the collection function 110a controls the X-ray high-voltage device 101 to irradiate the subject P with X-rays from the X-ray tube 102. Then, the collection function 110a generates the rotation image data I12 based on the detection signal received from the X-ray detector 106.

一例を挙げると、収集機能110aは、被検体Pに対する手技の間、医用画像処理装置30から受け付けた撮影角度をワーキングアングルとして、複数の回転画像データI12を順次収集する。また、表示制御機能110bは、収集された回転画像データI12を順次表示させる。即ち、収集機能110aは、回転画像データI12を透視像として収集する。 For example, the collection function 110a sequentially collects a plurality of pieces of rotation image data I12 during a procedure on the subject P, using the imaging angle received from the medical image processing apparatus 30 as a working angle. Further, the display control function 110b sequentially displays the collected rotation image data I12. That is, the collection function 110a collects the rotation image data I12 as a perspective image.

なお、図6に示した擬似画像データI13bにおいては、2次元X線画像データI11と比較して、部位A1が+X方向にずれるとともに、部位A2が−X方向にずれている。
このため、擬似画像データI13bのうち部位A1の−X方向側に近接する箇所の画素は、2次元X線画像データI11に基づく情報を有していない場合がある。以下、擬似画像データI13bの画素のうち、2次元X線画像データI11に基づく情報を有していない画素を、空白画素と記載する。即ち、擬似画像データI13bにおいては、部位A1の−X方向側に近接する箇所の画素が空白画素となっている場合がある。また、部位A2の+X方向側に近接する箇所の画素も同様に、空白画素となっている場合がある。
In the pseudo image data I13b shown in FIG. 6, the part A1 is displaced in the +X direction and the part A2 is displaced in the −X direction as compared with the two-dimensional X-ray image data I11.
Therefore, in the pseudo image data I13b, the pixel in the portion close to the −X direction side of the part A1 may not have the information based on the two-dimensional X-ray image data I11. Hereinafter, among the pixels of the pseudo image data I13b, the pixels that do not have the information based on the two-dimensional X-ray image data I11 are described as blank pixels. That is, in the pseudo image data I13b, a pixel in a portion adjacent to the part A1 on the −X direction side may be a blank pixel. Similarly, a pixel in a portion close to the part A2 on the +X direction side may be a blank pixel.

そこで、生成機能343は、擬似画像データI13bの空白画素の補完処理を行なうこととしてもよい。例えば、生成機能343は、空白画素の画素値を、擬似画像データI13bにおける背景画素の画素値の平均値により置換することで、空白画素の補完処理を行なう。なお、背景画素とは、例えば、擬似画像データI13bの画素のうち、部位A1の位置の画素、部位A2の位置の画素、及び、空白画素を除く画素である。別の例を挙げると、生成機能343は、空白画素の画素値をプリセット値により置換することで、空白画素の補完処理を行なう。 Therefore, the generation function 343 may perform complement processing of blank pixels of the pseudo image data I13b. For example, the generation function 343 replaces the pixel value of the blank pixel with the average value of the pixel values of the background pixels in the pseudo image data I13b to perform the blank pixel complementing process. The background pixel is, for example, a pixel at the position of the part A1, a pixel at the position of the part A2, and a pixel other than the blank pixel among the pixels of the pseudo image data I13b. As another example, the generation function 343 replaces a pixel value of a blank pixel with a preset value to perform a blank pixel complementing process.

また、図6においては、アイソセンターに対応する点が2次元X線画像データI11上に位置している場合について説明した。即ち、図6においては、軸y’が2次元X線画像データI11を通る場合について説明した。しかしながら、実施形態はこれに限定されるものではない。以下、アイソセンターに対応する点が2次元X線画像データI11上に位置していない場合における擬似画像データの生成処理について説明する。 Further, in FIG. 6, the case has been described in which the point corresponding to the isocenter is located on the two-dimensional X-ray image data I11. That is, in FIG. 6, the case where the axis y′ passes through the two-dimensional X-ray image data I11 has been described. However, the embodiment is not limited to this. The process of generating pseudo image data when the point corresponding to the isocenter is not located on the two-dimensional X-ray image data I11 will be described below.

例えば、アイソセンターに対応する点は、2次元X線画像データI11に対してZ方向にずれている場合がある。この場合、Y軸方向と平行であり且つアイソセンターを通る軸y’は、図7Aに示すように、Z方向から見れば2次元X線画像データI11と重なって見えるものの、Z方向にずれているため、2次元X線画像データI11を通らない。なお、図7Aは、第1の実施形態に係るアイソセンターを通る軸y’を示す図である。 For example, the point corresponding to the isocenter may be displaced in the Z direction with respect to the two-dimensional X-ray image data I11. In this case, the axis y'parallel to the Y-axis direction and passing through the isocenter appears to overlap with the two-dimensional X-ray image data I11 when viewed from the Z direction, but is displaced in the Z direction as shown in FIG. 7A. Therefore, it does not pass through the two-dimensional X-ray image data I11. Note that FIG. 7A is a diagram showing an axis y′ passing through the isocenter according to the first embodiment.

この場合、付加機能342は、まず、図7Bに示すように、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成する。例えば、付加機能342は、3次元X線画像データV11に基づいて2次元X線画像データI11における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI11の各位置に付加することで3次元データD11を生成する。なお、図7Bは、第1の実施形態に係る擬似画像データの生成処理の一例を示す図である。図7Bにおいては、アイソセンターに対応する点が3次元データD11の外部領域に位置しているものとして説明する。即ち、図7Bにおいては、軸y’が3次元データD11を通らないものとして説明する。 In this case, the additional function 342 first generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11, as shown in FIG. 7B. For example, the additional function 342 estimates depth information at each position in the two-dimensional X-ray image data I11 based on the three-dimensional X-ray image data V11, and the estimated depth information is set at each position in the two-dimensional X-ray image data I11. Three-dimensional data D11 is generated by adding. Note that FIG. 7B is a diagram showing an example of the pseudo image data generation process according to the first embodiment. In FIG. 7B, it is assumed that the point corresponding to the isocenter is located in the external area of the three-dimensional data D11. That is, in FIG. 7B, it is assumed that the axis y′ does not pass through the three-dimensional data D11.

次に、生成機能343は、図7Bに示すように、生成した3次元データD11を角度「θ1」だけ回転させる。例えば、生成機能343は、基準座標系における3次元データD11の位置に基づき、3次元データD11において、実空間におけるアイソセンターに対応する点を特定する。次に、生成機能343は、アイソセンターを通る軸y’を回転軸として、3次元データD11を角度「θ1」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、3次元データD11を角度「θ1」だけ回転させる。なお、アイソセンターに対応する点が3次元データD11の外部領域に位置している場合においては、アイソセンターに対応する点まわりに3次元データD11を回転させる際、3次元データD11は、アイソセンターに対応する点を中心とする円軌道に沿って移動することとなる。 Next, the generation function 343 rotates the generated three-dimensional data D11 by the angle “θ1” as shown in FIG. 7B. For example, the generation function 343 identifies a point in the three-dimensional data D11 corresponding to the isocenter in the real space based on the position of the three-dimensional data D11 in the reference coordinate system. Next, the generation function 343 rotates the three-dimensional data D11 by the angle “θ1” with the axis y′ passing through the isocenter as the rotation axis. That is, the generation function 343 rotates the three-dimensional data D11 by the angle “θ1” around the point corresponding to the isocenter. In addition, when the point corresponding to the isocenter is located in the external area of the three-dimensional data D11, when the three-dimensional data D11 is rotated around the point corresponding to the isocenter, the three-dimensional data D11 becomes the isocenter. It will move along a circular orbit centered on the point corresponding to.

次に、生成機能343は、図7Bに示すように、回転後の3次元データD11をXY平面上に投影することで、擬似画像データI13cを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI13cをディスプレイ32に表示させる。ここで、擬似画像データI13cは、上述したように、2次元X線画像データI11における各位置の深度情報を考慮して生成されたものである。このため、擬似画像データI13cは、回転画像データI12を十分に近似した画像となる。ひいては、擬似画像データI13cを参照した操作者は、変更後の撮影角度W12を直感的に理解し、変更後の撮影角度W12が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W12が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。また、変更後の撮影角度W12が適切であると判断した場合、操作者は、撮影角度W12を撮影条件とする旨の入力操作を行なう。 Next, the generation function 343 generates the pseudo image data I13c by projecting the rotated three-dimensional data D11 on the XY plane as shown in FIG. 7B. Further, the display control function 344 causes the display 32 to display the pseudo image data I13c generated by the generation function 343. Here, the pseudo image data I13c is generated in consideration of the depth information of each position in the two-dimensional X-ray image data I11 as described above. Therefore, the pseudo image data I13c is an image that is sufficiently approximate to the rotated image data I12. As a result, the operator who refers to the pseudo image data I13c can intuitively understand the changed shooting angle W12 and easily determine whether the changed shooting angle W12 is appropriate. For example, when it is determined that the changed shooting angle W12 is not appropriate, the operator performs the shooting angle changing operation again. Further, when it is determined that the changed shooting angle W12 is appropriate, the operator performs an input operation to set the shooting angle W12 as the shooting condition.

なお、図7Bに示したように、アイソセンターに対応する点まわりに3次元データD11を回転させる際、3次元データD11は、アイソセンターに対応する点を中心とする円軌道に沿って+X方向に移動する。このため、擬似画像データI13cにおいては、2次元X線画像データI11と比較して、部位A1や部位A2等の各部位が全体的に+X方向に移動している。ここで、擬似画像データI13cのうち−X方向側の端部の画素は、2次元X線画像データI11に基づく情報を有していない場合がある。即ち、擬似画像データI13cにおいては、−X方向側の端部の画素が空白画素となっている場合がある。そこで、生成機能343は、擬似画像データI13cの空白画素の補完処理を行なうこととしてもよい。例えば、生成機能343は、空白画素の画素値を、擬似画像データI13cにおける背景画素の画素値の平均値や、プリセット値により置換することで、空白画素の補完処理を行なう。 As shown in FIG. 7B, when the three-dimensional data D11 is rotated around the point corresponding to the isocenter, the three-dimensional data D11 is generated in the +X direction along the circular orbit centered on the point corresponding to the isocenter. Move to. Therefore, in the pseudo image data I13c, as compared with the two-dimensional X-ray image data I11, each site such as the site A1 and the site A2 is moved in the +X direction as a whole. Here, in the pseudo image data I13c, the pixel at the end on the −X direction side may not have information based on the two-dimensional X-ray image data I11. That is, in the pseudo image data I13c, the pixel at the end on the −X direction side may be a blank pixel. Therefore, the generation function 343 may perform complement processing of blank pixels of the pseudo image data I13c. For example, the generation function 343 replaces the pixel value of the blank pixel with the average value of the pixel values of the background pixels in the pseudo image data I13c or a preset value to perform the blank pixel complementing process.

なお、図6及び図7Bにおいては、説明の便宜のため、3次元データD11を3次元画像データとして示したが、実施形態はこれに限定されるものではない。例えば、3次元データD11は、2次元X線画像データI11における各画素に深度情報を付帯させたデータであってもよい。即ち、3次元データD11は、2次元画像データであってもよい。この場合、生成機能343は、軸y’を回転軸として3次元データD11を角度「θ1」だけ回転させ、回転後の3次元データD11をXY平面上に投影する。この際、生成機能343は、付帯する深度情報に応じて投影方向を画素ごとにシフトさせる。これにより、生成機能343は、2次元X線画像データI11における各位置の深度情報を考慮した擬似画像データを生成することができる。 Note that, in FIGS. 6 and 7B, the three-dimensional data D11 is shown as three-dimensional image data for convenience of description, but the embodiment is not limited to this. For example, the three-dimensional data D11 may be data in which depth information is attached to each pixel in the two-dimensional X-ray image data I11. That is, the three-dimensional data D11 may be two-dimensional image data. In this case, the generation function 343 rotates the three-dimensional data D11 by the angle “θ1” with the axis y′ as the rotation axis, and projects the rotated three-dimensional data D11 on the XY plane. At this time, the generation function 343 shifts the projection direction for each pixel according to the accompanying depth information. Thereby, the generation function 343 can generate the pseudo image data in consideration of the depth information of each position in the two-dimensional X-ray image data I11.

また、これまで、3次元X線画像データV11等の3次元画像データに基づいて、2次元X線画像データI11における各位置の深度情報を推定する場合について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、付加機能342は、2次元X線画像データI11における各位置について、画素値に基づいて深度情報を推定してもよい。 Further, the case where the depth information of each position in the two-dimensional X-ray image data I11 is estimated based on the three-dimensional image data such as the three-dimensional X-ray image data V11 has been described. However, the embodiment is not limited to this. For example, the additional function 342 may estimate the depth information based on the pixel value for each position in the two-dimensional X-ray image data I11.

ここで、画素値に基づく深度情報の推定について、図8を用いて説明する。図8は、第1の実施形態に係る2次元X線画像データI11aを示す図である。図8に示す2次元X線画像データI11aは、被検体Pの右股関節における動脈を造影した血管画像であり、2次元X線画像データI11の一例である。 Here, the estimation of the depth information based on the pixel value will be described with reference to FIG. FIG. 8 is a diagram showing the two-dimensional X-ray image data I11a according to the first embodiment. The two-dimensional X-ray image data I11a illustrated in FIG. 8 is a blood vessel image in which an artery in the right hip joint of the subject P is imaged, and is an example of the two-dimensional X-ray image data I11.

図8に示すように、2次元X線画像データI11aにおいては、造影された血管を示す画素は低い画素値を有し、血管以外の背景画素(骨など)は高い画素値を有する。即ち、2次元X線画像データI11aにおいては、血管を示す画素は黒に近い色を有し、背景画素は白に近い色を有する。例えば、付加機能342は、2次元X線画像データI11aにおける各画素の画素値が閾値を超えるか否かに応じて、各画素を、血管を示す画素と背景画素とに分離する。ここで、股関節における動脈(大腿動脈等)は、股関節を構成する骨に対して、被検体Pの前方に位置することが知られている。そこで、付加機能342は、2次元X線画像データI11において、血管を示す画素が背景画素よりも前方(即ち、+Z方向)に位置することを示すように、2次元X線画像データI11における各位置の深度情報を推定する。即ち、付加機能342は、2次元X線画像データI11における各位置について、画素値に基づいて血管を示す画素か背景画素かを判定し、判定の結果に応じて深度情報を推定する。 As shown in FIG. 8, in the two-dimensional X-ray image data I11a, the pixel indicating the contrasted blood vessel has a low pixel value, and the background pixels other than the blood vessel (bone or the like) have a high pixel value. That is, in the two-dimensional X-ray image data I11a, the pixel indicating the blood vessel has a color close to black, and the background pixel has a color close to white. For example, the additional function 342 separates each pixel into a pixel indicating a blood vessel and a background pixel according to whether or not the pixel value of each pixel in the two-dimensional X-ray image data I11a exceeds a threshold value. Here, it is known that an artery (a femoral artery or the like) in the hip joint is located in front of the subject P with respect to the bones forming the hip joint. Therefore, the additional function 342 determines that each pixel in the two-dimensional X-ray image data I11 is located in front of the background pixel (that is, in the +Z direction) in the two-dimensional X-ray image data I11. Estimate position depth information. That is, the additional function 342 determines, for each position in the two-dimensional X-ray image data I11, whether it is a pixel indicating a blood vessel or a background pixel based on the pixel value, and estimates depth information according to the determination result.

また、これまで、2次元X線画像データI11がLIHであるものとして説明したが、実施形態はこれに限定されるものではない。例えば、2次元X線画像データI11は、LIH以外の透視像であってもよいし、透視像以外の2次元X線画像データであってもよい。例えば、X線診断装置10は、撮影条件の設定段階において2次元X線画像データを1つだけ収集し、取得機能341は、収集された2次元X線画像データを、2次元X線画像データI11として取得してもよい。 Further, although the description has so far been made assuming that the two-dimensional X-ray image data I11 is LIH, the embodiment is not limited to this. For example, the two-dimensional X-ray image data I11 may be a fluoroscopic image other than the LIH or may be two-dimensional X-ray image data other than the fluoroscopic image. For example, the X-ray diagnostic apparatus 10 collects only one piece of the two-dimensional X-ray image data at the stage of setting the imaging conditions, and the acquisition function 341 uses the collected two-dimensional X-ray image data as the two-dimensional X-ray image data. It may be acquired as I11.

次に、医用画像処理装置30による処理の手順の一例を、図9を用いて説明する。図9は、第1の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS101は、取得機能341に対応するステップである。ステップS107は、付加機能342に対応するステップである。ステップS109は、生成機能343に対応するステップである。ステップS103及びステップS110は、表示制御機能344に対応するステップである。ステップS102、ステップS104、ステップS105、ステップS106、ステップS108、ステップS111及びステップS112は、制御機能345に対応するステップである。 Next, an example of a processing procedure by the medical image processing apparatus 30 will be described with reference to FIG. FIG. 9 is a flowchart for explaining a series of processing flows of the medical image processing apparatus 30 according to the first embodiment. Step S101 is a step corresponding to the acquisition function 341. Step S107 is a step corresponding to the additional function 342. Step S109 is a step corresponding to the generation function 343. Steps S103 and S110 are steps corresponding to the display control function 344. Step S102, step S104, step S105, step S106, step S108, step S111, and step S112 are steps corresponding to the control function 345.

まず、処理回路34は、X線診断装置10から、2次元X線画像データI11を取得する(ステップS101)。次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影位置を変更するか否かを判定する(ステップS102)。即ち、処理回路34は、2次元X線画像データI11の撮影位置をそのまま撮影条件として用いるか否かを判定する。ここで、撮影位置を変更する場合(ステップS102肯定)、処理回路34は、2次元X線画像データI11、及び、撮影位置を示すROIをディスプレイ32に表示させる(ステップS103)。次に、処理回路34は、操作者から、2次元X線画像データI11上のROIを調整する操作を受け付ける(ステップS104)。 First, the processing circuit 34 acquires the two-dimensional X-ray image data I11 from the X-ray diagnostic apparatus 10 (step S101). Next, the processing circuit 34 determines whether or not to change the photographing position by receiving an input operation from the operator (step S102). That is, the processing circuit 34 determines whether or not the imaging position of the two-dimensional X-ray image data I11 is used as it is as the imaging condition. Here, when changing the imaging position (Yes at Step S102), the processing circuit 34 displays the two-dimensional X-ray image data I11 and the ROI indicating the imaging position on the display 32 (Step S103). Next, the processing circuit 34 receives an operation of adjusting the ROI on the two-dimensional X-ray image data I11 from the operator (step S104).

次に、処理回路34は、撮影位置の変更操作を終了するか否かを判定する(ステップS105)。ここで、撮影位置の変更操作を終了しない場合(ステップS105否定)、処理回路34は、再度ステップS103に移行する。一方で、撮影位置の変更操作を終了する場合(ステップS105肯定)、処理回路34は、調整後のROIに応じた撮影位置を撮影条件として設定する。なお、撮影位置を変更しない場合(ステップS102否定)、処理回路34は、2次元X線画像データI11の撮影位置をそのまま撮影条件として設定する。 Next, the processing circuit 34 determines whether or not to end the operation of changing the shooting position (step S105). Here, when the operation of changing the photographing position is not finished (No at Step S105), the processing circuit 34 proceeds to Step S103 again. On the other hand, when the operation of changing the shooting position is finished (Yes at Step S105), the processing circuit 34 sets the shooting position according to the adjusted ROI as the shooting condition. When the imaging position is not changed (No at Step S102), the processing circuit 34 sets the imaging position of the two-dimensional X-ray image data I11 as it is as the imaging condition.

次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影角度を変更するか否かを判定する(ステップS106)。即ち、処理回路34は、2次元X線画像データI11の撮影角度をそのまま撮影条件として用いるか否かを判定する。ここで、撮影角度を変更する場合(ステップS106肯定)、処理回路34は、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成し(ステップS107)、撮影角度の変更操作を受け付ける(ステップS108)。次に、処理回路34は、3次元データD11を投影することにより、変更後の撮影角度で収集される回転画像データを擬似的に示した擬似画像データを生成する(ステップS109)。次に、処理回路34は、生成した擬似画像データをディスプレイ32に表示させる(ステップS110)。 Next, the processing circuit 34 determines whether or not to change the photographing angle by accepting an input operation from the operator (step S106). That is, the processing circuit 34 determines whether or not the imaging angle of the two-dimensional X-ray image data I11 is used as the imaging condition as it is. Here, when the imaging angle is changed (Yes at Step S106), the processing circuit 34 generates the three-dimensional data D11 to which the depth information is added for each position in the two-dimensional X-ray image data I11 (Step S107), and the imaging angle. Is accepted (step S108). Next, the processing circuit 34 projects the three-dimensional data D11 to generate pseudo image data that pseudo-shows the rotation image data collected at the changed shooting angle (step S109). Next, the processing circuit 34 displays the generated pseudo image data on the display 32 (step S110).

ここで、処理回路34は、撮影角度の変更操作を終了するか否かを判定する(ステップS111)。ここで、撮影角度の変更操作を終了しない場合(ステップS111否定)、処理回路34は、再度ステップS108に移行する。即ち、処理回路34は、操作者から撮影角度の変更操作を受け付けるごとに、入力された撮影角度に応じた擬似画像データを生成してディスプレイ32に表示させる。 Here, the processing circuit 34 determines whether or not to end the changing operation of the photographing angle (step S111). Here, when the operation of changing the shooting angle is not finished (No at Step S111), the processing circuit 34 proceeds to Step S108 again. That is, the processing circuit 34 generates pseudo image data according to the input shooting angle and displays the pseudo image data on the display 32 each time the operation for changing the shooting angle is received from the operator.

一方で、撮影角度の変更操作を終了する場合(ステップS111肯定)、処理回路34は、変更後の撮影角度を撮影条件として設定する。なお、撮影角度を変更しない場合(ステップS106否定)、処理回路34は、2次元X線画像データI11の撮影角度をそのまま撮影条件として設定する。そして、処理回路34は、撮影条件として設定した撮影位置及び撮影角度をX線診断装置10に対して送信し(ステップS112)、処理を終了する。 On the other hand, when the changing operation of the photographing angle is finished (Yes at Step S111), the processing circuit 34 sets the changed photographing angle as the photographing condition. When the imaging angle is not changed (No at Step S106), the processing circuit 34 sets the imaging angle of the two-dimensional X-ray image data I11 as it is as the imaging condition. Then, the processing circuit 34 transmits the imaging position and the imaging angle set as the imaging conditions to the X-ray diagnostic apparatus 10 (step S112), and ends the processing.

なお、図9においては、撮影位置を設定した後に撮影角度を設定するものとして説明したが、実施形態はこれに限定されるものではない。例えば、処理回路34は、撮影角度を設定した後に撮影位置を設定してもよい。また、撮影位置の設定及び撮影角度の設定は、繰り返し行われてもよい。例えば、処理回路34は、2次元X線画像データI11及び撮影位置を示すROIに基づいて撮影位置の設定を行なった後、擬似画像データに基づいて撮影角度を設定し、更に、擬似画像データ及び撮影位置を示すROIに基づいて撮影位置の再設定を行なってもよい。また、3次元データD11の生成(ステップS107)と、撮影角度の変更操作の受け付け(ステップS108)とを行なう順序は任意であり、並行して行なってもよい。 In addition, in FIG. 9, it is described that the photographing angle is set after the photographing position is set, but the embodiment is not limited to this. For example, the processing circuit 34 may set the shooting position after setting the shooting angle. Further, the setting of the shooting position and the setting of the shooting angle may be repeated. For example, the processing circuit 34 sets the imaging position based on the two-dimensional X-ray image data I11 and the ROI indicating the imaging position, then sets the imaging angle based on the pseudo image data, and further sets the pseudo image data and The shooting position may be reset based on the ROI indicating the shooting position. Further, the order of generating the three-dimensional data D11 (step S107) and accepting the operation of changing the photographing angle (step S108) is arbitrary, and may be performed in parallel.

上述したように、第1の実施形態によれば、取得機能341は、2次元X線画像データI11を取得する。また、付加機能342は、2次元X線画像データI11における各位置について深度情報を付加した3次元データD11を生成する。また、生成機能343は、3次元データD11を投影することにより、2次元X線画像データI11と異なる撮影角度で収集される回転画像データを擬似的に示した擬似画像データを生成する。従って、第1の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影条件の設定を容易にすることができる。即ち、医用画像処理装置30は、透視像の追加収集を行なわずとも、擬似画像データによって変更後の撮影角度を直感的に理解することを可能とし、撮影角度の設定を容易にすることができる。 As described above, according to the first embodiment, the acquisition function 341 acquires the two-dimensional X-ray image data I11. Further, the additional function 342 generates three-dimensional data D11 to which depth information is added for each position in the two-dimensional X-ray image data I11. In addition, the generation function 343 generates pseudo image data that is a pseudo representation of the rotational image data acquired at a different imaging angle from the two-dimensional X-ray image data I11 by projecting the three-dimensional data D11. Therefore, the medical image processing apparatus 30 according to the first embodiment can easily set the imaging conditions while reducing the exposure dose. That is, the medical image processing apparatus 30 makes it possible to intuitively understand the changed shooting angle from the pseudo image data without additionally collecting the fluoroscopic image, and can easily set the shooting angle. ..

また、上述したように、生成機能343は、3次元データD11を投影することにより、擬似画像データを生成する。このため、生成機能343は、擬似画像データにおいて、画像の歪みを抑制することができる。例えば、深度情報に応じて2次元X線画像データI11を変形させる場合、2次元X線画像データI11上の部位が変形してしまったり、部位の変形に引きずられて背景が歪んでしまったりする。これに対して、擬似画像データは投影によって生成されるものであるため、このような画像の歪みは生じない。即ち、生成機能343は、3次元データD11を投影することにより、擬似画像データにおいて画像の歪みを抑制することができる。 Moreover, as described above, the generation function 343 generates the pseudo image data by projecting the three-dimensional data D11. Therefore, the generation function 343 can suppress image distortion in the pseudo image data. For example, when the two-dimensional X-ray image data I11 is deformed according to the depth information, a part on the two-dimensional X-ray image data I11 may be deformed or the background may be distorted due to the deformation of the part. .. On the other hand, since the pseudo image data is generated by projection, such image distortion does not occur. That is, the generation function 343 can suppress image distortion in the pseudo image data by projecting the three-dimensional data D11.

(第2の実施形態)
上述した第1の実施形態では、被検体Pについて収集された3次元画像データ又は画素値に基づいて、2次元X線画像データにおける各位置の深度情報を推定する場合について説明した。これに対し、第2の実施形態では、深度情報を推定するように機能付けられた学習済みモデルを用いて、2次元X線画像データにおける各位置の深度情報を推定する場合について説明する。
(Second embodiment)
In the above-described first embodiment, the case has been described in which the depth information of each position in the two-dimensional X-ray image data is estimated based on the three-dimensional image data or the pixel value collected for the subject P. On the other hand, in the second embodiment, a case will be described in which the depth information of each position in the two-dimensional X-ray image data is estimated using a learned model that is functionalized to estimate the depth information.

第2の実施形態に係る医用情報処理システム1は、図1〜図2に示した第1の実施形態に係る医用情報処理システム1と比較して、医用画像処理装置30がモデル記憶回路35を更に有するとともに、処理回路34がモデル生成機能346を更に有する点で相違する。例えば、第2の実施形態に係る医用画像処理装置30は、図10に示すように、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34と、モデル記憶回路35とを有する。また、第2の実施形態に係る処理回路34は、取得機能341、付加機能342、生成機能343、表示制御機能344及び制御機能345に加えて、モデル生成機能346を更に実行する。なお、図10は、第2の実施形態に係る医用画像処理装置30の構成の一例を示すブロック図である。以下、第1の実施形態において説明した構成と同様の構成を有する点については図1〜図2と同一の符号を付し、説明を省略する。 In the medical information processing system 1 according to the second embodiment, as compared with the medical information processing system 1 according to the first embodiment shown in FIGS. 1 and 2, the medical image processing apparatus 30 includes a model storage circuit 35. The difference is that the processing circuit 34 further includes a model generation function 346. For example, the medical image processing apparatus 30 according to the second embodiment has an input interface 31, a display 32, a storage circuit 33, a processing circuit 34, and a model storage circuit 35, as shown in FIG. The processing circuit 34 according to the second embodiment further executes the model generation function 346 in addition to the acquisition function 341, the additional function 342, the generation function 343, the display control function 344, and the control function 345. Note that FIG. 10 is a block diagram showing an example of the configuration of the medical image processing apparatus 30 according to the second embodiment. Hereinafter, points having the same configurations as those described in the first embodiment will be assigned the same reference numerals as those in FIGS. 1 and 2, and description thereof will be omitted.

まず、モデル生成機能346は、深度情報を推定するように機能付けられた学習済みモデルを生成して、モデル記憶回路35に記憶させる。例えば、モデル生成機能346は、図11に示すように、第1画像データと第2画像データとを用いて学習済みモデルM1を生成し、モデル記憶回路35に記憶させる。なお、図11は、第2の実施形態に係る学習済みモデルM1の生成処理について説明するための図である。 First, the model generation function 346 generates a learned model that is functionalized to estimate the depth information and stores it in the model storage circuit 35. For example, as shown in FIG. 11, the model generation function 346 generates the learned model M1 using the first image data and the second image data, and stores the learned model M1 in the model storage circuit 35. Note that FIG. 11 is a diagram for explaining the generation process of the learned model M1 according to the second embodiment.

図11に示す第1画像データは、2次元で収集されたX線画像データである。第1画像データは、被検体Pから収集されたX線画像データであってもよいし、他の被検体から収集されたX線画像データであってもよい。また、第1画像データは、X線診断装置10によって収集されたX線画像データであってもよいし、他の装置によって収集されたX線画像データであってもよい。一例を挙げると、第1画像データは、図3に示した2次元X線画像データI11である。また、図11に示す第2画像データは、第1画像データにおける各位置について深度情報を付加したデータである。例えば、取得機能341は、まず、X線診断装置10によって収集された2次元X線画像データを第1画像データとして取得する。次に、付加機能342は、第1画像データにおける各位置について深度情報を付加することにより、第2画像データを生成する。 The first image data shown in FIG. 11 is X-ray image data acquired in two dimensions. The first image data may be X-ray image data collected from the subject P or may be X-ray image data collected from another subject. Further, the first image data may be X-ray image data collected by the X-ray diagnostic apparatus 10 or may be X-ray image data collected by another apparatus. As an example, the first image data is the two-dimensional X-ray image data I11 shown in FIG. The second image data shown in FIG. 11 is data in which depth information is added to each position in the first image data. For example, the acquisition function 341 first acquires the two-dimensional X-ray image data acquired by the X-ray diagnostic apparatus 10 as the first image data. Next, the additional function 342 generates the second image data by adding the depth information to each position in the first image data.

一例を挙げると、付加機能342は、操作者から、第1画像データの各位置に深度情報を付加する操作を受け付けることにより、第2画像データを生成する。例えば、まず、表示制御機能344は、第1画像データをディスプレイ32に表示させる。次に、付加機能342は、操作者から、第1画像データの各位置に深度情報を付加する操作を受け付ける。なお、付加機能342は、第1画像データの全画素について深度情報を付加する操作を受け付けてもよいし、一部の画素についてのみ深度情報を付加する操作を受け付けてもよい。一部の画素についてのみ深度情報が付加された場合、付加機能342は、例えば、深度情報が付加されなかった画素を背景画素とし、背景画素についてはプリセットされた深度情報を付加する。 For example, the additional function 342 generates the second image data by receiving an operation of adding depth information to each position of the first image data from the operator. For example, first, the display control function 344 causes the display 32 to display the first image data. Next, the additional function 342 receives an operation from the operator to add depth information to each position of the first image data. Note that the addition function 342 may receive an operation of adding depth information to all pixels of the first image data, or may receive an operation of adding depth information to only some pixels. When the depth information is added only to some of the pixels, the addition function 342 sets, for example, a pixel to which the depth information is not added as a background pixel, and adds preset depth information to the background pixel.

別の例を挙げると、付加機能342は、付加機能342は、第1画像データと同じ被検体について収集された3次元画像データに基づいて、第1画像データにおける各位置について深度情報を推定し、推定した深度情報を第1画像データの各位置に付加することで第2画像データを生成する。例えば、取得機能341は、第1画像データを取得した後、ネットワークNWを介して、画像保管装置20から第1画像データと同じ被検体について収集された3次元画像データ(CT画像データ、MR画像データ、3次元X線画像データ等)を取得する。次に、付加機能342は、第1画像データと3次元画像データとを位置合わせすることで、第1画像データにおける各位置について深度情報を推定する。そして、付加機能342は、推定した深度情報を第1画像データの各位置に付加することで、第2画像データを生成する。 As another example, the additional function 342 estimates the depth information for each position in the first image data based on the three-dimensional image data collected for the same subject as the first image data. The second image data is generated by adding the estimated depth information to each position of the first image data. For example, the acquisition function 341 acquires the first image data, and then acquires the three-dimensional image data (CT image data, MR image) of the same subject as the first image data from the image storage device 20 via the network NW. Data, three-dimensional X-ray image data, etc.). Next, the additional function 342 estimates the depth information for each position in the first image data by aligning the first image data and the three-dimensional image data. Then, the addition function 342 generates the second image data by adding the estimated depth information to each position of the first image data.

次に、モデル生成機能346は、第1画像データと第2画像データとを用いて、深度情報を推定する学習済みモデルM1を生成する。例えば、モデル生成機能346は、図11に示すように、第1画像データを入力側データとし、第2画像データを出力側データとする機械学習により、学習済みモデルM1を生成する。即ち、モデル生成機能346は、第2画像データの各位置に付加されている深度情報を正解出力とする教師付き学習により、深度情報を推定する学習済みモデルM1を生成する。 Next, the model generation function 346 uses the first image data and the second image data to generate a learned model M1 for estimating depth information. For example, as shown in FIG. 11, the model generation function 346 generates the learned model M1 by machine learning using the first image data as the input side data and the second image data as the output side data. That is, the model generation function 346 generates the learned model M1 that estimates the depth information by supervised learning that outputs the depth information added to each position of the second image data as a correct answer.

図11に示す学習済みモデルM1は、例えば、ニューラルネットワーク(Neural Network)により構成することができる。ニューラルネットワークとは、層状に並べた隣接層間が結合した構造を有し、情報が入力層側から出力層側に伝播するネットワークである。例えば、モデル生成機能346によって入力側データ(第1画像データ)が入力された場合、ニューラルネットワークにおいては、入力層側から出力層側に向かって一方向に、隣接層間でのみ結合しながら情報が伝播する。このようなニューラルネットワークは、パラメータに応じて変化する関数として表現することができる。 The learned model M1 shown in FIG. 11 can be configured by, for example, a neural network. A neural network is a network that has a structure in which adjacent layers arranged in layers are connected and information propagates from the input layer side to the output layer side. For example, when the input side data (first image data) is input by the model generation function 346, in the neural network, the information is combined in one direction from the input layer side to the output layer side while connecting only between the adjacent layers. Propagate. Such a neural network can be expressed as a function that changes according to parameters.

例えば、モデル生成機能346は、第1画像データ及び第2画像データを学習データとし、多層のニューラルネットワークについて深層学習(ディープラーニング)を実行することで、学習済みモデルM1を生成する。なお、多層のニューラルネットワークは、例えば、入力層と、複数の中間層と、出力層とにより構成される。 For example, the model generation function 346 uses the first image data and the second image data as learning data and executes deep learning on a multilayer neural network to generate the learned model M1. The multilayer neural network is composed of, for example, an input layer, a plurality of intermediate layers, and an output layer.

例えば、モデル生成機能346は、第1画像データを入力した際にニューラルネットワークが好ましい結果を出力することができるように、ニューラルネットワークのパラメータを調整する。例えば、モデル生成機能346は、第1画像データを入力した際のニューラルネットワークからの出力と、出力側データ(第2画像データ)との近さを表す関数(誤差関数)を用いて、ニューラルネットワークのパラメータを調整する。一例を挙げると、モデル生成機能346は、パラメータを変化させながら誤差関数を繰り返し算出して、誤差関数が極小となるようにパラメータを調整する。即ち、モデル生成機能346は、誤差関数が極小となるように、ニューラルネットワークを学習させる。これにより、モデル生成機能346は、深度情報を推定する学習済みモデルM1を生成することができる。 For example, the model generation function 346 adjusts the parameters of the neural network so that the neural network can output a preferable result when the first image data is input. For example, the model generation function 346 uses the function (error function) representing the closeness between the output from the neural network when the first image data is input and the output side data (second image data), and uses the function of the neural network. Adjust the parameters of. As an example, the model generation function 346 repeatedly calculates the error function while changing the parameter and adjusts the parameter so that the error function becomes a minimum. That is, the model generation function 346 trains the neural network so that the error function becomes a minimum. Accordingly, the model generation function 346 can generate the learned model M1 that estimates the depth information.

なお、図11においては、第1画像データを入力側データとし、第2画像データを出力側データとする場合について説明したが、実施形態はこれに限定されるものではない。例えば、モデル生成機能346は、入力側データとして、第1画像データに基づくデータを用いてもよい。一例を挙げると、モデル生成機能346は、第1画像データに対する前処理(例えば、入力側データの画素数を揃えるためのリサイズ処理、空間フィルタやコンボリューションフィルタを用いた画像処理等)を実行し、前処理後の画像データを入力側データとして、学習済みモデルM1の生成処理を実行する。また、例えば、モデル生成機能346は、出力側データとして、第2画像データに基づくデータを用いてもよい。一例を挙げると、モデル生成機能346は、第2画像データから深度情報を抽出し、抽出した深度情報を出力側データとして、学習済みモデルM1の生成処理を実行する。 In addition, in FIG. 11, the case where the first image data is the input side data and the second image data is the output side data has been described, but the embodiment is not limited to this. For example, the model generation function 346 may use data based on the first image data as the input side data. As an example, the model generation function 346 executes pre-processing on the first image data (for example, resizing processing for making the number of pixels of input side data uniform, image processing using a spatial filter or convolution filter, etc.). The generation process of the learned model M1 is executed by using the preprocessed image data as the input side data. Further, for example, the model generation function 346 may use data based on the second image data as the output side data. As an example, the model generation function 346 extracts depth information from the second image data, and executes the generation process of the learned model M1 using the extracted depth information as output side data.

また、学習済みモデルM1がニューラルネットワークにより構成されるものとして説明したが、実施形態はこれに限定されるものではない。即ち、モデル生成機能346は、ニューラルネットワーク以外の機械学習手法により、学習済みモデルM1を生成してもよい。例えば、モデル生成機能346は、SVM(サポートベクターマシン)等のデータの分類を行う機械学習手法によって、深度情報を推定する学習済みモデルM1を生成してもよい。一例を挙げると、モデル生成機能346は、第1画像データを入力側データとし、分類先のクラスを深度情報の数値範囲とする。そして、モデル生成機能346は、第2画像データが示す深度情報が分類先のクラスに含まれるよう学習させることで、学習済みモデルM1を生成する。 Further, although the learned model M1 is described as being configured by a neural network, the embodiment is not limited to this. That is, the model generation function 346 may generate the learned model M1 by a machine learning method other than the neural network. For example, the model generation function 346 may generate the learned model M1 that estimates the depth information by a machine learning method that classifies data such as SVM (Support Vector Machine). As an example, the model generation function 346 sets the first image data as the input side data and sets the class of the classification destination as the numerical value range of the depth information. Then, the model generation function 346 generates the learned model M1 by performing learning so that the depth information indicated by the second image data is included in the class of the classification destination.

モデル生成機能346が学習済みモデルM1をモデル記憶回路35に記憶させた後、取得機能341は、X線診断装置10から被検体Pの2次元X線画像データを取得する。以下、取得機能341が取得した2次元X線画像データの例として、2次元X線画像データI21について説明する。2次元X線画像データI21は、例えば、LIHである。 After the model generation function 346 stores the learned model M1 in the model storage circuit 35, the acquisition function 341 acquires the two-dimensional X-ray image data of the subject P from the X-ray diagnostic apparatus 10. The two-dimensional X-ray image data I21 will be described below as an example of the two-dimensional X-ray image data acquired by the acquisition function 341. The two-dimensional X-ray image data I21 is, for example, LIH.

次に、表示制御機能344は、2次元X線画像データI21をディスプレイ32に表示させる。ここで、2次元X線画像データI21を参照した操作者は、入力インターフェース31を介して、撮影角度の変更操作を入力することができる。なお、以下では、2次元X線画像データI21の撮影角度を、撮影角度W21と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W22と記載する。例えば、変更後の撮影角度W22は、撮影角度W21から角度「θ2」だけ変更された角度である。また、以下では、撮影角度W22で収集されるX線画像データを、回転画像データI22と記載する。 Next, the display control function 344 causes the display 32 to display the two-dimensional X-ray image data I21. Here, the operator who has referred to the two-dimensional X-ray image data I21 can input an operation for changing the imaging angle via the input interface 31. In addition, below, the imaging angle of the two-dimensional X-ray image data I21 is described as the imaging angle W21. In the following, the shooting angle after being changed by the operator will be referred to as a shooting angle W22. For example, the changed shooting angle W22 is an angle obtained by changing the shooting angle W21 by the angle “θ2”. Further, hereinafter, the X-ray image data acquired at the imaging angle W22 will be referred to as rotated image data I22.

また、付加機能342は、2次元X線画像データI21における各位置について深度情報を付加した3次元データD21を生成する。例えば、付加機能342は、図12に示すように、2次元X線画像データI21を学習済みモデルM1に入力することで2次元X線画像データI21における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データI21の各位置に付加することで、3次元データD21を生成する。なお、図12は、第2の実施形態に係る学習済みモデルM1を用いた処理について説明するための図である。3次元データD21の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。 Further, the additional function 342 generates the three-dimensional data D21 to which the depth information is added for each position in the two-dimensional X-ray image data I21. For example, as shown in FIG. 12, the additional function 342 inputs the two-dimensional X-ray image data I21 into the learned model M1 to estimate the depth information at each position in the two-dimensional X-ray image data I21, and causes the depth information to be estimated. The depth information is added to each position of the two-dimensional X-ray image data I21 to generate the three-dimensional data D21. Note that FIG. 12 is a diagram for explaining processing using the learned model M1 according to the second embodiment. The three-dimensional data D21 may be generated before the operator changes the shooting angle or after the operator changes the shooting angle.

次に、生成機能343は、3次元データD21を投影することにより、回転画像データI22を擬似的に示した擬似画像データI23を生成する。また、表示制御機能344は、生成された擬似画像データI23をディスプレイ32に表示させる。ここで、擬似画像データI23は、2次元X線画像データI21における各位置の深度情報を考慮して生成されたものであり、回転画像データI22を十分に近似した画像となる。従って、擬似画像データI23を参照した操作者は、変更後の撮影角度W22を直感的に理解し、変更後の撮影角度W22が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W22が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。 Next, the generation function 343 projects the three-dimensional data D21 to generate the pseudo image data I23 which is a pseudo representation of the rotated image data I22. Further, the display control function 344 causes the display 32 to display the generated pseudo image data I23. Here, the pseudo image data I23 is generated in consideration of the depth information of each position in the two-dimensional X-ray image data I21, and is an image that sufficiently approximates the rotated image data I22. Therefore, the operator who refers to the pseudo image data I23 can intuitively understand the changed shooting angle W22 and easily determine whether or not the changed shooting angle W22 is appropriate. For example, if it is determined that the changed shooting angle W22 is not appropriate, the operator performs the shooting angle changing operation again.

一方で、変更後の撮影角度W22が適切であると判断した場合、操作者は、撮影角度W22を撮影条件とする旨の入力操作を行なう。この場合、制御機能345は、撮影角度W22を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。また、X線診断装置10は、医用画像処理装置30から受け付けた撮影条件に基づいて、2次元X線画像データの収集を実行する。即ち、X線診断装置10は、回転画像データI22の収集を実行する。 On the other hand, when it is determined that the changed shooting angle W22 is appropriate, the operator performs an input operation to set the shooting angle W22 as the shooting condition. In this case, the control function 345 sets the imaging angle W22 as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10. The X-ray diagnostic apparatus 10 also collects two-dimensional X-ray image data based on the imaging conditions received from the medical image processing apparatus 30. That is, the X-ray diagnostic apparatus 10 collects the rotation image data I22.

ここで、モデル生成機能346は、X線診断装置10により収集された回転画像データI22に基づいて、再度、学習済みモデルM1を生成することができる。即ち、モデル生成機能346は、収集された回転画像データI22に基づいて、学習済みモデルM1を更新することができる。 Here, the model generation function 346 can generate the learned model M1 again based on the rotation image data I22 collected by the X-ray diagnostic apparatus 10. That is, the model generation function 346 can update the learned model M1 based on the collected rotation image data I22.

例えば、X線診断装置10により回転画像データI22が収集された後、付加機能342は、図12に示すように、回転画像データI22に基づいて3次元データD21を補正する。一例を挙げると、付加機能342は、回転画像データI22を逆投影して生成した3次元データと3次元データD21との不整合を解消するように、3次元データD21を補正する。別の例を挙げると、付加機能342は、3次元データD21を投影して生成した2次元データ(擬似画像データI23等)と回転画像データI22との不整合を解消するように、3次元データD21を補正する。以下では、回転画像データI22に基づいて補正された3次元データD21を、3次元データD21’とも記載する。 For example, after the rotation image data I22 is collected by the X-ray diagnostic apparatus 10, the additional function 342 corrects the three-dimensional data D21 based on the rotation image data I22, as shown in FIG. For example, the additional function 342 corrects the three-dimensional data D21 so as to eliminate the inconsistency between the three-dimensional data D21 generated by back-projecting the rotated image data I22 and the three-dimensional data D21. As another example, the additional function 342 uses the three-dimensional data so as to eliminate the inconsistency between the two-dimensional data (pseudo image data I23 and the like) generated by projecting the three-dimensional data D21 and the rotated image data I22. Correct D21. Below, the three-dimensional data D21 corrected based on the rotated image data I22 is also referred to as three-dimensional data D21'.

なお、3次元データD21の補正とは、例えば、深度情報の補正である。即ち、付加機能342は、回転画像データI22に基づいて、2次元X線画像データI21における各位置について付加された深度情報を補正することで、補正後の3次元データD21’を生成する。別の例を挙げると、3次元データD21の補正とは、画像変形処理である。即ち、3次元データD21が3次元画像データである場合において、付加機能342は、回転画像データI22に基づいて3次元データD21を変形させることで、補正後の3次元データD21’を生成する。 Note that the correction of the three-dimensional data D21 is, for example, correction of depth information. That is, the additional function 342 corrects the depth information added for each position in the two-dimensional X-ray image data I21 based on the rotated image data I22 to generate corrected three-dimensional data D21'. As another example, the correction of the three-dimensional data D21 is an image transformation process. That is, when the three-dimensional data D21 is three-dimensional image data, the additional function 342 generates the corrected three-dimensional data D21' by deforming the three-dimensional data D21 based on the rotated image data I22.

次に、モデル生成機能346は、図13に示すように、2次元X線画像データI21と、補正後の3次元データD21’とを用いて、学習済みモデルM1を生成する。なお、図13は、第2の実施形態に係る学習済みモデルM1の生成処理について説明するための図である。即ち、モデル生成機能346は、2次元X線画像データI21を第1画像データとし、補正後の3次元データD21’を第2画像データとして用いて、学習済みモデルM1を生成する。これにより、モデル生成機能346は、学習済みモデルM1による深度情報推定の精度を向上させることができる。 Next, the model generation function 346 generates the learned model M1 using the two-dimensional X-ray image data I21 and the corrected three-dimensional data D21', as shown in FIG. 13. FIG. 13 is a diagram for explaining the generation process of the learned model M1 according to the second embodiment. That is, the model generation function 346 uses the two-dimensional X-ray image data I21 as the first image data and the corrected three-dimensional data D21' as the second image data to generate the learned model M1. Thereby, the model generation function 346 can improve the accuracy of depth information estimation by the learned model M1.

次に、医用画像処理装置30による処理の手順の一例を、図14を用いて説明する。図14は、第2の実施形態に係る医用画像処理装置30の処理の一連の流れを説明するためのフローチャートである。ステップS201及びステップS214は、取得機能341に対応するステップである。ステップS207、ステップS208及びステップS215は、付加機能342に対応するステップである。ステップS210は、生成機能343に対応するステップである。ステップS203及びステップS211は、表示制御機能344に対応するステップである。ステップS202、ステップS204、ステップS205、ステップS206、ステップS209、ステップS212及びステップS213は、制御機能345に対応するステップである。ステップS216は、モデル生成機能346に対応するステップである。 Next, an example of a procedure of processing by the medical image processing apparatus 30 will be described with reference to FIG. FIG. 14 is a flowchart for explaining a series of processing flow of the medical image processing apparatus 30 according to the second embodiment. Steps S201 and S214 are steps corresponding to the acquisition function 341. Steps S207, S208, and S215 are steps corresponding to the additional function 342. Step S210 is a step corresponding to the generation function 343. Steps S203 and S211 are steps corresponding to the display control function 344. Step S202, step S204, step S205, step S206, step S209, step S212, and step S213 are steps corresponding to the control function 345. Step S216 is a step corresponding to the model generation function 346.

まず、処理回路34は、X線診断装置10から、2次元X線画像データI21を取得する(ステップS201)。次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影位置を変更するか否かを判定する(ステップS202)。即ち、処理回路34は、2次元X線画像データI21の撮影位置をそのまま撮影条件として用いるか否かを判定する。ここで、撮影位置を変更する場合(ステップS202肯定)、処理回路34は、2次元X線画像データI21、及び、撮影位置を示すROIをディスプレイ32に表示させる(ステップS203)。次に、処理回路34は、操作者から、2次元X線画像データI21上のROIを調整する操作を受け付ける(ステップS204)。 First, the processing circuit 34 acquires the two-dimensional X-ray image data I21 from the X-ray diagnostic apparatus 10 (step S201). Next, the processing circuit 34 determines whether or not to change the shooting position by accepting an input operation from the operator (step S202). That is, the processing circuit 34 determines whether or not the imaging position of the two-dimensional X-ray image data I21 is used as it is as the imaging condition. Here, when changing the imaging position (Yes at Step S202), the processing circuit 34 displays the two-dimensional X-ray image data I21 and the ROI indicating the imaging position on the display 32 (Step S203). Next, the processing circuit 34 receives an operation for adjusting the ROI on the two-dimensional X-ray image data I21 from the operator (step S204).

次に、処理回路34は、撮影位置の変更操作を終了するか否かを判定する(ステップS205)。ここで、撮影位置の変更操作を終了しない場合(ステップS205否定)、処理回路34は、再度ステップS203に移行する。一方で、撮影位置の変更操作を終了する場合(ステップS205肯定)、処理回路34は、調整後のROIに応じた撮影位置を撮影条件として設定する。なお、撮影位置を変更しない場合(ステップS202否定)、処理回路34は、2次元X線画像データI21の撮影位置をそのまま撮影条件として設定する。 Next, the processing circuit 34 determines whether or not to end the operation of changing the shooting position (step S205). Here, when the operation of changing the photographing position is not ended (No at step S205), the processing circuit 34 proceeds to step S203 again. On the other hand, when the operation of changing the shooting position is finished (Yes at Step S205), the processing circuit 34 sets the shooting position according to the adjusted ROI as the shooting condition. When the photographing position is not changed (No at Step S202), the processing circuit 34 sets the photographing position of the two-dimensional X-ray image data I21 as it is as the photographing condition.

次に、処理回路34は、操作者からの入力操作を受け付けることにより、撮影角度を変更するか否かを判定する(ステップS206)。即ち、処理回路34は、2次元X線画像データI21の撮影角度をそのまま撮影条件として用いるか否かを判定する。ここで、撮影角度を変更する場合(ステップS206肯定)、処理回路34は、2次元X線画像データI21を学習済みモデルM1に入力し(ステップS207)、3次元データD21を生成する(ステップS208)。 Next, the processing circuit 34 determines whether or not to change the photographing angle by accepting an input operation from the operator (step S206). That is, the processing circuit 34 determines whether or not the imaging angle of the two-dimensional X-ray image data I21 is used as it is as the imaging condition. Here, when changing the imaging angle (Yes at Step S206), the processing circuit 34 inputs the two-dimensional X-ray image data I21 into the learned model M1 (Step S207) and generates three-dimensional data D21 (Step S208). ).

次に、処理回路34は、撮影角度の変更操作を受け付ける(ステップS209)。次に、処理回路34は、3次元データD21を投影することにより、変更後の撮影角度で収集される回転画像データI22を擬似的に示した擬似画像データを生成する(ステップS210)。次に、処理回路34は、生成した擬似画像データをディスプレイ32に表示させる(ステップS211)。 Next, the processing circuit 34 receives an operation of changing the shooting angle (step S209). Next, the processing circuit 34 projects the three-dimensional data D21 to generate pseudo image data that pseudo-displays the rotated image data I22 collected at the changed shooting angle (step S210). Next, the processing circuit 34 displays the generated pseudo image data on the display 32 (step S211).

ここで、処理回路34は、撮影角度の変更操作を終了するか否かを判定する(ステップS212)。ここで、撮影角度の変更操作を終了しない場合(ステップS212否定)、処理回路34は、再度ステップS209に移行する。一方で、撮影角度の変更操作を終了する場合(ステップS212肯定)、処理回路34は、変更後の撮影角度を撮影条件として設定する。なお、撮影角度を変更しない場合(ステップS206否定)、処理回路34は、2次元X線画像データI21の撮影角度をそのまま撮影条件として設定する。次に、処理回路34は、撮影条件として設定した撮影位置及び撮影角度をX線診断装置10に対して送信する(ステップS213)。 Here, the processing circuit 34 determines whether or not to end the operation of changing the shooting angle (step S212). Here, when the operation of changing the shooting angle is not finished (No at step S212), the processing circuit 34 proceeds to step S209 again. On the other hand, when the changing operation of the photographing angle is finished (Yes at Step S212), the processing circuit 34 sets the changed photographing angle as the photographing condition. If the imaging angle is not changed (No at Step S206), the processing circuit 34 sets the imaging angle of the two-dimensional X-ray image data I21 as it is as the imaging condition. Next, the processing circuit 34 transmits the imaging position and the imaging angle set as the imaging conditions to the X-ray diagnostic apparatus 10 (step S213).

次に、処理回路34は、回転画像データI22を取得したか否かを判定する(ステップS214)。即ち、処理回路34は、ステップS213において送信した撮影条件に基づく撮影が実行されたか否かを判定する。ここで、回転画像データI22を取得した場合(ステップS214肯定)、処理回路34は、回転画像データI22に基づいて3次元データD21を補正する(ステップS215)。次に、処理回路34は、補正後の3次元データD21’に基づいて学習済みモデルM1を更新し(ステップS216)、処理を終了する。例えば、処理回路34は、2次元X線画像データI21を第1画像データとし、補正後の3次元データD21’を第2画像データとして用いて、学習済みモデルM1を更新する。また、ステップS213において送信した撮影条件と異なる撮影条件で撮影が実行された場合や、撮影が実行されなかった場合、処理回路34は、回転画像データI22を取得しなかったと判定して(ステップS214否定)、処理を終了する。 Next, the processing circuit 34 determines whether or not the rotated image data I22 has been acquired (step S214). That is, the processing circuit 34 determines whether or not the photographing based on the photographing condition transmitted in step S213 is executed. Here, when the rotation image data I22 is acquired (Yes at step S214), the processing circuit 34 corrects the three-dimensional data D21 based on the rotation image data I22 (step S215). Next, the processing circuit 34 updates the learned model M1 based on the corrected three-dimensional data D21' (step S216), and ends the processing. For example, the processing circuit 34 updates the learned model M1 by using the two-dimensional X-ray image data I21 as the first image data and the corrected three-dimensional data D21' as the second image data. Further, when the shooting is performed under the shooting conditions different from the shooting conditions transmitted in step S213, or when the shooting is not performed, the processing circuit 34 determines that the rotation image data I22 is not acquired (step S214). (No), the process ends.

上述したように、第2の実施形態によれば、モデル記憶回路35は、深度情報を推定するように機能付けられた学習済みモデルM1を記憶する。また、付加機能342は、2次元X線画像データI21を学習済みモデルM1に入力することで、2次元X線画像データI21における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データの各位置に付加することで、3次元データD21を生成する。また、生成機能343は、学習済みモデルM1に基づく3次元データD21を投影することにより、回転画像データI22を擬似的に示した擬似画像データを生成する。従って、第2の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影条件の設定を容易にすることができる。即ち、医用画像処理装置30は、透視像の追加収集を行なわずとも、擬似画像データによって変更後の撮影角度を直感的に理解することを可能とし、撮影角度の設定を容易にすることができる。 As described above, according to the second embodiment, the model storage circuit 35 stores the learned model M1 that is functionalized to estimate the depth information. Further, the additional function 342 inputs the two-dimensional X-ray image data I21 to the learned model M1 to estimate depth information at each position in the two-dimensional X-ray image data I21, and the estimated depth information is two-dimensional. Three-dimensional data D21 is generated by adding it to each position of the X-ray image data. In addition, the generation function 343 generates pseudo image data that shows the rotation image data I22 in a pseudo manner by projecting the three-dimensional data D21 based on the learned model M1. Therefore, the medical image processing apparatus 30 according to the second embodiment can easily set the imaging condition while reducing the exposure amount. That is, the medical image processing apparatus 30 makes it possible to intuitively understand the changed shooting angle from the pseudo image data without additionally collecting the fluoroscopic image, and can easily set the shooting angle. ..

また、付加機能342は、X線診断装置10によって収集された回転画像データI22に基づいて、3次元データD21を補正する。また、モデル生成機能346は、2次元X線画像データI21を第1画像データとし、補正後の3次元データD21’を第2画像データとして用いて、学習済みモデルM1を生成する。従って、第2の実施形態に係る医用画像処理装置30は、3次元データD21の生成及び回転画像データI22の収集が行われる毎に、学習済みモデルM1の学習データを収集することができる。そして、医用画像処理装置30は、新たに収集した学習データに基づいて学習済みモデルM1を更新し、深度情報推定の精度を向上させることができる。即ち、医用画像処理装置30は、撮影条件の設定及び撮影が実行されるごとに学習済みモデルM1を更新し、深度情報推定の精度を次第に向上させることができる。 Further, the additional function 342 corrects the three-dimensional data D21 based on the rotation image data I22 collected by the X-ray diagnostic apparatus 10. Further, the model generation function 346 generates the learned model M1 by using the two-dimensional X-ray image data I21 as the first image data and the corrected three-dimensional data D21' as the second image data. Therefore, the medical image processing apparatus 30 according to the second embodiment can collect the learning data of the learned model M1 every time the three-dimensional data D21 is generated and the rotation image data I22 is collected. Then, the medical image processing apparatus 30 can update the learned model M1 based on the newly collected learning data, and improve the accuracy of depth information estimation. That is, the medical image processing apparatus 30 can update the learned model M1 every time the imaging condition is set and the imaging is executed, and the accuracy of the depth information estimation can be gradually improved.

(第3の実施形態)
上述した第1〜第2の実施形態では、擬似画像データによって撮影角度の設定を容易にすることについて説明した。これに対し、第3の実施形態では、撮影角度の設定に加えて、或いは撮影角度の設定に代えて、撮影位置の設定を容易にすることについて説明する。
(Third Embodiment)
In the above-described first and second embodiments, it has been described that the setting of the photographing angle is facilitated by the pseudo image data. On the other hand, in the third embodiment, description will be given of facilitating the setting of the shooting position in addition to or instead of the setting of the shooting angle.

第2の実施形態に係る医用情報処理システム1は、図1、図2及び図10に示した第1の実施形態に係る医用情報処理システム1と比較して、医用画像処理装置30がマップ記憶回路36を更に有するとともに、処理回路34がマップ生成機能347を更に有する点で相違する。例えば、第2の実施形態に係る医用画像処理装置30は、図15に示すように、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34と、モデル記憶回路35と、マップ記憶回路36とを有する。また、第2の実施形態に係る処理回路34は、取得機能341、付加機能342、生成機能343、表示制御機能344、制御機能345及びモデル生成機能346に加えて、マップ生成機能347を更に実行する。なお、図15は、第3の実施形態に係る医用画像処理装置30の構成の一例を示すブロック図である。以下、第1〜第2の実施形態において説明した構成と同様の構成を有する点については図1、図2及び図10と同一の符号を付し、説明を省略する。 In the medical information processing system 1 according to the second embodiment, the medical image processing apparatus 30 stores a map in comparison with the medical information processing system 1 according to the first embodiment shown in FIGS. 1, 2, and 10. The difference is that the processing circuit 34 further includes a circuit 36 and a map generation function 347. For example, as shown in FIG. 15, the medical image processing apparatus 30 according to the second embodiment has an input interface 31, a display 32, a storage circuit 33, a processing circuit 34, a model storage circuit 35, and a map storage. Circuit 36. The processing circuit 34 according to the second embodiment further executes a map generation function 347 in addition to the acquisition function 341, the additional function 342, the generation function 343, the display control function 344, the control function 345, and the model generation function 346. To do. Note that FIG. 15 is a block diagram showing an example of the configuration of the medical image processing apparatus 30 according to the third embodiment. Hereinafter, points having the same configurations as those described in the first and second embodiments will be denoted by the same reference numerals as those in FIGS. 1, 2 and 10, and description thereof will be omitted.

まず、マップ生成機能347は、被検体Pについて収集されたX線画像データを3次元空間上に登録した被検体マップを生成して、マップ記憶回路36に記憶させる。以下、図16を用いて、被検体マップについて説明する。図16は、第3の実施形態に係る被検体マップの一例を示す図である。 First, the map generation function 347 generates an object map in which the X-ray image data collected for the object P is registered in the three-dimensional space, and stores the object map in the map storage circuit 36. The subject map will be described below with reference to FIG. FIG. 16 is a diagram showing an example of the subject map according to the third embodiment.

図16に示す被検体モデルP’は、被検体Pを示す3次元のモデルデータである。例えば、マップ生成機能347は、事前に生成された複数のモデルデータの中から、被検体Pの体型に応じたモデルデータを被検体モデルP’として取得する。なお、複数のモデルデータは、例えば、体格に関わるパラメータ(年齢や性別、体重、身長など)の組み合わせごとに、標準的な体格を有する人体について実際に3次元画像データを収集することにより生成される。複数のモデルデータは、記憶回路33が記憶してもよいし、ネットワークNWを介して医用画像処理装置30と接続された他の装置が記憶してもよい。 The subject model P′ shown in FIG. 16 is three-dimensional model data showing the subject P. For example, the map generation function 347 acquires model data corresponding to the body type of the subject P as the subject model P′ from the plurality of model data generated in advance. It should be noted that the plurality of model data is generated by, for example, actually collecting three-dimensional image data of a human body having a standard physique for each combination of parameters relating to physique (age, sex, weight, height, etc.). It The plurality of model data may be stored in the storage circuit 33 or may be stored in another device connected to the medical image processing apparatus 30 via the network NW.

マップ生成機能347は、X線画像データを被検体モデルP’上に登録することによって被検体マップを生成する。即ち、マップ生成機能347は、X線画像データを3次元空間上に登録することによって被検体マップを生成する。具体的には、マップ生成機能347は、X線画像データを撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを生成する。なお、図16に示すX線画像データI34a、X線画像データI34b、X線画像データI34c、X線画像データI34d、X線画像データI34e、X線画像データI34f、X線画像データI34g、X線画像データI34h、X線画像データI34i、X線画像データI34j、X線画像データI34k、X線画像データI34l、X線画像データI34m及びX線画像データI34nは、いずれも、被検体Pから収集されたX線画像データである。即ち、マップ生成機能347は、同じ被検体Pについて収集されたX線画像データを撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを生成する。 The map generation function 347 generates the subject map by registering the X-ray image data on the subject model P′. That is, the map generation function 347 generates the subject map by registering the X-ray image data in the three-dimensional space. Specifically, the map generation function 347 generates the subject map by registering the X-ray image data on the subject model P′ according to the imaging position and the imaging angle. The X-ray image data I34a, X-ray image data I34b, X-ray image data I34c, X-ray image data I34d, X-ray image data I34e, X-ray image data I34f, X-ray image data I34g, and X-ray shown in FIG. The image data I34h, the X-ray image data I34i, the X-ray image data I34j, the X-ray image data I34k, the X-ray image data I341, the X-ray image data I34m, and the X-ray image data I34n are all collected from the subject P. X-ray image data. That is, the map generation function 347 generates the object map by registering the X-ray image data collected for the same object P on the object model P′ according to the imaging position and the imaging angle.

例えば、X線画像データI34a、X線画像データI34b、X線画像データI34c、X線画像データI34d、X線画像データI34g、X線画像データI34k及びX線画像データI34mは、撮影角度が「+Z方向」の2次元X線画像データである。また、X線画像データI34e及びX線画像データI34fは、撮影角度が「−X方向」の2次元X線画像データである。また、X線画像データI34h、X線画像データI34i、X線画像データI34j及びX線画像データI34lは、撮影角度が「+X方向」の2次元X線画像データである。マップ生成機能347は、これら複数の2次元X線画像データを、各2次元X線画像データの撮影位置及び撮影角度に応じて被検体モデルP’上に登録する。 For example, the X-ray image data I34a, the X-ray image data I34b, the X-ray image data I34c, the X-ray image data I34d, the X-ray image data I34g, the X-ray image data I34k, and the X-ray image data I34m have an imaging angle of “+Z. Direction 2D X-ray image data. Further, the X-ray image data I34e and the X-ray image data I34f are two-dimensional X-ray image data with the imaging angle in the "-X direction". Further, the X-ray image data I34h, the X-ray image data I34i, the X-ray image data I34j, and the X-ray image data I341 are two-dimensional X-ray image data with the imaging angle in the "+X direction". The map generation function 347 registers the plurality of two-dimensional X-ray image data on the subject model P′ according to the imaging position and the imaging angle of each two-dimensional X-ray image data.

また、X線画像データI34nは、被検体Pの頭部について収集された3次元X線画像データである。マップ生成機能347は、3次元X線画像データであるX線画像データI34nを、撮影位置及び撮影角度に応じて被検体モデルP’上に登録する。例えば、マップ生成機能347は、被検体モデルP’とX線画像データI34nとを3次元で位置合わせした状態において、X線画像データI34nを被検体モデルP’上に登録する。 The X-ray image data I34n is three-dimensional X-ray image data collected for the head of the subject P. The map generation function 347 registers the X-ray image data I34n, which is three-dimensional X-ray image data, on the subject model P'according to the imaging position and the imaging angle. For example, the map generation function 347 registers the X-ray image data I34n on the subject model P′ in a state where the subject model P′ and the X-ray image data I34n are three-dimensionally aligned.

また、マップ生成機能347は、図示しないX線画像データが新たに収集された場合、新たに収集されたX線画像データを撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを更新する。例えば、マップ生成機能347は、2次元X線画像データI11や2次元X線画像データI21等のX線画像データを、各X線画像データの撮影位置及び撮影角度に応じて被検体モデルP’上に登録することで、被検体マップを更新する。 Further, when the X-ray image data (not shown) is newly acquired, the map generation function 347 registers the newly acquired X-ray image data on the subject model P′ according to the imaging position and the imaging angle. Then, the subject map is updated. For example, the map generation function 347 uses the X-ray image data such as the two-dimensional X-ray image data I11 and the two-dimensional X-ray image data I21 as the object model P′ according to the imaging position and the imaging angle of each X-ray image data. The subject map is updated by registering above.

なお、マップ生成機能347は、3次元X線画像データの生成に必要な2次元X線画像データが得られた場合、3次元X線画像データを生成してもよい。具体的には、マップ生成機能347は、撮影位置が同じであり且つ撮影角度が異なる複数の2次元X線画像データに基づいて、3次元X線画像データを生成してもよい。例えば、図16に示すX線画像データI34d、X線画像データI34e、X線画像データI34f、X線画像データI34g、X線画像データI34h、X線画像データI34i及びX線画像データI34jは、いずれも被検体Pの大腿の2次元X線画像データであり、且つ、撮影角度が異なっている。従って、マップ生成機能347は、これら複数の2次元X線画像データに基づいて、被検体Pの大腿の3次元X線画像データを生成することができる。例えば、マップ生成機能347は、撮影角度が異なる少なくとも2つの2次元X線画像データに現れた部位(骨や臓器、血管等)の3次元空間における位置をエピポーララインに基づいて特定することにより、3次元X線画像データを生成する。そして、マップ生成機能347は、生成した3次元X線画像データを被検体モデルP’上に登録することで、被検体マップを更新する。なお、マップ生成機能347は、生成した3次元X線画像データを追加的に被検体モデルP’上に登録してもよいし、複数の2次元X線画像データに代えて被検体モデルP’上に登録してもよい。 The map generating function 347 may generate the three-dimensional X-ray image data when the two-dimensional X-ray image data necessary for generating the three-dimensional X-ray image data is obtained. Specifically, the map generation function 347 may generate three-dimensional X-ray image data based on a plurality of two-dimensional X-ray image data that have the same imaging position and different imaging angles. For example, the X-ray image data I34d, the X-ray image data I34e, the X-ray image data I34f, the X-ray image data I34g, the X-ray image data I34h, the X-ray image data I34i, and the X-ray image data I34j shown in FIG. Is also two-dimensional X-ray image data of the thigh of the subject P, and the imaging angles are different. Therefore, the map generation function 347 can generate three-dimensional X-ray image data of the thigh of the subject P based on the plurality of two-dimensional X-ray image data. For example, the map generation function 347 specifies the position in 3D space of the site (bone, organ, blood vessel, etc.) appearing in at least two 2D X-ray image data with different imaging angles based on the epipolar line, Generate three-dimensional X-ray image data. Then, the map generation function 347 updates the subject map by registering the generated three-dimensional X-ray image data on the subject model P′. The map generation function 347 may additionally register the generated three-dimensional X-ray image data on the subject model P′, or may replace the plurality of two-dimensional X-ray image data with the subject model P′. You may register above.

また、マップ生成機能347は、撮影位置が同じ複数の2次元X線画像データが得られた場合、差分画像データを生成してもよい。例えば、図16に示すX線画像データI34aとX線画像データI34bとは、いずれも被検体Pの胸部の2次元X線画像データであって重複しており、且つ、撮影角度も同じである。従って、マップ生成機能347は、これら複数の2次元X線画像データの重複部分について、差分画像データを生成することができる。例えば、X線画像データI34aに医療デバイスが現れており、且つ、X線画像データI34bに医療デバイスが現れていない場合、マップ生成機能347は、これら複数の2次元X線画像データを差分することにより、医療デバイスを除去した差分画像データを生成することができる。なお、医療デバイスとは、例えば、カテーテルやガイドワイヤ等の体内で操作されるデバイスであってもよいし、ステントやペースメーカー等の体内に留置されるデバイスであってもよい。そして、マップ生成機能347は、生成した差分画像データを被検体モデルP’上に登録することで、被検体マップを更新する。なお、マップ生成機能347は、生成した差分画像データを追加的に被検体モデルP’上に登録してもよいし、複数の2次元X線画像データに代えて被検体モデルP’上に登録してもよい。 Further, the map generation function 347 may generate difference image data when a plurality of two-dimensional X-ray image data at the same imaging position are obtained. For example, the X-ray image data I34a and the X-ray image data I34b shown in FIG. 16 are both two-dimensional X-ray image data of the chest of the subject P and overlap with each other and have the same imaging angle. .. Therefore, the map generation function 347 can generate difference image data for the overlapping portion of the plurality of two-dimensional X-ray image data. For example, when the medical device appears in the X-ray image data I34a and the medical device does not appear in the X-ray image data I34b, the map generation function 347 determines the difference between the plurality of two-dimensional X-ray image data. This makes it possible to generate difference image data with the medical device removed. The medical device may be, for example, a device operated in the body such as a catheter or a guide wire, or a device left in the body such as a stent or a pacemaker. Then, the map generation function 347 updates the subject map by registering the generated difference image data on the subject model P′. The map generation function 347 may additionally register the generated difference image data on the subject model P′, or may register the difference image data on the subject model P′ instead of a plurality of two-dimensional X-ray image data. You may.

また、マップ生成機能347は、複数のX線画像データが重なる部分が滑らかに繋がるように、被検体マップを更新してもよい。例えば、X線画像データI34bが被検体モデルP’上に既に登録されており、X線画像データI34cを新たに登録する場合において、マップ生成機能347は、X線画像データI34bとX線画像データI34cとが滑らかに繋がるように、被検体マップを更新する。例えば、マップ生成機能347は、平均の画素値やコントラストがX線画像データI34bと一致するように、X線画像データI34cに対して画像処理を行なう。また、例えば、マップ生成機能347は、X線画像データI34cを登録した後、X線画像データI34bとX線画像データI34cとが重なる部分に生じる境界線(即ち、X線画像データI34b又はX線画像データI34cの輪郭線)を暈すように画素処理を施す。一例を挙げると、マップ生成機能347は、X線画像データI34bとX線画像データI34cとが重なる部分について、ガウシアンフィルタを用いた画像処理を実行する。 Further, the map generation function 347 may update the subject map so that the portions where the plurality of X-ray image data overlaps are smoothly connected. For example, when the X-ray image data I34b is already registered on the subject model P′ and the X-ray image data I34c is newly registered, the map generation function 347 causes the X-ray image data I34b and the X-ray image data I34b to be registered. The subject map is updated so as to be smoothly connected to I34c. For example, the map generation function 347 performs image processing on the X-ray image data I34c so that the average pixel value and the contrast match the X-ray image data I34b. In addition, for example, the map generation function 347 registers the X-ray image data I34c, and then creates a boundary line (that is, the X-ray image data I34b or the X-ray image data I34c and I34c) that overlaps with each other. Pixel processing is performed so as to blur the contour line of the image data I34c. As an example, the map generation function 347 executes image processing using a Gaussian filter on a portion where the X-ray image data I34b and the X-ray image data I34c overlap.

以上、第3の実施形態に係る被検体マップについて説明した。第3の実施形態に係る医用画像処理装置30は、かかる被検体マップを用いて、被ばく量を低減しつつ、撮影条件の設定をより容易にする。 The object map according to the third embodiment has been described above. The medical image processing apparatus 30 according to the third embodiment uses such a subject map to reduce the exposure dose and facilitate the setting of imaging conditions.

まず、被検体マップを用いた撮影位置の設定について、図17を用いて説明する。図17は、第3の実施形態に係る撮影条件の設定の一例を示す図である。まず、取得機能341は、X線診断装置10から、被検体Pの2次元X線画像データを取得する。以下、被検体Pの2次元X線画像データの例として、図17に示す2次元X線画像データI31について説明する。2次元X線画像データI31は、例えば、LIHである。 First, setting of the imaging position using the subject map will be described with reference to FIG. FIG. 17 is a diagram illustrating an example of shooting condition setting according to the third embodiment. First, the acquisition function 341 acquires two-dimensional X-ray image data of the subject P from the X-ray diagnostic apparatus 10. Hereinafter, as an example of the two-dimensional X-ray image data of the subject P, the two-dimensional X-ray image data I31 shown in FIG. 17 will be described. The two-dimensional X-ray image data I31 is, for example, LIH.

次に、表示制御機能344は、2次元X線画像データI31をディスプレイ32に表示させる。ここで、制御機能345は、操作者からの入力操作に基づいて、撮影位置を変更するか否かを判定する。即ち、制御機能345は、2次元X線画像データI31の撮影位置をそのまま撮影条件として用いるか否かを判定する。ここで、撮影位置を変更する場合、表示制御機能344は、図16に示すように、被検体マップに基づいて2次元X線画像データI31を拡張した拡張画像データI31’をディスプレイ32に表示させる。 Next, the display control function 344 causes the display 32 to display the two-dimensional X-ray image data I31. Here, the control function 345 determines whether to change the shooting position based on the input operation by the operator. That is, the control function 345 determines whether or not the imaging position of the two-dimensional X-ray image data I31 is used as it is as the imaging condition. Here, when changing the imaging position, the display control function 344 causes the display 32 to display the extended image data I31′ obtained by expanding the two-dimensional X-ray image data I31 based on the subject map, as shown in FIG. ..

例えば、2次元X線画像データI31の撮影角度が「+Z方向」であり且つ撮影位置が被検体Pの大腿である場合、表示制御機能344は、図16に示したX線画像データI34d及びX線画像データI34gに基づいて、2次元X線画像データI31を拡張することができる。一例を挙げると、表示制御機能344は、X線画像データI34d及びX線画像データI34gから、2次元X線画像データI31の周辺領域に対応する領域を切り出し、切り出した領域を2次元X線画像データI31の周辺領域に配置することで、2次元X線画像データI31を拡張する。別の例を挙げると、表示制御機能344は、2次元X線画像データI31に対してX線画像データI34d及びX線画像データI34gを合成することで、2次元X線画像データI31を拡張する。そして、表示制御機能344は、拡張画像データI31’をディスプレイ32に表示させる。また、表示制御機能344は、拡張画像データI31’上に、撮影位置を示すROIを表示させる。 For example, when the imaging angle of the two-dimensional X-ray image data I31 is the “+Z direction” and the imaging position is the thigh of the subject P, the display control function 344 causes the X-ray image data I34d and X shown in FIG. The two-dimensional X-ray image data I31 can be expanded based on the line image data I34g. As an example, the display control function 344 cuts out an area corresponding to the peripheral area of the two-dimensional X-ray image data I31 from the X-ray image data I34d and the X-ray image data I34g, and the cut-out area is a two-dimensional X-ray image. The two-dimensional X-ray image data I31 is expanded by arranging it in the peripheral area of the data I31. As another example, the display control function 344 expands the two-dimensional X-ray image data I31 by combining the two-dimensional X-ray image data I31 with the X-ray image data I34d and the X-ray image data I34g. .. Then, the display control function 344 displays the extended image data I31' on the display 32. Further, the display control function 344 displays the ROI indicating the shooting position on the extended image data I31'.

次に、操作者は、検査対象部位を観察しやすいように拡張画像データI31’上のROIを調整することで、撮影位置の設定を行なう。ここで、拡張画像データI31’は2次元X線画像データI31より広い範囲を示すものである。例えば、図17に示すように、拡張画像データI31’上には、部位A1及び部位A2に加えて、2次元X線画像データI31上には現れていなかった部位A3が現れている。従って、拡張画像データI31’上で撮影位置の設定を行なう場合、操作者は、2次元X線画像データI31上で撮影位置の設定を行なう場合と比較して、より高い自由度で撮影位置の設定を行なうことができる。例えば、部位A3が検査対象部位である場合、操作者は、ROIに部位A3が含まれるように拡張画像データI31’上でROIを移動させることで、部位A3を観察しやすいように撮影位置の設定を行なうことができる。そして、制御機能345は、操作者による調整後のROIが示す撮影位置を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。 Next, the operator sets the photographing position by adjusting the ROI on the extended image data I31' so that the inspection target portion can be easily observed. Here, the extended image data I31' shows a wider range than the two-dimensional X-ray image data I31. For example, as shown in FIG. 17, in addition to the site A1 and the site A2, the site A3 that did not appear on the two-dimensional X-ray image data I31 appears on the extended image data I31'. Therefore, when setting the shooting position on the extended image data I31′, the operator has a higher degree of freedom in setting the shooting position than when setting the shooting position on the two-dimensional X-ray image data I31. You can make settings. For example, when the site A3 is the site to be inspected, the operator moves the ROI on the expanded image data I31′ so that the ROI includes the site A3, so that the operator can easily observe the site A3. You can make settings. Then, the control function 345 sets the imaging position indicated by the ROI adjusted by the operator as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10.

図17に示したように、第3の実施形態に係る医用画像処理装置30は、被検体マップに基づいて2次元X線画像データI31を拡張することにより、2次元X線画像データI31に含まれない位置を含む拡張画像データI31’を生成する。そして、操作者は、拡張画像データI31’上のROIを調整することで、直感的に撮影位置の設定を行なうことができる。また、操作者が拡張画像データI31’上のROIを調整している間はX線透視の必要がないため、X線透視のみによって撮影位置を設定する場合と比較して、被ばく量を低減することができる。 As shown in FIG. 17, the medical image processing apparatus 30 according to the third embodiment includes the two-dimensional X-ray image data I31 by expanding the two-dimensional X-ray image data I31 based on the subject map. The extended image data I31′ including a position that does not exist is generated. Then, the operator can intuitively set the photographing position by adjusting the ROI on the extended image data I31'. Further, since there is no need for fluoroscopy while the operator is adjusting the ROI on the extended image data I31′, the exposure dose is reduced as compared with the case where the imaging position is set only by fluoroscopy. be able to.

次に、被検体マップを用いた撮影角度の設定について説明する。例えば、制御機能345は、2次元X線画像データI31又は拡張画像データI31’を参照した操作者からの入力操作に基づいて、撮影角度を変更するか否かを判定する。即ち、制御機能345は、2次元X線画像データI31の撮影角度をそのまま撮影条件として用いるか否かを判定する。ここで、撮影角度を変更する場合、付加機能342は、2次元X線画像データI31における各位置について深度情報を付加した3次元データD31を生成する。 Next, setting of the imaging angle using the subject map will be described. For example, the control function 345 determines whether to change the imaging angle based on the input operation by the operator who refers to the two-dimensional X-ray image data I31 or the extended image data I31'. That is, the control function 345 determines whether or not the imaging angle of the two-dimensional X-ray image data I31 is used as it is as the imaging condition. Here, when changing the imaging angle, the additional function 342 generates three-dimensional data D31 to which depth information is added for each position in the two-dimensional X-ray image data I31.

例えば、付加機能342は、2次元X線画像データI31と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI31における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。別の例を挙げると、付加機能342は、2次元X線画像データI31における各位置について、画素値に基づいて深度情報を推定し、推定した深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。別の例を挙げると、付加機能342は、モデル記憶回路35から学習済みモデルM1を読み出し、2次元X線画像データI31を学習済みモデルM1に入力することで2次元X線画像データI31における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。 For example, the additional function 342 estimates and estimates depth information for each position in the two-dimensional X-ray image data I31 based on the three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I31. Three-dimensional data D31 is generated by adding depth information to each position of the two-dimensional X-ray image data I31. As another example, the additional function 342 estimates the depth information based on the pixel value for each position in the two-dimensional X-ray image data I31, and uses the estimated depth information at each position in the two-dimensional X-ray image data I31. To generate three-dimensional data D31. As another example, the additional function 342 reads out the learned model M1 from the model storage circuit 35 and inputs the two-dimensional X-ray image data I31 to the learned model M1 so that each of the two-dimensional X-ray image data I31 is read. The three-dimensional data D31 is generated by estimating the depth information about the position and adding the estimated depth information to each position of the two-dimensional X-ray image data I31.

或いは、付加機能342は、マップ記憶回路36から被検体マップを読み出し、被検体マップに基づいて2次元X線画像データI31における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI31の各位置に付加することで3次元データD31を生成する。例えば、付加機能342は、2次元X線画像データI31と、被検体マップに登録された3次元X線画像データとを位置合わせすることで、2次元X線画像データI31における各位置について深度情報を推定する。一例を挙げると、2次元X線画像データI31の撮影位置が被検体Pの頭部である場合、付加機能342は、2次元X線画像データI31と、図16に示したX線画像データI34nとを位置合わせすることで、2次元X線画像データI31における各位置について深度情報を推定する。 Alternatively, the additional function 342 reads the subject map from the map storage circuit 36, estimates depth information for each position in the two-dimensional X-ray image data I31 based on the subject map, and uses the estimated depth information as the two-dimensional X-ray. Three-dimensional data D31 is generated by adding it to each position of the image data I31. For example, the additional function 342 aligns the two-dimensional X-ray image data I31 with the three-dimensional X-ray image data registered in the object map to obtain depth information about each position in the two-dimensional X-ray image data I31. To estimate. As an example, when the imaging position of the two-dimensional X-ray image data I31 is the head of the subject P, the additional function 342 uses the two-dimensional X-ray image data I31 and the X-ray image data I34n shown in FIG. By aligning and, the depth information is estimated for each position in the two-dimensional X-ray image data I31.

別の例を挙げると、付加機能342は、2次元X線画像データI31と、被検体マップに登録された2次元X線画像データとを比較することで、2次元X線画像データI31における各位置について深度情報を推定する。例えば、付加機能342は、まず、被検体マップに登録された2次元X線画像データのうち、2次元X線画像データI31と撮影位置が同じであり且つ撮影角度が異なる2次元X線画像データを特定する。そして、付加機能342は、特定した2次元X線画像データと、2次元X線画像データI31とのそれぞれに現れた部位の3次元空間における位置をエピポーララインに基づいて特定することにより、2次元X線画像データI31における各位置について深度情報を推定する。 As another example, the additional function 342 compares each of the two-dimensional X-ray image data I31 with the two-dimensional X-ray image data registered in the object map to obtain each of the two-dimensional X-ray image data I31. Estimate depth information for a location. For example, the additional function 342 firstly, the two-dimensional X-ray image data of the two-dimensional X-ray image data registered in the object map, which has the same imaging position and different imaging angle as the two-dimensional X-ray image data I31. Specify. Then, the additional function 342 specifies the position in the three-dimensional space of the part appearing in each of the specified two-dimensional X-ray image data and the two-dimensional X-ray image data I31 based on the epipolar line, and thereby the two-dimensional Depth information is estimated for each position in the X-ray image data I31.

また、制御機能345は、操作者から撮影角度の変更操作を受け付ける。なお、3次元データD31の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。以下では、2次元X線画像データI31の撮影角度を、撮影角度W31と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W32と記載する。例えば、変更後の撮影角度W32は、撮影角度W31から角度「θ3」だけ変更された角度である。また、以下では、撮影角度W32で収集されるX線画像データを、回転画像データI32と記載する。 The control function 345 also accepts an operation for changing the shooting angle from the operator. The three-dimensional data D31 may be generated before the operator changes the shooting angle or after the operator changes the shooting angle. Hereinafter, the imaging angle of the two-dimensional X-ray image data I31 will be referred to as the imaging angle W31. In the following, the shooting angle after being changed by the operator will be referred to as a shooting angle W32. For example, the changed shooting angle W32 is an angle obtained by changing the shooting angle W31 by the angle “θ3”. Further, hereinafter, the X-ray image data acquired at the imaging angle W32 will be referred to as rotated image data I32.

次に、付加機能342は、被検体マップに基づいて3次元データD31を拡張し、生成機能343は、拡張後の3次元データD31を投影することにより、回転画像データI32を擬似的に示した擬似画像データI33aを生成する。以下、擬似画像データI33aの生成処理について、図18を用いて説明する。図18は、第3の実施形態に係る擬似画像データI33aの生成処理の一例を示す図である。なお、図18においては、アイソセンターに対応する点が3次元データD31の外部領域に位置しているものとして説明する。即ち、図18においては軸y’が3次元データD31を通らないものとして説明する。 Next, the additional function 342 expands the three-dimensional data D31 based on the object map, and the generation function 343 projects the expanded three-dimensional data D31, thereby simulating the rotated image data I32. The pseudo image data I33a is generated. The process of generating the pseudo image data I33a will be described below with reference to FIG. FIG. 18 is a diagram illustrating an example of a process of generating the pseudo image data I33a according to the third embodiment. In addition, in FIG. 18, it is assumed that the point corresponding to the isocenter is located in the external area of the three-dimensional data D31. That is, in FIG. 18, it is assumed that the axis y′ does not pass through the three-dimensional data D31.

図18に示すように、付加機能342は、被検体マップに基づいて3次元データD11を拡張することで、拡張3次元データD31’を生成する。例えば、付加機能342は、まず、被検体マップに基づいて2次元X線画像データI31を拡張する。そして、付加機能342は、2次元X線画像データI31における各位置に加え、拡張した領域の各位置について深度情報を付加することで、3次元データD11を拡張する。即ち、付加機能342は、被検体マップに基づいて、2次元X線画像データI31を拡張した拡張画像データI31’を生成し、拡張画像データI31’における各位置について深度情報を付加することで、拡張3次元データD31’を生成する。 As shown in FIG. 18, the additional function 342 generates the extended three-dimensional data D31' by extending the three-dimensional data D11 based on the subject map. For example, the additional function 342 first expands the two-dimensional X-ray image data I31 based on the subject map. Then, the additional function 342 expands the three-dimensional data D11 by adding depth information to each position of the expanded region in addition to each position in the two-dimensional X-ray image data I31. That is, the additional function 342 generates extended image data I31′ obtained by extending the two-dimensional X-ray image data I31 based on the subject map, and adds depth information at each position in the extended image data I31′, Expanded three-dimensional data D31' is generated.

次に、付加機能342は、図18に示すように、拡張3次元データD31’を角度「θ3」だけ回転させる。例えば、生成機能343は、基準座標系における拡張3次元データD31’の位置に基づき、拡張3次元データD31’において、実空間におけるアイソセンターに対応する点を特定する。次に、生成機能343は、アイソセンターを通る軸y’を回転軸として、拡張3次元データD31’を角度「θ3」だけ回転させる。即ち、生成機能343は、アイソセンターに対応する点まわりに、拡張3次元データD31’を角度「θ3」だけ回転させる。なお、図18においては、アイソセンターに対応する点が拡張3次元データD31’の外部領域に位置しているため、アイソセンターに対応する点まわりに拡張3次元データD31’を回転させる際、拡張3次元データD31’は、アイソセンターに対応する点を中心とする円軌道に沿って移動する。 Next, the additional function 342 rotates the extended three-dimensional data D31' by the angle "θ3" as shown in FIG. For example, the generation function 343 identifies a point in the extended three-dimensional data D31' corresponding to the isocenter in the real space based on the position of the extended three-dimensional data D31' in the reference coordinate system. Next, the generation function 343 rotates the expanded three-dimensional data D31' by the angle "θ3" with the axis y'passing the isocenter as the rotation axis. That is, the generation function 343 rotates the extended three-dimensional data D31' by the angle "θ3" around the point corresponding to the isocenter. Note that, in FIG. 18, since the point corresponding to the isocenter is located in the external area of the expanded three-dimensional data D31′, when the expanded three-dimensional data D31′ is rotated around the point corresponding to the isocenter, the expansion is performed. The three-dimensional data D31′ moves along a circular orbit centered on a point corresponding to the isocenter.

次に、生成機能343は、回転後の拡張3次元データD31’をXY平面上に投影することで、擬似画像データI33aを生成する。また、表示制御機能344は、生成機能343が生成した擬似画像データI33aをディスプレイ32に表示させる。これにより、操作者は、変更後の撮影角度W32を直感的に理解し、変更後の撮影角度W32が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W32が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。一方で、変更後の撮影角度W32が適切であると判断した場合、操作者は、撮影角度W32を撮影条件とする旨の入力操作を行なう。この場合、制御機能345は、撮影角度W32を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。 Next, the generation function 343 generates the pseudo image data I33a by projecting the expanded three-dimensional data D31' after rotation on the XY plane. Further, the display control function 344 causes the display 32 to display the pseudo image data I33a generated by the generation function 343. This allows the operator to intuitively understand the changed shooting angle W32 and easily determine whether or not the changed shooting angle W32 is appropriate. For example, when it is determined that the changed shooting angle W32 is not appropriate, the operator again performs the shooting angle changing operation. On the other hand, when it is determined that the changed shooting angle W32 is appropriate, the operator performs an input operation to set the shooting angle W32 as the shooting condition. In this case, the control function 345 sets the imaging angle W32 as an imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10.

なお、図18に示したように、アイソセンターに対応する点まわりに拡張3次元データD31’を回転させる際、拡張3次元データD31’は、アイソセンターに対応する点を中心とする円軌道に沿って+X方向に移動する。このため、擬似画像データI33aにおいては、2次元X線画像データI31と比較して部位A1や部位A2等の各部位が全体的に+X方向に移動している。しかしながら、擬似画像データI33aは、被検体マップに基づいて拡張された拡張3次元データD31’に基づいて生成されたものであるため、このような+X方向への移動を補完することができる。 As shown in FIG. 18, when the expanded three-dimensional data D31′ is rotated around the point corresponding to the isocenter, the expanded three-dimensional data D31′ becomes a circular orbit centered on the point corresponding to the isocenter. Move along +X direction. Therefore, in the pseudo image data I33a, compared to the two-dimensional X-ray image data I31, each part such as the part A1 and the part A2 is moved in the +X direction as a whole. However, since the pseudo image data I33a is generated based on the expanded three-dimensional data D31' expanded based on the subject map, such movement in the +X direction can be complemented.

例えば、被検体マップに基づく拡張を行なっていない状態の3次元データD31を投影することによって擬似画像データI33bを生成した場合、擬似画像データI33bが示す範囲は、擬似画像データI33aよりも狭いものとなる。例えば、擬似画像データI33bが示す範囲は、図18に示す領域RIに対応する範囲のみとなる。そして、擬似画像データI33bにおいては、図18に示すように、部位A2の一部が画像の範囲外に出てしまう場合がある。即ち、擬似画像データI33bにおいては、2次元X線画像データI31と比較して部位A2が+X方向に移動したことにより、部位A2の一部を表わすことができなくなる場合がある。これに対し、擬似画像データI33aは、部位A2の+X方向への移動を許容して、部位A2の全体を表わすことができる。 For example, when the pseudo image data I33b is generated by projecting the three-dimensional data D31 that is not expanded based on the subject map, the range indicated by the pseudo image data I33b is narrower than the pseudo image data I33a. Become. For example, the range indicated by the pseudo image data I33b is only the range corresponding to the region RI shown in FIG. In the pseudo image data I33b, as shown in FIG. 18, a part of the part A2 may go out of the image range. That is, in the pseudo image data I33b, the part A2 may not be able to be represented because the part A2 moves in the +X direction as compared with the two-dimensional X-ray image data I31. On the other hand, the pseudo image data I33a can represent the entire part A2 by allowing the part A2 to move in the +X direction.

なお、撮影位置を変更しない場合、撮影角度W32で収集される回転画像データI32が示す範囲は、図18に示す領域RIに対応する範囲となる。表示制御機能344は、擬似画像データI33a上に領域RIを表示することで、収集される回転画像データI32において部位A2の一部が画像の範囲外に出てしまうことを操作者に示すことができる。ここで、制御機能345は、擬似画像データI33a及び領域RIを参照した操作者から、撮影位置の変更操作を受け付けてもよい。例えば、表示制御機能344は、擬似画像データI33a上の領域RIを、撮影位置を示すROIとして表示させる。次に、操作者は、検査対象部位を観察しやすいように擬似画像データI33a上のROIを調整する。例えば、操作者は、部位A1及び部位A2の全体を含むように擬似画像データI33a上のROIを調整する。そして、制御機能345は、調整後のROIが示す撮影位置を撮影条件として設定し、設定した撮影条件をX線診断装置10に対して送信する。 When the shooting position is not changed, the range indicated by the rotation image data I32 collected at the shooting angle W32 is the range corresponding to the region RI shown in FIG. The display control function 344 may display the region RI on the pseudo image data I33a to indicate to the operator that a part of the part A2 in the collected rotation image data I32 goes out of the image range. it can. Here, the control function 345 may accept an operation of changing the imaging position from the operator who referred to the pseudo image data I33a and the region RI. For example, the display control function 344 displays the area RI on the pseudo image data I33a as the ROI indicating the shooting position. Next, the operator adjusts the ROI on the pseudo image data I33a so that the inspection target part can be easily observed. For example, the operator adjusts the ROI on the pseudo image data I33a so as to include the entire parts A1 and A2. Then, the control function 345 sets the imaging position indicated by the adjusted ROI as the imaging condition, and transmits the set imaging condition to the X-ray diagnostic apparatus 10.

上述したように、第3の実施形態によれば、マップ記憶回路36は、同じ被検体について収集されたX線画像データを撮影位置及び撮影角度に応じて3次元空間上に登録した被検体マップを記憶する。また、マップ生成部は、新たに収集されたX線画像データを撮影位置及び撮影角度に応じて3次元空間上に登録することで、マップ記憶回路36が記憶する被検体マップを更新する。従って、第3の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影位置の設定を容易にすることができる。例えば、医用画像処理装置30は、2次元X線画像データI31を表示する際、被検体マップに基づいて2次元X線画像データI31に含まれない位置をも表示することができる。即ち、医用画像処理装置30は、過去に撮影された位置については新たに撮影を行なわずとも被検体マップに基づいて表示を行なうことができるため、被ばく量を低減しつつ撮影位置の設定を容易にすることができる。 As described above, according to the third embodiment, the map storage circuit 36 registers the X-ray image data acquired for the same object in the three-dimensional space according to the imaging position and the imaging angle. Memorize Further, the map generation unit updates the subject map stored in the map storage circuit 36 by registering the newly acquired X-ray image data in the three-dimensional space according to the imaging position and the imaging angle. Therefore, the medical image processing apparatus 30 according to the third embodiment can easily set the imaging position while reducing the exposure dose. For example, when displaying the two-dimensional X-ray image data I31, the medical image processing apparatus 30 can also display a position not included in the two-dimensional X-ray image data I31 based on the subject map. That is, since the medical image processing apparatus 30 can display the previously imaged position based on the subject map without newly taking an image, it is easy to set the imaging position while reducing the exposure dose. Can be

また、上述したように、第3の実施形態によれば、付加機能342は、被検体マップに基づいて3次元データD31を拡張する。また、生成機能343は、拡張後の拡張3次元データD31’を投影することにより、回転画像データI32を擬似的に示した擬似画像データI33aを生成する。従って、第3の実施形態に係る医用画像処理装置30は、被ばく量を低減しつつ、撮影角度の設定をより容易にすることができる。即ち、アイソセンターの位置によっては、アイソセンターに対応する点を中心とする円軌道に沿って3次元データD31が移動してしまう。これは、アイソセンターの位置によっては、Cアーム105の回転によって撮影位置がずれることに対応する。これに対して、第3の実施形態に係る医用画像処理装置30は、予め3次元データD31を拡張しておくことによって、撮影位置のずれを許容できる広範囲の擬似画像データを生成し、撮影角度の設定を容易にすることができる。 Further, as described above, according to the third embodiment, the additional function 342 expands the three-dimensional data D31 based on the subject map. In addition, the generation function 343 generates the pseudo image data I33a, which is a pseudo representation of the rotated image data I32, by projecting the expanded three-dimensional data D31' after expansion. Therefore, the medical image processing apparatus 30 according to the third embodiment can more easily set the imaging angle while reducing the exposure dose. That is, depending on the position of the isocenter, the three-dimensional data D31 moves along a circular orbit centered on a point corresponding to the isocenter. This corresponds to the shift of the photographing position due to the rotation of the C arm 105 depending on the position of the isocenter. On the other hand, the medical image processing apparatus 30 according to the third embodiment expands the three-dimensional data D31 in advance to generate pseudo image data in a wide range in which the shift of the shooting position can be allowed, and the shooting angle. Can be set easily.

(第4の実施形態)
さて、これまで第1〜第3の実施形態について説明したが、上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。
(Fourth Embodiment)
Now, the first to third embodiments have been described so far, but the embodiments may be implemented in various different modes other than the above-described embodiments.

上述した実施形態では、生成機能343が生成した擬似画像データを、医用画像処理装置30におけるディスプレイ32に表示させる場合について説明した。しかしながら実施形態はこれに限定されるものではない。例えば、生成機能343が生成した擬似画像データについて、医用画像処理装置30と異なる他の装置が表示を行なう場合であってもよい。例えば、生成機能343は、生成した擬似画像データを、ネットワークNWを介して、X線診断装置10に送信してもよい。この場合、X線診断装置10における表示制御機能110bは、医用画像処理装置30から送信された擬似画像データを、ディスプレイ108に表示させることができる。 In the above-described embodiment, the case where the pseudo image data generated by the generation function 343 is displayed on the display 32 of the medical image processing apparatus 30 has been described. However, the embodiment is not limited to this. For example, the pseudo image data generated by the generation function 343 may be displayed by another device different from the medical image processing device 30. For example, the generation function 343 may transmit the generated pseudo image data to the X-ray diagnostic apparatus 10 via the network NW. In this case, the display control function 110b in the X-ray diagnostic apparatus 10 can cause the display 108 to display the pseudo image data transmitted from the medical image processing apparatus 30.

また、上述した実施形態では、医用画像処理装置30における処理回路34が、擬似画像データの生成処理を行なうものとして説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、X線診断装置10における処理回路110が、擬似画像データの生成処理を行なう場合であってもよい。 Further, in the above-described embodiment, the processing circuit 34 in the medical image processing apparatus 30 has been described as performing the pseudo image data generation process. However, the embodiment is not limited to this. For example, the processing circuit 110 in the X-ray diagnostic apparatus 10 may perform a pseudo image data generation process.

一例を挙げると、処理回路110は、図19に示すように、収集機能110a、表示制御機能110b及び送信機能110cに加えて、付加機能110d、生成機能110e、制御機能110f、モデル生成機能110g、及び、マップ生成機能110hを実行する。また、X線診断装置10は、更に、モデル記憶回路111及びマップ記憶回路112を備える。なお、図19は、第4の実施形態に係るX線診断装置10の構成の一例を示すブロック図である。 As an example, as shown in FIG. 19, the processing circuit 110 includes an addition function 110d, a generation function 110e, a control function 110f, a model generation function 110g, in addition to the collection function 110a, the display control function 110b, and the transmission function 110c. Also, the map generation function 110h is executed. The X-ray diagnostic apparatus 10 further includes a model storage circuit 111 and a map storage circuit 112. Note that FIG. 19 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 10 according to the fourth embodiment.

図19に示す場合、収集機能110aは、まず、被検体Pから2次元X線画像データを収集する。なお、以下では2次元X線画像データの例として、2次元X線画像データI41について説明する。次に、表示制御機能110bは、マップ記憶回路112が記憶する被検体マップに基づいて、2次元X線画像データI41を拡張した拡張画像データI41’を生成し、生成した拡張画像データI41’をディスプレイ32に表示させる。また、表示制御機能110bは、拡張画像データI41’上に、撮影位置を示すROIを表示させる。ここで、操作者は、検査対象部位を観察しやすいように拡張画像データI41’上のROIを調整する。そして、制御機能110fは、操作者による調整後のROIが示す撮影位置を撮影条件として設定する。 In the case shown in FIG. 19, the collection function 110a first collects two-dimensional X-ray image data from the subject P. In the following, the two-dimensional X-ray image data I41 will be described as an example of the two-dimensional X-ray image data. Next, the display control function 110b generates extended image data I41′ obtained by extending the two-dimensional X-ray image data I41 based on the subject map stored in the map storage circuit 112, and outputs the generated extended image data I41′. Display on the display 32. Further, the display control function 110b displays the ROI indicating the shooting position on the expanded image data I41'. Here, the operator adjusts the ROI on the extended image data I41' so that the inspection target portion can be easily observed. Then, the control function 110f sets the photographing position indicated by the ROI adjusted by the operator as the photographing condition.

次に、付加機能110dは、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成する。例えば、付加機能110dは、2次元X線画像データI41と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI41における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。別の例を挙げると、付加機能110dは、2次元X線画像データI41における各位置について、画素値に基づいて深度情報を推定し、推定した深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。別の例を挙げると、付加機能110dは、モデル記憶回路111から学習済みモデルM1を読み出し、2次元X線画像データI41を学習済みモデルM1に入力することで2次元X線画像データI41における各位置について深度情報を推定させ、推定させた深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。別の例を挙げると、付加機能110dは、マップ記憶回路112から被検体マップを読み出し、被検体マップに基づいて2次元X線画像データI41における各位置について深度情報を推定し、推定した深度情報を2次元X線画像データI41の各位置に付加することで3次元データD41を生成する。 Next, the additional function 110d generates three-dimensional data D41 to which depth information is added for each position in the two-dimensional X-ray image data I41. For example, the additional function 110d estimates and estimates depth information for each position in the two-dimensional X-ray image data I41 based on the three-dimensional image data collected for the same subject P as the two-dimensional X-ray image data I41. The depth information is added to each position of the two-dimensional X-ray image data I41 to generate the three-dimensional data D41. As another example, the additional function 110d estimates depth information based on pixel values for each position in the two-dimensional X-ray image data I41, and uses the estimated depth information for each position in the two-dimensional X-ray image data I41. To generate three-dimensional data D41. As another example, the additional function 110d reads out the learned model M1 from the model storage circuit 111 and inputs the two-dimensional X-ray image data I41 into the learned model M1 so that each of the two-dimensional X-ray image data I41. Three-dimensional data D41 is generated by estimating depth information about a position and adding the estimated depth information to each position of the two-dimensional X-ray image data I41. As another example, the additional function 110d reads a subject map from the map storage circuit 112, estimates depth information for each position in the two-dimensional X-ray image data I41 based on the subject map, and estimates the depth information. Is added to each position of the two-dimensional X-ray image data I41 to generate three-dimensional data D41.

また、制御機能110fは、操作者から撮影角度の変更操作を受け付ける。なお、3次元データD41の生成は、操作者による撮影角度の変更操作がある前に行なってもよいし、撮影角度の変更操作があった後に行なってもよい。以下では、2次元X線画像データI41の撮影角度を、撮影角度W41と記載する。また、以下では、操作者による変更後の撮影角度を、撮影角度W42と記載する。例えば、変更後の撮影角度W42は、撮影角度W41から角度「θ4」だけ変更された角度である。また、以下では、撮影角度W42で収集されるX線画像データを、回転画像データI42と記載する。 Further, the control function 110f receives an operation of changing the shooting angle from the operator. The three-dimensional data D41 may be generated before the operator changes the shooting angle or after the operator changes the shooting angle. Hereinafter, the imaging angle of the two-dimensional X-ray image data I41 will be referred to as the imaging angle W41. In the following, the shooting angle after being changed by the operator will be referred to as a shooting angle W42. For example, the changed shooting angle W42 is an angle obtained by changing the shooting angle W41 by the angle “θ4”. In the following, the X-ray image data acquired at the imaging angle W42 will be referred to as rotated image data I42.

次に、生成機能110eは、3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成する。例えば、生成機能110eは、3次元データD41において実空間におけるアイソセンターに対応する点を特定し、特定した対応する点まわりに3次元データD41を回転させ、回転後の3次元データD41を投影することによって擬似画像データI43を生成する。なお、付加機能110dは、被検体マップに基づいて3次元データD41を拡張してもよい。この場合、生成機能110eは、拡張後の3次元データD41を投影することによって擬似画像データI43を生成する。 Next, the generation function 110e projects the three-dimensional data D41 to generate the pseudo image data I43, which is a pseudo representation of the rotated image data I42. For example, the generation function 110e identifies a point corresponding to the isocenter in the real space in the three-dimensional data D41, rotates the three-dimensional data D41 around the identified corresponding point, and projects the rotated three-dimensional data D41. Thus, the pseudo image data I43 is generated. The additional function 110d may expand the three-dimensional data D41 based on the subject map. In this case, the generation function 110e generates the pseudo image data I43 by projecting the expanded three-dimensional data D41.

次に、表示制御機能110bは、生成機能110eが生成した擬似画像データI43をディスプレイ32に表示させる。これにより、操作者は、変更後の撮影角度W42を直感的に理解し、変更後の撮影角度W42が適切であるか否かを容易に判断することができる。例えば、変更後の撮影角度W42が適切でないと判断した場合、操作者は、再度、撮影角度の変更操作を行なう。一方で、変更後の撮影角度W42が適切であると判断した場合、操作者は、撮影角度W42を撮影条件とする旨の入力操作を行なう。この場合、制御機能110fは、撮影角度W42を撮影条件として設定する。また、収集機能110aは、設定された撮影条件に従って、X線画像データの収集を実行する。例えば、収集機能110aは、回転画像データI42の収集を実行する。 Next, the display control function 110b causes the display 32 to display the pseudo image data I43 generated by the generation function 110e. This allows the operator to intuitively understand the changed shooting angle W42 and easily determine whether or not the changed shooting angle W42 is appropriate. For example, if it is determined that the changed shooting angle W42 is not appropriate, the operator again performs the shooting angle changing operation. On the other hand, when it is determined that the changed shooting angle W42 is appropriate, the operator performs an input operation to set the shooting angle W42 as the shooting condition. In this case, the control function 110f sets the shooting angle W42 as a shooting condition. Further, the collection function 110a executes collection of X-ray image data according to the set imaging conditions. For example, the collection function 110a executes collection of the rotated image data I42.

ここで、モデル生成機能110gは、収集された回転画像データI42に基づいて、
モデル記憶回路111が記憶する学習済みモデルM1を更新してもよい。例えば、まず、付加機能110dは、回転画像データI42に基づいて3次元データD41を補正する。そして、モデル生成機能110gは、2次元X線画像データI41を第1画像データとし、回転画像データI42を第2画像データとして用いて、学習済みモデルM1を更新する。また、マップ生成機能110hは、2次元X線画像データI41に基づいて、マップ記憶回路112が記憶する被検体マップを更新してもよい。例えば、マップ生成機能110hは、2次元X線画像データI41を撮影位置及び撮影角度に基づいて3次元空間上に登録することで、被検体マップを更新する。
Here, the model generation function 110g, based on the collected rotation image data I42,
The learned model M1 stored in the model storage circuit 111 may be updated. For example, first, the additional function 110d corrects the three-dimensional data D41 based on the rotated image data I42. Then, the model generation function 110g updates the learned model M1 by using the two-dimensional X-ray image data I41 as the first image data and the rotated image data I42 as the second image data. The map generation function 110h may update the subject map stored in the map storage circuit 112 based on the two-dimensional X-ray image data I41. For example, the map generation function 110h updates the subject map by registering the two-dimensional X-ray image data I41 in the three-dimensional space based on the imaging position and the imaging angle.

また、上述した実施形態では、3次元データの生成及び擬似画像データの生成を、医用画像処理装置30又はX線診断装置10のいずれか一方の装置が行なうものとして説明した。しかしながら、実施形態はこれに限定されるものではない。即ち、3次元データの生成及び擬似画像データの生成は、複数の装置に分散されて実行されてもよい。 Further, in the above-described embodiment, it has been described that the one of the medical image processing apparatus 30 and the X-ray diagnostic apparatus 10 performs the generation of the three-dimensional data and the generation of the pseudo image data. However, the embodiment is not limited to this. That is, the generation of the three-dimensional data and the generation of the pseudo image data may be distributed to a plurality of devices and executed.

例えば、収集機能110aは、まず、被検体Pから2次元X線画像データI41を収集する。次に、付加機能110dは、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成する。次に、送信機能110cは、付加機能110dが生成した3次元データD41を医用画像処理装置30に送信する。次に、生成機能343は、3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成し、生成した擬似画像データI43をX線診断装置10に送信する。そして、表示制御機能110bは、受信した擬似画像データI43を、ディスプレイ108に表示させる。 For example, the collection function 110a first collects the two-dimensional X-ray image data I41 from the subject P. Next, the additional function 110d generates three-dimensional data D41 to which depth information is added for each position in the two-dimensional X-ray image data I41. Next, the transmission function 110c transmits the three-dimensional data D41 generated by the additional function 110d to the medical image processing apparatus 30. Next, the generation function 343 projects the three-dimensional data D41 to generate the pseudo image data I43 which is a pseudo representation of the rotated image data I42, and transmits the generated pseudo image data I43 to the X-ray diagnostic apparatus 10. To do. Then, the display control function 110b causes the display 108 to display the received pseudo image data I43.

別の例を挙げると、送信機能110cは、被検体Pから収集された2次元X線画像データI41を、医用画像処理装置30に送信する。次に、付加機能342は、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成し、生成した3次元データD41をX線診断装置10に送信する。次に、生成機能110eは、受信した3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成する。そして、表示制御機能110bは、生成機能110eにより生成された擬似画像データI43を、ディスプレイ108に表示させる。 As another example, the transmission function 110c transmits the two-dimensional X-ray image data I41 collected from the subject P to the medical image processing apparatus 30. Next, the additional function 342 generates the three-dimensional data D41 to which the depth information is added for each position in the two-dimensional X-ray image data I41, and transmits the generated three-dimensional data D41 to the X-ray diagnostic apparatus 10. Next, the generation function 110e projects the received three-dimensional data D41 to generate the pseudo image data I43, which is a pseudo representation of the rotated image data I42. Then, the display control function 110b causes the display 108 to display the pseudo image data I43 generated by the generation function 110e.

別の例を挙げると、送信機能110cは、被検体Pから収集された2次元X線画像データI41を、医用画像処理装置30に送信する。次に、付加機能342は、2次元X線画像データI41における各位置について深度情報を推定し、推定結果と2次元X線画像データI41とをX線診断装置10に送信する。次に、付加機能110dは、医用画像処理装置30から受信した推定結果と2次元X線画像データI41とに基づいて、2次元X線画像データI41における各位置について深度情報を付加した3次元データD41を生成する。次に、生成機能110eは、受信した3次元データD41を投影することにより、回転画像データI42を擬似的に示した擬似画像データI43を生成する。そして、表示制御機能110bは、生成機能110eにより生成された擬似画像データI43を、ディスプレイ108に表示させる。 As another example, the transmission function 110c transmits the two-dimensional X-ray image data I41 collected from the subject P to the medical image processing apparatus 30. Next, the additional function 342 estimates the depth information for each position in the two-dimensional X-ray image data I41, and transmits the estimation result and the two-dimensional X-ray image data I41 to the X-ray diagnostic apparatus 10. Next, the additional function 110d is based on the estimation result received from the medical image processing apparatus 30 and the two-dimensional X-ray image data I41, and the three-dimensional data in which depth information is added to each position in the two-dimensional X-ray image data I41. Generate D41. Next, the generation function 110e projects the received three-dimensional data D41 to generate the pseudo image data I43, which is a pseudo representation of the rotated image data I42. Then, the display control function 110b causes the display 108 to display the pseudo image data I43 generated by the generation function 110e.

また、上述した実施形態では、3次元データの生成処理において、3次元画像データに基づいて深度情報を推定する場合、画素値に基づいて深度情報を推定する場合、学習済みモデルM1を用いて深度情報を推定する場合、及び、被検体マップを用いて深度情報を推定する場合について説明した。しかしながら実施形態はこれに限定されるものではない。
例えば、付加機能342又は付加機能110dは、2次元X線画像データI41における各位置について複数の手法により深度情報を推定し、推定した複数の深度情報を合成し、合成した深度情報を2次元X線画像データI41の各位置に付加することで、3次元データD41を生成してもよい。
Further, in the above-described embodiment, in the process of generating three-dimensional data, when estimating depth information based on three-dimensional image data, when estimating depth information based on pixel values, the depth is estimated using the learned model M1. The case of estimating information and the case of estimating depth information using a subject map have been described. However, the embodiment is not limited to this.
For example, the additional function 342 or the additional function 110d estimates depth information for each position in the two-dimensional X-ray image data I41 by a plurality of methods, synthesizes the plurality of estimated depth information, and combines the synthesized depth information with a two-dimensional X. The three-dimensional data D41 may be generated by adding it to each position of the line image data I41.

一例を挙げると、収集機能110aは、被検体Pから2次元X線画像データI41を収集し、送信機能110cは、収集された2次元X線画像データI41を医用画像処理装置30に送信する。次に、付加機能342は、2次元X線画像データI41における各位置について複数の手法により深度情報を推定する。例えば、付加機能342は、2次元X線画像データI41と同じ被検体Pについて収集された3次元画像データに基づいて、2次元X線画像データI41における各位置について深度情報を推定する。以下、3次元画像データに基づく深度情報を、深度情報B1とする。また、例えば、付加機能342は、2次元X線画像データI41における各位置について、画素値に基づいて深度情報を推定する。以下、画素値に基づく深度情報を、深度情報B2とする。また、例えば、付加機能342は、モデル記憶回路35から学習済みモデルM1を読み出し、2次元X線画像データI41を学習済みモデルM1に入力することで2次元X線画像データI41における各位置について深度情報を推定させる。以下、学習済みモデルM1に基づく深度情報を、深度情報B3とする。また、例えば、付加機能342は、マップ記憶回路36から被検体マップを読み出し、被検体マップに基づいて2次元X線画像データI41における各位置について深度情報を推定する。以下、学習済みモデルM1に基づく深度情報を、深度情報B4とする。次に、付加機能342は、複数の深度情報を合成する。例えば、付加機能342は、上述した深度情報B1、深度情報B2、深度情報B3及び深度情報B4のうち少なくとも2つを合成する。 For example, the collection function 110a collects the two-dimensional X-ray image data I41 from the subject P, and the transmission function 110c sends the collected two-dimensional X-ray image data I41 to the medical image processing apparatus 30. Next, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I41 by a plurality of methods. For example, the additional function 342 estimates depth information for each position in the two-dimensional X-ray image data I41 based on the three-dimensional image data acquired for the same subject P as the two-dimensional X-ray image data I41. Hereinafter, the depth information based on the three-dimensional image data will be referred to as depth information B1. Further, for example, the additional function 342 estimates the depth information based on the pixel value for each position in the two-dimensional X-ray image data I41. Hereinafter, the depth information based on the pixel value will be referred to as depth information B2. Further, for example, the additional function 342 reads the learned model M1 from the model storage circuit 35 and inputs the two-dimensional X-ray image data I41 to the learned model M1 to obtain the depth at each position in the two-dimensional X-ray image data I41. Have the information estimated. Hereinafter, the depth information based on the learned model M1 will be referred to as depth information B3. Further, for example, the additional function 342 reads the subject map from the map storage circuit 36, and estimates depth information for each position in the two-dimensional X-ray image data I41 based on the subject map. Hereinafter, the depth information based on the learned model M1 will be referred to as depth information B4. Next, the additional function 342 synthesizes a plurality of depth information. For example, the additional function 342 combines at least two of the depth information B1, the depth information B2, the depth information B3, and the depth information B4 described above.

一例を挙げると、付加機能342は、深度情報B1及び深度情報B2をそれぞれ推定する。ここで、深度情報がZ座標で表される場合、付加機能342は、深度情報B1及び深度情報B2の平均値(2つのZ座標の中点)を算出する。そして、付加機能342は、算出した平均値を2次元X線画像データI41の各位置に付加することで、3次元データD41を生成する。 For example, the additional function 342 estimates the depth information B1 and the depth information B2, respectively. Here, when the depth information is represented by the Z coordinate, the additional function 342 calculates the average value of the depth information B1 and the depth information B2 (the middle point of the two Z coordinates). Then, the adding function 342 adds the calculated average value to each position of the two-dimensional X-ray image data I41 to generate the three-dimensional data D41.

第1〜第4の実施形態に係る各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現されうる。 Each component of each device according to the first to fourth embodiments is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of distribution/integration of each device is not limited to that shown in the figure, and all or part of the device may be functionally or physically distributed/arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured. Furthermore, all or arbitrary parts of the processing functions performed by each device can be realized by a CPU and a program that is analyzed and executed by the CPU, or can be realized as hardware by a wired logic.

また、第1〜第4の実施形態で説明した医用画像処理方法は、予め用意された医用画像処理プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この医用画像処理プログラムは、インターネット等のネットワークを介して配布することができる。また、この医用画像処理プログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な非一過性の記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 The medical image processing methods described in the first to fourth embodiments can be realized by executing a prepared medical image processing program on a computer such as a personal computer or a workstation. This medical image processing program can be distributed via a network such as the Internet. Further, this medical image processing program is recorded in a computer-readable non-transitory recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, etc., and is read from the recording medium by the computer. It can also be performed by.

以上説明した少なくとも一つの実施形態によれば、被ばく量を低減しつつ、撮影条件の設定を容易にすることができる。 According to at least one of the embodiments described above, it is possible to easily set the shooting conditions while reducing the exposure dose.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. The embodiments and their modifications are included in the scope of the invention and the scope thereof, as well as in the invention described in the claims and the scope of equivalents thereof.

1 医用情報処理システム
10 X線診断装置
110 処理回路
110a 収集機能
110b 表示制御機能
110c 送信機能
110d 付加機能
110e 生成機能
110f 制御機能
110g モデル生成機能
110h マップ生成機能
111 モデル記憶回路
112 マップ記憶回路
30 医用画像処理装置
34 処理回路
341 取得機能
342 付加機能
343 生成機能
344 表示制御機能
345 制御機能
346 モデル生成機能
347 マップ生成機能
35 モデル記憶回路
36 マップ記憶回路
1 Medical Information Processing System 10 X-Ray Diagnostic Device 110 Processing Circuit 110a Acquisition Function 110b Display Control Function 110c Transmission Function 110d Additional Function 110e Generation Function 110f Control Function 110g Model Generation Function 110h Map Generation Function 111 Model Storage Circuit 112 Map Storage Circuit 30 Medical Image processing device 34 Processing circuit 341 Acquisition function 342 Additional function 343 Generation function 344 Display control function 345 Control function 346 Model generation function 347 Map generation function 35 Model storage circuit 36 Map storage circuit

Claims (20)

2次元X線画像データを取得する取得部と、
前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する付加部と、
前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する生成部と
を備える、医用画像処理装置。
An acquisition unit for acquiring two-dimensional X-ray image data,
An addition unit for generating three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data,
A projection unit configured to project the three-dimensional data to generate pseudo image data that pseudo-shows X-ray image data acquired at an imaging angle different from that of the two-dimensional X-ray image data. apparatus.
前記付加部は、前記2次元X線画像データと同じ被検体について収集された3次元画像データに基づいて、前記2次元X線画像データにおける各位置について深度情報を推定し、推定した深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項1に記載の医用画像処理装置。 The adding unit estimates depth information for each position in the two-dimensional X-ray image data based on the three-dimensional image data collected for the same subject as the two-dimensional X-ray image data, and calculates the estimated depth information. The medical image processing apparatus according to claim 1, wherein the three-dimensional data is generated by adding it to each position of the two-dimensional X-ray image data. 前記付加部は、前記2次元X線画像データと前記3次元画像データとを位置合わせすることで、前記2次元X線画像データにおける各位置について深度情報を推定する、請求項2に記載の医用画像処理装置。 The medical device according to claim 2, wherein the adding unit estimates depth information at each position in the two-dimensional X-ray image data by aligning the two-dimensional X-ray image data and the three-dimensional image data. Image processing device. 深度情報を推定するように機能付けられた学習済みモデルを記憶するモデル記憶部を更に備え、
前記付加部は、前記2次元X線画像データを前記学習済みモデルに入力することで前記2次元X線画像データにおける各位置について深度情報を推定させ、推定させた深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項1〜3のいずれか一項に記載の医用画像処理装置。
Further comprising a model store for storing a trained model functionalized to estimate depth information,
The adding unit inputs the two-dimensional X-ray image data into the learned model to estimate depth information for each position in the two-dimensional X-ray image data, and the estimated depth information is used for the two-dimensional X-ray. The medical image processing apparatus according to claim 1, wherein the three-dimensional data is generated by adding the image data to each position.
前記学習済みモデルを生成するモデル生成部を更に備える、請求項4に記載の医用画像処理装置。 The medical image processing apparatus according to claim 4, further comprising a model generation unit that generates the learned model. 前記モデル生成部は、2次元で収集されたX線画像データである第1画像データと、当該第1画像データにおける各位置について深度情報を付加した第2画像データとを用いて、前記学習済みモデルを生成する、請求項5に記載の医用画像処理装置。 The model generation unit uses the first image data, which is two-dimensionally acquired X-ray image data, and the second image data to which depth information is added for each position in the first image data, and the learned The medical image processing apparatus according to claim 5, which generates a model. 前記付加部は、前記第1画像データの各位置に深度情報を付加する操作を受け付けることで、前記第2画像データを生成する、請求項6に記載の医用画像処理装置。 The medical image processing apparatus according to claim 6, wherein the adding unit generates the second image data by receiving an operation of adding depth information to each position of the first image data. 前記付加部は、前記第1画像データと同じ被検体について収集された3次元画像データに基づいて、前記第1画像データにおける各位置について深度情報を推定し、推定した深度情報を前記第1画像データの各位置に付加することで、前記第2画像データを生成する、請求項6に記載の医用画像処理装置。 The adding unit estimates depth information for each position in the first image data based on the three-dimensional image data collected for the same subject as the first image data, and uses the estimated depth information as the first image. The medical image processing apparatus according to claim 6, wherein the second image data is generated by adding the data to each position. 前記モデル生成部は、前記2次元X線画像データを前記第1画像データとして用いて、前記学習済みモデルを生成する、請求項6〜8のいずれか一項に記載の医用画像処理装置。 The medical image processing apparatus according to claim 6, wherein the model generation unit uses the two-dimensional X-ray image data as the first image data to generate the learned model. 前記付加部は、前記異なる撮影角度で収集されたX線画像データに基づいて前記3次元データを補正し、
前記モデル生成部は、前記2次元X線画像データを前記第1画像データとし、補正後の前記3次元データを前記第2画像データとして用いて、前記学習済みモデルを生成する、請求項6に記載の医用画像処理装置。
The addition unit corrects the three-dimensional data based on the X-ray image data collected at the different imaging angles,
7. The model generation unit generates the learned model by using the two-dimensional X-ray image data as the first image data and the corrected three-dimensional data as the second image data. The medical image processing apparatus described.
前記付加部は、前記2次元X線画像データにおける各位置について、画素値に基づいて深度情報を推定し、推定した深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項1〜10のいずれか一項に記載の医用画像処理装置。 The adding unit estimates depth information for each position in the two-dimensional X-ray image data based on a pixel value, and adds the estimated depth information to each position in the two-dimensional X-ray image data to add the depth information. The medical image processing apparatus according to claim 1, wherein the medical image processing apparatus generates dimensional data. 前記生成部は、前記3次元データにおいて実空間におけるアイソセンターに対応する点を特定し、当該対応する点まわりに前記3次元データを回転させ、回転後の前記3次元データを投影することにより、前記擬似画像データを生成する、請求項1〜11のいずれか一項に記載の医用画像処理装置。 The generation unit identifies a point corresponding to an isocenter in the real space in the three-dimensional data, rotates the three-dimensional data around the corresponding point, and projects the rotated three-dimensional data, The medical image processing apparatus according to claim 1, which generates the pseudo image data. 前記2次元X線画像データと同じ被検体について収集されたX線画像データを当該X線画像データの撮影位置及び撮影角度に応じて3次元空間上に登録した被検体マップを記憶するマップ記憶部と、
前記2次元X線画像データを、当該2次元X線画像データの撮影位置及び撮影角度に応じて前記3次元空間上に登録することで、前記被検体マップを更新するマップ生成部とを更に備える、請求項1〜12のいずれか一項に記載の医用画像処理装置。
A map storage unit that stores an object map in which the X-ray image data collected for the same object as the two-dimensional X-ray image data is registered in a three-dimensional space according to the imaging position and imaging angle of the X-ray image data. When,
A map generation unit that updates the object map by registering the two-dimensional X-ray image data in the three-dimensional space according to the imaging position and the imaging angle of the two-dimensional X-ray image data. The medical image processing apparatus according to any one of claims 1 to 12.
前記マップ生成部は、撮影位置が同じであり且つ撮影角度が異なる複数の2次元のX線画像データに基づいて3次元のX線画像データを生成し、生成した3次元のX線画像データを前記3次元空間上に登録することで、前記被検体マップを更新する、請求項13に記載の医用画像処理装置。 The map generation unit generates three-dimensional X-ray image data based on a plurality of two-dimensional X-ray image data at the same photographing position and different photographing angles, and generates the generated three-dimensional X-ray image data. The medical image processing apparatus according to claim 13, wherein the subject map is updated by registering in the three-dimensional space. 前記マップ生成部は、複数のX線画像データが重なる部分が滑らかに繋がるように、前記被検体マップを更新する、請求項13又は14に記載の医用画像処理装置。 The medical image processing apparatus according to claim 13, wherein the map generation unit updates the subject map so that a portion where a plurality of X-ray image data overlaps is smoothly connected. 前記付加部は、前記被検体マップに基づいて、前記2次元X線画像データにおける各位置について深度情報を推定し、推定した深度情報を前記2次元X線画像データの各位置に付加することで前記3次元データを生成する、請求項13〜15のいずれか一項に記載の医用画像処理装置。 The adding unit estimates depth information for each position in the two-dimensional X-ray image data based on the subject map, and adds the estimated depth information to each position in the two-dimensional X-ray image data. The medical image processing apparatus according to claim 13, which generates the three-dimensional data. 前記付加部は、前記被検体マップに基づいて前記3次元データを拡張し、
前記生成部は、拡張後の前記3次元データを投影することにより、前記擬似画像データを生成する、請求項13〜16のいずれか一項に記載の医用画像処理装置。
The addition unit expands the three-dimensional data based on the subject map,
The medical image processing apparatus according to claim 13, wherein the generation unit generates the pseudo image data by projecting the expanded three-dimensional data.
同じ被検体について収集されたX線画像データを当該X線画像データの撮影位置及び撮影角度に応じて3次元空間上に登録した被検体マップを記憶するマップ記憶部と、
新たに収集されたX線画像データを当該X線画像データの撮影位置及び撮影角度に応じて前記3次元空間上に登録することで、前記被検体マップを更新するマップ生成部と
を備える、医用画像処理装置。
A map storage unit that stores an object map in which the X-ray image data collected for the same object is registered in a three-dimensional space according to the imaging position and imaging angle of the X-ray image data,
A map generator that updates the object map by registering the newly acquired X-ray image data in the three-dimensional space according to the imaging position and imaging angle of the X-ray image data. Image processing device.
2次元X線画像データを収集する収集部と、
前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する付加部と、
前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する生成部と
を備える、X線診断装置。
A collection unit for collecting two-dimensional X-ray image data,
An addition unit for generating three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data,
A projection unit that projects pseudo-image data by projecting the three-dimensional data to show X-ray image data acquired at an imaging angle different from that of the two-dimensional X-ray image data. apparatus.
2次元X線画像データを収集する収集部と、
前記2次元X線画像データにおける各位置について深度情報を付加した3次元データを生成する付加部と、
前記3次元データを投影することにより、前記2次元X線画像データと異なる撮影角度で収集されるX線画像データを擬似的に示した擬似画像データを生成する生成部と
を備える、医用情報処理システム。
A collection unit for collecting two-dimensional X-ray image data,
An addition unit for generating three-dimensional data to which depth information is added for each position in the two-dimensional X-ray image data,
A processing unit for generating pseudo image data, which is a pseudo representation of X-ray image data acquired at an imaging angle different from that of the two-dimensional X-ray image data, by projecting the three-dimensional data. system.
JP2019021252A 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems Active JP7341667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021252A JP7341667B2 (en) 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021252A JP7341667B2 (en) 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems

Publications (2)

Publication Number Publication Date
JP2020127600A true JP2020127600A (en) 2020-08-27
JP7341667B2 JP7341667B2 (en) 2023-09-11

Family

ID=72174869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021252A Active JP7341667B2 (en) 2019-02-08 2019-02-08 Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems

Country Status (1)

Country Link
JP (1) JP7341667B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7506568B2 (en) 2020-09-23 2024-06-26 アンリツ株式会社 X-ray inspection device and X-ray inspection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098316A1 (en) * 2008-10-13 2010-04-22 George Yiorgos Papaioannou Dynamic biplane roentgen stereophotogrammetric analysis
JP2019500146A (en) * 2015-12-30 2019-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3D body model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098316A1 (en) * 2008-10-13 2010-04-22 George Yiorgos Papaioannou Dynamic biplane roentgen stereophotogrammetric analysis
JP2019500146A (en) * 2015-12-30 2019-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3D body model

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7506568B2 (en) 2020-09-23 2024-06-26 アンリツ株式会社 X-ray inspection device and X-ray inspection method

Also Published As

Publication number Publication date
JP7341667B2 (en) 2023-09-11

Similar Documents

Publication Publication Date Title
CN111938678B (en) Imaging system and method
EP2193479B1 (en) Radiation systems and methods using deformable image registration
US9833210B2 (en) Medical image diagnostic apparatus
JP7242284B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
US10245001B2 (en) Generation of a three-dimensional reconstruction of a body part by an X-ray machine
JP2016198262A (en) X-ray diagnostic apparatus
US10546398B2 (en) Device and method for fine adjustment of the reconstruction plane of a digital combination image
JP6965049B2 (en) Medical diagnostic imaging equipment, medical information processing equipment and medical information processing programs
JP2017189526A (en) Information processing device and radiotherapy system
JP7341667B2 (en) Medical image processing equipment, X-ray diagnostic equipment, and medical information processing systems
JP2021133247A (en) Methods and systems for digital mammography imaging
JP7334034B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP7195868B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program
JP7297507B2 (en) Image processing device, X-ray diagnostic device and program
CN114052758A (en) Method for recording X-ray images, medical X-ray system and medium
CN110267594B (en) Isocenter in C-arm computed tomography
JP2017217154A (en) X-ray CT apparatus
JP2020096702A (en) Medical image processing device, x-ray diagnostic device, and medical image processing program
JP7292871B2 (en) Medical information processing device and X-ray diagnostic device
JP2021185969A (en) Medical information processing device, x-ray diagnostic device, and program
WO2023176264A1 (en) Medical image processing device, treatment system, medical image processing method, and program
JP2023074285A (en) Medical image processing apparatus and x-ray diagnostic apparatus
JP2022028188A (en) Medical image processing device, x-ray diagnostic apparatus, and program
JP2021133036A (en) Medical image processing apparatus, x-ray diagnostic apparatus and medical image processing program
JP2020096751A (en) X-ray diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7341667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150