JP2019075123A - Image processing apparatus and medical image taking apparatus - Google Patents

Image processing apparatus and medical image taking apparatus Download PDF

Info

Publication number
JP2019075123A
JP2019075123A JP2018195917A JP2018195917A JP2019075123A JP 2019075123 A JP2019075123 A JP 2019075123A JP 2018195917 A JP2018195917 A JP 2018195917A JP 2018195917 A JP2018195917 A JP 2018195917A JP 2019075123 A JP2019075123 A JP 2019075123A
Authority
JP
Japan
Prior art keywords
region
pixels
function
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018195917A
Other languages
Japanese (ja)
Other versions
JP7166870B2 (en
Inventor
美沙枝 原武
Misae Haratake
美沙枝 原武
金子 敏充
Toshimitsu Kaneko
敏充 金子
敦司 谷口
Atsushi Yaguchi
敦司 谷口
達也 木本
Tatsuya Kimoto
達也 木本
塚越 伸介
Shinsuke Tsukagoshi
伸介 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to US16/162,986 priority Critical patent/US11138735B2/en
Publication of JP2019075123A publication Critical patent/JP2019075123A/en
Application granted granted Critical
Publication of JP7166870B2 publication Critical patent/JP7166870B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To evaluate a state of adhesion with high degree of accuracy.SOLUTION: An image processing apparatus of an embodiment comprises an acquisition unit and a first calculation unit. The acquisition unit acquires a plurality of images taken so as to include a target site of a subject in temporal phases. The first calculation unit calculates an index indicating a state of an adhesion at a boundary between a first site of the subject corresponding to a first region and a second site of the subject corresponding to a second region, by using classification information used for classifying each of pixels into one selected from between a first class related to the first region and a second class related to a second region positioned adjacent to the first region in a predetermined direction, on a basis of mobility information among the images in the temporal phases with respect to the pixels in the images that are arranged in the predetermined direction across the boundary between the first region and the second region of the images.SELECTED DRAWING: Figure 17

Description

本発明の実施形態は、画像処理装置及び医用画像撮像装置に関する。   Embodiments of the present invention relate to an image processing apparatus and a medical imaging apparatus.

従来、被検体の呼吸時の動画像から、肺の壁側胸膜と臓側胸膜との癒着の状態を評価する医用画像撮像装置がある。   Conventionally, there is a medical imaging apparatus that evaluates the state of adhesion between the wall side pleura of the lung and the visceral pleura from a moving image of a subject during breathing.

特開2016−67832号公報JP, 2016-67832, A

本発明が解決しようとする課題は、精度良く付着の状態を評価することができる画像処理装置及び医用画像撮像装置を提供することである。   The problem to be solved by the present invention is to provide an image processing apparatus and a medical imaging apparatus capable of accurately evaluating the state of adhesion.

実施形態の画像処理装置は、取得部と、第1の算出部とを備える。取得部は、複数の時相において被検体の対象部位を含んで撮像された複数の画像を取得する。第1の算出部は、画像における第1の領域及び第2の領域の境界を跨いで所定方向に並んだ画像の複数の画素における、複数の時相の画像間での移動情報に基づいて、第1の領域に係る第1のクラス又は第1の領域と所定方向に隣り合う第2の領域に係る第2のクラスへ複数の画素のそれぞれを分類する際の分類情報から、第1の領域に対応する被検体の第1の部位と第2の領域に対応する被検体の第2の部位との境界における付着の状態を示す指標を算出する。   The image processing apparatus according to the embodiment includes an acquisition unit and a first calculation unit. The acquisition unit acquires a plurality of images captured including a target site of the subject in a plurality of time phases. The first calculation unit is based on movement information among images of a plurality of time phases in a plurality of pixels of an image aligned in a predetermined direction across the boundary of the first region and the second region in the image. From the classification information at the time of classifying each of the plurality of pixels into the second class related to the first class related to the first area or the second area adjacent to the first area in the predetermined direction, the first area An index indicating the state of adhesion at the boundary between the first portion of the subject corresponding to and the second portion of the subject corresponding to the second region is calculated.

図1は、第1の実施形態に係るX線CT装置の構成の一例を示す図である。FIG. 1 is a view showing an example of the arrangement of an X-ray CT apparatus according to the first embodiment. 図2は、第1の実施形態に係る評価処理の一例の流れを示すフローチャートである。FIG. 2 is a flowchart showing a flow of an example of evaluation processing according to the first embodiment. 図3は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図4は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図5は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図6は、第1の実施形態に係るカットラインの一例を説明するための図である。FIG. 6 is a view for explaining an example of a cut line according to the first embodiment. 図7は、第1の実施形態に係るカットラインの一例を説明するための図である。FIG. 7 is a view for explaining an example of a cut line according to the first embodiment. 図8は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図9は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図10は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 10 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図11は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図12は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図13は、第1の実施形態に係る評価処理の一例を説明するための図である。FIG. 13 is a diagram for explaining an example of the evaluation process according to the first embodiment. 図14は、第1の実施形態に係る表示用の2次元画像データが示す画像の一例を示す図である。FIG. 14 is a view showing an example of an image represented by two-dimensional image data for display according to the first embodiment. 図15は、第2の変形例に係るX線CT装置が実行する処理の一例を説明するための図である。FIG. 15 is a diagram for explaining an example of processing performed by the X-ray CT apparatus according to the second modification. 図16は、第2の変形例に係るX線CT装置が実行する処理の一例を説明するための図である。FIG. 16 is a diagram for explaining an example of processing performed by the X-ray CT apparatus according to the second modification. 図17は、第2の実施形態に係る画像処理装置を含むシステムの構成の一例を示す図である。FIG. 17 is a diagram showing an example of the configuration of a system including the image processing apparatus according to the second embodiment.

以下、図面を参照して、実施形態に係る画像処理装置及び医用画像撮像装置を説明する。また、一つの実施形態に記載した内容は、原則として他の実施形態にも同様に適用される。   Hereinafter, an image processing apparatus and a medical imaging apparatus according to an embodiment will be described with reference to the drawings. In addition, the contents described in one embodiment apply in principle to the other embodiments as well.

なお、医用画像撮像装置とは、被検体を撮像して医用画像を生成する医用画像診断装置の総称である。例えば、医用画像撮像装置には、X線CT装置が含まれる。以下の実施形態では、開示の技術がX線CT装置に適用される場合を説明するが、他の医用画像撮像装置(例えば、磁気共鳴イメージング(Magnetic Resonance Imaging:MRI)装置、X線アンギオ装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置等)にも同様に適用可能である。   The medical imaging apparatus is a generic term for a medical image diagnostic apparatus that images a subject and generates a medical image. For example, the medical imaging apparatus includes an X-ray CT apparatus. In the following embodiments, the case where the disclosed technology is applied to an X-ray CT apparatus will be described, but other medical imaging apparatus (for example, Magnetic Resonance Imaging (MRI) apparatus, X-ray angiography apparatus, The present invention is similarly applicable to PET (Positron Emission Tomography) apparatus, SPECT (Single Photon Emission Computed Tomography) apparatus, and the like.

(第1の実施形態)
図1は、第1の実施形態に係るX線CT装置1の構成の一例を示す図である。図1に示すように、第1の実施形態に係るX線CT装置1は、架台装置10と、寝台装置20と、コンソール装置30とを有する。架台装置10、寝台装置20、及びコンソール装置30は、互いに通信可能に接続される。
First Embodiment
FIG. 1 is a view showing an example of the arrangement of an X-ray CT apparatus 1 according to the first embodiment. As shown in FIG. 1, the X-ray CT apparatus 1 according to the first embodiment has a gantry device 10, a couch device 20, and a console device 30. The gantry device 10, the couch device 20, and the console device 30 are communicably connected to one another.

なお、本実施形態では、非チルト状態での回転フレーム13の回転軸又は寝台装置20の天板23の長手方向を「Z軸方向」と定義する。また、Z軸方向に直交し、床面に対し水平である軸方向を「X軸方向」と定義する。また、Z軸方向に直交し、床面に対し垂直である軸方向を「Y軸方向」と定義する。   In the present embodiment, the rotational axis of the rotary frame 13 in the non-tilted state or the longitudinal direction of the top plate 23 of the bed device 20 is defined as the “Z-axis direction”. Further, an axial direction orthogonal to the Z-axis direction and horizontal to the floor surface is defined as “X-axis direction”. Further, an axial direction orthogonal to the Z-axis direction and perpendicular to the floor surface is defined as "Y-axis direction".

架台装置10は、被検体(患者)PにX線を照射し、被検体Pを透過したX線を検出して、コンソール装置30に出力する装置である。架台装置10は、X線管11と、X線検出器12と、回転フレーム13と、制御装置14と、ウェッジ15と、コリメータ16と、DAS(Data Acquisition System)17と、X線高電圧装置18とを有する。   The gantry device 10 is a device that irradiates a subject (patient) P with X-rays, detects X-rays transmitted through the subject P, and outputs the detected X-rays to the console device 30. The gantry device 10 includes an X-ray tube 11, an X-ray detector 12, a rotating frame 13, a control device 14, a wedge 15, a collimator 16, a DAS (Data Acquisition System) 17, and an X-ray high voltage device And 18).

X線管11は、X線高電圧装置18からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射する真空管である。X線管11は、熱電子を陽極に衝突させることにより、X線を発生させる。   The X-ray tube 11 is a vacuum tube which irradiates thermoelectrons from the cathode (filament) to the anode (target) by application of high voltage from the X-ray high voltage device 18. The X-ray tube 11 generates X-rays by colliding thermions with the anode.

ウェッジ15は、X線管11から照射されたX線量を調節するためのフィルタである。具体的には、ウェッジ15は、X線管11から被検体Pへ照射されるX線の分布が、予め定められた分布になるように、X線管11から照射されたX線を透過して減衰するフィルタである。例えば、ウェッジ15は、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したフィルタである。なお、ウェッジ15は、ウェッジフィルタ(wedge filter)や、ボウタイフィルタ(bow-tie filter)とも呼ばれる。   The wedge 15 is a filter for adjusting the X-ray dose emitted from the X-ray tube 11. Specifically, the wedge 15 transmits the X-rays irradiated from the X-ray tube 11 so that the distribution of the X-rays irradiated from the X-ray tube 11 to the subject P becomes a predetermined distribution. Is a filter that attenuates. For example, the wedge 15 is a filter obtained by processing aluminum so as to have a predetermined target angle and a predetermined thickness. The wedge 15 is also called a wedge filter or a bow-tie filter.

コリメータ16は、ウェッジ15を透過したX線の照射範囲を絞り込むための鉛板等である。コリメータ16は、複数の鉛板等を組み合わせることで、スリット状に形成される。   The collimator 16 is a lead plate or the like for narrowing the irradiation range of the X-rays transmitted through the wedge 15. The collimator 16 is formed in a slit shape by combining a plurality of lead plates and the like.

X線検出器12は、X線管11から照射され、被検体Pを通過したX線を検出し、当該X線量に対応した電気信号をDAS17へ出力する。X線検出器12は、例えば、X線管11の焦点を中心として1つの円弧に沿ってチャネル方向に複数のX線検出素子が配列された複数のX線検出素子列を有する。X線検出器12は、例えば、チャネル方向に複数のX線検出素子が配列されたX線検出素子列がスライス方向(列方向又はrow方向とも称される)に複数配列された構造を有する。   The X-ray detector 12 detects an X-ray irradiated from the X-ray tube 11 and having passed through the subject P, and outputs an electrical signal corresponding to the X-ray dose to the DAS 17. The X-ray detector 12 has, for example, a plurality of X-ray detection element rows in which a plurality of X-ray detection elements are arranged in the channel direction along one arc centering on the focal point of the X-ray tube 11. The X-ray detector 12 has, for example, a structure in which a plurality of X-ray detection element rows in which a plurality of X-ray detection elements are arranged in the channel direction are arranged in a slice direction (also referred to as a column direction or a row direction).

また、X線検出器12は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接変換型の検出器である。シンチレータアレイは、複数のシンチレータを有し、シンチレータは、入射X線量に応じた光子量の光を出力するシンチレータ結晶を有する。グリッドは、シンチレータアレイのX線入射側の面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。光センサアレイは、シンチレータからの光量に応じた電気信号を出力する機能を有し、例えば、光電子増倍管(Photomultiplier Tube:PMT)等の光センサを有する。なお、X線検出器12は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であっても構わない。   The X-ray detector 12 is, for example, an indirect conversion detector having a grid, a scintillator array, and a light sensor array. The scintillator array has a plurality of scintillators, and the scintillators have scintillator crystals that output light of an amount of photons according to the incident X-ray dose. The grid is disposed on the surface of the scintillator array on the X-ray incident side, and has an X-ray shielding plate having a function of absorbing scattered X-rays. The photosensor array has a function of outputting an electrical signal according to the light quantity from the scintillator, and has, for example, a photosensor such as a photomultiplier tube (PMT). The X-ray detector 12 may be a direct conversion detector having a semiconductor element that converts incident X-rays into an electric signal.

X線高電圧装置18は、変圧器(トランス)及び整流器等の電気回路を有し、X線管11に印加する高電圧を発生する機能を有する高電圧発生装置と、X線管11が照射するX線出力に応じた出力電圧の制御を行うX線制御装置とを有する。高電圧発生装置は、変圧器方式であってもよいし、インバータ方式であっても構わない。なお、X線高電圧装置18は、後述する回転フレーム13に設けられてもよいし、架台装置10の固定フレーム(図示しない)側に設けられても構わない。なお、固定フレームは、回転フレーム13を回転可能に支持するフレームである。   The X-ray high voltage device 18 has an electric circuit such as a transformer and a rectifier and has a function of generating a high voltage to be applied to the X-ray tube 11, and the X-ray tube 11 emits radiation. And an X-ray controller for controlling an output voltage in accordance with the X-ray output. The high voltage generator may be a transformer type or an inverter type. Note that the X-ray high voltage device 18 may be provided on the rotating frame 13 described later, or may be provided on the fixed frame (not shown) side of the gantry device 10. The fixed frame is a frame that rotatably supports the rotating frame 13.

DAS17は、X線検出器12の各X線検出素子から出力される電気信号に対して増幅処理を行う増幅器と、電気信号をデジタル信号に変換するA/D変換器とを有し、検出データを生成する。DAS17が生成した検出データは、コンソール装置30へと転送される。   The DAS 17 has an amplifier for amplifying the electric signal output from each X-ray detection element of the X-ray detector 12 and an A / D converter for converting the electric signal into a digital signal. Generate The detection data generated by the DAS 17 is transferred to the console device 30.

回転フレーム13は、X線管11とX線検出器12とを対向支持し、後述する制御装置14によってX線管11とX線検出器12とを回転させる円環状のフレームである。なお、回転フレーム13は、X線管11とX線検出器12に加えて、X線高電圧装置18やDAS17を更に備えて支持する。DAS17が生成した検出データは、回転フレーム13に設けられた発光ダイオード(light emitting diode:LED)を有する送信機から光通信によって架台装置10の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、コンソール装置30へ転送される。なお、回転フレーム13から架台装置10の非回転部分への検出データの送信方法は、前述の光通信に限らず、非接触型のデータ伝送であれば如何なる方式を採用しても構わない。   The rotating frame 13 is an annular frame that supports the X-ray tube 11 and the X-ray detector 12 in an opposing manner and rotates the X-ray tube 11 and the X-ray detector 12 by the control device 14 described later. In addition to the X-ray tube 11 and the X-ray detector 12, the rotary frame 13 further includes and supports the X-ray high voltage device 18 and the DAS 17. Detection data generated by the DAS 17 is transmitted from a transmitter having a light emitting diode (LED) provided on the rotating frame 13 to a photodiode provided on a non-rotating portion (for example, a fixed frame) of the gantry 10 by optical communication. And to the console device 30. In addition, the transmission method of the detection data from the rotation frame 13 to the non-rotation part of the gantry device 10 is not limited to the above-mentioned optical communication, and any method may be adopted as long as it is noncontact data transmission.

制御装置14は、CPU(Central Processing Unit)等を有する処理回路と、モータ及びアクチュエータ等の駆動機構とを有する。制御装置14は、コンソール装置30又は架台装置10に取り付けられた入力インターフェースからの入力信号を受けて、架台装置10及び寝台装置20の動作制御を行う機能を有する。例えば、制御装置14は、入力信号を受けて回転フレーム13を回転させる制御や、架台装置10をチルトさせる制御、及び寝台装置20及び天板23を動作させる制御を行う。なお、架台装置10をチルトさせる制御は、架台装置10に取り付けられた入力インターフェースによって入力される傾斜角度(チルト角度)情報により、制御装置14がX軸方向に平行な軸を中心に回転フレーム13を回転させることによって実現される。なお、制御装置14は、架台装置10に設けられてもよいし、コンソール装置30に設けられても構わない。   The control device 14 has a processing circuit having a CPU (Central Processing Unit) and the like, and a drive mechanism such as a motor and an actuator. The control device 14 has a function of performing operation control of the gantry device 10 and the couch device 20 in response to an input signal from an input interface attached to the console device 30 or the gantry device 10. For example, the control device 14 performs control to rotate the rotation frame 13 in response to an input signal, control to tilt the gantry device 10, and control to operate the couch device 20 and the top plate 23. The control for tilting the gantry 10 is based on the tilt angle (tilt angle) information input by the input interface attached to the gantry 10, and the control unit 14 rotates around the axis parallel to the X-axis direction. Is realized by rotating the. The control device 14 may be provided in the gantry device 10 or may be provided in the console device 30.

寝台装置20は、スキャン対象である被検体Pを載置、移動させる装置であり、基台21と、寝台駆動装置22と、天板23と、支持フレーム24とを備えている。基台21は、支持フレーム24を鉛直方向に移動可能に支持する筐体である。寝台駆動装置22は、被検体Pが載置された天板23を天板23の長軸方向に移動するモータあるいはアクチュエータである。支持フレーム24の上面に設けられた天板23は、被検体Pが載置される板である。なお、寝台駆動装置22は、天板23に加え、支持フレーム24を天板23の長軸方向に移動してもよい。   The bed apparatus 20 is an apparatus for placing and moving the subject P to be scanned, and includes a base 21, a bed driving apparatus 22, a top 23, and a support frame 24. The base 21 is a housing that supports the support frame 24 so as to be movable in the vertical direction. The bed driving device 22 is a motor or an actuator that moves the top 23 on which the subject P is placed in the long axis direction of the top 23. The top plate 23 provided on the upper surface of the support frame 24 is a plate on which the subject P is placed. The bed driving device 22 may move the support frame 24 in the long axis direction of the top 23 in addition to the top 23.

コンソール装置30は、操作者によるX線CT装置1の操作を受け付けるとともに、架台装置10によって収集された検出データを用いてCT画像データを再構成する装置である。コンソール装置30は、図1に示すように、メモリ31と、ディスプレイ32と、入力インターフェース33と、処理回路34とを有する。メモリ31、ディスプレイ32、入力インターフェース33、及び処理回路34は、互いに通信可能に接続される。   The console device 30 is a device that receives an operation of the X-ray CT apparatus 1 by the operator and reconstructs CT image data using detection data collected by the gantry device 10. As shown in FIG. 1, the console device 30 has a memory 31, a display 32, an input interface 33, and a processing circuit 34. The memory 31, the display 32, the input interface 33, and the processing circuit 34 are communicably connected to one another.

メモリ31は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ31は、例えば、投影データやCT画像データを記憶する。   The memory 31 is realized by, for example, a random access memory (RAM), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The memory 31 stores, for example, projection data and CT image data.

ディスプレイ32は、各種の情報を表示する。例えば、ディスプレイ32は、処理回路34によって生成された医用画像(CT画像)や、操作者からの各種操作を受け付けるためのGUI(Graphical User Interface)等を出力する。例えば、ディスプレイ32は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイである。   The display 32 displays various information. For example, the display 32 outputs a medical image (CT image) generated by the processing circuit 34, a graphical user interface (GUI) for receiving various operations from the operator, and the like. For example, the display 32 is a liquid crystal display or a CRT (Cathode Ray Tube) display.

入力インターフェース33は、操作者からの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路34に出力する。例えば、入力インターフェース33は、投影データを収集する際の収集条件や、CT画像データを再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件等を操作者から受け付ける。例えば、入力インターフェース33は、マウスやキーボード、トラックボール、スイッチ、ボタン、ジョイスティック等により実現される。   The input interface 33 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the electric signals to the processing circuit 34. For example, from the operator, the input interface 33 acquires acquisition conditions for acquiring projection data, reconstruction conditions for reconstructing CT image data, and image processing conditions for generating a post-processed image from a CT image. Accept. For example, the input interface 33 is realized by a mouse, a keyboard, a trackball, a switch, a button, a joystick, or the like.

処理回路34は、X線CT装置1全体の動作を制御する。例えば、処理回路34は、システム制御機能341、前処理機能342、再構成処理機能343、及び画像処理機能344を実行する。更に、本実施形態では、処理回路34は、セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348をも実行する。処理回路34は、プロセッサにより実現される。セグメンテーション機能345は、セグメンテーション処理部の一例である。実行機能346は、実行部及び第2の算出部の一例である。評価機能347は、評価部、算出部及び第1の算出部の一例である。   The processing circuit 34 controls the overall operation of the X-ray CT apparatus 1. For example, the processing circuit 34 executes a system control function 341, a pre-processing function 342, a reconstruction processing function 343, and an image processing function 344. Furthermore, in the present embodiment, the processing circuit 34 also executes a segmentation function 345, an execution function 346, an evaluation function 347 and a color assignment function 348. The processing circuit 34 is realized by a processor. The segmentation function 345 is an example of a segmentation processing unit. The execution function 346 is an example of an execution unit and a second calculation unit. The evaluation function 347 is an example of an evaluation unit, a calculation unit, and a first calculation unit.

ここで、例えば、処理回路34の構成要素であるシステム制御機能341、前処理機能342、再構成処理機能343、画像処理機能344、セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348の各機能は、コンピュータによって実行可能なプログラムの形態でメモリ31に記憶されている。処理回路34は、各プログラムをメモリ31から読み出し、読み出した各プログラムを実行することで、各機能を実現する。換言すると、各プログラムを読み出した状態の処理回路34は、図1の処理回路34内に示された各機能を有することとなる。   Here, for example, a system control function 341, a preprocessing function 342, a reconstruction processing function 343, an image processing function 344, a segmentation function 345, an execution function 346, an evaluation function 347, and a color assignment function 348 which are components of the processing circuit 34. The respective functions are stored in the memory 31 in the form of a computer-executable program. The processing circuit 34 realizes each function by reading each program from the memory 31 and executing the read program. In other words, the processing circuit 34 in the state of reading out each program has each function shown in the processing circuit 34 of FIG. 1.

また、単一の処理回路34にて、上述した各機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路34を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。   In addition, although it has been described that each of the functions described above is realized by a single processing circuit 34, a plurality of independent processors are combined to configure the processing circuit 34, and each processor executes a program. It does not matter as a thing to realize.

また、「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、又は、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、又は、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ31に保存されたプログラムを読み出し実行することで機能を実現する。なお、メモリ31にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。更に、複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。   Further, the term “processor” means, for example, a central processing unit (CPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a programmable logic device (for example, simple programmable logic) It means a circuit such as a device (Simple Programmable Logic Device: SPLD), Complex Programmable Logic Device (CPLD), or Field Programmable Gate Array (FPGA). The processor implements a function by reading and executing a program stored in the memory 31. Instead of storing the program in the memory 31, the program may be directly incorporated in the circuit of the processor. In this case, the processor implements the function by reading and executing a program embedded in the circuit. Note that the present invention is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to be configured as one processor to realize its function. Furthermore, multiple components may be integrated into one processor to realize its function.

システム制御機能341は、入力インターフェース33を介して操作者から受け付けた入力操作に基づいて、処理回路34の各種機能を制御する。例えば、システム制御機能341は、X線CT装置1において実行されるCTスキャンを制御する。また、システム制御機能341は、前処理機能342、再構成処理機能343、及び画像処理機能344を制御することで、コンソール装置30におけるCT画像データの生成や表示を制御する。かかる表示制御を行うシステム制御機能341は、表示制御部の一例である。   The system control function 341 controls various functions of the processing circuit 34 based on the input operation received from the operator via the input interface 33. For example, the system control function 341 controls a CT scan performed in the X-ray CT apparatus 1. Further, the system control function 341 controls the generation and display of CT image data in the console device 30 by controlling the preprocessing function 342, the reconstruction processing function 343, and the image processing function 344. The system control function 341 that performs such display control is an example of a display control unit.

前処理機能342は、DAS17から出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を施したデータを生成する。なお、前処理前のデータ(検出データ)および前処理後のデータを総称して投影データと称する場合もある。   The pre-processing function 342 generates data obtained by performing pre-processing such as logarithmic conversion processing, offset correction processing, sensitivity correction processing between channels, and beam hardening correction on detection data output from the DAS 17. The data before the pre-processing (detection data) and the data after the pre-processing may be collectively referred to as projection data.

再構成処理機能343は、前処理機能342にて生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行ってCT画像データ(再構成画像データ)を生成する。   The reconstruction processing function 343 performs reconstruction processing using the filter correction back projection method or the successive approximation reconstruction method on the projection data generated by the pre-processing function 342 to obtain CT image data (reconstructed image Generate data).

画像処理機能344は、入力インターフェース33を介して操作者から受け付けた入力操作に基づいて、再構成処理機能343によって生成されたCT画像データを公知の方法により、任意断面の断層像データや3次元画像データに変換する。なお、3次元画像データは、複数の画素(ボクセル)により構成される。   The image processing function 344 generates tomographic image data or three-dimensional image of an arbitrary cross section by a known method based on an input operation received from the operator via the input interface 33 and using CT image data generated by the reconstruction processing function 343. Convert to image data. The three-dimensional image data is composed of a plurality of pixels (voxels).

また、本実施形態では、画像処理機能344は、複数の時相のCT画像データを、複数の時相の3次元画像データに変換する。このような複数の時相の3次元画像データは、いわゆる4次元画像データであり、例えば、被検体Pの対象部位を含む同一の領域を異なる時相で複数回CTスキャンされることにより得られる。   Further, in the present embodiment, the image processing function 344 converts CT image data of a plurality of time phases into three-dimensional image data of a plurality of time phases. Such plural time-phase three-dimensional image data are so-called four-dimensional image data, and are obtained, for example, by performing CT scanning of the same region including the target region of the object P plural times in different time phases. .

なお、4次元画像データは、上述した再構成処理機能343により生成されてもよい。例えば、本実施形態に係る画像処理機能344又は再構成処理機能343は、複数の時相において被検体Pの対象部位を含んで撮像された4次元画像データを生成する。すなわち、4次元画像データは、被検体Pの対象部位が撮像されることにより得られるデータである。画像処理機能344及び再構成処理機能343は、生成部の一例である。   The four-dimensional image data may be generated by the reconstruction processing function 343 described above. For example, the image processing function 344 or the reconstruction processing function 343 according to the present embodiment generates four-dimensional image data captured including a target region of the subject P in a plurality of time phases. That is, four-dimensional image data is data obtained by imaging the target region of the subject P. The image processing function 344 and the reconstruction processing function 343 are an example of a generation unit.

セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348の詳細については後述する。   Details of the segmentation function 345, the execution function 346, the evaluation function 347, and the color assignment function 348 will be described later.

ところで、肺癌などの腫瘍の摘出手術において、肺葉又は肺区域単位で肺野実質を切除する場合がある。この場合、肺野実質から胸膜を剥離した上で、肺野実質を切除する必要があるが、通常は、胸膜に手術具を押し当てるだけで、簡単に、肺野実質から胸膜を剥離することができる。しかしながら、肺野実質に胸膜が付着している場合、付着箇所を焼きながら、肺野実質から胸膜を剥がす必要がある。なお、「付着」は、例えば、組織と組織とがくっつくことを表す。「付着」には、一の部位を構成する組織と、他の部位を構成する組織とがくっつくこと、及び、同一の部位を構成する一の組織と他の組織とがくっつくことが含まれる。また、「付着」には、「癒着」及び「浸潤」が包含されるものとする。   By the way, in the removal operation of a tumor such as lung cancer, the lung parenchyma may be resected in the lung lobe or lung area unit. In this case, after removing the pleura from the lung parenchyma, it is necessary to remove the lung parenchyma, but usually, simply by pressing the surgical instrument against the pleura, easily exfoliating the pleura from the lung parenchyma Can. However, when the pleura adheres to the lung parenchyma, it is necessary to peel the pleura from the lung parenchyma while burning the adhesion site. Here, “adhesion” means, for example, that tissues are attached to each other. "Attachment" includes the adhesion of a tissue constituting one part to a tissue constituting another part, and the adhesion of one tissue to another tissue constituting the same part. Also, “adhesion” includes “adhesion” and “infiltration”.

そこで、例えば、摘出手術の直前に、超音波診断装置により、被検体の肺野及び胸膜が描出された超音波画像をリアルタイムでディスプレイに表示させることで、術者に、肺野に胸膜が付着しているか否かを判別させることが考えられる。しかしながら、この場合には、例えば、肋骨の裏側や被検体の心臓付近などの超音波が届かない範囲では、術者は、付着しているか否かを判別することが困難である。また、縦隔側に付着が存在する場合,心臓外科の応援が必要になる場合がある。しかしながら、縦隔には超音波が届きにくく、付着の程度が分からないため、心臓外科に属する医師に応援を要請するタイミングが遅くなる。   Therefore, for example, the pleural membrane adheres to the lung field to the operator by displaying an ultrasound image in which the lung field and pleura of the subject are visualized in real time by the ultrasonic diagnostic apparatus immediately before the removal operation. It is conceivable to determine whether or not the However, in this case, for example, it is difficult for the operator to determine whether or not they are attached, in a range in which ultrasonic waves do not reach, such as the back side of a rib or the vicinity of the heart of a subject. In addition, if adhesions exist on the mediastinum, support for cardiac surgery may be required. However, it is difficult for ultrasound to reach the mediastinum and the degree of adhesion is unknown, so the timing for requesting a doctor who belongs to a heart surgery to support is delayed.

このような問題は、肺野に胸膜が付着している場合に限られず、他の対象部位において付着が発生している場合にも同様に起こりうる。例えば、かかる問題は、胸膜を構成する壁側胸膜に臓側胸膜が付着している場合にも、同様に起こりうる。   Such a problem is not limited to the case where the pleura adheres to the lung field, but may occur similarly when the adhesion occurs at other target sites. For example, such a problem may occur similarly when the visceral pleura adheres to the parietal pleura constituting the pleura.

そこで、例えば、画像処理装置を、超音波が届かない範囲でも癒着の状態を判別することが可能なように、以下に説明するように構成することが考えられる。例えば、2つの対象部位のそれぞれに基準点を設定し、2つの基準点の移動ベクトルの差分の大きさが閾値以下である場合に、2つの対象部位が癒着していると判定するように画像処理装置を構成することが考えられる。以下、このような医用画像処理装置を比較例に係る画像処理装置として説明する。   Therefore, for example, it may be considered that the image processing apparatus is configured as described below so that the state of adhesion can be determined even in a range in which the ultrasonic waves do not reach. For example, when a reference point is set for each of two target sites, and the magnitude of the difference between the movement vectors of the two reference points is equal to or less than a threshold, the image is determined to determine that the two target sites are adhering. It is conceivable to configure the processing device. Hereinafter, such a medical image processing apparatus will be described as an image processing apparatus according to a comparative example.

しかしながら、被検体の呼吸量は、個人差が大きい。このため、被検体の呼吸量が比較的少ない場合には、癒着していないにもかかわらず、2つの基準点の移動ベクトルの差分の大きさが閾値以下となる場合がある。この場合には、比較例に係る画像処理装置では、癒着していると誤って判定される可能性がある。   However, the respiratory rate of the subject is largely different among individuals. For this reason, when the respiration volume of the subject is relatively small, the magnitude of the difference between the movement vectors of the two reference points may be equal to or less than the threshold value even though adhesion does not occur. In this case, the image processing apparatus according to the comparative example may erroneously determine that adhesion has occurred.

また、例えば、2つの対象部位が1点で癒着している場合には、2つの基準点の移動ベクトルの差分の大きさが閾値より大きくなる場合がある。例えば、1点で癒着している場合には、一方の対象部位に対して他方の対象部位が振り子のように相対的に移動するため、一方の対象部位の移動の影響をほとんど受けることなく、他方の対象部位が移動する。この場合には、比較例に係る画像処理装置では、癒着しているにも関わらず、癒着していないと誤って判定される可能性がある。   In addition, for example, when two target sites are adhered at one point, the magnitude of the difference between the movement vectors of the two reference points may be larger than the threshold. For example, in the case of adhesion at one point, the other target site moves relative to one target site like a pendulum, and therefore, is hardly affected by the movement of one target site. The other target site moves. In this case, the image processing apparatus according to the comparative example may erroneously determine that adhesion has not occurred despite adhesion.

そこで、第1の実施形態に係るX線CT装置1は、付着の対象判定である1つ以上の部位(対象部位)の付着の状態を精度良く評価するために、以下に説明する評価処理を実行する。なお、対象部位の付着の状態とは、例えば、対象部位を構成する組織と組織とが、くっついている状態を示す。以下の説明では、付着の状態の一例として癒着の状態を評価する場合を説明するが、同様の方法で、浸潤の状態等のその他の付着の状態を評価してもよい。   Therefore, the X-ray CT apparatus 1 according to the first embodiment performs the evaluation processing described below in order to accurately evaluate the state of adhesion of one or more parts (target parts) which is the target determination of adhesion. Run. The state of adhesion of the target site indicates, for example, a state in which the tissue constituting the target site is in contact with the tissue. In the following description, the adhesion state is evaluated as an example of the adhesion state, but other adhesion states such as the infiltration state may be evaluated in the same manner.

図2は、第1の実施形態に係る評価処理の一例の流れを示すフローチャートである。評価処理は、例えば、入力インターフェース33により評価処理を実行するための指示が受け付けられた場合に、システム制御機能341、画像処理機能344、セグメンテーション機能345、実行機能346、評価機能347及び色割当機能348により実行される。   FIG. 2 is a flowchart showing a flow of an example of evaluation processing according to the first embodiment. In the evaluation process, for example, when an instruction to execute the evaluation process is accepted by the input interface 33, the system control function 341, the image processing function 344, the segmentation function 345, the execution function 346, the evaluation function 347, and the color assignment function It is executed by 348.

図2に示すステップS101は、セグメンテーション機能345に対応するステップである。ステップS101は、処理回路34がメモリ31からセグメンテーション機能345に対応するプログラムを呼び出し実行することにより、セグメンテーション機能345が実現されるステップである。ステップS102〜S105,S107は、実行機能346に対応するステップである。ステップS102〜S105,S107は、処理回路34がメモリ31から実行機能346に対応するプログラムを呼び出し実行することにより、実行機能346が実現されるステップである。   Step S101 shown in FIG. 2 is a step corresponding to the segmentation function 345. Step S101 is a step in which the segmentation function 345 is realized by the processing circuit 34 calling and executing a program corresponding to the segmentation function 345 from the memory 31. Steps S102 to S105 and S107 are steps corresponding to the execution function 346. Steps S102 to S105 and S107 are steps in which the execution function 346 is realized by the processing circuit 34 calling and executing a program corresponding to the execution function 346 from the memory 31.

ステップS106は、評価機能347に対応するステップである。ステップS106は、処理回路34がメモリ31から評価機能347に対応するプログラムを呼び出し実行することにより、評価機能347が実現されるステップである。ステップS108は、色割当機能348に対応するステップである。ステップS108は、処理回路34がメモリ31から色割当機能348に対応するプログラムを呼び出し実行することにより、色割当機能348が実現されるステップである。   Step S106 is a step corresponding to the evaluation function 347. Step S106 is a step in which the evaluation function 347 is realized by the processing circuit 34 calling and executing a program corresponding to the evaluation function 347 from the memory 31. Step S108 is a step corresponding to the color assignment function 348. Step S108 is a step in which the color assignment function 348 is realized by the processing circuit 34 calling and executing a program corresponding to the color assignment function 348 from the memory 31.

ステップS109は、画像処理機能344に対応するステップである。ステップS109は、処理回路34がメモリ31から画像処理機能344に対応するプログラムを呼び出し実行することにより、画像処理機能344が実現されるステップである。ステップS110は、システム制御機能341に対応するステップである。ステップS110は、処理回路34がメモリ31からシステム制御機能341に対応するプログラムを呼び出し実行することにより、システム制御機能341が実現されるステップである。   Step S109 is a step corresponding to the image processing function 344. Step S109 is a step in which the image processing function 344 is realized by the processing circuit 34 calling and executing a program corresponding to the image processing function 344 from the memory 31. Step S110 is a step corresponding to the system control function 341. Step S110 is a step in which the system control function 341 is realized by the processing circuit 34 calling and executing a program corresponding to the system control function 341 from the memory 31.

なお、評価処理が実行される前に、癒着の判定対象である対象部位が描出された複数の時相の3次元画像データが予めメモリ31に記憶されている。また、以下の説明では、対象部位が、肺野、及び、肺野外の部位である場合を説明する。肺野外の部位は、胸膜を含む。しかしながら、対象部位は、これに限られず、例えば、対象部位は、壁側胸膜及び臓側胸膜であってもよい。また、複数の時相の3次元画像データとして、T(Tは自然数)フレーム分の3次元画像データがメモリ31に記憶されている。本実施形態では、K(K=1,・・・T)番目の時相の3次元画像データは、K番目のフレームの3次元画像データに対応する。   Note that, before the evaluation process is performed, three-dimensional image data of a plurality of time phases in which a target portion that is a determination target of adhesion is depicted is stored in the memory 31 in advance. Also, in the following description, the case where the target site is a lung field and a site in the lung field will be described. The lung field site contains the pleura. However, the target site is not limited to this, and for example, the target site may be parietal pleura and visceral pleura. Further, three-dimensional image data of T (T is a natural number) frames are stored in the memory 31 as three-dimensional image data of a plurality of time phases. In the present embodiment, the K (K = 1,... T) time phase three-dimensional image data corresponds to the K-th frame three-dimensional image data.

図2に示すように、セグメンテーション機能345は、1つの時相の3次元画像データに対して、公知のセグメンテーション処理を実行して、3次元画像データの全領域から肺野の領域及び肺野外の部位の領域を抽出する(ステップS101)。   As shown in FIG. 2, the segmentation function 345 executes known segmentation processing on three-dimensional image data of one phase, and the whole region of the three-dimensional image data to the region of the lung field and the lung field. The region of the part is extracted (step S101).

例えば、ステップS101では、セグメンテーション機能345は、メモリ31に記憶された複数の時相の3次元画像データを取得する。そして、セグメンテーション機能345は、複数の時相の3次元画像データのうち、所定の時相の3次元画像データを選択する。   For example, in step S101, the segmentation function 345 acquires three-dimensional image data of a plurality of time phases stored in the memory 31. Then, the segmentation function 345 selects 3D image data of a predetermined time phase from among 3D image data of a plurality of time phases.

図3は、第1の実施形態に係る評価処理の一例を説明するための図である。例えば、セグメンテーション機能345は、1番目の時相の3次元画像データ40を選択する。以下、所定の時相として1番目の時相の3次元画像データ40が選択された場合を例に挙げて説明する。そして、セグメンテーション機能345は、選択した1番目の時相の3次元画像データ40に対して、セグメンテーション処理を実行して、肺野の領域41及び肺野外の部位の領域42を抽出する。すなわち、セグメンテーション機能345は、3次元画像データ40が示す画像から肺野の領域41及び肺野外の部位の領域42を抽出するためのセグメンテーション処理を実行する。なお、肺野外の部位の領域42は、第1の領域の一例である。また、肺野の領域41は、第2の領域の一例である。また、肺野の領域41は、肺野外の部位の領域42と、境界43の法線方向に隣り合う領域である。また、肺野外の部位は、第1の部位の一例である。また、肺野は、第2の部位の一例である。   FIG. 3 is a diagram for explaining an example of the evaluation process according to the first embodiment. For example, the segmentation function 345 selects 3D image data 40 of the first temporal phase. Hereinafter, the case where the first time phase three-dimensional image data 40 is selected as the predetermined time phase will be described as an example. Then, the segmentation function 345 executes segmentation processing on the selected first three-dimensional image data 40 of the phase to extract the region 41 of the lung field and the region 42 of the region of the lung field. That is, the segmentation function 345 executes a segmentation process for extracting the region 41 of the lung field and the region 42 of the region of the lung field from the image represented by the three-dimensional image data 40. In addition, the region 42 of the region of the lung field is an example of the first region. Further, the region 41 of the lung field is an example of the second region. In addition, the region 41 of the lung field is a region adjacent to the region 42 of the region of the lung field and the normal direction of the boundary 43. Also, a site in the lung field is an example of the first site. In addition, the lung field is an example of the second part.

そして、実行機能346は、肺野の領域41と肺野外の部位の領域42との間の境界43に、1次元の関心領域(Region of Interest;ROI)44を設定する(ステップS102)。具体例を挙げて説明すると、実行機能346は、境界43の法線方向に関心領域44の長手方向が沿うように、かつ、関心領域44内に境界43の一部が含まれるように、関心領域44を設定する。このように、1次元の関心領域44の長手方向と境界43とが互いに垂直になるように、関心領域44が設定される。そして、このようにして設定された関心領域44には、1次元状に並んだ複数の画素45が含まれることとなる。すなわち、3次元画像データ40が示す画像の複数の画素45は、肺野の領域41及び肺野外の部位の領域42の境界43を跨いで、境界43の法線方向に並んでいる。ここで、境界43の法線方向は、所定方向の一例である。なお、本実施形態では、実行機能346は、関心領域44の長手方向の中央部分が境界43に位置するように関心領域44を設定する。しかしながら、実行機能346は、関心領域44の長手方向の中央部分が境界43に位置しないように関心領域44を設定してもよい。   Then, the executive function 346 sets a one-dimensional region of interest (ROI) 44 at the boundary 43 between the region 41 of the lung field and the region 42 of the region of the lung field (step S102). To illustrate, the execution function 346 is interested so that the longitudinal direction of the region of interest 44 is along the normal direction of the boundary 43 and that part of the boundary 43 is included in the region of interest 44 An area 44 is set. Thus, the region of interest 44 is set such that the longitudinal direction of the region of interest 44 in one dimension and the boundary 43 are perpendicular to each other. Then, the region of interest 44 set in this manner includes a plurality of pixels 45 arranged in a one-dimensional manner. That is, the plurality of pixels 45 of the image indicated by the three-dimensional image data 40 are arranged in the normal direction of the boundary 43 across the boundary 43 of the region 41 of the lung field and the region 42 of the region of the lung field. Here, the normal direction of the boundary 43 is an example of a predetermined direction. In the present embodiment, the execution function 346 sets the region of interest 44 so that the central portion in the longitudinal direction of the region of interest 44 is located at the boundary 43. However, the executive function 346 may set the region of interest 44 such that the central longitudinal portion of the region of interest 44 is not located at the boundary 43.

図3に示すように、例えば、関心領域44の長手方向の長さが40mmである場合には、40mmの長さに亘って並んだ複数の画素45が関心領域44内に含まれることとなる。以下、関心領域44の長さが、40mmである場合について説明するが、40mmに限られず、他の値であってもよい。   As shown in FIG. 3, for example, when the length in the longitudinal direction of the region of interest 44 is 40 mm, a plurality of pixels 45 aligned over the length of 40 mm will be included in the region of interest 44 . Hereinafter, although the case where the length of the region of interest 44 is 40 mm will be described, the length is not limited to 40 mm and may be another value.

そして、実行機能346は、関心領域44の全領域から、境界43を中心とする所定の領域を除去することにより、関心領域44を再定義する(ステップS103)。例えば、ステップS103では、図3に示すように、ステップS102で定義された関心領域44の全領域から、境界43を中心とする関心領域44の長手方向の10mmの範囲の領域を除去し、除去されずに残った領域を、新たな関心領域44とする。   Then, the execution function 346 redefines the region of interest 44 by removing a predetermined region centered on the boundary 43 from the entire region of the region of interest 44 (step S103). For example, in step S103, as shown in FIG. 3, a region of 10 mm in the longitudinal direction of the region of interest 44 centered on the boundary 43 is removed from the entire region of the region of interest 44 defined in step S102. A region left without being taken as a new region of interest 44.

図3に示すように、再定義された関心領域44には、14個の画素45が含まれることとなる。以下、関心領域44に含まれる画素45の数が、14個である場合について説明するが、関心領域44に含まれる画素45の数は、これに限られない。再定義された関心領域44に含まれる画素45は、ステップS104以降での各種の処理に用いられる。   As shown in FIG. 3, the redefined region of interest 44 includes fourteen pixels 45. Although the case where the number of pixels 45 included in the region of interest 44 is fourteen will be described below, the number of pixels 45 included in the region of interest 44 is not limited thereto. The pixels 45 included in the redefined region of interest 44 are used in various processes in step S104 and subsequent steps.

なお、実行機能346は、ステップS103での関心領域44を再定義する処理を省略してもよい。この場合、ステップS102において設定された関心領域44内の複数の画素45が、ステップS104以降での各種の処理に用いられる。   The execution function 346 may omit the process of redefining the region of interest 44 in step S103. In this case, the plurality of pixels 45 in the region of interest 44 set in step S102 are used for various processes in step S104 and subsequent steps.

そして、実行機能346は、複数の画素45を複数のクラスタにクラスタリングするためのクラスタリング処理の一部の処理を実行することにより、ステップS104及びS105の各処理を実行する。なお、クラスタは、クラスとも称される。本実施形態では、実行機能346は、クラスタリング処理の一例であるグラフカット(グラフカット処理、グラフカット法)の一部の処理を実行する。   Then, the execution function 346 executes each process of steps S104 and S105 by executing a part of the clustering process for clustering the plurality of pixels 45 into a plurality of clusters. A cluster is also referred to as a class. In the present embodiment, the execution function 346 executes part of processing of graph cut (graph cut processing, graph cut method) which is an example of clustering processing.

図4は、第1の実施形態に係る評価処理の一例を説明するための図である。具体例を挙げて説明すると、図4に示すように、実行機能346は、ノード51〜66を備えるグラフ50を生成する(ステップS104)。グラフ50は、例えば、図3に示す14個の画素45のそれぞれを、14個のノード51〜64のそれぞれとするグラフである。なお、図4において、14個のノード51〜64のうち、8個のノード54〜61の図示が省略されている。   FIG. 4 is a diagram for explaining an example of the evaluation process according to the first embodiment. Describing with a specific example, as shown in FIG. 4, the execution function 346 generates a graph 50 including nodes 51 to 66 (step S104). The graph 50 is, for example, a graph in which each of the 14 pixels 45 shown in FIG. 3 is made into each of 14 nodes 51 to 64. In FIG. 4, among the 14 nodes 51 to 64, eight nodes 54 to 61 are not shown.

例えば、ノード51は、図3において左から1番目の画素45に対応する。他のノード52〜64についても同様である。すなわち、図4において、左から右にかけて14個並んだ複数のノード51〜64のうち、左からj(j=1,2,・・・14)番目のノードは、図3において左からj番目の画素45に対応する。以下の説明では、図3において左からj番目の画素45を「j番目画素」と称し、図4において複数のノード51〜64のうち左からj番目のノードを「j番目ノード」と称する場合がある。   For example, the node 51 corresponds to the first pixel 45 from the left in FIG. The same applies to the other nodes 52 to 64. That is, in FIG. 4, the j-th (j = 1, 2,... 14) -th node from the left among the plurality of nodes 51 to 64 arranged from the left to the right in FIG. Corresponds to the pixel 45 of In the following description, the j-th pixel 45 from the left in FIG. 3 is referred to as the “j-th pixel”, and the j-th node from the left among the plurality of nodes 51 to 64 is referred to as the “j-th node” in FIG. There is.

ノード65は、境界43よりも外側に位置する肺野外の部位の領域42に対応する。また、ノード66は、境界43よりも内側に位置する肺野の領域41に対応する。   The node 65 corresponds to the area 42 of the field of the lung field located outside the boundary 43. Also, the node 66 corresponds to the region 41 of the lung field located inside the boundary 43.

また、複数のノード51〜64のそれぞれと、ノード65とは、ライン(線分)で結ばれている。同様に、複数のノード51〜64のそれぞれと、ノード66も、ラインで結ばれている。また、隣接する2つのノードもラインで結ばれている。ここで、隣接する2つのノードとは、例えば、n(n=1,2,・・・13)番目ノード、及び、(n+1)番目ノードを指す。   In addition, each of the plurality of nodes 51 to 64 and the node 65 are connected by a line (line segment). Similarly, each of the plurality of nodes 51 to 64 and the node 66 are also connected by a line. Also, two adjacent nodes are also connected by a line. Here, two adjacent nodes indicate, for example, the n-th (n = 1, 2,... 13) -th node and the (n + 1) -th node.

ステップS104では、実行機能346は、各ラインに対して重みを設定する。まず、複数のノード51〜64のそれぞれと、ノード65とを結ぶラインに設定される重みP(lj_0)について説明する。重みP(lj_0)は、j番目ノードとノード65とを結ぶラインに設定される。なお、重みP(lj_0)は、後述する第1のクラスタ及び後述する第2のクラスタへ複数の画素45のそれぞれを分類する際のコストに係る値の一例である。例えば、重みP(lj_0)は、下記の式(1)で示される。 In step S104, the execution function 346 sets weights for each line. First, the weight P (l j — 0 ) set to the line connecting each of the plurality of nodes 51 to 64 and the node 65 will be described. The weight P (l j — 0 ) is set to a line connecting the j-th node and the node 65. The weight P (l j — 0 ) is an example of a value relating to the cost when classifying each of the plurality of pixels 45 into a first cluster to be described later and a second cluster to be described later. For example, the weight P (l j_0 ) is expressed by the following equation (1).

Figure 2019075123
Figure 2019075123

ここで、式(1)において、p(l)は、例えば、「0」以上、「1」以下の値である。p(l)について具体例を挙げて説明する。上述したように、ノード65が肺野外の部位の領域42に対応する。このため、図3に示す肺野外の部位の領域42に位置する7個の画素45に対応するノード51〜57のそれぞれとノード65とを結ぶラインに対して、比較的高い値が重みP(lj_0)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(1)において、p(l)に「0.001」を代入する。 Here, in the formula (1), p (l j ) is, for example, a value of “0” or more and “1” or less. A specific example is given and demonstrated about p (l j ). As mentioned above, node 65 corresponds to region 42 of the field at the lung field. For this reason, a relatively high value of weight P (for a line connecting each of nodes 51 to 57 corresponding to seven pixels 45 located in region 42 of the region of the lung field shown in FIG. The execution function 346 performs the following processing so as to be set to l j — 0 ). That is, the execution function 346 substitutes “0.001” into p (l j ) in Expression (1).

一方、図3に示す肺野外の部位の領域42に位置しない7個の画素45に対応するノード58〜64のそれぞれとノード65とを結ぶラインに対して、比較的低い値が重みP(lj_0)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(1)において、p(l)に「0.999」を代入する。 On the other hand, for the line connecting each of the nodes 58 to 64 corresponding to the seven pixels 45 not located in the region 42 of the lung field part shown in FIG. The execution function 346 performs the following processing so as to be set to j_0 ). That is, the execution function 346 substitutes “0.999” for p (l j ) in Expression (1).

次に、複数のノード51〜64のそれぞれと、ノード66とを結ぶラインに設定される重みP(lj_1)について説明する。重みP(lj_1)は、j番目ノードとノード66とを結ぶラインに設定される。なお、重みP(lj_1)は、後述する第1のクラスタ及び後述する第2のクラスタへ複数の画素45のそれぞれを分類する際のコストに係る値の一例である。例えば、重みP(lj_1)は、下記の式(2)で示される。 Next, the weight P (l j — 1) set for the line connecting each of the plurality of nodes 51 to 64 and the node 66 will be described. Weight P (l j_1) is set to a line connecting the j-th node and the node 66. The weight P (l j — 1) is an example of a value relating to costs when classifying each of the plurality of pixels 45 into a first cluster to be described later and a second cluster to be described later. For example, the weight P (l j_1 ) is expressed by the following equation (2).

Figure 2019075123
Figure 2019075123

ここで、式(2)におけるp(l)について具体例を挙げて説明する。上述したように、ノード66が肺野の領域41に対応する。このため、図3に示す肺野の領域41に位置する7個の画素45に対応するノード58〜64のそれぞれとノード66とを結ぶラインに対して、比較的高い値が重みP(lj_1)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(2)において、p(l)に「0.999」を代入する。 Here, p (l j ) in the formula (2) will be described by giving a specific example. As described above, the node 66 corresponds to the region 41 of the lung field. For this reason, a relatively high value of weight P (l j_1) is given to the line connecting each of the nodes 58 to 64 corresponding to the seven pixels 45 located in the region 41 of the lung field shown in FIG. The execution function 346 performs the following processing so as to be set to. That is, the execution function 346 substitutes “0.999” for p (l j ) in Expression (2).

一方、図3に示す肺野の領域41に位置しない7個の画素45に対応するノード51〜57のそれぞれとノード66とを結ぶラインに対して、比較的低い値が重みP(lj_1)に設定されるように、実行機能346は、次の処理を行う。すなわち、実行機能346は、式(2)において、p(l)に「0.001」を代入する。 On the other hand, for the line connecting each of the nodes 51 to 57 corresponding to the seven pixels 45 not located in the lung field area 41 shown in FIG. 3 to the node 66, a relatively low value has a weight P (l j_1 ) The execution function 346 performs the following processing so as to be set to. That is, the execution function 346 substitutes “0.001” into p (l j ) in Expression (2).

以上のことから、実行機能346は、j番目ノードについての重みP(lj_0)及び重みP(lj_1)を算出する際に、式(1)及び式(2)において、p(l)に共通の値を代入する。 From the above, when the execution function 346 calculates the weight P (l j_0 ) and the weight P (l j_1 ) for the j-th node, p (l j ) in equations (1) and (2) Assign a common value to.

次に、隣接する2つのノードを結ぶラインに対して設定される重みG(n,n+1)について説明する。重みG(n,n+1)は、n番目ノード及び(n+1)番目ノードを結ぶラインに設定される。例えば、重みG(n,n+1)は、下記の式(3)で示される。   Next, the weight G (n, n + 1) set for the line connecting two adjacent nodes will be described. The weight G (n, n + 1) is set to a line connecting the n-th node and the (n + 1) -th node. For example, the weight G (n, n + 1) is expressed by the following equation (3).

Figure 2019075123
Figure 2019075123

ここで、式(3)において、「N」は、再定義された関心領域44に含まれる画素45の個数を指す。具体例を挙げると、本実施形態では、「N」の値は、「14」である。
また、式(3)におけるg(n,n+1)は、下記の式(4)で示される。
Here, in the equation (3), “N” indicates the number of pixels 45 included in the redefined region of interest 44. As a specific example, in the present embodiment, the value of “N” is “14”.
Further, g (n, n + 1) in the equation (3) is represented by the following equation (4).

Figure 2019075123
Figure 2019075123

ここで、式(4)において、Xn_iは、n番目画素の動きベクトル(移動ベクトル)を示す。具体的には、Xn_iは、i(i=1,2,・・・T−1)番目のフレームの3次元画像データにおけるn番目画素の位置から、(i+1)番目のフレームの3次元画像データにおけるn番目画素の位置に向かうベクトルを指す。 Here, in the equation (4), X n — i indicates a motion vector (movement vector) of the n-th pixel. Specifically, X n_i is, i (i = 1,2, ··· T-1) th from the position of the n-th pixel in the three-dimensional image data of a frame, (i + 1) th frame of the 3D image Points to a vector toward the position of the nth pixel in the data.

(n+1)_iについても同様である。具体的には、X(n+1)_iは、図3において左から(n+1)番目画素の動きベクトルを示す。例えば、X(n+1)_iは、i番目のフレームの3次元画像データにおける(n+1)番目画素の位置から、(i+1)番目のフレームの3次元画像データにおける(n+1)番目画素の位置に向かうベクトルを指す。 The same applies to X (n + 1) _i . Specifically, X (n + 1) _i indicates the motion vector of the (n + 1) th pixel from the left in FIG. For example, X (n + 1) _i is a vector directed from the position of the (n + 1) th pixel in the three-dimensional image data of the ith frame to the position of the (n + 1) th pixel in the (i + 1) th frame Point to

本実施形態では、実行機能346は、複数の画素45のそれぞれの位置を、1番目のフレームの3次元画像データからT番目のフレームの3次元画像データまで追跡することにより、上述した動きベクトルXn_i及び動きベクトルX(n+1)_iを算出することができる。このようにして、実行機能346は、複数の画素45における、複数の時相の画像間での動きベクトルXn_i及び動きベクトルX(n+1)_iを算出する。なお、動きベクトルXn_i及び動きベクトルX(n+1)_iは、移動情報の一例である。 In the present embodiment, the execution function 346 tracks the position of each of the plurality of pixels 45 from the three-dimensional image data of the first frame to the three-dimensional image data of the T-th frame to obtain the motion vector X described above. n_i and motion vector X (n + 1) _i can be calculated. In this way, the execution function 346, in a plurality of pixels 45, the motion between images of a plurality of time phases vectors X n_i and a motion vector X (n + 1) is calculated _i. Note that the motion vector X n_i and a motion vector X (n + 1) _i is an example of a mobile information.

図5は、第1の実施形態に係る評価処理の一例を説明するための図である。図5及び式(4)に示すように、実行機能346は、時間軸上で隣接する全ての3次元画像データ間で、動きベクトルXn_iと動きベクトルX(n+1)_iとの差分ベクトル(Xn_i−X(n+1)_i)の大きさを算出する。そして、実行機能346は、式(4)に示すように、算出した複数の差分ベクトル(Xn_i−X(n+1)_i)の大きさの総和を、時間軸上で隣接する全ての3次元画像データ間の数(T−1)で除することで、g(n,n+1)を算出する。 FIG. 5 is a diagram for explaining an example of the evaluation process according to the first embodiment. As shown in FIG. 5 and the equation (4), the execution function 346 calculates a difference vector (X ) between the motion vector X n — i and the motion vector X (n + 1) — i between all adjacent three-dimensional image data on the time axis. Calculate the size of n_i -X (n + 1) _i ). Then, execution function 346, as shown in Equation (4), all the three-dimensional image of the total magnitude of the calculated plurality of difference vectors (X n_i -X (n + 1 ) _i), adjacent to each other on the time axis G (n, n + 1) is calculated by dividing by the number between data (T-1).

隣接する2つの画素(n番目画素及び(n+1)番目画素)45が同じように動く場合には、g(n,n+1)の値は、比較的小さくなる。このような場合に、隣接する2つの画素45のうち一方の画素45が肺野の領域41に位置する画素であり、他方の画素45が肺野外の部位の領域42に位置する画素であると考えられる。又は、隣接する2つの画素45が、共に、肺野の領域41又は肺野外の部位の領域42に位置する画素であると考えられる。g(n,n+1)の値が比較的小さく、一方の画素45が肺野の領域41に位置し、他方の画素45が肺野外の部位の領域42に位置する場合には、被検体Pの肺野と肺野外の部位とが癒着していると考えられる。   If two adjacent pixels (the nth pixel and the (n + 1) th pixel) 45 move in the same manner, the value of g (n, n + 1) is relatively small. In such a case, if one of the two adjacent pixels 45 is a pixel located in the lung field area 41 and the other pixel 45 is a pixel located in the lung field area 42 Conceivable. Alternatively, it is considered that two adjacent pixels 45 are both located in the region 41 of the lung field or the region 42 of the region of the lung field. In the case where the value of g (n, n + 1) is relatively small, one pixel 45 is located in the lung field area 41, and the other pixel 45 is located in the lung field area 42. It is thought that the lung field and the site in the lung field are adhering.

一方、隣接する2つの画素45の動きが比較的大きく異なる場合には、g(n,n+1)の値は、比較的大きくなる。このような場合には、隣接する2つの画素45のうち一方の画素45が肺野の領域41に位置する画素であり、他方の画素45が肺野外の部位の領域42に位置する画素であり、肺野と肺野外の部位とが癒着していないと考えられる。   On the other hand, when the motions of two adjacent pixels 45 are relatively largely different, the value of g (n, n + 1) is relatively large. In such a case, one of the two adjacent pixels 45 is a pixel located in the lung field area 41 and the other pixel 45 is a pixel located in the lung field area 42. It is considered that the lung field and the site in the lung field have not adhered.

なお、式(3)におけるg(r,r+1)についてもg(n,n+1)と同様である。   The same applies to g (r, r + 1) in equation (3) as to g (n, n + 1).

ここで、一般的なグラフカット処理(グラフカット法)では、最終的に複数の画素を複数のクラスタに分類するために、複数のライン(以下、カットラインと称する)のそれぞれによりグラフがカットされ、カットライン毎にエネルギーが算出される。そして、一般的なグラフカット処理では、カットライン毎に算出されたエネルギーのうち、最小のエネルギーとなるカットラインに基づいて、各画素が各クラスタに分類されるクラスタリングが行われる。   Here, in a general graph cut process (graph cut method), a graph is cut by each of a plurality of lines (hereinafter referred to as a cut line) in order to finally classify a plurality of pixels into a plurality of clusters. Energy is calculated for each cut line. Then, in the general graph cut processing, clustering is performed in which each pixel is classified into each cluster based on the cut line which is the minimum energy among the energy calculated for each cut line.

一方、本実施形態では、実行機能346は、グラフカット処理の一部の処理を行っているものの、最終的に各画素45を各クラスタに分類するクラスタリングを行わない。実行機能346は、下記の式(5)により、グラフ50をカットするカットラインごとに、エネルギーE(L,L,・・・,L)を算出する(ステップS105)。 On the other hand, in the present embodiment, although the execution function 346 performs a part of the graph cut process, the execution function 346 does not perform clustering for finally classifying each pixel 45 into each cluster. The execution function 346 calculates energy E (L 1 , L 2 ,..., L N , w ) for each cut line which cuts the graph 50 according to the following equation (5) (step S105).

Figure 2019075123
Figure 2019075123

なお、式(5)における「γ」は、正の値の係数である。   In addition, "(gamma)" in Formula (5) is a coefficient of a positive value.

また、式(5)におけるLc(c=1,2,・・・,N)には、カットラインが、c番目ノードとノード65とを結ぶラインに交差する場合には、「0」が設定される。一方、Lcには、カットラインが、c番目ノードとノード66とを結ぶラインに交差する場合には、「1」が設定される。   Further, Lc (c = 1, 2,..., N) in the equation (5) is set to “0” when the cut line intersects with a line connecting the c-th node and the node 65 Be done. On the other hand, when the cut line intersects with the line connecting the c-th node and the node 66, “1” is set to Lc.

また、式(5)における「w」には、カットラインが、c番目ノードと(c+1)番目ノードとを結ぶラインと交差する場合に、「c」が設定される。また、カットラインが、複数のノード51〜64のうちの隣接する2つのノードを結ぶいずれのラインに対しても交差しない場合には、「1」から「N−1」までの正の整数以外の所定値(例えば負の整数である「−1」)が設定される。   Further, “c” is set to “w” in the equation (5) when the cut line intersects with a line connecting the c-th node and the (c + 1) th node. If the cut line does not intersect any of the plurality of nodes 51 to 64 connecting two adjacent nodes, a positive integer other than “1” to “N−1” is not used. A predetermined value of (for example, a negative integer "-1") is set.

また、式(5)における「E(L,L,・・・,L)」は、下記の式(6)により示される。 Further, “E d (L 1 , L 2 ,..., L N )” in the formula (5) is represented by the following formula (6).

Figure 2019075123
Figure 2019075123

「E(L,L,・・・,L)」は、データ項とも称され、各画素45の画素値(CT値)に基づくエネルギーを指す。かかるエネルギーは、カットラインに基づく肺野の領域と肺野外の部位の領域との境界が、実際の被検体Pの肺野の領域と肺野外の部位の領域との境界である可能性が高いほど小さくなる。 “E d (L 1 , L 2 ,..., L N )” is also referred to as a data term, and indicates energy based on the pixel value (CT value) of each pixel 45. As for such energy, the boundary between the region of the lung field and the region of the lung field based on the cut line is likely to be the boundary between the region of the lung field of the actual subject P and the region of the lung field. It becomes smaller.

また、式(5)における「E(w)」は、下記の式(7)により示される。 Moreover, "E s (w)" in Formula (5) is shown by following formula (7).

Figure 2019075123
Figure 2019075123

「Es(w)」は、平滑化項とも称され、上述したデータ項とは独立して、境界の滑らかさを考慮したエネルギーを指す。例えば、データ項のみではCT値しか考慮しないため、ノイズに弱く、境界が滑らかでない可能性がある。しかしながら、平滑化項の存在により、境界が滑らかになる。なお、「E(w)」において、「w」に上述した所定値、例えば、−1が設定された「E(−1)」の値は「0」となる。 “Es (w)”, also referred to as a smoothing term, refers to energy that takes into account the smoothness of the boundaries, independently of the data terms described above. For example, since the data term alone considers only the CT value, it may be susceptible to noise and the boundary may not be smooth. However, the presence of the smoothing term smoothes the boundary. In "E s (w)", the value of "E s (-1)" in which the predetermined value described above is set to "w", for example, -1 is "0".

また、被検体Pの肺野と肺野外の部位とが癒着していると考えられる場合には、上述したように、g(n,n+1)の値は、比較的小さくなる。そして、g(n,n+1)の値が小さくなると、平滑化項の値が大きくなる。一方、被検体Pの肺野と肺野外の部位とが癒着していないと考えられる場合には、g(n,n+1)の値が比較的大きくなり、平滑化項の値が小さくなる。   Further, when it is considered that the lung field of the subject P and the site in the lung field are adhered, as described above, the value of g (n, n + 1) is relatively small. Then, as the value of g (n, n + 1) decreases, the value of the smoothing term increases. On the other hand, when it is considered that the lung field of the subject P and the site in the lung field are not adhered, the value of g (n, n + 1) becomes relatively large, and the value of the smoothing term becomes small.

図6及び図7は、第1の実施形態に係るカットラインの一例を説明するための図である。図6に示すように、例えば、実行機能346は、グラフ50をカットライン70によりカットする。カットライン70は、肺野外の部位の領域42に対応するクラスタ(第1のクラスタ)に、1番目画素及び2番目画素が属し、かつ、肺野の領域41に対応するクラスタ(第2のクラスタ)に、3番目画素〜14番目画素が属するように、14個の画素45を分類するためのラインである。なお、第1のクラスタは、第1のクラスとも称される。また、第2のクラスタは、第2のクラスとも称される。   6 and 7 are views for explaining an example of a cut line according to the first embodiment. As shown in FIG. 6, for example, the execution function 346 cuts the graph 50 at the cut line 70. The cut line 70 is a cluster (second cluster) corresponding to the region 41 of the lung field, to which the first pixel and the second pixel belong to the cluster (first cluster) corresponding to the region 42 of the region of the lung field. ) Is a line for classifying the fourteen pixels 45 so that the third to the fourteenth pixels belong. The first cluster is also referred to as a first class. The second cluster is also referred to as a second class.

また、図7に示すように、実行機能346は、グラフ50をカットライン71によりカットする。カットライン71は、第2のクラスタに、1番目画素〜14番目画素が属するように、14個の画素45を分類するためのラインである。また、実行機能346は、グラフ50をカットライン72によりカットする。カットライン72は、第1のクラスタに、1番目画素〜14番目画素が属するように、14個の画素45を分類するためのラインである。図7に示すように、カットライン71及びカットライン72は、複数のノード51〜64のうちの隣接する2つのノードを結ぶいずれのラインに対しても交差しない。   Further, as shown in FIG. 7, the execution function 346 cuts the graph 50 at the cut line 71. The cut line 71 is a line for classifying the fourteen pixels 45 so that the first to fourteenth pixels belong to the second cluster. Also, the execution function 346 cuts the graph 50 by the cut line 72. The cut line 72 is a line for classifying the fourteen pixels 45 so that the first to fourteenth pixels belong to the first cluster. As shown in FIG. 7, the cut line 71 and the cut line 72 do not intersect any line connecting two adjacent ones of the plurality of nodes 51 to 64.

本実施形態では、実行機能346は、c番目ノードと(c+1)番目ノードとを結ぶラインに交差する13本のカットライン、及び、上述した2本のカットライン71及びカットライン72の合計15本のカットラインのそれぞれで、グラフ50をカットする。   In the present embodiment, the execution function 346 has a total of 15 of the 13 cut lines intersecting the line connecting the c-th node and the (c + 1) th node, and the two cut lines 71 and 72 described above. Cut the graph 50 at each of the cut lines.

そして、実行機能346は、カットライン毎に、式(5)により、エネルギーE(L,L,・・・,L,w)を算出する。なお、上述したように、本実施形態では、実行機能346は、カットライン毎にエネルギーE(L,L,・・・,L,w)を算出するものの、各画素45を各クラスタに分類するクラスタリングを行わない。 Then, the execution function 346 calculates the energy E (L 1 , L 2 ,..., L N , w) by equation (5) for each cut line. As described above, in this embodiment, although the execution function 346 calculates the energy E (L 1 , L 2 ,..., L N , w) for each cut line, each pixel 45 is divided into clusters Do not perform clustering to

ステップS104,S105では、実行機能346は、対象部位における境界43を含む関心領域44内の複数の画素45のそれぞれの動きベクトルに基づいて、複数の画素45を複数のクラスタに分類するクラスタリング処理の一部の処理を実行する。例えば、実行機能346は、クラスタリング処理の一部の処理として、複数の画素45のそれぞれの動きベクトルを算出し、算出した複数の動きベクトルに基づいて、複数の画素45において、隣接する2つの画素45ごとに、当該2つの画素45の2つの動きベクトルの差分ベクトル(Xn_i−X(n+1)_i)の大きさを算出する処理を実行する。ここでいう隣接する2つの画素45は、境界43の法線方向に互いに隣り合う画素である。 In steps S104 and S105, the execution function 346 classifies the plurality of pixels 45 into a plurality of clusters based on motion vectors of the plurality of pixels 45 in the region of interest 44 including the boundary 43 at the target site. Perform some processing. For example, the execution function 346 calculates a motion vector of each of the plurality of pixels 45 as part of clustering processing, and based on the calculated plurality of motion vectors, two adjacent pixels in the plurality of pixels 45 every 45, executes the process of calculating the magnitude of the difference vector of the two motion vectors of the two pixels 45 (X n_i -X (n + 1) _i). The two adjacent pixels 45 here are pixels adjacent to each other in the normal direction of the boundary 43.

また、ステップS104,S105では、実行機能346は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づいて、肺野外の部位の領域42に係る第1のクラスタ又は肺野の領域41に係る第2のクラスタへ複数の画素45のそれぞれを分類する際のエネルギーE(L,L,・・・,L,w)を算出する。エネルギーE(L,L,・・・,L,w)は、分類情報の一例である。また、エネルギーE(L,L,・・・,L,w)は、第1のクラスタ及び第2のクラスタへ複数の画素45のそれぞれを分類する際のコストに係る値の一例でもある。 In step S104, S105, execution function 346, based on the motion vector X n_i and a motion vector X (n + 1) _i, according to the first cluster or the lung field region 41 of the region 42 of the portion of the lung field Energy E (L 1 , L 2 ,..., L N , w) when classifying each of the plurality of pixels 45 into the second cluster is calculated. Energy E (L 1 , L 2 ,..., L N , w) is an example of classification information. Further, the energy E (L 1 , L 2 ,..., L N , w) is also an example of a value relating to the cost when classifying each of the plurality of pixels 45 into the first cluster and the second cluster. is there.

そして、評価機能347は、癒着の状態を示す指標を算出する(ステップS106)。具体例を挙げて説明する。評価機能347は、例えば、下記の式(8)により、癒着の状態を示す指標として、確率pを算出する。   Then, the evaluation function 347 calculates an index indicating a state of adhesion (step S106). A specific example is given and demonstrated. The evaluation function 347 calculates, for example, the probability p as an index indicating the state of adhesion by the following equation (8).

Figure 2019075123
Figure 2019075123

なお、式(8)における右辺の項の分母は、15本のカットラインについての15個のexp(−E(L,L,・・・,L,w))の総和を表す。 Note that the denominator of the right side terms in equation (8) represents the sum of the 15 pieces of the 15 for cutline exp (-E (L 1, L 2, ···, L N, w)).

また、式(8)の右辺の項の分子におけるexp(−E(0,・・・,0,−1))は、上述したカットライン71のエネルギーE(L,L,・・・,L,w)であり、L=L=・・・=L=0であり、w=−1である。 Further, exp (-E (0, ..., 0, -1)) in the numerator of the term on the right side of the equation (8) is the energy E (L 1 , L 2 , ... of the cut line 71 described above). , L N , w), L 1 = L 2 =... = L N = 0, and w = −1.

また、式(8)の右辺の項の分子におけるexp(−E(1,・・・,1,−1))は、上述したカットライン72のエネルギーE(L,L,・・・,L,w)であり、L=L=・・・=L=1であり、w=−1である。 Further, exp (-E (1,..., 1, -1)) in the numerator of the term on the right side of the equation (8) is the energy E (L 1 , L 2 ,. , L N , w), L 1 = L 2 =... = L N = 1 and w = −1.

確率pは、「0」以上「1」以下の小さい値である。確率pは、例えば、関心領域44内の複数の画素45をクラスタリングした際に、複数の画素45が1つのクラスタ(第1のクラスタ又は第2のクラスタ)に属する確率である。このように、確率pは、対象部位である肺野に肺野外の部位が癒着している可能性を示す値である。確率pの値が「1」に近づくほど、癒着している可能性が高くなる。なお、確率pは、癒着の程度を示すものではない。   The probability p is a small value between “0” and “1”. The probability p is, for example, a probability that the plurality of pixels 45 belong to one cluster (first cluster or second cluster) when clustering the plurality of pixels 45 in the region of interest 44. Thus, the probability p is a value that indicates the possibility that a part of the lung field has adhered to the target lung area. As the probability p approaches "1", the possibility of coalescence increases. The probability p does not indicate the degree of adhesion.

上述したように、ステップS106では、式(8)が示すように、評価機能347は、エネルギーE(L,L,・・・,L,w)から、肺野外の部位の領域42に対応する被検体Pの肺野外の部位と、肺野の領域41に対応する被検体Pの肺野との境界43における癒着の状態を示す指標を算出する。 As described above, in step S106, as indicated by equation (8), the evaluation function 347 determines the region 42 of the lung field from the energy E (L 1 , L 2 ,..., L N , w). An index indicating the state of adhesion at the boundary 43 between the site of the lung field of the subject P corresponding to and the lung field of the subject P corresponding to the region 41 of the lung field is calculated.

また、ステップS106では、評価機能347は、ステップS104で算出された差分ベクトル(Xn_i−X(n+1)_i)の大きさに基づくエネルギーE(L,L,・・・,L,w)に基づいて指標を算出する。すなわち、評価機能347は、算出された差分ベクトル(Xn_i−X(n+1)_i)の大きさに基づいて、指標を算出する。 In step S106, evaluation function 347, the difference vector calculated in step S104 (X n_i -X (n + 1) _i) energy based on the magnitude E (L 1, L 2, ···, L N, Calculate the indicator based on w). That is, evaluation function 347, based on the magnitude of the calculated difference vector (X n_i -X (n + 1 ) _i), calculates an index.

図8〜13は、第1の実施形態に係る評価処理の一例を説明するための図である。図8〜13には、肺野の領域41と肺野外の部位の領域42との境界43の一部を含むように設定された関心領域44が示されている。図8〜13は、関心領域44を再定義するステップS103の処理が省略された場合を示す。すなわち、図8〜13は、1つの1次元の関心領域44が設定された場合を示す。   8 to 13 are diagrams for explaining an example of the evaluation process according to the first embodiment. 8 to 13 show a region of interest 44 set so as to include a part of the boundary 43 between the region 41 of the lung field and the region 42 of the region of the lung field. 8 to 13 show the case where the process of step S103 for redefining the region of interest 44 is omitted. 8 to 13 show the case where one one-dimensional region of interest 44 is set.

図8に示す3次元画像データ40は、呼吸量が比較的多い被検体Pの肺野及び肺野外の部位を含んで撮像されたデータである。図9には、図8に示す関心領域44内の複数の画素45の動きベクトルの向き(方向)及び大きさを示す複数の矢印が示されている。図9では、複数の動きベクトルの向きが略2方向で統一されている。また、図9では、複数の動きベクトルの大きさが比較的大きい。これは、被検体Pの呼吸量が比較的多いからである。   The three-dimensional image data 40 shown in FIG. 8 is data imaged by including the lung field of the subject P having a relatively large amount of respiration and the site in the lung field. FIG. 9 shows a plurality of arrows indicating the direction (direction) and the size of the motion vector of the plurality of pixels 45 in the region of interest 44 shown in FIG. In FIG. 9, the directions of the plurality of motion vectors are unified in substantially two directions. Also, in FIG. 9, the magnitudes of the plurality of motion vectors are relatively large. This is because the respiration volume of the subject P is relatively large.

一方、図10に示す3次元画像データ40は、呼吸量が比較的少ない被検体Pの肺野及び肺野外の部位を含んで撮像されたデータである。図11には、図10に示す関心領域44内の複数の画素45の動きベクトルの向き及び大きさを示す複数の矢印が示されている。図11では、図9と同様に、複数の動きベクトルの向きが略2方向で統一されている。ただし、図11では、複数の動きベクトルの大きさが比較的小さい。これは、被検体Pの呼吸量が比較的少ないからである。   On the other hand, the three-dimensional image data 40 shown in FIG. 10 is data imaged including the lung field of the subject P having a relatively small respiratory volume and the site in the lung field. FIG. 11 shows a plurality of arrows indicating the direction and magnitude of the motion vector of the plurality of pixels 45 in the region of interest 44 shown in FIG. In FIG. 11, as in FIG. 9, the directions of the plurality of motion vectors are unified in substantially two directions. However, in FIG. 11, the magnitudes of the plurality of motion vectors are relatively small. This is because the respiration rate of the subject P is relatively small.

また、図12に示す3次元画像データ40は、1点で癒着された肺野及び肺野外の部位を含んで撮像されたデータである。図13には、図12に示す関心領域44内の複数の画素45の動きベクトルの向き及び大きさを示す複数の矢印が示されている。図13では、複数の動きベクトルの向き及び大きさは、不均一である。これは、被検体Pの肺野及び肺野外の部位が1点で癒着されており、例えば、肺野に対して肺野外の部位が振り子のように相対的に移動しているからである。   Further, the three-dimensional image data 40 shown in FIG. 12 is data imaged including the lung field and the region of the lung field adhered at one point. FIG. 13 shows a plurality of arrows indicating the direction and magnitude of the motion vector of the plurality of pixels 45 in the region of interest 44 shown in FIG. In FIG. 13, the orientations and sizes of the plurality of motion vectors are nonuniform. This is because the lung field of the subject P and the site in the lung field are adhered at one point, and for example, the site in the lung field is moved relative to the lung field like a pendulum.

本実施形態では、評価機能347が、複数の画素45の動きベクトルの類似性に基づいて、癒着している可能性を示す確率pを算出する。例えば、評価機能347は、複数の動きベクトルの向き及び大きさが、均一である場合には、肺野の領域41及び肺野外の部位の領域42が癒着して動いていると考えられるため、「1」に近い確率pを算出する。例えば、評価機能347は、複数の動きベクトルの向きが略同一(略1方向)であり、大きさが略同一である場合には、「1」に近い確率pを算出する。   In the present embodiment, the evaluation function 347 calculates the probability p indicating the possibility of adhesion based on the similarity of the motion vectors of the plurality of pixels 45. For example, the evaluation function 347 is considered that the region 41 of the lung field and the region 42 of the region of the lung field are considered to be adhering and moving if the orientations and sizes of the plurality of motion vectors are uniform. The probability p close to "1" is calculated. For example, the evaluation function 347 calculates the probability p close to “1” when the directions of the plurality of motion vectors are approximately the same (approximately one direction) and the sizes are approximately the same.

また、評価機能347は、略同じ大きさの複数の動きベクトルの向きが、略2方向である場合には、肺野の領域41及び肺野外の部位の領域42が互いに独立して動いていると考えられるため、「0」に近い確率pを算出する。例えば、図9及び図10に示すように被検体Pの呼吸量が比較的多い場合にも、図11及び図12に示すように被検体Pの呼吸量が比較的少ない場合にも、評価機能347は、「0」に近い確率pを算出する。したがって、第1の実施形態によれば、呼吸量が、比較的多い場合のみならず、比較的少ない場合であっても、精度良く、癒着の状態を評価することができる。   In addition, in the evaluation function 347, when the directions of the plurality of motion vectors having substantially the same size are approximately two directions, the region 41 of the lung field and the region 42 of the region of the lung field move independently of each other. Therefore, the probability p close to “0” is calculated. For example, as shown in FIGS. 9 and 10, even when the respiration rate of the subject P is relatively large, as shown in FIGS. 11 and 12, the evaluation function is also performed when the respiration rate of the subject P is relatively small. 347 calculates the probability p close to "0". Therefore, according to the first embodiment, the adhesion state can be evaluated with high accuracy not only when the respiratory volume is relatively large but also when the respiratory volume is relatively small.

また、評価機能347は、複数の動きベクトルの向き及び大きさが、不均一である場合には、「1」に近い確率pを算出する。例えば、図12及び図13に示すように、被検体Pの肺野及び肺野外の部位が1点で癒着されている場合には、複数の動きベクトルの向き及び大きさが不均一であり、1つのクラスタに複数の画素45が属することが適切であると考えられるので、評価機能347は、「1」に近い確率pを算出する。したがって、第1の実施形態によれば、被検体Pの肺野及び肺野外の部位が1点で癒着されている場合であっても、精度良く、癒着の状態を評価することができる。   Further, the evaluation function 347 calculates the probability p close to “1” when the directions and the magnitudes of the plurality of motion vectors are not uniform. For example, as shown in FIG. 12 and FIG. 13, when the lung field of the subject P and the region outside the lung are adhered at one point, the directions and sizes of the plurality of motion vectors are uneven. Since it is considered appropriate that a plurality of pixels 45 belong to one cluster, the evaluation function 347 calculates a probability p close to “1”. Therefore, according to the first embodiment, even when the lung field of the subject P and the site in the lung field are adhered at one point, the state of adhesion can be evaluated with high accuracy.

このように、ステップS106では、評価機能347は、クラスタリング処理の一部の処理の結果に基づいて、関心領域44内での対象部位の癒着の状態を評価する。また、評価機能347は、クラスタリング処理の一部の処理の結果に基づいて、複数の画素45をクラスタリングした際に、複数の画素45が1つのクラスタに属する確率pを癒着の状態を示す指標として算出する。なお、評価機能347は、クラスタリング処理の一部の処理の結果に基づいて、複数の画素45をクラスタリングした際に、複数の画素45が複数(例えば2つ)のクラスタに属する確率(1−p)を癒着の状態を示す指標として算出してもよい。すなわち、評価機能347は、2つのクラスタ(上述した第1のクラスタ及び第2のクラスタ)へ複数の画素45を分類する際に、複数の画素45が同一のクラスタに属する確率pに基づいて、指標を算出し、癒着の状態を評価してもよい。   Thus, in step S106, the evaluation function 347 evaluates the adhesion state of the target site in the region of interest 44 based on the result of part of the clustering process. In addition, when the evaluation function 347 clusters the plurality of pixels 45 based on the result of part of the clustering process, the probability p of the plurality of pixels 45 belonging to one cluster is used as an index indicating the state of adhesion. calculate. Note that when the evaluation function 347 clusters the plurality of pixels 45 based on the result of part of the clustering process, the probability (1-p) that the plurality of pixels 45 belong to a plurality (for example, two) of clusters ) May be calculated as an index indicating the adhesion state. That is, when the evaluation function 347 classifies the plurality of pixels 45 into two clusters (the first cluster and the second cluster described above), based on the probability p that the plurality of pixels 45 belong to the same cluster, An index may be calculated to assess the state of adhesions.

また、ステップS106では、評価機能347は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づく、重みP(lj_0)、重みP(lj_1)及びエネルギーE(L,L,・・・,L,w)により、確率pを算出し、確率pに基づいて指標を算出する。 Further, in step S106, the evaluation function 347 determines the weight P (l j_0 ), the weight P (l j_1 ), and the energy E (L 1 , L 2 , ... ) Based on the motion vector X n_i and the motion vector X (n + 1) _i. The probability p is calculated by using L N , w), and the index is calculated based on the probability p.

また、ステップS106では、評価機能347は、ステップS104で算出された動きベクトルXn_i及び動きベクトルX(n+1)_iの差分ベクトルの大きさに基づくエネルギーE(L,L,・・・,L,w)により、指標を算出する。 Further, in step S106, the evaluation function 347 calculates the energy E (L 1 , L 2 ,..., Based on the magnitudes of the motion vector X n_i and the motion vector X (n + 1) _i calculated in step S104. The index is calculated by L N , w).

そして、評価機能347は、関心領域44内の14個の画素45に、確率pを対応付ける。例えば、評価機能347は、各画素45を識別するための識別情報と確率pとが対応付けられた対応情報を生成し、生成した対応情報をメモリ31に格納する。   Then, the evaluation function 347 associates the probability p with the 14 pixels 45 in the region of interest 44. For example, the evaluation function 347 generates correspondence information in which identification information for identifying each pixel 45 is associated with the probability p, and stores the generated correspondence information in the memory 31.

そして、実行機能346は、境界43の全部分に亘って関心領域44を設定したか否かを判定する(ステップS107)。全部分に亘って関心領域44を設定していないと判定した場合(ステップS107:No)には、実行機能346は、ステップS102に戻り、境界43の全部分のうち関心領域44を未設定の部分に、関心領域44を設定する。そして、ステップS103〜S106の各処理が、境界43の全部分に亘って関心領域44を設定していると実行機能346により判定されるまで、繰り返し実行される。   Then, the execution function 346 determines whether or not the region of interest 44 has been set over the entire portion of the boundary 43 (step S107). If it is determined that the region of interest 44 has not been set over the entire portion (step S107: No), the execution function 346 returns to step S102, and the region of interest 44 is not set among all the portions of the boundary 43. In the part, the region of interest 44 is set. Then, each process of steps S103 to S106 is repeatedly executed until it is determined by the execution function 346 that the region of interest 44 is set over the entire portion of the boundary 43.

一方、全部分に亘って関心領域44を設定したと実行機能346により判定された場合(ステップS107:Yes)には、色割当機能348は、3次元画像データを構成する複数の画素のそれぞれに対して確率pに応じた色を割り当てる(ステップS108)。   On the other hand, when it is determined by the execution function 346 that the region of interest 44 has been set over the entire part (step S107: Yes), the color assignment function 348 sets each of the plurality of pixels constituting the three-dimensional image data. Then, a color according to the probability p is assigned (step S108).

例えば、色割当機能348は、メモリ31に記憶された対応情報を取得する。そして、色割当機能348は、対応情報が示す識別情報と確率pとの対応関係にしたがって、各画素に色を割り当てる。具体的には、色割当機能348は、識別情報が示す画素に対して、当該画素に対応する確率pに応じた色を割り当てる。例えば、色割当機能348は、確率pが「1」に近づくほど赤色に近い色を画素に割り当て、確率pが「0」に近づくほど青色に近い色を割り当ててもよい。また、色割当機能348は、確率pが対応付けられていない画素については、所定の色を割り当ててもよい。ここで、所定の色とは、例えば、確率pに応じて画素に割り当てられる色以外の色が挙げられる。   For example, the color assignment function 348 acquires the correspondence information stored in the memory 31. Then, the color assignment function 348 assigns a color to each pixel in accordance with the correspondence between the identification information indicated by the correspondence information and the probability p. Specifically, the color assignment function 348 assigns a color according to the probability p corresponding to the pixel to the pixel indicated by the identification information. For example, the color assignment function 348 may assign a color closer to red to a pixel as the probability p approaches “1”, and assign a color closer to blue as the probability p approaches “0”. In addition, the color assignment function 348 may assign a predetermined color to a pixel to which the probability p is not associated. Here, the predetermined color may be, for example, a color other than the color assigned to the pixel according to the probability p.

そして、画像処理機能344は、色が割り当てられた3次元画像データに基づいて、表示用の2次元画像データを生成する(ステップS109)。例えば、画像処理機能344は、3次元画像データに対してサーフェスレンダリングを行い、表示用の2次元画像データとしてサーフェスレンダリング画像データを生成する。   Then, the image processing function 344 generates two-dimensional image data for display based on the three-dimensional image data to which the color is assigned (step S109). For example, the image processing function 344 performs surface rendering on three-dimensional image data and generates surface rendering image data as two-dimensional image data for display.

そして、システム制御機能341は、ディスプレイ32に表示用の2次元画像データが示す画像を表示させ(ステップS110)、評価処理を終了する。図14は、第1の実施形態に係る表示用の2次元画像データが示す画像の一例を示す図である。例えば、図14に示すように、システム制御機能341は、サーフェスレンダリング画像データが示すサーフェスレンダリング画像80をディスプレイ32に表示させる。このようにして、システム制御機能341は、評価機能347により評価された評価結果をディスプレイ32に表示させる。これにより、サーフェスレンダリング画像80を確認した操作者は、対象部位のどの部分が癒着している可能性が高いかを容易に把握することができる。   Then, the system control function 341 causes the display 32 to display an image represented by the two-dimensional image data for display (step S110), and ends the evaluation process. FIG. 14 is a view showing an example of an image represented by two-dimensional image data for display according to the first embodiment. For example, as shown in FIG. 14, the system control function 341 causes the display 32 to display a surface rendering image 80 indicated by the surface rendering image data. Thus, the system control function 341 causes the display 32 to display the evaluation result evaluated by the evaluation function 347. As a result, the operator who has confirmed the surface rendering image 80 can easily grasp which part of the target site is highly likely to be adhered.

以上、第1の実施形態に係るX線CT装置1について説明した。X線CT装置1によれば、上述したように、精度良く付着の状態を評価することができる。   The X-ray CT apparatus 1 according to the first embodiment has been described above. According to the X-ray CT apparatus 1, as described above, the state of adhesion can be evaluated accurately.

(第1の実施形態の第1の変形例)
上述した第1の実施形態では、1次元の関心領域44が設定される場合について説明したが、関心領域44は、1次元でなく、例えば、2次元又は3次元であってもよい。そこで、このような変形例を第1の実施形態の第1の変形例として説明する。第1の変形例では、X線CT装置1は、2次元又は3次元の関心領域44内の画素を用いて、第1の実施形態と同様の処理を行う。
First Modification of First Embodiment
In the first embodiment described above, the case where the one-dimensional region of interest 44 is set has been described, but the region of interest 44 may not be one-dimensional but may be, for example, two-dimensional or three-dimensional. Thus, such a modification is described as a first modification of the first embodiment. In the first modification, the X-ray CT apparatus 1 performs processing similar to that of the first embodiment using pixels in the two-dimensional or three-dimensional region of interest 44.

例えば、第1の変形例では、2次元の関心領域44内には、境界43の法線方向に沿って1次元状に並ぶ複数の画素から構成される画素列が、境界43の法線方向と直交する方向に複数並んでいる。そこで、第1の変形例では、X線CT装置1は、第1の実施形態において1次元状に並んだ複数の画素45に対して行った処理と同様の処理を、複数の画素列のそれぞれに対して行う。   For example, in the first modification, in the two-dimensional region of interest 44, a pixel row composed of a plurality of pixels arranged one-dimensionally along the normal direction of the boundary 43 is the normal direction of the boundary 43 A plurality are arranged in the direction orthogonal to Therefore, in the first modification, the X-ray CT apparatus 1 performs the same process as the process performed on the plurality of pixels 45 arranged in a one-dimensional shape in the first embodiment, for each of the plurality of pixel columns. Do against

また、3次元の関心領域44が設定される場合においても、実行機能346は、2次元の関心領域44が設定される場合の処理と同様の処理を行う。したがって、第1の変形例によれば、第1の実施形態と同様の効果を奏する。   Further, even in the case where the three-dimensional region of interest 44 is set, the execution function 346 performs the same process as the process in the case where the two-dimensional region of interest 44 is set. Therefore, according to the first modification, the same effect as that of the first embodiment can be obtained.

(第1の実施形態の第2の変形例)
また、上述した第1の実施形態及び第1の変形例では、実行機能346が、クラスタリング処理の一部の処理を実行する場合について説明したが、クラスタリング処理の全処理を実行してもよい。この場合、実行機能346は、15本のカットラインのそれぞれに対して算出したエネルギーE(L,L,・・・,L,w)の中から、最小のエネルギーE(L,L,・・・,L,w)に対応するカットラインにより、各画素45を各クラスタに分類するクラスタリングを行う。すなわち、実行機能346は、クラスタリング処理の全処理を実行する。
Second Modification of First Embodiment
In the first embodiment and the first modification described above, the execution function 346 executes a part of the clustering processing. However, all the clustering processing may be performed. In this case, the execution function 346 determines the minimum energy E (L 1 , L 1 , L 2 ,..., L N , w) calculated for each of the 15 cut lines. Clustering is performed to classify each pixel 45 into each cluster according to a cut line corresponding to L 2 ,..., L N , w). That is, the execution function 346 executes all the processing of the clustering processing.

このように、実行機能346は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づくエネルギーE(L,L,・・・,L,w)に基づいて、第1のクラスタ又は第2のクラスタへ複数の画素45のそれぞれを分類するクラスタリング処理を実行する。すなわち、実行機能346は、動きベクトルXn_i及び動きベクトルX(n+1)_iに基づいて、クラスタリング処理を実行する。 Thus, the execution function 346 determines whether the first cluster or the second cluster is based on the energy E (L 1 , L 2 ,..., L N , w) based on the motion vector Xn_i and the motion vector X (n + 1) _i . A clustering process is performed to classify each of the plurality of pixels 45 into two clusters. That is, the execution function 346 executes clustering processing based on the motion vector Xn_i and the motion vector X (n + 1) _i .

また、X線CT装置1は、クラスタリング処理の全処理を実行する場合には、クラスタリング処理の結果を用いて、確率pの確からしさを示す信頼度を算出してもよい。そこで、このような変形例を第1の実施形態の第2の変形例として説明する。   When the X-ray CT apparatus 1 executes the entire process of the clustering process, the X-ray CT apparatus 1 may calculate the reliability indicating the certainty of the probability p using the result of the clustering process. Thus, such a modification is described as a second modification of the first embodiment.

図15及び図16は、第2の変形例に係るX線CT装置が実行する処理の一例を説明するための図である。図15には、セグメンテーション機能345により3次元画像データ40から抽出された肺野の領域41及び肺野外の部位の領域42が示されている。また、図15には、実行機能346により第1のクラスタに分類された画素45が位置する領域82、及び、第2のクラスタに分類された画素45が位置する領域81が示されている。   FIG. 15 and FIG. 16 are diagrams for explaining an example of processing executed by the X-ray CT apparatus according to the second modification. In FIG. 15, the region 41 of the lung field and the region 42 of the region of the lung field extracted from the three-dimensional image data 40 by the segmentation function 345 are shown. Further, FIG. 15 shows an area 82 in which the pixels 45 classified into the first cluster by the execution function 346 are located, and an area 81 in which the pixels 45 classified into the second cluster are positioned.

そして、第2の変形例では、評価機能347は、肺野の領域41と肺野外の部位の領域42との境界43と、領域81と領域82との境界83との一致度を、確率pの確からしさを示す信頼度として算出する。なお、評価機能347は、一致度を算出する方法として、公知の技術を用いる。   Then, in the second modified example, the evaluation function 347 determines the degree of coincidence between the boundary 43 of the region 41 of the lung field and the region 42 of the region of the lung field and the boundary 83 of the region 81 and the region 82 with probability p It is calculated as the degree of confidence that indicates the likelihood of The evaluation function 347 uses a known technique as a method of calculating the degree of coincidence.

ここで、境界43と境界83との一致度が高いと、クラスタリング処理の結果とセグメンテーション処理の結果との一致度も高くなる。クラスタリング処理の結果とセグメンテーション処理の結果との一致度が高いほど、クラスタリング処理の結果の確からしさを示す信頼度が高くなる。クラスタリング処理の結果の確からしさを示す信頼度が高くなると、確率pの確からしさを示す信頼度も高くなる。   Here, when the degree of coincidence between the boundary 43 and the boundary 83 is high, the degree of coincidence between the result of the clustering process and the result of the segmentation process also becomes high. The higher the degree of coincidence between the result of the clustering process and the result of the segmentation process, the higher the reliability indicating the certainty of the result of the clustering process. As the reliability indicating the certainty of the result of the clustering process increases, the reliability indicating the certainty of the probability p also increases.

そこで、第2の変形例に係る評価機能347は、境界43と境界83との一致度を、確率pの確からしさを示す信頼度として算出する。   Therefore, the evaluation function 347 according to the second modification calculates the degree of coincidence between the boundary 43 and the boundary 83 as the reliability indicating the probability of the probability p.

また、実行機能346により、関心領域44内の全ての画素45が第2のクラスタに属するように画素45が分類された場合について説明する。この場合には、図16に示すように、第2のクラスタに属する画素45が位置する領域84はあるが、第1のクラスタに属する画素45が位置する領域はない。このため、領域84と第1のクラスタに属する画素45が位置する領域との境界はない。このように、境界がない場合には、評価機能347は、確率pの確からしさを示す信頼度として、所定値、例えば、「0」を算出する。同様に、評価機能347は、実行機能346により関心領域44内の全ての画素45が第1のクラスタに属するように画素45が分類された場合にも、所定値、例えば、「0」を算出する。   Further, the case where the execution function 346 classifies the pixels 45 so that all the pixels 45 in the region of interest 44 belong to the second cluster will be described. In this case, as shown in FIG. 16, there is an area 84 in which the pixels 45 belonging to the second cluster are located, but there is no area in which the pixels 45 belonging to the first cluster are located. Therefore, there is no boundary between the area 84 and the area where the pixels 45 belonging to the first cluster are located. As described above, when there is no boundary, the evaluation function 347 calculates a predetermined value, for example, "0" as the reliability indicating the probability of the probability p. Similarly, the evaluation function 347 calculates a predetermined value, for example, “0”, even when the execution function 346 classifies the pixels 45 so that all the pixels 45 in the region of interest 44 belong to the first cluster. Do.

このようにして、評価機能347は、セグメンテーション処理の結果及びクラスタリング処理の結果に基づいて、癒着の状態の評価結果の信頼度を算出する。   Thus, the evaluation function 347 calculates the reliability of the evaluation result of the adhesion state based on the segmentation process result and the clustering process result.

そして、第2の変形例に係るシステム制御機能341は、算出した信頼度を、ディスプレイ32に表示させる。   The system control function 341 according to the second modification causes the display 32 to display the calculated reliability.

以上、第2の変形例に係るX線CT装置1について説明した。第2の変形例によれば、確率pの確からしさを示す信頼度を定量的に表示することができる。このため、第2の変形例によれば、操作者に、確率pの確からしさを、より確実に把握させることができる。   The X-ray CT apparatus 1 according to the second modification has been described above. According to the second modification, it is possible to quantitatively display the reliability indicating the certainty of the probability p. For this reason, according to the second modified example, the operator can more surely grasp the certainty of the probability p.

(第2の実施形態)
ここで、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1の機能を、X線CT装置1とネットワークを介して接続された画像処理装置に持たせることができる。このような実施形態を第2の実施形態として、図17を用いて説明する。
Second Embodiment
Here, the function of the X-ray CT apparatus 1 according to the first embodiment, the first modification, or the second modification is provided to an image processing apparatus connected to the X-ray CT apparatus 1 via a network. be able to. Such an embodiment will be described as a second embodiment with reference to FIG.

図17は、第2の実施形態に係る画像処理装置を含むシステムの構成の一例を示す図である。図17の例に示すシステムは、X線CT装置600と、画像保管装置700と、画像表示装置800と、画像処理装置900とを有する。X線CT装置600と、画像保管装置700と、画像表示装置800と、画像処理装置900とは、例えば、病院内に設置された院内LAN(Local Area Network)500により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、PACS(Picture Archiving and Communication System)が導入されている場合、各装置600〜900は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、画像等を相互に送受信する。   FIG. 17 is a diagram showing an example of the configuration of a system including the image processing apparatus according to the second embodiment. The system shown in the example of FIG. 17 includes an X-ray CT apparatus 600, an image storage apparatus 700, an image display apparatus 800, and an image processing apparatus 900. The X-ray CT apparatus 600, the image storage apparatus 700, the image display apparatus 800, and the image processing apparatus 900 may be direct or indirect by, for example, an in-hospital local area network (LAN) 500 installed in a hospital. Can communicate with each other. For example, when a PACS (Picture Archiving and Communication System) is introduced, the devices 600 to 900 mutually transmit and receive images and the like in accordance with the Digital Imaging and Communications in Medicine (DICOM) standard.

X線CT装置600は、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1である。X線CT装置600は、4次元画像データ(Tフレーム分の3次元画像データ)を画像処理装置900に送信する。   The X-ray CT apparatus 600 is the X-ray CT apparatus 1 according to the first embodiment, the first modification, or the second modification. The X-ray CT apparatus 600 transmits four-dimensional image data (three-dimensional image data for T frames) to the image processing apparatus 900.

画像保管装置700は、X線CT装置600および画像処理装置900により生成された表示用の2次元画像データを保管するデータベースである。   The image storage device 700 is a database for storing two-dimensional image data for display generated by the X-ray CT apparatus 600 and the image processing apparatus 900.

画像処理装置900は、ワークステーションであり、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1の機能を有する。画像処理装置900は、X線CT装置600から送信されたTフレーム分の3次元画像データを用いて、第1の実施形態、第1の変形例又は第2の変形例に係るX線CT装置1が実行する処理と同様の処理を行う。   The image processing apparatus 900 is a workstation and has the function of the X-ray CT apparatus 1 according to the first embodiment, the first modification, or the second modification. The image processing apparatus 900 uses three-dimensional image data for T frames transmitted from the X-ray CT apparatus 600, and the X-ray CT apparatus according to the first embodiment, the first modification, or the second modification. The same processing as that executed by 1 is performed.

画像処理装置900は、入力インターフェース901、ディスプレイ902、メモリ903及び処理回路904を有する。   The image processing apparatus 900 includes an input interface 901, a display 902, a memory 903 and a processing circuit 904.

入力インターフェース901は、操作者から各種指示及び各種情報の入力操作を受け付ける。具体的には、入力インターフェース901は、処理回路904に接続されており、操作者から受け取った入力操作を電気信号へ変換し処理回路904へと出力する。例えば、入力インターフェース901は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力インターフェース、及び音声入力インターフェース等によって実現される。なお、本明細書において、入力インターフェース901は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路904へ出力する電気信号の処理回路も入力インターフェース901の例に含まれる。   The input interface 901 receives an input operation of various instructions and various information from the operator. Specifically, the input interface 901 is connected to the processing circuit 904, converts an input operation received from the operator into an electrical signal, and outputs the signal to the processing circuit 904. For example, the input interface 901 includes a trackball, a switch button, a mouse, a keyboard, a touch pad for performing an input operation by touching an operation surface, a touch screen in which a display screen and a touch pad are integrated, and a non-optical sensor It is realized by a touch input interface, an audio input interface, and the like. Note that, in the present specification, the input interface 901 is not limited to one having physical operation parts such as a mouse and a keyboard. For example, an example of the input interface 901 is a processing circuit of an electrical signal that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the processing circuit 904. .

ディスプレイ902は、各種情報及び各種画像を表示する。具体的には、ディスプレイ902は、処理回路904に接続されており、処理回路904から送られる各種情報及び各種画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ902は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。   The display 902 displays various information and various images. Specifically, the display 902 is connected to the processing circuit 904, and converts data of various information and various images sent from the processing circuit 904 into electrical signals for display and outputs them. For example, the display 902 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, a touch panel, or the like.

メモリ903は、各種データを記憶する。具体的には、メモリ903は、各種の画像を記憶する。例えば、メモリ903は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。   The memory 903 stores various data. Specifically, the memory 903 stores various images. For example, the memory 903 is realized by a random access memory (RAM), a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like.

処理回路904は、画像処理装置900の全体制御を行う。例えば、処理回路904は、X線CT装置600から送信されたTフレーム分の3次元画像データを受信すると、受信した3次元画像データをメモリ903に格納する。処理回路904は、プロセッサにより実現される。処理回路904は、取得機能904a、セグメンテーション機能904b、実行機能904c、評価機能904d、色割当機能904e、表示制御機能904f及び画像処理機能904gを有する。取得機能904aは、取得部の一例である。セグメンテーション機能904bは、セグメンテーション処理部の一例である。実行機能904cは、実行部及び第2の算出部の一例である。評価機能904dは、評価部、算出部及び第1の算出部の一例である。表示制御機能904fは、表示制御部の一例である。画像処理機能904gは、生成部の一例である。   The processing circuit 904 performs overall control of the image processing apparatus 900. For example, when the processing circuit 904 receives three-dimensional image data of T frames transmitted from the X-ray CT apparatus 600, the processing circuit 904 stores the received three-dimensional image data in the memory 903. The processing circuit 904 is implemented by a processor. The processing circuit 904 includes an acquisition function 904a, a segmentation function 904b, an execution function 904c, an evaluation function 904d, a color assignment function 904e, a display control function 904f, and an image processing function 904g. The acquisition function 904a is an example of an acquisition unit. The segmentation function 904 b is an example of a segmentation processing unit. The execution function 904 c is an example of an execution unit and a second calculation unit. The evaluation function 904 d is an example of an evaluation unit, a calculation unit, and a first calculation unit. The display control function 904 f is an example of a display control unit. The image processing function 904 g is an example of a generation unit.

ここで、例えば、処理回路904の構成要素である取得機能904a、セグメンテーション機能904b、実行機能904c、評価機能904d、色割当機能904e、表示制御機能904f及び画像処理機能904gの各機能は、コンピュータによって実行可能なプログラムの形態でメモリ903に記憶されている。処理回路904は、各プログラムをメモリ903から読み出し、読み出した各プログラムを実行することで、各機能を実現する。換言すると、各プログラムを読み出した状態の処理回路904は、図17の処理回路904内に示された各機能を有することとなる。   Here, for example, the respective functions of an acquisition function 904a, a segmentation function 904b, an execution function 904c, an evaluation function 904d, a color assignment function 904e, a display control function 904f and an image processing function 904g which are components of the processing circuit 904 It is stored in the memory 903 in the form of an executable program. The processing circuit 904 reads each program from the memory 903 and executes each read program to realize each function. In other words, the processing circuit 904 in the state of reading out each program has each function shown in the processing circuit 904 of FIG.

取得機能904aは、メモリ903に記憶されたTフレーム分の3次元画像データを取得する。すなわち、取得機能904aは、複数の時相において被検体Pの対象部位を含んで撮像された複数の3次元画像データを取得する。   The acquisition function 904 a acquires three-dimensional image data of T frames stored in the memory 903. That is, the acquisition function 904a acquires a plurality of three-dimensional image data captured including a target portion of the subject P in a plurality of time phases.

セグメンテーション機能904bは、上述したステップS101の処理と同様の処理を実行する。実行機能904cは、上述したステップS102〜S105,S107の処理と同様の処理を実行する。評価機能904dは、上述したステップS106の処理と同様の処理を実行する。   The segmentation function 904b executes the same process as the process of step S101 described above. The execution function 904c executes the same process as the process of steps S102 to S105 and S107 described above. The evaluation function 904d executes the same process as the process of step S106 described above.

色割当機能904eは、上述したステップS108の処理と同様の処理を実行する。画像処理機能904gは、上述したステップS109の処理と同様の処理を実行する。表示制御機能904fは、上述したステップS110の処理と同様の処理を実行する。   The color assignment function 904 e executes the same process as the process of step S 108 described above. The image processing function 904g executes the same process as the process of step S109 described above. The display control function 904 f performs the same process as the process of step S <b> 110 described above.

以上、第2の実施形態に係る画像処理装置900について説明した。画像処理装置900によれば、第1の実施形態、第1の変形例及び第2の変形例と同様に、精度良く付着の状態を評価することができる。   The image processing apparatus 900 according to the second embodiment has been described above. According to the image processing apparatus 900, as in the first embodiment, the first modification, and the second modification, the state of adhesion can be evaluated with high accuracy.

以上説明した少なくともひとつの実施形態又は変形例によれば、精度良く付着の状態を評価することができる。   According to at least one embodiment or modification described above, the state of adhesion can be evaluated accurately.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   While certain embodiments of the present invention have been described, these embodiments have been presented by way of example only, and are not intended to limit the scope of the invention. These embodiments can be implemented in other various forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and the equivalents thereof as well as included in the scope and the gist of the invention.

900 画像処理装置
904a 取得機能
904d 評価機能
900 Image Processing Device 904a Acquisition Function 904d Evaluation Function

Claims (8)

複数の時相において被検体の対象部位を含んで撮像された複数の画像を取得する取得部と、
前記画像における第1の領域及び第2の領域の境界を跨いで所定方向に並んだ前記画像の複数の画素における、前記複数の時相の画像間での移動情報に基づいて、前記第1の領域に係る第1のクラス又は当該第1の領域と前記所定方向に隣り合う第2の領域に係る第2のクラスへ前記複数の画素のそれぞれを分類する際の分類情報から、前記第1の領域に対応する前記被検体の第1の部位と前記第2の領域に対応する前記被検体の第2の部位との前記境界における付着の状態を示す指標を算出する第1の算出部と、
を備える、画像処理装置。
An acquisition unit configured to acquire a plurality of images captured including a target site of a subject in a plurality of time phases;
The first of the plurality of pixels of the image arranged in a predetermined direction across the boundary of the first region and the second region in the image, based on movement information among the images of the plurality of time phases. According to classification information at the time of classifying each of the plurality of pixels into a first class relating to a region or a second class relating to a second region adjacent to the first region in the predetermined direction, the first information A first calculation unit that calculates an index indicating a state of adhesion at the boundary between the first portion of the subject corresponding to the region and the second portion of the subject corresponding to the second region;
An image processing apparatus comprising:
前記第1の算出部は、前記第1のクラス及び前記第2のクラスへ前記複数の画素を分類する際に、当該複数の画素が同一のクラスに属する確率に基づいて、前記指標を算出し、前記付着の状態を評価する、請求項1に記載の画像処理装置。   When classifying the plurality of pixels into the first class and the second class, the first calculation unit calculates the index based on the probability that the plurality of pixels belong to the same class. The image processing apparatus according to claim 1, wherein the state of adhesion is evaluated. 前記第1の算出部は、前記移動情報に基づく、前記第1のクラス又は前記第2のクラスへ前記複数の画素のそれぞれを分類する際のコストに係る値により、前記確率を算出し、当該確率に基づいて前記指標を算出する、請求項2に記載の画像処理装置。   The first calculation unit calculates the probability by a value related to a cost when classifying each of the plurality of pixels into the first class or the second class based on the movement information, The image processing apparatus according to claim 2, wherein the index is calculated based on a probability. 前記複数の画素のそれぞれの動きベクトルを前記移動情報として算出し、算出した複数の動きベクトルに基づいて、当該複数の画素において前記所定方向に隣り合う2つの画素ごとに、当該2つの画素の2つの動きベクトルの差分ベクトルの大きさを算出する第2の算出部を更に備え、
前記第1の算出部は、前記差分ベクトルの大きさに基づいて、前記指標を算出する、請求項1〜3のいずれか1つに記載の画像処理装置。
The motion vector of each of the plurality of pixels is calculated as the movement information, and based on the calculated plurality of motion vectors, two of the two pixels are adjacent to each other in the predetermined direction in the plurality of pixels. And a second calculation unit that calculates the magnitude of the difference vector of two motion vectors,
The image processing apparatus according to any one of claims 1 to 3, wherein the first calculation unit calculates the index based on the magnitude of the difference vector.
前記画像から前記第1の領域及び前記第2の領域を抽出するためのセグメンテーション処理を実行するセグメンテーション処理部を更に備え、
前記第2の算出部は、前記移動情報に基づいて、前記第1のクラス又は前記第2のクラスへ前記複数の画素のそれぞれを分類するクラスタリング処理を実行し、
前記第1の算出部は、前記セグメンテーション処理の結果及び前記クラスタリング処理の結果に基づいて、前記指標の信頼度を算出する、
請求項4に記載の画像処理装置。
The image processing apparatus further comprises a segmentation processing unit that executes segmentation processing for extracting the first area and the second area from the image.
The second calculation unit executes clustering processing for classifying each of the plurality of pixels into the first class or the second class based on the movement information
The first calculation unit calculates the reliability of the index based on the result of the segmentation process and the result of the clustering process.
The image processing apparatus according to claim 4.
前記指標を表示部に表示させる表示制御部を更に備える、請求項1〜5のいずれか1つに記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 5, further comprising a display control unit that causes the display unit to display the index. 前記信頼度を表示部に表示させる表示制御部を更に備える、請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, further comprising a display control unit that causes the display unit to display the reliability. 複数の時相において被検体の対象部位を含んで撮像された複数の画像を生成する生成部と、
前記画像上における第1の領域及び第2の領域の境界を跨いで所定方向に並んだ前記画像の複数の画素における、前記複数の時相の画像間での移動情報に基づいて、前記第1の領域に係る第1のクラス又は当該第1の領域と前記所定方向に隣り合う第2の領域に係る第2のクラスへ前記複数の画素のそれぞれを分類する際の分類情報から、前記第1の領域に対応する前記被検体の第1の部位と前記第2の領域に対応する前記被検体の第2の部位との前記境界における付着の状態を示す指標を算出する算出部と、
を備える、医用画像撮像装置。
A generation unit that generates a plurality of images captured including a target site of the subject in a plurality of time phases;
The first image based on movement information among the images of the plurality of time phases in a plurality of pixels of the image arranged in a predetermined direction across the boundary of the first region and the second region on the image. The first class according to the first area or the second area according to the first area and the second area adjacent to the second area according to the classification information when classifying each of the plurality of pixels A calculation unit that calculates an index indicating a state of adhesion at the boundary between the first region of the subject corresponding to the region of the second region and the second region of the object corresponding to the second region;
A medical imaging apparatus comprising:
JP2018195917A 2017-10-17 2018-10-17 Image processing device and medical imaging device Active JP7166870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/162,986 US11138735B2 (en) 2017-10-17 2018-10-17 Image processing apparatus and medical image taking apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017201218 2017-10-17
JP2017201218 2017-10-17

Publications (2)

Publication Number Publication Date
JP2019075123A true JP2019075123A (en) 2019-05-16
JP7166870B2 JP7166870B2 (en) 2022-11-08

Family

ID=66544337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018195917A Active JP7166870B2 (en) 2017-10-17 2018-10-17 Image processing device and medical imaging device

Country Status (1)

Country Link
JP (1) JP7166870B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070588A1 (en) * 2010-11-25 2012-05-31 株式会社日立メディコ Ultrasound moving image processing method, device and program
JP2012213604A (en) * 2011-03-29 2012-11-08 Toshiba Corp X-ray ct apparatus, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012070588A1 (en) * 2010-11-25 2012-05-31 株式会社日立メディコ Ultrasound moving image processing method, device and program
JP2012213604A (en) * 2011-03-29 2012-11-08 Toshiba Corp X-ray ct apparatus, and image processing method

Also Published As

Publication number Publication date
JP7166870B2 (en) 2022-11-08

Similar Documents

Publication Publication Date Title
US10628972B2 (en) Diagnostic imaging method and apparatus, and recording medium thereof
US10143433B2 (en) Computed tomography apparatus and method of reconstructing a computed tomography image by the computed tomography apparatus
US10052077B2 (en) Tomography imaging apparatus and method
US20200245966A1 (en) Medical imaging apparatus and control method of the same
JP7262933B2 (en) Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program
JP7341803B2 (en) X-ray CT equipment, medical image processing equipment, and X-ray CT systems
US9836861B2 (en) Tomography apparatus and method of reconstructing tomography image
US10339675B2 (en) Tomography apparatus and method for reconstructing tomography image thereof
US11138735B2 (en) Image processing apparatus and medical image taking apparatus
JP2016147062A (en) X-ray computer tomographic imaging device and medical image processor
JP6526428B2 (en) Medical image processing apparatus, medical image processing method and medical image diagnostic apparatus
JP7313818B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
US10176568B2 (en) Tomographic apparatus and method
JP7166870B2 (en) Image processing device and medical imaging device
JP6598653B2 (en) Medical information processing apparatus and medical information processing system
CN110881993B (en) X-ray CT apparatus, medical image processing apparatus, and X-ray CT system
JP2008267913A (en) Nuclear medicine diagnostic apparatus and diagnostic system used for same
JP2020141721A (en) Medical data collection device and medical diagnostic system
JP2020065593A (en) Medical image processing device, x-ray diagnostic device and medical image processing program
US20240062371A1 (en) Information processing method, medical image diagnostic apparatus, and information processing system including deep learning for optimal cardiac phase selection
JP7510775B2 (en) Medical image processing device and medical image diagnostic device
JP7473313B2 (en) Medical image processing device, medical image processing method, and medical image processing program
US20240225582A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
JP6923414B2 (en) X-ray computed tomography equipment, medical imaging equipment, and programs
JP2024098862A (en) Medical image processing device, medical image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7166870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150