JP7443591B2 - Medical image diagnosis device and medical image diagnosis method - Google Patents
Medical image diagnosis device and medical image diagnosis method Download PDFInfo
- Publication number
- JP7443591B2 JP7443591B2 JP2023035405A JP2023035405A JP7443591B2 JP 7443591 B2 JP7443591 B2 JP 7443591B2 JP 2023035405 A JP2023035405 A JP 2023035405A JP 2023035405 A JP2023035405 A JP 2023035405A JP 7443591 B2 JP7443591 B2 JP 7443591B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- scan range
- disease name
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000003745 diagnosis Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims description 72
- 238000003384 imaging method Methods 0.000 claims description 54
- 230000003287 optical effect Effects 0.000 claims description 41
- 201000010099 disease Diseases 0.000 claims description 23
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 23
- 238000002405 diagnostic procedure Methods 0.000 claims description 4
- 238000002059 diagnostic imaging Methods 0.000 claims 4
- 208000037919 acquired disease Diseases 0.000 claims 1
- 230000006870 function Effects 0.000 description 173
- 238000002591 computed tomography Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 20
- 238000010801 machine learning Methods 0.000 description 19
- 238000012546 transfer Methods 0.000 description 16
- 238000007781 pre-processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000013078 crystal Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Description
本発明の実施形態は、医用画像診断装置、および医用画像診断方法に関する。 Embodiments of the present invention relate to a medical image diagnosis apparatus and a medical image diagnosis method.
従来、X線CT装置等の画像診断装置に関して、機械学習により画像処理パラメータを設定する方法や、画像内において検出対象自体(例えば、冠状動脈)や検出対象におけるAL(Anatomical Landmark:解剖学的特徴点)を含むテンプレート画像を機械学習することで、画像解析段階における処理負荷を軽減する技術が開示されている。 Conventionally, with regard to image diagnostic equipment such as A technique has been disclosed that reduces the processing load at the image analysis stage by performing machine learning on a template image containing points).
また、従来、人体の特徴点(例えば、頭部や胴体の輪郭線)を認識してスキャン範囲を自動設定する、ALD(Adaptive Layer Distribution)と称される技術が存在する。 Furthermore, there has conventionally been a technology called ALD (Adaptive Layer Distribution) that automatically sets a scan range by recognizing feature points of a human body (for example, contour lines of a head or torso).
しかしながら従来の技術では、機械学習結果を反映して撮影時における被検体の撮影位置合わせを容易に行うことができない場合があった。 However, with the conventional technology, there are cases where it is not possible to easily align the photographing position of the subject during photographing by reflecting the machine learning results.
本発明が解決しようとする課題は、撮影時における被検体の撮影位置合わせを容易に行えるようにすることである。 The problem to be solved by the present invention is to enable easy alignment of the imaging position of a subject during imaging.
実施形態の医用画像診断装置は、取得部と、処理部とを備える。取得部は、疾患名を含む情報と被検体の位置合わせ画像とを取得する。処理部は、疾患名を含む情報と被検体の位置合わせ画像とに基づいた出力情報を出力する学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の位置合わせ画像とを入力し、前記出力情報に基づいたスキャン範囲を出力する。 The medical image diagnostic apparatus of the embodiment includes an acquisition section and a processing section. The acquisition unit acquires information including the disease name and the alignment image of the subject. The processing unit applies the acquired information including the disease name and the aligned image of the subject to the trained model that outputs output information based on the information including the disease name and the aligned image of the subject. input, and outputs a scan range based on the output information.
以下、実施形態の医用画像診断装置、および医用画像診断方法を、図面を参照して説明する。医用画像診断装置は、例えば、X線CT(Computed Tomography:コンピュータ断層診断)装置や、MRI(Magnetic Resonance Imaging:磁気共鳴画像)装置、PET(Positron Emission Tomography:陽電子放出断層撮影)装置等の医用画像に対する処理を行って被検体を診断する装置である。以下の説明において、医用画像診断装置はX線CT装置であるものとして説明するが、これに限定されるものではない。 Hereinafter, a medical image diagnostic apparatus and a medical image diagnostic method according to embodiments will be described with reference to the drawings. The medical image diagnostic device is, for example, an X-ray CT (Computed Tomography) device, an MRI (Magnetic Resonance Imaging) device, a PET (Positron Emission Tomography) device, etc. This is a device that diagnoses a subject by performing processing on the subject. In the following description, the medical image diagnostic apparatus will be explained as an X-ray CT apparatus, but the present invention is not limited to this.
(第1の実施形態)
図1は、第1の実施形態に係るX線CT装置1の構成図である。X線CT装置1は、例えば、架台装置10と、寝台装置30と、コンソール装置40とを有する。図1では、説明の都合上、架台装置10をZ軸方向から見た図とX軸方向から見た図の双方を掲載しているが、実際には、架台装置10は一つである。本実施形態では、非チルト状態での回転フレーム17の回転軸または寝台装置30の天板33の長手方向をZ軸方向、Z軸方向に直交し、床面に対して水平である軸をX軸方向、Z軸方向に直交し、床面に対して垂直である方向をY軸方向とそれぞれ定義する。
(First embodiment)
FIG. 1 is a configuration diagram of an X-ray CT apparatus 1 according to the first embodiment. The X-ray CT apparatus 1 includes, for example, a
架台装置10は、例えば、X線管11と、ウェッジ12と、コリメータ13と、X線高電圧装置14と、X線検出器15と、データ収集システム(以下、DAS:Data Acquisition System)16と、回転フレーム17と、制御装置18とを有する。
The
X線管11は、X線高電圧装置14からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生させる。X線管11は、真空管を含む。例えば、X線管11は、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管である。
The
ウェッジ12は、X線管11から被検体Pに照射されるX線量を調節するためのフィルタである。ウェッジ12は、X線管11から被検体Pに照射されるX線量の分布が予め定められた分布になるように、自身を透過するX線を減衰させる。ウェッジ12は、ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter)とも呼ばれる。ウェッジ12は、例えば、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したものである。
The
コリメータ13は、ウェッジ12を透過したX線の照射範囲を絞り込むための機構である。コリメータ13は、例えば、複数の鉛板の組み合わせによってスリットを形成することで、X線の照射範囲を絞り込む。コリメータ13は、X線絞りと呼ばれる場合もある。
The
X線高電圧装置14は、例えば、高電圧発生装置と、X線制御装置とを有する。高電圧発生装置は、変圧器(トランス)および整流器などを含む電気回路を有し、X線管11に印加する高電圧を発生させる。X線制御装置は、X線管11に発生させるべきX線量に応じて高電圧発生装置の出力電圧を制御する。高電圧発生装置は、上述した変圧器によって昇圧を行うものであってもよいし、インバータによって昇圧を行うものであってもよい。X線高電圧装置14は、回転フレーム17に設けられてもよいし、架台装置10の固定フレーム(不図示)の側に設けられてもよい。
The X-ray
X線検出器15は、X線管11が発生させ、被検体Pを通過して入射したX線の強度を検出する。X線検出器15は、検出したX線の強度に応じた電気信号(光信号などでもよい)をDAS18に出力する。X線検出器15は、例えば、複数のX線検出素子列を有する。複数のX線検出素子列のそれぞれは、X線管11の焦点を中心とした円弧に沿ってチャネル方向に複数のX線検出素子が配列されたものである。複数のX線検出素子列は、スライス方向(列方向、row方向)に配列される。
The
X線検出器15は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接型の検出器である。シンチレータアレイは、複数のシンチレータを有する。それぞれのシンチレータは、シンチレータ結晶を有する。シンチレータ結晶は、入射するX線の強度に応じた光量の光を発する。グリッドは、シンチレータアレイのX線が入射する面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドは、コリメータ(一次元コリメータまたは二次元コリメータ)と呼ばれる場合もある。光センサアレイは、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。光センサアレイは、シンチレータにより発せられる光の光量に応じた電気信号を出力する。X線検出器15は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であってもかまわない。
The
DAS16は、例えば、増幅器と、積分器と、A/D変換器とを有する。増幅器は、X線検出器15の各X線検出素子により出力される電気信号に対して増幅処理を行う。積分器は、増幅処理が行われた電気信号をビュー期間(後述)に亘って積分する。A/D変換器は、積分結果を示す電気信号をデジタル信号に変換する。DAS16は、デジタル信号に基づく検出データをコンソール装置40に出力する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、及び収集されたビューを示すビュー番号により識別されたX線強度のデジタル値である。ビュー番号は、回転フレーム17の回転に応じて変化する番号であり、例えば、回転フレーム17の回転に応じてインクリメントされる番号である。従って、ビュー番号は、X線管11の回転角度を示す情報である。ビュー期間とは、あるビュー番号に対応する回転角度から、次のビュー番号に対応する回転角度に到達するまでの間に収まる期間である。DAS16は、ビューの切り替わりを、制御装置18から入力されるタイミング信号によって検知してもよいし、内部のタイマーによって検知してもよいし、図示しないセンサから取得される信号によって検知してもよい。フルスキャンを行う場合においてX線管11によりX線が連続曝射されている場合、DAS16は、全周囲分(360度分)の検出データ群を収集する。ハーフスキャンを行う場合においてX線管11によりX線が連続曝射されている場合、DAS16は、半周囲分(180度分)の検出データを収集する。
The
回転フレーム17は、X線管11、ウェッジ12、およびコリメータ13と、X線検出器15とを対向支持する円環状の部材である。回転フレーム17は、固定フレームによって、内部に導入された被検体Pを中心として回転自在に支持される。回転フレーム17は、更にDAS16を支持する。DAS16が出力する検出データは、回転フレーム17に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、架台装置10の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、受信機によってコンソール装置40に転送される。なお、回転フレーム17から非回転部分への検出データの送信方法として、前述の光通信を用いた方法に限らず、非接触型の任意の送信方法を採用してよい。回転フレーム17は、X線管11などを支持して回転させることができるものであれば、円環状の部材に限らず、アームのような部材であってもよい。
The rotating
X線CT装置1は、例えば、X線管11とX線検出器15の双方が回転フレーム17によって支持されて被検体Pの周囲を回転するRotate/Rotate-TypeのX線CT装置(第3世代CT)であるが、これに限らず、円環状に配列された複数のX線検出素子が固定フレームに固定され、X線管11が被検体Pの周囲を回転するStationary/Rotate-TypeのX線CT装置(第4世代CT)であってもよい。
The X-ray CT apparatus 1 is, for example, a Rotate/Rotate-Type X-ray CT apparatus (a third generation CT), but is not limited to this, Stationary/Rotate-Type in which a plurality of X-ray detection elements arranged in an annular shape are fixed to a fixed frame and the
制御装置18は、例えば、CPU(Central Processing Unit)などのプロセッサを有する処理回路と、モータやアクチュエータなどを含む駆動機構とを有する。制御装置18は、コンソール装置40または架台装置10に取り付けられた入力インターフェース43からの入力信号を受け付けて、架台装置10および寝台装置30の動作を制御する。
The
制御装置18は、例えば、回転フレーム17を回転させたり、架台装置10をチルトさせたり、寝台装置30の天板33を移動させたりする。架台装置10をチルトさせる場合、制御装置18は、入力インターフェース43に入力された傾斜角度(チルト角度)に基づいて、Z軸方向に平行な軸を中心に回転フレーム17を回転させる。制御装置18は、図示しないセンサの出力等によって回転フレーム17の回転角度を把握している。また、制御装置18は、回転フレーム17の回転角度を随時、処理回路50に提供する。制御装置18は、架台装置10に設けられてもよいし、コンソール装置40に設けられてもよい。
The
寝台装置30は、スキャン対象の被検体Pを載置して移動させ、架台装置10の回転フレーム17の内部に導入する装置である。寝台装置30は、例えば、基台31と、寝台駆動装置32と、天板33と、支持フレーム34とを有する。基台31は、支持フレーム34を鉛直方向(Y軸方向)に移動可能に支持する筐体を含む。寝台駆動装置32は、モータやアクチュエータを含む。寝台駆動装置32は、被検体Pが載置された天板33を、支持フレーム34に沿って、天板33の長手方向(Z軸方向)に移動させる。天板33は、被検体Pが載置される板状の部材である。
The
寝台駆動装置32は、天板33だけでなく、支持フレーム34を天板33の長手方向に移動させてもよい。また、上記とは逆に、架台装置10がZ軸方向に移動可能であり、架台装置10の移動によって回転フレーム17が被検体Pの周囲に来るように制御されてもよい。また、架台装置10と天板33の双方が移動可能な構成であってもよい。また、X線CT装置1は、被検体Pが立位または座位でスキャンされる方式の装置であってもよい。この場合、X線CT装置1は、寝台装置30に代えて被検体支持機構を有し、架台装置10は、回転フレーム17を、床面に垂直な軸方向を中心に回転させる。
The
コンソール装置40は、例えば、メモリ41と、ディスプレイ42と、入力インターフェース43と、メモリ41と、ネットワーク接続回路44と、処理回路50とを有する。実施形態では、コンソール装置40は架台装置10とは別体として説明するが、架台装置10にコンソール装置40の各構成要素の一部または全部が含まれてもよい。
The
メモリ41は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。メモリ41は、例えば、検出データや投影データ、再構成画像、CT画像等を記憶する。これらのデータは、メモリ41ではなく(或いはメモリ41に加えて)、X線CT装置1が通信可能な外部メモリに記憶されてもよい。外部メモリは、例えば、外部メモリを管理するクラウドサーバが読み書きの要求を受け付けることで、クラウドサーバによって制御されるものである。外部メモリは、例えば、PACS(Picture Archiving and Communication Systems)と称されるシステムにより実現される。PACSとは、各種画像診断装置によって撮影された画像等を体系的に記憶するシステムである。
The
図2は、メモリ41に格納されるデータの一例を示す図である。図2に示すように、メモリ41には、例えば、撮影条件41-1や、処理回路50により生成される検出データ41-2、投影データ41-3、再構成画像41-4、スキャン範囲41-7、学習済みモデル41-8などの情報が格納される。再構成画像41-4は、例えば、スキャノ画像41-5、本撮影画像41-6と分類することができる。
FIG. 2 is a diagram showing an example of data stored in the
ディスプレイ42は、各種の情報を表示する。例えば、ディスプレイ42は、処理回路によって生成された医用画像(CT画像)や、操作者による各種操作を受け付けるGUI(Graphical User Interface)画像等を表示する。ディスプレイ42は、例えば、液晶ディスプレイやCRT(Cathode Ray Tube)、有機EL(Electroluminescence)ディスプレイ等である。ディスプレイ42は、架台装置10に設けられてもよい。ディスプレイ42は、デスクトップ型でもよいし、コンソール装置40の本体部と無線通信可能な表示装置(例えばタブレット端末)であってもよい。
The
入力インターフェース43は、操作者による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路50に出力する。例えば、入力インターフェース43は、検出データまたは投影データ(後述)を収集する際の収集条件、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件などの入力操作を受け付ける。例えば、入力インターフェース43は、マウスやキーボード、タッチパネル、トラックボール、スイッチ、ボタン、ジョイスティック、カメラ、赤外線センサ、マイク等により実現される。入力インターフェース43は、架台装置10に設けられてもよい。また、入力インターフェース43は、コンソール装置40の本体部と無線通信可能な表示装置(例えばタブレット端末)により実現されてもよい。
The
ネットワーク接続回路44は、例えば、プリント回路基板を有するネットワークカード、或いは無線通信モジュールなどを含む。ネットワーク接続回路44は、接続する対象のネットワークの形態に応じた情報通信用プロトコルを実装する。ネットワークは、例えば、LAN(Local Area Network)やWAN(Wide Area Network)、インターネット、セルラー網、専用回線等を含む。
The
処理回路50は、X線CT装置1の全体の動作を制御する。処理回路50は、例えば、システム制御機能51、前処理機能52、再構成処理機能53、画像処理機能54、スキャン制御機能55、表示制御機能56、学習機能57、転送機能58などを実行する。処理回路50は、例えば、ハードウェアプロセッサがメモリ41に記憶されたプログラムを実行することにより、これらの機能を実現するものである。
The
ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))などの回路(circuitry)を意味する。メモリ41にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。
A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (for example, a Simple Programmable Logic Device (SPLD), or Refers to a circuit such as a complex programmable logic device (CPLD) or a field programmable gate array (FPGA). Instead of storing the program in the
コンソール装置40または処理回路50が有する各構成要素は、分散化されて複数のハードウェアにより実現されてもよい。処理回路50は、コンソール装置40が有する構成ではなく、コンソール装置40と通信可能な処理装置によって実現されてもよい。処理装置は、例えば、一つのX線CT装置と接続されたワークステーション、あるいは複数のX線CT装置に接続され、以下に説明する処理回路50と同等の処理を一括して実行する装置(例えばクラウドサーバ)である。
Each component included in the
システム制御機能51は、入力インターフェース43が受け付けた入力操作に基づいて、処理回路50の各種機能を制御する。
The
前処理機能52は、DAS16により出力された検出データ41-2に対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を行って投影データ41-3を生成し、生成した投影データ41-3をメモリ41に記憶させる。
The
再構成処理機能53は、前処理機能52によって生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等による再構成処理を行って再構成画像41-4を生成し、生成した再構成画像41-4をメモリ41に記憶させる。
The
画像処理機能54は、入力インターフェース43が受け付けた入力操作に基づいて、再構成画像41-4を公知の方法により、三次元画像や任意断面の断面像データに変換する。三次元画像への変換は、前処理機能52によって行われてもよい。
The
スキャン制御機能55は、X線高電圧装置14、DAS16、制御装置18、および寝台駆動装置32に指示することで、架台装置10における検出データの収集処理を制御する。スキャン制御機能55は、スキャノ画像41-5または本撮影画像41-6を収集する撮影、および診断に用いる画像を撮影する際の各部の動作をそれぞれ制御する。
The
表示制御機能56は、ディスプレイ42の表示態様を制御する。
The
学習機能57は、スキャン範囲41-7を学習する。学習機能57の詳細な処理については後述する。学習機能57は、「学習部」の一例である。
The
転送機能58は、撮影された再構成画像41-4の一部または全部をPACSに転送する。転送機能58は、「転送部」の一例である。
The
上記構成により、X線CT装置1は、ヘリカルスキャン、コンベンショナルスキャン、ステップアンドシュートなどの態様で被検体Pのスキャンを行う。ヘリカルスキャンとは、天板33を移動させながら回転フレーム17を回転させて被検体Pをらせん状にスキャンする態様である。コンベンショナルスキャンとは、天板33を静止させた状態で回転フレーム17を回転させて被検体Pを円軌道でスキャンする態様である。コンベンショナルスキャンを実行する。ステップアンドシュートとは、天板33の位置を一定間隔で移動させてコンベンショナルスキャンを複数のスキャンエリアで行う態様である。
With the above configuration, the X-ray CT apparatus 1 scans the subject P in a manner such as a helical scan, a conventional scan, or a step-and-shoot. The helical scan is a mode in which the subject P is scanned in a spiral manner by rotating the
図3は、スキャン制御機能55の構成図である。スキャン制御機能55は、例えば、スキャノ画像取得機能55-1と、スキャン範囲自動設定機能55-2と、スキャン範囲手動設定機能55-3と、スキャン実行機能55-4とを備える。
FIG. 3 is a configuration diagram of the
スキャノ画像取得機能55-1は、スキャン範囲を決定するための被検体Pのスキャノ画像41-5を取得する。なお、スキャノ画像は、位置合わせ画像の一例である。位置合わせ画像の他の例としては、スカウト画像などが挙げられる。 The scanogram acquisition function 55-1 acquires a scanogram 41-5 of the subject P for determining the scan range. Note that the scano image is an example of an alignment image. Other examples of alignment images include scout images and the like.
スキャノ画像の取得方法について説明する。スキャノ画像取得機能55-1は、制御装置18に、X線管11の位置を所定の回転角度に固定し、寝台装置30の天板33をZ軸方向に移動させながらX線管11よりX線を被検体Pに照射するよう制御させる。スキャノ画像取得機能55-1は、このようにして取得された検出データ41-2から被検体Pの2次元のスキャノ画像41-5を取得する。
The method for acquiring a scano image will be explained. The scano image acquisition function 55-1 causes the
なお、スキャノ画像41-5の取得方法は、上述の方式に限らず、例えば、ヘリカルスキャンあるいはノンヘリカルスキャンによって被検体Pに対する全周囲分の投影データ41-3を収集する方式で取得してもよい。ここで、スキャノ画像取得機能55-1は、被検体の胸部全体、腹部全体、上半身全体、全身などの広範囲に対して本撮影よりも低線量でスキャンを実行する。ノンヘリカルスキャンとは、例えば、ステップアンドシュート方式のスキャンである。このように、スキャノ画像取得機能55-1が被検体Pに対する全周囲分の検出データ41-2を収集することで、再構成処理機能53が3次元の再構成画像41-4(ボリュームデータ)を再構成し、再構成したボリュームデータに基づいて、任意の方向に応じた2次元のスキャノ画像41-5を生成してもよい。また、スキャノ画像41-5は、前述のボリュームデータを用いることで、3次元のスキャノ画像41-5として扱うことも可能である。
Note that the acquisition method of the scano image 41-5 is not limited to the above-mentioned method, but may also be acquired by, for example, a method of collecting projection data 41-3 for the entire circumference of the subject P by helical scanning or non-helical scanning. good. Here, the scan image acquisition function 55-1 scans a wide range of the subject's entire chest, abdomen, upper body, and whole body at a lower dose than the actual imaging. The non-helical scan is, for example, a step-and-shoot scan. In this way, the scan image acquisition function 55-1 collects the detection data 41-2 for the entire circumference of the subject P, and the
スキャノ画像取得機能55-1は、例えば上記例示した方法のいずれかによって取得したスキャノ画像を、スキャン範囲自動設定機能55-2に出力する。スキャノ画像取得機能55-1は、「取得部」の一例である。なお「取得部」は、上記の例のように「自ら生成して取得する」のに限らず、「他の機能部から取得する」ものであってもよい。 The scano image acquisition function 55-1 outputs a scano image acquired by, for example, one of the methods exemplified above to the scan range automatic setting function 55-2. The scano image acquisition function 55-1 is an example of an "acquisition unit". Note that the "acquisition unit" is not limited to "generating and acquiring by itself" as in the above example, but may also be one that "acquires from another functional unit".
スキャン範囲自動設定機能55-2は、スキャノ画像取得機能55-1により出力されたスキャノ画像と、撮影条件とを学習済みモデル41-8に入力し、その結果として得られる出力情報に応じて、スキャン範囲41-7を設定し、メモリ41に記憶させる。
The scan range automatic setting function 55-2 inputs the scano image output by the scano image acquisition function 55-1 and the shooting conditions to the learned model 41-8, and according to the output information obtained as a result, A scan range 41-7 is set and stored in the
学習済みモデル41-8は、後述するように、例えば学習機能57によって学習されたものである。学習済みモデル41-8は、例えば、被検体の撮影条件(例えば、年齢、性別、体型、疾患名、スキャン対象部位、検査条件、寝台位置条件のうち一部または全部)を入力すると、スキャン範囲を出力するように学習されたものである。スキャン対象部位には、例えば、頭部、上半身、肺、肝臓等がある。検査条件には、例えば、初回撮影、経過観察撮影等がある。なお、本実施形態では、撮影条件は入力パラメータであるものとしているが、撮影条件ごとの学習済みモデル41-8が学習され、スキャン範囲自動設定機能55-2は、被検体Pの撮影条件に合致する学習済みモデル41-8を選択して、上記の処理に用いてもよい。更に、撮影条件のうち第1部分ごとの学習済みモデル41-8が学習されると共に、撮影条件のうち第2部分は入力パラメータとして用いられ、スキャン範囲自動設定機能55-2は、被検体Pの撮影条件のうち第1部分に合致する学習済みモデル41-8を選択して、上記の処理に用いてもよい。
The trained model 41-8 is one trained by, for example, the
図4は、スキャン範囲自動設定機能55-2による処理の内容について説明するための図である。スキャン範囲自動設定機能55-2は、パラメータとして撮影条件41-1と、スキャノ画像41-5とを学習済みモデル41-8に入力することで、被検体Pのスキャン範囲41-7を出力する。このスキャン範囲41-7に基づいて後続の処理を行うことにより、スキャン範囲を最初から手動で設定する場合に比して、被検体Pのスキャノ画像撮影から本撮影までに要するスキャン計画の時間を短縮することができる。 FIG. 4 is a diagram for explaining the content of processing by the scan range automatic setting function 55-2. The scan range automatic setting function 55-2 outputs the scan range 41-7 of the subject P by inputting the imaging condition 41-1 and the scano image 41-5 as parameters to the learned model 41-8. . By performing subsequent processing based on this scan range 41-7, the scan planning time required from capturing the scanogram of the subject P to the actual capture is shorter than when the scan range is manually set from the beginning. Can be shortened.
スキャン範囲自動設定機能55-2は、このように自動で設定されたスキャン範囲41-7をメモリ41に記憶させる。スキャン範囲自動設定機能55-2は、「処理部」の一例である。
The scan range automatic setting function 55-2 stores the scan range 41-7 automatically set in this way in the
なお、スキャン範囲自動設定機能55-2は、好適な学習済みモデル41-8が存在しない場合には、スキャン範囲41-7の設定処理を省略して、スキャノ画像41-5をスキャン範囲手動設定機能55-3に出力してもよい。 Note that if a suitable trained model 41-8 does not exist, the scan range automatic setting function 55-2 skips the setting process of the scan range 41-7 and manually sets the scan range of the scan image 41-5. It may also be output to function 55-3.
スキャン範囲手動設定機能55-3は、操作者によるスキャン範囲の微調整、やり直し、新規設定などを受け付ける。スキャン範囲手動設定機能55-3は、例えば、スキャン範囲自動設定機能55-2により出力されたスキャン範囲41-7に対して、操作者が入力インターフェース43を介して入力した微調整の内容を反映させ、メモリ41のスキャン範囲41-7を更新する。
The scan range manual setting function 55-3 accepts fine adjustment, redo, new settings, etc. of the scan range by the operator. For example, the scan range manual setting function 55-3 reflects the details of fine adjustments input by the operator via the
また、スキャン範囲手動設定機能55-3は、スキャン範囲自動設定機能55-2により出力されたスキャン範囲41-7を採用しないことを示す操作を操作者が行った場合に、スキャン範囲設定のやり直し(または新規作成)を行う。この場合、スキャン範囲手動設定機能55-3は、スキャノ画像取得機能55-1により出力されたスキャノ画像41-5に対して、操作者が入力インターフェース43を介して入力した操作(例えば、ディスプレイ42上で、スキャノ画像41-5の上にスキャン範囲41-7を示す枠線を表示し、その枠線の位置を移動させたり、枠線の大きさを拡大したり縮小したりする入力操作)に応じてスキャン範囲41-7を設定する。スキャン範囲手動設定機能55-3は、設定したスキャン範囲41-7で、メモリ41に記憶されたスキャン範囲41-7を上書きする。スキャン範囲自動設定機能55-2がスキャン範囲41-7の設定処理を省略した場合も同様に、スキャン範囲手動設定機能55-3は、スキャノ画像41-5の上にスキャン範囲41-7を示す枠線を表示し、その枠線の位置を移動させたり、枠線の大きさを拡大したり縮小したり、スキャノ画像41-5の端部から任意の割合を削除して小さくしたりする入力操作に応じてスキャン範囲41-7を設定する。スキャン範囲手動設定機能55-3は、微調整、やり直し等により設定されたスキャン範囲41-7をメモリ41に記憶させる。スキャン範囲手動設定機能55-3は、「画像加工部」の一例である。
In addition, the scan range manual setting function 55-3 is configured to redo the scan range setting when the operator performs an operation indicating that the scan range 41-7 outputted by the scan range automatic setting function 55-2 is not adopted. (or create a new one). In this case, the scan range manual setting function 55-3 performs an operation input by the operator via the input interface 43 (for example, on the display 42 (Input operation for displaying a frame line indicating the scan range 41-7 above the scano image 41-5, moving the position of the frame line, and enlarging or reducing the size of the frame line) The scan range 41-7 is set accordingly. The scan range manual setting function 55-3 overwrites the scan range 41-7 stored in the
なお、スキャン範囲自動設定機能55-2およびスキャン範囲手動設定機能55-3は、CT画像を再構成する際の再構成範囲を設定するものであってもよい。この場合、スキャン範囲自動設定機能55-2は、例えば、学習済みモデル41-8によって出力されたスキャン範囲41-7を再構成範囲に変換する所定の演算を行い、その演算結果に基づいて、制御装置18にスキャンを実行させる。このとき、学習済みモデル41-8によって出力されるスキャン範囲41-7は、再構成範囲よりも広範囲となる可能性がある。また、スキャン範囲自動設定機能55-2およびスキャン範囲手動設定機能55-3が再構成範囲を設定する場合、且つ、学習済みモデル41-8に再構成範囲を出力する学習済みモデルがある場合、その再構成範囲を出力する学習済みモデルが用いられてもよい。この場合、スキャン範囲手動設定機能55-3は、再構成範囲を上下左右に拡張した範囲をスキャン範囲41-7として設定する。
Note that the scan range automatic setting function 55-2 and the scan range manual setting function 55-3 may set a reconstruction range when reconstructing a CT image. In this case, the scan range automatic setting function 55-2 performs a predetermined calculation to convert the scan range 41-7 output by the learned model 41-8 into a reconstruction range, and based on the calculation result,
スキャン実行機能55-4は、メモリ41に格納されたスキャン範囲41-7によって規定される範囲で本撮影を行い、本撮影画像41-6(スキャン画像)を取得するように、制御装置18を制御する。
The scan execution function 55-4 causes the
スキャン範囲41-7には、スキャン範囲自動設定機能55-2による自動設定結果であるスキャン範囲が採用されたのか、スキャン範囲手動設定機能55-3による手動設定が行われたのか否かを識別するフラグ等が設定されてもよい。 For the scan range 41-7, it is determined whether a scan range that is an automatic setting result by the scan range automatic setting function 55-2 has been adopted, or whether manual setting has been performed by the scan range manual setting function 55-3. A flag or the like may be set.
学習機能57は、複数の被検体に関するスキャノ画像と撮影条件とスキャン範囲とのセットをメモリ41または外部装置から取得する。学習機能57は、取得したスキャノ画像と、スキャン対象部位に関する情報を含む撮影条件とを学習データとし、同じ被検体に対して設定されたスキャノ画像を教師データとして機械学習を行うことで、学習済みモデル41-8を生成する。学習機能57は、「モデル生成部」の一例である。
The
また、学習機能57は、外部装置により実現されてもよい。その場合、転送機能58は、少なくとも、転送対象であるスキャノ画像41-5とそのスキャノ画像41-5に対応付いたスキャン範囲41-7とを転送し、学習に用いられるようにしてもよい。また、転送機能58は、転送対象であるスキャノ画像41-5に基づいて生成された再構成画像41-4の再構成範囲をさらに転送して、学習に用いられるようにしてもよい。
Further, the
図5は、学習機能57の処理について説明するための図である。学習機能57は、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデルに対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、機械学習モデルにおけるパラメータを調整する。機械学習モデルには、撮影条件とスキャノ画像が入力される。
FIG. 5 is a diagram for explaining the processing of the
機械学習モデルに入力される撮影条件には、例えば、前述した撮影条件が設定される。 For example, the above-mentioned imaging conditions are set as the imaging conditions input to the machine learning model.
機械学習モデルに入力されるスキャノ画像には、例えば、検査中に設定された情報(例えば、体軸方向再構成範囲、画像再構成時のROI(region of interest)の設定情報)等が含まれてよい。 The scano image input to the machine learning model includes, for example, information set during the examination (e.g. body axis direction reconstruction range, ROI (region of interest) setting information at the time of image reconstruction), etc. It's fine.
学習機能57は、例えば、バックプロパゲーション(逆誤差伝搬法)によって機械学習モデルのパラメータを調整する。機械学習モデルは、例えば、CNN(Convolution Neural Network)を利用したDNN(Deep Neural Network)である。なお、機械学習モデルは、より新しい学習データがアウトプットとして反映されやすくなるように、学習データ毎に重み付け設定などを行ってもよい。
The
学習機能57は、予め定められたセット数の学習データと、対応する教師データについて学習を行うと、処理を終了する。その時点の機械学習モデルが学習済みモデル41-8として記憶される。
The
スキャノ画像は、アーチファクトが検出されて再撮影を要する場合等、同一または類似の方向から複数回撮影されることがある。したがって、学習機能57は、転送機能58により転送されたスキャノ画像(すなわち、成功事例)のみを学習対象として、スキャン制御機能55によるスキャン範囲設定の処理結果を学習済みモデルに反映させるよう学習済みモデルを更新することで、より好適な学習済みモデルを生成することができる。その場合、学習機能57は、転送機能58により転送された成功事例のスキャノ画像のうち、再構成画像41-4として取得された範囲を抽出して学習対象とすることで、より高精度な学習済みモデルを生成してもよい。
Scano images may be photographed multiple times from the same or similar directions, such as when an artifact is detected and re-imaging is required. Therefore, the
また、スキャン計画に用いられるスキャノ画像は、2以上の異なる角度で取得された複数の画像が用いられることがあるが、学習機能57は、そのうち一部の画像から学習済みモデルを生成してもよいし、すべての画像から学習済みモデルを生成してもよい。
In addition, the scano images used for scan planning may include multiple images acquired at two or more different angles, but the
学習機能57の用いる学習済みモデル41-8、或いは学習機能57の用いる学習データおよび教師データは、他のX線CT装置1により生成されたものであってもよい。
The trained model 41-8 used by the
図6および図7は、X線CT装置1の利用環境の一例について説明する図である。他のX線CT装置1または学習装置により生成された学習済みモデル、或いは学習機能57の用いる学習データおよび教師データは、例えば、図6に示すようにX線CT装置1の利用施設H1に対して、X線CT装置1のメーカのサービス担当者MP等により提供される。また、他のX線CT装置1により生成された学習済みモデル、或いは学習機能57の用いる学習データおよび教師データは、例えば、図7に示すように複数のX線CT装置1の利用施設H1~HN(Nは任意の自然数)により外部ネットワークNWを介してクラウドサーバC等で共有されてもよい。クラウドサーバCは、専ら学習機能57と同様の学習を行うものであってよい。
6 and 7 are diagrams illustrating an example of the environment in which the X-ray CT apparatus 1 is used. The trained model generated by another X-ray CT apparatus 1 or learning device, or the learning data and teacher data used by the
図8は、X線CT装置1による撮影処理の流れの一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the flow of imaging processing by the X-ray CT apparatus 1.
まず、コンソール装置40は、被検体Pを特定する情報や撮影条件の入力を受け付け(ステップS100)、当該撮影のセッティング(例えば、寝台装置30に天板33を撮影開始位置に移動させる操作)を受け付ける(ステップS102)。次に、制御装置18は、スキャノ画像41-5を撮影するよう架台装置10を制御する(ステップS104)。
First, the
次に、学習済みモデル41-8に入力パラメータである撮影条件とスキャノ画像を入力し(ステップS106)、ディスプレイ42に学習済みモデルの出力であるスキャン範囲41-7を表示する(ステップS108)。なお、ステップS106において適用した学習済みモデル41-8が複数存在する場合、ステップS108でスキャン範囲41-7が複数パターン表示されてもよいし、ステップS106において最も好適な学習済みモデル41-8が選択されてもよい。 Next, the imaging conditions and scano image, which are input parameters, are input to the learned model 41-8 (step S106), and the scan range 41-7, which is the output of the learned model, is displayed on the display 42 (step S108). Note that if there are multiple trained models 41-8 applied in step S106, the scan range 41-7 may be displayed in multiple patterns in step S108, or the most suitable trained model 41-8 may be displayed in step S106. May be selected.
次に、入力インターフェース43は、ステップS108で表示したスキャン範囲41-7を採用するか、スキャン範囲41-7を採用せず操作者がマニュアル操作でスキャン範囲設定をやり直すかについて、X線CT装置1の操作者による判断結果の入力を受け付ける(ステップS110)。スキャン範囲手動設定機能55-3は、操作者がマニュアル操作でスキャン範囲設定を行う場合、入力インターフェース43を介して行われるスキャン範囲設定を受け付ける(ステップS112)。ステップS110で表示したスキャン範囲を採用する場合、後述するステップS114に処理を進める。
Next, the
スキャン範囲手動設定機能55-3は、操作者のマニュアル操作による最終的な微調整を受け付ける(ステップS114)。次に、スキャン実行機能55-4は、本撮影を行う(ステップS116)。 The scan range manual setting function 55-3 accepts final fine adjustments made manually by the operator (step S114). Next, the scan execution function 55-4 performs actual imaging (step S116).
次に、転送機能58は、撮影結果である本撮影画像41-6をPACS等に転送する(ステップS118)。次に、学習機能57は、該スキャノ画像および撮影条件(例えば、再構成範囲等)に基づいて、学習済みモデル41-8を生成する。または、学習機能57は、該スキャノ画像および撮影条件を学習済みモデルに反映する(ステップS120)。ステップS120の処理詳細は後述する。以上、本フローチャートの説明を終了する。
Next, the
図9は、学習機能57による学習処理の流れの一例を示すフローチャートである。図9に示す処理の流れは、図8のステップS120の処理詳細に該当する。図9のフローチャートは、X線CT装置1が1名の被検体の撮影を終了する度に行われてもよいし、上述の操作者によるマニュアル操作でスキャン範囲のやり直しが行われた撮影の度に(ステップS112が実行される度に)行われてもよい。
FIG. 9 is a flowchart showing an example of the flow of learning processing by the
まず、学習機能57は、1セットの学習データであるスキャノ画像と撮影条件とを取得する(ステップS200)。次に、学習機能57は、ステップS200で取得した1セットの学習データを機械学習モデルに入力し(ステップS202)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS204)。
First, the
次に、学習機能57は、所定セット数の学習データについてステップS202およびS204の処理を行ったか否かを判定する(ステップS206)。所定セット数の学習データについてステップS202およびS204の処理を行っていない場合、学習機能57は、ステップS200に処理を戻す。所定セット数の学習データについてステップS202およびS204の処理を行った場合、学習機能57は、その時点のパラメータを用いて学習済みモデル41-8を確定し(ステップS208)、本フローチャートの処理を終了する。なお、ステップS206において、学習データが所定セット数存在しないため処理が継続できない場合等は、後続の処理を軽減してもよい。
Next, the
以上、説明した第1の実施形態のX線CT装置1によれば、スキャン対象部位に関する情報と被検体Pのスキャノ画像を取得するスキャノ画像取得機能55-1と、スキャン対象部位に関する情報と被検体のスキャノ画像とに基づいてスキャン時の被検体のスキャン範囲を出力する学習済みモデル41-8に対して、スキャノ画像取得機能55-1により取得されたスキャン対象部位に関する情報と被検体Pのスキャノ画像とを入力することで、取得されたスキャン対象部位に関する情報と被検体Pのスキャノ画像に係る被検体Pに関するスキャン範囲41-7を出力するスキャン範囲自動設定機能55-2と、を備えることにより、撮影時における被検体の撮影位置合わせを容易に行えるようにすることができる。 As described above, according to the X-ray CT apparatus 1 of the first embodiment described above, the scan image acquisition function 55-1 acquires information regarding the scan target region and a scanogram of the subject P, and the scan image acquisition function 55-1 acquires information regarding the scan target region and the scan image of the subject P. The trained model 41-8 outputs the scanning range of the subject during scanning based on the scanogram of the subject, and the information about the scan target area acquired by the scanogram acquisition function 55-1 and the scan range of the subject P. a scan range automatic setting function 55-2 that outputs information regarding the acquired scan target region and a scan range 41-7 related to the subject P related to the scano image of the subject P by inputting the scano image. This makes it possible to easily align the imaging position of the subject during imaging.
(第2の実施形態)
以下、第2の実施形態のX線CT装置1Aについて説明する。なお、以下の説明において、第1の実施形態と同一の構成及び機能については第1の実施形態と同一の符号を付し、詳細な説明を省略する。また、第1の実施形態と同じ名称であるが構成または機能が異なるものについては、符号の末尾に「A」を付すものとする。
(Second embodiment)
The X-ray CT apparatus 1A of the second embodiment will be described below. In the following description, the same configurations and functions as those in the first embodiment are denoted by the same reference numerals as in the first embodiment, and detailed description thereof will be omitted. Also, for components that have the same name as the first embodiment but have different configurations or functions, an "A" will be added to the end of the reference numeral.
図10は、第2の実施形態に係る架台装置10Aを説明するための図である。架台装置10Aは、第1の実施形態の架台装置10と比較して、カメラ19をさらに備える。カメラ19は、被検体Pを含む空間を撮影し、光学画像41-9を取得する。カメラ19は、架台装置10以外の箇所に設置されてもよく、例えば、寝台装置30の全体が撮影できる位置(例えば、X線CT装置1Aの設置される部屋の天井や、寝台装置30の近傍)に設置されてもよい。
FIG. 10 is a diagram for explaining a
図11は、第2の実施形態に係るメモリ41Aに格納されるデータの一例を示す図である。メモリ41Aは、第1の実施形態のメモリ41と比較して、光学画像41-9をさらに記憶する。
FIG. 11 is a diagram showing an example of data stored in the
図12は、第2の実施形態に係るスキャン制御機能55Aの構成図である。スキャン制御機能55Aは、第1の実施形態のスキャン制御機能55と比較して、光学画像取得機能55-5をさらに備える。
FIG. 12 is a configuration diagram of a
光学画像取得機能55-5は、カメラ19が撮像した光学画像41-9と、その光学画像に写り込む被検体Pに対応付けられた撮影条件41-1とを取得し、スキャン範囲自動設定機能55-2Aに出力する。光学画像取得機能55-5は、「取得部」の他の一例である。
The optical image acquisition function 55-5 acquires the optical image 41-9 captured by the
スキャン範囲自動設定機能55-2Aは、光学画像取得機能55-5により出力された光学画像と、撮影条件とを学習済みモデル41-8Aに入力し、その結果として得られた出力情報に応じて、スキャン範囲41-7を設定し、メモリ41に記憶させる。
The scan range automatic setting function 55-2A inputs the optical image outputted by the optical image acquisition function 55-5 and the photographing conditions to the learned model 41-8A, and performs the scan range according to the output information obtained as a result. , the scan range 41-7 is set and stored in the
スキャン範囲自動設定機能55-2Aは、操作者によるスキャン範囲の調整、やり直し、新規設定などを受け付ける。スキャン範囲自動設定機能55-2Aはスキャン範囲が採用されることを示す操作を受け付けた場合、操作者が入力インターフェース43を介して入力した微調整の内容を反映した後、本撮影が行われる。この微調整は、スキャン範囲手動設定機能55-3によって行われる。スキャン範囲自動設定機能55-2Aは、やり直し、新規設定などを示す処理を受け付けた場合、すなわち光学画像に基づくスキャン範囲が採用されないことを示す処理を受け付けた場合、光学画像の再取得が行われてもよいし、スキャノ画像の取得のための処理が行われてもよい。スキャン範囲自動設定機能55-2Aは、「処理部」の他の一例である。
The scan range automatic setting function 55-2A accepts adjustments, redos, new settings, etc. of the scan range by the operator. When the scan range automatic setting function 55-2A receives an operation indicating that the scan range is to be adopted, the actual photographing is performed after reflecting the details of the fine adjustment input by the operator via the
図13は、スキャン範囲自動設定機能55-2Aによる処理の内容について説明するための図である。スキャン範囲自動設定機能55-2Aは、パラメータとして撮影条件41-1に含まれる検査条件の情報と、光学画像41-9とを学習済みモデル41-8に入力することで、被検体Pのスキャン範囲41-7を出力する。このスキャン範囲41-7に基づいて後続の処理を行うことにより、被検体Pのスキャノ画像撮影から本撮影までに要するスキャン計画の時間を短縮することができる。 FIG. 13 is a diagram for explaining the content of processing by the scan range automatic setting function 55-2A. The scan range automatic setting function 55-2A scans the subject P by inputting the inspection condition information included in the imaging condition 41-1 as parameters and the optical image 41-9 into the learned model 41-8. Output the range 41-7. By performing subsequent processing based on this scan range 41-7, it is possible to shorten the scan planning time required from the scanogram imaging of the subject P to the actual imaging.
学習機能57Aは、スキャノ画像と撮影条件を学習データとする学習済みモデルに加えて、光学画像と撮影条件を学習データとする学習済みモデルを生成する。学習機能57Aは、複数の被検体に関する光学画像と撮影条件とスキャン範囲とのセットをメモリ41または外部装置から取得する。学習機能57Aは、取得した光学画像と、スキャン対象部位に関する情報を含む撮影条件とを学習データとし、同じ被検体に対して設定されたスキャン範囲を教師データとして機械学習を行うことで、学習済みモデル41-8を生成する。
The learning function 57A generates a trained model that uses the optical image and the imaging conditions as learning data in addition to a trained model that uses the scano image and imaging conditions as learning data. The learning function 57A acquires a set of optical images, photographing conditions, and scan ranges for a plurality of subjects from the
図14は、学習機能57Aの処理について説明するための図である。学習機能57Aは、予め接続情報等が定義されると共に接続係数等のパラメータが暫定的に設定された機械学習モデルに対して、複数セットの学習データを入力し、その結果が、学習データに対応する教師データに近づくように、機械学習モデルにおけるパラメータを調整する。機械学習モデルには、撮影条件と光学画像が入力される。学習機能57Aは、予め定められたセット数の学習データと、対応する教師データについて学習を行うと、処理を終了する。その時点の機械学習モデルが学習済みモデル41-8Aとして記憶される。 FIG. 14 is a diagram for explaining the processing of the learning function 57A. The learning function 57A inputs multiple sets of learning data to a machine learning model in which connection information etc. are defined in advance and parameters such as connection coefficients are provisionally set, and the results correspond to the learning data. Adjust the parameters in the machine learning model so that it approaches the training data. Photography conditions and optical images are input to the machine learning model. The learning function 57A completes the process after learning the predetermined number of sets of learning data and the corresponding teacher data. The machine learning model at that point is stored as a trained model 41-8A.
なお、スキャン範囲自動設定機能55-2Aによる光学画像に基づくスキャン範囲の生成と、スキャノ画像に基づくスキャン範囲の生成は併用されてもよい。スキャン範囲自動設定機能55-2Aは、例えば、X軸方向のスキャン範囲をスキャノ画像の学習済みモデルの出力に基づいて設定し、Y軸方向のスキャン範囲をスキャノ画像の代替として光学画像の学習済みモデルの出力に基づいて設定する。これにより、X線CT装置1Aの操作者や被検体Pの被ばく量を減少させることができる。 Note that generation of a scan range based on an optical image by the scan range automatic setting function 55-2A and generation of a scan range based on a scano image may be used together. The scan range automatic setting function 55-2A, for example, sets the scan range in the X-axis direction based on the output of the trained model of the scano image, and sets the scan range in the Y-axis direction based on the output of the learned model of the scano image as a substitute for the scano image. Set based on model output. Thereby, the amount of radiation exposure of the operator of the X-ray CT apparatus 1A and the subject P can be reduced.
図15は、X線CT装置1Aによる撮影処理の流れの一例を示すフローチャートである。なお、図15のフローチャートのステップS300およびS302は、図7のフローチャートのステップS100およびS102と対応する。また、図15のフローチャートのステップS312~S328は、図7のフローチャートのステップS104~S120と対応する。 FIG. 15 is a flowchart showing an example of the flow of imaging processing by the X-ray CT apparatus 1A. Note that steps S300 and S302 in the flowchart in FIG. 15 correspond to steps S100 and S102 in the flowchart in FIG. Further, steps S312 to S328 in the flowchart in FIG. 15 correspond to steps S104 to S120 in the flowchart in FIG.
まず、コンソール装置40は、被検体Pを特定する情報や撮影条件の入力を受け付け(ステップS300)、当該撮影のセッティングを受け付ける(ステップS302)。次に、光学画像取得機能55-5は、カメラ19により撮影された光学画像を取得する(ステップS304)。次に、学習済みモデルに光学画像を適用し(ステップS306)、ディスプレイ42に学習済みモデルに基づくスキャン範囲を表示する(ステップS308)。なお、ステップS306において適用された学習済みモデルが複数存在する場合、ステップS308でスキャン範囲が複数パターン表示されてもよいし、ステップS36において最も好適な学習済みモデルが選択されてもよい。
First, the
次に、入力インターフェース43は、ステップS308で表示したスキャン範囲を採用するか、スキャノ画像を撮影してスキャン範囲設定を行うかについて、X線CT装置1Aの操作者による判断結果の入力を受け付ける(ステップS310)。表示したスキャン範囲を採用することを示す操作を受け付けた場合、後述するステップS322に処理を進める。制御装置18は、スキャノ画像を撮影することを示す操作を受け付けた場合、スキャノ画像を撮影するよう架台装置10を制御する(ステップS312)。
Next, the
次に、スキャン範囲自動設定機能55-2Aは、学習済みモデルに入力パラメータである撮影条件とスキャノ画像を入力し(ステップS314)、ディスプレイ42に学習済みモデルの出力であるスキャン範囲を表示する(ステップS316)。なお、ステップS314において適用した学習済みモデルが複数存在する場合、ステップS316でスキャン範囲が複数パターン表示されてもよいし、ステップS314において最も好適な学習済みモデルが選択されてもよい。 Next, the scan range automatic setting function 55-2A inputs the shooting conditions and scano image as input parameters to the learned model (step S314), and displays the scan range that is the output of the learned model on the display 42 (step S314). Step S316). Note that if there are multiple trained models applied in step S314, multiple patterns of scan ranges may be displayed in step S316, or the most suitable trained model may be selected in step S314.
次に、入力インターフェース43は、ステップS316で表示したスキャン範囲設定を採用するか、操作者がマニュアル操作でスキャン範囲設定をやり直すかについて、X線CT装置1Aの操作者による判断結果の入力を受け付ける(ステップS318)。スキャン範囲自動設定機能55-2Aは、操作者がマニュアル操作でスキャン範囲設定をやり直す場合、入力インターフェース43を介して行われるスキャン範囲設定を受け付ける(ステップS320)。ステップS316で表示したスキャン範囲を採用する場合、後述するステップS322に処理を進める。
Next, the
スキャン範囲自動設定機能55-2Aは、操作者のマニュアル操作による最終的な微調整を受け付ける(ステップS322)。次に、制御装置18は、本撮影を行う(ステップS324)。
The scan range automatic setting function 55-2A accepts final fine adjustments made manually by the operator (step S322). Next, the
次に、転送機能58は、撮影結果である本撮影画像はPACS等に転送する(ステップS326)。次に、学習機能57Aは、該スキャノ画像または該光学画像、および撮影条件を含む学習済みモデルを生成する。または、学習機能57Aは、該スキャノ画像または該光学画像、および撮影条件を学習済みモデルに反映する(ステップS328)。ステップS328の処理詳細は後述する。以上、本フローチャートの説明を終了する。
Next, the
図16は、学習機能57Aによる光学画像の学習処理の流れの一例を示すフローチャートである。図9に示すフローチャートと、図16に示すフローチャートとを合わせたものは、図15のステップS328の処理詳細に該当する。図16のフローチャートは、X線CT装置1が1名の被検体の撮影を終了する度に行われてもよいし、上述の操作者によるマニュアル操作でスキャン範囲のやり直しが行われた撮影の度に(ステップS320が実行される度に)行われてもよい。 FIG. 16 is a flowchart showing an example of the flow of optical image learning processing by the learning function 57A. A combination of the flowchart shown in FIG. 9 and the flowchart shown in FIG. 16 corresponds to the processing details of step S328 in FIG. 15. The flowchart in FIG. 16 may be performed each time the X-ray CT apparatus 1 finishes imaging one subject, or each time the scan range is redone by manual operation by the operator described above. (every time step S320 is executed).
まず、学習機能57Aは、1セットの学習データである光学画像と撮影条件とを取得する(ステップS400)。次に、学習機能57Aは、1セットの学習データを機械学習モデルに入力し(ステップS402)、1セットの学習データに対応する教師データから誤差を逆伝搬させる(ステップS404)。 First, the learning function 57A acquires an optical image and photographing conditions, which are one set of learning data (step S400). Next, the learning function 57A inputs one set of learning data to the machine learning model (step S402), and back-propagates errors from the teacher data corresponding to the one set of learning data (step S404).
次に、学習機能57Aは、所定セット数の学習データについてステップS402およびS404の処理を行ったか否かを判定する(ステップS406)。所定セット数の学習データについてステップS402およびS404の処理を行っていない場合、学習機能57Aは、ステップS400に処理を戻す。所定セット数の学習データについてステップS402およびS404の処理を行った場合、学習機能57Aは、その時点のパラメータを用いて学習済みモデル41-8を確定し(ステップS408)、本フローチャートの処理を終了する。なお、ステップS406において、学習データが所定セット数存在しないため処理が継続できない場合等は、後続の処理を軽減してもよい。 Next, the learning function 57A determines whether or not the processes of steps S402 and S404 have been performed on a predetermined number of sets of learning data (step S406). If steps S402 and S404 have not been performed on the predetermined number of sets of learning data, the learning function 57A returns the process to step S400. When the processes of steps S402 and S404 are performed on the predetermined number of sets of learning data, the learning function 57A determines the trained model 41-8 using the parameters at that time (step S408), and ends the process of this flowchart. do. Note that in step S406, if the process cannot be continued because a predetermined number of learning data does not exist, the subsequent process may be reduced.
以上説明した第2の実施形態によれば、第1の実施形態と同様の効果を奏する他、スキャン範囲自動設定機能55-2Aによって光学画像に基づくスキャン範囲が生成されることにより、第1の実施形態と比較してスキャノ画像の撮影回数を軽減できる可能性が高まり、X線CT装置1Aの操作者や被検体Pの被ばく量が軽減される可能性を高めることができる。 According to the second embodiment described above, in addition to producing the same effects as the first embodiment, the scan range automatic setting function 55-2A generates a scan range based on an optical image, so that the first embodiment Compared to the embodiment, it is possible to reduce the number of scan images to be taken, and it is possible to reduce the exposure amount of the operator of the X-ray CT apparatus 1A and the subject P.
上記説明した実施形態は、以下のように表現することができる。
プログラムを格納するストレージと、
プロセッサと、を備え、
前記プロセッサは、前記プログラムを実行することにより、
スキャン対象部位に関する情報と被検体の位置合わせ画像を取得し、
スキャン対象部位に関する情報と被検体の位置合わせ画像とに基づいて、スキャン時の前記被検体のスキャン範囲を出力する学習済みモデルに対して、取得した前記スキャン対象部位に関する情報と被検体の位置合わせ画像とを入力することで、前記取得したスキャン対象部位に関する情報と被検体の位置合わせ画像に係る被検体に関するスキャン範囲を出力する、
ように構成されている、医用画像診断装置。
The embodiment described above can be expressed as follows.
storage for storing programs;
comprising a processor;
By executing the program, the processor:
Obtain information about the area to be scanned and an alignment image of the subject,
Aligning the acquired information on the scan target area and the subject with respect to a trained model that outputs the scan range of the subject during scanning based on the information on the scan target site and the alignment image of the subject. outputting the acquired information regarding the scan target region and the scan range regarding the subject according to the alignment image of the subject by inputting the image;
A medical image diagnostic apparatus configured as follows.
以上説明した少なくともひとつの実施形態によれば、スキャン対象部位に関する情報を含む撮影条件情報(41-1)と、被検体のスキャン範囲を特定するための画像(41-4、41-9)を取得する取得部(55-1、55-5)と、撮影条件情報と、被検体のスキャン範囲を特定するための画像とに基づいて、学習済みモデル(41-8)に対して、撮影条件情報と、被検体のスキャン範囲を特定するための画像とを入力することで、該スキャン時の被検体のスキャン範囲を出力する処理部(55-2、55-2A)と、を持つことにより、撮影時における被検体の撮影位置合わせを容易に行うことができる。 According to at least one embodiment described above, the imaging condition information (41-1) including information regarding the scan target region and the images (41-4, 41-9) for specifying the scan range of the subject are Based on the acquisition unit (55-1, 55-5) to acquire, the imaging condition information, and the image for specifying the scan range of the subject, the imaging condition is set for the trained model (41-8). By having a processing unit (55-2, 55-2A) that outputs the scan range of the subject at the time of scanning by inputting information and an image for specifying the scan range of the subject. , it is possible to easily align the imaging position of the subject during imaging.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の軽減、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various reductions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.
1、1A…X線CT装置
10、10A…架台装置
11…X線管
12…ウェッジ
13…コリメータ
14…X線高電圧装置
15…X線検出器
16…データ収集システム
17…回転フレーム
18…制御装置
19…カメラ
30…寝台装置
31…基台
32…寝台駆動装置
33…天板
34…支持フレーム
40…コンソール装置
50…処理回路
51…システム制御機能
52…前処理機能
53…再構成処理機能
54…画像処理機能
55、55A…スキャン制御機能
55-1…スキャノ画像取得機能
55-2、55-2A…スキャン範囲自動設定機能
55-3…スキャン範囲手動設定機能
55-4…スキャン実行機能
55-5…光学画像取得機能
56…表示制御機能
57、57A…学習機能
58…転送機能
1, 1A...
Claims (7)
疾患名を含む情報と被検体の位置合わせ画像とに基づいた出力情報を出力する学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の位置合わせ画像とを入力し、前記出力情報に基づいたスキャン範囲を出力する処理部と、
取得された前記位置合わせ画像上に、前記出力情報に基づいたスキャン範囲を表示し、操作者の操作に応じて、前記スキャン範囲の設定を行う画像加工部と、
を備える医用画像診断装置。 an acquisition unit that acquires information including a disease name and an alignment image of the subject;
The acquired information including the disease name and the aligned image of the subject are input to a trained model that outputs output information based on the information including the disease name and the aligned image of the subject, and the a processing unit that outputs a scan range based on the output information;
an image processing unit that displays a scan range based on the output information on the acquired alignment image and sets the scan range according to an operation by an operator;
A medical image diagnostic apparatus comprising:
疾患名を含む情報と被検体の光学画像とに基づいた第1の出力情報を出力する第1の学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の光学画像とを入力し、前記第1の出力情報に基づいた第1のスキャン範囲を出力する処理部と、
を備え、
前記第1のスキャン範囲を採用することを示す操作者の操作を受け付けた場合、前記処理部は、前記第1のスキャン範囲を、前記被検体のスキャン範囲として設定し、
前記第1のスキャン範囲を採用しないことを示す前記操作者の操作を受け付けた場合、前記取得部は、さらに、前記被検体の位置合わせ画像を取得し、前記処理部は、疾患名を含む情報と被検体の位置合わせ画像とに基づいた第2の出力情報を出力する第2の学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の位置合わせ画像とを入力し、前記第2の出力情報に基づいた第2のスキャン範囲を出力する、
医用画像診断装置。 an acquisition unit that acquires information including a disease name and an optical image of the subject;
For a first trained model that outputs first output information based on information including a disease name and an optical image of the subject, the obtained information including the disease name and the optical image of the subject are a processing unit that inputs and outputs a first scan range based on the first output information;
Equipped with
When receiving an operation by an operator indicating that the first scan range is to be adopted, the processing unit sets the first scan range as a scan range of the subject;
When receiving an operation from the operator indicating that the first scan range is not adopted, the acquisition unit further acquires an aligned image of the subject, and the processing unit acquires information including a disease name. inputting information including the acquired disease name and the aligned image of the subject to a second trained model that outputs second output information based on the image and the aligned image of the subject; outputting a second scan range based on the second output information;
Medical imaging diagnostic equipment.
疾患名を含む撮影条件と被検体の位置合わせ画像とに基づいた出力情報を出力し、且つ、前記撮影条件のうち第1部分ごとに学習された複数の学習済みモデルの中から、取得された前記撮影条件の第1部分に合致する学習済みモデルを選択し、選択された前記学習済みモデルに対して、取得された前記撮影条件の第2部分と被検体の位置合わせ画像とを入力し、選択された前記学習済みモデルが出力した出力情報に基づいたスキャン範囲を出力する処理部と、
を備える医用画像診断装置。 an acquisition unit that acquires imaging conditions including a disease name and a positioning image of the subject;
output information based on imaging conditions including disease names and alignment images of the subject ; select a trained model that matches the first part of the imaging condition, and input the acquired second part of the imaging condition and the alignment image of the subject to the selected trained model; , a processing unit that outputs a scan range based on output information output by the selected learned model ;
A medical image diagnostic apparatus comprising:
請求項1または3に記載の医用画像診断装置。 the alignment image is a scano image or an optical image;
The medical image diagnostic apparatus according to claim 1 or 3 .
疾患名を含む情報と被検体の位置合わせ画像とを取得し、
疾患名を含む情報と被検体の位置合わせ画像とに基づいた出力情報を出力する学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の位置合わせ画像とを入力し、前記出力情報に基づいたスキャン範囲を出力し、
取得された前記位置合わせ画像上に、前記出力情報に基づいたスキャン範囲を表示し、操作者の操作に応じて、前記スキャン範囲の設定を行う、
医用画像診断方法。 The computer is
Obtain information including disease name and alignment image of the subject,
The acquired information including the disease name and the aligned image of the subject are input to a trained model that outputs output information based on the information including the disease name and the aligned image of the subject, and the Outputs the scan range based on the output information,
displaying a scan range based on the output information on the acquired alignment image, and setting the scan range according to an operation by an operator;
Medical imaging diagnostic methods.
疾患名を含む情報と被検体の光学画像とを取得し、
疾患名を含む情報と被検体の光学画像とに基づいた第1の出力情報を出力する第1の学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の光学画像とを入力し、前記第1の出力情報に基づいた第1のスキャン範囲を出力する、
医用画像診断方法であって、
前記第1のスキャン範囲を採用することを示す操作者の操作を受け付けた場合、前記第1のスキャン範囲を、前記被検体のスキャン範囲として設定し、
前記第1のスキャン範囲を採用しないことを示す前記操作者の操作を受け付けた場合、さらに、前記被検体の位置合わせ画像を取得し、疾患名を含む情報と被検体の位置合わせ画像とに基づいた第2の出力情報を出力する第2の学習済みモデルに対して、取得された前記疾患名を含む情報と被検体の位置合わせ画像とを入力し、前記第2の出力情報に基づいた第2のスキャン範囲を出力する、
医用画像診断方法。 The computer is
Obtain information including the disease name and an optical image of the subject,
For a first trained model that outputs first output information based on information including a disease name and an optical image of the subject, the obtained information including the disease name and the optical image of the subject are and outputting a first scan range based on the first output information.
A medical image diagnosis method ,
If an operation by an operator indicating that the first scan range is to be adopted is received, the first scan range is set as the scan range of the subject;
When the operator's operation indicating that the first scan range is not adopted is received, further, an alignment image of the subject is acquired, and based on information including the disease name and the alignment image of the subject. The acquired information including the disease name and the aligned image of the subject are input to the second trained model that outputs the second output information based on the second output information. Output the scan range of 2,
Medical imaging diagnostic methods .
疾患名を含む撮影条件と被検体の位置合わせ画像とを取得し、
疾患名を含む撮影条件と被検体の位置合わせ画像とに基づいた出力情報を出力し、且つ、前記撮影条件のうち第1部分ごとに学習された複数の学習済みモデルの中から、取得された前記撮影条件の第1部分に合致する学習済みモデルを選択し、選択された前記学習済みモデルに対して、取得された前記撮影条件の第2部分と被検体の位置合わせ画像とを入力し、選択された前記学習済みモデルが出力した出力情報に基づいたスキャン範囲を出力する、
医用画像診断方法。 The computer is
Obtain the imaging conditions including the disease name and the alignment image of the subject,
output information based on imaging conditions including disease names and alignment images of the subject ; select a trained model that matches the first part of the imaging condition, and input the acquired second part of the imaging condition and the alignment image of the subject to the selected trained model; , outputting a scan range based on output information output by the selected trained model ;
Medical imaging diagnostic methods.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023035405A JP7443591B2 (en) | 2019-01-15 | 2023-03-08 | Medical image diagnosis device and medical image diagnosis method |
JP2024023952A JP2024054373A (en) | 2019-01-15 | 2024-02-20 | Medical image diagnostic device and medical image diagnostic method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019004671A JP7244280B2 (en) | 2019-01-15 | 2019-01-15 | MEDICAL IMAGE DIAGNOSTIC APPARATUS AND MEDICAL IMAGE DIAGNOSTIC METHOD |
JP2023035405A JP7443591B2 (en) | 2019-01-15 | 2023-03-08 | Medical image diagnosis device and medical image diagnosis method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019004671A Division JP7244280B2 (en) | 2019-01-15 | 2019-01-15 | MEDICAL IMAGE DIAGNOSTIC APPARATUS AND MEDICAL IMAGE DIAGNOSTIC METHOD |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024023952A Division JP2024054373A (en) | 2019-01-15 | 2024-02-20 | Medical image diagnostic device and medical image diagnostic method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023065669A JP2023065669A (en) | 2023-05-12 |
JP7443591B2 true JP7443591B2 (en) | 2024-03-05 |
Family
ID=71666080
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019004671A Active JP7244280B2 (en) | 2019-01-15 | 2019-01-15 | MEDICAL IMAGE DIAGNOSTIC APPARATUS AND MEDICAL IMAGE DIAGNOSTIC METHOD |
JP2023035405A Active JP7443591B2 (en) | 2019-01-15 | 2023-03-08 | Medical image diagnosis device and medical image diagnosis method |
JP2024023952A Pending JP2024054373A (en) | 2019-01-15 | 2024-02-20 | Medical image diagnostic device and medical image diagnostic method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019004671A Active JP7244280B2 (en) | 2019-01-15 | 2019-01-15 | MEDICAL IMAGE DIAGNOSTIC APPARATUS AND MEDICAL IMAGE DIAGNOSTIC METHOD |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024023952A Pending JP2024054373A (en) | 2019-01-15 | 2024-02-20 | Medical image diagnostic device and medical image diagnostic method |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP7244280B2 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050008115A1 (en) | 2003-05-09 | 2005-01-13 | Shinsuke Tsukagoshi | X-ray computed tomography apparatus and picture quality simulation apparatus |
JP2008229161A (en) | 2007-03-22 | 2008-10-02 | Fujifilm Corp | Image component separating apparatus, method and program and normal image generating apparatus, method and program |
JP2015198824A (en) | 2014-04-09 | 2015-11-12 | 株式会社東芝 | Medical image diagnostic apparatus |
JP2015213749A (en) | 2014-04-21 | 2015-12-03 | 株式会社東芝 | X-ray computer tomography apparatus and photographing condition setting support apparatus |
US20160209995A1 (en) | 2015-01-19 | 2016-07-21 | Samsung Electronics Co., Ltd. | Image processing apparatus, medical imaging apparatus, and image processing method |
US20170213339A1 (en) | 2016-01-21 | 2017-07-27 | Impac Medical Systems, Inc. | Systems and methods for segmentation of intra-patient medical images |
JP2017527037A (en) | 2014-09-10 | 2017-09-14 | アマゾン テクノロジーズ インコーポレイテッド | Compute instance startup time |
JP2017202307A (en) | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical imaging diagnostic apparatus and medical information management apparatus |
JP2017217460A (en) | 2016-06-06 | 2017-12-14 | 東芝メディカルシステムズ株式会社 | Medical information processor, x-ray ct apparatus, and medical information processing program |
JP2017217154A (en) | 2016-06-06 | 2017-12-14 | 東芝メディカルシステムズ株式会社 | X-ray CT apparatus |
-
2019
- 2019-01-15 JP JP2019004671A patent/JP7244280B2/en active Active
-
2023
- 2023-03-08 JP JP2023035405A patent/JP7443591B2/en active Active
-
2024
- 2024-02-20 JP JP2024023952A patent/JP2024054373A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050008115A1 (en) | 2003-05-09 | 2005-01-13 | Shinsuke Tsukagoshi | X-ray computed tomography apparatus and picture quality simulation apparatus |
JP2008229161A (en) | 2007-03-22 | 2008-10-02 | Fujifilm Corp | Image component separating apparatus, method and program and normal image generating apparatus, method and program |
JP2015198824A (en) | 2014-04-09 | 2015-11-12 | 株式会社東芝 | Medical image diagnostic apparatus |
JP2015213749A (en) | 2014-04-21 | 2015-12-03 | 株式会社東芝 | X-ray computer tomography apparatus and photographing condition setting support apparatus |
JP2017527037A (en) | 2014-09-10 | 2017-09-14 | アマゾン テクノロジーズ インコーポレイテッド | Compute instance startup time |
US20160209995A1 (en) | 2015-01-19 | 2016-07-21 | Samsung Electronics Co., Ltd. | Image processing apparatus, medical imaging apparatus, and image processing method |
US20170213339A1 (en) | 2016-01-21 | 2017-07-27 | Impac Medical Systems, Inc. | Systems and methods for segmentation of intra-patient medical images |
JP2017202307A (en) | 2016-05-09 | 2017-11-16 | 東芝メディカルシステムズ株式会社 | Medical imaging diagnostic apparatus and medical information management apparatus |
JP2017217460A (en) | 2016-06-06 | 2017-12-14 | 東芝メディカルシステムズ株式会社 | Medical information processor, x-ray ct apparatus, and medical information processing program |
JP2017217154A (en) | 2016-06-06 | 2017-12-14 | 東芝メディカルシステムズ株式会社 | X-ray CT apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2023065669A (en) | 2023-05-12 |
JP7244280B2 (en) | 2023-03-22 |
JP2024054373A (en) | 2024-04-16 |
JP2020110444A (en) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11000254B2 (en) | Methods and systems for patient scan setup | |
US20220039771A1 (en) | Medical image diagnostic apparatus, medical image diagnostic method, and storage medium | |
JP2004230154A (en) | Volumetric ct system and method utilizing multiple detector panels | |
US7502439B2 (en) | Radiographic apparatus and method of using the same | |
US11241212B2 (en) | Medical apparatus | |
US11432783B2 (en) | Methods and systems for beam attenuation | |
JP7242288B2 (en) | Medical image diagnosis device and model learning device | |
JP7443591B2 (en) | Medical image diagnosis device and medical image diagnosis method | |
JP7462433B2 (en) | Medical diagnostic system, medical diagnostic device, and medical information processing device | |
JP7362259B2 (en) | Medical image diagnosis device, medical image diagnosis method, and bed device | |
JP7433809B2 (en) | Trained model generation method and medical processing device | |
US11404159B2 (en) | Medical information processing system and medical information processing apparatus | |
JP7437887B2 (en) | Medical information processing equipment and X-ray CT equipment | |
JP7466301B2 (en) | Medical system, medical information management device and terminal device | |
JP7320934B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
JP7309988B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
JP7399780B2 (en) | Medical image diagnostic equipment | |
JP7140566B2 (en) | X-ray CT device and imaging planning device | |
JP7412952B2 (en) | Medical image diagnostic equipment | |
JP7144292B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD | |
CN110139607B (en) | Method and system for patient scan settings | |
JP2022178052A (en) | X-ray ct apparatus and control method of x-ray ct apparatus | |
JP2023055322A (en) | Machine learning model evaluation device, machine learning model evaluation method, and program | |
JP2020141808A (en) | Medical processing device and medical diagnostic system | |
JP2021191402A (en) | Image processing apparatus, radiation imaging system, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7443591 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |