JP2020101860A - 医用画像処理装置、システム及びプログラム - Google Patents

医用画像処理装置、システム及びプログラム Download PDF

Info

Publication number
JP2020101860A
JP2020101860A JP2018237696A JP2018237696A JP2020101860A JP 2020101860 A JP2020101860 A JP 2020101860A JP 2018237696 A JP2018237696 A JP 2018237696A JP 2018237696 A JP2018237696 A JP 2018237696A JP 2020101860 A JP2020101860 A JP 2020101860A
Authority
JP
Japan
Prior art keywords
model
learned
data
medical image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018237696A
Other languages
English (en)
Other versions
JP7163168B2 (ja
Inventor
昂彦 西岡
Takahiko Nishioka
昂彦 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018237696A priority Critical patent/JP7163168B2/ja
Publication of JP2020101860A publication Critical patent/JP2020101860A/ja
Application granted granted Critical
Publication of JP7163168B2 publication Critical patent/JP7163168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】医用データや学習済みモデルを再利用においてユーザビリティを向上させる医用画像処理装置を提供する。【解決手段】医用画像処理装置10は、取得部と、学習部とを含む。取得部は、入力データおよび出力データを用いて学習した第1学習済みモデルを取得する。学習部は、前処理が施された前処理データと出力データとを用いて、第1学習済みモデルを再学習させ、第1学習済みモデルから前処理に対応する処理が除かれた第2学習済みモデルを生成する。【選択図】図1

Description

本発明の実施形態は、医用画像処理装置、システム及びプログラムに関する。
機械学習の発展に伴い、医用分野においても機械学習の適用が進みつつある。医用データを用いてモデルを機械学習して学習済みモデルを作成する場合、学習用の医用データを大量に用意する必要がある。
ある目的の処理のために一度作成された学習済みモデルは、基本的に異なる目的の処理のために利用することは難しい。例えば、脳腫瘍を検出するための学習済みモデルは、脳の医用画像の中から腫瘍を検出することに特化している。よって、肝腫瘍など別の部位から腫瘍を検出することに当該学習済みモデルを利用したとしても、肝臓の医用画像に対する処理能力は低いと考えられる。
そのため、例えば脳の医用画像から腫瘍を検出する学習済みモデルを生成または購入したユーザが、今度は肝腫瘍を検出する学習済みモデルを利用したいと考えたとする。この場合、新たに肝腫瘍の医用データを用意して肝腫瘍の学習済みモデルを生成するか、別途肝腫瘍の学習済みモデルを購入する必要がある。結果、以前に用いた医用データや学習済みモデルを再利用することができず、ユーザにとって労力およびコストの観点からも非常に負担がかかる。
米国特許出願公開第2010/0121178号明細書 米国特許第9208405号明細書 米国特許出願公開第2018/0060722号明細書
本発明が解決しようとする課題は、ユーザビリティを向上させることである。
本実施形態に係る医用画像処理装置は、取得部と、学習部とを含む。取得部は、入力データおよび出力データを用いて学習した第1学習済みモデルを取得する。生成部は、前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する。
図1は、第1の実施形態に係る医用画像処理装置を示すブロック図である。 図2Aは、学習機能による学習済みモデルの細分化の具体例を示す図である。 図2Bは、学習機能による学習済みモデルの細分化の具体例を示す図である。 図3は、第2の実施形態に係る医用画像処理装置を示すブロック図である。 図4は、第2の実施形態に係る医用画像処理装置の動作例を示す図である。 図5は、モデル選択機能による細分化候補を判定する一例を示す図である。 図6は、第3の実施形態に係る医用画像処理装置によるGUI(Graphical User Interface)の一例を示す図である。 図7は、GUIにおけるモデルの検索処理の第1例を示す図である。 図8は、GUIにおけるモデルの検索処理の第2例を示す図である。 図9は、GUIにおけるモデルの検索処理の第2例を示す図である。 図10は、第4の実施形態に係る医用画像診断システムを示すブロック図である。 図11は、第4の実施形態に係る医用画像診断システムにおける医用画像処理装置の動作例を示す図である。
以下、図面を参照しながら本実施形態に係わる医用画像処理装置、システムおよびプログラムについて説明する。以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。以下、一実施形態について図面を用いて説明する。
なお、以下の本実施形態に係る医用画像処理装置は、X線CT(Computed Tomography)装置またはMR(Magnetic Resonance)などの各医用画像診断装置のコンソールに含まれてもよいし、ワークステーションに含まれてもよいし、クラウドサーバなどのサーバに含まれてもよい。
(第1の実施形態)
第1の実施形態に係る医用画像処理装置は、学習済みモデルにより実行される処理内容を細分化し、ある処理内容に特化した学習済みモデルへ変更する。
第1の実施形態に係る医用画像処理装置について図1のブロック図を参照して説明する。
第1の実施形態に係る医用画像処理装置10は、処理回路11と、データ格納部12と、通信インタフェース13とを含む。処理回路11は、モデル取得機能111と、処理分割機能113と、学習機能115と、表示制御機能117とを含む。
モデル取得機能111により処理回路11は、処理対象の学習済みモデルを取得する。処理対象の学習済みモデルは、ある入力データおよび出力データの組を学習用データとして用いて学習させることで生成されたモデルである。処理対象の学習済みモデルは、外部から取得されてもよいし、後述するデータ格納部12に予め格納される学習済みモデルを処理対象の学習済みモデルとして取得してもよい。また、処理対象の学習済みモデルは、後述する学習機能115によりモデルを学習させることで生成される学習済みモデルであってもよい。
処理分割機能113により処理回路11は、処理対象の学習済みモデルで実行される処理内容を細分化し、処理内容がどのような処理の組合せにより実現されるかを示す細分化情報を得る。具体的には、CTの生データが入力され、肺結節がセグメンテーションされた画像を出力する学習済みモデルを想定する。当該学習済みモデルにおいて生データから肺結節がセグメンテーションされた画像を出力するまでの過程は、例えば、生データをCT画像再構成する処理と、CT画像から肺野をセグメンテーションする処理と、肺野内の結節をセグメンテーションする処理とに細分化できる。よって、処理分割機能113により処理回路11は、細分化された処理に関する情報を細分化情報として得ればよい。
なお、処理内容の細分化方法は、ユーザがどのような処理に細分化するかを医用画像処理装置10に入力する方法を想定する。なお、細分化方法は、外部から処理内容の細分化例を得たり、または過去に医用画像処理装置10で実行された処理内容の細分化例を得たりして、当該細分化例をルックアップテーブルとしてデータ格納部12に格納しておく。処理分割機能113により処理回路11は、当該ルックアップテーブルを参照する方法でもよい。
学習機能115により処理回路11は、細分化情報に基づいて、学習済みモデルを生成した際の入力データとは異なる前処理が施された前処理データと、学習済みモデルを生成した際の出力データとを学習用データとして、当該学習済みモデルを再学習させる。再学習の結果、学習機能115により処理回路11は、元の学習済みモデルから前処理に対応する処理が除かれた再学習済みモデルを生成する。
表示制御機能117により処理回路11は、学習済みモデル、学習済みモデルの細分化情報などをディスプレイに表示させる。
データ格納部12は、種々の情報を記憶するHDD(Hard Disk Drive)やSSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。データ格納部12は、HDDやSSD等以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬性記憶媒体や、RAM(Random Access Memory)等の半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリの保存領域は、医用画像処理装置10内にあってもよいし、ネットワークで接続された外部記憶装置内にあってもよい。
データ格納部12は、例えば、学習済みモデルを再学習させるための、入力データおよび正解データ(出力データ)となる学習用データ、細分化情報を格納する。入力データとしては、例えば生データ、サイノグラムデータ、ボリュームデータ、画像データが挙げられる。正解データとしては、例えばサイノグラムデータ、ボリュームデータ、画像データ、判定スコア(病変スコアなど)、分析結果が挙げられる。学習用データは、入力データと正解データとの組の場合もあるし、前処理データと正解データとの組の場合もある。データ格納部12はさらに、入力されるデータに対し前処理を行う学習済みモデルである前処理モデルを格納してもよい。前処理モデルを用いることで、入力データから前処理データを生成することができる。
通信インタフェース13は、外部と通信するためのインタフェースであり、一般的なインタフェースを用いればよいため、ここでの説明は省略する。
次に、学習機能115による学習済みモデルの細分化の具体例について図2Aおよび図2Bを参照して説明する。
学習済みモデルは、入力データと出力データとの組である学習用データに基づいて、モデル学習プログラムに従い、例えば多層ネットワークなどのモデルを機械学習することで生成される。機械学習のアルゴリズムとしては、ニューラルネットワーク、ディープラーニング、Random Forest等を想定するが、サポートベクタマシン、カーネル回帰など他の機械学習アルゴリズムを用いてもよい。なお、学習済みモデルは、複数の関数が合成されたパラメータ付き合成関数ともいえる。パラメータ付き合成関数は、複数の調整可能な関数およびパラメータの組合せにより定義される。学習済みモデルは、上記の要請を満たす如何なるパラメータ付き合成関数であってもよい。
ここで図2Aに示すように、(a)処理対象の学習済みモデルとして、処理内容が「肺の腫瘍をセグメンテーション」である学習済みモデル20を想定する。学習済みモデル20は、入力データ21としてボリュームデータが入力されると、出力データ22として肺の腫瘍がセグメンテーションされた画像データを出力する。
処理分割機能113により処理回路11は、細分化情報に基づき、ボリュームデータから肺の腫瘍をセグメンテーションするまでの学習済みモデル20の処理内容を細分化する。処理内容の細分化は、上述したようなユーザが適宜入力する方法でも、ルックアップテーブルを参照する方法でもよい。さらには、処理対象の学習済みモデル20の処理途中の状態を確認できる場合は、処理途中でどのような処理が行われているかを検出し、検出された処理に応じて処理内容を細分化してもよい。
ここでは、ボリュームデータから肺をセグメンテーションする第1ステップと、セグメンテーションされた肺を肺葉ごとに分割する第2ステップと、腫瘍をセグメンテーションする第3ステップとに処理内容が細分化された場合を想定する。ここで、ユーザが第3ステップの処理を実行する学習済みモデルを生成したいと考える場合、第1ステップおよび第2ステップは前処理と呼ばれる。
学習機能115により処理回路11は、入力データ21に対する前処理として、入力データ21に第1ステップが実行されたデータを入力データ23とし、肺の腫瘍がセグメンテーションされたデータを出力データ22とする学習用データに基づいて、学習済みモデル20を再学習(例えば強化学習)させる(図2A中、(b))。入力データ23としては、予め肺がセグメンテーションされたボリュームデータをデータ格納部12に用意し、肺がセグメンテーションされたボリュームデータが用いられてもよい。または、外部から取得した肺がセグメンテーションされたボリュームデータが用いられてもよい。または、データ格納部12に格納されるボリュームデータに対して一般的なセグメンテーション処理を実行することで、肺がセグメンテーションされたボリュームデータが生成され用いられてもよい。または、ボリュームデータが入力され、肺がセグメンテーションされたデータを出力する学習済みモデルの出力が用いてもよい。
再学習の結果として得られる再学習済みモデル24は、ボリュームデータから肺がセグメンテーションされた後のデータが入力データとして用いられるため、第1前処理済みデータを処理する学習済みモデルに変更される。つまり、再学習済みモデル24は、学習済みモデル20から第1前処理機能を除いたモデルに変更される(図2A中、(c))。再学習済みモデル24は、ボリュームデータから肺がセグメンテーションされたデータが入力され、肺の腫瘍がセグメンテーションされたデータを出力する。
同様に、第2ステップに関する前処理済みのデータと出力データ22を用いて、再学習済みモデル24を再学習する例を図2Bに示す。
ここでは、第2ステップ、すなわち肺を肺葉ごとに分割したデータを入力データ25とし、肺の腫瘍がセグメンテーションされたデータを出力データ22とする学習用データに基づいて、再学習済みモデル24を再学習させる(図2B中、(d))。入力データ25は、入力データ23の場合と同様に取得されればよい。例えば、入力データ25として、予め肺葉ごとに分割されたデータが用いられてもよいし、肺がセグメンテーションされたデータが入力され、肺葉ごとに分割されたデータを出力する学習済みモデルの出力が用いられてもよい。
再学習の結果として得られる再学習済みモデル26は、肺葉ごとに分割されたデータが入力データとして用いられるため、第2前処理済みデータを処理する学習済みモデルに変更される。つまり、再学習済みモデル26は、再学習済みモデル24から第2前処理機能を除いたモデルに変更される(図2A中、(e))。再学習済みモデル26は、肺葉ごとに分割されたデータが入力され、肺の腫瘍がセグメンテーションされたデータを出力する。
なお、図2Aおよび図2Bの(b)および(d)に示す再学習の段階で、学習機能115により処理回路11が、学習済みモデル20の多層ネットワークの中で前処理に相当する処理を実行している層を検出できる場合は、当該前処理に相当する処理を実行している層を削減したモデルに対して、再学習を実行し、再学習済みモデルを生成してもよい。
さらに、図2Aおよび図2Bでは、細分化された処理ごとに学習済みモデルを再学習しているが、これに限らず、図2Aの(b)の再学習を実行せずに、第2前処理済みデータを入力データとし、(d)の再学習を実行してもよい。
以上に示した第1の実施形態によれば、学習済みモデルの処理内容を細分化し、汎用性の高い学習済みモデルとなるように再学習(強化学習)させることで、汎用性の高い学習済みモデルに学習済みモデルを変更することができる。つまり、例えば肺の腫瘍をセグメンテーションした画像を出力する学習済みモデルを再学習し、腫瘍をセグメンテーションする処理に特化した学習済みモデルに変更する。当該変更された学習済みモデルに、肝臓がセグメンテーションされたデータを入力すると、当該変更された学習済みモデルでは、何らかのセグメンテーションが実行されたデータに対して腫瘍をセグメンテーションした画像を出力するので、肺の医用データに限らず、肝臓など他の臓器の医用データから腫瘍をセグメンテーションできる。
すなわち、第1の実施形態によれば、より汎用性の高い学習済みモデルを生成でき、ユーザビリティを向上させることができる。
(第2の実施形態)
第2の実施形態では、所望の処理を1つの学習済みモデルで実現するのではなく、複数の汎用的な学習済みモデルを組み合わせることで所望の処理を実現する。
第2の実施形態に係る医用画像処理装置10について図3のブロック図を参照して説明する。
第2の実施形態に係る医用画像処理装置10は、第1の実施形態に係る医用画像処理装置10に加え、処理回路11にモデル選択機能119をさらに含む。また、データ格納部12および処理回路11の処理分割機能113の構成が第1の実施形態と異なる。
データ格納部12は、複数の学習済みモデルを格納する。複数の学習済みモデルはそれぞれ、処理内容が異なる。例えば、腫瘍を抽出する学習済みモデル、肺をセグメンテーションする学習済みモデルなど、各用途に応じた学習済みモデルを格納する。なお、同じ処理内容であっても入力するデータの違いに応じて複数の学習済みモデルが格納されてもよい。例えば、CT画像から腫瘍をセグメンテーションする学習済みモデルと、MR画像から腫瘍をセグメンテーションする学習済みモデルとをそれぞれ格納する。
また、学習済みモデルには、付帯情報が付帯される。付帯情報は、学習済みモデルの処理内容、学習済みモデルから出力されるデータの正答率、学習済みモデルの入力データおよび出力データ、学習済みモデルの処理内容を実行するのに要する処理時間などを含む。
また、データ格納部12は、学習済みモデルに加え、ルールベースで設計された処理モデル(以下、ルールモデルという)を格納してもよい。ルールモデルにも付帯情報が付帯される。
処理分割機能113により処理回路11は、ユーザの所望の処理(以下、目的処理と呼ぶ)を複数の処理に細分化する。言い換えれば、目的処理を複数の処理(ステップ)の組み合わせに変換する。目的処理を細分化する場合は、第1の実施形態に係る学習済みモデルの処理内容を細分化する場合と同様の方法を用いればよい。
モデル選択機能119により処理回路11は、付帯情報に基づき、目的処理を達成するための学習済みモデルの組合せを選択する。
次に、第2の実施形態に係る医用画像処理装置10の具体的な動作例について図4を参照して説明する。
目的処理40として、「X線CT装置により取得した生データから肺結節をセグメンテーションする」場合を想定する。以下、X線CT装置により取得した生データをCT生データという。
処理分割機能113により処理回路11は、目的処理40を、CT生データからの画像再構成処理、肺野セグメンテーション処理、及び肺野内の結節セグメンテーション処理に細分化する。結果として、第1学習済みモデル41、第2学習済みモデル43および第3学習済みモデル45の組合せが得られる。
目的処理の細分化の粒度(例えば、組み合わされる処理の数)は、ユーザが所有している(データ格納部12に格納される)学習済みモデルを優先的に利用するように決定されてもよい。例えば、目的処理を第1の処理から第5の処理までの5つの処理に細分化できる場合、ユーザが既に第4および第5の処理をまとめた学習済みモデルを所有していれば、当該学習済みモデルを利用すべく、目的処理を3つの処理に細分化すればよい。なお、細分化の粒度は、なるべく細分化数が少なくなるような学習済みモデルの組合せに決定されてもよいし、反対に、なるべく細分化数が多くなるような学習済みモデルの組合せに決定されてもよい。
モデル選択機能119により処理回路11は、目的処理が細分化された、画像再構成処理、肺野セグメンテーション処理および結節セグメンテーションに対応する各学習済みモデルを、データ格納部12から選択する。なお、モデル選択機能119により処理回路11は、自動的に学習モデルを選択することに限らずユーザが手動でモデルを選択してもよい。
なお、目的処理を細分化する際には、目的処理が1つのパターンに細分化されず、複数のパターンが細分化候補として想定される場合もある。この場合、モデル選択機能119により処理回路11が、どの細分化候補が最も適切かを判定してもよい。
モデル選択機能119による細分化候補の判定例について図5を参照して説明する。
図5の例では、図4に示す目的処理40「X線CT装置により取得した生データから肺結節をセグメンテーションする」について、2つの細分化候補51,53が生成される場合を示す。細分化候補51は「画像再構成処理→肺のセグメンテーション→肺葉のセグメンテーション→腫瘍のセグメンテーション」で示される順序の学習済みモデル511の組合せであり、細分化候補53は「肺のセグメンテーション→TDC取得処理→TDCに基づく腫瘍のセグメンテーション」で示される順序の学習済みモデル531の組合せである場合を想定する。
学習済みモデル511には付帯情報513が付帯され、学習済みモデル531には付帯情報533が付帯される。また、細分化候補51には全体的な付帯情報52が付帯され、細分化候補53にも全体的な付帯情報54が付与される。なお、図5の例では、説明の便宜上、付帯情報513のみ内容を図示しているが、他の付帯情報にも同様の情報が含まれる。
全体的な付帯情報52および付帯情報54に含まれるデータの正答率は、細分化候補に含まれる各学習済みモデルの正答率の平均であってもよいし、細分化候補51または細分化候補53によりサンプルデータを処理させることで得られる正答率でもよい。または、第三者により実際に利用されたときの正答率のフィードバックデータを利用してもよい。全体的な付帯情報に含まれる処理時間は、各学習済みモデルの処理時間を積算した時間を用いればよい。
モデル選択機能119により処理回路11は、付帯情報に基づき、最適な細分化候補(組合せ候補)を処理モデルとして選択する。図5の例では、正答率が優先されるように設定してあれば、細分化候補53が処理モデルとして選択され、処理時間が優先される設定であれば、細分化候補51が処理モデルとして選択される。なお、提示される正答率または処理時間を考慮して、ユーザが手動で最適な細分化候補を処理モデルとして選択してもよい。
以上に示した第2の実施形態によれば、目的処理を複数の処理に細分化し、モデル選択機能119により処理回路11が、処理ごとの学習済みモデルを組み合わせることで、目的処理を実現する。これにより、例えばユーザが、目的処理を処理内容とする学習済みモデルを所有していなくとも、手持ちの学習済みモデルを組み合わせることで同様の目的処理を実現できると共に、既に購入または作成された、手持ちの学習済みモデルを有効に利用することができる。
(第3の実施形態)
第3の実施形態では、学習済みモデルの組合せを支援するGUI(Graphical User Interface)を提供する医用画像処理装置を示す。
第3の実施形態に係るGUIの一例について図6を参照して説明する。
図6は、ユーザによる学習済みモデルの組合せを支援するGUIであり、表示制御機能117により処理回路11が、例えばコンソール装置またはワークステーションのディスプレイへの当該GUIの表示を制御する。
ユーザは、キーボード、マウス、トラックボールなどの外部入力装置、または、タッチパネル式のディスプレイであれば直接触れることにより、GUIへの入力またはカーソル68の移動を実現し、目的処理を実現するための学習済みモデルの組合せ作業を含む設計を行うことができる。
図6では、ある目的処理に対して、入力データと出力データとが決定されているとする。表示制御機能117により処理回路11は、目的処理に関する複数の学習済みモデルの組合せ作業を行う作業領域60、複数の学習済みモデル601を表示するAIモデルリスト62、ルールモデル640を表示するルールベースリスト64、および後述するコネクタ660を表示するコネクタリスト66を含むGUIの表示を制御する。AIモデルリスト62には、第2の実施形態に示すデータ格納部12に格納される複数の学習済みモデルが含まれることを想定する、第1の実施形態で生成された再学習済みモデルをAIモデルリスト62に含めてもよい。
ユーザは、目的処理を実現するように、AIモデルリスト62から複数の学習済みモデル601を選択し、ルールベースリスト64からルールモデル640を選択して、学習済みモデル601およびルールモデル640の組合せ作業を実行する。また、図示しないが、学習済みモデル601を選択することで、学習済みモデル601に付帯される付帯情報を表示するようにしてもよい。また、ルールモデル640に対しても付帯情報が付帯されてもよい。以下、便宜上、学習済みモデル601およびルールモデル640をまとめて単に「モデル」と呼ぶ。
AIモデルリスト62、ルールベースリスト64、およびコネクタリスト66は、モデルの処理内容のカテゴリごとにソートして表示されてもよい。例えば、「セグメンテーション」のカテゴリ、「腫瘍判定」のカテゴリといったように区別してモデルを表示することで、ユーザの視認性を向上させることができる。
なお、第2の実施形態で示した細分化候補をデフォルトで作業領域60に表示させておき、ユーザが、細分化候補をそのまま利用するか、細分化候補を組み替えるかを判断してもよい。
GUIで表示される学習済みモデル601は、説明ブロック6011と、入力端子6013と出力端子6015とを含む。説明ブロック6011は、学習済みモデル601の処理内容を記載したブロックである。入力端子6013は、入力データの形式が記号で示され、当該記号が説明ブロック6011の一端に枝を介して接続される。出力端子6015は、出力データの形式が記号で示され、当該記号が説明ブロック6011の他端に枝を介して接続される。
入力端子6013および出力端子6015の各データの形式としては、例えば、ピクセルデータ、ボクセルデータ、生データ、中間データ(例えば、サイノグラム)などが想定される。入力各データの形式を一意に識別するため、各データに異なる記号が割り当てられる。
ユーザは、入力端子6013および出力端子6015の形状を見れば、入出力のデータ形式が一致するか否かを容易に判断できる。図6の例では、入力データがボリュームデータで記号が「○」であると想定すると、肺のセグメンテーション処理に関する学習済みモデル601の入力端子6013が「○」の記号であるので、ユーザは学習済みモデル601を入力に接続可能であると判断できる。なお、ルールモデル640については、学習済みモデル601と同様の表示形式であるので説明を省略する。
ここで、モデルの組合せ作業において、目的処理の入力および出力の間で入出力関係が揃わない場合も考えられる。例えば、先のモデルからの出力がボリュームデータで、接続したい学習済みモデル601の入力が画像データである場合、ボリュームデータから画像データへの変換が必要となる。また、入出力が同じ画像データでも、画像のマトリクスサイズが異なる場合は、入力先のマトリクスサイズに合わせて出力元のマトリクスサイズを変換する必要がある。
よって、データ形式の変換およびマトリクスサイズの変換など、モデル間の入出力関係を整合させるデータ変換を示すコネクタ660をコネクタリスト66に複数格納する。コネクタ660は、マトリクスサイズ変換であればマスク画像を用いればよく、データ変換であれば一般的なデータ変換式を用いればよい。
コネクタ660を用意することで、ユーザが視覚的かつ容易に学習済みモデル間のデータの入出力関係を合わせることができる。
次に、GUIにおけるモデルの検索処理の第1例について図7を参照して説明する。
図7は、作業領域60に学習済みモデル601を1つ配置した状態を示す。表示制御機能117により処理回路11は、候補領域70をGUI上に表示する。候補領域70には、モデル候補701と必要コネクタ703とが対応付けられて表示される。
モデル候補701は、作業領域60に配置されたモデルに対し組合せ可能なモデルを示す。モデル候補は、例えば処理分割機能113により処理回路11が、細分化情報に基づいて、配置された学習済みモデル601に接続されたモデルを抽出すればよい。
必要コネクタ703は、作業領域60に配置されたモデルに対してモデル候補701を接続する際に必要となるコネクタを示す。必要コネクタは、例えば表示制御機能117により処理回路11が、付帯情報を参照して、作業領域60に配置されたモデルの出力と、組合せ可能なモデルの入力とに関する情報から、入出力関係が一致していなければ、入出力関係が一致するような変換、つまりコネクタを選択して表示させればよい。なお、コネクタが必要ない場合には、「なし」と記載されるか、空欄とすればよい。
表示制御機能117により処理回路11は、作業領域60に、モデルが配置されると、配置されたモデルを参照して、モデル候補をAIモデルリスト62、ルールベースリスト64およびコネクタリスト66から、対象となるモデルまたはコネクタを抽出し、候補領域70に表示する。
次に、GUIにおけるモデルの検索処理の第2例について図8および図9を参照して説明する。図8および図9は、いわゆるインクリメンタルサーチを想定する。
図8は、ユーザがモデルの組合せに用いたいと考えるモデルについて、ユーザが検索ウィンドウ80に文字を入力する例である。「は」と入力すると、「は」から始まる学習済みモデル601およびルールモデル640の候補が候補欄81に表示される。なお、コネクタ660に名称を付与しておけば、学習済みモデル601およびルールモデル640と併せて、コネクタ660も検索対象に設定されてもよい。続けてユーザが検索ウィンドウ80に「はい」と入力すると、候補欄81に表示されるモデルが、「はい」から始まる学習済みモデル601およびルールモデル640に限定される。このような学習済みモデル601として、例えば、肺のセグメンテーションのモデルが表示される。
以上に示した第3の実施形態によれば、学習済みモデルの組合せを支援するGUIを提供することで、ユーザが目的処理を実現可能な範囲で自由にモデルを組合せることができ、目的処理の設計に関するユーザビリティを向上させることができる。
(第4の実施形態)
次に、第4の実施形態として、クラウドを利用してモデルの購入および販売を行う例について説明する。
第4の実施形態に係る医用画像診断装置を含む医用画像診断システムについて図10を参照して説明する。
図10に示す医用画像診断システム1は、1以上の医用画像処理装置10と、クラウドサーバ3とを含む。1以上の医用画像処理装置10は、医用画像処理装置10が病院ごとに配置される場合を想定する。各医用画像処理装置10は、ネットワーク5を介してクラウドサーバ3と接続される。
医用画像処理装置10は、第1の実施形態または第2の実施形態に係る医用画像処理装置10の構成でもよいが、ここでは、処理回路11は表示制御機能117を含むとする。
クラウドサーバ3は、データ格納部12と、処理回路11と、通信インタフェース13を含む。処理回路11は、モデル取得機能111、学習機能115および処理分割機能113を含む。このように、処理負荷が多いと想定される学習機能115や、メモリに対する負荷が多いデータ格納部12などの構成をクラウドサーバ3に含み、その他の構成を医用画像処理装置10に含むように構成を分散させてもよい。構成を分散させる際は、医用画像処理装置10ごとにアクセス権限を付与し、クラウドサーバ3に格納される学習用データおよび各種モデル(学習済みモデル、ルールモデル)のうち、アクセス権限を有するデータのみにアクセスを許可するようにアクセスを制限してもよい。
クラウドサーバ3は、医用画像処理装置10からの学習用データおよび各種モデルについてのダウンロード要求に応じて、医用画像処理装置10にデータをダウンロードさせてもよい。または、クラウドサーバ3は、医用画像処理装置10からの学習用データおよび各種モデルについてのアップロード要求に応じて、医用画像処理装置10にデータをアップロードさせてもよい。
図10に示すような構成とすることで、各医用画像処理装置10側では、処理回路11を実現するプロセッサやメモリの負荷を減らしつつ、スループットを向上させることができる。また、クラウドサーバ3側で学習処理などを行うことで、学習時間を短縮でき、データの一元管理を実現することができる。
次に、第4の実施形態に係る医用画像処理装置10の動作例を図11に示す。
図11は、図7と同様に作業領域60と候補領域72とを示すGUIの一例である。
表示制御機能117により処理回路11は、候補領域72をGUI上に表示する。候補領域72は、モデル候補701とユーザが当該モデル候補701を所有しているか否かを示す所有フラグ705とを対応付けて表示する。モデル候補に自身が所有していないモデル(以下、未所持モデル721という)は、所有フラグ705を「×」として表示させる。未所持モデル721は、図10のように、アイコンを破線で表示してもよいし、色を薄く表示してもよいし、マークを付けるなどしてもよい。すなわち、自身が所有しているモデルと区別して表示される態様で未所持モデル721が表示されればよい。
さらに、表示制御機能117により処理回路11は、未所持モデル721を購入するための購入ボタン723を表示してもよい。ユーザは、購入ボタン723にカーソル68を合わせクリックすることで、モデルおよび金額の確認画面(図示せず)を表示させ、さらに確認ボタンを押下すれば未所持モデル721を購入可能とする。未所持モデル721の購入方法は、例えばクラウドサーバ3に、多数の学習済みモデル、ルールモデルおよびコネクタを格納しておき、ユーザが利用する医用画像処理装置10からクラウドサーバ3にアクセスして未所持モデル721を購入可能とすればよい。
また、ユーザが作成した学習済みモデル、ルールモデルおよびコネクタをクラウドサーバ3に登録できるようにし、登録したモデルを第三者に販売できるようにしてもよい。
以上に示した第4の実施形態によれば、クラウドサーバに学習用データおよび各種モデルを格納し、ユーザが各種モデルをクラウドサーバから購入及び販売できることで、ユーザビリティを向上させることができる。
本実施形態に係る処理回路11は、例えば、ハードウェア資源として、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサとROM(Read Only Memory)やRAM(Random Access Memory)等のメモリとを含む。また処理回路11は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)やフィールド・プログラマブル・ゲート・アレイ(Field Programmable Gate Array:FPGA)、他の複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)により実現されてもよい。処理回路11は、メモリに展開されたプログラムを実行するプロセッサにより、モデル取得機能111、処理分割機能113、学習機能115、表示制御機能117およびモデル選択機能119を実行する。なお、各機能(モデル取得機能111、処理分割機能113、学習機能115、表示制御機能117およびモデル選択機能119)は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路11を構成し、各プロセッサがプログラムを実行することにより各機能を実現するものとしても構わない。
なお、上述した実施形態に係る各機能は、当該処理を実行するプログラムをワークステーション等のコンピュータにインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(ハードディスクなど)、光ディスク(CD−ROM、DVD、Blu−ray(登録商標)ディスクなど)、半導体メモリなどの記憶媒体に格納して頒布することも可能である。
上述の第1の実施形態から第3の実施形態に係る医用画像処理装置および第4の実施形態に係る医用画像処理システムによれば、ユーザビリティを向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 医用画像診断システム
3 クラウドサーバ
5 ネットワーク
10 医用画像処理装置
11 処理回路
12 データ格納部
13 通信インタフェース
20 学習済みモデル
21,23,25 入力データ
22 出力データ
24,26 再学習済みモデル
40 目的処理
41,43,45,511,531,601 学習済みモデル
51,53 細分化候補
52,54,513,533 付帯情報
60 作業領域
62 AIモデルリスト
64 ルールベースリスト
66 コネクタリスト
68 カーソル
70,72 候補領域
80 検索ウィンドウ
111 モデル取得機能
113 処理分割機能
115 学習機能
117 表示制御機能
119 モデル選択機能
640 ルールモデル
660 コネクタ
701 モデル候補
703 必要コネクタ
705 所有フラグ
721 未所持モデル
723 購入ボタン
6011 説明ブロック
6013 入力端子
6015 出力端子

Claims (10)

  1. 入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得部と、
    前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習部と、
    を具備する医用画像処理装置。
  2. 選択部をさらに具備し、
    前記第2学習済みモデルは、前記第2学習済みモデルの処理内容および入出力に関する付帯情報が付帯され、
    前記選択部は、前記付帯情報に基づき、目的処理を達成するための第2学習済みモデルの組合せを選択する、請求項1に記載の医用画像処理装置。
  3. 複数の第2学習済みモデルに関する第1リストと、前記第1リストから選択された第2学習済みモデルを含む学習済みモデルの組合せ作業を行う作業領域と、を表示するGUI(Graphical User Interface)を制御する表示制御部をさらに具備する、請求項2に記載の医用画像処理装置。
  4. 前記第1リストは、前記複数の第2学習済みモデルを処理内容のカテゴリごとにソートして表示される、請求項3に記載の医用画像処理装置。
  5. 前記表示制御部は、前記第1リストから第2学習済みモデルが選択され、当該第2学習済みモデルが前記作業領域に配置された場合、配置された第2学習済みモデルと組合せ可能な学習済みモデルの候補を表示する、請求項3または請求項4に記載の医用画像処理装置。
  6. 前記表示制御部は、ルールベースで設計された処理モデルであるルールモデルに関する第2リストを前記GUIに表示する、請求項3から請求項5のいずれか1項に記載の医用画像処理装置。
  7. 前記第2学習済みモデルおよび前記ルールモデルはアイコンとして表示され、
    前記アイコンは、前記第2学習済みモデルの処理内容を記載したブロックと、前記ブロックの一端に接続され、入力データを表現した記号と、前記ブロックの他端に接続され、出力データを表現した記号とを含む、請求項6に記載の医用画像処理装置。
  8. 前記表示制御部は、前記第2学習済みモデル間、前記ルールモデル間、および前記第2学習済みモデルと前記ルールモデルとの間の入出力関係を整合させるデータ変換を示すコネクタに関する第3リストを前記GUIに表示する、請求項6または請求項7に記載の医用画像処理装置。
  9. 1以上の医用画像処理装置とサーバとを含む医用画像処理システムであって、
    前記サーバは、
    入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得部と、
    前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習部と、
    前記入力データ、前記出力データ、前記前処理データおよび前記第2学習済みモデルを含む複数の学習済みモデルを格納する格納部と、
    を具備し、
    前記1以上の医用画像処理装置はそれぞれ、
    前記複数の学習済みモデルに関する第1リストと、前記第1リストから選択された学習済みモデルの組合せ作業を行う作業領域と、を表示するGUI(Graphical User Interface)を制御する表示制御部を具備する、医用画像処理システム。
  10. コンピュータに、
    入力データおよび出力データを用いて学習した第1学習済みモデルを取得する取得機能と、
    前処理が施された前処理データと前記出力データとを用いて、前記第1学習済みモデルを再学習させ、前記第1学習済みモデルから前記前処理に対応する処理が除かれた第2学習済みモデルを生成する学習機能と、を実現させる医用画像処理プログラム。
JP2018237696A 2018-12-19 2018-12-19 医用画像処理装置、システム及びプログラム Active JP7163168B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018237696A JP7163168B2 (ja) 2018-12-19 2018-12-19 医用画像処理装置、システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018237696A JP7163168B2 (ja) 2018-12-19 2018-12-19 医用画像処理装置、システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2020101860A true JP2020101860A (ja) 2020-07-02
JP7163168B2 JP7163168B2 (ja) 2022-10-31

Family

ID=71141238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237696A Active JP7163168B2 (ja) 2018-12-19 2018-12-19 医用画像処理装置、システム及びプログラム

Country Status (1)

Country Link
JP (1) JP7163168B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022009932A1 (ja) * 2020-07-08 2022-01-13 株式会社ヒューマノーム研究所 情報処理システム
JP7224589B1 (ja) 2022-03-18 2023-02-20 AI inside株式会社 プログラム、情報処理装置、情報処理システム、情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147099A (ja) * 1995-11-24 1997-06-06 Hitachi Ltd ディジタル画像の階調変換処理システム
JP2017519282A (ja) * 2014-05-12 2017-07-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated 分散モデル学習
WO2018024555A1 (en) * 2016-08-02 2018-02-08 Koninklijke Philips N.V. Robust pulmonary lobe segmentation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147099A (ja) * 1995-11-24 1997-06-06 Hitachi Ltd ディジタル画像の階調変換処理システム
JP2017519282A (ja) * 2014-05-12 2017-07-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated 分散モデル学習
WO2018024555A1 (en) * 2016-08-02 2018-02-08 Koninklijke Philips N.V. Robust pulmonary lobe segmentation
JP2019522299A (ja) * 2016-08-02 2019-08-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロバスト肺葉セグメンテーション

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 藍雅 外3名: "2段階転移学習を用いた深層畳み込みニューラルネットによるびまん性肺疾患の識別と特徴表現の解析", 情報処理学会 研究報告 数理モデル化と問題解決(MPS) 2018−MPS−117 [ONLINE], JPN6022039156, 22 February 2018 (2018-02-22), JP, pages 1 - 6, ISSN: 0004876542 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022009932A1 (ja) * 2020-07-08 2022-01-13 株式会社ヒューマノーム研究所 情報処理システム
JP2022015114A (ja) * 2020-07-08 2022-01-21 株式会社ヒューマノーム研究所 情報処理システム
JP7224589B1 (ja) 2022-03-18 2023-02-20 AI inside株式会社 プログラム、情報処理装置、情報処理システム、情報処理方法
WO2023176175A1 (ja) * 2022-03-18 2023-09-21 AI inside株式会社 プログラム、情報処理装置、情報処理システム、情報処理方法
JP2023137542A (ja) * 2022-03-18 2023-09-29 AI inside株式会社 プログラム、情報処理装置、情報処理システム、情報処理方法

Also Published As

Publication number Publication date
JP7163168B2 (ja) 2022-10-31

Similar Documents

Publication Publication Date Title
US10249092B2 (en) System and method for rendering complex data in a virtual reality or augmented reality environment
US20100293505A1 (en) Anatomy-related image-context-dependent applications for efficient diagnosis
JP6824845B2 (ja) 画像処理システム、装置、方法およびプログラム
US10188361B2 (en) System for synthetic display of multi-modality data
US11229377B2 (en) System and method for next-generation MRI spine evaluation
JP6646395B2 (ja) 情報処理装置及びその方法、情報処理システム、コンピュータプログラム
EP2810217B1 (en) Graph cuts-based interactive segmentation of teeth in 3-d ct volumetric data
CN105447070A (zh) 医学影像阅片方法及***
JP2020018705A (ja) 医用画像処理装置、画像生成方法、及び画像生成プログラム
JP2020101860A (ja) 医用画像処理装置、システム及びプログラム
Moreira et al. 3D markup of radiological images in ePAD, a web-based image annotation tool
JP3989896B2 (ja) 医用画像処理装置、関心領域抽出方法、ならびに、プログラム
Hadler et al. Introduction of Lazy Luna an automatic software-driven multilevel comparison of ventricular function quantification in cardiovascular magnetic resonance imaging
US20220108540A1 (en) Devices, systems and methods for generating and providing image information
JP2018108125A (ja) 情報処理装置、情報処理方法およびプログラム
JP2006075216A (ja) 医用画像処理システム、医用画像処理プログラムおよび医用画像処理方法
US20230334663A1 (en) Development of medical imaging ai analysis algorithms leveraging image segmentation
JP5602142B2 (ja) 医療レポートのための患者固有の解剖学的スケッチのための物および方法
JP7321671B2 (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP6327966B2 (ja) 医用画像表示装置、表示制御装置および表示制御方法、プログラム
JP2017189394A (ja) 情報処理装置および情報処理システム
Heller et al. A web-based platform for distributed annotation of computerized tomography scans
RU2750278C2 (ru) Способ и аппарат для модификации контура, содержащего последовательность точек, размещенных на изображении
JP2012003465A (ja) シェーマ描画装置、シェーマ描画システムおよびシェーマ描画プログラム
JP2020058847A (ja) 医用画像表示装置、医用画像表示方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150