JP2008006187A - 医用画像表示処理装置、及び、医用画像表示処理プログラム - Google Patents

医用画像表示処理装置、及び、医用画像表示処理プログラム Download PDF

Info

Publication number
JP2008006187A
JP2008006187A JP2006181608A JP2006181608A JP2008006187A JP 2008006187 A JP2008006187 A JP 2008006187A JP 2006181608 A JP2006181608 A JP 2006181608A JP 2006181608 A JP2006181608 A JP 2006181608A JP 2008006187 A JP2008006187 A JP 2008006187A
Authority
JP
Japan
Prior art keywords
image
axial
display
display processing
slice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006181608A
Other languages
English (en)
Inventor
Hideyuki Sakaida
英之 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006181608A priority Critical patent/JP2008006187A/ja
Priority to US12/306,891 priority patent/US8295568B2/en
Priority to PCT/JP2007/063205 priority patent/WO2008001928A1/ja
Publication of JP2008006187A publication Critical patent/JP2008006187A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】モダリティによって被検体を撮像検査することにより取得された1シリーズの軸位断画像の内のユーザが所望する部位の軸位断画像を容易に表示することが可能な装置等を提供する。
【解決手段】被検体を撮像検査することによって得られた1シリーズの軸位断画像を表す画像データに基づいて軸位断画像を画像表示端末3に表示させる画像サーバ2であって、1シリーズの軸位断画像の各々に表された体部の部位を認識する部位認識部12と、1シリーズの軸位断画像に含まれている1つの軸位断画像を画像表示端末3に表示させると共に、部位変更指示を受けた場合に、部位認識部12による認識結果に基づいて、画像表示端末3に表示されている軸位断画像の部位と異なる部位を表す軸位断画像を画像表示端末3に表示させる表示処理部14とを含む。
【選択図】図1

Description

本発明は、医療用撮像モダリティによって取得された画像データに基づいて医用画像を表示するための医用画像表示処理装置、及び、そのような装置において用いられる医用画像表示処理プログラムに関する。
近年、医療診断においては、生体の内部が表示された医用画像が多く用いられており、そのような医用画像を取得するために、X線撮影や、X線CT(computed tomography:コンピュータ断層撮影)装置や、超音波(US)診断装置や、MRI(magnetic resonance imaging:磁気共鳴撮像)装置や、PET(positron emission tomography:ポジトロン断層撮影)等の様々な技術や装置(モダリティ)が広く利用されている。それらの装置の多くはディジタル化されており、病院内での診断情報処理システム等の構築が進められている。また、それらの撮像技術の内でも、CTやMRIは生体の軸位断画像を比較的狭い間隔で取得して表示できるので、生体の病変部位の発見や評価に大きな成果を上げている。ここで、軸位断画像とは、被検体の体軸に直交又はほぼ直交する面(所謂、輪切り面)が表された断層像のことをいう。以下において、軸位断画像のことを、単にスライス画像とも言う。
ところで、CT検査等の断層撮像を行う際には、1回の検査において、必ずしも1部位のみ(例えば、胸部のみ、腹部のみ等)が撮像されるのではなく、複数の部位に渡って(例えば、胸部〜腹部、頭部〜胸部等)撮像が行われることが多い。そして、撮像によって得られた一連(1シリーズ)のスライス画像は、通常、千数百枚〜数千枚に上るので、読影医が所望する部位のスライス画像を表示させるための手間や負担はかなり大きい。
関連する技術として、本出願人は、利用者によって指定された断面画像を再現表示することが可能な画像表示装置を提案した(下記の特許文献1参照)。この画像表示装置は、被写体を表す3次元の医用画像データに基づき、表示する断面画像の断面を該断面に垂直な方向を軸として移動させながら、軸の方向に連続的な複数の断面画像を順次表示する画像表示装置において、順次表示される複数の断面画像のうち、利用者の所望する断面画像を指定する指定手段と、該指定手段によって指定された断面画像の該断面に垂直な方向の位置を含む、断面画像の表示のための第1の表示パラメータを記憶する第1の記憶手段と、利用者の要求に応じて、第1の記憶手段が記憶した第1の表示パラメータに基づき、指定された断面画像を表示する第1の画像表示手段とを備えている(第2頁、図2)。即ち、特許文献1においては、利用者が所望する断面画像を指定し、指定された断面画像の表示のための第1の表示パラメータを記憶し、記憶した第1の表示パラメータに基づき、指定された断面画像を表示している。
特許文献1においては、利用者が所望する断面画像を指定する必要があるが、1シリーズのスライス画像は、通常、千数百枚〜数千枚に上るので、利用者が所望するスライス画像を指定するための手間や負担は大きい。
また、関連する技術として、特許文献2には、医用画像から画像処理によって自動的に撮像装置、部位、撮像方向等の撮像属性情報を抽出して管理情報に付加し、膨大な量の医用画像の効率的な管理を可能にするためのシステムが開示されている。この医用画像識別システムは、医用画像を記憶・管理するシステムであって、入力画像を分類する手段と、該分類ごとに識別すべきカテゴリに関するテンプレート画像を記憶するテンプレート画像記憶手段と、該テンプレート画像記憶手段から、入力画像の分類結果を用いて識別の候補となる複数のカテゴリのテンプレート画像を選択する手段と、選択されたテンプレート画像と入力画像とを比較し、最もよく一致するテンプレート画像のカテゴリを判定する画像識別手段と、上記テンプレート画像が有する管理情報を入力画像の管理情報に付加する手段とを有している(第2頁、図1)。即ち、特許文献2においては、入力画像のサイズや入力画像における矩形領域の数等に基づいて入力画像を分類し、その分類に応じて複数のカテゴリのテンプレート画像を選択し、選択されたテンプレート画像の内から、入力画像の濃淡情報やそのモザイク画像に一致するものを抽出し、そのテンプレート画像に付与されていた管理情報(例えば、撮像部位)を入力画像の管理情報として付与することにより、入力画像の撮像部位等を判断している。
しかしながら、1枚の医用画像には、常に1つの部位のみが表されているわけではない。例えば、画像の一部の領域には胸部が表示されており、別の一部の領域には腹部が表示されているというように、複数部位が表示されていることも多い。ところが、特許文献2には、複数部位が表示された画像に対する部位認識については一切記載されていない。
特開2004−167042号公報(第2頁、図2) 特開2002−253539号公報(第2頁、図1)
そこで、上記の点に鑑み、本発明は、CTやMRI等のモダリティによって被検体を撮像検査することにより取得された1シリーズの軸位断画像の内のユーザが所望する部位の軸位断画像を容易に表示することが可能な装置と、そのような装置において用いられるプログラムとを提供することを目的とする。
上記課題を解決するため、本発明の1つの観点に係る医用画像表示処理装置は、被検体を撮像検査することによって得られた1シリーズの軸位断画像を表す画像データに基づいて軸位断画像を表示部に表示させる装置であって、1シリーズの軸位断画像の各々に表された体部の部位を認識する部位認識手段と、1シリーズの軸位断画像に含まれている1つの軸位断画像を表示部に表示させると共に、部位変更指示を受けた場合に、部位認識手段による認識結果に基づいて、表示部に表示されている軸位断画像の部位と異なる部位を表す軸位断画像を表示部に表示させる表示処理手段とを具備する。
また、本発明の1つの観点に係る医用画像表示処理プログラムは、被検体を撮像検査することによって得られた1シリーズの軸位断画像を表す画像データに基づいて軸位断画像を表示部に表示させるためのプログラムであって、1シリーズの軸位断画像の各々に表された体部の部位を認識する手順(a)と、1シリーズの軸位断画像に含まれている1つの軸位断画像を表示部に表示させる手順(b)と、部位変更指示を受けた場合に、手順(a)における認識結果に基づいて、表示部に表示されている軸位断画像の部位と異なる部位を表す軸位断画像を表示部に表示させる手順(c)とをCPUに実行させる。
本発明によれば、軸位断画像について部位認識を行い、その認識結果に基づいて、ユーザが所望する部位の軸位断画像を表示することができる。これにより、ユーザの手間や負担を軽減することが可能となる。
以下、本発明を実施するための最良の形態について、図面を参照しながら詳しく説明する。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
図1は、本発明の第1の実施形態に係る医用画像表示処理装置を含む医用画像撮影システムの構成を示すブロック図である。この医用画像撮影システムは、被検体について医用画像の撮像検査を行うモダリティ1と、本発明の第1の実施形態に係る医用画像表示処理装置としての画像サーバ2と、画像表示端末3と、読影用端末4とを含んでいる。これらの装置1〜4は、DICOM(Digital Imaging and Communications in Medicine)規格に準拠している。
モダリティ1は、CT装置1aや、CR(computed radiography)装置1bや、MRI装置1cや、PET装置1dや、超音波診断装置(US)1e等の医用画像撮像装置を含んでいる。これらのモダリティ1a〜1eは、撮像検査を行うことにより画像データを生成して、画像付帯情報と共に画像サーバ2に出力する。
画像サーバ2は、モダリティ1によって取得された画像データを保管及び管理するPACS(Picture Archiving and Communication System:医用画像情報システム)用のサーバである。画像サーバ2は、後述する読影用端末4の要求に従って、画像データを画像表示端末3に出力する。
図1に示すように、画像サーバ2は、制御部11と、部位認識部12と、格納部13と、表示処理部14と、初期表示スライス情報格納部15とを有している。制御部11、部位認識部12、及び、表示処理部14は、例えば、CPU(中央演算処理装置)と本実施形態に係る医用画像表示処理プログラムによって構成されている。
制御部11は、モダリティ1から出力された画像データを格納部13に格納させる。また、制御部11は、入力された画像データによって表される画像の方向(軸位断(axial)、冠状断(coronal)、矢状断方向(sagittal)等)を確認し、軸位断方向である場合には、その画像データを部位認識部12にも出力する。なお、画像の方向は、例えば、DICOMタグ(0020,0037):Image Orientation(Patient)、又は、(0020,0020):Patient Orientationが付された画像付帯情報によって取得される。
部位認識部12は、1シリーズの画像データによって表される複数の軸位断画像(以下において、「スライス画像」ともいう)に基づいて、各軸位断画像に被検体のどの部位が表されているかを認識する。そして、認識結果(部位)を含む情報(部位情報)を生成し、画像データに関連付けて格納部13に格納させる。部位は、例えば、「Head(頭)」、「Neck(頸)」、「Chest(胸)」等のように、文字列によって示されても良いし、1:head、2:neck、3:chest等のように、予めコード化された整数値によって示されても良い。
格納部13は、例えば、画像サーバ2に内蔵されているハードディスクドライブであり、制御部11の制御の下で、画像データ及びその画像付帯情報や、部位認識部12によって生成された部位情報や、部位認識部12を動作させるための制御プログラム等を格納する。なお、記録媒体としては、ハードディスクの他に、MO、MT、RAM、CD−ROM、又は、DVD−ROM等を用いても良く、その場合には、それらの記録媒体を駆動する駆動装置が、画像サーバ2に内蔵され、又は、画像サーバ2の外部に接続される。
表示処理部14は、ユーザが所望する部位を指示するための表示部位指示情報やユーザが所望するスライス画像を指示するための表示スライス画像指示情報を読影用端末4から受信し、1シリーズの画像データによって表される複数のスライス画像の中の表示部位指示情報や表示スライス画像指示情報に応じた部位のスライス画像を画像表示端末3に表示させる。
初期表示スライス情報格納部15は、初期(例えば、ユーザ(読影医)が読影用端末4を操作して読影を開始したとき等)において表示処理部14が画像表示端末3に表示させるスライス画像を決定するための初期表示スライス情報を格納する。初期表示スライス情報は、スライス番号(例えば、「1」(1シリーズの軸位断画像の内の第1番目のスライス画像を表す)等)であっても良いし、部位(例えば、「腹部上端」等)であっても良い。初期表示スライス情報が初期表示スライス情報格納部15に格納されていない場合には、表示処理部14が、1シリーズの軸位断画像の内のいずれかの軸位断画像を表示するようにしても良い。なお、初期表示スライス情報は、読影用端末4から書き込み又は更新可能としても良い。また、格納部13と初期表示スライス情報格納部15とを1つの記録媒体で実現することとしても良い。
画像表示端末3は、検査画像が表示される端末装置であり、高精細なディスプレイを備えている。なお、図1に示す画像表示端末3の画面3aには、複数の軸位断画像が模式的に示されている。
読影用端末4は、ユーザ(読影医)が、画像表示端末3に表示された検査画像を参照しながら読影レポート等を作成するために用いられる装置であり、読影レポート等を表示する画面4aや、キーボード等の入力デバイス4b等を備えている。
次に、図1に示す部位認識部12の構成及び動作について、図2〜図4を参照しながら説明する。
図2は、図1に示す部位認識部12の機能を示すブロック図である。図2に示すように、部位認識部12は、特徴量計算部21と、部位確信度計算部22と、スコアテーブル記憶部22aと、部位決定処理部23と、部位情報記憶部24と、部位修正処理部25とを含んでいる。この内の特徴量計算部21〜部位決定処理部23は、各スライス画像について、そこに表された部位を暫定的に決定するように動作し、部位修正処理部25は、複数のスライス画像の部位情報に基づいて、各スライス画像について暫定的に決定された部位を修正するように動作する。なお、スライス画像の部位情報については後述する。
図3は、部位認識部12の動作を示すフローチャートである。制御部11(図1)において軸位断画像を表すものであると判断された画像データが部位認識部12に入力されると、以下に説明する部位認識動作が開始される。
ステップS1において、画像データ及びその画像付帯情報は、1スライス分ごとに、特徴量計算部21に入力される。ここで、画像付帯情報には、画像の方向を表す情報((0020,0037):Image Orientation(Patient)、又は、(0020,0020):Patient Orientation)や、1画素のピッチを表す情報((0028,0030):Pixel Spacing)や、スライスの厚さを表す情報((0018,0050):Slice Thickness)や、1行及び1列に含まれる画素数を表す情報((0028,0010):Raws、及び、(0028,0011):Columns)や、画像の左上位置の3次元座標を表す情報((0020,0032):Image Position(Patient))等が含まれる。ここで、括弧内は、各情報のDICOMタグ及び属性名を示している。
ステップS2において、特徴量計算部21は、1つのスライス画像について特徴量を算出する。ここで、特徴量とは、スライス画像に表された体部の特徴を数値化したものである。特徴量は、例えば、次の(a)に示すように、スライス画像に表された体部の形状に基づいて算出される。また、各画素データの値(即ち、画素の輝度)が体部の特性(組織性状等)に対応している場合には、次の(b)や(c)に示すように、その値に応じて特徴量を算出しても良い。例えば、CT画像における画素データの値はCT値によって決定されるが、この値は、体部を透過した放射線量を表す物理量である。なお、水のCT値は0HUであり、空気領域のCT値は−1000HU程度であり、骨領域のCT値は250HU〜3000HU程度である。
(a)体部全体の円形度
円形度ρは、対象領域の面積S及びその周囲の長さLを用いて、次式(1)によって算出される。
ρ=4πS/L …(1)
円形度ρは、対象領域の形状が真円に近づくほど1.0に近づき、形状が真円から離れるほど(例えば、楕円率が1から離れるほど)小さくなる。例えば、対象領域が頭部である場合には、円形度は比較的高くなる。反対に、対象領域が胸部や腹部である場合には、円形度は比較的低くなる。
(b)空気領域特徴量:(空気領域を示すCT値の画素数)/(体部全体の画素数)
例えば、対象領域が胸部である場合には、肺が存在しているために空気領域は比較的広くなる。反対に、対象領域が頭部である場合には、空気領域はほぼゼロとなる。
(c)骨領域特徴量:(骨領域を示すCT値の画素数)/(体部全体の画素数)
例えば、対象領域が腹部である場合には、体部全体に対する骨部の領域は比較的狭い範囲となる。反対に、対象領域が脚部である場合には、体部全体に対して骨部が多くの割合を占める。
次に、ステップS3において、部位確信度計算部22は、特徴量計算部21によって計算された特徴量に基づいて、部位確信度を算出する。ここで、部位確信度とは、対象部位が、「ある部位」である可能性(「頭部」らしさ、「胸部」らしさ等)を数値化したものである。本実施形態において、部位確信度は、予め用意されているスコアテーブルを用いて算出される。
図4は、部位確信度の算出に用いられるスコアテーブルの例を示している。このスコアテーブルは、空気領域特徴量(空気量)の値に基づいて、「頭部」らしさ、「胸部」らしさ、「腹部」らしさ、及び、「脚部」らしさを求める際に用いられる。この他に、部位の項目として、「骨盤部」を挙げても良い。また、隣接する2つの部位の境界(境界領域)や、複数の部位が混在している領域(混在領域、例えば、頭部と頸部、又は、胸部と腹部等)を示す項目(例えば、「頭頸部」又は「胸腹部」)を挙げても良い。
例えば、あるCT画像に表された体部の空気領域特徴量が60%である場合に、スコアテーブルにおいて60%が含まれる「40〜80%」の欄を参照すると、その体部の「頭部」らしさのスコアは−1.0であり、「胸部」らしさのスコアは0.8であり、「腹部」らしさのスコアは−0.2であり、「脚部」らしさのスコアは−1.0であることがわかる。
このようなスコアテーブルは、特徴量ごとに作成され、スコアテーブル記憶部22aに記憶されている。スコアテーブルは、統計に基づいて作成されても良いし、ユーザ(医師等)の経験等に基づいて意図的に作成されても良い。
部位確信度計算部22は、そのようなスコアテーブルを参照することによって、各特徴量について各「部位」らしさのスコアを求め、それらのスコアを部位ごとに加算する。そのようにして得られた部位ごとのスコアの総和が、部位確信度となる。
再び図3を参照すると、ステップS4において、部位決定処理部23は、ステップS3において得られた部位確信度の内で値が最も大きいものを、そのスライス画像に表された体部の部位として仮決定する。その際に、部位確信度の値が大きい部位が複数あり、それらの差が所定の範囲内(例えば、10%以内)である場合には、両方の部位を採用しても良い。例えば、胸部と腹部の部位確信度が大きい場合には、そのスライスの部位を「胸部」又は「腹部」とする。或いは、境界領域又は混在領域を示す項目(例えば、「胸腹部」)がある場合には、それを採用しても良い。
ステップS5において、部位情報記憶部24は、ステップS2において得られた特徴量や、ステップS3において得られた部位確信度や、ステップS4において仮決定された部位を、そのスライス画像の部位情報(部位に関する情報)として保存する。なお、特徴量については、必ずしも全てを記憶しておく必要はなく、所定の特徴量(例えば、後述するステップS8において用いられる特徴量)のみを保存するようにしても良い。
このようなステップS1〜S5の動作は、1シリーズに含まれる全てのスライス画像について行われる(ステップS6)。
全てのスライス画像についての部位情報が得られると、ステップS7において、部位修正処理部25は、部位情報記憶部24に保存されている部位情報を、スライス順に整列する。モダリティ1(図1)において生成された画像データは、画像サーバ2にスライス順に送信されるとは限らないからである。なお、スライスの順序は、画像付帯情報の内の画像位置情報((0020,0032):Image Position (Patient))に基づいて判断される。或いは、ステップS7の替わりに、部位情報記憶部24が、ステップS5において、画像位置情報に基づいて部位情報をスライス順に整列しながら保存するようにしても良い。
次に、ステップS8において、部位修正処理部25は、各スライスについて仮決定された部位を、複数のスライス画像の部位情報を用いて修正する。修正方法としては、例えば、次の(1)〜(3)に示す方法が挙げられる。
(1)隣接スライスの部位情報を用いる方法
この方法は、隣接スライスの位置関係に基づいて、あるスライス画像について仮決定された部位を修正する方法である。
仮決定された部位が、例えば、第1〜第5スライスにおいて頸部(neck)、第6スライスにおいて頭部(head)、第7〜第10スライスにおいて頸部(neck)、第11〜第15スライスにおいて胸部(chest)、第16スライスにおいて脚部(leg)、第17〜第20スライスにおいて胸部(chest)、第21〜第30スライスにおいて腹部(abdomen)となっている場合について検討する。この場合に、第6スライスの前後のスライスにおいて頸部となっているので、第6スライスが頭部であるというのは認識誤りであり、正しくは頸部である。また、第16スライスの前後のスライスにおいては胸部となっているので、第16スライスが脚部であるというのは認識誤りであり、正しくは胸部である。このように、あるスライス画像について仮決定された部位が前後のスライス画像の部位と異なっている場合には、前後のスライス画像を参照することにより、そのスライス画像の部位が修正される。
(2)特徴量を用いる方法
この方法は、体軸方向における特徴量の変化に基づいて、あるスライス画像について仮決定された部位を修正する方法である。
図5の(a)は、空気領域特徴量をスライス位置(体軸方向)順に示す図であり、図5の(b)は、空気領域特徴量の微分値を示す図である。図5の(b)に示すように、空気領域特徴量の変化を被検体の上部(頭部側)から下部(脚部側)に向けて観察すると、空気領域特徴量が突然増加し始める部分が存在する。この部分を胸部の開始位置とする。また、さらに脚部側に向けて観察すると、空気領域特徴量が減少から増加に転じる部分が存在する。この部分を胸部と腹部の境界とする。そして、胸部の開始位置から胸部と腹部との境界との間に、胸部以外の部位が仮決定されているスライス画像が存在する場合には、そのスライス画像の部位が胸部に修正される。
(3)マッチングカーブを利用する方法
この方法は、被検体(例えば、人体)における部位の通常の配置を参照することにより、各スライス画像について仮決定された部位を修正する方法である。
まず、図6に示すように、各スライス画像について仮決定された部位を、被検体の上部(頭部側)から下部(脚部側)に向けてスライス順に配置する。図6に示すとおり、この部位認識結果には、頭部(Head)と頸部(Neck)とが交互に現れている領域や、胸部(Chest)の間に頸部が現れている領域が見られることから、仮決定された部位には多くの認識誤りが含まれるものと考えられる。
次に、図7に示すように、図6に示す部位認識結果と予め作成された参照部位との間のマッチングカーブを探索する。ここで、人体の部位は、頭部→頸部→胸部→腹部の順に配置されているので、図7の縦軸に示すように、それらの部位がこのような順序で配置された参照部位を予め作成しておく。
マッチングカーブを探索する際には、部位認識結果と参照部位とが不一致である場合にコストがかかるようにし、コストが最小となるようなカーブを求める。探索手法としては、最適化問題を解くための様々な手法を適用することができる。以下に、その1つとして良く知られている動的計画法(dynamic programming)を用いたマッチングカーブの探索方法を説明する。
まず、図8に示すような重みマップを作成する。図8において、列はスライス番号に対応しており、行は部位に対応している。この重みマップにおいて、仮決定されている部位は、重みがゼロになるように設定されている(太枠の領域)。例えば、図6を参照すると、最初のスライスは頭部と仮決定されているので、重みマップにおけるスライス番号1の頭部(Head)のセルの値は「0.0」となっている。また、それ以外のセルについては、ゼロより大きい値が設定される。具体的には、各スライス画像について確信度が算出されている場合には、その確信度と仮決定された部位の確信度との差の値を設定しても良いし、それとは異なる所定の値の値を設定しても良い。
次に、図9に示すようなコストマップを作成する。図9において、各セル(n,m)のコストは次のように設定される。ここで、nはスライス番号を示しており、mは部位番号(1:Head、2:Neck、3:Chest、4:Abdomen)を示している。
(1,1):重みマップにおける(1,1)の値(図8参照)
(n,1):重みマップにおける(n−1,1)の値+所定の値
(1,m):重みマップにおける(1,m−1)の値+所定の値
(n,m):次の(i)〜(iii)の内の最小値
(i)コストマップにおける(n−1,m−1)の値
+重みマップにおける(n,m)の値
(ii)コストマップにおける(n,m−1)の値
+重みマップにおける(n,m)の値+所定の値
(iii)コストマップにおける(n−1,m)の値
+重みマップにおける(n,m)の値+所定の値
次に、コストマップを、右側から左側に向かって、周辺の最小値を順次辿って行く。それにより、スライス番号と部位との対応マップが作成される。
図7に示すように、そのようにして得られたマッチングカーブに基づいて、仮決定された部位を参照部位における対応部位に置き換えることにより、部位の修正が行われる。
再び、図3を参照すると、ステップS8において、部位修正処理部25は、修正後の部位情報を画像付帯情報として格納部13に出力して保存させる。部位認識部12から出力された部位情報は、画像情報データベースによって管理するようにしても良いし、格納部13に既に格納されている画像データに、タグとして書き込むようにしても良い。
以上説明したように、本実施形態においては、1シリーズに含まれる複数のスライス画像の各々について部位認識を行った後で、複数スライスに関する部位情報の相互関係を用いて、各スライスの部位情報を修正する。このように、2つの段階を経て部位認識を行う利点は、次の通りである。即ち、1シリーズの全ての画像データがサーバ2に入力されるのを待つことなく、入力されたスライス順に部位認識処理を開始できるので、比較的高速に部位認識結果を得ることができる。また、各スライスについて得られた部位認識結果を、複数のスライス画像の集合によって表される被検体の3次元情報に基づいて修正するので、大きな部位認識誤りを低減することができる。従って、効率良く、且つ、正確な部位認識を行うことが可能となる。
ここで、本実施形態において、部位認識部12(図2)は、入力された全てのスライス画像について部位認識処理を行っている。しかしながら、部位認識処理を開始する前にDICOMタグを参照し、撮像部位を表す情報((0018,0015):Body Part)が存在しないスライス画像のみに対して部位認識処理を行うようにしても良い。撮像段階において部位が付される場合もあるからである。
或いは、部位認識部12は、連続して入力されるスライス画像に対して、所定のスライス間隔で間引きしながら部位認識処理を行うようにしても良い。その場合には、全体として処理を高速化することが可能となる。さらに、部位認識部12は、連続して入力されるスライス画像の内の所定の範囲についてのみ、部位認識処理を行うようにしても良い。例えば、診断対象が被検体の腹部である場合には、腹部の開始領域(又は、胸部及び腹部の混在領域)が認識できれば良い。その場合には、例えば、スライス画像の3次元座標を表す情報(DICOMタグ(0020,0032):Image Position(Patient))から判断して明らかに脚部と考えられる範囲については、部位認識処理を省略しても良い。
また、本実施形態においては、ステップS3及びS4においてスライスに表された体部の部位を仮決定する際に、スコアテーブルを用いているが、その替わりに、ニューラルネットワーク等の機械学習法を利用して部位を認識しても良い。
ここで、ニューラルネットワークを利用して部位を仮決定する方法を説明する。
図10に示すように、スライス画像に表された体部の特徴量(例えば、ステップS2において説明した特徴量(a)〜(c))を、ニューラルネットに入力する。そして、そのスライス画像に表された部位に一致する部位に対して1を出力し、それ以外の部位に対してゼロを出力するように、ニューラルネットを学習させる。例えば、スライス画像に頭部が表されている場合には、「Head」の出力を1とし、「Neck」、「Chest」及び「Abdomen」の出力をゼロとする。このように学習させたニューラルネットを利用することにより、入力された特徴量に対応する部位が取得される。
また、本実施形態においては、部位認識部12が、1シリーズに含まれる複数のスライス画像の各々について部位認識を行った後で複数スライスに関する部位情報の相互関係を用いて各スライスの部位情報を修正することとしているが、テンプレート画像とスライス画像とを比較することで部位を認識する(上記した特許文献2参照)ようにしても良い。
次に、図1に示す表示処理部14の動作について、図11を参照しながら説明する。
図11は、図1に示す表示処理部14の動作を示すフローチャートである。
ステップS11において、表示処理部14は、初期表示スライス情報格納部15から初期表示スライス情報を読み出し、初期表示スライス情報によって決定されるスライス画像を表示するための画像データを格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる。
ステップS12において、表示処理部14は、表示部位指示情報を読影用端末4から受信したか否かをチェックし、表示部位指示情報を読影用端末4から受信した場合には、処理をステップS13に移し、表示部位指示情報を読影用端末4から受信していない場合には、処理をステップS14に移す。
ステップS13において、表示処理部14は、表示部位指示情報に応じた部位のスライス画像を表示するための画像データを格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる。
一方、ステップS14において、表示処理部14は、表示スライス指示情報を読影用端末4から受信したか否かをチェックし、表示スライス指示情報を読影用端末4から受信した場合には、処理をステップS15に移し、表示スライス指示情報を読影用端末4から受信していない場合には、処理をステップS12に戻す。
ステップS15において、表示処理部14は、表示スライス指示情報に応じたスライス画像を表示するための画像データを格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる。
次に、表示処理部14の動作について、具体例を挙げて説明する。ここでは、格納部13に格納されている1シリーズの画像データが、第1〜第20の画像データを含むものとする。そして、部位認識部12が、第1〜第10の画像データが胸部のスライス画像を表す画像データであり、第11〜第20の画像データが腹部のスライス画像を表す画像データであると部位認識したものとする。そして、初期表示スライス情報格納部15には、初期表示スライス情報としてスライス番号「15」が格納されているものとする。
この場合に、表示処理部14は、初期において、第15の画像データ(腹部のスライス画像を表す)を格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる(ステップS11参照)。
ここで、ユーザ(読影医)が、所定の第1のキー(例えば、カーソル上方向移動キー(「↑」キー)等)を押下すると(ステップS12参照)、表示処理部14が、現在表示されているスライス画像の部位である腹部の上部において隣接する部位である胸部の下端部のスライス画像を表示するための画像データ(ここでは、第10の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(胸部)を画像表示端末3に表示させる(ステップS13参照)。
次に、ユーザが、所定の第2のキー(例えば、カーソル左方向移動キー(「←」キー)等)を押下すると(ステップS14参照)、表示処理部14が、現在表示されているスライス画像(第10の画像データに基づく)の1つ上のスライス画像を表示するための画像データ(ここでは、第9の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(胸部)を画像表示端末3に表示させる(ステップS15参照)。
次に、ユーザが、所定の第3のキー(例えば、カーソル下方向移動キー(「↓」キー)等)を押下すると(ステップS12参照)、表示処理部14が、現在表示されているスライス画像の部位である胸部の下部において隣接する部位である腹部の上端部のスライス画像を表示するための画像データ(ここでは、第11の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(腹部)を画像表示端末3に表示させる(ステップS13参照)。
次に、ユーザが、所定の第4のキー(例えば、カーソル右方向移動キー(「→」キー)等)を押下すると(ステップS14参照)、表示処理部14が、現在表示されているスライス画像(第11の画像データに基づく)の1つ下のスライス画像を表示するための画像データ(ここでは、第12の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(腹部)を画像表示端末3に表示させる(ステップS15参照)。
以上説明したように、本実施形態によれば、1シリーズに含まれる複数のスライス画像の各々について部位認識を行い、この部位認識結果に基づいて、ユーザ(読影医)が所望する部位のスライス画像を画像表示端末3に表示させることができる。これにより、ユーザ(読影医)の負担を軽減することが可能となる。
なお、部位認識部12が、各部位の上端部及び/又は下端部を表す軸位断画像を識別するための識別情報を作成するようにしても良い。例えば、格納部13に格納されている1シリーズの画像データが第1〜第20の画像データを含んでおり、第1〜第10の画像データが胸部のスライス画像を表す画像データであり、第11〜第20の画像データが腹部のスライス画像を表す画像データである場合に、部位認識部12が、第10の画像データが胸部の下端部を表す画像データであり、第11の画像データが腹部の上端部を表す画像データであることを識別するための識別情報を作成するようにしても良い。この識別情報は、第10及び第11画像データに画像付帯情報又はタグとして付加されても良いし、画像データとは独立したデータとして格納部13に格納されても良い。このように識別情報が作成されることとすれば、胸部の下端部及び腹部の上端部のスライス画像を表す第10及び第11の画像データの読み出しを高速に行うことが可能となる。
本実施形態において、部位認識部12は、モダリティ1から直接画像サーバ2に入力された画像データについて部位認識処理を行っている。しかしながら、モダリティ1において生成された後で一旦記録媒体に格納された画像データを画像サーバ2に読み込むことにより、部位認識処理を行っても良い。また、表示処理部14が画像表示端末3に画像を表示する際に、部位認識処理を行っても良い。
次に、本発明の第2の実施形態に係る医用画像表示処理装置について説明する。
図12は、本実施形態に係る医用画像表示処理装置を含む医用画像撮影システムの構成を示すブロック図である。この医用画像撮影システムは、モダリティ1と、本発明の第2の実施形態に係る医用画像表示処理装置としての画像サーバ60と、画像表示端末3と、読影用端末4とを含んでいる。これらの装置1、3、4、及び、60は、DICOM規格に準拠している。
画像サーバ60は、モダリティ1によって取得された画像データを保管及び管理するPACS用のサーバである。画像サーバ60は、後述する読影用端末4の要求に従って、画像データを画像表示端末3に出力する。
図12に示すように、画像サーバ60は、先に説明した制御部11、部位認識部12、格納部13、表示処理部14、及び、初期表示スライス情報格納部15に加えて、シェーマ(Schema)表示処理部16を更に有している。シェーマ表示処理部16は、例えば、CPUと制御プログラムによって構成されている。
シェーマ表示処理部16は、人体を模式的に表すシェーマを画像表示端末3に表示させる。ユーザ(読影医)は、画像表示端末3に表示されたシェーマにおいて、所望の部位を選択することができる。
次に、図12に示す表示処理部14及びシェーマ表示処理部16の動作について、図13を参照しながら説明する。
図13は、図12に示す表示処理部14及びシェーマ表示処理部16の動作を示すフローチャートである。
ステップS21において、シェーマ表示処理部16は、シェーマを画像表示端末3に表示させる。
ステップS22において、表示処理部14は、初期表示スライス情報格納部15から初期表示スライス情報を読み出し、初期表示スライス情報によって決定されるスライス画像を表示するための画像データを格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる。
ステップS23において、表示処理部14は、表示部位指示情報を読影用端末4から受信したか否かをチェックし、表示部位指示情報を読影用端末4から受信した場合には、処理をステップS24に移し、表示部位指示情報を読影用端末4から受信していない場合には、処理をステップS25に移す。
ステップS24において、表示処理部14は、表示部位指示情報に応じた部位のスライス画像を表示するための画像データを格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる。
一方、ステップS25において、表示処理部14は、表示スライス指示情報を読影用端末4から受信したか否かをチェックし、表示スライス指示情報を読影用端末4から受信した場合には、処理をステップS26に移し、表示スライス指示情報を読影用端末4から受信していない場合には、処理をステップS23に戻す。
ステップS26において、表示処理部14は、表示スライス指示情報に応じたスライス画像を表示するための画像データを格納部13から読み出し、読み出した画像データに基づくスライス画像を画像表示端末3に表示させる。
次に、表示処理部14及びシェーマ表示処理部16の動作について、具体例を挙げて説明する。ここでは、格納部13に格納されている1シリーズの画像データが、第1〜第45の画像データを含むものとする。そして、部位認識部12が、第1〜第5の画像データが頸部のスライス画像を表す画像データであり、第6〜第25の画像データが胸部のスライス画像を表す画像データであり、第26〜第35の画像データが胸腹部のスライス画像を表す画像データであり、第36〜第45の画像データが腹部のスライス画像を表す画像データであると部位認識したものとする。そして、初期表示スライス情報格納部15には、初期表示スライス情報として「1シリーズのスライス画像の内の最後のスライス画像」(ここでは、第45の画像データに基づくスライス画像(腹部)に相当)が格納されているものとする。
図14は、画像表示端末3の表示画面の例を示す図である。図14に示すように、画像表示端末3の表示画面3aの領域71内には、シェーマ72が表示されている(ステップS21参照)。本実施形態においては、格納部13に格納されている1シリーズの画像データが被検体の頸部〜腹部を撮像して得られたものであると部位認識されているので、シェーマ72の頸部〜腹部が、強調表示(ここでは、ハッチング)されている。また、シェーマ72の頭部と頸部との境界、頸部と胸部との境界、胸部と胸腹部との境界、胸腹部と腹部との境界、腹部と骨盤部との境界、及び、骨盤部と脚部との境界の図中右方向には、ボタン73a〜73fが、それぞれ表示されている。本実施形態においては、被検体の頸部と胸部との境界、胸部と胸腹部との境界、及び、胸腹部と腹部との境界が撮像されているので、これらの図中右方向に位置するボタン73b〜73dが、強調表示(ここでは、黒塗り表示)されている。一方、本実施形態においては、被検体の頭部と頸部との境界、腹部と骨盤部との境界、及び、骨盤部と脚部との境界は撮像されていないので、ボタン73a、73e、及び、73fは、強調表示されていない。
また、画像表示端末3の表示画面3aの領域74内には、初期表示スライス情報格納部15に初期表示スライス情報として「1シリーズのスライス画像の内の最後のスライス画像」(ここでは、第45の画像データに基づくスライス画像(腹部)に相当)が格納されているので、第45の画像データに基づくスライス画像(腹部)が表示されている(ステップS22参照)。
ここで、ユーザ(読影医)が、ボタン73c(胸部と胸腹部との境界の図中右方向に位置)をクリックすると(ステップS23参照)、表示処理部14が、胸部の下端部のスライス画像を表示するための画像データ(ここでは、第25の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(胸部)を画像表示端末3の表示画面3aの領域74内に表示させる(ステップS24参照)。
図15は、このときの画像表示端末3の表示画面3aを示す図である。図15に示すように、画像表示端末3の表示画面3aの領域74内には、第25の画像データに基づくスライス画像(胸部)が表示されている。なお、ボタン73cがクリックされた場合に、表示処理部14が、胸腹部の上端部のスライス画像を表示するための画像データ(ここでは、第26の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(胸腹部)を画像表示端末3の表示画面3aの領域74内に表示させても良い。
また、ユーザが、ボタン73d(胸腹部と腹部との境界の図中右方向に位置)をクリックすると(ステップS23参照)、表示処理部14が、胸腹部の下端部のスライス画像を表示するための画像データ(ここでは、第35の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(胸腹部)を画像表示端末3の表示画面3aの領域74内に表示させる(ステップS24参照)。
図16は、このときの画像表示端末3の表示画面3aを示す図である。図16に示すように、画像表示端末3の表示画面3aの領域74内には、第35の画像データに基づくスライス画像(腹部)が表示されている。なお、ボタン73dがクリックされた場合に、表示処理部14が、腹部の上端部のスライス画像を表示するための画像データ(ここでは、第36の画像データ)を格納部13から読み出し、読み出した画像データに基づくスライス画像(腹部)を画像表示端末3の表示画面3aの領域74内に表示させても良い。
なお、所定のキー(例えば、カーソル移動キー等)が押下された場合における動作は、先に説明した第1の実施形態と同様である。
以上説明したように、本実施形態によれば、シェーマ72を画像表示端末3の表示画面3aの領域71内に表示させ、シェーマ72においてユーザが選択した部位を表すスライス画像を画像表示端末3の表示画面3aの領域74内に表示させることができる。これにより、ユーザ(読影医)の負担を軽減することが可能となる。
本発明は、医療用撮像モダリティによって取得された画像データに基づいて軸位断画像を表示するための医用画像表示処理装置、及び、そのような装置において用いられる医用画像表示処理プログラムにおいて利用することが可能である。
本発明の第1の実施形態に係る医用画像表示処理装置を含む医用画像撮影システムの構成を示す図である。 図1に示す部位認識部の機能を示すブロック図である。 図1に示す部位認識部の動作を示すフローチャートである。 空気領域特徴量を用いた部位確信度スコアテーブルを示す図である。 空気領域特徴量及びその微分値を示す図である。 仮決定された部位(部位認識結果)をスライス順に配置した図である。 部位認識結果と参照部位との間のマッチングカーブを示す図である。 動的計画法によるマッチングカーブの探索に用いられる重みマップである。 動的計画法によるマッチングカーブの探索に用いられるコストマップである。 ニューラルネットを利用した部位の仮決定方法を説明するための図である。 図1に示す表示処理部の動作を示すフローチャートである。 本発明の第2の実施形態に係る医用画像表示処理装置を含む医用画像撮影システムの構成を示す図である。 図12に示す表示処理部及びシェーマ表示処理部16の動作を示すフローチャートである。 図12に示す画像表示端末に表示される画像の例を示す図である。 図12に示す画像表示端末に表示される画像の例を示す図である。 図12に示す画像表示端末に表示される画像の例を示す図である。
符号の説明
1 モダリティ
1a コンピュータ断層撮影(CT)装置
1b コンピュータ放射線撮影(CR)装置
1c 磁気共鳴撮像(MRI)装置
1d ポジトロン断層撮影(PET)装置
1e 超音波撮像(US)装置
2、60 画像サーバ
3 画像表示端末
3a、4a 画面
4 読影用端末
4b 入力デバイス
11 制御部
12 部位認識部
13 格納部
14 表示処理部
15 初期表示スライス情報格納部
16 シェーマ表示処理部
21 特徴量計算部
22 部位確信度計算部
22a スコアテーブル記憶部
23 部位決定処理部
24 部位情報記憶部
25 部位修正処理部
71、74 領域
72 シェーマ
73a〜73f ボタン

Claims (12)

  1. 被検体を撮像検査することによって得られた1シリーズの軸位断画像を表す画像データに基づいて軸位断画像を表示部に表示させる装置であって、
    1シリーズの軸位断画像の各々に表された体部の部位を認識する部位認識手段と、
    1シリーズの軸位断画像に含まれている1つの軸位断画像を前記表示部に表示させると共に、部位変更指示を受けた場合に、前記部位認識手段による認識結果に基づいて、前記表示部に表示されている軸位断画像の部位と異なる部位を表す軸位断画像を前記表示部に表示させる表示処理手段と、
    を具備する医用画像表示処理装置。
  2. 前記部位認識手段が、隣接する2つの部位の境界部に位置する2つの軸位断画像を識別するための識別情報を作成し、
    前記表示処理手段が、部位変更指示を受けた場合に、前記識別情報を用いることにより、ユーザが所望する部位の境界部に位置する軸位断画像を前記表示部に表示させる、
    請求項1記載の医用画像表示処理装置。
  3. 前記表示処理手段が、部位変更指示を受けていない場合に、1シリーズの軸位断画像の内の予め設定された初期表示情報に応じた軸位断画像を前記表示部に表示させる、請求項1又は2記載の医用画像表示処理装置。
  4. 部位選択のために人体を表すシェーマを前記表示部に表示させるシェーマ表示処理手段を更に具備し、
    前記表示処理手段が、前記シェーマにおいて選択された部位を表す軸位断画像を前記表示部に表示させる、
    請求項1〜3のいずれか1項記載の医用画像表示処理装置。
  5. 前記部位認識手段が、
    1シリーズの軸位断画像の各々に表された体部の部位を暫定的に決定する部位決定手段と、
    1シリーズの軸位断画像に関する情報に基づいて、前記部位決定手段により少なくとも1つの軸位断画像について暫定的に決定された部位を修正する部位修正手段と、
    を含む、請求項1〜4のいずれか1項記載の医用画像表示処理装置。
  6. 前記部位認識手段が、頭部と、頸部と、胸部と、腹部と、骨盤部と、脚部と、それらの内の隣接する2つの境界領域又はそれらの内の複数の領域を含む混在領域との内の少なくとも2つを部位として認識する、請求項1〜5のいずれか1項記載の医用画像表示処理装置。
  7. 被検体を撮像検査することによって得られた1シリーズの軸位断画像を表す画像データに基づいて軸位断画像を表示部に表示させるためのプログラムであって、
    1シリーズの軸位断画像の各々に表された体部の部位を認識する手順(a)と、
    1シリーズの軸位断画像に含まれている1つの軸位断画像を前記表示部に表示させる手順(b)と、
    部位変更指示を受けた場合に、手順(a)における認識結果に基づいて、前記表示部に表示されている軸位断画像の部位と異なる部位を表す軸位断画像を前記表示部に表示させる手順(c)と、
    をCPUに実行させる医用画像表示処理プログラム。
  8. 手順(a)が、隣接する2つの部位の境界部に位置する2つの軸位断画像を識別するための識別情報を作成することを含み、
    手順(c)が、部位変更指示を受けた場合に、前記識別情報を用いることにより、ユーザが所望する部位の境界部に位置する軸位断画像を前記表示部に表示させることを含む、
    請求項7記載の医用画像表示処理プログラム。
  9. 手順(b)が、1シリーズの軸位断画像の内の予め設定された初期表示情報に応じた軸位断画像を前記表示部に表示させることを含む、請求項7又は8記載の医用画像表示処理プログラム。
  10. 部位選択のために人体を表すシェーマを前記表示部に表示させる手順(b')をさらにCPUに実行させ、
    手順(c)が、前記シェーマにおいて選択された部位を表す軸位断画像を前記表示部に表示させる手順を含む、請求項7〜9のいずれか1項記載の医用画像表示処理プログラム。
  11. 手順(a)が、
    1シリーズの軸位断画像の各々に表された体部の部位を暫定的に決定する手順(a1)と、
    1シリーズの軸位断画像に関する情報に基づいて、手順(a1)において少なくとも1つの軸位断画像について暫定的に決定された部位を修正する手順(a2)と、
    を含む、請求項7〜10のいずれか1項記載の医用画像表示処理プログラム。
  12. 手順(a)が、頭部と、頸部と、胸部と、腹部と、骨盤部と、脚部と、それらの内の隣接する2つの境界領域又はそれらの内の複数の領域を含む混在領域との内の少なくとも2つを部位として認識することを含む、請求項7〜11のいずれか1項記載の医用画像表示処理プログラム。
JP2006181608A 2006-06-30 2006-06-30 医用画像表示処理装置、及び、医用画像表示処理プログラム Withdrawn JP2008006187A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006181608A JP2008006187A (ja) 2006-06-30 2006-06-30 医用画像表示処理装置、及び、医用画像表示処理プログラム
US12/306,891 US8295568B2 (en) 2006-06-30 2007-06-26 Medical image display processing apparatus and medical image display processing program
PCT/JP2007/063205 WO2008001928A1 (fr) 2006-06-30 2007-06-26 Appareil d'affichage d'image médicale et programme d'affichage d'image médicale

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006181608A JP2008006187A (ja) 2006-06-30 2006-06-30 医用画像表示処理装置、及び、医用画像表示処理プログラム

Publications (1)

Publication Number Publication Date
JP2008006187A true JP2008006187A (ja) 2008-01-17

Family

ID=39064916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006181608A Withdrawn JP2008006187A (ja) 2006-06-30 2006-06-30 医用画像表示処理装置、及び、医用画像表示処理プログラム

Country Status (1)

Country Link
JP (1) JP2008006187A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010013379A1 (ja) * 2008-07-28 2010-02-04 株式会社日立メディコ 画像処理装置および方法
JP2010075403A (ja) * 2008-09-25 2010-04-08 Canon Inc 情報処理装置およびその制御方法、データ処理システム
JP2010246774A (ja) * 2009-04-16 2010-11-04 Fujifilm Corp 医療画像データ処理システムおよび医療画像データ処理方法および医療画像データ処理プログラム
JP2011024622A (ja) * 2009-07-21 2011-02-10 Toshiba Corp 医用システム
US8676298B2 (en) 2010-08-30 2014-03-18 Fujifilm Corporation Medical image alignment apparatus, method, and program
JPWO2021181731A1 (ja) * 2020-03-09 2021-09-16
JP7510495B2 (ja) 2020-03-09 2024-07-03 富士フイルム株式会社 表示制御装置、表示制御方法、及び表示制御プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010013379A1 (ja) * 2008-07-28 2010-02-04 株式会社日立メディコ 画像処理装置および方法
JP5228048B2 (ja) * 2008-07-28 2013-07-03 株式会社日立メディコ 画像処理装置および方法
JP2010075403A (ja) * 2008-09-25 2010-04-08 Canon Inc 情報処理装置およびその制御方法、データ処理システム
JP2010246774A (ja) * 2009-04-16 2010-11-04 Fujifilm Corp 医療画像データ処理システムおよび医療画像データ処理方法および医療画像データ処理プログラム
JP2011024622A (ja) * 2009-07-21 2011-02-10 Toshiba Corp 医用システム
US8676298B2 (en) 2010-08-30 2014-03-18 Fujifilm Corporation Medical image alignment apparatus, method, and program
JPWO2021181731A1 (ja) * 2020-03-09 2021-09-16
WO2021181731A1 (ja) * 2020-03-09 2021-09-16 富士フイルム株式会社 表示制御装置、表示制御方法、及び表示制御プログラム
US11983801B2 (en) 2020-03-09 2024-05-14 Fujifilm Corporation Display control apparatus, display control method, and display control program
JP7510495B2 (ja) 2020-03-09 2024-07-03 富士フイルム株式会社 表示制御装置、表示制御方法、及び表示制御プログラム

Similar Documents

Publication Publication Date Title
JP4855141B2 (ja) 医用画像部位認識装置、及び、医用画像部位認識プログラム
JP4800127B2 (ja) 医用画像分割装置、及び、医用画像分割プログラム
JP4800129B2 (ja) 医用画像表示処理装置、及び、医用画像表示処理プログラム
US20220199230A1 (en) Context driven summary view of radiology findings
JP5222082B2 (ja) 情報処理装置およびその制御方法、データ処理システム
US8334878B2 (en) Medical image processing apparatus and medical image processing program
US9144407B2 (en) Image processing device and method, and program
JP5178119B2 (ja) 画像処理装置および画像処理方法
US8295568B2 (en) Medical image display processing apparatus and medical image display processing program
EP2478833A1 (en) Medical image display device, method, and program
JP2008059071A (ja) 医用画像処理装置
JP2008259682A (ja) 部位認識結果修正装置、方法、およびプログラム
US10614335B2 (en) Matching of findings between imaging data sets
JP5355111B2 (ja) 診断支援装置及び診断支援方法
JP2008006187A (ja) 医用画像表示処理装置、及び、医用画像表示処理プログラム
JP5539478B2 (ja) 情報処理装置および情報処理方法
JP6258084B2 (ja) 医用画像表示装置、医用画像表示システムおよび医用画像表示プログラム
CN113329684A (zh) 注释支持装置、注释支持方法及注释支持程序
US20230005580A1 (en) Document creation support apparatus, method, and program
JP5784082B2 (ja) 診断支援装置及び診断支援方法
US20220391599A1 (en) Information saving apparatus, method, and program and analysis record generation apparatus, method, and program
US20240153072A1 (en) Medical information processing system and method
CN110709888B (zh) 信息处理装置和用于控制信息处理装置的方法
JP2009061028A (ja) 画像処理装置及びそれを備えた医用ワークステーション

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090901