JP2004358001A - Medical image processor, medical image processing method and program - Google Patents

Medical image processor, medical image processing method and program Download PDF

Info

Publication number
JP2004358001A
JP2004358001A JP2003161241A JP2003161241A JP2004358001A JP 2004358001 A JP2004358001 A JP 2004358001A JP 2003161241 A JP2003161241 A JP 2003161241A JP 2003161241 A JP2003161241 A JP 2003161241A JP 2004358001 A JP2004358001 A JP 2004358001A
Authority
JP
Japan
Prior art keywords
dimensional
region
image
predetermined
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003161241A
Other languages
Japanese (ja)
Other versions
JP3896349B2 (en
Inventor
Kazuhiko Matsumoto
和彦 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2003161241A priority Critical patent/JP3896349B2/en
Priority to US10/816,978 priority patent/US7639855B2/en
Publication of JP2004358001A publication Critical patent/JP2004358001A/en
Application granted granted Critical
Publication of JP3896349B2 publication Critical patent/JP3896349B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately extract a tubular tissue such as a blood vessel or the like in a medical image. <P>SOLUTION: This medical image processor 300 is constituted so as to acquire three-dimensional volume data from a modality 100 to designate the start point, end point and the like of a blood vessel to be extracted, to successively designate space regions centering around the designated start point, to convert the respective designated space regions to three-dimensional images while a continuous region is specified, to further set the threshold range of a CT value to change a threshold value within the set range and to calculate the change of the continuous region corresponding to a change in the threshold value to develop the unit blood vessel image in each of the respective space regions on the basis of the change ratio of the continuous region. Further, the medical image processor 300 is constituted so that the unit blood vessel images developed in the respective space regions are coupled to form the three-dimensional image showing the target blood vessel to display the same on a display device. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像診断等に用いる3次元医用画像を生成する医用画像処理装置、医用画像処理方法、および、プログラムに関し、特に、血管などの管状組織を表示するのに好適な医用画像処理装置、医用画像処理方法、および、プログラムに関する。
【0002】
【従来の技術】
従来より、例えば、CTスキャナやMRI装置などのモダリティ(撮像装置)で人体内部の断層(スライス)画像を撮像して疾病等の診断を行う画像診断が行われている。また、撮像された断層画像から、所定の臓器や器官などの3次元画像を生成して診断を行う手法なども確立しており、精緻かつ正確な診断に寄与している。特に、心臓周辺の冠状血管の3次元画像による診断は、心臓疾患の早期発見などに有用である。
【0003】
このような3次元画像診断においては、観察対象部位を抽出して診断することが多く行われるが、この場合、いわゆる「セグメント分割」と呼ばれる手法により所定部位が抽出されることが一般的である。しかしながら、例えば、血管(特に心臓周辺の冠状血管)などの管状組織をセグメント分割する場合、対象とする血管のみを抽出することは困難であった。
【0004】
血管組織をセグメント分割する手法が、例えば特許文献1に記載されている。ここでは、関心領域(すなわち、対象となる血管組織)を示す画素値と、関心領域外を示す画素値とからなる「二値マスク」を形成して、血管組織と他の組織とを峻別している。
【0005】
上記のような二値マスクを用いる手法においては、対象組織を示す画素値を決定すると、その値か否かで判別することになる。この場合、判別領域において対象とする血管のみが存在していれば問題なく抽出されるが、通常、他組織等(血管や器官、臓器、など)が近接している場合が多い。特に心臓周辺の冠状血管を対象とする場合、心臓や他の多くの血管が近接する。これらの近接物の構成物質は、対象血管とほぼ同一であるため、これらを示す画素値も類似したものになる。このように類似した画素値が近接している場合、二値マスクによる手法では、これらの値が一の値として処理されてしまうことがあり、対象としている血管を正確に抽出することができなかった。
【0006】
また、心臓から発生する冠状血管を、CTスキャナなどの撮像装置で取得されるCT値に基づいて画像化させる場合、通常、血管の発生地点から延伸するにしたがって、画像の明るさが次第に減少する。すなわち、血管の発生地点からの距離に応じて、画素値が略線形に遷移する近似が成り立つものといえる。この特性にしたがい、血管の発生部から抽出終端にわたって、画素値を線形に遷移させて適用する「多値マスク」を用いて対象血管を抽出する手法も考えられている。しかしながら、当該対象血管に心臓や他の血管が近接している場合や当該血管上に異常部位がある場合などでは、当該対象血管を示す画素値は単純に線形遷移しない。したがって、単に画素値を線形に遷移させて画像化しても、対象血管と近接物とが結合したり、対象血管が寸断されている画像となってしまうことがあり、正確な診断に寄与できる画像を得ることは困難であった。
【0007】
その他、例えば、特許文献2においては、注目点付近の平均濃度を検出することで、血管部位を検出する手法が開示されているが、対象血管に心臓や他の血管が近接している場合においては、有用な濃度値を得ることができないため、このような手法によっても血管部位を正確に抽出することは困難である。
【0008】
【特許文献1】
特開2002−282235号公報(第4〜5頁)
【特許文献2】
特開平8−89501号公報(第6頁)
【0009】
【発明が解決しようとする課題】
本発明は上記実状に鑑みてなされたもので、血管などの管状組織を正確に抽出できる医用画像処理装置、医用画像処理方法、および、プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するため、本発明の第1の観点にかかる医用画像処理装置は、生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータが示す所定の管状組織上の任意点を中心とした所定の3次元領域を指定する3次元領域指定手段と、
前記3次元ボリュームデータを用いて、当該3次元領域の3次元画像を生成する画像生成手段と、
前記画像生成手段によって生成される3次元画像を構成する前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域における前記管状組織のみを示す3次元画像を顕在化させる画像顕在化手段と、
前記画像顕在化手段が顕在化させた3次元画像を用いて、前記管状組織を示す所定の医用画像を生成する医用画像生成手段と、
を備えることを特徴とする。
【0011】
上記医用画像処理装置において、
前記画像顕在化手段は、
前記生成された3次元画像を構成する連続領域であって、当該3次元領域の中心を含んでいる連続領域を検出する連続領域検出手段と、
該連続領域検出手段が検出した連続領域と前記3次元領域とに基づいて、当該連続領域が前記管状組織のみを示すものであるか否かを判別する顕在化判別手段と、をさらに備えていることが望ましく、この場合、
前記顕在化判別手段により前記管状組織のみを示すと判別された連続領域を前記顕在化された3次元画像とすることができる。
【0012】
この場合、
前記連続領域検出手段は、前記特性情報の変化に応じた前記連続領域の変化を検出し、
前記顕在化判別手段は、該連続領域の変化に基づいて、当該連続領域が前記管状組織のみを示すものであるか否かを判別することが望ましい。
【0013】
上記医用画像処理装置において、
前記3次元領域指定手段は、前記任意点及び/又は前記顕在化された3次元画像に基づいて次に指定する3次元領域の中心を決定することで、複数の3次元領域を指定し、
前記医用画像生成手段は、前記複数の3次元領域で顕在化された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成することが望ましい。
【0014】
上記目的を達成するため、本発明の第2の観点にかかる医用画像処理方法は、
コンピュータを用いて、生体内部の所定の管状組織を示す医用画像を生成するための医用画像処理方法であって、
生体内部を示した所定の3次元ボリュームデータを取得するステップと、
前記3次元ボリュームデータで示される管状組織に含まれる任意点を特定するステップと、
前記特定された任意点に基づいた少なくとも一の3次元領域を指定するステップと、
前記指定された3次元領域内に含まれる前記管状組織を示す3次元画像を生成するステップと、
前記生成された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成するステップと、を備え、
前記3次元画像を生成するステップは、指定された3次元領域内の前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域内の管状組織のみを示す3次元画像を顕在化させるステップをさらに備える、
ことを特徴とする。
【0015】
前記3次元画像を顕在化させるステップは、
前記所定の特性情報を変化させることで変化する所定の連続領域を検出するステップをさらに備えていることが望ましく、この場合、
前記変化した連続領域が、当該3次元領域の中心を含み、かつ、当該3次元領域との接点が所定数以上でない場合に、当該連続領域を前記顕在化された3次元画像とすることができる。
【0016】
また、前記3次元領域を指定するステップは、指定した3次元領域において顕在化された3次元画像に基づいて、次に指定する3次元領域の中心を決定することで、前記管状組織に沿って複数の3次元領域を順次指定することが望ましい。
【0017】
また、前記3次元領域を指定するステップは、前記特定された任意点を中心とする所定の3次元領域を指定するものとすることができる。
上記目的を達成するため、本発明の第3の観点にかかるプログラムは、
コンピュータを、
生体内部を示す所定の3次元ボリュームデータを取得する手段と、
前記3次元ボリュームデータが示す所定の管状組織上の任意点を中心とする所定の3次元領域を指定する手段と、
前記指定された3次元領域の前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域における前記管状組織のみを示す3次元画像を生成する手段と、
前記生成された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成する手段と、
を備えた医用画像処理装置として機能させることを特徴とする。
【0018】
上記目的を達成するため、本発明の第4の観点にかかるプログラムは、
コンピュータに、
生体内部を示す所定の3次元ボリュームデータを取得するステップ、
前記3次元ボリュームデータが示す所定の管状組織上の任意点を中心とする所定の3次元領域を指定するステップ、
前記指定された3次元領域の前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域における前記管状組織のみを示す3次元画像を生成するステップ、
前記生成された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成するステップ、
を実行させることで生体内部の所定の管状組織を示す医用画像を生成することを特徴とする。
【0019】
上記のような構成によれば、生体内部の管状組織(血管など)の3次元画像を正確に抽出・出力することができる。
【0020】
【発明の実施の形態】
以下、図面を参照して本発明にかかる実施の形態を説明する。以下の実施の形態においては、所定の医療施設(以下、「医療施設H」とする)における3次元画像診断に本発明が適用される場合を例に説明する。
【0021】
図1は、本発明の実施の形態にかかる画像診断システムの構成を示す図である。図示するように、本実施の形態にかかる画像診断システム1は、通信ネットワーク10と、モダリティ100と、制御端末200と、画像処理装置300、から構成される。
【0022】
通信ネットワーク10は、医療施設H内で、制御端末200や画像処理装置300を相互接続し、これらの間の情報伝達を媒介する通信ネットワークであり、例えば、DICOM(Digital Imaging and COmmunications in Medicine)などの所定の通信プロトコルに基づいた情報伝達を媒介する。
【0023】
次にモダリティ100について説明する。モダリティ100は、人体内部を撮像する撮像装置であり、例えば、CTスキャナ(コンピュータ断層撮影装置)、ヘリカルCT、MRI(磁気共鳴画像装置)、PET(ポジトロン断層撮影装置)などである。本実施の形態では、X線を用いて人体内部の断層画像を撮像するCTスキャナをモダリティ100として採用するものとする。
【0024】
本実施の形態では、モダリティ100(CTスキャナ)は、後述する制御端末200により制御され、患者や受診者など(以下、「受診者等」とする)の内部(生体内部)についての断層画像(スライス)を撮像するものである。ここで、本実施の形態では、モダリティ100としてCTスキャナを採用しているので、断層画像を示す情報には、X線吸収係数であるCT値などが含まれる。モダリティ100と制御端末200とは、例えば、DICOM(Digital Imaging and COmmunications in Medicine)などの所定の医用画像通信規格に基づいて接続されている。
【0025】
次に制御端末200について説明する。制御端末200は、ワークステーションなどの所定の情報処理装置から構成され、接続されているモダリティ100の動作を制御するとともに、モダリティ100による撮像により取得される撮像画像データ(元データ)を取得する。図2を参照して制御端末200の構成を説明する。
【0026】
図2は、制御端末200の構成を示すブロック図である。図示するように、制御端末200は、制御部210と、通信制御部220と、入力制御部230と、出力制御部240と、プログラム格納部250と、記憶部260と、から構成される。
【0027】
制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、制御端末200の各部を制御するとともに、プログラム格納部250に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。
【0028】
通信制御部220は、例えば、所定のNIC(Network Interface Card)などの所定の通信装置から構成され、制御端末200とモダリティ100および通信ネットワーク10とを接続し、モダリティ100や画像処理装置300との通信を行う。
【0029】
入力制御部230は、例えば、キーボードやポインティング・デバイスなどの所定の入力装置23を接続し、入力装置23から入力された、制御部210への指示などを受け付けて制御部210に伝達する。
【0030】
出力制御部240は、例えば、ディスプレイ装置やプリンタなどの所定の出力装置24を接続し、制御部210の処理結果などを必要に応じて出力装置24に出力する。
【0031】
プログラム格納部250は、例えば、ハードディスク装置やROM(Read Only Memory)などの所定の記憶装置から構成され、制御部210が実行する種々の動作プログラムが格納されている。プログラム格納部250に格納される動作プログラムは、制御端末200の基本動作を司る任意のOS(Operating System:基本ソフトウェア)の他に、OSと協働して後述する各処理を実現するための、以下の(1),(2)に示すような動作プログラムが格納されているものとする。後述する制御端末200による処理は、制御部210がこれらの動作プログラムを実行することで実現される。
(1)「モダリティ制御プログラム」:モダリティ100の制御を行うプログラム
(2)「通信プログラム」:通信制御部220を制御し、モダリティ100との通信や、通信ネットワーク10を介した通信を行うプログラム
【0032】
記憶部260は、例えば、RAM(Random Access Memory)やハードディスク装置などの記憶装置などから構成され、モダリティ100から取得した撮像画像データなどを格納する。
【0033】
ここで、モダリティ100から得られる「撮像画像データ」(元データ)は、撮像領域の「3次元ボリュームデータ」を示すものである。この3次元ボリュームデータは、当該領域における座標系情報、および、各座標における特性情報などから構成される。「特性情報」は、画像生成に用いられる際に、当該画像を構成する画素(ピクセル(ボクセル))の特性(例えば、明度、彩度、色調、など)を示すこととなる情報である。本実施の形態では、モダリティ100として「CTスキャナ」を採用しているので、特性情報として「CT値」が用いられるものとする。ここで「CT値」は、X線吸収係数を示す値であり、このCT値を画素値として画像を生成すると、CT値の違いが画像上の明るさの違いとなって現れる。したがって、モダリティ100から取得した「3次元ボリュームデータ」を用いることで、例えば、図3に示すような断層画像(スライス画像)を得ることができる。
【0034】
このような断層画像は、図示するような平行した2次元画像が複数積層されたものとして捉えることができるとともに、これらが一体となった一つの3次元領域として捉えることもできる。すなわち、積層2次元画像のそれぞれを抽出できることはもとより、全体の3次元領域から任意の領域を指定することもできる。ここで、任意の平面を指定する方法として、例えば、MPR(Multi Planer Reconstruction)といった手法が知られている。すなわち、図4(a)に示すように、3次元ボリュームデータ内の任意平面を指定することができる。また、任意の曲面を指定する方法として、例えば、CPR(Curved Planer Reconstruction)といった手法が知られている。すなわち、図4(b)に示すように、3次元ボリュームデータ内の任意曲面を指定することができる。
【0035】
次に、画像処理装置300について説明する。画像処理装置300は、例えば、ワークステーションなどの所定の情報処理装置から構成され、制御端末200から取得する3次元ボリュームデータ(撮像画像データ)を用いて、3次元診断画像(医用画像)を生成するものである。画像処理装置300の構成を図5を参照して以下説明する。
【0036】
図5は、画像処理装置300の構成を示すブロック図である。図示するように、画像処理装置300は、制御部310と、通信制御部320と、入力制御部330と、出力制御部340と、プログラム格納部350と、画像記憶部360と、から構成される。
【0037】
制御部310は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、画像処理装置300の各部を制御するとともに、プログラム格納部350に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。
【0038】
通信制御部320は、例えば、所定のNIC(Network Interface Card)などの所定の通信装置から構成され、画像処理装置300と通信ネットワーク10とを接続し、制御端末200などとの通信を行う。
【0039】
入力制御部330は、例えば、キーボードやポインティング・デバイスなどの所定の入力装置33を接続し、入力装置33から入力された、制御部310への指示や各データベースに記録される情報などを受け付けて制御部310に伝達する。
【0040】
出力制御部340は、例えば、ディスプレイ装置やプリンタなどの所定の出力装置34を接続し、制御部310の処理結果などを必要に応じて出力装置34に出力する。
【0041】
プログラム格納部350は、例えば、ハードディスク装置やROM(Read Only Memory)などの所定の記憶装置から構成され、制御部310が実行する種々の動作プログラムが格納されている。プログラム格納部350に格納される動作プログラムには、画像処理装置300の基本動作を司る任意のOS(Operating System:基本ソフトウェア)の他に、OSと協働して後述する各処理を実現するための、以下の(1)〜(3)に示すような動作プログラムが含まれているものとする。後述する画像処理装置300による処理は、制御部310がこれらの動作プログラムを実行することで実現される。
(1)「通信プログラム」:通信制御部320を制御し、通信ネットワーク10を介して制御端末200などと通信を行うプログラム
(2)「DB制御プログラム」:画像記憶部360を制御するプログラム
(3)「画像処理プログラム」:制御端末200から取得した撮像画像データに画像処理を行うプログラム
【0042】
画像記憶部360は、例えば、半導体記憶装置やハードディスク装置などの書き換え可能な記憶装置などから構成され、後述する各処理により取得されるデータや生成される3次元診断画像などを格納する。
【0043】
以下、本実施の形態における各処理を図面を参照して説明する。なお、本実施の形態では、本発明を適用した画像診断システム1により、モダリティ100が取得した3次元ボリュームデータから、所望の血管(診察・診断・観察対象となる血管。以下、「対象血管」とする)が含まれている領域の3次元画像から当該血管のみを示す3次元画像を抽出して、画像診断に用いる医用画像を作成するものとする。
【0044】
図6は、本発明を適用した画像診断システム1で画像診断を行うための「画像診断処理」を説明するためのフローチャートである。図示するように、画像診断システム1で画像診断するにあたり、「撮像処理」(ステップS100)、「血管画像生成処理」(ステップS300)、「医用画像生成・出力処理」(ステップS500)が順次実行される。以下、これら各処理の詳細を以下図面を参照して説明する。
【0045】
まず、本実施の形態にかかる「撮像処理」を図7に示すフローチャートを参照して説明する。本処理は、モダリティ100と制御端末200との協働により、受診者等の人体内部断層画像(スライス)を取得するためのものであり、主に制御端末200の動作を中心に以下説明する。制御端末200は、プログラム格納部250の「モダリティ制御プログラム」を実行することで、以下の処理を行う。
【0046】
撮像動作を実行するにあたり、まず、制御端末200において所定の撮像条件情報が設定される(ステップS101)。ここでは、撮像対象領域の指定や造影剤使用の有無などといった撮像諸条件が設定される。
【0047】
制御端末200は、ステップS101で設定された撮像条件に従い、モダリティ100を制御する(ステップS102)。すなわち、モダリティ100は、制御端末200の制御により、上記撮像条件に基づいた撮像動作を行う。この結果、モダリティ100は、設定された撮像領域における、撮像画像データ(3次元ボリュームデータ)を取得する。
【0048】
モダリティ100の撮像動作が終了すると、制御端末200は、モダリティ100から撮像した撮像画像データを取得し(ステップS103)、記憶部260に格納して処理を終了する(ステップS104)。
【0049】
本実施の形態における「画像診断処理」(図6)では、このようにして取得された撮像画像データ(3次元ボリュームデータ)を用いて血管を示す3次元画像を生成する「血管画像生成処理」が実行される。この「血管画像生成処理」を、図8に示すフローチャートを参照して説明する。本処理では、画像処理装置300が、上記「撮像処理」(ステップS100、図7)で取得した撮像画像データを用いて所望の血管の3次元画像を抽出する。なお、本実施の形態では、心臓付近の冠状血管を抽出対象とした場合を例に以下説明する。また、以下の処理は、画像処理装置300の制御部310が、プログラム格納部350の「画像処理プログラム」を実行することにより行われるものである。
【0050】
まず、画像処理装置300は、通信ネットワーク10を介して、制御端末200から対象となる3次元ボリュームデータ(撮像画像データ)を取得する(ステップS301)。
【0051】
次に、制御部310は、ステップS301で取得した撮像画像(3次元ボリュームデータ)に基づいた2次元画像を出力装置34(ディスプレイ装置)に表示し、抽出対象としている血管(以下、「対象血管Vt」とする)の抽出始点(以下、「始点」とする)および抽出終了点(以下、「終点」とする)の指定を受け付ける(ステップS302)。ここでは、医師などのオペレータが入力装置33を操作して、表示されている2次元画像上で始点および終点を指定する。
【0052】
図9(a)に、ここで表示される2次元画像の例を示す。ここでは、上記MPRなどで得られる、対象血管Vtの管断面を示す画像が出力装置34に表示される。すなわち、3次元ボリュームデータに含まれるCT値の違いに基づく明暗を画像化することで、当該領域における対象血管Vtの管断面画像を表示する。ここで、画像処理装置300は、オペレータによる入力装置33の操作により指定される位置や方向に対応する3次元ボリュームデータを画像化することで、表示位置や角度を随時変化させて表示する。なお、血管を撮像対象としている場合、通常、血液のCT値を上げるために造影剤が用いられており、これにより、図9(a)に示すように、血管部が比較的明るく表示される。オペレータは入力装置33を操作し、対象血管Vtの抽出始点における血管断面が表示されるよう表示画面を変化させる。オペレータは、表示された断面の中心(以下、「始点SP」とする)を入力装置33を用いて指定する。また、同様に、抽出終点における断面中心(以下、「終点EP」とする)を指定する。
【0053】
画像処理装置300の制御部310は、ステップS302で始点SPが指定されると、その3次元座標を特定する。始点SPの3次元座標が特定されると、図10(a)に示すように、当該始点SPが中心(重心)となる立方体形状の3次元領域(以下、「3次元領域TDR」とし、当該3次元領域TDRの中心を「中心CP」とする)を指定する(ステップS303)。ここでは、例えば、上記MPRで指定する平面領域を組み合わせることなどによって、3次元領域TDRを指定する。
【0054】
3次元領域TDRが指定されると、制御部310は、当該3次元領域TDR内の3次元ボリュームデータを取得する(ステップS304)。すなわち、ステップS301で取得した3次元ボリュームデータのうち、当該3次元領域TDR内部に対応するデータを抽出する。
【0055】
次に制御部310は、取得された3次元領域TDRの3次元ボリュームデータを用いて3次元画像を生成する(ステップS305)。ここでは、当該3次元ボリュームデータを用いて、例えば、「フラッド・フィル」(Flood Fill)や「リージョン・グローイング法」(Region Growing)などの手法により3次元画像を生成する。
【0056】
本実施の形態では、上記のような3次元領域TDRを対象血管Vtに沿って(始点SP〜終点EP)順次指定し、各3次元領域TDRにおける3次元血管画像(以下、「単位血管画像」とする)をつなぎ合わせることで、始点SP〜終点EPまでの3次元血管画像を作成する。したがって、制御部310は、このような「単位血管画像」を生成するための「単位血管画像生成処理」(ステップS320)を実行する。「単位血管画像生成処理」を図11に示すフローチャートを参照して説明する。
【0057】
まず、制御部310は、ステップS305で生成した3次元画像上で、始点SP(中心CP)が含まれる連続領域を特定する(ステップS321)。ここで、「連続領域」とは、例えば、「フラッド・フィル(Flood Fill)」などの手法によって求められる、輪郭を同じくする一つの閉じた画像(有限閉止画像)である。ステップS321では、3次元領域TDRの中心CPの座標値に基づき、生成された3次元画像の当該座標が含まれる連続領域(以下、「連続領域CIM」とする)の範囲を特定する。
【0058】
次に制御部310は、特定した連続領域CIMと3次元領域TDRの面部(立方体の一面)とが接する箇所を特定し(ステップS322)、その箇所が3以上であるか否かを判別する(ステップS323)。ここでは、当該連続領域CIMが対象血管Vtのみを示す3次元画像(以下、「単位血管画像IMv」とする)であるか否かが判別される。
【0059】
すなわち、図10(a)に示すように、指定した3次元領域TDR内に対象血管Vtのみが存在する場合には、ステップS305で当該3次元領域TDRを画像化することで得られる連続領域CIMは、図10(b)に示すような血管画像IMvとなる。
【0060】
しかしながら、心臓付近の冠状血管を対象とする場合、図12に示すように、対象血管Vtに心臓HTや他の血管Vxが近接することになる。対象血管Vtに心臓HTが近接している場合において、対象血管Vt上の始点SPを指定した場合、図13(a)に示すように、3次元領域TDR内に心臓HTの一部が含まれることになる。
【0061】
このような3次元領域TDRを画像化すると、図13(b)に示すようなものとなる。ここで、上述したように、本実施の形態では、3次元ボリュームデータに含まれるCT値を用いて画像化するが、CT値はモダリティ100(CTスキャナ)が取得したX線吸収量係数を示すものであり、例えば、「水:0」、「空気:−1000」というように、物質によってその値が予め定まっている。したがって、対象血管Vtを画像化しようとする場合、血管の構成物質(血液、血管壁、造影剤、など)に対応するCT値を有する画素(ピクセル(ボクセル))を表示対象とすることで、当該血管のみが画像化される。ここで、対象血管Vtと、心臓HTおよび他の血管Vxは構成物質がほぼ同一である。したがって、これらを示すCT値の差異は極めて小さいため、対象血管Vtに心臓HTが近接している3次元領域TDRを画像化すると、図13(a)および(b)に示すように、対象血管Vtと心臓HTの一部とが一体化された画像となってしまうことがあり、対象血管Vtを正確に認識することができなくなってしまう。ここで、始点SP(中心CP)は対象血管Vt上に指定されているため、上記対象血管Vtと心臓HTとが一体となった画像が、連続領域CIMとして特定されることになる。
【0062】
したがって、連続領域CIMが対象血管Vtのみを示すものであるか、あるいは、心臓HT等をも含んだものであるかを判別する必要がある。ステップS323においては、連続領域CIMと3次元領域TDRとの接点の数に注目して判別を行う。
【0063】
すなわち、対象血管Vtは管状であるため、3次元領域TDR内に対象血管Vtのみが存在する場合に生成される連続領域CIM(すなわち、単位血管画像IMv)と3次元領域TDRの面部と接する箇所(以下、「接点EG」とする)は、図10(b)に示すように、接点EG1と接点EG2の2カ所となる(以下、「単位血管画像IMv」についての「接点EG」のうち、進行方向の上流側を「EG1」、下流側を「EG2」とする(進行方向は始点SPと終点EPとに基づいて決定されるものとする))。
【0064】
一方、対象血管Vtに心臓HTや他の血管Vxが近接している場合に生成される連続領域CIMと3次元領域TDRとの接点EGは、図13(b)に示すように、接点EG1、接点EG2、および、接点EG3の少なくとも3カ所となる(以下、対象血管Vt以外の部分についての接点EGを「EG3」とする)。このような原理に基づき、ステップS323において接点EGが3カ所以上であるか否かを判別することで、当該連続領域CIMが対象血管Vtのみを示す3次元画像であるか、心臓HT等をも含んだ3次元画像であるかを判別することができる。
【0065】
ここで、接点EGが3カ所以上でない場合(ステップS323:No)は、当該連続領域CIMが対象血管Vtのみを示す画像であるので、当該連続領域CIMを単位血管画像IMvとして抽出し(ステップS324)、「血管画像生成処理」(図8)のフローに戻る。
【0066】
一方、接点EGが3カ所以上である場合(ステップS323:Yes)は、当該連続領域CIMは対象血管Vt以外の心臓HTなども含んでいるため、当該連続領域CIMから単位血管画像IMvを抽出するための「血管画像顕在化処理」(ステップS330)が実行される。この「血管画像顕在化処理」を図14に示すフローチャートを参照して説明する。ここでは、3次元領域TDRを画像化する際に用いるCT値の範囲(以下、「対象CT値範囲」とする)を変化させ、対象血管Vtのみを示す画像を顕在化させる。
【0067】
まず制御部310は、対象CT値範囲を変化させるために用いる「閾値」の範囲(以下、「閾値範囲」とする)を設定する(ステップS331)。すなわち、本実施の形態では、以下の処理において、「対象CT値範囲」の下限値を示す閾値を変化させることで対象CT値範囲を変化させるため、この閾値の変化範囲(最小閾値thmin〜最大閾値thmax)をまず規定するものである。
【0068】
ここで「対象CT値範囲」とは、対象としている生体(人体)内部の画像化する際に対象となるCT値の範囲を示すものである。本実施の形態では、人体内部を画像化対象としているので、臓器、器官、血液(造影剤)、骨、などが画像化対象となる。上述したように、CT値は物質によって予め定まっているため、これら画像化対象に対応したCT値の範囲が「対象CT値範囲」として定めることができる。そして、このように定まる「対象CT値範囲」内で閾値を変化させるので、「閾値範囲」も「対象CT値範囲」と同一の範囲となる。
【0069】
また、上述したように、本実施の形態における「閾値」は、対象CT値範囲の下限値を示すものである。すなわち、ある閾値が指定された場合、当該閾値に対応するCT値以上の値を示す全てのCT値が対象となる。したがって、当該領域を構成する3次元ボリュームデータのうち、「対象CT値範囲」に含まれるCT値が特性情報となる座標が画像化対象となる。例えば、閾値範囲(対象CT値範囲)が「0〜1000」である場合に、閾値「100」が設定されると、「100〜1000」の範囲に含まれるCT値を特性情報としている座標が画像化される。
【0070】
また、X線吸収量係数であるCT値を用いて画像化した場合、CT値の違いが明るさの違いとなって現れる。このとき、例えば、画像化対象となっているCT値を特性情報として持つピクセル(ボクセル)を画像化する。なお、本実施の形態では、撮像の際に造影剤を使用して血液のCT値を上昇させているものとする。
【0071】
まず制御部310は、ステップS331で設定された最小閾値thminを閾値thとし(ステップS332)、当該閾値thを下限値としたCT値を特性情報として持っている3次元領域TDR内のピクセル(ボクセル)を画像化する(ステップS333)。閾値thが最小閾値thminである場合、適用されるCT値は、閾値範囲(最小閾値thmin〜最大閾値thmax)に対応するすべてのCT値が該当することになる。ここで、ステップS331において、生体内を画像化できるCT値の幅を閾値範囲としているので、閾値thが最小閾値thminにおける画像化の結果は、図13(b)に示すような連続領域CIMとなる。
【0072】
制御部310は、ステップS333による画像化による連続領域CIMの境界を特定し、所定の記憶部(例えば、ワークエリアや画像記憶部360など)に記録する(ステップS334)。ここで「連続領域CIMの境界」を特定するために、任意のパラメータを用いることができる。例えば、連続領域CIMが示す3次元オブジェクトの体積値や表面積、あるいは、輪郭の座標値、などを用いることができる。このようなパラメータのいずれか、あるいは、これらの組み合わせにより、連続領域CIMの境界を特定するものとする。本実施の形態では、以下「体積値」をパラメータに用いる場合を例に説明する。
【0073】
以後、制御部310は、閾値thを最大閾値thmaxとなるまで順次変化させ、各閾値においてステップS333〜S334の処理を行う(ステップS335:No、S336)。すなわち、閾値thを最小閾値thminから最大閾値thmaxまで順次増分し、各閾値毎に(1)画像化、(2)連続領域CIMの体積値算出と記録、を行う。これにより、上記所定の記憶部には、ステップS334で特定された、各閾値毎の連続領域CIMの境界が記録される。なお、閾値th(すなわち、対象CT値範囲の下限値)の増分率は任意であり、例えば、画像処理装置300の処理能力や所望する精度によって任意に設定されるものとする。なお、本実施の形態においては、説明を容易にするために、閾値thは「+1」ずつ増分されるものとする。
【0074】
制御部310は、各閾値th毎に記録した体積値に基づいて、閾値thmin〜閾値thmaxにおける体積値の変化率を算出する(ステップS337)。すなわち、各閾値thにおける連続領域CIMの体積値をプロットすることで、図15に示すような、体積分布を示すグラフを得ることができる。このグラフにおいては、横軸が閾値th(最小閾値thmin〜最大閾値thmax)を示し、縦軸が連続領域CIMの体積値を示す。図示するように、閾値thが最小閾値thmin〜最大閾値thmaxに遷移するにしたがって連続領域CIMの体積値は減少する。これは、閾値の遷移に応じて、対象CT値範囲が狭まるため、画像化される部分も減少するためである。
【0075】
ここで、図15に示すグラフにおいて、接点EGが3カ所以上現れたときの閾値を対象除外とする(図中の斜線部「EG3」)。これは、対象としている血管は管状であり、かつ、3次元領域TDRの中心CPは対象血管Vt上にあるため、対象血管Vtが顕在化されたとき(対象血管Vtを示す画像と心臓HTを示す画像が分離したとき)には、中心CPを含むとした連続領域CIMは対象血管Vtのみを示すものとなり、3次元領域TDRとの接点EGが3カ所以上あることはあり得ないためである。
【0076】
また、図15のグラフに示すように、閾値thを増分させる(すなわち、対象CT値範囲を狭める)過程で、連続領域CIMの体積値が急激に減少することがある。グラフに示す例では、閾値がth〜tha+1に遷移した時と、th〜thb+1に遷移した時に体積値が急減している。ここで、「th〜tha+1」への遷移時は、それまで連続領域CIMが接点EG3により3次元領域TDRの面部と接していたものが、図16(a)に示すように、体積の減少に伴い接点EG3が消滅した時である。このとき、連続領域CIMの体積値が急激に減少する。
【0077】
また、「th〜thb+1」への遷移時は、連続領域CIMが対象血管Vtのみを示すものとして顕在化された時である。すなわち、閾値tha+1〜thに遷移するにしたがって、図16(b)に示すように、連続領域CIMの体積値が減少し、閾値th〜thb+1に遷移した際、連続領域CIMは、対象血管Vtのみを示す「連続領域CIM1」と心臓HTの一部を示す「連続領域CIM2」とに分離される。ここで、境界変化の検出対象となるのは、中心CPが含まれている連続領域CIMであるので、連続領域CIM1が対象となる。したがって、連続領域CIM1の体積値に着目すると、連続領域CIM2と一体であった閾値thまでの体積値から急激に減少することとなる。
【0078】
本処理では、対象血管Vtが画像上で顕在化されたことを識別するものであるから、上記のような体積値(すなわち、連続領域CIMの境界)の急減を検出することで、対象血管Vtが顕在化されたか否かを判別することができる。しかし、3次元領域TDRが指定された場所や連続領域CIMの形状などといった諸条件の違いによっては、対象血管Vtが顕在化したときの変化よりも、接点EG3が消滅したときの変化の方が大きい場合もある。したがって、閾値範囲内で体積値変化率が最大となる箇所を検出しても、必ずしも、血管の顕在化を検出することができない。そこで制御部310は、接点EG3が存在するときの閾値を除外し、除外後の閾値のうちで体積値変化が最大(すなわち、連続領域CIMの境界の変化が最大)となる閾値を特定する(ステップS338)。
【0079】
制御部310は、ステップS338で特定した閾値を下限値とし、閾値thmaxを上限値としたCT値範囲に該当するピクセル(ボクセル)を画像化し(ステップS339)、図11に示す「単位血管画像生成処理」のフローに戻る。
【0080】
単位血管画像生成処理では、ステップS339での画像化により、図16(c)に示すような単位血管画像IMvを得ることができる(ステップS324)。
【0081】
当該3次元領域TDRで単位血管画像IMvを取得すると、ワークエリアなどの所定の記憶領域に保持してから、図8に示す「血管画像生成処理」のフローにもどる。本実施の形態では、対象血管Vt上で、始点SPから終点EPまで順次3次元領域TDRを指定し、各3次元領域TDRで取得される単位血管画像IMvを用いて対象血管Vtの3次元画像を生成する。したがって、一の3次元領域TDRで単位血管画像IMvを取得すると、終点EPに到達するまで(ステップS306:No)、次の3次元領域TDRを指定するための「次中心位置決定処理」(ステップS340)が実行される。
【0082】
「次中心位置決定処理」においては、3次元領域TDRとその3次元領域TDRの単位血管画像IMvとに基づいて、次に指定する3次元領域TDRの中心CPとなる位置(以下、「次中心位置」とする)を決定する。この場合、例えば、生成された単位血管画像IMvの終端部を次中心位置とすることができる。より詳細には、図17(a)に示すように、前に指定された3次元領域TDR1(中心CP1)で生成された単位血管画像IMvの終端(すなわち、単位血管画像IMvと3次元領域TDR1との接点EG2)を中心CP2として、次の3次元領域TDR2が指定される。
【0083】
あるいは、図17(b)に示すように、前に指定された3次元領域TDR1の中心CP1と、3次元領域TDR1で生成された単位血管画像IMvの終端(すなわち、単位血管画像IMvと3次元領域TDR1との接点EG2)を結ぶ線分SL(例えば、3次元パスデータなど)を求め、この線分SLの中点を中心CP2として、次の3次元領域TDR2を指定してもよい。あるいは、連続領域CIMを細線化(Skeltonization)し、細線化により得られた線上の点を中心として、次の空間領域を指定してもよい。
【0084】
このようにして順次3次元領域TDRを対象血管Vtに沿って指定していき(ステップS306(No)→S340→S320:図8)、終点EPまで到達すると(ステップS306:Yes)、ワークエリアなどに保持されている各3次元領域TDRでの単位血管画像IMvを接合して、始点SP〜終点EPまでの対象血管Vtを示す3次元画像を生成して、「血管画像生成処理」を終了する(ステップS307)。
【0085】
本実施の形態にかかる「画像診断処理」(図6)では、上記「血管画像生成処理」(図8)で生成された血管画像を用いて所定の医用画像の生成・出力を行う「医用画像生成・出力処理」(ステップS500)が実行される。ここでは、図18に示すように、心臓付近の冠状血管を示す医用画像Mimが生成され、出力装置34(ディスプレイ装置)に表示される所定のウィンドウMW内などに表示される。
【0086】
以上説明したように、本発明の実施の形態にかかる画像診断システムによれば、血管などの管状組織の3次元画像を生成する際に、各3次元領域TDRで閾値を変化させることで血管を顕在化させているので、例えば、血管径の変化や異常部位により管の途中でCT値が変化している場合であっても対象血管Vtの3次元画像を正確に抽出することができる。したがって、寸断等されることのない良好な画像を得ることができる。また、CT値が類似する他の器官等が近接している場合であっても、対象血管の中心線を正確に抽出することができる。したがって、特に、心臓付近の冠状血管を対象とした診断・治療に極めて有用な医用画像表示を実現できる。
【0087】
上記実施の形態では、3次元領域TDRとして立方体形状の3次元領域TDRを指定する場合を例示したが、3次元領域TDRの形状はこれに限られない。例えば、図19(a)に示すような直方体形状や、図19(b)に示すような三角錐形状、あるいは、図20(a)に示すような球体形状や、図20(b)に示すような円柱形状などを用いることができるほか、例えば、楕球形状、樽型形状、トーラス(輪管面)といった、任意の形状の3次元領域TDRを指定してもよい。また、上記実施の形態においては、3次元領域TDRと連続領域CIMとの接点が3以上であるか否かによって、当該連続領域CIMが対象血管Vtのみを示すものであるか否かを判別したが、対象血管Vtの顕在化が判別できるのであれば、判別に用いる接点の数は3に限られず、任意である。
【0088】
上記実施の形態では、始点SPと終点EP(任意点)を、オペレータが入力装置33を操作し、血管断面を示す2次元画像上で指定するものとしたが、任意点を指定する方法はこれに限られない。例えば、オペレータの操作によらず、画像処理装置300が実行するプログラムや画像処理装置300に接続されている他の装置などからの指示等により任意点が指定されてもよい。また、上記実施の形態では、始点SPと終点EPの双方を指定するものとしたが、始点SPまたは終点EPのいずれか一方を指定するものとしてもよい。この場合、「抽出方向」がオペレータやプログラムの指示などによって指定されてもよい。さらに、上記実施の形態では、3次元領域TDRの指定が終点EPに到達することにより抽出を終了したが、これに限られず、例えば、血管径についての閾値を設定しておき、単位血管画像IMvに基づいて各単位血管画像IMvが示す血管部位の血管径を算出し、所定値以下の血管径となったときに抽出を終了するようにしてもよい。
【0089】
上記実施の形態では、対象血管Vt上の任意点を中心とする3次元領域TDRを指定したが、対象血管Vtを抽出できるのであれば、3次元領域TDRの指定方法はこれに限られない。例えば、対象血管Vt上の任意点が、指定する3次元領域TDRの所定の頂点となるように当該3次元領域TDRを指定してもよい。あるいは、対象血管Vt上の任意点が、指定する3次元領域TDRを構成する一面の中心となるように当該3次元領域TDRを指定してもよい。
【0090】
上記実施の形態では、連続領域CIMの体積変化に注目して血管画像の顕在化を判別する場合を例示したが、注目対象事項はこれに限られず、例えば、連続領域CIMの形状の変化などに基づいて判別してもよい。また、上記実施の形態では、顕在化された血管画像を特定するために、「有限閉止画像」などの閉じた連続領域CIMを用いたが、顕在化の特定が可能であれば、すなわち、対象血管Vtのみを示す画像の境界が確定できるのであれば、一定の連続性を有する開領域であってもよい。
【0091】
上記実施の形態では、「対象CT値範囲」の下限値を示す閾値を変化させるものとしたが、閾値の設定は任意である。例えば、「対象CT値範囲」の上限値を示すものであってもよい。また、上記実施の形態では、閾値を最小閾値thminから最大閾値thmaxまで変化させたが、変化のさせ方は任意であり、例えば、最大閾値thmaxから最小閾値thminに変化させてもよい。また、上記実施の形態では、閾値を変化させることで、「対象CT値範囲」を徐々に狭めるようにしたが、これに限られず、例えば、「対象CT値範囲」を徐々に拡大させることで顕在化を判別してもよい。
【0092】
また、任意の「閾値」を用いることができる。例えば、3次元画像生成に「リージョン・グローイング法(Region Growing)」を用いる場合には、パラメータ(例えば、「勾配の閾値」など)を変化させることで、領域を変化させてもよい。この場合のパラメータは、複数存在していてもよい。
【0093】
上記実施の形態では、モダリティ100としてCTスキャナを採用し、よって、CT画像を用いた場合を例に説明したが、上述したように、採用できるモダリティ100は任意であり、したがって、採用されるモダリティ装置に応じた画像(例えば、MR画像や超音波画像など)を用いてもよい。
【0094】
上記実施の形態では、特に冠状血管などの血管を抽出対象としたが、管状組織(管状臓器、管腔臓器)であれば抽出対象とすることができ、例えば、気管、腸、神経、などを抽出対象とすることができる。
【0095】
上記実施の形態の画像処理装置300が持つ上記各処理にかかる機能の一部またはすべてを、例えば、モダリティ100や制御端末200などが有していてもよい。すなわち、上記画像処理装置300が有する各機能は、単一の装置により実現されてもよく、あるいは、複数の装置の協働により実現されるものであってもよい。
【0096】
上記実施の形態における画像処理装置300は、専用装置で構成可能であることはもとより、例えば、パーソナルコンピュータなどの汎用コンピュータ装置などで構成することもできる。この場合、上記各処理を実現するためのプログラムの一部または全部を汎用コンピュータ装置にインストールし、OSなどの制御下で実行することにより、画像処理装置300を構成することができる。この場合のプログラム配布形態は任意である。例えば、CD−ROMなどの記録媒体に格納して配布可能であることはもとより、搬送波に重畳させることで通信媒体(インターネットなど)を介して配布することができる。
【0097】
【発明の効果】
以上説明したように、本発明によれば、医用画像の生成において、血管などの管状組織を正確に抽出・出力することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかる「画像診断システム」の構成を模式的に示す図である。
【図2】図1に示す「制御端末」の構成を示すブロック図である。
【図3】図2に示す制御端末が取得する断層画像(スライス)を説明するための図である。
【図4】3次元ボリュームデータの任意領域を指定する手法を説明するための図であり、(a)は「MPR」の例を示し、(b)は「CPR」の例を示す。
【図5】図1に示す「画像処理装置」の構成を示すブロック図である。
【図6】本発明の実施の形態にかかる「画像診断処理」を説明するためのフローチャートである。
【図7】図6に示す「撮像処理」を説明するためのフローチャートである。
【図8】図6に示す「血管画像生成処理」を説明するためのフローチャートである。
【図9】図8に示す「血管画像生成処理」にかかる処理を説明するための図であり、(a)は始点指定のために表示される2次元画像の例を示し、(b)は指定された始点および終点と対象血管との位置関係を模式的に示す。
【図10】図8に示す「血管画像生成処理」にかかる処理を説明するための図であり、(a)は指定された始点と指定される空間領域との位置関係を説明するための図であり、(b)は指定された空間領域で抽出される「単位血管画像」の例を示す図である。
【図11】図8に示す「血管画像生成処理」において実行される「単位血管画像生成処理」を説明するためのフローチャートである。
【図12】対象血管と、近接する心臓および他の血管との位置関係を説明するための図である。
【図13】対象血管と心臓とが近接する場合の事例を説明するための図であり、(a)は対象血管、近接する心臓、および、指定される空間領域との位置関係の例を示し、(b)は当該空間領域を画像化したときの3次元画像の例を示す。
【図14】図11に示す「単位血管画像生成処理」において実行される「血管画像顕在化処理」を説明するためのフローチャートである。
【図15】図14に示す「血管画像顕在化処理」における閾値の変化と連続領域の体積値との関係を示すグラフである。
【図16】図15に示すグラフに現れる連続領域の変化を説明するための図であり、(a)は連続領域と空間領域との接点が減少した時点における連続領域の例を示し、(b)は連続領域の体積値が減少している時の連続領域の例を示し、(c)は連続領域が分離した時の連続領域の例を示す。
【図17】図8に示す「血管画像生成処理」における「次中心位置決定処理」を説明するための図であり、(a)は単位血管画像の終端を次の中心とする場合を説明するための模式図であり、(b)は単位血管画像の終端と前の中心との中点を次の中心とする場合を説明するための模式図である。
【図18】図6に示す「画像診断処理」における「医用画像生成出力・処理」において生成・出力される医用画像の例を示す図である。
【図19】本発明の実施の形態における空間領域として適用可能な形状を例示する図であり、(a)は直方体形状の空間領域を示し、(b)は三角錐形状の空間領域を示す。
【図20】本発明の実施の形態における空間領域として適用可能な形状を例示する図であり、(a)は球体形状の空間領域を示し、(b)は円柱形状の空間領域を示す。
【符号の説明】
1 画像診断システム
10 通信ネットワーク
100 モダリティ
200 制御端末
300 画像処理装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a medical image processing apparatus, a medical image processing method, and a program for generating a three-dimensional medical image used for image diagnosis and the like, and in particular, a medical image processing apparatus suitable for displaying a tubular tissue such as a blood vessel, The present invention relates to a medical image processing method and a program.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, for example, image diagnosis for diagnosing a disease or the like by imaging a tomographic (slice) image inside a human body with a modality (imaging device) such as a CT scanner or an MRI apparatus has been performed. In addition, a method for generating a three-dimensional image of a predetermined organ or organ from a captured tomographic image and making a diagnosis has been established, which contributes to a precise and accurate diagnosis. In particular, diagnosis using a three-dimensional image of coronary blood vessels around the heart is useful for early detection of heart disease and the like.
[0003]
In such a three-dimensional image diagnosis, an observation target region is often extracted and diagnosed. In this case, a predetermined region is generally extracted by a so-called “segment division” method. . However, for example, when segmenting a tubular tissue such as a blood vessel (particularly a coronary blood vessel around the heart), it has been difficult to extract only the target blood vessel.
[0004]
For example, Patent Document 1 discloses a technique for segmenting a vascular tissue. Here, a “binary mask” consisting of pixel values indicating the region of interest (that is, the target vascular tissue) and pixel values indicating the outside of the region of interest is formed to distinguish the vascular tissue from other tissues. ing.
[0005]
In the method using the binary mask as described above, when the pixel value indicating the target tissue is determined, the determination is made based on the value. In this case, if there is only a target blood vessel in the discrimination region, it is extracted without any problem, but usually other tissues (blood vessels, organs, organs, etc.) are often close to each other. Particularly when coronary blood vessels around the heart are targeted, the heart and many other blood vessels are close to each other. Since the constituent materials of these adjacent objects are almost the same as the target blood vessel, the pixel values indicating these are similar. When similar pixel values are close to each other as described above, the binary mask method may process these values as one value, and the target blood vessel cannot be accurately extracted. It was.
[0006]
In addition, when coronary blood vessels generated from the heart are imaged based on CT values acquired by an imaging device such as a CT scanner, the brightness of the image gradually decreases as the blood vessels are stretched from the generation point. . That is, it can be said that an approximation in which the pixel value transitions approximately linearly holds according to the distance from the blood vessel generation point. In accordance with this characteristic, a method of extracting a target blood vessel using a “multi-value mask” in which pixel values are linearly transitioned from a blood vessel generation portion to an extraction end is also considered. However, when the heart or other blood vessels are close to the target blood vessel or when there is an abnormal part on the blood vessel, the pixel value indicating the target blood vessel does not simply undergo a linear transition. Therefore, even if the pixel values are simply transitioned linearly and imaged, the target blood vessel and an adjacent object may be combined, or the target blood vessel may be cut off, which can contribute to accurate diagnosis. It was difficult to get.
[0007]
In addition, for example, Patent Document 2 discloses a technique for detecting a blood vessel site by detecting an average concentration in the vicinity of an attention point. However, in the case where a heart or other blood vessels are close to the target blood vessel. Since it is not possible to obtain a useful concentration value, it is difficult to accurately extract a blood vessel site even by such a method.
[0008]
[Patent Document 1]
JP 2002-282235 A (pages 4 to 5)
[Patent Document 2]
JP-A-8-89501 (page 6)
[0009]
[Problems to be solved by the invention]
The present invention has been made in view of the above circumstances, and an object thereof is to provide a medical image processing apparatus, a medical image processing method, and a program capable of accurately extracting a tubular tissue such as a blood vessel.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a medical image processing apparatus according to a first aspect of the present invention is a medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
Three-dimensional region designating means for designating a predetermined three-dimensional region centered on an arbitrary point on a predetermined tubular tissue indicated by the three-dimensional volume data;
Image generating means for generating a three-dimensional image of the three-dimensional region using the three-dimensional volume data;
By changing predetermined characteristic information included in the three-dimensional volume data constituting the three-dimensional image generated by the image generation means, a three-dimensional image showing only the tubular tissue in the three-dimensional region is made obvious. Image revealing means;
Medical image generation means for generating a predetermined medical image showing the tubular tissue using the three-dimensional image made visible by the image revealing means;
It is characterized by providing.
[0011]
In the above medical image processing apparatus,
The image revealing means includes
Continuous region detecting means for detecting a continuous region that constitutes the generated three-dimensional image and that includes the center of the three-dimensional region;
And a saliency determining means for determining whether or not the continuous area indicates only the tubular tissue based on the continuous area detected by the continuous area detecting means and the three-dimensional area. In this case,
A continuous region that is discriminated to show only the tubular tissue by the manifestation discriminating means can be the manifested three-dimensional image.
[0012]
in this case,
The continuous area detecting means detects a change in the continuous area according to a change in the characteristic information,
It is desirable that the revealing determination unit determines whether or not the continuous area indicates only the tubular tissue based on the change of the continuous area.
[0013]
In the above medical image processing apparatus,
The three-dimensional region designating means designates a plurality of three-dimensional regions by determining a center of a three-dimensional region to be designated next based on the arbitrary point and / or the manifested three-dimensional image,
It is desirable that the medical image generation unit generates a predetermined medical image indicating the tubular tissue using the three-dimensional image that is manifested in the plurality of three-dimensional regions.
[0014]
In order to achieve the above object, a medical image processing method according to a second aspect of the present invention includes:
A medical image processing method for generating a medical image showing a predetermined tubular tissue inside a living body using a computer,
Obtaining predetermined three-dimensional volume data indicating the inside of the living body;
Identifying an arbitrary point included in the tubular tissue indicated by the three-dimensional volume data;
Designating at least one three-dimensional region based on the identified arbitrary points;
Generating a three-dimensional image showing the tubular tissue included in the designated three-dimensional region;
Using the generated three-dimensional image to generate a predetermined medical image showing the tubular tissue,
The step of generating the three-dimensional image includes changing the predetermined characteristic information included in the three-dimensional volume data in the designated three-dimensional region, thereby indicating only the tubular tissue in the three-dimensional region. Further comprising the step of revealing,
It is characterized by that.
[0015]
The step of revealing the three-dimensional image includes:
Desirably, the method further comprises a step of detecting a predetermined continuous region that changes by changing the predetermined characteristic information.
When the changed continuous region includes the center of the three-dimensional region and the number of contact points with the three-dimensional region is not equal to or greater than a predetermined number, the continuous region can be made the manifested three-dimensional image. .
[0016]
The step of designating the three-dimensional region includes determining the center of the three-dimensional region to be designated next along the tubular tissue based on the three-dimensional image that is manifested in the designated three-dimensional region. It is desirable to sequentially specify a plurality of three-dimensional areas.
[0017]
Further, the step of designating the three-dimensional area may designate a predetermined three-dimensional area centered on the specified arbitrary point.
In order to achieve the above object, a program according to the third aspect of the present invention is:
Computer
Means for acquiring predetermined three-dimensional volume data indicating the inside of the living body;
Means for designating a predetermined three-dimensional region centered on an arbitrary point on a predetermined tubular tissue indicated by the three-dimensional volume data;
Means for generating a three-dimensional image showing only the tubular tissue in the three-dimensional region by changing predetermined characteristic information included in the three-dimensional volume data of the designated three-dimensional region;
Means for generating a predetermined medical image showing the tubular tissue using the generated three-dimensional image;
It is made to function as a medical image processing apparatus provided with.
[0018]
In order to achieve the above object, a program according to the fourth aspect of the present invention is:
On the computer,
Obtaining predetermined three-dimensional volume data indicating the inside of the living body;
Designating a predetermined three-dimensional region centered on an arbitrary point on a predetermined tubular tissue indicated by the three-dimensional volume data;
Generating a three-dimensional image showing only the tubular tissue in the three-dimensional region by changing predetermined characteristic information included in the three-dimensional volume data of the designated three-dimensional region;
Generating a predetermined medical image representing the tubular tissue using the generated three-dimensional image;
To generate a medical image showing a predetermined tubular tissue inside the living body.
[0019]
According to the above configuration, a three-dimensional image of a tubular tissue (such as a blood vessel) inside the living body can be accurately extracted and output.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In the following embodiments, a case where the present invention is applied to three-dimensional image diagnosis in a predetermined medical facility (hereinafter referred to as “medical facility H”) will be described as an example.
[0021]
FIG. 1 is a diagram showing a configuration of an image diagnostic system according to an embodiment of the present invention. As illustrated, the diagnostic imaging system 1 according to the present embodiment includes a communication network 10, a modality 100, a control terminal 200, and an image processing device 300.
[0022]
The communication network 10 is a communication network that interconnects the control terminal 200 and the image processing apparatus 300 in the medical facility H and mediates information transmission therebetween. For example, DICOM (Digital Imaging and Communications in Medicine), etc. It mediates information transmission based on a predetermined communication protocol.
[0023]
Next, the modality 100 will be described. The modality 100 is an imaging device that images the inside of a human body, and is, for example, a CT scanner (computer tomography apparatus), helical CT, MRI (magnetic resonance imaging apparatus), PET (positron tomography apparatus), or the like. In this embodiment, a CT scanner that captures a tomographic image inside a human body using X-rays is adopted as the modality 100.
[0024]
In the present embodiment, the modality 100 (CT scanner) is controlled by a control terminal 200 to be described later, and a tomographic image (inside a living body) inside a patient, a examinee, etc. (hereinafter referred to as “examinee etc.”) ( Slice). Here, in this embodiment, since a CT scanner is employed as the modality 100, the information indicating the tomographic image includes a CT value that is an X-ray absorption coefficient. Modality 100 and control terminal 200 are connected based on a predetermined medical image communication standard such as DICOM (Digital Imaging and Communications in Medicine), for example.
[0025]
Next, the control terminal 200 will be described. The control terminal 200 includes a predetermined information processing device such as a workstation, controls the operation of the connected modality 100, and acquires captured image data (original data) acquired by imaging by the modality 100. The configuration of the control terminal 200 will be described with reference to FIG.
[0026]
FIG. 2 is a block diagram showing the configuration of the control terminal 200. As illustrated, the control terminal 200 includes a control unit 210, a communication control unit 220, an input control unit 230, an output control unit 240, a program storage unit 250, and a storage unit 260.
[0027]
The control unit 210 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory)) serving as a work area, and controls each unit of the control terminal 200. Each process described later is executed based on a predetermined operation program stored in the program storage unit 250.
[0028]
The communication control unit 220 includes, for example, a predetermined communication device such as a predetermined NIC (Network Interface Card), and connects the control terminal 200, the modality 100, and the communication network 10, and communicates with the modality 100 and the image processing device 300. Communicate.
[0029]
For example, the input control unit 230 connects a predetermined input device 23 such as a keyboard or a pointing device, receives an instruction to the control unit 210 input from the input device 23, and transmits the instruction to the control unit 210.
[0030]
The output control unit 240 connects a predetermined output device 24 such as a display device or a printer, and outputs the processing result of the control unit 210 to the output device 24 as necessary.
[0031]
The program storage unit 250 includes a predetermined storage device such as a hard disk device or a ROM (Read Only Memory), and stores various operation programs executed by the control unit 210. The operation program stored in the program storage unit 250 is used to implement each process described later in cooperation with the OS, in addition to an arbitrary OS (Operating System: basic software) that controls the basic operation of the control terminal 200. It is assumed that operation programs as shown in (1) and (2) below are stored. Processing performed by the control terminal 200, which will be described later, is realized by the control unit 210 executing these operation programs.
(1) “Modality control program”: a program for controlling the modality 100
(2) “Communication program”: a program for controlling the communication control unit 220 to perform communication with the modality 100 or communication via the communication network 10.
[0032]
The storage unit 260 includes, for example, a storage device such as a RAM (Random Access Memory) or a hard disk device, and stores captured image data acquired from the modality 100.
[0033]
Here, “captured image data” (original data) obtained from the modality 100 indicates “three-dimensional volume data” of the imaging region. This three-dimensional volume data is composed of coordinate system information in the area, characteristic information at each coordinate, and the like. “Characteristic information” is information that indicates characteristics (for example, brightness, saturation, color tone, etc.) of pixels (pixels (voxels)) constituting the image when used for image generation. In this embodiment, since “CT scanner” is adopted as the modality 100, “CT value” is used as the characteristic information. Here, the “CT value” is a value indicating an X-ray absorption coefficient. When an image is generated using this CT value as a pixel value, a difference in CT value appears as a difference in brightness on the image. Therefore, by using “three-dimensional volume data” acquired from the modality 100, for example, a tomographic image (slice image) as shown in FIG. 3 can be obtained.
[0034]
Such a tomographic image can be grasped as a plurality of parallel two-dimensional images as shown in the figure, and can also be regarded as one three-dimensional region in which these are integrated. That is, not only can each layered two-dimensional image be extracted, but also an arbitrary region can be designated from the entire three-dimensional region. Here, as a method of designating an arbitrary plane, for example, a technique such as MPR (Multi Planer Reconstruction) is known. That is, as shown in FIG. 4A, an arbitrary plane in the three-dimensional volume data can be designated. Further, as a method for designating an arbitrary curved surface, for example, a technique such as CPR (Curved Planer Reconstruction) is known. That is, as shown in FIG. 4B, an arbitrary curved surface in the three-dimensional volume data can be designated.
[0035]
Next, the image processing apparatus 300 will be described. The image processing apparatus 300 includes a predetermined information processing apparatus such as a workstation, and generates a three-dimensional diagnostic image (medical image) using three-dimensional volume data (captured image data) acquired from the control terminal 200. To do. The configuration of the image processing apparatus 300 will be described below with reference to FIG.
[0036]
FIG. 5 is a block diagram illustrating a configuration of the image processing apparatus 300. As illustrated, the image processing apparatus 300 includes a control unit 310, a communication control unit 320, an input control unit 330, an output control unit 340, a program storage unit 350, and an image storage unit 360. .
[0037]
The control unit 310 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory)) serving as a work area, and controls each unit of the image processing apparatus 300. Each process to be described later is executed based on a predetermined operation program stored in the program storage unit 350.
[0038]
The communication control unit 320 includes a predetermined communication device such as a predetermined NIC (Network Interface Card), and connects the image processing device 300 and the communication network 10 to perform communication with the control terminal 200 and the like.
[0039]
For example, the input control unit 330 connects a predetermined input device 33 such as a keyboard or a pointing device, and receives instructions from the input device 33 to the control unit 310 and information recorded in each database. This is transmitted to the control unit 310.
[0040]
The output control unit 340 connects a predetermined output device 34 such as a display device or a printer, for example, and outputs the processing result of the control unit 310 to the output device 34 as necessary.
[0041]
The program storage unit 350 includes a predetermined storage device such as a hard disk device or a ROM (Read Only Memory), and stores various operation programs executed by the control unit 310. In the operation program stored in the program storage unit 350, in addition to an arbitrary OS (Operating System: basic software) that controls the basic operation of the image processing apparatus 300, each process described later is realized in cooperation with the OS. It is assumed that the following operation programs (1) to (3) are included. Processing by the image processing apparatus 300 to be described later is realized by the control unit 310 executing these operation programs.
(1) “Communication program”: a program for controlling the communication control unit 320 and communicating with the control terminal 200 or the like via the communication network 10.
(2) “DB control program”: a program for controlling the image storage unit 360
(3) “Image processing program”: a program for performing image processing on captured image data acquired from the control terminal 200
[0042]
The image storage unit 360 includes a rewritable storage device such as a semiconductor storage device or a hard disk device, for example, and stores data acquired by each processing described later, a generated three-dimensional diagnostic image, and the like.
[0043]
Hereinafter, each process in the present embodiment will be described with reference to the drawings. In the present embodiment, a desired blood vessel (a blood vessel to be diagnosed / diagnosed / observed. From the three-dimensional volume data acquired by the modality 100 by the image diagnostic system 1 to which the present invention is applied. A 3D image showing only the blood vessel is extracted from the 3D image of the region including the image, and a medical image used for image diagnosis is created.
[0044]
FIG. 6 is a flowchart for explaining “image diagnosis processing” for performing image diagnosis in the image diagnosis system 1 to which the present invention is applied. As shown in the figure, when performing image diagnosis with the image diagnosis system 1, “imaging processing” (step S100), “blood vessel image generation processing” (step S300), and “medical image generation / output processing” (step S500) are sequentially executed. Is done. Hereinafter, details of these processes will be described with reference to the drawings.
[0045]
First, “imaging processing” according to the present embodiment will be described with reference to a flowchart shown in FIG. This process is for acquiring a tomographic image (slice) of a human body such as a examinee in cooperation with the modality 100 and the control terminal 200, and will mainly be described below mainly on the operation of the control terminal 200. The control terminal 200 performs the following processing by executing the “modality control program” in the program storage unit 250.
[0046]
In executing the imaging operation, first, predetermined imaging condition information is set in the control terminal 200 (step S101). Here, various imaging conditions such as designation of an imaging target region and presence / absence of use of a contrast medium are set.
[0047]
The control terminal 200 controls the modality 100 according to the imaging conditions set in step S101 (step S102). That is, the modality 100 performs an imaging operation based on the imaging conditions under the control of the control terminal 200. As a result, the modality 100 acquires captured image data (three-dimensional volume data) in the set imaging region.
[0048]
When the imaging operation of the modality 100 ends, the control terminal 200 acquires captured image data captured from the modality 100 (step S103), stores it in the storage unit 260, and ends the process (step S104).
[0049]
In “image diagnosis processing” (FIG. 6) in the present embodiment, “blood vessel image generation processing” for generating a three-dimensional image showing blood vessels using the captured image data (three-dimensional volume data) acquired in this way. Is executed. This “blood vessel image generation process” will be described with reference to the flowchart shown in FIG. In this process, the image processing apparatus 300 extracts a three-dimensional image of a desired blood vessel using the captured image data acquired in the “imaging process” (step S100, FIG. 7). In the present embodiment, a case where a coronary blood vessel near the heart is an extraction target will be described as an example. The following processing is performed by the control unit 310 of the image processing apparatus 300 executing the “image processing program” of the program storage unit 350.
[0050]
First, the image processing apparatus 300 acquires target three-dimensional volume data (captured image data) from the control terminal 200 via the communication network 10 (step S301).
[0051]
Next, the control unit 310 displays a two-dimensional image based on the captured image (three-dimensional volume data) acquired in step S301 on the output device 34 (display device), and extracts a blood vessel to be extracted (hereinafter, “target blood vessel”). The designation of the extraction start point (hereinafter referred to as “start point”) and the extraction end point (hereinafter referred to as “end point”) is accepted (step S302). Here, an operator such as a doctor operates the input device 33 and designates a start point and an end point on the displayed two-dimensional image.
[0052]
FIG. 9A shows an example of the two-dimensional image displayed here. Here, an image showing the cross section of the target blood vessel Vt obtained by the MPR or the like is displayed on the output device 34. That is, by imaging light and dark based on the difference in CT values included in the three-dimensional volume data, a tube cross-sectional image of the target blood vessel Vt in the region is displayed. Here, the image processing apparatus 300 images the three-dimensional volume data corresponding to the position and direction specified by the operation of the input device 33 by the operator, thereby displaying the display position and angle while changing them as needed. In the case where blood vessels are to be imaged, a contrast agent is usually used to increase the CT value of blood, and as a result, the blood vessel portion is displayed relatively brightly as shown in FIG. . The operator operates the input device 33 to change the display screen so that the blood vessel cross section at the extraction start point of the target blood vessel Vt is displayed. The operator designates the center of the displayed cross section (hereinafter referred to as “starting point SP”) using the input device 33. Similarly, the center of the section at the end point of extraction (hereinafter referred to as “end point EP”) is designated.
[0053]
When the start point SP is specified in step S302, the control unit 310 of the image processing apparatus 300 specifies the three-dimensional coordinates. When the three-dimensional coordinates of the starting point SP are specified, as shown in FIG. 10A, a cubic three-dimensional region (hereinafter referred to as “three-dimensional region TDR”) having the starting point SP as the center (center of gravity) The center of the three-dimensional region TDR is designated as “center CP” (step S303). Here, for example, the three-dimensional region TDR is designated by combining the planar regions designated by the MPR.
[0054]
When the three-dimensional region TDR is designated, the control unit 310 acquires the three-dimensional volume data in the three-dimensional region TDR (step S304). That is, data corresponding to the inside of the three-dimensional region TDR is extracted from the three-dimensional volume data acquired in step S301.
[0055]
Next, the control unit 310 generates a 3D image using the acquired 3D volume data of the 3D region TDR (step S305). Here, using the three-dimensional volume data, for example, a three-dimensional image is generated by a technique such as “Flood Fill” or “Region Growing”.
[0056]
In the present embodiment, the three-dimensional region TDR as described above is sequentially specified along the target blood vessel Vt (start point SP to end point EP), and a three-dimensional blood vessel image (hereinafter referred to as “unit blood vessel image”) in each three-dimensional region TDR. 3) are connected to create a three-dimensional blood vessel image from the start point SP to the end point EP. Therefore, the control unit 310 executes “unit blood vessel image generation processing” (step S320) for generating such a “unit blood vessel image”. The “unit blood vessel image generation process” will be described with reference to the flowchart shown in FIG.
[0057]
First, the control unit 310 specifies a continuous region including the start point SP (center CP) on the three-dimensional image generated in step S305 (step S321). Here, the “continuous region” is one closed image (finitely closed image) having the same contour, which is obtained by a technique such as “Flood Fill”. In step S321, based on the coordinate value of the center CP of the three-dimensional region TDR, a range of a continuous region (hereinafter referred to as “continuous region CIM”) including the coordinates of the generated three-dimensional image is specified.
[0058]
Next, the control unit 310 identifies a location where the identified continuous region CIM and the surface portion (one surface of the cube) of the three-dimensional region TDR are in contact (step S322), and determines whether the location is 3 or more (step S322). Step S323). Here, it is determined whether or not the continuous region CIM is a three-dimensional image showing only the target blood vessel Vt (hereinafter referred to as “unit blood vessel image IMv”).
[0059]
That is, as shown in FIG. 10A, when only the target blood vessel Vt exists in the designated three-dimensional region TDR, a continuous region CIM obtained by imaging the three-dimensional region TDR in step S305. Is a blood vessel image IMv as shown in FIG.
[0060]
However, when a coronary blood vessel near the heart is targeted, as shown in FIG. 12, the heart HT and other blood vessels Vx are close to the target blood vessel Vt. When the heart HT is close to the target blood vessel Vt, when the start point SP on the target blood vessel Vt is designated, as shown in FIG. 13A, a part of the heart HT is included in the three-dimensional region TDR. It will be.
[0061]
When such a three-dimensional region TDR is imaged, it becomes as shown in FIG. Here, as described above, in the present embodiment, imaging is performed using the CT value included in the three-dimensional volume data, and the CT value indicates an X-ray absorption coefficient acquired by the modality 100 (CT scanner). For example, “water: 0”, “air: −1000”, and the value is predetermined by the substance. Therefore, when the target blood vessel Vt is to be imaged, a pixel (pixel (voxel)) having a CT value corresponding to a constituent material (blood, blood vessel wall, contrast agent, etc.) of the blood vessel is set as a display target. Only the blood vessel is imaged. Here, the target blood vessel Vt, the heart HT, and the other blood vessels Vx have substantially the same constituent materials. Therefore, since the difference in CT value indicating these is extremely small, when a three-dimensional region TDR in which the heart HT is close to the target blood vessel Vt is imaged, as shown in FIGS. 13 (a) and 13 (b), the target blood vessel An image in which Vt and a part of the heart HT are integrated may be obtained, and the target blood vessel Vt cannot be accurately recognized. Here, since the start point SP (center CP) is specified on the target blood vessel Vt, an image in which the target blood vessel Vt and the heart HT are integrated is specified as the continuous region CIM.
[0062]
Therefore, it is necessary to determine whether the continuous region CIM indicates only the target blood vessel Vt or includes the heart HT or the like. In step S323, the determination is made by paying attention to the number of contact points between the continuous area CIM and the three-dimensional area TDR.
[0063]
In other words, since the target blood vessel Vt is tubular, the continuous region CIM (that is, the unit blood vessel image IMv) generated when only the target blood vessel Vt exists in the three-dimensional region TDR and a portion that contacts the surface portion of the three-dimensional region TDR. (Hereinafter referred to as “contact EG”), as shown in FIG. 10 (b), there are two points of contact EG1 and contact EG2 (hereinafter, of “contact EG” for “unit blood vessel image IMv”, The upstream side in the traveling direction is “EG1”, and the downstream side is “EG2” (the traveling direction is determined based on the start point SP and the end point EP).
[0064]
On the other hand, the contact EG between the continuous region CIM and the three-dimensional region TDR generated when the heart HT or another blood vessel Vx is close to the target blood vessel Vt, as shown in FIG. There are at least three points of the contact point EG2 and the contact point EG3 (hereinafter, the contact point EG for the portion other than the target blood vessel Vt is referred to as “EG3”). Based on such a principle, it is determined in step S323 whether or not there are three or more contact points EG, so that the continuous region CIM is a three-dimensional image showing only the target blood vessel Vt or the heart HT or the like. It is possible to determine whether the image is a three-dimensional image included.
[0065]
Here, when the number of contact points EG is not three or more (step S323: No), since the continuous region CIM is an image showing only the target blood vessel Vt, the continuous region CIM is extracted as the unit blood vessel image IMv (step S324). ), The flow returns to the “blood vessel image generation process” (FIG. 8).
[0066]
On the other hand, when there are three or more contact points EG (step S323: Yes), since the continuous region CIM includes a heart HT other than the target blood vessel Vt, the unit blood vessel image IMv is extracted from the continuous region CIM. For this purpose, a “blood vessel image revealing process” (step S330) is executed. This “blood vessel image revealing process” will be described with reference to the flowchart shown in FIG. Here, the range of CT values used when imaging the three-dimensional region TDR (hereinafter referred to as “target CT value range”) is changed to reveal an image showing only the target blood vessel Vt.
[0067]
First, the control unit 310 sets a “threshold” range (hereinafter referred to as “threshold range”) used to change the target CT value range (step S331). That is, in the present embodiment, in the following process, the target CT value range is changed by changing the threshold value indicating the lower limit value of the “target CT value range”. min ~ Maximum threshold th max ) First.
[0068]
Here, the “target CT value range” indicates a range of CT values to be a target when imaging a living body (human body) as a target. In the present embodiment, since the inside of the human body is an imaging target, organs, organs, blood (contrast medium), bones, and the like are imaging targets. As described above, since the CT value is determined in advance by the substance, the range of CT values corresponding to these imaging targets can be defined as the “target CT value range”. Since the threshold value is changed within the “target CT value range” determined as described above, the “threshold range” is also the same range as the “target CT value range”.
[0069]
Further, as described above, the “threshold value” in the present embodiment indicates the lower limit value of the target CT value range. That is, when a certain threshold value is designated, all CT values indicating values equal to or higher than the CT value corresponding to the threshold value are targeted. Accordingly, coordinates in which CT values included in the “target CT value range” are characteristic information among the three-dimensional volume data constituting the region are to be imaged. For example, when the threshold value range (target CT value range) is “0 to 1000” and the threshold value “100” is set, the coordinates having the CT value included in the range “100 to 1000” as characteristic information are displayed. It is imaged.
[0070]
Further, when imaging is performed using a CT value that is an X-ray absorption coefficient, a difference in CT value appears as a difference in brightness. At this time, for example, a pixel (voxel) having the CT value to be imaged as characteristic information is imaged. In the present embodiment, it is assumed that the CT value of blood is increased using a contrast medium during imaging.
[0071]
First, the controller 310 determines the minimum threshold th set in step S331. min Is set as the threshold th (step S332), and pixels (voxels) in the three-dimensional region TDR having the CT value with the threshold th as the lower limit as characteristic information are imaged (step S333). Threshold th is minimum threshold th min The applied CT value is the threshold range (minimum threshold th min ~ Maximum threshold th max ) Corresponds to all CT values. Here, in step S331, since the width of the CT value that can image the living body is set as the threshold range, the threshold th is the minimum threshold th. min The result of imaging in is a continuous area CIM as shown in FIG.
[0072]
The control unit 310 identifies the boundary of the continuous area CIM obtained by imaging in step S333, and records it in a predetermined storage unit (for example, a work area or an image storage unit 360) (step S334). Here, in order to specify the “boundary of the continuous region CIM”, an arbitrary parameter can be used. For example, the volume value or surface area of the three-dimensional object indicated by the continuous area CIM, or the coordinate value of the contour can be used. The boundary of the continuous region CIM is specified by any one of these parameters or a combination thereof. In the present embodiment, a case where “volume value” is used as a parameter will be described below as an example.
[0073]
Thereafter, the control unit 310 sets the threshold th to the maximum threshold th. max The process is sequentially changed until the threshold values are satisfied, and the processing of steps S333 to S334 is performed for each threshold (step S335: No, S336). That is, the threshold th is set to the minimum threshold th min To the maximum threshold th max Are sequentially incremented, and (1) imaging and (2) volume value calculation and recording of the continuous region CIM are performed for each threshold. Thereby, the boundary of the continuous area CIM for each threshold specified in step S334 is recorded in the predetermined storage unit. Note that the increment rate of the threshold th (that is, the lower limit value of the target CT value range) is arbitrary, and is arbitrarily set according to, for example, the processing capability of the image processing apparatus 300 and desired accuracy. In this embodiment, the threshold th is incremented by “+1” for ease of explanation.
[0074]
The control unit 310 calculates the threshold th based on the volume value recorded for each threshold th. min ~ Threshold th max The change rate of the volume value at is calculated (step S337). That is, by plotting the volume value of the continuous region CIM at each threshold th, a graph showing the volume distribution as shown in FIG. 15 can be obtained. In this graph, the horizontal axis represents the threshold th (minimum threshold th min ~ Maximum threshold th max The vertical axis represents the volume value of the continuous region CIM. As shown in the figure, the threshold th is the minimum threshold th. min ~ Maximum threshold th max As the transition to, the volume value of the continuous region CIM decreases. This is because the target CT value range is narrowed in accordance with the transition of the threshold value, and the portion to be imaged is also reduced.
[0075]
Here, in the graph shown in FIG. 15, a threshold when three or more contact points EG appear is excluded (shaded portion “EG3” in the figure). This is because the target blood vessel is tubular, and the center CP of the three-dimensional region TDR is on the target blood vessel Vt. Therefore, when the target blood vessel Vt is revealed (the image showing the target blood vessel Vt and the heart HT are displayed. This is because the continuous region CIM including the center CP shows only the target blood vessel Vt, and there can be no more than three contact points EG with the three-dimensional region TDR. .
[0076]
Further, as shown in the graph of FIG. 15, in the process of incrementing the threshold th (that is, narrowing the target CT value range), the volume value of the continuous region CIM may suddenly decrease. In the example shown in the graph, the threshold is th a ~ Th a + 1 , And th b ~ Th b + 1 When transitioning to, the volume value has decreased rapidly. Where "th a ~ Th a + 1 ”When the continuous region CIM has been in contact with the surface portion of the three-dimensional region TDR through the contact point EG3 until the contact point EG3 disappears as the volume decreases as shown in FIG. It is. At this time, the volume value of the continuous region CIM decreases rapidly.
[0077]
Also, "th b ~ Th b + 1 "Is the time when the continuous region CIM is manifested as indicating only the target blood vessel Vt. That is, the threshold th a + 1 ~ Th b As shown in FIG. 16B, the volume value of the continuous region CIM decreases, and the threshold th b ~ Th b + 1 When the transition is made, the continuous region CIM is separated into “continuous region CIM1” indicating only the target blood vessel Vt and “continuous region CIM2” indicating a part of the heart HT. Here, since the boundary change detection target is the continuous area CIM including the center CP, the continuous area CIM1 is the target. Therefore, when focusing on the volume value of the continuous area CIM1, the threshold value th integrated with the continuous area CIM2 b It will decrease rapidly from the volume value up to.
[0078]
In this process, since the target blood vessel Vt is identified on the image, the target blood vessel Vt is detected by detecting a sudden decrease in the volume value (that is, the boundary of the continuous region CIM) as described above. It is possible to determine whether or not has been revealed. However, depending on various conditions such as the location where the three-dimensional region TDR is specified and the shape of the continuous region CIM, the change when the contact point EG3 disappears is better than the change when the target blood vessel Vt becomes apparent. It can be big. Therefore, even if the portion where the volume value change rate is maximum within the threshold range is detected, the manifestation of the blood vessel cannot necessarily be detected. Therefore, the control unit 310 excludes the threshold value when the contact point EG3 exists, and specifies the threshold value that maximizes the volume value change (that is, the change in the boundary of the continuous region CIM is the maximum) among the threshold values after the exclusion ( Step S338).
[0079]
The control unit 310 sets the threshold specified in step S338 as the lower limit, and sets the threshold th max Pixels (voxels) that fall within the CT value range with the upper limit being converted into an image (step S339), and the flow returns to the “unit blood vessel image generation process” shown in FIG.
[0080]
In the unit blood vessel image generation process, a unit blood vessel image IMv as shown in FIG. 16C can be obtained by imaging in step S339 (step S324).
[0081]
When the unit blood vessel image IMv is acquired in the three-dimensional region TDR, the unit blood vessel image IMv is stored in a predetermined storage region such as a work area, and then the flow returns to the “blood vessel image generation process” shown in FIG. In the present embodiment, a three-dimensional region TDR is sequentially specified from the start point SP to the end point EP on the target blood vessel Vt, and a three-dimensional image of the target blood vessel Vt is obtained using the unit blood vessel image IMv acquired in each three-dimensional region TDR. Is generated. Therefore, when the unit blood vessel image IMv is acquired in one three-dimensional region TDR, “next center position determination processing” (step S306: No) is performed for designating the next three-dimensional region TDR until the end point EP is reached (step S306: No). S340) is executed.
[0082]
In the “next center position determination process”, based on the three-dimensional region TDR and the unit blood vessel image IMv of the three-dimensional region TDR, the position (hereinafter referred to as “next center”) of the three-dimensional region TDR to be designated next. Position). In this case, for example, the end portion of the generated unit blood vessel image IMv can be set as the next center position. More specifically, as shown in FIG. 17A, the end of the unit blood vessel image IMv generated in the previously specified three-dimensional region TDR1 (center CP1) (that is, the unit blood vessel image IMv and the three-dimensional region TDR1 The next three-dimensional region TDR2 is designated with the contact point EG2) as the center CP2.
[0083]
Alternatively, as shown in FIG. 17B, the center CP1 of the previously specified three-dimensional region TDR1 and the end of the unit blood vessel image IMv generated in the three-dimensional region TDR1 (that is, the unit blood vessel image IMv and the three-dimensional region). A line segment SL (for example, three-dimensional path data) connecting the contact point EG2) with the area TDR1 may be obtained, and the next three-dimensional area TDR2 may be designated with the midpoint of the line segment SL as the center CP2. Alternatively, the continuous area CIM may be thinned (Skeltonization), and the next space area may be designated centering on a point on the line obtained by thinning.
[0084]
In this way, the three-dimensional region TDR is sequentially designated along the target blood vessel Vt (step S306 (No) → S340 → S320: FIG. 8), and when the end point EP is reached (step S306: Yes), the work area, etc. The unit blood vessel images IMv in the respective three-dimensional regions TDR held in are joined together to generate a three-dimensional image indicating the target blood vessel Vt from the start point SP to the end point EP, and the “blood vessel image generation process” is completed. (Step S307).
[0085]
In the “image diagnosis process” (FIG. 6) according to the present embodiment, a “medical image” that generates and outputs a predetermined medical image using the blood vessel image generated in the “blood vessel image generation process” (FIG. 8). The “generation / output process” (step S500) is executed. Here, as shown in FIG. 18, a medical image Mim showing a coronary blood vessel near the heart is generated and displayed in a predetermined window MW displayed on the output device 34 (display device).
[0086]
As described above, according to the diagnostic imaging system according to the embodiment of the present invention, when generating a three-dimensional image of a tubular tissue such as a blood vessel, the blood vessel is changed by changing the threshold value in each three-dimensional region TDR. Since it is made apparent, for example, even when the CT value changes in the middle of the tube due to a change in blood vessel diameter or an abnormal site, a three-dimensional image of the target blood vessel Vt can be accurately extracted. Therefore, it is possible to obtain a good image that is not cut off. Even when other organs having similar CT values are close to each other, the center line of the target blood vessel can be accurately extracted. Therefore, in particular, it is possible to realize a medical image display that is extremely useful for diagnosis and treatment of coronary blood vessels near the heart.
[0087]
In the above-described embodiment, the case where the cubic three-dimensional region TDR is designated as the three-dimensional region TDR is exemplified, but the shape of the three-dimensional region TDR is not limited to this. For example, a rectangular parallelepiped shape as shown in FIG. 19 (a), a triangular pyramid shape as shown in FIG. 19 (b), a spherical shape as shown in FIG. 20 (a), or a shape shown in FIG. 20 (b). In addition to such a cylindrical shape, a three-dimensional region TDR having an arbitrary shape such as an elliptical shape, a barrel shape, or a torus (ring tube surface) may be designated. In the above embodiment, whether or not the continuous region CIM indicates only the target blood vessel Vt is determined based on whether or not the contact point between the three-dimensional region TDR and the continuous region CIM is 3 or more. However, as long as the manifestation of the target blood vessel Vt can be determined, the number of contacts used for the determination is not limited to three and is arbitrary.
[0088]
In the above embodiment, the start point SP and the end point EP (arbitrary point) are designated on the two-dimensional image showing the blood vessel cross section by the operator operating the input device 33. Not limited to. For example, an arbitrary point may be specified by a program executed by the image processing apparatus 300, an instruction from another apparatus connected to the image processing apparatus 300, or the like regardless of an operation of the operator. In the above embodiment, both the start point SP and the end point EP are specified, but either the start point SP or the end point EP may be specified. In this case, the “extraction direction” may be designated by an operator or program instruction. Further, in the above embodiment, the extraction is terminated when the designation of the three-dimensional region TDR reaches the end point EP. However, the present invention is not limited to this. For example, a threshold value for the blood vessel diameter is set and the unit blood vessel image IMv is set. The blood vessel diameter of the blood vessel portion indicated by each unit blood vessel image IMv may be calculated based on the above, and the extraction may be terminated when the blood vessel diameter is equal to or smaller than a predetermined value.
[0089]
In the above embodiment, the three-dimensional region TDR centered on an arbitrary point on the target blood vessel Vt is specified. However, the method of specifying the three-dimensional region TDR is not limited to this as long as the target blood vessel Vt can be extracted. For example, the three-dimensional region TDR may be designated so that an arbitrary point on the target blood vessel Vt is a predetermined vertex of the designated three-dimensional region TDR. Alternatively, the three-dimensional region TDR may be designated so that an arbitrary point on the target blood vessel Vt is the center of one surface constituting the designated three-dimensional region TDR.
[0090]
In the above-described embodiment, the case where the manifestation of the blood vessel image is determined by paying attention to the volume change of the continuous region CIM is exemplified. However, the matter of interest is not limited to this, for example, the shape change of the continuous region CIM You may determine based on. Further, in the above embodiment, a closed continuous region CIM such as a “finitely closed image” is used to identify the manifested blood vessel image. However, if the manifestation can be identified, that is, the target As long as the boundary of the image showing only the blood vessel Vt can be determined, it may be an open region having a certain continuity.
[0091]
In the above embodiment, the threshold value indicating the lower limit value of the “target CT value range” is changed. However, the threshold value is arbitrarily set. For example, an upper limit value of the “target CT value range” may be indicated. In the above embodiment, the threshold is set to the minimum threshold th. min To the maximum threshold th max However, the method of changing is arbitrary, for example, the maximum threshold th max To minimum threshold th min It may be changed to. In the above embodiment, the “target CT value range” is gradually narrowed by changing the threshold. However, the present invention is not limited to this. For example, by gradually expanding the “target CT value range”. The manifestation may be determined.
[0092]
Also, any “threshold” can be used. For example, in the case of using “Region Growing” for generating a three-dimensional image, the region may be changed by changing a parameter (for example, “gradient threshold”). There may be a plurality of parameters in this case.
[0093]
In the above-described embodiment, the case where a CT scanner is employed as the modality 100 and thus a CT image is used has been described as an example. However, as described above, the modality 100 that can be employed is arbitrary, and therefore, the adopted modality is employed. You may use the image (for example, MR image, ultrasonic image, etc.) according to an apparatus.
[0094]
In the above-described embodiment, blood vessels such as coronary blood vessels are particularly targeted for extraction, but any tubular tissue (tubular organ, luminal organ) can be targeted for extraction. For example, trachea, intestine, nerve, etc. It can be an extraction target.
[0095]
For example, the modality 100, the control terminal 200, or the like may have some or all of the functions related to the above-described processes of the image processing apparatus 300 according to the embodiment. That is, each function of the image processing apparatus 300 may be realized by a single apparatus or may be realized by cooperation of a plurality of apparatuses.
[0096]
The image processing apparatus 300 in the above-described embodiment can be configured with a dedicated device, and can also be configured with a general-purpose computer device such as a personal computer. In this case, the image processing apparatus 300 can be configured by installing a part or all of the programs for realizing the above processes in a general-purpose computer apparatus and executing them under the control of an OS or the like. The program distribution form in this case is arbitrary. For example, in addition to being able to be stored and distributed on a recording medium such as a CD-ROM, it can be distributed via a communication medium (such as the Internet) by being superimposed on a carrier wave.
[0097]
【The invention's effect】
As described above, according to the present invention, it is possible to accurately extract and output a tubular tissue such as a blood vessel in generating a medical image.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a configuration of an “image diagnostic system” according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a “control terminal” shown in FIG.
FIG. 3 is a diagram for explaining a tomographic image (slice) acquired by the control terminal shown in FIG. 2;
FIGS. 4A and 4B are diagrams for explaining a method for designating an arbitrary area of three-dimensional volume data, in which FIG. 4A shows an example of “MPR”, and FIG. 4B shows an example of “CPR”;
5 is a block diagram showing a configuration of an “image processing apparatus” shown in FIG. 1;
FIG. 6 is a flowchart for explaining “image diagnosis processing” according to the embodiment of the present invention;
7 is a flowchart for explaining the “imaging process” shown in FIG. 6;
FIG. 8 is a flowchart for explaining the “blood vessel image generation processing” shown in FIG. 6;
FIGS. 9A and 9B are diagrams for explaining a process related to the “blood vessel image generation process” shown in FIG. 8; FIG. 9A shows an example of a two-dimensional image displayed for designating a start point; The positional relationship between the designated start point and end point and the target blood vessel is schematically shown.
10 is a diagram for explaining processing related to the “blood vessel image generation processing” shown in FIG. 8; FIG. 10A is a diagram for explaining the positional relationship between a designated start point and a designated spatial region; (B) is a diagram showing an example of a “unit blood vessel image” extracted in a designated spatial region.
FIG. 11 is a flowchart for explaining “unit blood vessel image generation processing” executed in “blood vessel image generation processing” shown in FIG. 8;
FIG. 12 is a diagram for explaining the positional relationship between the target blood vessel and the adjacent heart and other blood vessels.
FIG. 13 is a diagram for explaining a case where the target blood vessel and the heart are close to each other, and (a) shows an example of the positional relationship between the target blood vessel, the adjacent heart, and a designated spatial region; (B) shows an example of a three-dimensional image when the spatial region is imaged.
14 is a flowchart for explaining a “blood vessel image revealing process” executed in the “unit blood vessel image generation process” shown in FIG. 11. FIG.
15 is a graph showing a relationship between a change in threshold value and a volume value of a continuous area in the “blood vessel image revealing process” shown in FIG. 14;
16A and 16B are diagrams for explaining a change in a continuous region appearing in the graph shown in FIG. 15, wherein FIG. 16A shows an example of the continuous region at the time when the number of contact points between the continuous region and the spatial region decreases; ) Shows an example of the continuous area when the volume value of the continuous area is decreasing, and (c) shows an example of the continuous area when the continuous area is separated.
17 is a diagram for explaining the “next center position determination process” in the “blood vessel image generation process” shown in FIG. 8, in which (a) explains the case where the end of the unit blood vessel image is the next center. FIG. FIG. 6B is a schematic diagram for explaining a case where the next center is a midpoint between the end of the unit blood vessel image and the previous center.
18 is a diagram illustrating an example of a medical image generated and output in “medical image generation output / processing” in the “image diagnosis processing” illustrated in FIG. 6;
FIGS. 19A and 19B are diagrams illustrating shapes applicable as a space area in the embodiment of the present invention, in which FIG. 19A shows a rectangular parallelepiped space area, and FIG. 19B shows a triangular pyramid shaped space area;
FIGS. 20A and 20B are diagrams illustrating shapes applicable as a space area in the embodiment of the present invention, where FIG. 20A shows a spherical space area, and FIG. 20B shows a cylindrical space area;
[Explanation of symbols]
1 diagnostic imaging system
10 Communication network
100 modalities
200 Control terminal
300 Image processing device

Claims (10)

生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータが示す所定の管状組織上の任意点を中心とした所定の3次元領域を指定する3次元領域指定手段と、
前記3次元ボリュームデータを用いて、当該3次元領域の3次元画像を生成する画像生成手段と、
前記画像生成手段によって生成される3次元画像を構成する前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域における前記管状組織のみを示す3次元画像を顕在化させる画像顕在化手段と、
前記画像顕在化手段が顕在化させた3次元画像を用いて、前記管状組織を示す所定の医用画像を生成する医用画像生成手段と、
を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
Three-dimensional region designating means for designating a predetermined three-dimensional region centered on an arbitrary point on a predetermined tubular tissue indicated by the three-dimensional volume data;
Image generating means for generating a three-dimensional image of the three-dimensional region using the three-dimensional volume data;
By changing predetermined characteristic information included in the three-dimensional volume data constituting the three-dimensional image generated by the image generation means, a three-dimensional image showing only the tubular tissue in the three-dimensional region is made obvious. Image revealing means;
Medical image generation means for generating a predetermined medical image showing the tubular tissue using the three-dimensional image made visible by the image revealing means;
A medical image processing apparatus comprising:
前記画像顕在化手段は、
前記生成された3次元画像を構成する連続領域であって、当該3次元領域の中心を含んでいる連続領域を検出する連続領域検出手段と、
該連続領域検出手段が検出した連続領域と前記3次元領域とに基づいて、当該連続領域が前記管状組織のみを示すものであるか否かを判別する顕在化判別手段と、をさらに備え、
前記顕在化判別手段により前記管状組織のみを示すと判別された連続領域を前記顕在化された3次元画像とする、
ことを特徴とする請求項1に記載の医用画像処理装置。
The image revealing means includes
Continuous region detecting means for detecting a continuous region that constitutes the generated three-dimensional image and that includes the center of the three-dimensional region;
Further comprising a revealing determining means for determining whether or not the continuous region indicates only the tubular tissue based on the continuous region detected by the continuous region detecting means and the three-dimensional region;
The continuous region determined to show only the tubular tissue by the manifestation determination means is the manifested three-dimensional image,
The medical image processing apparatus according to claim 1.
前記連続領域検出手段は、前記特性情報の変化に応じた前記連続領域の変化を検出し、
前記顕在化判別手段は、該連続領域の変化に基づいて、当該連続領域が前記管状組織のみを示すものであるか否かを判別する、
ことを特徴とする請求項2に記載の医用画像処理装置。
The continuous area detecting means detects a change in the continuous area according to a change in the characteristic information,
The manifestation determination means determines whether or not the continuous region indicates only the tubular tissue based on the change in the continuous region.
The medical image processing apparatus according to claim 2.
前記3次元領域指定手段は、前記任意点及び/又は前記顕在化された3次元画像に基づいて次に指定する3次元領域の中心を決定することで、複数の3次元領域を指定し、
前記医用画像生成手段は、前記複数の3次元領域で顕在化された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の医用画像処理装置。
The three-dimensional region designating means designates a plurality of three-dimensional regions by determining a center of a three-dimensional region to be designated next based on the arbitrary point and / or the manifested three-dimensional image,
The medical image generation means generates a predetermined medical image indicating the tubular tissue using a three-dimensional image that is manifested in the plurality of three-dimensional regions.
The medical image processing apparatus according to claim 1, wherein the medical image processing apparatus is a medical image processing apparatus.
コンピュータを用いて、生体内部の所定の管状組織を示す医用画像を生成するための医用画像処理方法であって、
生体内部を示した所定の3次元ボリュームデータを取得するステップと、
前記3次元ボリュームデータで示される管状組織に含まれる任意点を特定するステップと、
前記特定された任意点に基づいた少なくとも一の3次元領域を指定するステップと、
前記指定された3次元領域内に含まれる前記管状組織を示す3次元画像を生成するステップと、
前記生成された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成するステップと、を備え、
前記3次元画像を生成するステップは、指定された3次元領域内の前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域内の管状組織のみを示す3次元画像を顕在化させるステップをさらに備える、
ことを特徴とする医用画像処理方法。
A medical image processing method for generating a medical image showing a predetermined tubular tissue inside a living body using a computer,
Obtaining predetermined three-dimensional volume data indicating the inside of the living body;
Identifying an arbitrary point included in the tubular tissue indicated by the three-dimensional volume data;
Designating at least one three-dimensional region based on the identified arbitrary points;
Generating a three-dimensional image showing the tubular tissue included in the designated three-dimensional region;
Using the generated three-dimensional image to generate a predetermined medical image showing the tubular tissue,
The step of generating the three-dimensional image includes changing the predetermined characteristic information included in the three-dimensional volume data in the designated three-dimensional region, thereby indicating only the tubular tissue in the three-dimensional region. Further comprising the step of revealing,
A medical image processing method characterized by the above.
前記3次元画像を顕在化させるステップは、
前記所定の特性情報を変化させることで変化する所定の連続領域を検出するステップをさらに備え、
前記変化した連続領域が、当該3次元領域の中心を含み、かつ、当該3次元領域との接点が所定数以上でない場合に、当該連続領域を前記顕在化された3次元画像とする、
ことを特徴とする請求項5に記載の医用画像処理方法。
The step of revealing the three-dimensional image includes:
Detecting a predetermined continuous region that changes by changing the predetermined characteristic information;
When the changed continuous region includes the center of the three-dimensional region and the number of contact points with the three-dimensional region is not equal to or greater than a predetermined number, the continuous region is defined as the manifested three-dimensional image.
The medical image processing method according to claim 5.
前記3次元領域を指定するステップは、指定した3次元領域において顕在化された3次元画像に基づいて、次に指定する3次元領域の中心を決定することで、前記管状組織に沿って複数の3次元領域を順次指定する、
ことを特徴とする請求項5または6に記載の医用画像処理方法。
The step of designating the three-dimensional region includes determining a center of a three-dimensional region to be designated next based on a three-dimensional image that has been manifested in the designated three-dimensional region, so that a plurality of the three-dimensional regions are designated along the tubular tissue. Specify the 3D area sequentially,
7. The medical image processing method according to claim 5 or 6, wherein:
前記3次元領域を指定するステップは、前記特定された任意点を中心とする所定の3次元領域を指定する、
ことを特徴とする請求項5乃至7のいずれか1項に記載の医用画像処理方法。
The step of designating the three-dimensional area designates a predetermined three-dimensional area centered on the specified arbitrary point;
The medical image processing method according to any one of claims 5 to 7.
コンピュータを、
生体内部を示す所定の3次元ボリュームデータを取得する手段と、
前記3次元ボリュームデータが示す所定の管状組織上の任意点を中心とする所定の3次元領域を指定する手段と、
前記指定された3次元領域の前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域における前記管状組織のみを示す3次元画像を生成する手段と、
前記生成された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成する手段と、
を備えた医用画像処理装置として機能させることを特徴とするプログラム。
Computer
Means for acquiring predetermined three-dimensional volume data indicating the inside of the living body;
Means for designating a predetermined three-dimensional region centered on an arbitrary point on a predetermined tubular tissue indicated by the three-dimensional volume data;
Means for generating a three-dimensional image showing only the tubular tissue in the three-dimensional region by changing predetermined characteristic information included in the three-dimensional volume data of the designated three-dimensional region;
Means for generating a predetermined medical image showing the tubular tissue using the generated three-dimensional image;
A program for causing a computer to function as a medical image processing apparatus.
コンピュータに、
生体内部を示す所定の3次元ボリュームデータを取得するステップ、
前記3次元ボリュームデータが示す所定の管状組織上の任意点を中心とする所定の3次元領域を指定するステップ、
前記指定された3次元領域の前記3次元ボリュームデータに含まれる所定の特性情報を変化させることで、当該3次元領域における前記管状組織のみを示す3次元画像を生成するステップ、
前記生成された3次元画像を用いて、前記管状組織を示す所定の医用画像を生成するステップ、
を実行させることで生体内部の所定の管状組織を示す医用画像を生成することを特徴とするプログラム。
On the computer,
Obtaining predetermined three-dimensional volume data indicating the inside of the living body;
Designating a predetermined three-dimensional region centered on an arbitrary point on a predetermined tubular tissue indicated by the three-dimensional volume data;
Generating a three-dimensional image showing only the tubular tissue in the three-dimensional region by changing predetermined characteristic information included in the three-dimensional volume data of the designated three-dimensional region;
Generating a predetermined medical image representing the tubular tissue using the generated three-dimensional image;
To generate a medical image indicating a predetermined tubular tissue inside the living body.
JP2003161241A 2003-04-02 2003-06-05 Medical image processing apparatus and program Expired - Lifetime JP3896349B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003161241A JP3896349B2 (en) 2003-06-05 2003-06-05 Medical image processing apparatus and program
US10/816,978 US7639855B2 (en) 2003-04-02 2004-04-02 Medical image processing apparatus, and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003161241A JP3896349B2 (en) 2003-06-05 2003-06-05 Medical image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2004358001A true JP2004358001A (en) 2004-12-24
JP3896349B2 JP3896349B2 (en) 2007-03-22

Family

ID=34053752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003161241A Expired - Lifetime JP3896349B2 (en) 2003-04-02 2003-06-05 Medical image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP3896349B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008168016A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Ultrasonic diagnostic apparatus, imt measurement method, and imt measurement program
WO2009096290A1 (en) * 2008-01-31 2009-08-06 Hitachi Medical Corporation Medical diagnostic imaging device and method
KR101769331B1 (en) * 2015-11-30 2017-08-18 오스템임플란트 주식회사 Method for reconstructing ct image, apparatus and recording medium thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
JP2002282235A (en) * 2000-11-22 2002-10-02 General Electric Co <Ge> Automatic segment dividing method for medical image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
JP2002282235A (en) * 2000-11-22 2002-10-02 General Electric Co <Ge> Automatic segment dividing method for medical image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008168016A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Ultrasonic diagnostic apparatus, imt measurement method, and imt measurement program
WO2009096290A1 (en) * 2008-01-31 2009-08-06 Hitachi Medical Corporation Medical diagnostic imaging device and method
JP5468909B2 (en) * 2008-01-31 2014-04-09 株式会社日立メディコ Medical diagnostic imaging equipment
KR101769331B1 (en) * 2015-11-30 2017-08-18 오스템임플란트 주식회사 Method for reconstructing ct image, apparatus and recording medium thereof

Also Published As

Publication number Publication date
JP3896349B2 (en) 2007-03-22

Similar Documents

Publication Publication Date Title
US7620224B2 (en) Image display method and image display program
JP5675227B2 (en) Endoscopic image processing apparatus, operation method, and program
US7502025B2 (en) Image processing method and program for visualization of tubular tissue
US10098602B2 (en) Apparatus and method for processing a medical image of a body lumen
US7492968B2 (en) System and method for segmenting a structure of interest using an interpolation of a separating surface in an area of attachment to a structure having similar properties
JP5295562B2 (en) Flexible 3D rotational angiography-computed tomography fusion method
JP2008510499A (en) Anatomical visualization / measurement system
JP4105176B2 (en) Image processing method and image processing program
JP2005199041A (en) Method and apparatus for segmenting structure in ct angiography
JP2008086767A (en) System and method for three-dimensional and four-dimensional contrast imaging
KR102060895B1 (en) Method for producing medical image and device for producing medical image
EP1722333A1 (en) Method and device for reconstructing two-dimensional sectional images
JP3984202B2 (en) MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM
JP2002078706A (en) Computer-aided diagnosis method for supporting diagnosis of three-dimensional digital image data and program storage device
JP5194138B2 (en) Image diagnosis support apparatus, operation method thereof, and image diagnosis support program
WO2013125276A1 (en) X-ray ct device, image display device, and image display method
JP2007275318A (en) Image display device, image display method, and its program
JP2019193788A (en) Medical information processing system and medical information processing program
JP2009279179A (en) Image display device and image display program
JP2004174241A (en) Image forming method
US7376254B2 (en) Method for surface-contouring of a three-dimensional image
JP6293132B2 (en) X-ray CT apparatus and imaging method
JP2007014483A (en) Medical diagnostic apparatus and diagnostic support apparatus
JP2008018016A (en) Medical image processing equipment and method
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061218

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3896349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131222

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term