JP4564233B2 - Image processing apparatus, image data processing method, and program - Google Patents

Image processing apparatus, image data processing method, and program Download PDF

Info

Publication number
JP4564233B2
JP4564233B2 JP2003025260A JP2003025260A JP4564233B2 JP 4564233 B2 JP4564233 B2 JP 4564233B2 JP 2003025260 A JP2003025260 A JP 2003025260A JP 2003025260 A JP2003025260 A JP 2003025260A JP 4564233 B2 JP4564233 B2 JP 4564233B2
Authority
JP
Japan
Prior art keywords
core
image data
tubular structure
stereoscopic image
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003025260A
Other languages
Japanese (ja)
Other versions
JP2004230086A (en
Inventor
友寛 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003025260A priority Critical patent/JP4564233B2/en
Publication of JP2004230086A publication Critical patent/JP2004230086A/en
Application granted granted Critical
Publication of JP4564233B2 publication Critical patent/JP4564233B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像データ処理方法およびプログラムに係り、とくに、X線CT装置や磁気共鳴診断装置(MRI装置)等の撮影装置から得られた被検体の3次元ボリュームデータを用いて管腔臓器等の内腔の形状表示や定量解析を行う機能を有した画像処理装置、画像データ処理方法およびプログラムに関する。
【0002】
【従来の技術】
近年の医用診断において、被検体の血管などの管腔臓器に関しては、その形状を表示させたり、その走行状態を定量解析に付することが求められている。この形状表示や定量解析を行う場合、被検体の管腔臓器を含む部位の3次元ボリュームデータをX線CT装置MRI装置などの医用モダリティで取得し、この3次元ボリュームデータ(立体データ)が画像処理に付される。
【0003】
この画像処理においては、管腔臓器の3次元的な芯線(パスライン(path line):一例として管腔臓器の中心線)の位置情報を知る必要がある。3次元ボリュームデータを用いて管腔臓器の芯線を3次元的に抽出する代表的な方法には、非特許文献1に記載されているように、輝度値情報を利用して管腔臓器内を探索していく方法や、非特許文献2に記載されているように、管腔臓器の抽出領域を細線化する方法が知られている。
【0004】
【非特許文献1】
「O. Wink, W. J. Niessen, M. A. Viergever, “Fast Delineation and Visualization of Vessels in 3-D Angiographic Images,” IEEE Trans. Med. Imaging, Vol.19, No.4, pp.337-346, Apr., 2000」
【0005】
【非特許文献2】
「G. D. Rubin, D. S. Paik, P. C. Johnston, S. Napel, “Measurement of the Aorta and Its Branches with Helical CT,” Radiology, Vol.206, No.3, pp.823-829, Mar., 1998」
【0006】
【発明が解決しようとする課題】
しかしながら、上述した非特許文献1及び2のうち、前者では、探索途中に管腔臓器のコントラストが低い箇所や内径が小さい箇所などが存在すると、その箇所で探索方向が管腔臓器外にずれてしまい、探索が失敗に終わる可能性が高いという問題がある。また、後者にあっては、管腔臓器の領域抽出の精度が低い場合、細線化により得られる芯線の精度が低下したり、管腔臓器の抽出領域の画素数に比例して細線化に多大な処理時間を要するという問題がある。
【0007】
本発明は、上述した従来法の問題に鑑みてなされたもので、血管などのような分岐する管腔臓器の芯線及び輪郭の3次元的な位置情報を短い処理時間で精度良く抽出でき、これにより、診断に有用な情報を確実に提供することができる画像処理装置、画像データ処理方法およびプログラムを提供することを、その目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するため、本発明に係る画像処理装置は、被検体の立体画像データを記憶する立体画像データ記憶手段と、前記立体画像データ記憶手段により記憶された立体画像データ内の所望の分岐する管状構造物の領域を前記立体画像データから設定する領域設定手段と、この領域設定手段により設定された前記分岐する管状構造物の芯線を前記立体画像データから設定する芯線設定手段とを備え、前記芯線設定手段は、前記領域設定手段により設定された領域内の芯線探索領域のユークリッド距離を探索して前記分岐する管状構造物の芯線の候補を設定する芯線探索手段と、前記芯線探索手段により設定された複数の芯線の候補を選択して接続することにより前記分岐する管状構造物の芯線を設定する芯線選択・接続手段とを有することを特徴とする。
【0011】
また、好ましくは、前記芯線探索手段は、指定された探索開始点から前記領域設定手段により設定された領域の境界位置までの長さが最大である直線の方向を初期探索方向として決定する初期探索方向決定手段を有する。
【0012】
さらに、本発明の別の態様によれば、前記立体画像データの輝度値の情報又は前記管状構造物の領域の境界を前記芯線設定手段により設定された芯線に直交する断面上において前記芯線の位置から放射方向に探索し、探索された前記輝度値の情報又は前記領域の境界に応じて前記管状構造物の輪郭位置を設定する輪郭設定手段が備えられる。
【0013】
この領域設定手段は、例えば、前記管状構造物内の1点又は複数点の輝度値を基にして設定された閾値を用いて当該管状構造物の領域を設定することを特徴とする。
【0014】
一方、本発明に係る画像データ処理方法によれば、被検体の立体画像データから当該被検体の所望の分岐する管状構造物の領域を3次元的に設定し、設定された領域内の芯線探索領域のユークリッド距離を探索して前記分岐する管状構造物の芯線の候補を設定し、設定された複数の芯線の候補を選択して接続することにより前記分岐する管状構造物の芯線を前記立体画像データから設定することを特徴とする。さらに好適には、この画像処理方法において、前記設定された芯線に直交する断面上において前記立体画像データの輝度値の情報又は前記管状構造物の領域の境界を前記芯線の位置から放射方向に探索し、探索された前記輝度値の情報又は前記領域の境界に応じて前記管状構造物の輪郭位置が設定される。
【0015】
さらに、本発明の別の態様によれば、コンピュータに、被検体の立体画像データから当該被検体の所望の分岐する管状構造物の領域を3次元的に設定する機能、設定された領域内の芯線探索領域のユークリッド距離を探索して前記分岐する管状構造物の芯線の候補を設定し、設定された複数の芯線の候補を選択して接続することにより前記分岐する管状構造物の芯線を前記立体画像データから設定する機能、及び、前記設定された芯線に直交する断面上において前記立体画像データの輝度値の情報又は前記管状構造物の領域の境界を前記芯線の位置から放射方向に探索し、探索された前記輝度値の情報又は前記領域の境界に応じて前記管状構造物の輪郭位置を設定する機能を実現させるためのプログラムも提供される。
【0016】
【発明の実施の形態】
以下、本発明に係る画像処理装置、画像データ処理方法およびプログラムの好ましい実施の形態について図面を参照しながら詳細に説明する。
【0017】
本実施形態に係る画像処理装置は、図1に示すように、医用モダリティと一体に組みこまれたコンピュータ装置として、医用モダリティに通信ラインを介してオンライン接続されたコンピュータ装置として、又は、医用モダリティとはオフラインのコンピュータ装置として提供される。
【0018】
このコンピュータ装置は、図1に示すように、CPU及びメモリを搭載した演算装置11、プログラムや処理データを記憶する記憶装置12、表示器13、及び入力器14を備える。上述したように、このコンピュータ装置は必要に応じて外部とのデータ通信を行うための機能をも有する。
【0019】
記憶装置12には、X線CT装置やMRI装置などの撮影装置(医用モダリティ)により収集された被検体の3次元(立体)画像データがオンライン又はオフラインで送られてくる。この3次元画像データは、この記憶装置に設けられた光磁気ディスク等の大容量の記録媒体に格納されている。
【0020】
また、記憶装置12のハードディスクなどの記録媒体には、本実施形態に係る3次元血管自動抽出法を実施するためのプログラムが予め記録されている。これにより、演算装置11は、その起動時にかかるプログラムを読み出して、プログラムに記載されている手順にしたがって血管自動抽出のための処理を順次実行する。この実行途中において、血管自動抽出に関わる画像を表示器13に表示するとともに、入力器14を介して操作者からの血管自動抽出処理に関わる操作情報を受け付けるようになっている。このため、演算装置11、表示器13、及び入力器14は、操作者にとって血管自動抽出の処理を実行するためのインターフェースとしても機能することができる。
【0021】
このようなハードウエア構成により、上述した3次元血管自動抽出法のプログラムを実行することで、機能的には、図2に示すように、立体画像データ記憶部21、始点・終点指定部22、領域抽出部23、芯線抽出部24(芯線探索部25(初期探索方向決定部26を含む)、芯線選択・接続部27、及び芯線平滑部28を含む)、輪郭抽出部29(輪郭平滑化部30を含む)、及び合成表示部31が実現される。
【0022】
以下、この機能部21〜31の処理内容を個別に説明する。
【0023】
<立体画像データ記憶部21>
記憶装置12を主要部として実現される立体画像データ記憶部21には、上述したように、X線CT装置やMRI装置などの撮影装置から得られた3次元画像データが格納されている。
【0024】
<始点・終点指定部22>
始点・終点指定部22は、演算装置11、表示器13、及び入力器14を主要素して機能的に構成される。
【0025】
この始点・終点指定部22では、立体画像データ上で操作者が管腔臓器(例えば血管)の抽出対象範囲として指定した1点の始点と1点又は複数点の終点の座標が入力され、記憶される。
【0026】
本実施形態では、図3に示されるようなY字路血管内の1点の始点Sと2点の終点E1、E2が指定された場合について説明するが、終点が3点以上指定された場合についても、後述する芯線選択・接続部27の処理に若干の変更を加えることにより適用可能である。また、変形形態として、始点・終点だけでなく管腔臓器の抽出対象範囲内で複数の通過点を指定する始点・終点・通過点指定部を設けることもでき、この場合についても芯線選択・接続部の処理に若干の変更を加えることにより適用可能である。通過点を指定した場合、より芯線抽出成功率が高まるという利点がある。
【0027】
<領域抽出部23>
この領域抽出部23は、演算装置11の演算機能により実現される。
【0028】
領域抽出部23では、前記3次元画像データを入力データとして所望の管腔臓器、例えば血管の領域が3次元的に自動的に抽出される。すなわち、管腔臓器の領域内と領域外とで2値化された3次元の画像データが作成され、記憶装置12に記憶される。具体的には、この領域自動抽出は、PCNN(Pulse Coupled Neural Networks)法(例えば、論文「T. Lindblad and J. Kinser, “Image Processing using Pulse Coupled Neural Networks,” Springer, 1998」参照)や、単純閾値法により実行される。
【0029】
単純閾値法の一例として、入力したボリュームデータのCT値が、以下の閾値の範囲のとき1(血管領域)、それ以外のとき0とする処理法が挙がられる。
【0030】
【数1】

Figure 0004564233
【0031】
<芯線抽出部24>
この芯線抽出部24は、演算装置11の演算機能により実現される。
【0032】
この芯線抽出部24は、機能的に、芯線探索部25、芯線選択・接続部27、及び芯線平滑部28を含み、この順に、割り当てられた処理がそれぞれ実行される。芯線探索部25には更に初期探索方向決定部26が含まれる。
【0033】
芯線探索部25は、始点・終点指定部22により指定された各指定点を出発点として、領域抽出部23により抽出された管腔臓器の領域としての血管領域の3次元ボリュームデータに対して後述する探索処理を行い、その探索結果が芯線選択・接続部27により選択・接続される。これにより、I字路管腔臓器又はY字路管腔臓器の芯線が抽出される。なお、芯線選択・接続部27による選択・接続の処理においては、後述するように、場合分け処理がなされる。
【0034】
<芯線探索部25>
この芯線探索部25により、出発点から目標点までの管腔臓器の芯線の点群が探索される。具体的には、初期探索方向決定部26により最初に探索する方向(初期探索方向ベクトル)が決定され、反復探索処理により血管の抽出領域の内部が探索される。
【0035】
つまり、図4に示すように、初期探索方向決定部26により、始点・終点で、その点から、3次元の全角度(4π)方向の単位ベクトルのうち、血管の抽出領域の境界位置まで伸ばしたときの長さが最大であるベクトルと、それと反対方向のベクトルを初期探索ベクトルとする。
【0036】
次いで、芯線探索部25により、探索処理が反復して行われる。この探索処理には、本実施形態では2通りの手法が用意されており、取捨選択できるようになっている。
【0037】
その第1の手法は、探索ベクトルに直交する断面における血管抽出領域の重心位置を血管の芯線の位置として求めるものである。つまり、探索ベクトルに直交し且つベクトル先端位置を含む領域抽出データの断面画像上において、ベクトル先端位置の画素と連結している1−画素(値が1の画素)領域が抽出され、この抽出領域の重心位置が芯線位置として求められる(図5参照)。ベクトル先端位置の画素が0−画素の場合は、ベクトル先端位置に最も近い位置の1−画素を含む領域の重心位置が求められる。
【0038】
第2の手法では、探索ベクトルに直交する断面における血管抽出領域内のユークリッド距離が最大である位置が、血管の芯線位置として求められる。具体的には、探索ベクトルに直交し且つベクトル先端位置を含む領域抽出データの断面画像上において、ベクトル先端位置の画素と連結している1−画素領域が領域抽出され、抽出領域内に存在する穴(0−画素領域)が穴埋め処理に付された後に、ユークリッド距離変換が行われる。このユークリッド距離変換は、例えば、「齋藤豊文, 鳥脇純一郎, “3次元ディジタル画像に対するユークリッド距離変換,” 電子情報通信学会論文誌, Vol.J76-D-II, No.3, pp.445-453, Mar., 1993」で知られている。
【0039】
このユークリッド距離変換は、抽出領域内の画素とその画素と最も近い抽出領域外の画素との距離(ユークリッド距離)をその画素の値とする変換であり、これにより抽出領域の最深部の画素の値が抽出領域内の最大値となる。この最大値の画素の位置が芯線の位置として求められる。ベクトル先端位置の画素が0−画素の場合は、ベクトル先端位置に最も近い位置の1−画素を含む領域が使用される。
【0040】
なお、上記以外の芯線探索法を実施することもできる。一例として、領域抽出部23により抽出された領域抽出データに対し、抽出領域内に存在する空洞(0−画素領域)に空洞埋め処理を施した後、3次元のユークリッド距離変換を行った、3次元ユークリッド距離変換の画像データを予め用意しておくようにしてもよい。すなわち、探索ベクトルに直交し且つベクトル先端位置を含む3次元ユークリッド距離変換された画像データによる断面画像上で、最大値をとる画素位置を芯線位置として求めるようにしてもよい。
【0041】
【数2】
Figure 0004564233
【0042】
上述した血管芯線の位置の演算と次ベクトルの演算とが反復して実行される。
【0043】
この反復処理において、最後の芯線点と目標点との距離が予め決められた閾値以内になった場合、探索が成功したとして、反復処理が中止される。また、芯線点数が予め決められた最大値に達した場合、最後の芯線点がボリュームデータの領域外となった場合、及び/又は、芯線が急激なUターンをした場合、探索が失敗したとして、それ以上の探索処理は中止される。
【0044】
<芯線選択・接続部27>
この芯線選択・接続部27は、演算装置11の演算機能により実現される。
【0045】
この芯線選択・接続部27は、始点・終点指定部22により指定された各指定点を出発点として、芯線探索部5により探索処理された結果である芯線を選択し接続して、I字路管腔臓器又はY字路管腔臓器の芯線を抽出するようになっている。
【0046】
本実施形態に係る3次元血管自動抽出法にあっては、操作者により指定された1点の始点と1点又は2点の終点との間の芯線が場合分け処理に付されて抽出されるという大きな特徴がある。このため、この芯線選択・接続部27においては、かかる場合分け処理の結果に応じて、芯線の選択及び接続がなされる。これを、場合分け処理のタイプ毎に説明する。
【0047】
図3に示したように、Y字路血管内の始点をS、2点の終点をE1、E2、分岐点をBとし、2点間抽出の場合はS−E1間を抽出、3点間抽出の場合は、S−B間、B−E1間、及びB−E2間を抽出するものとする。このとき、芯線選択・接続部27では、以下のような場合分け処理が行われている。
【0048】
各指定点(S、E1、E2)から探索処理を開始するのであるが、その際、初期探索ベクトルは1指定点につき2方向ある(図4参照)。このため、各指定点で2つの初期探索ベクトルの方向に芯線が探索されており、その探索結果を、下記▲1▼〜▲6▼のように表記する。ここで、例えば、▲1▼に記載のS-E1探索とは、Sを出発点とし、E1を目標点として、初期探索ベクトル1の方向に探索を開始するという探索処理を表す。
【0049】
【外1】
Figure 0004564233
【0050】
2点間抽出の場合、S−E1間の芯線を表1の場合分け処理により抽出する。
【0051】
【表1】
Figure 0004564233
【0052】
一方、3点間抽出の場合は、S−E1又はS−E2を表2の場合分け処理により抽出した後、以下の処理により、残りの分岐血管(B−E2又はB−E1)を抽出する。
【0053】
残りの分岐血管の抽出は以下のように行われる。▲5▼/▲6▼とS−E1芯線又は▲3▼/▲4▼とS−E2芯線を接続する2通りのうち、ある閾値未満の距離で接続でき、且つ接続後の分岐血管部の芯線点数が少ない方の接続結果を採用する。どちらの場合も、ある閾値未満の距離で接続できなかった場合は、接続点間距離が小さい方の接続結果を採用する。
【0054】
なお、終点を出発点とした探索処理の結果を優先して用いるのは、その方が探索処理の成功率が高いためである。このような場合分けを行った結果について、芯線の選択及び接続を行うことにより最終的な芯線抽出の成功率を上げている。
【0055】
【表2】
Figure 0004564233
【0056】
<芯線平滑化部28>
この芯線平滑化部28は、演算装置11の演算機能により実現される。
【0057】
この芯線平滑化部28は、上記芯線選択・接続部27により抽出された3次元の芯線に平滑化を施し、滑らかな曲線にする機能を有する。
【0058】
つまり、上述した場合分け処理により抽出された3次元の芯線に適宜な平滑化処理を施し、滑らかな曲線に整形される。3点間抽出の場合、平滑化処理は、各分岐血管毎に行われる。
【0059】
<輪郭抽出部29>
この輪郭抽出部29は、演算装置11の演算機能により実現される。この輪郭抽出部29には輪郭平滑化部30も含まれる。
【0060】
この輪郭抽出部29は、芯線抽出部24により抽出された芯線に直交する断面上で、芯線の位置から放射方向に延びる直線上の輝度値の情報又は領域抽出部23により抽出された領域の境界に基づいて、血管の輪郭の位置を検出する。
【0061】
この輪郭抽出は、図7に示すように、芯線抽出部24で求められた芯線に直交する断面上で、芯線位置cを中心として等角度間隔のl1〜lnの直線が設定され、この各直線に対する芯線位置cから負方向及び正方向における血管の輪郭位置が検出される。具体的には、芯線位置cから直線の放射方向に沿って以下の3条件が成立するか否かをチェックする。3条件とは、▲1▼輝度値(CT値)がある閾値の範囲外となる位置があるか否か、▲2▼輝度値の勾配の絶対値がある閾値以上となる位置があるか否か、及び、▲3▼抽出領域の境界位置に到達したか否かである。このうち、最初に成立した条件に対応した位置が血管の輪郭位置として検出される。これにより、明らかに外れた位置を血管の輪郭として誤検出するという状態を殆ど無くすることができる。
【0062】
<輪郭平滑化部30>
輪郭抽出部により抽出された輪郭は、輪郭平滑化部30により平滑化され、滑らかな曲線を有する3次元の血管の輪郭に整形される。
【0063】
すなわち、芯線の平滑化と同様に、求めた輪郭点の一連の群に平滑化処理を施し、滑らかな曲線にする。
【0064】
<合成表示部31>
この合成表示部31は、表示器13と演算装置11の演算機能とにより実現される。
【0065】
この合成表示部31は、芯線抽出部24により抽出された芯線のデータと輪郭抽出部29により抽出された輪郭のデータとを、立体画像データ記憶部21に記憶されている3次元画像データ又はその3次元画像データを用いて計算された画像データに合成して表示する。
【0066】
以上の機能部21〜31により、本実施形態に係る3次元血管自動抽出法は、その全体処理としては、図8に示すアルゴリズムに基づいて実行される。すなわち、演算装置11は、表示器13に表示されている画像を観察している操作者から入力器14を介して所望の始点及び終点の指定を受け付け(ステップS1)、PCNN法又は単純閾値法に基づいて始点及び終点により指定された範囲の血管領域を3次元的に抽出する(ステップS2)。
【0067】
次いで、演算装置11は、血管の3次元の抽出領域に対して探索処理を施して3次元挙動の芯線を抽出し(ステップS3)、この芯線に平滑化処理を施す(ステップS4)。なお、芯線の抽出処理は、前述した場合分け処理に付されて、指定された始点から終点までを結ぶ芯線が高い成功率で抽出される。
【0068】
さらに、演算装置11は、抽出した芯線に直交する各点における断面に沿った処理に基づいて血管の輪郭を検出し(ステップS5)、その検出した輪郭を平滑化する(ステップS6)。
【0069】
演算装置11は、このように求めた血管の始点から終点までに渡る、芯線及び輪郭の3次元の位置情報を、この段階で出力してもよいが、好適には、既に求めている輪郭の位置情報から再度、芯線を前述と同様に抽出し、この芯線を平滑化する(ステップS7、S8)。さらに、演算装置11は、再抽出した芯線を用いて、前述と同様に、血管の3次元の輪郭を再抽出し、この輪郭を再度、平滑化処理に付す(ステップS9、S10)。
【0070】
このように芯線を再抽出し且つ再平滑化することにより、芯線を1回限りの抽出及び平滑化処理にしか付さない場合に比べて、有利である。すなわち、1回だけの芯線の平滑化処理の場合、芯線の位置が血管中心位置からずれている箇所が存在することもあり得るので、芯線の方向が血管の走行方向からずれることもあり得る。そのような場合、血管の隣り合う輪郭が重なるなど、輪郭抽出の精度が低下するという懸念もある。しかしながら、本実施形態のように、一度求めた輪郭点の群の重心位置を新たな芯線の位置として求め直し、この芯線に平滑化処理を再度適用した後、その再平滑化処理を受けた芯線を用いて血管の輪郭を再度求め直すことで、上述した血管の隣り合う輪郭が重なるなどの不都合を確実に排除することができる。
【0071】
この滑らかで且つ精度の良く求められた芯線及び輪郭の位置情報は、例えば演算装置11から表示器13に送られて、表示器13の画面上に適宜な態様で出力される(ステップS11)。
【0072】
以上のように、本実施形態に係る3次元血管自動抽出法を用いて、被検体内に3次元的に存在する血管の芯線が自動的に抽出され、この芯線に基づいて血管の輪郭が自動的に抽出される。
【0073】
この結果、従来とは異なり、探索途中に血管などの管腔臓器のコントラストが低い箇所や内径が小さい箇所などが存在する場合でも、その箇所で探索方向が管腔臓器外にずれてしまうという事態も大幅に減少する。このため、探索の成功率が著しく改善される。また、管腔臓器の抽出領域の画素数に比例して細線化に多大な処理時間を要するという問題を回避できる。
【0074】
これにより、血管などのような管腔臓器の芯線及び輪郭の3次元的な位置情報を短い処理時間で精度良く抽出でき、診断に有用な情報を確実に提供することができる。
【0075】
なお、本発明は上述した実施形態に限定されるものではなく、特許請求の範囲に記載の本発明の要旨を逸脱しない範囲で、従来周知の技術に基づいて適宜に修正、変更することができ、それらの変形した範囲も本発明に含まれる。
【0076】
【発明の効果】
本発明に係る画像処理装置、画像データ処理方法およびプログラムは、血管などのような分岐する管腔臓器の芯線及び輪郭の3次元的な位置情報を短い処理時間で精度良く抽出でき、例えば血管内の疾患部付近の形状の確認や疾患部の定量解析などの診断・手術計画の立案等に有用な情報を提供することができる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の一例に係るコンピュータ装置のブロック図。
【図2】本発明に係る3次元血管自動抽出法を実施する場合の、画像処理装置の機能ブロック図。
【図3】本発明に係る3次元血管自動抽出法を好適に適用可能な管腔臓器としてのY字路血管と指定点との関係を示す模式図。
【図4】本発明に係る3次元血管自動抽出法における初期探索ベクトルを決めるための処理を説明する図。
【図5】本発明に係る3次元血管自動抽出法における芯線位置の検出を説明する図。
【図6】本発明に係る3次元血管自動抽出法における反復処理に必要な次ベクトル(次の直交断面)の計算法を説明する図。
【図7】芯線に直交する断面上における輪郭位置の検出を説明する図。
【図8】本発明に係る3次元血管自動抽出法のアルゴリズムを説明する概略フローチャート。
【符号の説明】
11 演算装置
12 記憶装置
13 表示器
14 入力器
21 立体画像データ記憶部
22 始点・終点指定部
23 領域抽出部
24 芯線抽出部
25 芯線探索部
26 初期探索方向決定部
27 芯線選択・接続部
28 芯線平滑部
29 輪郭抽出部
30 輪郭平滑部
31 合成表示部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus , an image data processing method, and a program , and in particular, using three-dimensional volume data of a subject obtained from an imaging apparatus such as an X-ray CT apparatus or a magnetic resonance diagnostic apparatus (MRI apparatus). The present invention relates to an image processing apparatus , an image data processing method, and a program having a function of performing shape display and quantitative analysis of a lumen such as a luminal organ.
[0002]
[Prior art]
In recent medical diagnosis, it is required to display the shape of a luminal organ such as a blood vessel of a subject or to subject the running state to quantitative analysis. When performing this shape display or quantitative analysis, three-dimensional volume data of a part including a luminal organ of a subject is acquired by a medical modality such as an X-ray CT apparatus MRI apparatus, and the three-dimensional volume data (stereoscopic data) is an image. It is attached to processing.
[0003]
In this image processing, it is necessary to know position information of a three-dimensional core line (path line: a center line of a hollow organ as an example) of the hollow organ. As a typical method for three-dimensionally extracting a core line of a luminal organ using three-dimensional volume data, as described in Non-Patent Document 1, the inside of the luminal organ is obtained using luminance value information. There are known a method of searching, and a method of thinning a luminal organ extraction region as described in Non-Patent Document 2.
[0004]
[Non-Patent Document 1]
“O. Wink, WJ Niessen, MA Viergever,“ Fast Delineation and Visualization of Vessels in 3-D Angiographic Images, ”IEEE Trans. Med. Imaging, Vol.19, No.4, pp.337-346, Apr., 2000 ''
[0005]
[Non-Patent Document 2]
“GD Rubin, DS Paik, PC Johnston, S. Napel,“ Measurement of the Aorta and Its Branches with Helical CT, ”Radiology, Vol.206, No.3, pp.823-829, Mar., 1998”
[0006]
[Problems to be solved by the invention]
However, in the above-mentioned Non-Patent Documents 1 and 2, in the former, if there is a location where the contrast of the luminal organ is low or a location where the inner diameter is small during the search, the search direction is shifted outside the luminal organ at that location. Thus, there is a problem that the search is likely to fail. In the latter case, when the accuracy of the extraction of the luminal organ region is low, the accuracy of the core wire obtained by the thinning is reduced, or the thinning is greatly performed in proportion to the number of pixels of the extraction region of the luminal organ. Has a problem of requiring a long processing time.
[0007]
The present invention has been made in view of the above-described problems of the conventional method, and can accurately extract the three-dimensional position information of the core line and the contour of a branching hollow organ such as a blood vessel in a short processing time. Accordingly, an object of the present invention is to provide an image processing apparatus, an image data processing method, and a program that can reliably provide information useful for diagnosis.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus according to the present invention includes a stereoscopic image data storage unit that stores stereoscopic image data of a subject, and a desired branch in the stereoscopic image data stored by the stereoscopic image data storage unit. An area setting means for setting the area of the tubular structure to be set from the stereoscopic image data, and a core setting means for setting the core line of the branched tubular structure set by the area setting means from the stereoscopic image data, The core line setting means searches for the Euclidean distance of the core line search area within the area set by the area setting means, and sets a candidate for the core line of the branched tubular structure, and the core line search means this and a core selection and connection means for setting a core of the tubular structure to the branch by connecting selected candidate set plurality of core wires The features.
[0011]
Preferably, the core search means determines an initial search direction as a straight line direction having a maximum length from the designated search start point to the boundary position of the area set by the area setting means. It has direction determining means.
[0012]
Furthermore, according to another aspect of the present invention, the position of the core wire in the cross section perpendicular to the boundary of the area of the information or the tubular structure of the luminance value of the stereoscopic image data to the core set by the core setting means search radially from, and contour setting means for setting the contour position of the tubular structure in accordance with the boundary information or the region of the searched the luminance values provided.
[0013]
For example, the region setting means sets the region of the tubular structure using a threshold value set based on one or a plurality of luminance values in the tubular structure.
[0014]
On the other hand, according to the image data processing method of the present invention, the region of the desired branching tubular structure of the subject is set three-dimensionally from the stereoscopic image data of the subject, and the core search within the set region is performed . By searching for the Euclidean distance of the region to set the candidate of the core line of the branched tubular structure, and selecting and connecting the plurality of set core line candidates, the core line of the branched tubular structure is selected as the stereoscopic image. It is characterized by setting from data. More preferably, in this image processing method, the luminance value information of the stereoscopic image data or the boundary of the region of the tubular structure is searched in a radial direction from the position of the core line on a cross section orthogonal to the set core line. and, the contour position of the tubular structure in accordance with the boundary information or the region of the searched the luminance value is set.
[0015]
Furthermore, according to another aspect of the present invention, a function for three-dimensionally setting a desired branching tubular structure of the subject from the stereoscopic image data of the subject , By searching for the Euclidean distance of the core line search region and setting candidates for the core line of the branched tubular structure, the core lines of the branched tubular structure are selected by connecting a plurality of set core line candidates. The function of setting from the stereoscopic image data and the luminance value information of the stereoscopic image data or the boundary of the region of the tubular structure on the cross section orthogonal to the set core line is searched in the radial direction from the position of the core line. a program for implementing the function of setting the contour positions of the tubular structure in accordance with the boundary information or the region of the searched the luminance values are also provided.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of an image processing apparatus , an image data processing method, and a program according to the present invention will be described in detail with reference to the drawings.
[0017]
As shown in FIG. 1, the image processing apparatus according to this embodiment is a computer apparatus integrated with a medical modality, a computer apparatus connected online to a medical modality via a communication line, or a medical modality. Is provided as an off-line computer device.
[0018]
As shown in FIG. 1, the computer device includes a calculation device 11 equipped with a CPU and a memory, a storage device 12 that stores programs and processing data, a display device 13, and an input device 14. As described above, this computer apparatus also has a function for performing data communication with the outside as necessary.
[0019]
Three-dimensional (stereoscopic) image data of a subject collected by an imaging apparatus (medical modality) such as an X-ray CT apparatus or an MRI apparatus is sent to the storage device 12 online or offline. The three-dimensional image data is stored in a large-capacity recording medium such as a magneto-optical disk provided in the storage device.
[0020]
Further, a program for executing the three-dimensional automatic blood vessel extraction method according to the present embodiment is recorded in advance on a recording medium such as a hard disk of the storage device 12. Thereby, the arithmetic device 11 reads out the program at the time of starting, and sequentially executes processing for automatic blood vessel extraction according to the procedure described in the program. During this execution, an image related to automatic blood vessel extraction is displayed on the display 13 and operation information related to automatic blood vessel extraction processing from the operator is received via the input device 14. For this reason, the arithmetic device 11, the display device 13, and the input device 14 can also function as an interface for executing an automatic blood vessel extraction process for the operator.
[0021]
By executing the above-described 3D automatic blood vessel extraction method program with such a hardware configuration, functionally, as shown in FIG. 2, a stereoscopic image data storage unit 21, a start / end designation unit 22, Area extraction unit 23, core line extraction unit 24 (including core line search unit 25 (including initial search direction determination unit 26), core line selection / connection unit 27, and core line smoothing unit 28), contour extraction unit 29 (contour smoothing unit) 30), and the composite display unit 31 is realized.
[0022]
Hereinafter, the processing contents of the functional units 21 to 31 will be described individually.
[0023]
<Stereoscopic image data storage unit 21>
As described above, the stereoscopic image data storage unit 21 realized with the storage device 12 as a main part stores three-dimensional image data obtained from an imaging apparatus such as an X-ray CT apparatus or an MRI apparatus.
[0024]
<Start point / end point specification unit 22>
The start / end designation unit 22 is functionally configured with the arithmetic device 11, the display device 13, and the input device 14 as main elements.
[0025]
In the start point / end point designating unit 22, the coordinates of one start point and one or a plurality of end points specified by the operator as the extraction target range of the luminal organ (for example, blood vessel) on the stereoscopic image data are input and stored. Is done.
[0026]
In this embodiment, the case where one start point S and two end points E1 and E2 in the Y-shaped blood vessel as shown in FIG. 3 are specified will be described. However, when three or more end points are specified This can also be applied by slightly changing the processing of the core wire selection / connection unit 27 described later. In addition, as a modified form, it is possible to provide not only the start point and end point but also a start point, end point, and pass point specifying unit for specifying a plurality of pass points within the extraction target range of the luminal organ. It can be applied by making a slight change to the processing of the part. When the passing point is specified, there is an advantage that the core line extraction success rate is further increased.
[0027]
<Region Extractor 23>
This area extraction unit 23 is realized by the calculation function of the calculation device 11.
[0028]
The region extraction unit 23 automatically extracts a desired luminal organ, for example, a blood vessel region, three-dimensionally using the three-dimensional image data as input data. That is, three-dimensional image data binarized inside and outside the luminal organ region is created and stored in the storage device 12. Specifically, this region automatic extraction is performed by PCNN (Pulse Coupled Neural Networks) method (for example, see the paper “T. Lindblad and J. Kinser,“ Image Processing using Pulse Coupled Neural Networks, ”Springer, 1998”) It is executed by the simple threshold method.
[0029]
As an example of the simple threshold method, there is a processing method in which the CT value of the input volume data is 1 (blood vessel region) when it is within the following threshold range, and 0 otherwise.
[0030]
[Expression 1]
Figure 0004564233
[0031]
<Core extraction unit 24>
The core wire extraction unit 24 is realized by the calculation function of the calculation device 11.
[0032]
The core line extraction unit 24 functionally includes a core line search unit 25, a core line selection / connection unit 27, and a core line smoothing unit 28, and assigned processes are executed in this order. The core line search unit 25 further includes an initial search direction determination unit 26.
[0033]
The core line search unit 25 uses the specified points specified by the start point / end point specification unit 22 as a starting point, and will be described later with respect to the three-dimensional volume data of the blood vessel region as the region of the luminal organ extracted by the region extraction unit 23. The search result is selected, and the search result is selected and connected by the core selection / connection unit 27. As a result, the core line of the I-shaped lumen organ or the Y-shaped lumen organ is extracted. In the selection / connection processing by the core wire selection / connection unit 27, case-by-case processing is performed as described later.
[0034]
<Core search unit 25>
The core line search unit 25 searches for a point group of the core line of the luminal organ from the starting point to the target point. Specifically, the initial search direction determination unit 26 determines a direction to be searched first (initial search direction vector), and the inside of the blood vessel extraction region is searched by an iterative search process.
[0035]
That is, as shown in FIG. 4, the initial search direction determination unit 26 extends from the start point / end point to the boundary position of the blood vessel extraction region in the unit vector in the three-dimensional all-angle (4π) direction. The initial search vector is a vector having the maximum length and a vector in the opposite direction.
[0036]
Next, the search process is repeatedly performed by the core line search unit 25. In this embodiment, two methods are prepared for this search process, and can be selected.
[0037]
The first method is to obtain the position of the center of gravity of the blood vessel extraction region in the cross section orthogonal to the search vector as the position of the blood vessel core line. That is, a 1-pixel (pixel having a value of 1) region connected to the pixel at the vector front end position is extracted on the cross-sectional image of the region extraction data that is orthogonal to the search vector and includes the vector front end position. Is obtained as a core line position (see FIG. 5). If the pixel at the vector tip position is 0-pixel, the barycentric position of the region including 1-pixel at the position closest to the vector tip position is obtained.
[0038]
In the second method, the position where the Euclidean distance in the blood vessel extraction region in the cross section orthogonal to the search vector is the maximum is obtained as the blood vessel core line position. Specifically, on the cross-sectional image of the region extraction data that is orthogonal to the search vector and includes the vector tip position, a 1-pixel region connected to the pixel at the vector tip position is extracted and exists in the extraction region. After the hole (0-pixel region) is subjected to the hole filling process, Euclidean distance conversion is performed. This Euclidean distance transformation is described in, for example, “Toyofumi Saito, Junichiro Toriwaki,“ Euclidean distance transformation for 3D digital images, ”IEICE Transactions, Vol.J76-D-II, No.3, pp.445-453. , Mar., 1993 ”.
[0039]
This Euclidean distance conversion is a conversion in which the distance (Euclidean distance) between a pixel in the extraction region and a pixel outside the extraction region that is closest to the pixel is the value of the pixel. The value is the maximum value in the extraction area. The position of the pixel having the maximum value is obtained as the position of the core line. When the pixel at the vector tip position is 0-pixel, an area including 1-pixel at the position closest to the vector tip position is used.
[0040]
Note that core line search methods other than those described above can also be implemented. As an example, the region extraction data extracted by the region extraction unit 23 is subjected to a cavity filling process for a cavity (0-pixel region) existing in the extraction region, and then three-dimensional Euclidean distance conversion is performed. Image data for dimensional Euclidean distance conversion may be prepared in advance. In other words, the pixel position having the maximum value may be obtained as the core line position on the cross-sectional image based on the image data that is orthogonal to the search vector and includes the vector tip position and subjected to the three-dimensional Euclidean distance transformation.
[0041]
[Expression 2]
Figure 0004564233
[0042]
The calculation of the position of the blood vessel core line and the calculation of the next vector are repeatedly executed.
[0043]
In this iterative process, when the distance between the last core line point and the target point is within a predetermined threshold, the iterative process is stopped because the search is successful. Also, if the number of core points reaches a predetermined maximum value, if the last core point falls outside the volume data area, and / or if the core line makes a sudden U-turn, the search fails. Further search processing is canceled.
[0044]
<Core selection / connection part 27>
The core wire selection / connection unit 27 is realized by the calculation function of the calculation device 11.
[0045]
The core line selection / connection unit 27 selects and connects the core line that is the result of the search processing by the core line search unit 5 using each designated point designated by the start point / end point designation unit 22 as a starting point, and the I-junction The core line of the luminal organ or the Y-shaped luminal organ is extracted.
[0046]
In the three-dimensional blood vessel automatic extraction method according to the present embodiment, a core line between one start point and one or two end points specified by the operator is subjected to a case-by-case process and extracted. There is a big feature. For this reason, in this core wire selection / connection part 27, a core wire is selected and connected according to the result of this case division processing. This will be described for each type of case classification process.
[0047]
As shown in FIG. 3, the start point in the Y-junction blood vessel is S, the end points of the two points are E1, E2, and the branch point is B. In the case of extraction between two points, the area between S-E1 is extracted. In the case of extraction, SB, B-E1, and B-E2 are extracted. At this time, in the core wire selection / connection unit 27, the following case classification processing is performed.
[0048]
The search process is started from each designated point (S, E1, E2). At this time, the initial search vector has two directions for each designated point (see FIG. 4). For this reason, a core line is searched in the direction of two initial search vectors at each designated point, and the search results are expressed as (1) to (6) below. Here, for example, the S-E1 search described in (1) represents a search process in which a search is started in the direction of the initial search vector 1 with S as a starting point and E1 as a target point.
[0049]
[Outside 1]
Figure 0004564233
[0050]
In the case of extraction between two points, the core line between S-E1 is extracted by the case separation process shown in Table 1.
[0051]
[Table 1]
Figure 0004564233
[0052]
On the other hand, in the case of three-point extraction, S-E1 or S-E2 is extracted by the case separation process shown in Table 2, and then the remaining branch blood vessels (B-E2 or B-E1) are extracted by the following process. .
[0053]
Extraction of the remaining branch vessels is performed as follows. Of the two types of connecting (5) / (6) and S-E1 core wire or (3) / (4) and S-E2 core wire, they can be connected at a distance less than a certain threshold, and the branched blood vessel portion after connection Use the connection result with the smaller number of core wires. In either case, when connection cannot be established with a distance less than a certain threshold, the connection result with the smaller distance between connection points is adopted.
[0054]
Note that the result of the search process with the end point as the starting point is used preferentially because the success rate of the search process is higher. With regard to the result of such case classification, the success rate of final core line extraction is increased by selecting and connecting the core lines.
[0055]
[Table 2]
Figure 0004564233
[0056]
<Core wire smoothing unit 28>
The core wire smoothing unit 28 is realized by the calculation function of the calculation device 11.
[0057]
The core line smoothing unit 28 has a function of smoothing the three-dimensional core line extracted by the core line selecting / connecting unit 27 into a smooth curve.
[0058]
That is, an appropriate smoothing process is performed on the three-dimensional core line extracted by the above-described case division process, and the smooth curve is shaped. In the case of extraction between three points, the smoothing process is performed for each branch blood vessel.
[0059]
<Outline extraction unit 29>
The contour extraction unit 29 is realized by the calculation function of the calculation device 11. The contour extracting unit 29 also includes a contour smoothing unit 30.
[0060]
This contour extraction unit 29 is a section of the luminance value on a straight line extending in the radial direction from the position of the core line on the cross section orthogonal to the core line extracted by the core line extraction unit 24 or the boundary of the region extracted by the region extraction unit 23 The position of the blood vessel contour is detected based on
[0061]
As shown in FIG. 7, the contour extraction is performed by setting straight lines l 1 to l n at equiangular intervals around the core line position c on the cross section orthogonal to the core line obtained by the core line extraction unit 24. The contour position of the blood vessel in the negative direction and the positive direction is detected from the core position c for each straight line. Specifically, it is checked whether or not the following three conditions are satisfied from the core line position c along the linear radiation direction. The three conditions are (1) whether there is a position where the luminance value (CT value) is outside a certain threshold range, and (2) whether there is a position where the absolute value of the gradient of the luminance value is greater than a certain threshold value. And (3) whether or not the boundary position of the extraction area has been reached. Of these, the position corresponding to the first established condition is detected as the blood vessel contour position. As a result, it is possible to almost eliminate the state of erroneously detecting a position that is clearly off as a blood vessel contour.
[0062]
<Outline smoothing unit 30>
The contour extracted by the contour extraction unit is smoothed by the contour smoothing unit 30 and shaped into a three-dimensional blood vessel contour having a smooth curve.
[0063]
That is, as with the smoothing of the core wire, a smoothing process is performed on a series of obtained contour points to form a smooth curve.
[0064]
<Composite display unit 31>
The composite display unit 31 is realized by the display 13 and the calculation function of the calculation device 11.
[0065]
The composite display unit 31 uses the core line data extracted by the core line extraction unit 24 and the contour data extracted by the contour extraction unit 29 as 3D image data stored in the stereoscopic image data storage unit 21 or its data The image data calculated using the three-dimensional image data is synthesized and displayed.
[0066]
With the functional units 21 to 31 described above, the three-dimensional automatic blood vessel extraction method according to the present embodiment is executed based on the algorithm shown in FIG. That is, the arithmetic unit 11 receives designation of a desired start point and end point from the operator who is observing the image displayed on the display device 13 via the input device 14 (step S1), and the PCNN method or the simple threshold method. The blood vessel region in the range designated by the start point and the end point is extracted three-dimensionally based on (Step S2).
[0067]
Next, the computing device 11 performs a search process on the three-dimensional extraction region of the blood vessel to extract a core line having a three-dimensional behavior (step S3), and performs a smoothing process on the core line (step S4). Note that the core line extraction process is applied to the above-described case division process, and the core line connecting the designated start point to the end point is extracted with a high success rate.
[0068]
Further, the computing device 11 detects the contour of the blood vessel based on the processing along the cross section at each point orthogonal to the extracted core line (step S5), and smoothes the detected contour (step S6).
[0069]
The arithmetic unit 11 may output the three-dimensional position information of the core line and the contour from the start point to the end point of the blood vessel thus obtained at this stage. The core line is extracted again from the position information in the same manner as described above, and the core line is smoothed (steps S7 and S8). Further, the arithmetic unit 11 re-extracts the three-dimensional contour of the blood vessel using the re-extracted core wire, and again applies the contour to the smoothing process (steps S9 and S10).
[0070]
Reextracting and re-smoothing the core wire in this way is advantageous compared to the case where the core wire is only subjected to one-time extraction and smoothing processing. That is, in the case of the smoothing process of the core wire only once, there may be a portion where the position of the core wire is deviated from the blood vessel center position, and thus the direction of the core wire may be deviated from the blood vessel running direction. In such a case, there is a concern that the accuracy of contour extraction is reduced, for example, the adjacent contours of blood vessels overlap. However, as in the present embodiment, the centroid position of the group of contour points once obtained is re-determined as the position of the new core line, and after applying the smoothing process again to this core line, the core line subjected to the re-smoothing process By re-determining the contour of the blood vessel using the above, it is possible to reliably eliminate the inconvenience such as the overlapping of the adjacent contours of the blood vessel described above.
[0071]
The smooth and highly accurate position information of the core wire and the contour is sent from the arithmetic unit 11 to the display unit 13 and output on the screen of the display unit 13 in an appropriate manner (step S11).
[0072]
As described above, using the three-dimensional blood vessel automatic extraction method according to the present embodiment, the blood vessel core line existing three-dimensionally in the subject is automatically extracted, and the blood vessel contour is automatically extracted based on the core line. Extracted.
[0073]
As a result, unlike the conventional case, even when there is a location where the contrast of the luminal organ such as a blood vessel is low or a location where the inner diameter is small during the search, the search direction is shifted outside the luminal organ at that location. Is also significantly reduced. This significantly improves the search success rate. In addition, it is possible to avoid the problem that a long processing time is required for thinning in proportion to the number of pixels in the extraction region of the luminal organ.
[0074]
As a result, the three-dimensional position information of the core line and contour of a hollow organ such as a blood vessel can be extracted with high accuracy in a short processing time, and information useful for diagnosis can be reliably provided.
[0075]
It should be noted that the present invention is not limited to the above-described embodiment, and can be appropriately modified and changed based on conventionally known techniques without departing from the gist of the present invention described in the claims. These modified ranges are also included in the present invention.
[0076]
【The invention's effect】
The image processing apparatus, the image data processing method, and the program according to the present invention can accurately extract the three-dimensional position information of the core line and the contour of a branching luminal organ such as a blood vessel in a short processing time. It is possible to provide useful information for making a diagnosis / surgical plan such as confirmation of the shape near the diseased part and quantitative analysis of the diseased part.
[Brief description of the drawings]
FIG. 1 is a block diagram of a computer apparatus according to an example of an image processing apparatus according to the present invention.
FIG. 2 is a functional block diagram of an image processing apparatus when performing a three-dimensional automatic blood vessel extraction method according to the present invention.
FIG. 3 is a schematic diagram showing a relationship between a Y-shaped blood vessel as a luminal organ to which the three-dimensional automatic blood vessel extraction method according to the present invention can be suitably applied and a designated point.
FIG. 4 is a view for explaining processing for determining an initial search vector in the three-dimensional automatic blood vessel extraction method according to the present invention.
FIG. 5 is a diagram for explaining detection of a core line position in the three-dimensional automatic blood vessel extraction method according to the present invention.
FIG. 6 is a view for explaining a calculation method of a next vector (next orthogonal cross section) necessary for iterative processing in the three-dimensional automatic blood vessel extraction method according to the present invention.
FIG. 7 is a view for explaining detection of a contour position on a cross section orthogonal to a core line.
FIG. 8 is a schematic flowchart illustrating an algorithm of a three-dimensional automatic blood vessel extraction method according to the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 Computation device 12 Storage device 13 Display device 14 Input device 21 Stereo image data storage unit 22 Start point / end point designation unit 23 Area extraction unit 24 Core line extraction unit 25 Core line search unit 26 Initial search direction determination unit 27 Core line selection / connection unit 28 Core line Smoothing unit 29 Contour extraction unit 30 Contour smoothing unit 31 Composite display unit

Claims (7)

被検体の立体画像データを記憶する立体画像データ記憶手段と、
前記立体画像データ記憶手段により記憶された立体画像データ内の所望の分岐する管状構造物の領域を前記立体画像データから設定する領域設定手段と、
この領域設定手段により設定された前記分岐する管状構造物の芯線を前記立体画像データから設定する芯線設定手段とを備え、
前記芯線設定手段は、
前記領域設定手段により設定された領域内の芯線探索領域のユークリッド距離を探索して前記分岐する管状構造物の芯線の候補を設定する芯線探索手段と、
前記芯線探索手段により設定された複数の芯線の候補を選択して接続することにより前記分岐する管状構造物の芯線を設定する芯線選択・接続手段と、
を有することを特徴とする画像処理装置。
Stereoscopic image data storage means for storing stereoscopic image data of the subject;
Area setting means for setting a desired branching tubular structure area in the stereoscopic image data stored by the stereoscopic image data storage means from the stereoscopic image data;
Core line setting means for setting the core line of the branched tubular structure set by the area setting means from the stereoscopic image data,
The core wire setting means includes
A core search means for searching for a Euclidean distance of a core search area within the area set by the area setting means and setting a candidate for the core of the branched tubular structure;
A core wire selection / connection means for setting a core wire of the branched tubular structure by selecting and connecting a plurality of core wire candidates set by the core wire search means;
An image processing apparatus comprising:
前記芯線探索手段は、指定された探索開始点から前記領域設定手段により設定された領域の境界位置までの長さが最大である直線の方向を初期探索方向として決定する初期探索方向決定手段を有することを特徴とする請求項に記載の画像処理装置。The core line searching means includes an initial search direction determining means for determining, as an initial search direction, a straight line direction having a maximum length from a designated search start point to a boundary position of the area set by the area setting means. The image processing apparatus according to claim 1 . 前記立体画像データの輝度値の情報又は前記管状構造物の領域の境界を前記芯線設定手段により設定された芯線に直交する断面上において前記芯線の位置から放射方向に探索し、探索された前記輝度値の情報又は前記領域の境界に応じて前記管状構造物の輪郭位置を設定する輪郭設定手段を更に有することを特徴とする請求項1または2に記載の画像処理装置。 Wherein searching the boundary of the area of the information or the tubular structure of the luminance value of the stereoscopic image data from the position of the core wire in the cross section perpendicular to the core wire that is set by the core setting means radially, searched the brightness the image processing apparatus according to claim 1 or 2, further comprising a contour setting means for setting the contour position of the tubular structure in accordance with the boundary value of the information or the region. 前記領域設定手段は、前記管状構造物内の1点又は複数点の輝度値を基にして設定された閾値を用いて当該管状構造物の領域を設定することを特徴とする請求項1、2、及び3の内のいずれか一項に記載の画像処理装置。  The region setting means sets the region of the tubular structure using a threshold value set based on one or a plurality of luminance values in the tubular structure. 4. The image processing apparatus according to claim 1. 被検体の立体画像データから当該被検体の所望の分岐する管状構造物の領域を3次元的に設定し、
設定された領域内の芯線探索領域のユークリッド距離を探索して前記分岐する管状構造物の芯線の候補を設定し、
設定された複数の芯線の候補を選択して接続することにより前記分岐する管状構造物の芯線を前記立体画像データから設定することを特徴とする画像データ処理方法。
From the stereoscopic image data of the subject, the region of the desired branched tubular structure of the subject is set three-dimensionally,
Search for the Euclidean distance of the core search area within the set area and set the candidate for the core of the branched tubular structure,
A method for processing image data, comprising: selecting and connecting a plurality of set core line candidates to set the core line of the branched tubular structure from the stereoscopic image data.
前記設定された芯線に直交する断面上において前記立体画像データの輝度値の情報又は前記管状構造物の領域の境界を前記芯線の位置から放射方向に探索し、探索された前記輝度値の情報又は前記領域の境界に応じて前記管状構造物の輪郭位置を設定することを特徴とする請求項記載の画像データ処理方法。 The luminance value information of the stereoscopic image data or the boundary of the region of the tubular structure is searched in a radial direction from the position of the core line on the cross section orthogonal to the set core line, and the searched luminance value information or 6. The image data processing method according to claim 5, wherein a contour position of the tubular structure is set according to a boundary of the region. コンピュータに、
被検体の立体画像データから当該被検体の所望の分岐する管状構造物の領域を3次元的に設定する機能、
設定された領域内の芯線探索領域のユークリッド距離を探索して前記分岐する管状構造物の芯線の候補を設定し、設定された複数の芯線の候補を選択して接続することにより前記分岐する管状構造物の芯線を前記立体画像データから設定する機能、及び、
前記設定された芯線に直交する断面上において前記立体画像データの輝度値の情報又は前記管状構造物の領域の境界を前記芯線の位置から放射方向に探索し、探索された前記輝度値の情報又は前記領域の境界に応じて前記管状構造物の輪郭位置を設定する機能を実現させるためのプログラム。
On the computer,
A function of three-dimensionally setting a desired branching tubular structure of the subject from the stereoscopic image data of the subject;
Explore the Euclidean distance of the core search area set in the area setting the candidate of the core wire of the tubular structure to said branch, said branch by selectively connecting a plurality of candidates of the core wire that is set tubular A function of setting the core of the structure from the stereoscopic image data; and
The luminance value information of the stereoscopic image data or the boundary of the region of the tubular structure is searched in a radial direction from the position of the core line on the cross section orthogonal to the set core line, and the searched luminance value information or The program for implement | achieving the function which sets the outline position of the said tubular structure according to the boundary of the said area | region.
JP2003025260A 2003-01-31 2003-01-31 Image processing apparatus, image data processing method, and program Expired - Fee Related JP4564233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003025260A JP4564233B2 (en) 2003-01-31 2003-01-31 Image processing apparatus, image data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003025260A JP4564233B2 (en) 2003-01-31 2003-01-31 Image processing apparatus, image data processing method, and program

Publications (2)

Publication Number Publication Date
JP2004230086A JP2004230086A (en) 2004-08-19
JP4564233B2 true JP4564233B2 (en) 2010-10-20

Family

ID=32953586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003025260A Expired - Fee Related JP4564233B2 (en) 2003-01-31 2003-01-31 Image processing apparatus, image data processing method, and program

Country Status (1)

Country Link
JP (1) JP4564233B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081640A (en) * 2004-09-15 2006-03-30 Ge Medical Systems Global Technology Co Llc Ultrasonic imaging device, image processor and program
WO2006069379A2 (en) * 2004-12-22 2006-06-29 Bio-Tree Systems, Inc. Medical imaging methods and apparatus for diagnosis and monitoring of diseases and uses therefor
JP2006246941A (en) * 2005-03-08 2006-09-21 Toshiba Corp Image processing apparatus and vessel tracking method
US20100067753A1 (en) * 2005-06-21 2010-03-18 Koninklijke Philips Electronics, N.V. Method and device for imaging a blood vessel
JP4384628B2 (en) * 2005-10-24 2009-12-16 バイオビジック ジャパン株式会社 Apparatus and program for evaluating changes in organ state
JP4738236B2 (en) * 2006-04-05 2011-08-03 株式会社日立メディコ Image display device
WO2007129493A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Medical image observation support device
US7844105B2 (en) * 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining objects poses from range images
JP5359646B2 (en) * 2008-08-01 2013-12-04 株式会社ニコン Image processing method
JP5652994B2 (en) * 2008-09-26 2015-01-14 株式会社東芝 X-ray diagnostic equipment
US9788729B2 (en) 2008-11-21 2017-10-17 Toshiba Medical Systems Corporation Image processing apparatus and image processing method
BRPI1004212A2 (en) 2009-03-03 2016-02-23 Fujifilm Corp image processing apparatus, image processing method, and image processing program
JP4717935B2 (en) * 2009-03-23 2011-07-06 富士フイルム株式会社 Image processing apparatus and method, and program
JP4709290B2 (en) * 2009-03-03 2011-06-22 富士フイルム株式会社 Image processing apparatus and method, and program
JP5599572B2 (en) 2009-03-12 2014-10-01 富士フイルム株式会社 Case image retrieval apparatus, method and program
JP5984237B2 (en) * 2010-10-15 2016-09-06 東芝メディカルシステムズ株式会社 Medical image processing apparatus and X-ray computed tomography apparatus
JP5745947B2 (en) * 2011-06-20 2015-07-08 株式会社日立メディコ Medical image processing apparatus and medical image processing method
WO2015052922A1 (en) * 2013-10-07 2015-04-16 学校法人近畿大学 Image processing device, image processing method, and computer program
JP6878074B2 (en) * 2017-03-23 2021-05-26 キヤノンメディカルシステムズ株式会社 Medical image diagnostic equipment and medical image processing equipment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11318884A (en) * 1998-03-09 1999-11-24 Hitachi Medical Corp Image display device
WO2001037219A1 (en) * 1999-11-19 2001-05-25 General Electric Company Method and apparatus for reformatting tubular volumetric bodies
JP2001283191A (en) * 2000-01-25 2001-10-12 Hitachi Medical Corp Method and device for extracting and displaying specific area of organ
JP2002092590A (en) * 2000-09-14 2002-03-29 Hitachi Medical Corp Image display device
WO2002029723A1 (en) * 2000-10-02 2002-04-11 The Research Foundation Of State University Of Newyork Enhanced virtual navigation and examination
JP2002534191A (en) * 1999-01-04 2002-10-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, system and apparatus for processing an image representing a tubular structure and constructing a path through the structure
JP2002538915A (en) * 1999-03-18 2002-11-19 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク System and method for performing three-dimensional virtual inspection, navigation and visualization
JP2002336242A (en) * 2001-03-16 2002-11-26 Hitachi Medical Corp Three-dimensional image display device
JP2003010172A (en) * 2001-07-04 2003-01-14 Hitachi Medical Corp Method and device for extracting and displaying specific area of internal organ

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11318884A (en) * 1998-03-09 1999-11-24 Hitachi Medical Corp Image display device
JP2002534191A (en) * 1999-01-04 2002-10-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method, system and apparatus for processing an image representing a tubular structure and constructing a path through the structure
JP2002538915A (en) * 1999-03-18 2002-11-19 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク System and method for performing three-dimensional virtual inspection, navigation and visualization
WO2001037219A1 (en) * 1999-11-19 2001-05-25 General Electric Company Method and apparatus for reformatting tubular volumetric bodies
JP2001283191A (en) * 2000-01-25 2001-10-12 Hitachi Medical Corp Method and device for extracting and displaying specific area of organ
JP2002092590A (en) * 2000-09-14 2002-03-29 Hitachi Medical Corp Image display device
WO2002029723A1 (en) * 2000-10-02 2002-04-11 The Research Foundation Of State University Of Newyork Enhanced virtual navigation and examination
JP2002336242A (en) * 2001-03-16 2002-11-26 Hitachi Medical Corp Three-dimensional image display device
JP2003010172A (en) * 2001-07-04 2003-01-14 Hitachi Medical Corp Method and device for extracting and displaying specific area of internal organ

Also Published As

Publication number Publication date
JP2004230086A (en) 2004-08-19

Similar Documents

Publication Publication Date Title
JP4564233B2 (en) Image processing apparatus, image data processing method, and program
JP2006246941A (en) Image processing apparatus and vessel tracking method
JP4899068B2 (en) Medical image observation support device
JP5584006B2 (en) Projection image generation apparatus, projection image generation program, and projection image generation method
JP4822142B2 (en) Endoscope insertion support system and endoscope insertion support method
JP5009391B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5918548B2 (en) Endoscopic image diagnosis support apparatus, operation method thereof, and endoscopic image diagnosis support program
US7783091B2 (en) Method for segmenting anatomical structures from 3D image data by using topological information
US9198603B2 (en) Device, method and program for searching for the shortest path in a tubular structure
US10235753B2 (en) Automatic recognition of anatomical landmarks
WO2018163633A1 (en) Similar case image search program, similar case image search device, and similar case image search method
JP5700964B2 (en) Medical image processing apparatus, method and program
CN109360209B (en) Coronary vessel segmentation method and system
JP2011098195A (en) Structure detection apparatus and method, and program
KR20190084380A (en) Method for extracting vascular structure in 2d x-ray angiogram, computer readable medium and apparatus for performing the method
EP2856428A1 (en) Segmentation highlighter
JP2009018005A (en) Bull&#39;s eye map creating apparatus, bull&#39;s eye map creating method, and image processing apparatus
EP2495700A1 (en) Image-based diagnosis assistance apparatus, its operation method and program
US7298879B2 (en) Computer-aided detection of lung nodules
CN114677436A (en) Automatic cerebrovascular positioning method in brain CTA image based on model registration
CN109875595B (en) Intracranial vascular state detection method and device
JP2006068351A (en) Medical image processing method, medical image processing program, and medical image processing device
JP5930539B2 (en) MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP2009273644A (en) Medical imaging apparatus, medical image processing device, and medical image processing program
US20170018079A1 (en) Image processing device, method, and recording medium having stored therein program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4564233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees