JP2008511366A - 距離座標を使った特徴重み付け医療オブジェクト輪郭検出 - Google Patents
距離座標を使った特徴重み付け医療オブジェクト輪郭検出 Download PDFInfo
- Publication number
- JP2008511366A JP2008511366A JP2007529051A JP2007529051A JP2008511366A JP 2008511366 A JP2008511366 A JP 2008511366A JP 2007529051 A JP2007529051 A JP 2007529051A JP 2007529051 A JP2007529051 A JP 2007529051A JP 2008511366 A JP2008511366 A JP 2008511366A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- input image
- image
- distance parameter
- reference point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
画像中のオブジェクトの輪郭をセグメンテーションするための方法が、少なくとも一つのオブジェクトを含む、少なくとも二次元のピクセルデータセットを有する入力画像を受け取る第一のステップと、前記入力画像の前記オブジェクト内の基準点を選択する第二のステップと、前記入力画像の諸ピクセルと前記基準点との間の距離パラメータの座標マップを生成する第三のステップと、前記入力画像からエッジ検出画像を提供するよう前記入力画像を処理する第四のステップと、前記入力画像のピクセルpに対する前記距離パラメータの少なくとも一つの統計的モーメントを、前記エッジ検出画像および前記ピクセルpを中心とする窓関数上で定義されたフィルタ核に依存する重み因子を用いて計算する第五のステップと、前記ピクセルpが前記オブジェクト内であるかどうかを評価するために前記少なくとも一つの統計的モーメントを解析する第六のステップを有する。
Description
本発明は、画像セグメンテーションに関する。より詳細には、本発明は、デジタル画像、特に医療画像において描かれている複数の相異なる離散的なオブジェクトの境界を識別するための効率的かつ単純化された技法に取り組む。
そのようなセグメンテーション技法はコンターリングとしても知られるが、デジタル画像を処理して、そこに描かれている離散的なオブジェクトを検出、分類および列挙する。それは関心領域(ROI: region of interest)内のオブジェクトについてその輪郭、すなわち外形線または境界を判別することからなり、それはたとえば、オブジェクトの形状、形態、大きさおよび動きの解析のために有用である。
これは難しい問題を表している。デジタル画像は一般に、セグメンテーションの可能な解を、正解を含む小さな解集合に制限するために十分な情報を欠いているからである。
画像の輪郭検出は、医療画像、特にCT(コンピュータ断層撮影)画像、X線画像、MR(磁気共鳴)画像、超音波画像などの分野において一般化した応用を見出している。そのような医療画像に現れるさまざまな解剖学的オブジェクト(たとえば、前立腺、腎臓、肝臓、膵臓など、あるいは心室、心房、肺胞などのような空洞)の輪郭を精密に決定することがきわめて望ましい。そのような解剖学的オブジェクトの境界を精密に決定することによって、その解剖学的オブジェクトの周囲に対する位置を、診断のために、あるいは手術、癌の放射線治療などといった医療手順を計画および実行するために使うことができる。
画像セグメンテーションはデジタル形式の医療画像を対象とする。人体の部分のような標的のデジタル画像は、データ素の配列を有するデータセットであり、個々のデータ素は標的の属性に対応する数値データ値を有している。属性は、撮像センサーによって、該撮像センサーの視野を通じて規則的な間隔で測定できる。投影データに基づくピクセルグリッドに従って計算されることもできる。データ値が対応する属性は、白黒写真の光の強度、カラー画像のRGB成分、X線減衰係数、MRについての水素含量などでありうる。典型的には、画像データセットはピクセルの配列であり、各ピクセルは強度に対応する一つまたは複数の値をもつ。デジタル画像の有用性は、部分的には、コンピュータプログラムによって変換し、向上させることでそこから意味を抽出できるようにする力に由来する。
既知の輪郭検出技術は一般に複雑で、よって長い計算時間を要する。さらに、そのほとんどは、先験的にいかなる種類のオブジェクト形状についても作用するよう設計された汎用技術であり、よっていくつかの個別のタイプのオブジェクトについては性能がよくないことがある。
セグメンテーションすべきオブジェクトの全体的な形状をそのセグメンテーションを単純化するのに使うことができることが示されている。たとえば心室(たとえばCT、MRまたは超音波エコー心臓造影法における左心室の2Dビュー)、あるいは任意の空洞形状のオブジェクトについては、極座標(r,θ)の使用がいくつかの有益な結果をもたらしている。ユーザーによって対話的に座標の原点r=0を設定され、次いでアルゴリズムを使って、極座標(r,θ)で表されたすべての輪郭のうちで心室エッジに沿った最良の可能な輪郭が見出される。ユーザーによる座標原点の選択は、セグメンテーション手順を繰り返すことによって修正できる。それにより原点をその2D空洞ビューの重心のできるだけ近くに位置させることができる。極座標のそのような使用の例は、論文“Constrained Contouring in the Polar Coordinates”, S. Revankarand D. Sher, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, New-York, USA 15-17 June 1993, pp. 688-689に見出すことができる。
このアプローチはやはり輪郭決定において角変数θの使用を必要とし、一定の複雑さを呈する。
2Dおよび3Dにおいてリアルタイムの制約を満たすために必要な計算量が限定される、単純化されたセグメンテーション方法を提供することが本発明の一つの目的である。
したがって、本発明は請求項に基づく方法、請求項に基づくコンピュータプログラムプロダクトおよび請求項に基づく装置を提供する。
本発明は基準点と画像ピクセルpとの間の距離パラメータを使った単純な座標マップを利用する。あるピクセルが輪郭の内部にあるか外部にあるかを判定するために提案される基準は、前記距離パラメータについての、エッジ検出画像に依存する重み付け因子を使った統計的モーメントの計算に基づいている。重み付け因子は、ピクセルを中心とする窓関数の上で定義されるフィルタ核にも依存する。したがって、計算時間はかなり限定され、それにより本方法はリアルタイムの制約に好適となる。
本発明のその他の特徴および利点は、付属の図面との関連で考慮される以下の記載においてさらに明らかとなる。
本発明は、画像中のオブジェクトの輪郭のセグメンテーションを扱う。本発明の実装はここではソフトウェア実装として解説されるが、たとえば医療用途のコンピュータシステム中のグラフィックカード中のハードウェアコンポーネントを用いて実装されてもよい。
ここで図面、特に図1を参照すると、本発明に基づくセグメンテーション方法の概略図が示されている。
全体的な方式は、ステップ200における、セグメンテーションされるべきオブジェクトを含むデジタル医療2Dまたは3D画像の初期取得を含む。取得された画像が2Dまたは3D画像のシーケンスで、2D+tまたは3D+tのデータをなすこともできる。ここで、時間tを追加的な次元として扱っている。ステップ200は、画像をあるファイル形式から必要な別のファイル形式に変換するためのファイル変換器コンポーネントの使用を含んでいてもよい。結果として得られる入力画像は以下ではM(p)と呼ぶ。pは画像内でのピクセルの添え字である。以下では、記号の簡単のため、画像およびその構成データは同じ名前で呼ぶ。よって、M(p)は入力画像およびピクセルpについての入力データの両方を指す。
第二のステップ210では、基準点p0の選択が行われる。ある好ましい実施形態では、この基準点はユーザーによって、ユーザーの想定によるオブジェクトの重心に基づいて入力される。たとえば、画像を示しているグラフィックディスプレイ上でユーザーが予想される重心位置をマウスでポイントすることによって、あるいは予想される重心座標をキーボードなどで入力することによって行われる。
基準点p0は自動的に設定されることもできる。たとえば既知の腫瘤検出方式を初期検出アルゴリズムとしてはたらくものとして使うことができ、それが返す位置を可能な基準点として選択することができる。単純な閾値処理法によって、基準点が選択される関心領域(ROI)を決定する助けにすることもできる。そのようなROIはユーザーによって定義されてもよい。
第三のステップ220では、入力画像M(p)内のピクセルと基準点p0との間の距離パラメータの座標マップR(p)が定義される。該距離パラメータを決定するために、基準座標系が定義される。その原点は先のステップ210で選択された基準点p0である。適正な基準座標系の選択は、より効率的な方法につながりうるので重要である。空洞形状のオブジェクトについては、極座標系が非常に便利である。画像のすべてのピクセルはその極座標(r,θ)によって参照される。rは動径と呼ばれ、原点からの距離であり、θは動径rの系の軸の一つに対する角度である。もう一つの可能な選択は、たとえば、楕円座標系である。楕円座標系ではrは楕円動径ρによって置き換えられる。のちに説明するように、本方法を逐次的に実行してセグメンテーションの進行につれて座標系を変えることも有益でありうる。座標系の選択はユーザー定義でも、自動でもよい。
次いで、選択された基準座標系を使って座標マップR(p)が定義される。入力画像Mの各ピクセルpについて、R(p)は、選択された座標系において測った、そのピクセルpから基準点p0への距離パラメータとして定義される。座標マップは、通常の極座標系の場合には動径rの行列、楕円座標系の場合には楕円動径ρの行列からなる。R(p)とM(p)は同じ大きさである。本方式は、座標系の選択に依存していかなる種類の距離パラメータR(p)にも一般化できる。選択された距離パラメータが距離というトポロジー属性をもちさえすればよい。以下の記述では、R(p)は座標マップそのものを指すこともあれば、入力画像の所与のピクセルpについての距離パラメータを指すこともある。
第四のステップ230では、入力画像M(p)が処理されて、入力画像M(p)からエッジ検出(edge-detected)画像ED(p)が生成される。エッジ検出画像ED(p)の生成は、たとえばローカル分散法(local variance method)のような既知のエッジフィルタ処理技法を使って行われる。初期入力データM(p)がエッジ検出にかけられ、そのエッジが検出されて、オブジェクトのエッジ領域を他の領域から区別するためのエッジ強度データED(p)が決定される。あるいはまた、入力画像M(p)はまず好適な技法による鮮鋭度および特徴の強調にかけられて、鮮鋭度が向上した画像が生成されてもよい。エッジ検出画像ED(p)は、関心領域(ROI)の外、すなわち器官の境界がありそうもないところではエッジ強度データを0に設定するよう集成されてもよい。
エッジ検出画像におけるピクセル値EP(p)は、ROIにおけるエッジ特徴を説明する。これらのピクセル値は、特徴顕著度量(feature saliency quantity)を表しており、これはピクセル強度値、ピクセル強度の局所的勾配、または画像M(p)内の特徴強度に関係した任意の好適なデータのいずれかでありうる。
第五のステップ240では、入力画像M(p)からのピクセルpに関し、距離パラメータR(p)の少なくとも一つの統計的モーメントが重み因子を用いて計算される。重み因子は、エッジ検出画像ED(p)と、ピクセルpを中心とする窓関数win(p)の上で定義されるフィルタ核Lとに依存する。
統計を収集するとき、観測可能データSiにその信頼度を記述する統計的重み因子Wiを割り当てることができる。ここで、iはサンプル添え字を表す。次いで、量Siの平均値M、その分散σ2、その標準偏差σ、あるいはより一般に次数q=0,1,2などのモーメントμqといった統計データが計算できる。
・エッジ検出画像によって与えられる「統計的」重みED(j)。ここで、jはwin(p)内のピクセルの添え字である。統計的重みは、ピクセルpのまわりにエッジが存在するか否かを説明する。
・空間的または窓開け重みW(p)(j)。この定義域はピクセルpの前記の近傍win(p)である。この窓開け重みはフィルタ核Lに依存し、のちに定義する「取り込み範囲」を改善するために使われる。
よって、次のようになる。
式(2)に基づき、μ1(p)/ μ0(p)は距離パラメータR(p)の平均値AR(p)である。距離パラメータの2次の統計的モーメントμ2(p)は、距離パラメータR(p)の標準偏差SD(p)または分散SD(p)2を式(3)に基づいて計算するために使用可能である。
μq(p)=L(ED(p)R(p)q) (6)
式(1)におけるW(p)(j)はピクセルpを中心とする上述したフィルタLの核である。核Lはたとえば図2の曲線Aによって示されるようなガウス型でもよい。あるいはまた、図2の曲線Aによって示され、のちに詳述する特定の等方的フィルタ核に対応していてもよい。窓win(p)の外側ではLは0である。
本発明において、座標マップR(p)が定義され(たとえばある基準点からの距離)、統計データは、特徴強度およびフィルタ核を統計的重みとして使った距離パラメータの規格化された相関として決定される。統計の計算の図解が図3に見られる。オブジェクト281がその輪郭280を決定するためにセグメンテーションされようとしている。基準点p0がそのオブジェクトの重心のあたりに選択されている。この例における基準座標系は極座標系である。ピクセルpについて統計的モーメントμ1(p)を計算するために、ピクセルpのまわりに窓win(p)が定義される(ここで、窓は円形で、pがその中心である)。それとともに、win(p)内のすべてのピクセルjについて等方的空間核W(p)(j)が定義される。核はpで最大となり、pを中心とする任意の円に属するすべてのjピクセルについて同一である。win(p)の外では核は0である。
第六のステップ250では、入力画像のピクセルpに関する前記少なくとも一つの統計的モーメントが解析されて、このピクセルpがセグメンテーションされるべきオブジェクトに内部にあるか外部にあるかが評価される。
オブジェクトの輪郭は、距離パラメータR(p)を距離パラメータR(p)の平均値AR(p)と比較することによって決定できる。
・R(p)<AR(p)=μ1(p)/μ0(p)のとき、ピクセルpはオブジェクト内にあると判断される;
・R(p)>AR(p)のとき、ピクセルpはオブジェクトの外であると判断される。
・R(p)<AR(p)=μ1(p)/μ0(p)のとき、ピクセルpはオブジェクト内にあると判断される;
・R(p)>AR(p)のとき、ピクセルpはオブジェクトの外であると判断される。
すると、R(p)<AR(p)のピクセル領域とR(p)>AR(p)のピクセル領域との間の境界がオブジェクトの輪郭を定義する。
初期画像M(p)における解像度の不足またはノイズの生起は計算される統計における大きな標準偏差SD(p)をもたらしうる。ある好ましい実施形態では、差R(p)−AR(p)は標準偏差SD(p)によって規格化され、データ分布の影響が制限される。
初期画像M(p)における解像度の不足またはノイズの生起は計算される統計における大きな標準偏差SD(p)をもたらしうる。ある好ましい実施形態では、差R(p)−AR(p)は標準偏差SD(p)によって規格化され、データ分布の影響が制限される。
ND(p)=(R(p)−AR(p))/SD(p) (7)
規格化された差(normalized difference)ND(p)は、オブジェクトエッジからの符号付きの逸脱を表している。すなわち、ピクセルpがオブジェクトの内部であれば負で、外部であれば正である。この比の符号が本セグメンテーション方法の主要な手がかりであるので、その変動を[−1,1]のような所与の範囲に限定するために圧縮関数(squashing function)を使うことができる。一つの可能性は、
で定義される誤差関数(error function)erf()を使って「ファジーセグメンテーション関数」を定義することである。
規格化された差(normalized difference)ND(p)は、オブジェクトエッジからの符号付きの逸脱を表している。すなわち、ピクセルpがオブジェクトの内部であれば負で、外部であれば正である。この比の符号が本セグメンテーション方法の主要な手がかりであるので、その変動を[−1,1]のような所与の範囲に限定するために圧縮関数(squashing function)を使うことができる。一つの可能性は、
ファジーセグメンテーション(fuzzy segmentation)関数は次を与える。
FS(p)=erf(ND(p)) (9)
pがオブジェクト内部にある可能性は、FS(p)が−1に近いときに最大となり、pがオブジェクト外部にある可能性は、FS(p)が+1に近いときに最大となる。0付近のFS(p)の値はそれほどの確実さでは分類されない。最終的なセグメンテーションを得るためには、FS(p)の値は−1から+1までの間の閾値T(ユーザー定義可)と比較される。この閾値未満ではすべてのピクセルpは器官境界の内部に分類される。
pがオブジェクト内部にある可能性は、FS(p)が−1に近いときに最大となり、pがオブジェクト外部にある可能性は、FS(p)が+1に近いときに最大となる。0付近のFS(p)の値はそれほどの確実さでは分類されない。最終的なセグメンテーションを得るためには、FS(p)の値は−1から+1までの間の閾値T(ユーザー定義可)と比較される。この閾値未満ではすべてのピクセルpは器官境界の内部に分類される。
結果として得られるセグメンテーションされた画像を表示するためには当技術分野において知られている諸技法を使うことができる。たとえば、オブジェクト内部に分類されたすべてのピクセルをある中間階調に表示する一方、そのオブジェクトの外部に分類されたすべてのピクセルを前記階調とは非常に異なる別の中間階調に設定することにより、輪郭が明らかになる。
結果として得られる器官のセグメンテーションは、通常は、基準点p0のよりよい原点(ユーザー定義したものや自動的に選択されたものに比べて)を提供できる重心の信頼できる推定を決定するために使うことができる。その場合、上記の手順は図1に見られるステップ210から繰り返される。
先に述べたように、座標系の選択はセグメンテーション効率を改善するのを助けることができる。空洞形状のオブジェクトについてのストレートな選択は、極座標である。その場合、座標マップは動径マップであり、本方法を実行するために必要とされるのは動径だけなので、本発明に基づく方法は角座標θ(2D画像の場合)や角座標θ、φ(3D画像の場合)の使用は必要としない。このことは計算量に関して有利である。
動径r以外の距離パラメータ(距離のトポロジー属性をもつもの)を使うこともできる。たとえば、ひとたび第一のセグメンテーションが得られたら、オブジェクトのセグメンテーションされた部分が楕円形状にあてはめられることができる。楕円形の原点および主軸を使って、一回目の反復において推定された輪郭に楕円をあてはめることによって定義される近似楕円の中心までの楕円距離ρを定義することができる。この座標系の各座標は、たとえば、対応する主軸の長さを使って規格化される。すると、上記の手順のすべては、規格化された動径ρでrを置き換えて実行できる。それにより、円形または球形座標rから生じうる人工効果を受けにくいセグメンテーションが生成される。極座標系については、角度は明示的には使われない。これは、より計算上の要求の大きい(逐次)平均シフト法(Mean Shift techniques)に対して前進である。
統計的重みを(エッジ強度データから)収集することが、長ったらしい統計的反復に取って代わる。本発明のあるさらなる拡張では、オブジェクト形状についての事前の知識を表す任意の凸関数を距離パラメータとして使うことができる。
本発明に基づく方法の逐次反復は、セグメンテーションの性能を改善するために選択された座標系の変更を含むことができる。
全体的な計算量は少なく、本発明がリアルタイムで実行されることを許容する。
統計的計算に必要とされるフィルタ核の例が図2に見られる。曲線Aのようなガウス型でピクセルpを中心とする窓win(p)上で定義され、win(p)の外では0となる等方的フィルタ核L(ベクトルrp)(ベクトルrpはフィルタ核の中心pからの絶対値rpの極座標ベクトル)は、本発明のための第一の好適なフィルタ核である。
統計的モーメントμ0(p) 、μ1(p)および
μ2(p)を計算するためには局所的な鮮鋭度と大きな影響範囲を組み合わせる等方的フィルタが有利である。そのような核は曲線Bによって示されている。曲線AおよびBは、平均幅Wの中心ピークをもつ等方的な核に対応する。核Bは核Aより鮮鋭なピークをもち、また、中心からの距離が大きいところでよりゆるやかに減少することからより大きな影響範囲をもつことが見て取れる。
μ2(p)を計算するためには局所的な鮮鋭度と大きな影響範囲を組み合わせる等方的フィルタが有利である。そのような核は曲線Bによって示されている。曲線AおよびBは、平均幅Wの中心ピークをもつ等方的な核に対応する。核Bは核Aより鮮鋭なピークをもち、また、中心からの距離が大きいところでよりゆるやかに減少することからより大きな影響範囲をもつことが見て取れる。
局所的な鮮鋭度と大きな影響範囲を両立させるため、exp(−krp)のように振る舞う核を用いて、改良された等方的フィルタ核が設計される(絶対値rpを使う)。あるいはまた、(フィルタ核の中心からの)大きな距離rpについては、古典的なガウス型フィルタの振る舞いexp(−r2/2σ2)の代わりにnを正の整数としてexp(−krp)/rp nのように振る舞う核を設計することもできる。そのような核は、特徴の局在スケールsに匹敵する小さな距離については鮮鋭で、このスケールsからβsまでの範囲の距離については上記の法則に従うべきである。ここで、βは画像サイズに適応されたパラメータで、典型的には10である。kの値も所望の局在スケールsに適応される。図2に示されるように、そのようなフィルタ核は、中心のまわりの鋭いピークを特徴とし、中心領域の外では逆冪乗則のように振る舞う。
そのような等方的フィルタ核Lの計算は:
・ガウス型フィルタの連続分布の近似として(dを1より大きな整数としてd次元画像について)、
・異なる離散的な核の大きさσをもつガウス型核の集合を使って、
・それぞれの核に重みg(σ)が与えられているものとして、
計算される。
・ガウス型フィルタの連続分布の近似として(dを1より大きな整数としてd次元画像について)、
・異なる離散的な核の大きさσをもつガウス型核の集合を使って、
・それぞれの核に重みg(σ)が与えられているものとして、
計算される。
計算効率のため、それぞれの解像度レベルについて一つまたは複数の単一σガウス型核(無限大のインパルス応答(IIR: infinite impulse response)をもつ再帰フィルタ)のある多重解像度ピラミッドが使われる。
図3の例で述べたように、統計的モーメントを計算するために空間的または窓開け重みに関連付けられる窓win(p)は、極座標を使うときには円形であり、楕円座標を使うときには楕円形であり、いずれの場合もピクセルpを中心とする。win(p)の大きさはフィルタ核の選択に従って決定され、win(p)の外側のすべてのピクセルjについてL(j)=0とする。大きさおよび形状はすべてのピクセルについて同じでありうるが、たとえばエッジ検出画像ED(p)におけるピクセルpのまわりの特徴の密度に依存して変わってもよい。
そのようなフィルタ合成のためには(計算面でより高価だが)他のアプローチを使うこともできる(たとえば、好適な偏微分方程式を解くことに基づくフーリエ領域(Fourier domain)など)。
本発明はまた、画像中のオブジェクトの輪郭をセグメンテーションするための装置であって、少なくとも一つのオブジェクトを含む少なくとも二次元のピクセルデータセットを有する入力画像Mを受け取る取得手段と、入力画像Mのオブジェクト中の基準点p0を選択する選択手段とを有しており、前記基準点がユーザー定義されるか前記選択手段により自動的に設定されるような装置をも提供する。本発明に基づく装置はさらに、上に開示された方法を実装するための処理手段を有する。
本発明は、上に開示されたステップを実行するようプログラムされた、通常の汎用デジタルコンピュータまたはマイクロプロセッサを使って実装されうる。
図4は、本発明に基づくコンピュータシステム300のブロック図である。コンピュータシステム300は、CPU(中央処理装置)310、メモリ320、入力装置330、入出力伝送チャネル340および表示装置350を有することができる。追加的なディスクドライブ、メモリ、ネットワーク接続…のようなその他の装置が含められてもよいが、図示してはいない。
メモリ320は、セグメンテーションされるべきオブジェクトをもつ入力画像Mを含むソースファイルを含んでいる。メモリ320はさらに、CPU310によって実行されることを意図されたコンピュータプログラムを含むことができる。このプログラムは、上記の方法を実行するための、好適にコーディングされた命令を有している。入力装置はユーザーから指示を受け取るために使われる。指示はたとえば、基準点p0を選択する、座標系を選択する、および/または本方法の種々の段階または実施形態を実行したりしなかったりするといったことである。入出力チャネルは、メモリ320に保存されるべき入力画像Mを受け取るために、そして他の装置にセグメンテーションされた画像(出力画像)を送るために使うことができる。表示装置は、入力画像からの結果として得られるセグメンテーションされたオブジェクトを有する出力画像を視覚化するために使用できる。
Claims (13)
- 画像中のオブジェクトの輪郭をセグメンテーションするための装置であって:
・少なくとも一つのオブジェクトを含む、少なくとも二次元のピクセルデータセットを有する入力画像を受け取る取得手段と、
・前記入力画像の前記オブジェクト内の基準点を選択する選択手段と、
・処理手段であって:
・前記入力画像の諸ピクセルと前記基準点との間の距離パラメータの座標マップを生成し、
・前記入力画像からエッジ検出画像を提供するよう前記入力画像を処理し、
・前記入力画像のピクセルpに対する前記距離パラメータの少なくとも一つの統計的モーメントを、前記エッジ検出画像および前記ピクセルpを中心とする窓関数上で定義されたフィルタ核に依存する重み因子を用いて計算し、
・前記ピクセルpが前記オブジェクト内であるかどうかを評価するために前記少なくとも一つの統計的モーメントを解析する、
ための処理手段、
とを有する装置。 - 前記エッジ検出された画像が前記入力画像の関心領域内で定義され、前記オブジェクトのまわりに位置される、請求項1記載の装置。
- 前記重み因子が前記入力画像中の局所的なピクセル強度勾配である、請求項1または2記載の装置。
- 前記重み因子が前記入力画像中の局所的な強度の値である、請求項1または2記載の装置。
- 前記処理手段による統計的モーメントの計算が、前記ピクセルpについての前記距離パラメータの0次および1次の統計的モーメントを計算することを含み、前記処理手段による前記統計的モーメントの解析が、前記1次の統計的モーメントと前記0次の統計的モーメントとの比を前記ピクセルpと前記基準点との間の距離パラメータと比較することを含む、請求項1ないし4のうちいずれか一項記載の装置。
- 前記処理手段による統計的モーメントの計算がさらに、前記ピクセルpについての前記距離パラメータの2次の統計的モーメントを計算することを含み、前記処理手段による統計的モーメントの解析が、前記0次、1次、2次の統計的モーメントに基づいて前記距離パラメータの標準偏差を決定することを含む、請求項5記載の装置。
- 前記処理手段による統計的モーメントの解析がさらに:
・前記ピクセルpについて、前記距離パラメータと、前記1次の統計的モーメントの前記0次の統計的モーメントに対する前記比との間の差を計算し、
・前記ピクセルpについて、前記差を前記距離パラメータの前記標準偏差で割ることによって規格化した差を計算し、
・前記ピクセルpについて、前記規格化した差に誤差関数を適用し、
・前記ピクセルpが前記オブジェクト内にあるかどうかを評価するために、前記誤差関数を−1から+1までの間の所定の閾値と比較する、
ことを含む、請求項6記載の装置。 - 前記フィルタ核が等方的な低域通過フィルタ核であり、中心に鮮鋭なピークをもち、該中心から離れたところでは逆冪乗則のように振る舞う、請求項1ないし7のうちいずれか一項記載の装置。
- 前記フィルタ核が種々の大きさσの核をもつガウス型フィルタの和であり:
L(r)=Σσg(σ)exp(−r2/σ2)/σd
として定義され、dは入力画像の大きさであり、rは前記フィルタ核の中心からの距離パラメータであり、個々のガウス型フィルタはそれぞれ重みg(σ)を有している、請求項8記載の装置。 - あるピクセルpから前記基準点への前記距離パラメータが前記基準点を中心とする極座標系における動径である、請求項1ないし9のうちいずれか一項記載の装置。
- あるピクセルpから前記基準点への前記距離パラメータが前記基準点を中心とする楕円座標系における楕円動径である、請求項1ないし9のうちいずれか一項記載の装置。
- 画像中のオブジェクトの輪郭をセグメンテーションするための方法であって:
・少なくとも一つのオブジェクトを含む、少なくとも二次元のピクセルデータセットを有する入力画像を受け取り、
・前記入力画像の前記オブジェクト内の基準点を選択し、
・前記入力画像の諸ピクセルと前記基準点との間の距離パラメータの座標マップを生成し、
・前記入力画像からエッジ検出画像を提供するよう前記入力画像を処理し、
・前記入力画像のピクセルpに対する前記距離パラメータの少なくとも一つの統計的モーメントを、前記エッジ検出画像および前記ピクセルpを中心とする窓関数上で定義されたフィルタ核に依存する重み因子を用いて計算し、
・前記ピクセルpが前記オブジェクト内であるかどうかを評価するために前記少なくとも一つの統計的モーメントを解析する、
ステップを有する方法。 - コンピュータシステムの処理ユニットにおいて実行されるためのコンピュータプログラムであって、前記処理ユニット上で実行されると、請求項12に基づく方法を実行するためのコーディングされた命令を有しているプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04300570 | 2004-09-02 | ||
PCT/IB2005/052525 WO2006024974A1 (en) | 2004-09-02 | 2005-07-27 | Feature weighted medical object contouring using distance coordinates |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008511366A true JP2008511366A (ja) | 2008-04-17 |
Family
ID=35033689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007529051A Withdrawn JP2008511366A (ja) | 2004-09-02 | 2005-07-27 | 距離座標を使った特徴重み付け医療オブジェクト輪郭検出 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20070223815A1 (ja) |
EP (1) | EP1789920A1 (ja) |
JP (1) | JP2008511366A (ja) |
CN (1) | CN101052991A (ja) |
WO (1) | WO2006024974A1 (ja) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9769354B2 (en) | 2005-03-24 | 2017-09-19 | Kofax, Inc. | Systems and methods of processing scanned data |
US8538183B1 (en) | 2007-03-08 | 2013-09-17 | Nvidia Corporation | System and method for approximating a diffusion profile utilizing gathered lighting information associated with an occluded portion of an object |
US8064726B1 (en) * | 2007-03-08 | 2011-11-22 | Nvidia Corporation | Apparatus and method for approximating a convolution function utilizing a sum of gaussian functions |
CN100456325C (zh) * | 2007-08-02 | 2009-01-28 | 宁波大学 | 一种医学图像窗口参数的自适应调整方法 |
JP5223702B2 (ja) * | 2008-07-29 | 2013-06-26 | 株式会社リコー | 画像処理装置、ノイズ低減方法、プログラム、記憶媒体 |
US8229192B2 (en) | 2008-08-12 | 2012-07-24 | General Electric Company | Methods and apparatus to process left-ventricle cardiac images |
US9767354B2 (en) | 2009-02-10 | 2017-09-19 | Kofax, Inc. | Global geographic information retrieval, validation, and normalization |
US9576272B2 (en) | 2009-02-10 | 2017-02-21 | Kofax, Inc. | Systems, methods and computer program products for determining document validity |
CN102034105B (zh) * | 2010-12-16 | 2012-07-18 | 电子科技大学 | 一种复杂场景的物体轮廓检测方法 |
US20120259224A1 (en) * | 2011-04-08 | 2012-10-11 | Mon-Ju Wu | Ultrasound Machine for Improved Longitudinal Tissue Analysis |
DE102011106814B4 (de) | 2011-07-07 | 2024-03-21 | Testo Ag | Verfahren zur Bildanalyse und/oder Bildbearbeitung eines IR-Bildes und Wärmebildkamera-Set |
US10146795B2 (en) | 2012-01-12 | 2018-12-04 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US9165188B2 (en) * | 2012-01-12 | 2015-10-20 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US9355312B2 (en) | 2013-03-13 | 2016-05-31 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
US9208536B2 (en) | 2013-09-27 | 2015-12-08 | Kofax, Inc. | Systems and methods for three dimensional geometric reconstruction of captured image data |
JP2016517587A (ja) | 2013-03-13 | 2016-06-16 | コファックス, インコーポレイテッド | モバイル装置を用いて取込まれたデジタル画像におけるオブジェクトの分類 |
US20140316841A1 (en) | 2013-04-23 | 2014-10-23 | Kofax, Inc. | Location-based workflows and services |
DE202014011407U1 (de) | 2013-05-03 | 2020-04-20 | Kofax, Inc. | Systeme zum Erkennen und Klassifizieren von Objekten in durch Mobilgeräte aufgenommenen Videos |
US9697600B2 (en) | 2013-07-26 | 2017-07-04 | Brainlab Ag | Multi-modal segmentatin of image data |
JP6355315B2 (ja) * | 2013-10-29 | 2018-07-11 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2016538783A (ja) | 2013-11-15 | 2016-12-08 | コファックス, インコーポレイテッド | モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法 |
JP6383182B2 (ja) * | 2014-06-02 | 2018-08-29 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法およびプログラム |
US9760788B2 (en) | 2014-10-30 | 2017-09-12 | Kofax, Inc. | Mobile document detection and orientation based on reference object characteristics |
DE102014222855B4 (de) * | 2014-11-10 | 2019-02-21 | Siemens Healthcare Gmbh | Optimierte Signalerfassung von quantenzählenden Detektoren |
GB2534554B (en) * | 2015-01-20 | 2021-04-07 | Bae Systems Plc | Detecting and ranging cloud features |
WO2016116724A1 (en) | 2015-01-20 | 2016-07-28 | Bae Systems Plc | Detecting and ranging cloud features |
EP3248139A1 (en) | 2015-01-20 | 2017-11-29 | BAE Systems PLC | Cloud feature detection |
US10242285B2 (en) | 2015-07-20 | 2019-03-26 | Kofax, Inc. | Iterative recognition-guided thresholding and data extraction |
US9875556B2 (en) * | 2015-08-17 | 2018-01-23 | Flir Systems, Inc. | Edge guided interpolation and sharpening |
US9779296B1 (en) | 2016-04-01 | 2017-10-03 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
TWI590197B (zh) * | 2016-07-19 | 2017-07-01 | 私立淡江大學 | 影像物體特徵描述方法及影像處理裝置 |
US11062176B2 (en) | 2017-11-30 | 2021-07-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
CN112365460A (zh) * | 2020-11-05 | 2021-02-12 | 彭涛 | 基于生物图像的对象检测方法及装置 |
CN113610799B (zh) * | 2021-08-04 | 2022-07-08 | 沭阳九鼎钢铁有限公司 | 基于人工智能的光伏电池板彩虹纹检测方法、装置及设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3568732B2 (ja) * | 1997-04-18 | 2004-09-22 | シャープ株式会社 | 画像処理装置 |
US6636645B1 (en) * | 2000-06-29 | 2003-10-21 | Eastman Kodak Company | Image processing method for reducing noise and blocking artifact in a digital image |
US7116446B2 (en) * | 2003-02-28 | 2006-10-03 | Hewlett-Packard Development Company, L.P. | Restoration and enhancement of scanned document images |
-
2005
- 2005-07-27 EP EP05772850A patent/EP1789920A1/en not_active Withdrawn
- 2005-07-27 CN CNA2005800377064A patent/CN101052991A/zh active Pending
- 2005-07-27 WO PCT/IB2005/052525 patent/WO2006024974A1/en active Application Filing
- 2005-07-27 US US11/574,124 patent/US20070223815A1/en not_active Abandoned
- 2005-07-27 JP JP2007529051A patent/JP2008511366A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
WO2006024974A1 (en) | 2006-03-09 |
EP1789920A1 (en) | 2007-05-30 |
CN101052991A (zh) | 2007-10-10 |
US20070223815A1 (en) | 2007-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008511366A (ja) | 距離座標を使った特徴重み付け医療オブジェクト輪郭検出 | |
López et al. | Multilocal creaseness based on the level-set extrinsic curvature | |
CN107644420B (zh) | 基于中心线提取的血管图像分割方法、核磁共振成像*** | |
US6754374B1 (en) | Method and apparatus for processing images with regions representing target objects | |
US10210612B2 (en) | Method and system for machine learning based estimation of anisotropic vessel orientation tensor | |
CN109949349B (zh) | 一种多模态三维图像的配准及融合显示方法 | |
CN110689548A (zh) | 一种医学图像分割方法、装置、设备及可读存储介质 | |
US8170642B2 (en) | Method and system for lymph node detection using multiple MR sequences | |
US9536318B2 (en) | Image processing device and method for detecting line structures in an image data set | |
WO2003090173A2 (en) | Segmentation of 3d medical structures using robust ray propagation | |
CN111275686B (zh) | 用于人工神经网络训练的医学图像数据的生成方法及装置 | |
van Assen et al. | Cardiac LV segmentation using a 3D active shape model driven by fuzzy inference | |
US20090016583A1 (en) | System and Method for Detecting Spherical and Ellipsoidal Objects Using Cutting Planes | |
JP4170096B2 (ja) | 対象の3次元表面上にマップされた3次元メッシュモデルの適合性評価のための画像処理装置 | |
Jaffar et al. | Anisotropic diffusion based brain MRI segmentation and 3D reconstruction | |
JP2008519348A (ja) | 医療用画像登録のためのマルチスケールフィルタ合成装置及び方法 | |
Anand et al. | An edge vector and edge map based boundary detection in medical images | |
CN108305268A (zh) | 一种图像分割方法及装置 | |
EP1794717B1 (en) | Conformal segmentation of organs in medical images | |
Caldairou et al. | A non-local fuzzy segmentation method: Application to brain MRI | |
Heydarian et al. | Optimizing the level set algorithm for detecting object edges in MR and CT images | |
Campbell et al. | 3-dimensional throat region segmentation from MRI data based on fourier interpolation and 3-dimensional level set methods | |
Pohle et al. | Segmentation of 3D medical image data sets with a combination of region-based initial segmentation and active surfaces | |
Kiwanuka et al. | Surface-area-based attribute filtering in 3d | |
CN117422731A (zh) | 一种心脏图像分割的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080725 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20081114 |