JP7019594B2 - 撮像システムおよび方法 - Google Patents

撮像システムおよび方法 Download PDF

Info

Publication number
JP7019594B2
JP7019594B2 JP2018551950A JP2018551950A JP7019594B2 JP 7019594 B2 JP7019594 B2 JP 7019594B2 JP 2018551950 A JP2018551950 A JP 2018551950A JP 2018551950 A JP2018551950 A JP 2018551950A JP 7019594 B2 JP7019594 B2 JP 7019594B2
Authority
JP
Japan
Prior art keywords
image data
image
segmentation
point
rendering unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018551950A
Other languages
English (en)
Other versions
JP2019510570A (ja
Inventor
ミヒャエル ヴェーバー,フランク
ネイホフ,ニールス
ヴェヒター-シュテーレ,イリーナ
ヴェーゼ,ユルゲン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019510570A publication Critical patent/JP2019510570A/ja
Application granted granted Critical
Publication of JP7019594B2 publication Critical patent/JP7019594B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、画像レンダリング手段を有する撮像システムおよび撮像方法に関する。
リアルタイム撮像において画像レンダリングを実行するためには、たとえば超音波撮像などさまざまな技法が存在する。これらの方法は、2D切断スライスまたは平面のレンダリングまたはレイ・キャスティング技法を使った3D体積レンダリングを含む。2D切断平面の欠点は、データ・セットの完全な三次元的な理解または印象を得ることが難しいということである。
3D体積レンダリング技法は典型的には、仮想の光線を撮像される3D体積中に投じ、最終的なレンダリングされる画像に表示されることのできるデータの2D投影を得ることに関わる。仮想的な観察者の位置から撮像されるオブジェクト内の関心領域に向けて光線が投じられるとき、さまざまな解剖学的構造が途中に介在することがあり、それが関心領域の明瞭な画像を得ることを妨げたり、あるいは他の仕方でそれに干渉したりすることがある。
この問題を少なくとも部分的に緩和する一つの手段は、3Dレンダリングに先立って3D画像データのセグメンテーションを実行し、それにより関心ないと考えられる当該体積の一つまたは複数の大きな部分を切り捨てることである。これは結果的に、典型的には、セグメンテーションされた表面または輪郭によって画定される、より小さな、整形された、セグメンテーションされた体積部分を与える。次いで、光線が観察者の位置から、セグメンテーションされた表面を通じて、それによって画定される体積中に投じられることができる。次いで、セグメンテーションされた表面に適用される色値が、投射された光線に沿ったサンプル点の総合されたまたは合成された陰影または照明勾配(gradient-of-illumination)に基づいて決定されてもよい。
特許文献1は、画像レンダリング方法の一例を開示している。これは第一に、画像データをセグメンテーションして、器官(たとえば心臓)の外側表面を単離し、第二に、セグメンテーションされた外側表面に実質的に垂直な最大輝度投影(MIP: maximum intensity projection)を実行することを含む。MIPは、セグメンテーションされた外側表面上の各ボクセルについて、それぞれ表面に実質的に垂直な角度で、器官体積内の点から器官表面上の当該ボクセルまで延びる光線を投じることに関わる。光線に沿った最大輝度のボクセルが心臓の表面上に表示される。心臓を単離するためにモデル・ベースのセグメンテーションが使われてもよいことが開示されている。
しかしながら、この方法の一つの欠点は、それが生成する、根底にある体積の表現が典型的には、臨床上の有用性の観点からは理想的でないことがあるということである。すべての光線を撮像される器官の表面に実質的に垂直な角度で投じることにより、何らかの根底にある解剖学的構造についての生成されるビューは、最も幾何学的に忠実または臨床的に有用な印象を提供しないことがある。根底にある構造または特徴の明瞭な印象を得るのではなく、典型的には、臨床的に特に関心対象となる全体的な構造および何らかの特定的な詳細の両方のいくらか歪められた、あるいは他の仕方で不完全な表現が期待されることがある。
さらに、この手法は、4D撮像;時間を追っての複数の個別のフレーム、たとえば解剖学的ボディーのリアルタイム3D撮像を通じて生成されたフレームを反映する表現を生成することとなると、非常に制約される。多くの場合、撮像されるボディーは時間的に静的なままではなく、前記ボディーのセグメンテーションされた体積内にある関心対象となる解剖学的構造または領域は、それぞれの個別のフレームの間で、位置をシフトさせたり、配向を変えたりすることがありうる。その結果として与えられる最終的なレンダリングされた画像の集合では、典型的には非対称的なボディーまたは関心領域の配向におけるシフトのために、セグメンテーションされた表面に投影された関心領域が動いているおよび/または見かけの形もしくは輪郭を変えるように見える。
米国特許第7233329号
したがって、本発明者らは、3Dデータ・セットからレンダリングされた画像を生成するための撮像システムおよび方法であって、撮像される体積内にある一つまたは複数の解剖学的オブジェクトもしくは関心領域の見え方をより忠実に表わすことができるとともに、たとえば複数の時間的に離間したフレームにまたがる見かけの配向または位置に関し、これらの表現における一貫性を維持することができるものが必要とされていることを認識するに至った。
本発明は請求項によって定義される。
本発明のある側面によれば、撮像システムであって:
撮像されるべきオブジェクトの体積の3D画像データを受領するよう適応された入力ユニットと;
前記入力ユニットによって受領される前記3D画像データのセグメンテーションを実行するよう適応されたセグメンテーション・ユニットであって、前記セグメンテーションは、解剖学的モデルに基づき、前記3D画像データ内の少なくとも一つのセグメンテーションされた表面を決定するよう構成される、セグメンテーション・ユニットと;
前記少なくとも一つのセグメンテーションされた表面上の点に割り当てられるべき一つまたは複数の表面値を生成するよう適応された表面レンダリング・ユニットであって、前記値は、前記点を通じて延ばされる投影ベクトル上に載る前記3D画像データの画像データ値に基づき、各投影ベクトルは、少なくとも部分的には前記解剖学的モデルに基づいて決定される長さおよび/または前記セグメンテーションされた表面に対する角度をもつ、表面レンダリング・ユニットと;
前記表面レンダリング・ユニットによって生成された前記表面値に基づいて、撮像されるべきオブジェクトの一つまたは複数の画像を生成するよう適応された画像レンダリング・ユニットとを有する、
システムが提供される。
本発明の諸実施形態は、撮像される領域内で単離された第一のセグメンテーションされた表面を通じて投射される投影ベクトルの、前記セグメンテーションされた表面によって画定された撮像される領域の部分体積の中への(または該部分体積からの)侵入の深さまたは角度をローカルに調整するために、解剖学的モデルによって得られる、撮像される領域のローカルな解剖学的情報を利用することに基づく。いくつかの実施形態では、投影ベクトルまたは「サンプリング・レイ」は、少なくとも(いくつかの例では最大でも)セグメンテーションされた表面上の点と、体積部分領域内の第二のそれぞれの点との間に延びる。セグメンテーションされた表面上の前記侵入点に適用される表面値は、実質的にそれぞれの投影ベクトルの長さに沿う画像データ値に基づいて決定される。それらの画像データ値が合成されて、表面値を形成してもよい。諸表面値は一緒になって、その下の体積部分領域の投影または表現を形成する。
前記表面値の一つまたは複数は、諸例では、それぞれの投影ベクトルの長さに沿って分布する画像データ値の全部を合成することを通じて生成されてもよく、あるいは代替的には、前記長さに沿って分布する画像データ値のセレクションまたは部分集合だけを合成することを通じて生成されてもよい。たとえば、表面値は、ベクトルの長さのうちの一つのセクションまたは区間のみに沿って分布する画像データ値を合成し、残りの長さセクションに沿っての画像データ値は度外視することに基づいて計算または決定されてもよい。一つの例解用の例を挙げると、投影ベクトルは表面上のある点から表面の上方5mmの点まで延びてもよい。表面との交点はこの場合、投影ベクトルの長さ全体に沿って分布する画像データ値の合成に基づいて表面値を割り当てられてもよく、あるいはその代わりに、ベクトルのある区間、表面上方のたとえば5mmから2mmの間に延びる区間のみに沿って分布する画像データ値に基づいて値を割り当てられてもよい。
「……の長さに沿って」とは、実質的に長さに沿って、ということを意味する。これはたとえば、所与の投影ベクトルの、ある放射状の周または放射状に延びる領域内にはいる画像データ値を含んでいてもよい。「沿って」とは、広義に近傍を意味し、必ずしも投影ベクトルが直接交わる値のみが最終的な陰影値を形成するために合成されることは含意しない。
さまざまな投影がセグメンテーションされた体積中に投射される角度は、表面上に生成される当該体積内に具現される何らかの根底にある解剖学的特徴または構造の特定のビューを決定する。投影が投射される深さは、表面上で画像化される体積の部分を決定しうる。本発明の諸実施形態は、これらの角度および/または深さを、解剖学的モデルに含まれる情報に依存して定義することに基づく。それによりたとえば、画像化される体積の特徴および構造の最良の(たとえば最も臨床上有用な)ビューまたは印象が得られる。
個別的な例は、投影ベクトルを定義することに向けた、より複雑なおよびそれほど複雑でない手法を含みうる。最も単純な場合、表面レンダリング・ユニットは、あらかじめ決定されたパターンまたは配置に従って投影ベクトルを構築するよう適応されてもよい。ここで、各ベクトルは、該ベクトルがそこを通って延びる前記セグメンテーションされた表面上の点の具体的な位置に基づいて、あらかじめ決定された角度および深さの集合のうちの一つを割り当てられる。これらの角度および深さは、たとえば解剖学的モデルの一部としてエンコードされてもよい。あらかじめ決定された値は、たとえば撮像されるボディーまたは体積の解剖学的特徴を考慮に入れることをねらいとする仕方で、変わってもよい。したがって、この場合、投影ベクトルの長さおよび/または角度は、主として解剖学的モデルに基づいて決定されてもよい。
角度および/または深さは、部分体積内の解剖学的特徴および構造を考慮に入れる仕方であらかじめ決定されてもよく、たいていの場合、撮像されるボディーの解剖学的詳細を最もよく捉える表面値の集合を生じるよう構成されてもよい。
より複雑な例では、投影ベクトルの長さおよび/または角度は、少なくとも部分的には画像データのセグメンテーションに基づいて決定されてもよい。いくつかの場合、セグメンテーション・ユニットは、それぞれの個別の画像について、解剖学的モデルに基づいて、第一のセグメンテーションされた表面によって画定される部分体積を包括的に(comprehensively)セグメンテーションし、それにより、部分体積内の一つまたは複数の解剖学的特徴または構造の位置および/または寸法に関する画像固有の解剖学的情報を生成するよう構成されてもよい。この画像固有の解剖学的情報は、次いで、投影が投射される角度および/または深さを決定する際に、表面レンダリング・ユニットによって利用されてもよい。それによりたとえば、画定された部分体積内にある解剖学的特徴の最適なビューが得られる。したがって、これらの例では、投影ベクトルの長さおよび/または角度は、少なくとも部分的にはセグメンテーションに基づいて決定される。セグメンテーション自身が解剖学的モデルに基づいて決定されるので、この場合でも、投影ベクトルは解剖学的モデルに基づいて決定される。
さらに、異なる時刻に捕捉された複数の画像フレームを含む4D画像データの場合、そのようなローカルな解剖学的情報は、一つ一つのフレームについて生成されてもよい。これは、少なくともいくつかの実施形態では、一つ一つのフレームを、前記フレームについての画像をレンダリングするのに先立って、解剖学的モデルに基づいてセグメンテーションすることによる。これは、特徴が二つ以上のフレームの間で動く、シフトする、拡大するまたは縮小する場合でさえも、全フレームを通じて、体積内にある特定の解剖学的構造の(たとえばレンダリングされる画像内での位置または配向に関して)一貫したビューが捕捉されることを可能にしうる。したがって、投影の角度および/または深さはこれらのシフトを考慮に入れるよう調整されうる。
そのような4D安定化は、前記あらかじめ決定された角度および深さを、該角度および深さが、異なるフレームの間で(あらかじめ決定された仕方で)変化しうるよう、何らかの時間依存性をもつようにエンコードすることによって、上記の、より単純な実施形態によっても達成されうる。これは、フレームが、期待される動きの典型的な時間サイクルにおけるどの点にあるかを決定するために、各フレームについて何らかのさらなる初期の画像解析段階を必要とすることがありうる。ひとたびこれが決定されたら、あらかじめ決定されたベクトルの正しい集合がすぐに適用されうる。
例によれば、セグメンテーションおよび/または解剖学的モデルに基づいて投影ベクトルを定義するプロセスは、前記投影ベクトルの、前記少なくとも一つのセグメンテーションされた表面に対して直交でない角度をもつ少なくとも部分集合が定義されるようなものであってもよい。
一つまたは複数の例によれば、表面レンダリング・ユニットによって生成される表面値は:色値、陰影値、テクスチャー値または輝度値のうちの一つまたは複数を含んでいてもよい。
解剖学的モデルはたとえば、人間または動物のボディーの一つまたは複数の体積領域またはエリアの構造、形状、密度またはテクスチャーのうちの一つまたは複数を表わすデータまたは情報を含んでいてもよい。解剖学的モデルはたとえば、人間または動物のボディーの一つまたは複数のエリア内の一つまたは複数の解剖学的特徴の位置に関係するまたは該位置を表わす情報またはデータを含んでいてもよい。モデルは、モデル化されるエリアまたは領域内のさまざまな解剖学的構造および/または特徴の間の境界の位置および/または物理的もしくは物質的属性に関する情報を含んでいてもよい。モデルは、該モデルによってカバーされる領域の物理的属性または物質組成を表わす情報またはデータを含んでいてもよい。
上記で論じたように、モデルはさらに、画像レンダリング・システムへの入力として使われるべき、解剖学的にリンクされたデータまたは情報を含んでいてもよい。たとえば、モデルは、あらかじめ定義された投影ベクトルの一つまたは複数の集合を表わすデータを含んでいてもよい。ここで、各投影ベクトルは、モデル内にエンコードされる解剖学的表面上での特定の位置にリンクされるまたは割り当てられる。
モデルは、限定しない例としてテーブル、データ・リストまたは配列などといった、いかなる形のデータ構造によって表現されるデータを含んでいてもよい。
例では、モデルは、グラフ、チャート、マップ、プラン、プロットまたは図のようなグラフィック表現によって表わされたデータを含んでいてもよい。
モデルはたとえば、モデルによってカバーされる解剖学的領域を通じた一つまたは複数の物理量または物理的属性の値を表わすスカラーまたはベクトル・フィールドを表わすデータを含んでいてもよい。
解剖学的モデルは、人間または動物のボディーの体積領域を表わす画像データがセグメンテーションされることを可能にする。それにより、解剖学的意義のあるまたは関心のある、画像データ内の体積部分領域が単離される。この体積部分領域は、セグメンテーションされた表面によって画定される、定義されるまたは境界が定められる領域である。たとえば、モデルは、患者の胸エリアを表わす画像データがセグメンテーションされることを可能にして、それにより心臓が占める体積領域を表わすデータのみを単離できるようにしてもよい。セグメンテーション・ユニットによって決定されるセグメンテーションされた表面は、この場合、心臓の外側表面である。ある代替例では、画像データは心臓をカバーしてもよく、セグメンテーションは、一つまたは複数の動脈、心腔または心臓の他の解剖学的特徴だけを表わす体積データの単離を可能にしてもよい。
解剖学的モデルはさらに、モデルによってカバーされる解剖学的領域の一つまたは複数のエリアの、たとえば、少なくともセグメンテーション・ユニットによって決定される第一のセグメンテーションされた表面によって画定される部分体積の、包括的なセグメンテーションを可能にしてもよい。これは、部分体積内の一つまたは複数の解剖学的特徴または構造の位置および/または寸法に関する画像固有の解剖学的情報が、表面レンダリング・ユニットによる使用のために生成されることを可能にするようなものであってもよい。
例では、撮像システムをなすそれぞれのユニットは、物理的に相異なるエンティティーであってもよく、あるいは純粋に概念的または機能的に異なるエンティティーであってもよい。それらのユニットのうちの二つ以上が、たとえば単一の電気または計算コンポーネントによって構成または具現されてもよい。
一つまたは複数の実施形態によれば、前記投影ベクトルの少なくとも部分集合はそれぞれ、前記少なくとも一つのセグメンテーションされた表面上のそれぞれの点と、撮像される体積内のそれぞれの点との間に延びてもよい。撮像される体積内のそれぞれの点は、少なくとも部分的には前記セグメンテーション、前記解剖学的モデルに基づき、および/またはユーザー入力コマンドに基づいて、表面レンダリング・ユニットによって選択される。
これらの例によれば、前記部分集合の前記投影ベクトルはそれぞれ、上述した第一のセグメンテーションされた(単離された)表面上のある点から、画像データ内のある点まで延びる。例では、これは、前記単離された表面によって画定される部分体積内の点であってもよい。しかしながら、他の例では、この終点は、前記第一のセグメンテーションされた(単離された)表面によって画定される部分体積の外部の点であってもよい。
投影ベクトルの終点は、少なくとも部分的には、セグメンテーション・ユニットによって実行されたセグメンテーションに基づいて、表面レンダリング・ユニットによって決定されてもよい。上記のように、セグメンテーション・ユニットは、単離された表面によって画定された部分体積を包括的にセグメンテーションして、中にある解剖学的特徴またはボディーの位置および寸法を識別するよう構成されていてもよい。この情報は、次いで、各投影ベクトルが延長される終点を決定する際に使われてもよい。各終点は、たとえば、前記部分体積内にある解剖学的構造またはボディーの何らかの臨床的に有意な特徴、たとえば該構造またはボディーの一部をなす境界と一致させられてもよい。
終点は追加的または代替的に、少なくとも部分的には、ユーザー入力コマンドに基づいて決定されてもよい。ユーザー入力コマンドは、撮像システム10の一部ではないがたとえば該撮像システムと動作上通信する外部ユーザー・インターフェース・ユニットによって与えられてもよい。あるいはまた、ユーザー・インターフェース・ユニットは、該システムの一部として設けられてもよい。ユーザー・インターフェース・ユニットは、ユーザー(たとえば臨床担当者)が投影ベクトルの終点を調整、変更または選択することができるようにしてもよい。たとえば、撮像される体積の最も明瞭なまたは臨床的に有用な印象を提供するレンダリングされた画像の生成を可能にしてもよい。
さらなる例によれば、投影ベクトルの少なくとも部分集合は、それぞれ、前記部分体積を画定する前記第一のセグメンテーションされた表面上に載っていない点から延びていてもよい。その代わり、これらは前記部分体積の外側の点から、前記部分体積の内側の点まで延びて、前記セグメンテーションされた表面上の、各ベクトルが交わる点が、ベクトルの長さ全体に沿った画像データ値に基づいて決定される表面値を割り当てられてもよい。
一つまたは複数の実施形態によれば、表面レンダリング・ユニットは、前記投影ベクトルが撮像される体積内に位置する一つまたは複数の解剖学的特徴に交わるように前記投影ベクトルのうち一つまたは複数の投影ベクトルの角度および/または長さを選択するよう適応されていてもよい。
具体例では、表面レンダリング・ユニットは、前記解剖学的特徴に、該特徴の特定の配向軸に沿って交わるよう、前記投影ベクトルのうち一つまたは複数の投影ベクトルの角度および/または長さを選択するようさらに適応されていてもよい。
配向軸とは、単に、ある特定の配向にある前記特徴の中心点を通って延びる直線軸であって、体積データの何らかの(あらかじめ決定されたまたは任意の/概念上の)座標系に関して定義できるものをを意味する。
沿ってとは、単に平行であることを意味し、いかなる所与の配向軸と厳密に一致したり重なったりする投影ベクトルに限定することは意図されていない。
前記特徴に交わる際に特定の投影ベクトルがたどる前記特定の配向軸は、あらかじめ定義されているまたは固定されていてもよく、あるいはユーザー入力に応答してもしくは一つまたは複数の他のパラメータ、たとえば前記セグメンテーションに基づいて決定される解剖学的パラメータに応答して可変であるよう構成されてもよい。
表面レンダリング・ユニットは、一つまたは複数の限定しない例によれば:投影ベクトルに沿って分布する画像データ値の最大値、最小値、和または平均値のうちの一つに基づいて前記表面値を生成するよう適応されていてもよい。
用語、平均は、単に典型的または代表的な値を意味するものとして広義に解釈され、たとえば、モード、メジアン、最大値、最小値またはp百分位(p-percentile)を含んでいてもよい。
さらなる例によれば、表面レンダリング・ユニットは、前記集合における値の全体の表現を提供する合成値を生成するための他の何らかの、より広義に定義された合成プロセスに基づいて表面値を生成するよう適応されていてもよい。
一つまたは複数の実施形態によれば、セグメンテーション・ユニットは、前記セグメンテーションおよび/または解剖学的モデルに基づいて、前記画像データの、関心領域を表わす部分集合を同定するよう適応されていてもよい。
例では、前記関心領域は、前記セグメンテーション・ユニットによって決定された前記少なくとも一つのセグメンテーションされた表面によって画定される前記部分集合であってもよい。しかしながら、前記関心領域は、代替的には、前記部分体積内に含まれる、より小さな部分領域、たとえば前記画定された部分体積内の関心対象の一つまたは複数の解剖学的特徴または構造をカバーするまたは含む領域であってもよい。
一つまたは複数の例によれば、セグメンテーション・ユニットは、いくつかは他のいくつかよりも広い複数の関心領域を同定するよう適応されていてもよい。たとえば、完全にまたは部分的に重なる一つまたは複数の領域を含み、たとえばある領域が別の領域内に含まれる。この場合、第一の関心領域は前記第一のセグメンテーションされた表面によって画定される部分体積からなり、第二の関心領域は、前記部分体積内に含まれる特定の解剖学的特徴であってもよい。
諸実施形態によれば、表面レンダリング・ユニットおよび画像レンダリング・ユニットは、一緒になって前記関心領域を表わす画像を生成するよう適応されてもよい。
上記で論じたように、本発明は、複数の時間離間された画像フレームに対応する諸3Dデータ・セットを含む諸4D画像データ・セットの改善された扱い方を提供する。具体的には、本発明の諸実施形態は、フレームのそれぞれを通じて、撮像される体積内の特定の解剖学的特徴または関心領域のビューの一貫した表現を維持するよう、複数のフレームがレンダリングされることを可能にしてもよい。
よって、受領される画像データが異なる時点に捕捉された複数のフレームを表わすデータを含む少なくとも一組の実施形態について、
セグメンテーション・ユニットは、前記フレームのそれぞれについて、画像データ内の共通の関心領域を同定するよう適応されていてもよく;
表面レンダリング・ユニットおよび画像レンダリング・ユニットは一緒になって、前記フレームのそれぞれについて画像を生成するよう適応されていてもよく、各画像内の関心領域の位置および/または配向が実質的に整列される。
例として、セグメンテーション・ユニットは、心臓の外側表面を第一のセグメンテーションされた表面として単離し、さらに、心臓の一部をなす特定の解剖学的特徴を前記関心領域として同定するよう構成されていてもよい。心臓の拍動は、それぞれの拍動サイクルを通じて心臓の内部および外部構造の両方が変化することを意味する。結果として、関心領域は、フレームとフレームの間で、その(絶対的な)位置、その外側もしくは内側寸法および/または心臓の外側表面に対するその配向を変える。
典型的には(従来技術においては)、そのようなシフトは、セグメンテーションされた表面上に表面レンダリング・ユニットによって生成された領域の表現が、該領域が撮像される特定のビューまたは角度に関して変化する結果を生じうる。領域は、セグメンテーションされた表面上でシフトするもしくは動く、あるいは回転するように見えることがあり、それにより、領域のわずかに異なる側またはエリアがビューのために呈示される。
さらに、心臓自身の拡張および収縮は典型的には、表面表現自身が、レンダリングされる各フレームの間で位置をシフトさせる結果を生じる。
上記の例示的な一組の実施形態は、表面レンダリング・ユニットおよび画像レンダリング・ユニットの両方が解剖学的モデルおよび/またはセグメンテーションによって取得された画像固有の解剖学的情報を利用できるようにすることによって、これらの問題を解決する。この解剖学的なコンテキスト情報は、それぞれのユニットがこれらの動的なシフトを補償し、一つまたは複数の関心領域の画像内での配向および位置の両方が全フレームを通じて一貫したままである最終的なレンダリングされた画像を生成することを可能にする。表面レンダリング・ユニットは、関心領域を一貫した角度でまたは一貫した視点からであるかのようにセグメンテーションされた表面上に投影するよう、フレーム間で投影ベクトルの角度および/または深さを変更してもよい。画像レンダリング・ユニットは、セグメンテーションされた表面がレンダリングされる概念上の観察者の視点を変更し、それにより関心領域および/またはセグメンテーションされた表面自身が画像内の整合した維持を維持することを保証するよう適応されていてもよい。画像レンダリング・ユニットは、追加的または代替的に、フレーム間の一貫性を維持するよう、最終的な画像をクロッピングするまたは他の仕方で最終的な画像の構図を補正または再構成するよう構成されていてもよい。
一つまたは複数の例によれば、関心領域は前記第一のセグメンテーションされた表面の領域、すなわち二次元領域を含んでいてもよい。
一つまたは複数の例によれば、画像レンダリング・ユニットは、異なるフレームについて生成された画像を組み合わせて、動的なまたは動いている表現にするよう適応されていてもよい。ここで、関心領域の位置および/または配向は全フレームを通じて安定化される。
しかしながら、代替的な例によれば、画像レンダリング・ユニットは、異なるフレームについて生成された画像を単一の静的な画像に組み合わせるよう適応されていてもよい。この場合、画像レンダリング・ユニットは、前記複数のフレームのそれぞれからのデータを単一の融合された画像を形成するよう一緒に組み合わせたものを含む合成画像を形成するよう適応されていてもよい。
少なくとも一組の実施形態によれば、表面レンダリング・ユニットは、前記少なくとも一つのセグメンテーションされた表面のうちの一つまたは複数の表面上の前記点に割り当てられる前記一つまたは複数の表面値を、少なくとも部分的にはさらに、前記点のそれぞれの周囲の近傍内に分布する画像データ値にも基づいて生成するよう適応されていてもよい。前記近傍は、前記少なくとも一つのセグメンテーションされた表面に平行な諸方向および/または前記少なくとも一つのセグメンテーションされた表面に垂直な成分をもつ諸方向に延びる。
よって、各表面値は、これらの場合には、投影ベクトルに沿って分布する画像データに基づくのみならず、少なくとも部分的には、当該値が対応する表面点の周囲の近傍内にはいる画像データ値の何らかの合成または融合にも基づいて、決定されうる。近傍は、たとえば、前記セグメンテーションされた表面上の、問題の表面点のまわりのエリア内の画像データ点をカバーするよう延在する、純粋に2Dの近傍であってもよい。他の例では、近傍は、たとえば部分的には前記セグメンテーションされた表面のエリアにわたって、部分的にはその下の体積中に延びる3D領域であってもよい。
本発明のさらなる側面によれば、超音波システムであって:
撮像されるべきオブジェクトの体積の3D超音波画像データを生成するよう適応された超音波トランスデューサ・アレイと;
いずれかの先行する請求項記載の撮像システムとを有しており、前記入力ユニットが前記3D超音波画像データを受領するよう構成されている、システムが提供される。
本発明のさらなる側面によれば、撮像方法であって:
撮像されるべきオブジェクトの3D画像データを取得する段階と;
前記3D画像データを解剖学的モデルに基づいてセグメンテーションし、それにより、前記3D画像データ内の少なくとも一つのセグメンテーションされた表面を決定する段階と;
前記少なくとも一つのセグメンテーションされた表面上の一つまたは複数の点を通じて延びる一つまたは複数の投影ベクトルを定義する段階であって、各投影ベクトルは、少なくとも部分的には前記解剖学的モデルに基づいて決定される長さおよび/または前記セグメンテーションされた表面に対する角度をもつ、段階と;
前記少なくとも一つのセグメンテーションされた表面上の前記点に割り当てられるべき一つまたは複数の表面値を生成する段階であって、前記値は、前記点を通じて延ばされた前記投影ベクトルの長さに沿って分布する前記3D画像データの画像データ値に基づく、段階と;
生成された前記表面値に基づいて、撮像されるべきオブジェクトの一つまたは複数の画像を生成する段階とを含む、
方法が提供される。
本方法の例では、各投影ベクトルは、少なくとも部分的には3D画像データをセグメンテーションすることに基づいて決定される、長さおよび/またはセグメンテーションされた表面に対する角度を有していてもよい。一つまたは複数の実施形態によれば、本方法は、前記投影ベクトルの少なくとも部分集合の各投影ベクトルを、セグメンテーションされた表面上のそれぞれの点と撮像される体積内のそれぞれの点との間で延ばすことを含んでいてもよい。前記撮像される体積内のそれぞれの点は、少なくとも部分的には、前記セグメンテーションすること、前記解剖学的モデルに基づいておよび/またはユーザー入力コマンドに基づいて選択される。
本発明の例が、ここで、付属の図面を参照して詳細に記述される。
ある実施形態に基づく例示的な撮像システムを概略的に描く図である。 本発明の諸実施形態に基づく表面レンダリング・プロセスの要素を概略的に示す図である。 本発明の諸実施形態に基づく表面レンダリング・プロセスのさらなる側面を概略的に示す図である。 本発明の諸実施形態に基づく動き補償機能を概略的に示す図である。 本発明の諸実施形態に基づく動き補償機能のさらなる概略的な図解を提供する図である。 (拡張した)拡張終期フェーズ(A)および(収縮した)収縮終期フェーズ(B)において左心室までの異なる距離にある概念上の観察者視点を概略的に示す図である。 本発明の諸実施形態に基づく例示的な超音波撮像システムを概略的に描く図である。
本発明は、撮像されるボディーのセグメンテーションされた表面に適用されるべき表面値が、撮像されたボディーの体積中に投射される投影に基づいて決定される「モデル・ベースの」撮像システムを提供する。ここで、該投影は、解剖学的モデル内にエンコードされている情報に基づいて決定される角度および深さでなされる。例では、該角度および深さは、撮像されるボディーの包括的なセグメンテーションに基づいて決定される。該セグメンテーション自身も、前記解剖学的モデルに基づいて実行される。投影角度および深さを、ローカルな解剖学的コンテキストに依存してボディーのまわりでローカルに変化させることによって、撮像されるボディーの内部構造の改善された撮像が達成されうる。特に、臨床上の有用性または有意性がより大きい、内部構造の表現を提供する画像が生成されうる。4Dデータ・セットも、解剖学的コンテキストの使用を通じて、複数フレームを通じて表現における一貫性を維持するよう、よりよく扱われうる。
図1は、本発明の単純な実施形態に基づく撮像システム10の構造を概略的に描いている。撮像されるべきオブジェクトの体積の3D画像データが入力ユニット12によって受領される。前記画像データは次いで、セグメンテーション・ユニット14に通信される。セグメンテーション・ユニット14は、前記3D画像データのセグメンテーションを解剖学的モデルに基づいて実行するよう適応されている。このセグメンテーションは、前記3D画像データ内の少なくとも一つのセグメンテーションされた表面を決定(または単離)するよう構成される。セグメンテーションされたまたは単離された表面は、器官のまたは別の解剖学的構造の外側表面など解剖学的意義のある表面であってもよい。
セグメンテーション・ユニットは、例では、3D画像データ内の複数の表面を識別するようおよび/またはデータ内の点および領域を識別するよう構成されてもよい。これらは、解剖学的に意義のある表面(壁または境界など)または解剖学的に意義のある点もしくは領域に対応してもよい。
さまざまなモデル・ベースのセグメンテーション・アルゴリズムが当技術分野で知られており、当業者は、そのようなプロセスになじみがあるであろう。たとえば、一つの好適なセグメンテーション・アルゴリズムが非特許文献1に記載されている。
Ecabert et al.、Automatic Model-Based Segmentation of the Heart in CT Images, IEEE Transactions on Medical Imaging, Vol.27, No.9, September 2008, 1189-1201。
例では、たとえば心臓のモデル・ベースのセグメンテーションは、たとえばセグメンテーションされるべき解剖学的領域または特徴の「平均」または「アベレージ」または「テンプレート」モデルを利用してもよい。これは、たとえば、N個の点およびそれらの点をつなぐT個の三角形からなる三角形メッシュを含んでいてもよい。この平均またはテンプレート・メッシュの初期形状がたとえば平均または典型的な形を記述する。次いで、モデルはいくつかの段階を通じて画像データの特定の集合に適合される。
第一に、メッシュについての一般的な位置および配向が決定または定義され、メッシュは画像内でしかるべく配置される。メッシュにおける各三角形は、その三角形が画像データ内のどこに配置されるべきかを指示を与える一つまたは複数のグラフィックなパターンまたは特徴を、事前エンコードされていてもよく、あるいは、関連付けられていてもよい。各三角形について、セグメンテーション・ユニットは、メッシュの初期配置後、データ内のそれぞれのエンコードされた特徴を探し、しかるべく三角形の位置決めを調整してもよい。どのメッシュ領域がどの解剖学的特徴に属するかも、モデルにおいてエンコードされていてもよく、これがのちの諸レンダリング・プロセス、たとえば投影ベクトルの深さおよび角度の定義のための解剖学的コンテキストを与えてもよい。
しかしながら、本発明は、上記で参照されたまたは詳述した個別的方法に限定されず、これらは単に例示として記述されている。他の好適なセグメンテーション・アルゴリズムが使用されてもよい。
このようにセグメンテーションされたデータは、次いで、表面レンダリング・ユニット16に通信される。表面レンダリング・ユニット16は、前記少なくとも一つのセグメンテーションされた表面上の点に割り当てられるべき一つまたは複数の表面値を生成するよう構成される。これらの値は、たとえば色、テクスチャーまたは陰影値などを含んでいてもよい。前記値は、前記セグメンテーションされた表面上の点を通じて延在させられる投影ベクトル上に分布する画像データ値に基づいて決定され、各投影ベクトルは、少なくとも部分的には前記セグメンテーションおよび/または前記解剖学的モデルに基づいて決定される角度および/または長さをもつ。これは、例では、これらの値を平均することまたはこれらの値の他の何らかの合成、たとえば最大もしくは最小値を決定することを含んでいてもよい。
今やセグメンテーションされ、こうして適用された表面値をもつデータは、最終的に、画像レンダリング・ユニット18に通信される。画像レンダリング・ユニット18は、表面レンダリング・ユニット16によって生成された前記表面値に基づいて、撮像されるべきオブジェクトの一つまたは複数の画像を形成するようデータをレンダリングするよう構成される。
図2では、本発明の概念の単純な図解が与えられる。上記で論じたように、諸実施形態によれば、受領された3D画像データ・セットはまず、システムによって、撮像される領域の解剖学的モデルによってセグメンテーションされ、それにより、第一のセグメンテーションされた表面によって画定された、撮像された領域内の解剖学的に意義のある部分体積を単離する。図2によって示される例では、システムによってこうして単離される部分体積は、心臓を含む体積であり、よって、第一のセグメンテーションされた表面は心臓の外側表面に対応する。
図2の左側は、心臓22を通じた断面を概略的に描いている。心臓の外側表面24は撮像システムによって単離されている。図2の右側は、こうして単離された心臓の左心室の壁の小さな区画を描いている。この壁を通じて、三つの投影ベクトル28、30、32の例示的サンプルが、心内膜36に沿ったそれぞれの点と心外膜40上の対向点44、46、48との間で投射されて示されている。心外膜(これがこの場合、撮像システムによって単離されたセグメンテーションされた外側表面の区画をなす)上のそれぞれの点は、それに交わるそれぞれの投影ベクトルの長さに沿って分布する画像データ値(すなわちボクセル)の合成に基づく色または陰影値を割り当てられる。
この色または陰影値は、最終的なレンダリングされる画像において外側表面24上の所与の点に適用される特定の色または陰影を決定する。参照の簡単のため、今の例については、最終的なレンダリングされる画像がグレースケールのみでレンダリングされることが想定され、よって表面値は「陰影値」と称される。しかしながら、以下の記述における陰影値への各言及は、一般性を失うことなく、任意の代替的な多様な表面値(たとえば色値など)で置き換え可能であると理解される。
それぞれの陰影値は、実質的に対応する投影ベクトルに沿って分布する画像データ値の合成に基づいて決定される。「……に沿って」とは、広義に近傍を意味し、必ずしも投影ベクトルが直接に交わる値のみが最終的な陰影値を形成するために合成されることは含意しない。さらに、陰影値を生成するために合成関数を実行する際に、捕捉された画像データ値から補足的な値が補間(または外挿)されて、合成に含められてもよいことを注意しておく。補間(または外挿)された値は、そのままでは受領された画像データにおいて提供される値によってカバーされない、所与の投影ベクトルの長さに沿った一つまたは複数の点に対応する推定された値であってもよい。
例では、合成関数は、たとえば、平均値、メジアン値、モード値、p百分位値、最小値または最大値を決定することを含んでいてもよい。しかしながら、代替的な例では、いかなる好適な合成関数が使われてもよい。
図2の例において示されるように、各投影ベクトルは典型的にはその相対的な長さおよび/または方向(または配向)の角度において違いがありうる。特に、角度または長さは:解剖学的モデルにエンコードされた情報およびセグメンテーション・ユニットによって実行されたセグメンテーションの結果の一方または両方に基づいて、各ベクトルについて決定される。セグメンテーション自身、解剖学的モデルに基づいて実行されるので、すべての場合において、ベクトルの長さおよび/または方向は少なくとも部分的には解剖学的に決定される。
図2の例では、三つの投影ベクトル28、30、32の各投影ベクトルの(角度に対応する)長さが、ちょうど心内膜36と心外膜40の間に延在し、それ以上には延びないよう選択されていることが見て取れる。したがって、この場合、投影ベクトルはそれぞれ、心内膜および心外膜の位置に対応する角度および長さを割り当てられている。これを達成するために、撮像システムによって実行されるセグメンテーションは、受領された画像データ内において、(解剖学的モデルに基づいて)心内膜および心外膜のそれぞれに対応する輪郭または表面を識別するプロセスを含んでいてもよい。この情報は、次いで、心内膜までのみ延びるベクトルを構築するよう、各投影ベクトルの長さおよび角度を定義する際に使用されてもよい。そうする際、心筋38ならびに心内膜36および心外膜40の表面の表現を提供するが、他の何も提供しない画像が生成される。
各投影ベクトルが投射される角度は、撮像システムによって、ローカルな解剖学的特徴または特性に関係する解剖学的モデルにエンコードされた個別的情報に基づいて決定されてもよい。角度は、たとえば、所与の解剖学的特徴の特定のビューまたは配向を提供するまたは示す外側表面24上の投影または配向を形成するよう選ばれてもよい。この特徴は、後段で(図3との関係で)より詳細に説明する。
個別的な例によれば、投影ベクトルの角度および/または長さは、少なくとも部分的にはユーザー入力コマンドに基づいて決定されてもよい。これらのユーザー入力コマンドは、撮像システムと動作上通信する外部ユーザー・インターフェース・ユニットによって生成されてもよく、あるいは本発明の実施形態の一部をなすユーザー入力ユニットによって生成されてもよい。
例では、ユーザー入力コマンドは、撮像される体積内の特定の解剖学的特徴または境界のユーザー選択に対応してもよく、ユーザー選択において、ユーザーはかかる解剖学的特徴または境界まで、あるいはかかる解剖学的特徴または境界の間に投影ベクトルが延ばされてほしいことをユーザーが指示している。実際上、これは、最終的なレンダリング画像がその深さまで表現を提供してほしいという心臓(または他の撮像されるボディー)内の深さの指示に対応していてもよい。この場合、指示された解剖学的層または特徴まで延びるために外側のセグメンテーションされた表面上の各点について必要とされるベクトルの正確な長さおよび/または角度を決定することにおいて、セグメンテーションの結果および/または解剖学的モデルにエンコードされた情報が用いられてもよい。
ユーザー入力コマンドは、他の例では、解剖学的特徴ではなく、ユーザーが投影ベクトルがそれだけ延びてほしいと思う特定的な寸法長さまたは範囲のユーザー選択に対応していてもよい。
例では、他の因子も、解剖学的モデルに含まれる情報および/またはセグメンテーションに依存してローカルに変化してもよい。たとえば、外側表面24のまわりの異なる点についての陰影値を生成することにおいて、異なる合成関数が適用されてもよい。
図3では、撮像される心臓領域22の左心室のさらなる概略図が示されており、解剖学的事情に依存して変化する投影ベクトルの角度および深さの概念がより明確に示されている。この例では、撮像システムは、単に左心室の最終的なレンダリングされた画像を生成するよう構成されている。したがって、セグメンテーション・ユニットは、左心室の境となる外側表面(今の例については、心内膜36)を単離するよう構成され、表面レンダリング・ユニットはこの表面に適用されるべき表面値を生成するよう適応される。
図3に示されるように、左心室は、乳頭筋54を含んでいる。乳頭筋は、心尖領域における腱索58によって、寝室の天井にわたって位置する僧帽弁60に接続されている。今の例では、乳頭筋の接続点(乳頭筋が心内膜36に出会う点)を撮像したいとする。この場合の投影ベクトルがみな(例示的な例64によって示されるように)表面36に対して90度の角度で一様に定義されるとしたら、表面上に生成される結果として得られる投影は、これらの接続点の理想的な表現を提供しないであろう。
むしろ、例として表面点68に関して示されているように、(乳頭筋接続点を撮像するための)この点についての最良の投影ベクトルは、矢印66によって示されるベクトルであることがありうる。さらに、この場合、すべての投影ベクトルを乳頭筋の自然な配向整列と整列させることによって、接続点は、表面上のより広がった、あるいはぼやけた(明るい)エリアではなく、表面セット上の、より暗い背景に対する、シャープでフォーカスされた(たとえば明るい)スポットとして見える。よって、接続点がよりよく視覚化されうる。
乳頭筋54の組織は左心室における周囲の空洞より高密度なので、主としてこの組織を通る投影ベクトルは、主として空洞の空っぽの空間を通るベクトルの場合よりも、レンダリングされる表面上でより明るく見える対応する表面値を与える。よって、乳頭筋接続点は、表面セット上で、より暗い周囲の表面に対して、フォーカスされた白いスポットとして見える。この場合、最大化されたコントラストおよび最大化されたフォーカスがある。
表面のまわりの異なる点については、関心対象の領域または位置または点(この例では乳頭筋の接続点)を撮像するために最も適切な特定の角度および深さが場合によって変わることがありうる。その点の、関心対象の解剖学的領域または位置に対する個別的な位置および/または角度に依存して前記角度および/または長さが変わるように、それぞれの表面点の投影ベクトルを個々に定義することによって、根底にある関心対象の特徴を、より明瞭に表現または撮像する表面投影を提供することが可能である。
ある一組の例によれば、解剖学的モデルは、単離された外側表面24、36上の点に、その表面上の位置に基づいて適用すべき、あらかじめ定義された投影ベクトルの一つまたは複数の集合をエンコードされていてもよい。それぞれのベクトル集合は、撮像される体積内の関心対象の個別的な解剖学的特徴の理想的な表面表現のために特別に構成されてもよい。それぞれの所与の集合において、セグメンテーションされた外側表面上の各点について一つの投影ベクトルがエンコードされてもよい。撮像システムは、これらの例によれば、外側表面上の各ボクセルが、モデルにおいてエンコードされている対応する表面上の特定の位置‐点をもって同定されることができるよう、セグメンテーションされた部分体積の外側表面を包括的にセグメンテーションするよう構成されていてもよい。このようにして、セグメンテーションされた表面上の各点は、表面上でのその位置に基づいて、あらかじめ定義された投影ベクトルを割り当てられてもよい。
一層単純な例では、モデルにおいて、セグメンテーションされた外側表面の広い諸領域を通じて適用される投影の個別的な角度および深さがエンコードされていてもよい。この場合、システムは、前記広い諸領域を識別するよう前記データ内で単離された外側表面をセグメンテーションし、対応する角度および深さをもつ投影ベクトルを適用するよう構成されてもよい。ここでもまた、関心対象の異なる解剖学的特徴または構造に応じて、各領域について、モデル内で、角度および/または深さの異なる集合がエンコードされてもよい。
より複雑な例では、撮像システムは、それぞれの与えられた画像におけるそれぞれの表面点について独立に、理想的な投影ベクトルの角度および/または深さを計算するよう構成されてもよい。ここで、セグメンテーション・ユニットは、それぞれの個別の画像について、前記第一のセグメンテーションされた表面によって画定された部分体積を、解剖学的モデルに基づいて包括的にセグメンテーションし、それにより部分体積内の一つまたは複数の解剖学的特徴または構造の位置および/または寸法に関する画像固有の解剖学的情報を生成するよう構成されてもよい。
この画像固有の解剖学的情報は、次いで、投影が投射される角度および/または深さを決定して、画定された部分体積内にある関心対象の特定の解剖学的特徴(たとえばユーザー入力コマンドによって指示されるまたは事前にプログラムされる)の最適なビューを得る際に表面レンダリング・ユニットによって利用されうる。たとえば、図3の例については、ひとたび左心室領域がセグメンテーションされ、さまざまな特徴54、58、60の位置が特定されたら、乳頭筋を視覚化するための探索指令が、これらの位置に関して決定または定義されてもよい。たとえば、「僧帽弁中心のほうを指す」または「僧帽弁尖の先端に向かう」ベクトルを定義することによる。次いで、ベクトルについての正しい角度は、それぞれのセグメンテーションされた形について動的に計算されうる。
たとえば僧帽弁先端を指すよう各ベクトルを構築することにより、接続点の直近に発する投影ベクトルのみが乳頭筋の組織を通過するので、乳頭筋接続点が、十分な明瞭さおよびフォーカスをもって撮像される。残りのベクトルは、ほとんど心室腔のみを通る。よって、接続点の位置に近い点が、それ以外のほとんど完全に対照的な(たとえば暗い)背景に対してハイライトされたスポットとして見える。
さらに、心臓サイクルの種々のフェーズを視覚化する場合、最適な角度は心臓フェーズとともに変わることがある。解剖学的な標的領域(たとえば「僧帽弁」)に基づいてベクトルを決定するとき、探索方向は各心臓フェーズについて動的に計算されてもよい。さらに、非解剖学的な探索方向(探索方向が事前に定義される場合など)が時間の関数としてエンコードされることができる。
図3に関して上記で呈示した例は、画像データ内の特定の関心対象の点または領域に対する点の位置に依存して変わるような仕方で表面点投影ベクトルを定義することに関するが、本システムの他の例では、投影ベクトルは、一つまたは複数の他の要因に従って変わるよう定義されてもよい。
たとえば、投影ベクトルの長さおよび/または角度は、3D画像データ内の二つ以上の関心対象の点または領域に対するそれぞれの表面点の位置に依存して変わるよう定義されてもよい。二つ以上の関心対象の点または領域の位置は、これらの点または領域すべての可能な最良のビューを得るよう、投影ベクトルの角度および/または長さを決定または定義するときに考慮に入れられてもよい。これは、それらの点または領域すべての最適化されたビューを得るよう、それぞれの点または領域の明瞭な撮像についての優先度のバランスを取ることを要求しうる。
追加的または代替的に、一つまたは複数の例によれば、各表面点の投影ベクトルは、少なくとも部分的には関心対象の特定の領域またはオブジェクトのサイズおよび/または形状に基づいて定義されてもよい。たとえば、たとえばベクトルの終点が全体としてオブジェクトまたは領域の特定の境界全体にわたって広がるよう、投影ベクトルの角度(および/または長さ)を定義することが望ましいことがありうる。追加的または代替的に、ベクトルの終点が関心対象の領域またはオブジェクトの境界にわたって均等に分散されるような仕方で投影ベクトルを定義することが望ましいことがありうる。
一つまたは複数の例によれば、それぞれの表面点の投影ベクトルは、画像データ内の特定の関心対象の表面の位置および/または配向に依存して変わるよう定義されてもよい。たとえば、一つまたは複数の例によれば、通路、管または導路の管腔の内部表面を撮像することが望ましいことがありうる。例として、これは、たとえば、消化系のセクションまたは血管のセクションであってもよい。この場合、投影ベクトルの角度および/または長さは、前記内部表面の均等なまたは一貫したビューを提供するよう定義されてもよい。たとえばベクトルの終点が内部表面の全体にわたって均等に拡散するよう定義されてもよい。投影ベクトルがそれぞれ実質的に(たとえば互いに5または10度の許容差の範囲内で)同じ角度で内部表面に接近するまたは出会うよう定義されてもよい。
一つまたは複数の実施形態によれば、表面レンダリング・ユニットは、セグメンテーションされた表面の一つまたは複数の点についての陰影値を、前記点のまわりの近傍内にある画像データ点に基づいて決定するよう構成されていてもよい。前記近傍は、セグメンテーションされた表面に平行な諸方向および/または該表面に平行でない一つまたは複数の方向に延びてもよい。これらの実施形態によれば、それぞれの表面点は、前記近傍内にあるおよび前記点を通って延在するそれぞれの投影ベクトルに沿っている値の合成から決定される陰影値を割り当てられる。
一つまたは複数の実施形態によれば、撮像システムは、4D画像データ:異なる時点に捕捉された複数の個別の3Dフレームを表わす画像データを受領し、処理するよう構成されてもよい。従来技術の装置とは異なり、本発明の実施形態はそのような4Dデータ・セットを、データ・セット内の関心対象の特定の解剖学的特徴または領域が全フレームを通じて一貫した仕方で撮像されるような仕方で、レンダリングできる。特に、実施形態は、各フレームのセグメンテーションによって取得されたローカルな解剖学的情報および/または前記解剖学的モデルを利用して、フレーム間で生起する撮像されるボディーの動きがあればそれを補償するとともに、関心対象の特徴または領域の一貫したビューを維持するよう、フレームをレンダリングすることができる。この機能は、本願では「動き補償」と称される。
この種の動き補償は一般に、二つの異なる側面に関わることがある。まず第一に、関心領域が各フレームについての最終的なレンダリングされた(2D)画像内で一貫した位置付けを維持することを保証するための補償に関わりうる。第二に、各フレームのセグメンテーションされた表面上に関心領域の一貫したビューが投影されることを保証するための補償に関わりうる。前者はたとえば、レンダリングされた画像における表面の一貫した全体的なサイズを維持するよう、レンダリングされたセグメンテーションされた表面の一つまたは複数の単純な数学的変換を実行するために、モデル・ベースのセグメンテーションの結果を使うことに関わりうる。後者は、関心領域(単数または複数)の一貫したビューを維持するために、解剖学的ボディーの動きに基づく投影ベクトルの調整に関わりうる。
この概念が、図4において左心室の例に関して例解される。たとえば、左心室80が、撮像されるべき全体的なボディーであり、前記ボディー内で心室壁84上に示されている特定の点82が、一貫したビューを維持することが望まれる関心対象の領域または特徴であるとする。よって、セグメンテーション・ユニットはこの場合、受領される画像データ内で心内膜(左心室腔を直接囲んでいる表面)を識別し、単離し、またそれにより画像データ内の左心室腔を含む部分体積を単離するよう構成される。次いで、表面レンダリング・ユニットは、この表面上の点に割り当てられるまたは適用されるべき陰影またはテクスチャーの値を、前記点を通って体積内に延びるよう定義される投影ベクトルに沿った画像データ点に基づいて生成するよう構成される。
図4の左側画像は、心臓が拡張終期(ED: end-diastolic)フェーズにあるときの時刻t0における心室壁84を描いており、右側画像は、心臓が収縮終期フェーズにあり、左心室が対応して収縮したときの時刻t1における心室壁のシフトを描いている。
図4に示されるように、t0における第一の形88からt1における第二の形90への心室の収縮の結果、関心対象の特徴82の位置のシフトが生じる。しかしながら、各フレームについて個々にモデル・ベースのセグメンテーションが実行されるので、関心領域の動きは必ずしも最終的な画像における当該領域の位置のシフトにつながらない。単に、それぞれのフレームのセグメンテーションによって生成される解剖学的コンテキストを使って、それぞれについてのそれぞれのセグメンテーションされた表面を効果的に同じ一貫したメッシュにレンダリングしてもよい。
これを行なう一つの単純な手段は、単に、より小さな、収縮した表面の値を、最初の(t0の)フレームにおいて表面を表現するために使われたのと同じ、より大きなメッシュに「投影」することであろう。t1の収縮した表面上の各点は、単に、t0の、より大きなメッシュの対応する解剖学的点にマッピングされてもよい。
この手法を記述する代替的な仕方は、t1における第二のフレームのモデル・ベースのセグメンテーションの結果が、t1におけるフレームのレンダリングされた表面を、t0のフレームのためのレンダリングされた表面のサイズに一致するよう拡大する数学的変換を実行するために利用されうる、と言うことである。これはたとえば、一つまたは複数のアフィン変換を実行することを含んでいてもよい。
あるいはまた、セグメンテーションを通じて生成された解剖学的コンテキストの、より洗練された使用がされてもよい。特に、セグメンテーションは、異なるフレームのセグメンテーションされた表面上の領域または点の間で、真のローカルな解剖学的対応が識別され、確立されることを許容する。この解剖学的対応は、たとえば表面の形状、サイズまたは輪郭におけるローカルな変形がある場合でも、各フレームからの画像データが同じ一貫したメッシュ上にレンダリングされることを許容する。ある表面の、他の表面のために生成されたメッシュへの単なる投影は、そのようなローカルな変動または変形を完全に補償できないことがある。しかしながら、解剖学的対応の利用は、これがよりうまく達成されることを可能にしうる。
理解されるであろうが、収縮は典型的には、単に関心対象の特徴の(たとえば画像データ全体の中での)「絶対的な」位置のシフトだけではなく、左心室自身の内部での特徴82の相対的な位置のシフトをも生じることがある。つまり、典型的には、関心対象の特徴の、左心室の外側心外膜表面上の点の一つまたは複数に対する変位の変化がありうる。つまり、心内膜表面ではなく心外膜表面をセグメンテーションしてレンダリングすることを望む例において、関心領域の一貫したビューを維持するためには、これらの点を通って延びる投影ベクトルに調整がなされる必要があることがある。具体的には、異なる画像フレームにおけるこれらのからの/への定義された投影ベクトルの角度および/または方向を、変える必要があることがある。
これはたとえば、各フレームについての画像固有の解剖学的コンテキスト情報を決定することによって達成されてもよい。これは、たとえば各フレームに個々に適用されるセグメンテーション・プロセスによって生成されてもよい。ここで、該プロセスによって識別され、単離される心室の外側表面のみならず、単離された表面上の各点(またはたとえばメッシュ三角形)も、表面上でのその相対的な解剖学的位置に関して識別される。この情報は、次いで、上記の例示的方法の一つまたは複数に従って、各フレームについての前記表面に、関心領域の同じ特定のビューまたは印象を投影するために、使用されてもよい。
この概念の例解が図5に描かれている。時刻t0および時刻t1両方における心室壁の表面上の例示的な点94に対応する一つの例示的投影ベクトル96が図5に示されている。ここで、見て取れるように、特徴82の同じ(例示的)ビューを維持するためにそれぞれ必要とされる理想的な投影ベクトルはt0とt1で、長さにおいても、また角度においても非常にわずかに、異なる。もちろん、図4に示される画像が単に心室壁のそれぞれの断面を表わしており、三つの次元方向全部において関心領域から変位した、見えない表面の諸領域を通じた他の点については、要求される投影ベクトルにおける変化がより顕著になりうることが理解される。
さらに、関心対象の領域または特徴の一貫したビューを維持するための一つまたは複数の例によれば、投影ベクトルの角度および方向を変えるだけでなく、各フレームについて、セグメンテーションされたボディーの最終的な画像が(画像レンダリング・ユニットによって)レンダリングされる際の概念上の観察者「視点」をも変えることが必要であるまたは望ましいことがありうる。たとえば、図4に示される左心室の場合、心室の収縮は、是正アクションがなければ、心室表面全体が、t1のレンダリング画像では、t0のレンダリング画像よりもわずかに小さく見えることを意味する。よって、心室の表面上に与えられた特徴82の表現は、あるフレームの画像から次へと動く際に、位置をシフトするように見える。
これを補償するために、t1における表面がt0をレンダリングするために使われたのと同じ、より大きなメッシュにマッピングされる、上記で概説した変換またはマッピング手法を適用してもよい。しかしながら、一つまたは複数の代替的な例によれば、撮像されるボディー(または関心対象の特徴)の一貫したサイズおよび/または配向を維持するために、異なるフレームの間で撮像されるボディーを有効的に拡大(または縮小)または回転するよう、画像レンダリング・ユニットは、撮像されたボディーに対する概念上の観察者視点の変位を調整するよう構成されてもよい。
このことは図6に概略的に示されている。図6は、(拡張した)拡張終期フェーズ(A)における、また(収縮した)収縮終期フェーズ(B)における左心室80を描いている。それぞれの画像は、それぞれ最終的なレンダリングされる画像においてボディーの見かけの大きさが一貫したままとなることを保証するよう、概念上の観察者視点90がどのようにセグメンテーションされた(単離された)撮像対象ボディーにより近くまたは遠くに動かされうるかを示している。
撮像システムは、諸実施形態によれば、所与の4Dデータ・セット(3D画像データ・フレームの集合)について、撮像される体積内または該体積のあたりの一つまたは複数の関心対象の特徴の一貫したビューまたは表現を提供する、撮像される体積を表わす2Dレンダリングされた画像の集合を生成するよう、上記の仕方で(または代替的な方法に従って)構成されてもよい。画像レンダリング・ユニットはさらに、4Dデータ・セットの全体または一部の単一のグラフィック表現を提供するよう、個々の画像フレームの前記集合を集積または合成するよう構成されてもよい。
例では、画像レンダリング・ユニットは、前記フレームを動画像に集積して、前記データの映画またはムービー型表現を形成するよう構成されていてもよい。上記の動き補償プロセスのおかげで、そのような映画は事実上、捕捉された器官またはボディーの画像であって、外側構造またはフレームが静的なままであるが、ボディーの表面は、下にある体積の見え方または特性の変化を反映して、時間的にシフトし、変化するものを提供しうる。これは、臨床担当者が関心対象の特定の領域または特徴に集中することを、より容易にしうる。サイクルの間、該特徴または領域のレンダリングされる位置を追う必要がないからである。たとえば心臓の超音波撮像の具体例では、この手法は、通常のエコー強度のために、またたとえば局所的な灌流レベルの推定ができるようにする時間を追った強度レベルを生成するために微小泡が使われる場合には灌流撮像のためにも、使われることができる。
代替的な例によれば、画像レンダリング・ユニットは、前記複数のレンダリングされたフレームを集積して単一の合成された静的な画像を形成するよう構成されてもよい。例では、これは、単に各フレームについてのレンダリングされた画像を重畳し、単一の最終的な画像を形成することを含んでいてもよく、あるいは、たとえば撮像される体積の表面上の各点について、複数フレームから時間平均された陰影値を決定することに関わる、より洗練された合成プロセスを含んでいてもよい。
一つまたは複数の例によれば、撮像システムは、画像のリアルタイムのレンダリングを実行するよう構成されてもよい。ここで、撮像システムに対して継続的に4D画像データ(規則的に離間した間隔で提供される3D画像フレームを含む)が提供される。このデータは、撮像システムが動作上結合されている、たとえば超音波プローブのような別個の画像生成装置によって提供されてもよい。これらの例によれば、撮像システムは、各フレームを超音波プローブから受領し、それを上記の方法に従って処理し、レンダリングされた2D画像を、たとえば臨床担当者による観察のために表示ユニットに出力するよう構成されていてもよい。
これらの例では、撮像システムは、上記と同じ仕方で関心対象の解剖学的特徴または領域の生成されたビューにおける一貫性を維持してもよい。ただし、画像全部を一つの束で処理して単一の動的または静的表現として一緒に出力するのではなく、各フレームがリアルタイムでレンダリングされ、次のフレームがその後処理される前に、個々に出力される。
あるいはまた、画像データはリアルタイムでレンダリングされなくてもよく、諸画像の捕捉後に、のちの二次的プロセスの間にレンダリングされてもよい。その場合、臨床担当者は、リアルタイム・モニタリングの時間プレッシャーなしに、時間があるときに画像を見ることができる。
本発明の例は上記で特に心臓の領域の可視化に関係して記述されているが、これらの例は単に例解用の例として与えられているのであって、本発明の適用範囲を限定することは全く意図されていない。本発明の概念は、撮像されるべき任意のオブジェクトの、解剖学的モデルに基づく撮像に広く適用されうる。これは、具体例では、他の解剖学的構造、たとえば人間または動物のボディー内の、血管、肺、腎臓、膀胱、子宮または他の任意の器官、器官の一部または他の解剖学的構造の撮像に関係してもよい。
3D画像データ・セット内の表面をレンダリングするためには、本発明の実施形態と整合しうるさまざまな方法が存在する。少なくとも一組の例によれば、表面レンダリング・ユニットは、セグメンテーション・ユニットによって単離されたセグメンテーションされた外側表面を表わすまたは該外側表面上にマッチするメッシュを構築するよう構成される。そのようなメッシュは、典型的には、ほぼなめらかな外側表面構造をなすよう造形された連結した三角形のメッシュとしてモデル化されうる。例では、単一の陰影または色値が各三角形に割り当てられてもよく、あるいは各三角形(または諸三角形の部分集合)が複数の領域に分割されて、各領域が個別の陰影値を割り当てられてもよい。
これらの例によれば、メッシュ三角形は、上記の記述で言及した「表面点」の役割を演じる。上記の実施形態および例のそれぞれにおいて、表面「点」への言及は、必ずしも一次元の点状の表面要素に限定されず、今の例でいう三角形を含め、任意の形状またはサイズの表面の2D領域を指しうる。
今の例を続けると、それぞれの(2D)メッシュ三角形は、3D画像データ内の複数の画像データ・ボクセルをカバーしてもよい。この場合、前記三角形のための対応する陰影値が、三角形の断面全体にわたる画像データ点の合成に基づいて決定されてもよい。三角形の断面は、その三角形についての対応する投影ベクトルの方向に沿って、体積の中のほうに下方に投影されて、投影「柱」〔シャフト〕を形成してもよい。表面値は、前記柱内にある画像データ値の合成に基づいて決定されてもよい。さらなる例では、前記柱は、任意の規則的または不規則な断面を有していてもよい。たとえば円筒状、長方形または他の任意の多角形である。
これらの例によれば、4Dデータ・セットを処理するとき、画像レンダリング・ユニットは、動的メッシュ(すなわち、撮像される器官の変化サイクルとともに忠実に拡張および形状を変えるメッシュ)として、または静的メッシュ(すなわち、下にある体積の変化する特性に応じて表面の見え方が変化するが、広がりおよび形状は固定したままであるメッシュ)として表示される、(上記のような)ムービー・シーケンスとして画像をレンダリングするよう構成されてもよい。
3D画像データ・セットから形成されたセグメンテーションされた表面レリーフから2D画像をレンダリングするためにはさまざまな方法が存在する。これらは、単に例として、レイ・キャスティング、レイ・トレーシング、最大輝度投影、スキャンライン・レンダリングおよびラスター化を含む。
純粋に例としてレイ・キャスティングを取ると、本発明は、通常の体積レイ・キャスティング・プロセスの後半段階と組み合わされてもよい。通常のレイ・キャスティングでは、レイは概念上の観察者視点から撮像される体積の表面を通って投射され、これに基づいて、前記表面に適用されるべき、合成された表面値が生成される。本発明の実施形態では、表面値は、上記のプロセスによって生成され、よって、2D(表面)レイ・キャスティングにより近い方法が適用されうる。ここで、レイが観察者視点から今や部分的にレンダリングされた表面に投射され、最終的な画像ピクセル値は、照明位置などの一つまたは複数の他のシーンまたは画像パラメータと組み合わせて、これらの値に基づいて生成される。
一つまたは複数の実施形態によれば、最終的なレンダリングされた画像は画像データの「展開された」またはフラットな表現を提供しうる。ここで、セグメンテーション・ユニットによって単離されたセグメンテーションされた外側表面と、その表面上の点について生成された対応する表面値とが、フラットな2D平面上にマッピングされる。腔や管の間の多数の接合を含みうる多数の器官(たとえば心臓)の表面の非一様なまたは非対称的な形状のため、多くの場合、平面状のマッピングされた表現が、明快さと使いやすさの点で好ましいことがある。そのような表現は、たとえば複数のT接合がある心臓の部分領域(たとえば心室中隔)を撮像するために特に有用でありうる。
上記の実施形態のすべては、任意の手段によって生成された3D画像データに適用されうる。これは、あくまでも例として、超音波画像データ、磁気共鳴画像データまたはコンピュータ援用断層撮影(CAT)画像データを含みうる。
図7に概略的な図解が与えられている本発明のある側面によれば、上記の任意の実施形態または例に基づく、超音波画像生成ユニット108および撮像システム10を有する超音波撮像システム106が提供される。超音波画像生成ユニット108は、超音波を送信し、エコー情報を受信するための、たとえば超音波プローブに取り付けられた超音波トランスデューサ・アレイ110を有する。例では、トランスデューサ・アレイは代替的に、PZTまたはPVDFのような材料で形成された圧電トランスデューサ素子を有していてもよい。トランスデューサ・アレイは、3D画像データを生成するために三次元で走査できるトランスデューサ素子の一次元または二次元アレイでありうる。
超音波プローブに加えて、超音波画像生成ユニット108の一部として、受信されたエコー・データを処理して3D画像データを形成する信号処理ユニット120が提供される。該3D画像データがその後、レンダリングされた2D画像を形成するために撮像システム10に提供されてもよい。
本発明は、多数の潜在的な応用をもつが、たとえば医療診断用途、たとえば(あくまでも例として)経胸腔心エコーおよび診断経食道心エコー(TEE)に有用に適用されうる。介入的TEEに適用されてもよい。
図面、本開示および付属の請求項の吟味から、特許請求される発明を実施する際に、開示される実施形態への他の変形が、当業者によって理解され、実施されることができる。請求項では、単語「有する/含む」は他の要素やステップを排除するものではなく、単数表現は複数を排除するものではない。ある種の施策が互いに異なる従属請求項において記載されているというだけの事実が、これらの施策の組み合わせが有利に使用できないことを示すものではない。
請求項に参照符号があったとしても、その範囲を限定するものと解釈すべきではない。

Claims (15)

  1. 画像化されるべきオブジェクトの体積の3D画像データを受領するよう適応された入力ユニットと;
    前記入力ユニットによって受領される前記3D画像データのセグメンテーションを実行するよう適応されたセグメンテーション・ユニットであって、前記セグメンテーションは、解剖学的モデルに基づき、かつ、前記3D画像データ内の少なくとも一つのセグメンテーションされた表面を決定するよう構成される、セグメンテーション・ユニットと;
    前記少なくとも一つのセグメンテーションされた表面上の点に割り当てられるべき一つまたは複数の表面値を生成するよう適応された表面レンダリング・ユニットであって、前記値は、前記点を通じて延ばされる投影ベクトルに沿って分布する前記3D画像データの画像データ値に基づき、各投影ベクトルは、少なくとも部分的には前記解剖学的モデルに基づいて決定される長さおよび/または前記セグメンテーションされた表面に対する角度をもつ、表面レンダリング・ユニットと;
    前記表面レンダリング・ユニットによって生成された前記表面値に基づいて、画像化されるべきオブジェクトの一つまたは複数の画像を生成するよう適応された画像レンダリング・ユニットとを有する、
    画像化システム。
  2. 前記投影ベクトルのうちの一つまたは複数は、少なくとも部分的には前記セグメンテーションに基づいて決定される長さおよび/または前記セグメンテーションされた表面に対する角度をもつ、請求項1記載の画像化システム。
  3. 前記表面値が色、陰影、テクスチャーまたは輝度値を含む、請求項1または2記載の画像化システム。
  4. 前記投影ベクトルの少なくとも部分集合はそれぞれ、前記少なくとも一つのセグメンテーションされた表面上のそれぞれの点と、画像化される体積内のそれぞれの点との間に延在し、前記画像化される体積内の前記それぞれの点は、少なくとも部分的には前記セグメンテーション、前記解剖学的モデルに基づき、および/またはユーザー入力コマンドに基づいて、前記表面レンダリング・ユニットによって選択される、請求項1ないし3のうちいずれか一項記載の画像化システム。
  5. 前記表面レンダリング・ユニットは、前記投影ベクトルのうち一つまたは複数の投影ベクトルの角度および/または長さを、前記投影ベクトルが前記画像化される体積内に位置する一つまたは複数の解剖学的特徴に交わるように選択するよう適応されている、請求項1ないし4のうちいずれか一項記載の画像化システム。
  6. 前記表面レンダリング・ユニットは、前記投影ベクトルのうち一つまたは複数の投影ベクトルの角度および/または長さを、前記投影ベクトルが、前記解剖学的特徴に、該特徴の特定の配向軸に沿って交わるよう、選択するよう適応されている、請求項5記載の画像化システム。
  7. 前記表面レンダリング・ユニットは:前記投影ベクトルに沿って分布する前記3D画像データの画像データ値の最大値、最小値、和または平均のうちの一つに基づいて前記表面値を生成するよう適応されている、請求項1ないし6のうちいずれか一項記載の画像化システム。
  8. 前記セグメンテーション・ユニットは、前記セグメンテーションおよび/または前記解剖学的モデルに基づいて、前記画像データの、関心領域を表わす部分集合を同定するよう適応されている、請求項1ないし7のうちいずれか一項記載の画像化システム。
  9. 前記表面レンダリング・ユニットおよび前記画像レンダリング・ユニットは、一緒になって前記関心領域を表わす画像を生成するよう適応されている、請求項8記載の画像化システム。
  10. 前記画像データが異なる時点に捕捉された複数のフレームを表わすデータを含み、
    前記セグメンテーション・ユニットは、前記フレームのそれぞれについて、前記画像データ内の共通の関心領域を同定するよう適応されており;
    前記表面レンダリング・ユニットおよび前記画像レンダリング・ユニットは一緒になって、前記フレームのそれぞれについて画像を生成するよう適応されており、各画像内の関心領域の位置および/または配向が実質的に整列される、
    請求項8または9記載の画像化システム。
  11. 前記画像レンダリング・ユニットは、異なるフレームについて生成された画像を組み合わせて、動的なまたは動いている表現にするよう適応されており、関心領域の位置および/または配向は全フレームを通じて安定化される;および/または
    前記画像レンダリング・ユニットは、異なるフレームについて生成された画像を単一の静的な画像に組み合わせるよう適応されている、
    請求項10記載の画像化システム。
  12. 前記表面レンダリング・ユニットは、前記少なくとも一つのセグメンテーションされた表面のうちの一つまたは複数の表面上の前記点に割り当てられる前記一つまたは複数の表面値を、少なくとも部分的には、前記点のそれぞれの周囲の近傍内にはいるさらなる画像データ値にも基づいて生成するよう適応されており、前記近傍は、前記少なくとも一つのセグメンテーションされた表面に平行な諸方向および/または前記少なくとも一つのセグメンテーションされた表面に垂直な成分をもつ諸方向に延びる、請求項1ないし11のうちいずれか一項記載の画像化システム。
  13. 超音波システムであって:
    画像化されるべきオブジェクトの体積の3D超音波画像データを生成するよう適応された超音波トランスデューサ・アレイと;
    請求項1ないし12のうちいずれか一項記載の画像化システムとを有しており、前記入力ユニットが前記3D超音波画像データを受領するよう構成されている、
    システム。
  14. 画像化方法であって:
    画像化されるべきオブジェクトの3D画像データを取得する段階と;
    前記画像データを解剖学的モデルに基づいてセグメンテーションし、それにより、前記3D画像データ内の少なくとも一つのセグメンテーションされた表面を決定する段階と;
    前記少なくとも一つのセグメンテーションされた表面上の一つまたは複数の点を通じて延びる一つまたは複数の投影ベクトルを定義する段階であって、各投影ベクトルは、少なくとも部分的には前記解剖学的モデルに基づいて決定される長さおよび/または前記セグメンテーションされた表面に対する角度をもつ、段階と;
    前記少なくとも一つのセグメンテーションされた表面上の前記点に割り当てられるべき一つまたは複数の表面値を生成する段階であって、前記値は、前記点を通じて延ばされた前記投影ベクトルの長さに沿って分布する前記3D画像データの画像データ値に基づく、段階と;
    生成された前記表面値に基づいて、画像化されるべきオブジェクトの一つまたは複数の画像を生成する段階とを含む、
    方法。
  15. 前記投影ベクトルの少なくとも部分集合の各投影ベクトルを、前記セグメンテーションされた表面上のそれぞれの点と画像化される体積内のそれぞれの点との間で延ばすことを含み、前記画像化される体積内の前記それぞれの点は、少なくとも部分的には、前記セグメンテーションすること、前記解剖学的モデルに基づいておよび/またはユーザー入力コマンドに基づいて選択される、請求項14記載の方法。
JP2018551950A 2016-04-04 2017-03-22 撮像システムおよび方法 Active JP7019594B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16163623.8 2016-04-04
EP16163623 2016-04-04
PCT/EP2017/056749 WO2017174351A1 (en) 2016-04-04 2017-03-22 Imaging system and method

Publications (2)

Publication Number Publication Date
JP2019510570A JP2019510570A (ja) 2019-04-18
JP7019594B2 true JP7019594B2 (ja) 2022-02-15

Family

ID=55699453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018551950A Active JP7019594B2 (ja) 2016-04-04 2017-03-22 撮像システムおよび方法

Country Status (5)

Country Link
US (1) US10891776B2 (ja)
EP (1) EP3440632B1 (ja)
JP (1) JP7019594B2 (ja)
CN (1) CN108885797B (ja)
WO (1) WO2017174351A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11727629B2 (en) 2017-09-21 2023-08-15 Samsung Electronics Co., Ltd. Un-occluded visualization of focus with depth continuity with context in volume rendering
EP3569154A1 (en) * 2018-05-15 2019-11-20 Koninklijke Philips N.V. Ultrasound processing unit and method, and imaging system
CA3156832A1 (en) 2019-10-03 2021-04-08 Cornell University Optimizing bra sizing according to the 3d shape of breasts
JP2022109778A (ja) * 2021-01-15 2022-07-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006051359A (ja) 2004-08-12 2006-02-23 General Electric Co <Ge> 医療的侵襲処置計画、並びに侵襲型器具の位置決定及び進路誘導のための方法並びに装置
JP2006192151A (ja) 2005-01-14 2006-07-27 Toshiba Corp 画像処理装置
JP2007509724A (ja) 2003-11-03 2007-04-19 シーメンス コーポレイト リサーチ インコーポレイテツド 冠状血管可視化のためのレンダリング
US20100215238A1 (en) 2009-02-23 2010-08-26 Yingli Lu Method for Automatic Segmentation of Images
US20130064440A1 (en) 2010-04-16 2013-03-14 Koninklijke Philips Electronics N.V. Image data reformatting
JP2014023921A (ja) 2012-06-20 2014-02-06 Toshiba Corp 医用画像処理装置、磁気共鳴イメージング装置及び医用画像処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5971767A (en) 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US6558325B1 (en) * 2000-07-13 2003-05-06 Acuson Corporation Medical diagnostic ultrasonic imaging method and system for displaying multi-phase, multi-frame images
US6852081B2 (en) 2003-03-13 2005-02-08 Siemens Medical Solutions Usa, Inc. Volume rendering in the acoustic grid methods and systems for ultrasound diagnostic imaging
US7301538B2 (en) 2003-08-18 2007-11-27 Fovia, Inc. Method and system for adaptive direct volume rendering
US7902823B2 (en) * 2007-05-02 2011-03-08 Griswold Mark A Dynamic parallel magnetic resonance imaging(DpMRI) with sparse data
JP5543922B2 (ja) 2007-11-02 2014-07-09 コーニンクレッカ フィリップス エヌ ヴェ 強調された冠状動脈表示
EP2336979B1 (de) * 2009-11-05 2014-03-12 TomTec Imaging Systems GmbH Verfahren und Vorrichtung zur Segmentierung von medizinischen Bilddaten
EP2678826B1 (en) * 2011-02-23 2018-09-19 Koninklijke Philips N.V. Automatic projection of landmarks to generate additional correspondences in image registration
JP6396420B2 (ja) * 2013-04-03 2018-09-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d超音波撮像システム、対応する方法、及び、そのような方法を実施するためのコンピュータプログラム
DE102014213408B4 (de) * 2014-07-10 2018-10-25 Siemens Healthcare Gmbh Verfahren zur Ermittlung eines dreidimensionalen Modelldatensatzes eines wenigstens ein Gefäßsegment umfassenden Blutgefäßsystems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007509724A (ja) 2003-11-03 2007-04-19 シーメンス コーポレイト リサーチ インコーポレイテツド 冠状血管可視化のためのレンダリング
JP2006051359A (ja) 2004-08-12 2006-02-23 General Electric Co <Ge> 医療的侵襲処置計画、並びに侵襲型器具の位置決定及び進路誘導のための方法並びに装置
JP2006192151A (ja) 2005-01-14 2006-07-27 Toshiba Corp 画像処理装置
US20100215238A1 (en) 2009-02-23 2010-08-26 Yingli Lu Method for Automatic Segmentation of Images
US20130064440A1 (en) 2010-04-16 2013-03-14 Koninklijke Philips Electronics N.V. Image data reformatting
JP2014023921A (ja) 2012-06-20 2014-02-06 Toshiba Corp 医用画像処理装置、磁気共鳴イメージング装置及び医用画像処理プログラム

Also Published As

Publication number Publication date
US10891776B2 (en) 2021-01-12
CN108885797B (zh) 2023-06-13
EP3440632A1 (en) 2019-02-13
EP3440632B1 (en) 2020-09-09
JP2019510570A (ja) 2019-04-18
WO2017174351A1 (en) 2017-10-12
CN108885797A (zh) 2018-11-23
US20190096118A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
US11806189B2 (en) Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
JP6745861B2 (ja) リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化
EP2203894B1 (en) Visualization of voxel data
CN106456128B (zh) 医学图像处理设备和方法
US5889524A (en) Reconstruction of three-dimensional objects using labeled piecewise smooth subdivision surfaces
US7450749B2 (en) Image processing method for interacting with a 3-D surface represented in a 3-D image
JP7019594B2 (ja) 撮像システムおよび方法
RU2653274C2 (ru) Связанная сегментация в стандартных и контрастных ультразвуковых 3d-изображениях
CN103229210B (zh) 图像配准装置
US7853304B2 (en) Method and device for reconstructing two-dimensional sectional images
JP5600285B2 (ja) 超音波画像処理装置
JP2002306483A (ja) 医用画像診断装置及びその方法
JP2003175041A (ja) 超音波診断装置及び画像処理方法
Scheipers et al. 3-D ultrasound volume reconstruction using the direct frame interpolation method
JP2009011468A (ja) 超音波診断装置
JP3944059B2 (ja) 超音波診断装置
De Craene et al. Generation of ultra-realistic synthetic echocardiographic sequences
JP7155670B2 (ja) 医用画像処理装置、医用画像処理方法、プログラム、及びデータ作成方法
JP2008206965A (ja) 医用画像生成装置、方法およびプログラム
JP7165541B2 (ja) ボリュームデータ処理装置、方法及びプログラム
Øye et al. Illustrative couinaud segmentation for ultrasound liver examinations
Stecker et al. Modelling of 3D Heart Motion
Koptenko et al. ULTRASOUND VOLUME RECONSTRUCTION BASED ON DIRECT FRAME INTERPOLATION
Lamash et al. Fast algorithm for estimating the regional mechanical function of the left ventricle from 4D cardiac CT data
Berg et al. Quantitative wall motion coding in three-dimensional echocardiography

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220202

R150 Certificate of patent or registration of utility model

Ref document number: 7019594

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150