JP2023138979A - 解剖学的構造の着目領域をモデリングすること - Google Patents

解剖学的構造の着目領域をモデリングすること Download PDF

Info

Publication number
JP2023138979A
JP2023138979A JP2023106467A JP2023106467A JP2023138979A JP 2023138979 A JP2023138979 A JP 2023138979A JP 2023106467 A JP2023106467 A JP 2023106467A JP 2023106467 A JP2023106467 A JP 2023106467A JP 2023138979 A JP2023138979 A JP 2023138979A
Authority
JP
Japan
Prior art keywords
interest
image volume
anatomical structure
regions
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023106467A
Other languages
English (en)
Inventor
ホラデイ,マシュー
Holladay Matthew
ゴール,ヴィカッシュ
Goel Vikash
クレイグ ハドソン,ロバート
Craig Hudson Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centerline Biomedical Inc
Original Assignee
Centerline Biomedical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centerline Biomedical Inc filed Critical Centerline Biomedical Inc
Publication of JP2023138979A publication Critical patent/JP2023138979A/ja
Priority to JP2024023873A priority Critical patent/JP2024063055A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】解剖学的構造の1つ以上の着目領域をモデリングする。【解決手段】方法に、少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを含むことができ、分割された画像ボリュームデータは、少なくとも1つの解剖学的構造を含む3D画像ボリュームを含む。方法には、少なくとも1つの解剖学的構造を含む3D画像ボリュームを表すボクセルに紐付けられた値を閾値と比較して評価することによって少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行うことを含むことができる。また、方法には、探索に応答して、少なくとも1つの解剖学的構造の1つ以上の着目領域を分離し、1つ以上の分離された着目領域に基づいて着目領域モデルを作成することをさらに含むことができる。【選択図】図1

Description

関連出願へのクロスリファレンス
本出願は、2019年4月4日に出願され、発明の名称を「MODELING REGION OF INTEREST OF AN ANATOMIC STRUCTURE(解剖学的構造の着目領域をモデリングすること)」とする米国特許仮出願第662/829378号の優先権を主張するものであり、その内容全体を本明細書に援用する。
技術分野
本開示は、解剖学的構造の1つ以上の着目領域をモデリングすることに関する。
様々なイメージング技術を用いて、人体のアナトミーをデジタル的に可視化することができる。磁気共鳴イメージング(MRI)、コンピュータ断層撮影(CT)および陽電子放出断層撮影(PET)は、患者の解剖学的構造を画像化するのに使用されるイメージング技術のほんの一例である。このイメージングデータは、アナトミーを3次元で表した典型的なものであり得るため、コンピュータを使用して3次元(3D)画像を生成またはレンダリングすることができる。この3D画像のレンダリングについては、イメージングデータを生成するのに用いられたイメージングデバイスから受信した画像データに基づいて行うことができる。
本開示は、解剖学的構造の1つ以上の着目領域をモデリングすることに関する。
一例において、システムには、データと命令とを格納するように構成することが可能な非一過性のコンピュータ読み取り可能な媒体と、非一過性のコンピュータ読み取り可能な媒体にアクセスして命令を実行するように構成することが可能なプロセッサと、を含むことができる。命令には、着目領域方法のコードと着目領域モデルのコードとを含むことができる。この着目領域方法のコードを、少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを受信するように、プログラムすることができる。分割された画像ボリュームデータには、少なくとも1つの解剖学的構造を含むことが可能な3次元(3D)画像ボリュームを含むことができる。また、着目領域方法のコードを、少なくとも1つの解剖学的構造を含み得る3D画像ボリュームを表すボクセルまたはピクセルに紐付けられた値を閾値と比較して評価することによって少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行うように、さらにプログラムすることができる。さらに、着目領域方法のコードを、1つ以上の識別された着目領域に基づいて着目領域モデルを作成するように、プログラムすることができる。
別の例では、コンピュータに実装される方法には、少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを受信することを含むことができる。分割された画像ボリュームデータには、少なくとも1つの解剖学的構造を含む3D画像ボリュームを含むことができる。また、コンピュータに実装される方法には、少なくとも1つの解剖学的構造を含む3D画像ボリュームを表すボクセルまたはピクセルに紐付けられた値を閾値と比較して評価することによって少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行うことを含むことができる。また、コンピュータに実装される方法には、探索に応答して、少なくとも1つの解剖学的構造の1つ以上の着目領域を分離することと、1つ以上の分離された着目領域に基づいて、着目領域モデルを作成することと、をさらに含むことができる。
別の例では、システムには、少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを含み得るデータと、命令と、を格納するように構成することが可能な非一過性のコンピュータ読み取り可能な媒体を含むことができる。分割された画像ボリュームデータには、少なくとも1つの解剖学的構造を含み得る3D画像ボリュームを含むことができる。また、システムには、非一過性のコンピュータ読み取り可能な媒体にアクセスして命令を実行するように構成することが可能なプロセッサを、さらに含むことができる。命令には、着目領域モデリングエンジンを含むことができる。この着目領域モデリングエンジンを、少なくとも1つの解剖学的構造を含む3D画像ボリュームを表すボクセルに紐付けられたハウンズフィールドユニット(HU)の値をHU閾値と比較して評価することによって少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行うように、プログラムすることができる。また、着目領域モデリングエンジンを、探索に応答して、識別された1つ以上の着目領域についての3D画像ボリュームを少なくとも1つの解剖学的構造についての分割された画像ボリュームデータから除外することにより、少なくとも1つの解剖学的構造の1つ以上の着目領域を分離するように、さらにプログラムすることができる。また、着目領域モデリングエンジンを、少なくとも1つの解剖学的構造の分離された1つ以上の着目領域のボクセルデータセットにマーチングキューブアルゴリズムを適用することにより、着目領域モデルを作成するように、さらにプログラムすることができる。
図1は、解剖学的構造の1つ以上の着目領域をモデリングするために実装可能なシステムの一例である。 図2は、解剖学的構造の1つ以上の着目領域のモデルを提供するようにプログラムされたコンピュータシステムの一例である。 図3は、着目領域モデルを作成するための方法の一例を示す流れ図である。 図4は、骨と解剖学的構造を含むセグメント画像の一例を示す。 図5は、解剖学的構造のグラフィック表示の一例を示す。 図6は、石灰化モデルのグラフィック表示の一例を示す。 図7は、解剖学的モデルに石灰化モデルを重ねて表示するグラフィカルユーザーインタフェースの一例を示す。 図8は、解剖学的モデルに石灰化モデルを重ねて表示する別のグラフィカルユーザーインタフェースの一例を示す。
本開示は、解剖学的構造の1つ以上の着目領域をモデリングすることに関するものである。いくつかの例では、着目領域モデルを作成するために、着目領域モデリングエンジン(例えば、プロセッサによって実行可能なソフトウェアコード)をプログラムすることができる。着目領域モデルによって、患者の血管系の石灰化領域、石化領域、プラーク領域など、解剖学的構造の異常な領域または区別が可能な他の領域の特徴を明らかにする(例えば、特定する)ことができる。この着目領域モデルを医療現場で活用し、対応する処置(例えば、外科的処置)の計画を立てる一助とすることができる。いくつかの例では、(例えば、出力装置で)対応する処置のあいだなどに着目領域モデルを解剖学的構造の特徴を示す解剖学的モデルと対比させて表示することができる。解剖学的構造に着目領域モデルを重ねれば、術中に患者に対して物体を位置決めしたり誘導したりしやすくすることができる。このため、例えば、解剖学的構造の石灰化領域の着目領域モデルを提供することで、処置時に効果的な処置計画およびナビゲーションを可能にすることができる。いくつかの例では、着目領域モデルを利用して、異なるイメージングモダリティで取得した複数の画像のレジストレーションを容易にしてもよい。
例として、着目領域モデルを作成するために、対応するイメージングモダリティによって術前に所与の患者について取得可能な1つ以上の3次元(3D)医用画像ボリュームを含み得る画像ボリュームデータを受信するように、着目領域モデリングエンジンをプログラムすることができる。画像ボリュームデータには、患者のアナトミーに対応するボクセル(例えば、3D画像要素)を表す画像データを含むことができる。いくつかの例では、値をハンスフィールド単位(HU)で示し、これらの値を画像データのそれぞれのボクセルに紐付けることができる。また、解剖学的構造と1つ以上の骨および/または他の解剖学的構造(例えば、臓器)とを分離するために、画像ボリュームデータを分割するように、着目領域モデリングエンジンをプログラムすることができる。さらに、分割された画像ボリュームデータに基づいて、解剖学的構造(例えば、各々の分枝血管)のジオメトリの特徴を示すことができる中心線モデルと、解剖学的構造(例えば、血管構造)の表面モデルとを作成するように、着目領域モデリングエンジンをプログラムすることができる。
解剖学的構造の1つ以上の着目領域の表面モデルによって特徴が示される表面を検出するために、中心線モデルから(例えば、半径方向に)外側に向かって探索を行うように、着目領域モデリングエンジンをプログラムすることができる。探索には、少なくとも1つの解剖学的構造を含む3次元画像ボリュームを表すボクセルに紐付けられたHU値をHU閾値と比較して評価することを含むことができる。探索に応答して、少なくとも1つの解剖学的構造の1つ以上の着目領域を分離するように、着目領域モデリングエンジンをプログラムすることができる。例えば、着目領域モデリングエンジンは、識別された1つ以上の着目領域の3D画像ボリュームを、少なくとも1つの解剖学的構造の分割された画像ボリュームデータから除外するようにプログラムされ得る。着目領域モデリングエンジンは、1つ以上の識別された着目領域に基づいて着目領域モデルを作成するようにプログラムすることができる。いくつかの例では、少なくとも1つの解剖学的構造の分離された1つ以上の着目領域のボクセルデータセットにマーチングキューブアルゴリズムを適用することによって着目領域モデルを作成するように、着目領域モデリングエンジンをプログラムすることができる。着目領域モデルは、1つ以上の着目領域をグラフィカルにレンダリングする(例えば、表現する)ことができる。1つ以上の着目領域は、石灰化領域、鉱化領域、プラーク領域またはステント領域を含むことができる。
図1は、解剖学的構造の1つ以上の着目領域をモデリングするために実装可能なシステム100の例を示す。このシステム100を、スタンドアロンのコンピュータ、ワークステーション、アプリケーション固有のマシンまたはネットワーク環境に実装することができる。その際、モジュールまたはデータのうちの1つ以上を、ユーザーがシステム100と対話する場所に対してローカルまたはリモートにおくことができる。システム100には、プロセッサ102を含むことが可能である。プロセッサ102は、メモリ104にアクセスし、解剖学的構造の1つ以上の着目領域のモデリングなどの1つまたは複数の機能をインプリメントするためにメモリ104に格納された機械読み取り可能な命令を実行するように構成し得るものである。機械読み取り可能な命令には、着目領域モデリングエンジン106を含むことができる。
この着目領域モデリングエンジン106については、解剖学的構造の1つ以上の着目領域をグラフィカルにレンダリングする(例えば、特徴を示す)ために、モデリングデータ108を受信し、モデリングデータ108を処理して着目領域モデル110をモデリング(例えば、作成)するようにプログラムすることが可能である。いくつかの例では、1つ以上の着目領域モデル110を提供するために、各着目領域を着目領域モデリングエンジン106で別々にモデリングすることができる。他の例では、1つ以上の着目領域の圧縮モデルを提供するために、着目領域モデリングエンジン106を、統合された着目領域モデル110を提供するようにプログラムすることできる。いくつかの例では、ユーザーインタフェース(図1には図示せず)を設け、着目領域モデリングエンジン106のモデリングプロセスを開始するためのユーザー入力をユーザーが提供できるようにすることが可能である。
また、ユーザーインタフェースを用いて、着目領域モデリングエンジン106によって用いられるデータパスと変数とを設定し、これを確立することもできる。別の例として、ユーザーインタフェースを用いて、準備し得る1つ以上の出力装置112および/または着目領域モデリングエンジン106によって実行されるコンピュータ処理を構成することもできる。例えば、ユーザーインタフェースは、モデリングデータ108に基づく分析と処理(例えば、モデリング)を形成する際に用いられる方法およびパラメータのタイプを構成することができる。いくつかの例では、1つ以上の着目領域を可視化するために、出力装置112に着目領域モデル110を提供するようにプロセッサ102をプログラムすることができる。着目領域モデル110をレンダリングして可視化したものを使用して、治療の医療処置制御の実施を促進または支援しやすくしてもよい。
例として、1つ以上の着目領域をモデリングするために、着目領域モデリングエンジン106を、画像ボリュームデータ114を検索するようにプログラムすることができる。
画像ボリュームデータ114には、対応するイメージングモダリティによって術前または術中に所与の患者について取得可能な1つ以上の3D医用画像ボリュームを含むことができる。例えば、画像ボリュームデータ114を、患者のある領域についての術前の解剖学的(例えば、動脈)コンピュータ断層撮影(CT)スキャンに対応したものとすることができる。画像ボリュームデータ114には、患者のアナトミーに対応するボクセル(例えば、3D画像要素)を表す画像データを含むことができる。いくつかの例では、値をHUで示し、これらの値を画像データのそれぞれのボクセルに紐付けることができる。対応するボクセルに紐付けられた各HU値は、材料によるX線減弱のデクストリー(dextree)に比例する。このため、各々のHUで組織密度を表すことができる。本明細書で説明するように、ボクセルに紐付けられたHU値に基づいて患者の解剖学的構造の1つ以上の着目領域の表面を検出するように、着目領域モデリングエンジン106をプログラムすることができる。各着目領域の検出された表面を着目領域モデリングエンジン106によって分析し、各着目領域の密度を決定することができる。
また、解剖学的構造と1つ以上の骨および/または他の解剖学的構造(例えば、臓器)とを分離するために、画像ボリュームデータ114を分割するように、着目領域モデリングエンジン106をプログラムすることができる。いくつかの例では、分離される解剖学的構造を、主要血管ならびにそのような血管からのびる1本以上の分枝血管などの軟結合組織に対応したものとすることができる。このため、分割された画像ボリュームデータを準備するために、組織を画像ボリュームデータ114から分離するように、着目領域モデリングエンジン106をプログラムすることができる。
いくつかの例では、分割された画像ボリュームデータに基づいて、解剖学的構造(例えば、各々の分枝血管)のジオメトリの特徴を示すことができる中心線モデルと、解剖学的構造(例えば、血管構造)の表面モデルとを作成するように、着目領域モデリングエンジン106をプログラムすることができる。表面モデルは、解剖学的構造の外面のみならず内部のジオメトリも記述することができる。また、解剖学的構造の中心軸に沿って長手方向にのびるピクセルまたはボクセルの厚さとして中心線モデルを抽出するように、着目領域モデリングエンジン106をプログラムすることができる。いくつかの例では、表面モデルは、分割された画像ボリュームデータに基づいて、解剖学的構造(またはその一部)の形状を記述するための点群表現(例えば、x,y,z)の特徴を示す(例えば、これを提供する)ことができる。点群の各点には、対応する強度、密度(例えば、HU値)、位置および/または方向を持たせることができる。さらに、解剖学的構造の表面の3D画像を提供するために、マーチングキューブアルゴリズムなどのメッシュアルゴリズムに基づいて表面点群データを変換するように、着目領域モデリングエンジン106をプログラムすることができる。
また、解剖学的構造の1つ以上の着目領域の表面を検出するために、中心線モデルから(例えば、半径方向に)外側に向かって探索を行うように、着目領域モデリングエンジン106をプログラムすることができる。いくつかの例では、解剖学的構造の厚さを決定するために解剖学的構造を初期評価するように、着目領域モデリングエンジン106をプログラムすることができる。また、ある厚さ閾値(例えば、値または範囲)以上の厚さであってもよい解剖学的構造の1つ以上の部分を識別するように、着目領域モデリングエンジン106をプログラムすることができる。また、1つ以上の着目領域についての1つ以上の部分のより詳細な分析(例えば、細かな評価)など、さらに評価を実施するために1つ以上の部分にフラグを立てるように、着目領域モデリングエンジン106をプログラムすることができる。
いくつかの例では、1つ以上の着目領域の表面に対応する各エッジを見つけるように、着目領域モデリングエンジン106をプログラムすることができる。例えば、着目領域モデリングエンジン106は、分割された画像ボリュームデータに基づいて、各ボクセル(またはピクセル)に対する勾配ベクトルをコンピュータ処理で求めるようにプログラムされている。また、勾配閾値(例えば、値または値の範囲)に基づいて解剖学的構造の各々表面と1つ以上の着目領域との間の遷移を識別するために、求められた各々の勾配ベクトルを評価するように、着目領域モデリングエンジン106をプログラムすることができる。さらに、計算された勾配ベクトル間の差異(例えば、計算された勾配の大きさ)が勾配閾値以上であるか否かを判断することによって遷移を識別するように、着目領域モデリングエンジン106をプログラムすることができる。
いくつかの例では、着目領域モデリングエンジン106は、いくつかの例では厚さの閾値に基づいて、1つ以上の着目領域を識別するために1つ以上の部分を評価するようにプログラムされている。1つ以上の着目領域を、解剖学的構造の他の周囲領域とは物質のタイプ(例えば、密度)が異なるものとすることができる。例えば、着目領域モデリングエンジン106は、解剖学的構造についての分割された画像ボリュームデータを表すボクセルに紐付けられたHU値に基づいて、1つ以上の着目領域の表面を検出するようにプログラムされている。そのようなものとして、解剖学的構造の異常な部分について分割された画像ボリュームデータを表すボクセルは、解剖学的構造の1つ以上の正常な部分で想定されるものとはHU値が異なる場合がある。また、1つ以上の着目領域を表すボクセル(またはピクセル)を識別する(例えば、解剖学的構造の1つ以上の異常な部分または区別が可能な他の部分を識別する)ために、各々のHU値をHU閾値と比較するように、着目領域モデリングエンジン106をプログラムすることができる。いくつかの例では、画像ボリュームデータ114を提供するのに用いられるイメージングモダリティのタイプに基づいて、HU閾値を設定することができる。
また、1つ以上の識別された着目領域を解剖学的構造から分離するように、着目領域モデリングエンジン106をプログラムすることができる。例えば、着目領域モデリングエンジン106は、解剖学的構造についての分割された画像ボリュームデータから1つ以上の分離された着目領域の画像ボリュームを表すボクセルを抽出することができ、この抽出されたボクセルをメモリ104に格納し、その評価に基づいて着目領域に対応するものとしてタグ付けすることができる。また、1つ以上の分離された着目領域の画像ボリュームを表す除去されたボクセルに基づいて着目領域モデル110を作成するように、着目領域モデリングエンジン106をプログラムすることができる。例えば、1つ以上の着目領域を、石灰化領域、鉱化領域、プラーク領域またはステント領域に対応したものとすることができる。いくつかの例では、ユーザーインタフェースを介したユーザー入力に応答して1つ以上の分離された着目領域または1つ以上の分離された着目領域の一部を(例えば、解剖学的モデルの上に)重ねられるようにするために、着目領域モデル110を作成するように着目領域モデリングエンジン106をプログラムすることができる。
いくつかの例では、着目領域モデリングエンジン106は、1つ以上の分離された着目領域に対応する点(例えば、ピクセルまたはボクセル)の3Dモデルとして着目領域モデル110を作成するようにプログラムされている。例えば、着目領域モデリングエンジン106は、解剖学的構造と、それに応じて1つ以上の分離された領域の点群表現を提供し、解剖学的構造を表す点の集合に紐付けられたHU値に基づいて1つ以上の着目領域と解剖学的構造の他の領域との間の遷移(例えば、境界)を識別するようにプログラムされている。
このため、石灰化領域、鉱化領域、プラーク領域などの解剖学的構造の異常な領域の特徴をあきらかにする(例えば、特定する)ことが可能な着目領域モデル110を作成するように、着目領域モデリングエンジン106をプログラムすることができる。この着目領域モデル110を使用して、対応する処置(例えば、外科的処置)の計画を立てる一助とすることができる。いくつかの例では、例えば、術中に患者に対して物体を位置決めしたり誘導したりしやすくするためにトラッキングシステムを使用しながら、(例えば、出力装置112で)対応する処置のあいだに着目領域モデル110を解剖学的構造の特徴を示す解剖学的モデルと対比させて表示することができる。いくつかの例では、トラッキングシステムを、全文を本明細書に援用する、発明の名称が「Method and System to Facilitate Intraoperative Positioning and Guidance(術中の位置決めと誘導を容易にするための方法およびシステム)」である米国特許出願第14/209,300号(以下、「’300特許出願」)に記載されているようなトラッキングシステムに対応したものとすることができる。他の例では、異なるトラッキングシステムを使用することができる。
図2は、解剖学的構造の1つ以上の着目領域のモデル228を提供するようにプログラムされたコンピュータシステム200の一例である。いくつかの例では、モデル228は、図1に示すような着目領域モデル110に対応する。コンピュータシステム200には、1つ以上のプロセッサ202と、メモリ204とを含むことができる。メモリ204には、命令とデータが格納された1つ以上の非一過性のコンピュータ読み取り可能な媒体を含むことができる。メモリ204には、コンピュータシステム200に対してローカルにある記憶媒体を含むことができる(例えば、プロセッサ202に物理的に取り付けられているか、プロセッサ202と同じ筐体内にある)および/またはメモリ204がリモート(例えば、ネットワークストレージまたはクラウドコンピューティングインフラストラクチャ)にあってもよい。また、コンピュータシステム200には、ユーザー入力装置206および出力装置208など、1つ以上の入力/出力(I/O)デバイスを含むことができる。例えば、ユーザー入力装置206としては、ユーザー入力データ210としてメモリ204に格納することができる命令およびコマンドを提供するように構成することが可能なキーボード、マウス、タッチスクリーンインタフェース、ジェスチャーインタフェースなどがあげられる。出力装置208としては、モニタ、ヘッドアップディスプレイあるいは、仮想現実もしくは拡張現実のヘッドセットやゴーグルなどの1つ以上のディスプレイがあげられる。いくつかの例では、コンピュータシステム200の入力と出力の両方を提供するために、ユーザー入力装置206と出力装置208とを統合することができる(例えば、タッチスクリーンまたは他のディスプレイ)。
一例として、ユーザー入力装置206は、出力装置208に表示することができる画像ボリュームデータ212のグラフィカル表現に対するポインタ(例えば、カーソル)の位置(例えば、空間座標)および/または移動を指定するためのユーザー入力データ210を提供することができる。これに加えてまたはこれに代えて、ユーザー入力装置206を、出力装置208に画像の一部として表示されている特定のボクセルまたはピクセルを選択するためのユーザー入力データ210を提供するように構成することができる。別の例として、ユーザー入力装置206を使用して、本明細書に記載した機能など所与の場所(例えば、ディスプレイ208のある領域)に提示されている機能を起動してもよい。
いくつかの例では、メモリ204には、(例えば、Digital Imaging and Communications in Medicine (DICOM)または他のタイプのファイルとして)画像ボリュームデータ212を含むことができる。画像ボリュームデータ212については、図1に示すような画像ボリュームデータ114に対応したものとすることができる。画像ボリュームデータ212には、相応のイメージングモダリティによって所与の患者について術前に取得することができる1つ以上の3D医用画像ボリュームを含むことができる。いくつかの例では、3D医用画像ボリュームを術中に取得することができる。一例として、画像ボリュームデータ212を、患者の領域についての術前の解剖学的(例えば、動脈)CTスキャンに対応したものとすることができる。いくつかの例では、CTスキャンは、対応する処置(例えば、外科的介入)の同日あるいは、数日、数週間または数ヶ月前にも取得することができる。磁気共鳴イメージング(MRI)、超音波検査、陽電子放出断層撮影(PET)などの他の医用イメージングモダリティを使用して、画像ボリュームデータ212を提供することができる。このようなスキャンは、診断を行う、手術を計画するまたは他の介入を容易にする一助となる手術ワークフローにおける術前計画の一般的な部分とすることができる。画像ボリュームデータ212には、患者の解剖学的構造に対応するボクセル(3D画像要素)を表す画像データを含むことができる。いくつかの例では、値をHUで示し、画像データのそれぞれのボクセルに紐付けてもよい。CTスキャンでは、HUは、材料によるX線減弱のデクストリーに比例する。このため、HU値を使用して、組織の密度を評価することができる。本明細書で開示するように、ボクセルに紐付けられたHU値を用いて、患者の解剖学的構造の1つ以上の着目領域の表面を検出することができる。
上述したように、メモリ204は、本明細書で開示する様々な機能を実行するためにプロセッサ202によって実行可能な命令を含む。図2の例では、命令には出力生成器214を含むことができ、出力生成器214は、画像ボリュームデータ212に基づくグラフィカルな出力としてレンダリングして出力装置208に表示することが可能な出力をインタラクティブに可視化するようにプログラムすることが可能なものである。出力生成器214には、出力装置208によって表示される出力を可視化したもので画像がどのように見えるか(例えば、大きさ、グラフィカルオーバーレイ、視野角など)を制御するための1つ以上のレンダリング方法および/または制御を含むことができる。また、メモリ204に格納された命令には、セグメンテーション方法218を含む様々な機能のみならず表示されている画像および(例えば、図7および図8に示すような)グラフィカルユーザーインタフェース(GUI)とのユーザーの対話を(例えば、ユーザー入力装置206を介して)可能にするためのユーザーインタフェース216を含むことができる。いくつかの例では、セグメンテーション方法218は、図1に示すように、着目領域モデリングエンジン106の一部を形成することができる。
セグメンテーション方法218を、例えば解剖学的構造(例えば、1つまたは血管)を分離するために画像ボリュームデータ214を分割するように、プログラムすることができる。他の例では、セグメンテーション方法218を、1つ以上の骨および/または他の解剖学的構造(例えば、臓器)を分離ために画像ボリュームデータ212を分割するように、さらにプログラムすることができる。いくつかの例では、セグメンテーション方法218は、全文を本明細書に援用する、発明の名称が「Segmentation of Anatomic Structures」である米国特許出願第16/265,732号(以下、「’732特許出願」)に記載されているようなセグメンテーション方法を含むことができる。他の例では、異なるセグメンテーション方法論を使用することができる。
一例として、解剖学的構造に対応するような画像ボリュームデータ212から組織を分離するように、セグメンテーション方法218をプログラムすることができる。セグメンテーション方法218は、本明細書で開示するように、解剖学的構造について分割された画像ボリュームデータを準備することができる。いくつかの例では、分離される解剖学的構造を、主要血管ならびにそのような血管からのびている場合がある1本以上の分枝血管などの軟質結合組織に対応したものとすることができる。一例として、血管を、患者の下行大動脈および関連する腎動脈ならびにその他の分枝血管に対応したものとすることができる。他の例では、解剖学的構造を、腸管、気道の一部、患者の消化管または様々な診断および外科的目的で監視または手術を行うことができる他の解剖学的構造(例えば、腎臓)に対応したものとすることができる。
システム200には、解剖学的構造についての分割された画像ボリュームデータに基づいて解剖学的モデルデータ222として表される解剖学的モデルを作成するようにプログラム可能な解剖学的モデル作成器220を含むことができる。いくつかの例では、解剖学的モデル作成器220を、’732特許出願に記載されているような解剖学的モデル作成器に対応したものとすることができる。解剖学的モデルデータ222には、解剖学的構造(例えば、各々の分枝血管)のジオメトリを記述することができる中心線モデルと、解剖学的構造(例えば、血管構造)の表面モデルとを含むことができる。表面モデルは、解剖学的構造の内面と外面(例えば、内側と外側の血管壁)のジオメトリを記述することができる。したがって、いくつかの例では、解剖学的モデル作成器220は、図1に示すように、着目領域モデリングエンジン106の一部を形成することができる。
解剖学的モデル作成器220は、解剖学的構造(例えば、大動脈などの血管)についての分割された画像ボリュームデータに基づいて解剖学的構造の対応する中心線を計算するようにプログラム可能なものである。一例として、中心線は、解剖学的構造の中心軸に沿って長手方向にのびるピクセルまたはボクセルの厚さとして、分割された画像ボリュームデータから抽出することができる。一例として、中心線の抽出には、本明細書に援用する、発明の名称が「Automated Centerline Extraction Method and Generation of Corresponding Analytical Expression and Use Thereof(中心線の自動抽出方法および対応する分析表現の生成ならびにその使用)」である米国特許公開第2011/0026793号に開示された手法を用いることができる。他の例では、他の方法を使用して中心線を識別し、モデリングしてもよい。
解剖学的構造の対応する表面境界については、解剖学的モデル作成器220によって計算することができる。解剖学的構造の表面には、解剖学的モデル作成器220によって計算される解剖学的構造の長さ方向の中心線との間で機能的な関係を持たせることができる。この解剖学的モデル作成器220を、中心線のジオメトリを記述する分割された画像ボリュームデータからモデルパラメータを計算することで中心線モデルを提供するようにプログラムすることができ、さらに、解剖学的構造の表面を記述する分割された血管画像ボリュームからモデルパラメータを計算することで表面モデルを提供するようにプログラムすることができる。
いくつかの例では、分割された画像ボリュームデータに基づいて解剖学的構造(またはその一部)の形状を記述するための点群表現(例えば、x,y,z)を提供するように、解剖学的モデル作成器220をプログラムすることができる。点群の各点には、対応する強度、密度(例えば、HU値)、位置および/または方向を持たせることができる。また、解剖学的構造の表面の3D画像を提供するために、マーチングキューブアルゴリズムなどのメッシュアルゴリズムに基づいて表面の点群データを変換するように、解剖学的モデル作成器220をプログラムすることができる。他の同様のメッシュアルゴリズムも同様に使用することができる。
別の例として、メモリ204が着目領域方法224を利用する。いくつかの例では、図1に例示するような着目領域モデリングエンジン106を、着目領域方法224を実施するようにプログラムすることができる。また、(例えば、1つ以上の探索基準に従った画像データの評価に基づいて)解剖学的構造の1つ以上の着目領域の表面を検出するために中心線から(例えば、半径方向に)外側に向かって探索を行うように、着目領域方法224をプログラムすることができる。いくつかの例では、着目領域が識別されるまで探索を行うように、着目領域方法224をプログラムすることができる。例えば、解剖学的構造の厚さを決定するために解剖学的構造を初期評価するように、着目領域方法224をプログラムすることができる。また、ある厚さ閾値(例えば、値または値の範囲)以上の厚さであってもよい解剖学的構造の1つ以上の部分を識別するように、着目領域方法224をプログラムすることができる。また、1つ以上の着目領域につての1つ以上の部分のより詳細な分析(例えば、細かな評価)など、さらに評価を実施するために1つ以上の部分にフラグを立てるように、着目領域方法224をプログラムすることができる。
上記に加えてまたは上記に代えて、ユーザーの経験(例えば、ユーザーの知識)をもとに1つ以上の部分に対応し得る出力装置208上の解剖学的構造についての画像の一部として表示されている特定のボクセル(またはピクセル)のフラグ(またはタグ)をユーザーが立てたことに応答してユーザー入力データ210を提供するように、ユーザー入力装置206を構成することができる。着目領域方法224については、1つ以上の着目領域を識別するために、本明細書で説明するように1つ以上の部分を評価するようにプログラムすることができる。1つ以上の着目領域は、解剖学的構造の他の周囲の領域とは物質のタイプ(例えば、密度)が異なるものであってもよい。いくつかの例では、画像ボリュームデータ212に存在するスペックルノイズを評価することによって1つ以上の着目領域を識別するように、着目領域方法224をプログラムすることができる。
別の例として、着目領域方法224は、解剖学的構造、1つ以上の着目領域およびいくつかの例では解剖学的構造を流れる血液の各々のスペックルノイズ特性を決定するようにプログラムされている。この着目領域方法224を、空間的に隣接する任意の領域間の解剖学的構造の遷移を識別するためにスペックルノイズ特性を評価するように、プログラムすることができる。例えば、遷移を識別するために画像ボリュームデータ212の各ボクセル(またはピクセル)に紐付けられたスペックルノイズ値を隣接する値との比較で評価するように、着目領域方法224をプログラムすることができる。遷移は、1つ以上の着目領域の表面(例えば、境界)に対応するものとすることができる。
いくつかの例では、機械学習技術を利用して、1つ以上の領域の表面を検出することができる。例えば、画像トレーニングデータに基づいてトレーニングされた画像分類器を用いるように、着目領域方法224をプログラムすることができる。画像分類器については、画像ボリュームデータ212の隣接するボクセル(またはピクセル)間の変化(例えば、遷移)を識別するようにプログラムすることが可能である。例示的な画像分類器(例えば、分類アルゴリズム)としては、決定木分類器、ナイーブベイズ分類器、人工ニューラルネットワーク分類器(例えば、畳み込みニューラルネットワーク)およびk近接法分類器があげられる。他の例では、異なる画像分類器を利用することができる。この画像分類器を、1つ以上の着目領域を識別するために画像ボリュームデータ212を受信して各オブジェクト(例えば、1つ以上の領域、解剖学的構造、骨、臓器など)を分類するようにプログラムすることができる。いくつかの例では、画像ボリュームデータ212の各ボクセル(例えば、ピクセル)にタグを付け(例えば、分類器コードによって分類)、それぞれのクラスにグループ化する(例えば、変換コードによって変換)ように、着目領域手段224をプログラムすることができる。例えば、所与のクラスには、1つ以上の着目領域(例えば、プラーク)の表面に対応する(例えば、定義する)画像ボリュームデータ212からのボクセル(またはピクセル)を含むことができる。タグ付けされたボクセル(またはピクセル)の各クラスは、画像ボリュームデータ212の対応するオブジェクトの特徴を示すことができる。また、1つ以上の着目領域の表面に対応する1つ以上の領域への解剖学的構造の遷移を識別ために各クラスのボクセル(またはピクセル)同士を比較して評価するように、着目領域方法224をプログラムすることができる。
いくつかの例では、解剖学的構造についての分割された画像ボリュームデータを表すボクセルに紐付けられたHU値に基づいて1つ以上の着目領域の表面を検出するように、着目領域方法224をプログラムすることができる。いくつかの例では、解剖学的構造の1つ以上の着目領域を、HUが解剖学的構造の1つ以上の正常部分(例えば、健康な組織領域)で想定されるものとは異なる特定のHU(またはHU範囲)を持つ場合がある解剖学的構造の異常部分(例えば、異常な組織領域)に対応したものとすることができる。このため、いくつかの例では、1つ以上の着目領域を、石灰化領域、鉱化領域、プラーク領域またはステント領域に対応したものとすることができる。異常部分は、解剖学的構造の周囲の領域とは密度が異なる可能性がある。そのようなものとして、解剖学的構造の異常な部分についての分割された画像ボリュームデータを表すボクセルは、解剖学的構造の1つ以上の正常な部分で想定されるものとはHU値が異なる場合がある。
また、1つ以上の着目領域を表すボクセル(またはピクセル)を識別する(例えば、解剖学的構造の1つ以上の異常部分を識別する)ために各々のHU値aをHU閾値と比較するように、着目領域方法224をプログラムすることができる。HU閾値については、HU閾値の値(例えば、130の値)またはHU閾値の範囲(例えば、130~400の範囲)のいずれかに対応するものとすることができる。いくつかの例では、HU閾値を、ユーザー入力装置206で提供されるユーザー入力データ210に基づいて、ユーザーが定義可能なものとすることができる。一例では、(例えば、イメージング前の)患者に投与された造影剤と混合された血液に紐付けられた所与のHU値に基づいて、HU閾値を設定することができる。いくつかの例では、複数のHU閾値範囲を、異なる物質の複数の密度と紐付けることができる。また、複数のHU閾値範囲に基づいて解剖学的構造の1つ以上の領域の表面を検出するように、着目領域方法224をプログラムすることができる。一例として、ステント材料の密度に基づいて、解剖学的構造(例えば、大動脈)内に留置されたステントを識別するように、着目領域方法224をプログラムすることができる。
別の例では、複数のHU閾値に対する解剖学的構造についての分割された画像ボリュームデータを表すボクセルに紐付けられたHU値を評価するように、着目領域方法224をプログラムすることができる。また、分割された画像ボリュームデータでステントを表す評価に基づいてボクセルを識別するように、着目領域方法224をプログラムすることができる。このため、密度の異なる材料に紐付けられている1つ以上のHU閾値に基づいて解剖学的構造の1つ以上の着目領域の表面を検出するように、着目領域方法224をプログラムすることができる。評価から決定し得るHU値および/または他の密度パラメータを、メモリ204に(例えば、密度メタデータとして)格納することができる。このHUおよび/または密度パラメータを、評価の粒度に応じてなど、個々のボクセルまたは一組のボクセルに割り当てることができる。
別の例として、1つ以上の識別された着目領域を解剖学的構造から分離するように、着目領域方法224をプログラムすることができる。例えば、解剖学的構造についての分割された画像ボリュームデータから1つ以上の分離された着目領域の画像ボリュームを表すボクセルを抽出するように、着目領域方法224をプログラムすることができ、この抽出されたボクセルをメモリ104に格納し、その評価に基づいて着目領域に対応するものとしてタグ付けすることができる。
メモリ204には、着目領域モデル作成器226を含むことができる。いくつかの例では、着目領域モデル作成器226は、図1に示すように、着目領域モデリングエンジン106の一部を形成することができる。着目領域モデル作成器226については、1つ以上の分離された着目領域の画像ボリュームを表す除去されたボクセルに基づいて着目領域モデル228を作成するように、プログラムすることができる。いくつかの例では、ユーザーインタフェース216を介したユーザー入力に応答して1つ以上の分離された着目領域または1つ以上の分離された着目領域の一部を重ねられるようにするために、着目領域モデル228を作成するように着目領域モデル作成器226をプログラムすることができる。
1つ以上の着目領域が、(例えば、ユーザー入力装置206を介して)出力の可視化から選択的に追加または削除してもよい別の参照フレームを提供することになっている例では、着目領域方法224によって提供される1つ以上の分離された着目領域に対応する点(例えば、ピクセルまたはボクセル)の3Dモデルとして着目領域モデル228を作成するように、着目領域モデル作成器226をプログラムすることができる。例えば、1つ以上の分離された領域を表すボクセルに対応するボクセルデータセット(例えば、着目領域方法224の出力)を取り、かつマーチングキューブアルゴリズムを適用してポリゴン(例えば、三角形)のメッシュを生成することによって着目領域モデル228を作成するように、着目領域モデル作成器226をプログラムすることができる。この着目領域モデル228をメモリ204に格納することができる。
いくつかの例では、解剖学的構造と、それに応じて1つ以上の分離された領域の点群表現を提供し、解剖学的構造を表す点の集合に紐付けられたHU値に基づいて1つ以上の着目領域と解剖学的構造の他の領域との間の遷移(例えば、境界)を識別するように、着目領域モデル作成器226をプログラムすることができる。このため、いくつかの例では、物質のタイプに基づいて1つ以上の着目領域と解剖学的構造の他の領域との間の遷移を識別するように、着目領域モデル作成器226をプログラムすることができる。点群は、密度に基づいて、異なる材料タイプ間の境界を識別することができる。いくつかの例では、血液(造影剤を含む)のHU値(または範囲)が軟性プラークなどの1つ以上の領域と重なり、1つ以上の着目領域を表すボクセル(またはピクセル)を識別するのが困難になり得る場合がある。本開示では、別のモダリティからの第2の画像データのセットを利用して、血液または他の物質と密度が重なるボクセルを識別し、1つ以上の着目領域の識別をしやすくすることができる。画像ボリュームデータ212には、イメージングモダリティによって(例えば、CTスキャンで)所与の患者について術前に取得された、第1の組の1つ以上の3D医用画像ボリュームと、第2の組の1つ以上の3D医用画像ボリュームと、を含むことができる。第1の組の3D医用画像ボリュームについては、患者が造影剤を投与される前に、その患者について術前に取得することができる。造影剤は、血液と混ざってイメージングモダリティでの着目領域内の血液の検出しやすさを増すことができる。
第2の組の1つ以上の3D医用画像ボリュームについては、患者が造影剤を投与された後、術前に取得することができる。
本明細書に記載する機能に従って、第1の組の1つ以上の3D医用画像ボリュームと、第2の組の1つ以上の3D医用画像ボリュームとを分割し、それぞれの医用画像ボリュームの組の各々で解剖学的構造を分離するように、セグメンテーション方法218をプログラムすることができる。また、解剖学的構造についての第1の分割された画像ボリュームデータと、解剖学的構造についての第2の分割された画像ボリュームデータとを提供するように、セグメンテーション手段218をプログラムすることができる。着目領域手段224については、解剖学的構造内の造影剤、ひいては血液を検出するために、解剖学的構造についての各々の分割された画像ボリュームデータを評価するようにプログラムすることができる。解剖学的構造内の造影剤についての第2のセグメント画像の画像ボリュームを表すボクセルを分離(または識別)するために、第2の分割された画像ボリュームデータから第1の分割された画像ボリュームデータを減算するように、着目領域方法224をプログラムすることができる。いくつかの例では、第1および第2の分割された画像ボリュームデータ間の画像ボリュームの差異を識別する(例えば、解剖学的構造内の造影剤についての第2のセグメント画像データの画像ボリュームを表すボクセルを識別する)ために、解剖学的構造についての第1の分割された画像ボリュームデータと第2の分割された画像ボリュームデータとを比較するように、着目領域方法224をプログラムすることができる。
解剖学的構造の1つ以上の着目領域を識別するために、第1の分割された画像ボリュームデータに基づいて解剖学的構造についてコンピュータ処理で決定された中心線から例えば半径方向外側に探索を行うように、着目領域方法224をプログラムすることができる。また、解剖学的構造についての第1の分割された画像ボリュームデータを表すボクセルに紐付けられたHU値に基づいて、さらに造影剤に典型的な解剖学的構造についての第2のセグメント画像の分離された画像ボリュームに基づいて、解剖学的構造の1つ以上の識別された着目領域の表面を検出するように、着目領域方法224をプログラムすることができる。また、造影剤に典型的な解剖学的構造についての第2のセグメント画像の分離された画像ボリュームに基づいて、血液に典型的な解剖学的構造についての第1のセグメント画像の画像ボリュームを除去するように、着目領域方法224をプログラムすることができる。また、造影剤に対する画像ボリュームを表すボクセルが実質的に存在しない可能性がある解剖学的構造についてのフィルタリングされた第1のセグメント画像を提供するように、着目領域方法224をプログラムすることができる。
また、HU閾値に対する、解剖学的構造についてのフィルタリングされた分割された画像ボリュームデータを表すボクセルに紐付けられたHU値を評価することによって、解剖学的構造の1つ以上の着目領域の表面を検出するように、着目領域方法224をプログラムすることができる。着目領域モデル作成器226については、1つ以上の識別された領域に基づいて着目領域モデル228を作成するように、プログラムすることができる。いくつかの例では、解剖学的構造についてのフィルタリングされた分割された画像ボリュームデータに基づいて解剖学的モデルを作成するように、解剖学的モデル作成器220をプログラムすることができる。いくつかの例では、着目領域モデル228を使用して対応する処置(例えば、外科的処置)の計画を立てる一助とするのみならず、例えば、術中に患者に対して物体を位置決めしたり誘導したりしやすくするためにトラッキングシステムを使用しながら、対応する処置のあいだに、着目領域モデル228を解剖学的モデルと相対的に表示することができる。いくつかの例では、トラッキングシステムを、本明細書に援用する上述の’300特許出願に記載されているようなトラッキングシステムに対応したものとすることができる。他の例では、異なるトラッキングシステムを使用することができる。
着目領域モデル228を解剖学的モデルに空間的にレジストレーションするとともに対応する処置の際に使用して、1つ以上の着目領域(例えば、石灰化領域など)のリアルタイムの認識を臨床医に提供することで臨床医(例えば、医師)が解剖学的構造を可視化して誘導するのを支援することができる。着目領域モデル228のレジストレーションは、解剖学的モデルが同一の画像データ(例えば、CT画像データ)から得られる例では、容易に行うことができる。カラーコーディング、シェーディングまたは他の指標を利用して、着目領域モデルと解剖学的モデルとを区別するとともに、着目領域モデルにおける組織のプラークのタイプまたは他の特性を示すことができる。さらに、ユーザー入力装置206でのユーザー入力に応答して、解剖学的モデル(または他の基礎となる画像)に対して着目領域モデル228に基づくグラフィカルレンダリングを追加または削除することができる。例えば、着目領域が、血管壁内または血管壁上の石灰化組織に対応する場合、トグル(例えば、オンおよび/またはオフ)するようにユーザー入力を提供することで、出力装置208によって提供されるディスプレイで石灰化組織を選択的にレンダリングまたはレンダリングしないように出力生成器214を制御することができる。
いくつかの例では、着目領域に対する着目領域モデル228を解剖学的構造のモデルと組み合わせ、出力の可視化を提供することができる。例えば、出力生成器は、石灰化モデル(例えば、着目領域モデル228)を解剖学的構造のモデリングデータと組み合わせて利用して、ディスプレイ上にグラフィカルな出力をレンダリングするための集約的な出力可視化データを提供するように構成されている。いくつかの例では、出力生成器を、’300特許出願に記載されているような出力生成器302に対応するものとすることができる。これらの例では、石灰化モデルをモデルデータ308および309と組み合わせて利用して、ディスプレイ上でレンダリングするための対応する出力可視化データ304を提供するように、出力生成器302を構成することができる。
上述した構造的な特徴と機能的な特徴を念頭におくと、図3を参照して、例示的な方法を一層よく理解することができる。説明を簡単にするために、図3の例示的な方法については連続的に実行するものとして図示し、説明するが、他の例では、いくつかの動作が、本明細書で図示し、説明したものとは異なる順序で、複数回および/または同時になされる可能性があるため、本例は図示の順序に限定されるものではないことを理解し、認識されたい。
図3は、着目領域モデル(例えば、図1に示すような着目領域モデル110または着目領域モデル228)を作成するための方法300の一例を示す。いくつかの例では、方法300を、モデリングエンジン(例えば、図1に示すような着目領域モデリングエンジン106)またはコンピュータシステム(例えば、図2に示すようなコンピュータシステム200)によって実装することができる。
本方法は、302において、(例えば、着目領域モデリングエンジン106または着目領域方法224で)少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを受信することによって開始することができる。分割された画像ボリュームデータには、少なくとも1つの解剖学的構造を含む3D画像ボリュームを含むことができる。304において、本方法は、少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、その少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって(例えば、着目領域モデリングエンジン106または着目領域方法224によって)探索を行うことを含む。1つ以上の着目領域の表面は、コンピュータ処理で決定された中心線から半径方向に位置する少なくとも1つの解剖学的構造についての3D画像ボリュームを表すボクセルに紐付けられた値(例えば、HU値)を、値の閾値と比較して評価することによって検出することができる。いくつかの例では、1つ以上の着目領域を、少なくともカルシウムが沈着して硬化した1つ以上の領域に対応したものとすることができる。306では、探索に応答して、少なくとも1つの解剖学的構造の1つ以上の着目領域が分離される。例えば、少なくとも1つの解剖学的構造の1つ以上の着目領域を分離するように、着目領域モデリングエンジン106または着目領域方法224を構成することができる。308では、1つ以上の分離された着目領域に基づいて、着目領域モデル(例えば、着目領域モデル110または着目領域モデル228)が作成される。この着目領域モデルの作成は、着目領域モデリングエンジン106または着目領域方法224によって行うことができる。
図4は、骨402、解剖学的構造(例えば、血管)404および石灰化406を含むセグメント画像400の例を示す。セグメント画像400は、コンピュータシステム(例えば、図2に示すようなコンピュータシステム200)によって提供することができるものである。例えば、分割された血管404(例えば、図2に示すようなセグメンテーション方法218によって作成されたもの)および分割された骨402(例えば、図2に示すようなセグメンテーション方法218によって作成されたもの)についての別々の画像ボリュームから、セグメント画像400をレンダリングすることができる。
図5は、血管502などの解剖学的構造のグラフィカル表現500の一例を示す。グラフィカル表現500は、コンピュータシステム(例えば、図2に示すようなコンピュータシステム200)によって提供し、ディスプレイ(例えば、図2に示すような出力装置208)上にレンダリングすることができるものである。例として、図5に示すように、血管502は大動脈である。血管502のグラフィカル表現500は、分離された血管についてのセグメンテーションボリューム(例えば、図2に示すような分割手段218によって作成されたもの)からレンダリングすることが可能なものである。
図6は、石灰化モデル(例えば、血管モデル502)のグラフィカル表現600の一例を示す。グラフィカル表現600は、コンピュータシステム(例えば、図2に示すようなコンピュータシステム200)によって提供し、ディスプレイ(例えば、図2に示されているような出力装置208)上にレンダリングすることができるものである。いくつかの例では、石灰化モデルが、図2に示すような着目領域モデル228に対応することができる。例えば、石灰化モデルのグラフィカル表現600は、1つ以上の分離された領域についてのセグメンテーションボリューム(例えば、図2に示すような着目領域方法224によって作成されたもの)からレンダリングすることが可能なものである。
図7は、解剖学的モデルを重ねた石灰化モデルを示すグラフィカルユーザーインタフェース700の一例を示す。グラフィカルユーザーインタフェース700は、図2に示すようなコンピューティングシステム200などのコンピュータシステムによって生成することが可能なものである。グラフィカルユーザーインタフェース700に関する石灰化モデルの可視化については、本明細書で説明したように、入力装置(例えば、図2に示すようなユーザー入力装置206)で受信されるものなどのユーザー入力に応答して、選択的にオン/オフを切り替えることができる。
図8は、解剖学的モデルを重ねた石灰化モデルを示す別のグラフィカルユーザーインタフェース800の一例を示す。グラフィカルユーザーインタフェース800は、図2に示すようなコンピューティングシステム200などのコンピュータシステムによって生成することが可能なものである。グラフィカルユーザーインタフェース800に関する石灰化モデルの可視化については、入力装置(例えば、図2に示すようなユーザー入力装置206)で受信されるものなどのユーザー入力に応答して、選択的にオン/オフを切り替えることができる。
上述した構造的および機能的な説明を考慮すると、本明細書で開示するシステムおよび方法の一部を、方法、データ処理システムまたは非一過性のコンピュータ読み取り可能な媒体などのコンピュータプログラム製品として実現してもよいことを、当業者であれば理解するであろう。したがって、本明細書に開示する手法のこれらの部分は、完全にハードウェアの実施形態、(例えば、1つ以上の非一過性の機械読み取り可能な媒体において)完全にソフトウェアの実施形態またはソフトウェアとハードウェアを組み合わせた実施形態の形をとることができる。さらに、本明細書で開示するシステムおよび方法の一部は、コンピュータ読み取り可能なプログラムコードを有するコンピュータで利用できる記憶媒体に格納されたコンピュータプログラム製品であってもよい。静的記憶装置および動的記憶装置、ハードディスク、光学記憶装置および磁気記憶装置を含むがこれらに限定されるものではない、任意の適切なコンピュータ読み取り可能な媒体を用いることができる。
以上、いくつかの実施形態について、方法、システムおよびコンピュータプログラム製品のブロック図を参照して、本明細書で説明してきた。図示のブロックおよび図示のブロックの組み合わせを、コンピュータで実行可能な命令によって実施できることが、理解されるであろう。これらのコンピュータで実行可能な命令を、汎用コンピュータ、専用コンピュータまたは他のプログラム可能なデータ処理装置(または装置と回路の組み合わせ)の1つ以上のプロセッサに提供し、このプロセッサを介して実行される命令が1つ以上のブロックで指定された機能を実現するようなマシンを作ることができる。
これらのコンピュータで実行可能な命令を、コンピュータまたは他のプログラム可能なデータ処理装置に特定の方法で機能するように指示することができるコンピュータ読み取り可能なメモリに格納し、コンピュータ読み取り可能なメモリに格納された命令が、1つ以上のフローチャートブロックで指定された機能を実現する命令を含む製品となるようにすることもできる。また、コンピュータプログラム命令を、コンピュータまたは他のプログラム可能なデータ処理装置にロードし、コンピュータまたは他のプログラム可能な装置上で一連の動作ステップを実行させ、コンピュータ実装プロセスを生成して、コンピュータまたは他のプログラム可能な装置で実行される命令が、1つ以上のフローチャートブロックで指定された機能を実現するためのステップを提供するようにすることができる。
以上説明したものは例である。もちろん、さらに組み合わせや並べ替えが可能であるため、考えられるすべての構成要素または方法論の組み合わせを説明するのは不可能である。したがって、本発明は、添付の特許請求の範囲を含めて、本願の範囲内に包含されるそのような変更、改変および変形をすべて包含することを意図している。さらに、本開示または特許請求の範囲に「a(1つの)」、「an(1つの)」、「a first(第1の)」、「another(別の)」要素またはそれらの等価物が記載されている場合、2以上のそのような要素を要求することも除外することもなく、1以上のそのような要素を含むと解釈されるべきである。本明細書で使用する場合、「含む(includes)」という表現は、含むがこれに限定されるものではないことを意味する。「基づく」という表現は、少なくとも部分的に基づくことを意味する。

Claims (29)

  1. データと命令とを格納するように構成された、非一過性のコンピュータ読み取り可能な媒体と、
    前記非一過性のコンピュータ読み取り可能な媒体にアクセスし、かつ、前記命令を実行するように構成されたプロセッサと、を備えるシステムであって、
    前記命令は、
    少なくとも1つの解剖学的構造を含む3次元(3D)画像ボリュームを含む、前記少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを受信し、
    前記少なくとも1つの解剖学的構造を含む前記3D画像ボリュームを表すボクセルに紐付けられた値を閾値と比較して評価することによって前記少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、前記少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行い、
    前記1つ以上の識別された着目領域に基づいて着目領域モデルを作成する
    ようにプログラムされた着目領域方法のコードを含む、システム。
  2. 前記着目領域方法のコードは、着目領域モデルを作成するために、前記少なくとも1つの解剖学的構造の前記1つ以上の識別された着目領域のボクセルデータセットにマーチングキューブアルゴリズムを適用するようにさらにプログラムされている、請求項1に記載のシステム。
  3. 前記命令は、所与の患者の患者領域の第1の組の1つ以上の3D画像ボリュームと、前記患者領域の第2の組の1つ以上の3D画像ボリュームと、を含む画像ボリュームデータを受信するようにプログラムされたセグメンテーション方法のコードをさらに含む、請求項1に記載のシステム。
  4. 前記セグメンテーション方法のコードは、前記1つ以上の3D画像ボリュームの各組における少なくとも1つの解剖学的構造を分離するために、前記第1の組の1つ以上の3D画像ボリュームと前記第2の組の1つ以上の3D画像ボリュームとを分割するようにさらにプログラムされている、請求項3に記載のシステム。
  5. 分離することは、前記第1の組の前記1つ以上の3次元画像ボリュームから、少なくとも1つの解剖学的構造についての第1の組の分割された画像ボリュームデータを準備することと、前記第2の組の前記1つ以上の3次元画像ボリュームから、少なくとも1つの解剖学的構造についての第2の組の分割された画像ボリュームデータを準備することと、を含み、
    前記少なくとも1つの解剖学的構造についての前記第1の組の分割された画像ボリュームデータは、前記分割された画像ボリュームデータに対応している、請求項4に記載のシステム。
  6. 前記着目領域方法のコードは、前記第2の組の分割された画像ボリュームデータにおける3D画像ボリュームを識別するために、前記第1の組の分割された画像ボリュームデータと、前記第2の組の分割された画像ボリュームデータとを評価するようにさらにプログラムされている、請求項5に記載のシステム。
  7. 前記着目領域方法のコードは、前記1つ以上の着目領域の前記表面を検出するための探索時に、前記第2の組の分割された画像ボリュームデータにおける前記識別された3D画像ボリュームに基づいて前記少なくとも1つの解剖学的構造についての前記第1の組の分割された画像ボリュームデータにおける3D画像ボリュームを除外するように、さらにプログラムされている、請求項6に記載のシステム。
  8. 前記着目領域方法のコードは、フィルタリングされた分割された画像ボリュームデータを提供するために、前記第2の組の分割された画像ボリュームデータにおける前記識別された3D画像ボリュームに基づいて前記少なくとも1つの解剖学的構造についての前記第1の組の分割された画像ボリュームデータにおける3D画像ボリュームを除外するように、さらにプログラムされている、請求項6に記載のシステム。
  9. 前記評価することは、前記フィルタリングされた分割された画像ボリュームデータの3次元画像ボリュームを表すボクセルに紐付けられた値を前記閾値と比較して評価することを含む、請求項8に記載のシステム。
  10. 前記患者領域の前記第1の組の前記1つ以上の3D画像ボリュームは、前記患者が造影剤を投与される前に取得されたものであり、前記患者領域の前記第2の組の前記1つ以上の3D画像ボリュームは、前記患者が前記造影剤を投与された後で取得されたものである、請求項9に記載のシステム。
  11. 前記第2の組の分割された画像ボリュームデータで識別された前記3次元画像ボリュームは、前記造影剤に典型的なものである、請求項10に記載のシステム。
  12. 前記着目領域モデルが石灰化モデルに対応している、請求項11に記載のシステム。
  13. 前記命令は、前記分割された画像ボリュームデータに基づいて、前記少なくとも1つの解剖学的構造のジオメトリについてのモデルデータを生成するようにプログラムされた解剖学的モデル作成器をさらに含む、請求項1に記載のシステム。
  14. 前記命令は、前記着目領域モデルおよび前記解剖学的モデルをディスプレイ上にレンダリングするようにプログラムされた出力生成器をさらに含む、請求項13に記載のシステム。
  15. 少なくとも1つの解剖学的構造を含む3次元(3D)画像ボリュームを含む、前記少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを受信する工程と、
    前記少なくとも1つの解剖学的構造を含む前記3D画像ボリュームを表すボクセルに紐付けられた値を閾値と比較して評価することによって前記少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、前記少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行う工程と、
    前記探索に応答して、前記少なくとも1つの解剖学的構造の前記1つ以上の着目領域を分離する工程と、
    前記1つ以上の分離された着目領域に基づいて、着目領域モデルを作成する工程と、
    を含む、コンピュータに実装される方法。
  16. 前記値は、ハウンズフィールドユニット(HU)値に対応する、請求項15に記載のコンピュータに実装される方法。
  17. 前記評価することは、前記解剖学的構造の前記1つ以上の着目領域についての前記3次元画像ボリュームを表すボクセルを識別するために、前記少なくとも1つの解剖学的構造についての各ボクセルに紐付けられた各HU値を、前記閾値に対応するHU閾値と比較することを含む、請求項16に記載のコンピュータに実装される方法。
  18. 前記分離することは、前記少なくとも1つの解剖学的構造についての前記分割された画像ボリュームデータから、前記識別された1つ以上の着目領域の3D画像ボリュームを除外することを含み、前記着目領域モデルは、前記除外された3D画像ボリュームに基づいて作成される、請求項17に記載のコンピュータに実装される方法。
  19. 前記作成することは、前記少なくとも1つの解剖学的構造の前記分離された1つ以上の着目領域のボクセルデータセットにマーチングキューブアルゴリズムを適用して着目領域モデルを作成することを含む、請求項15に記載のコンピュータに実装される方法。
  20. 少なくとも1つの解剖学的構造についての分割された画像ボリュームデータを含むデータと、命令と、を格納するように構成された、非一過性のコンピュータ読み取り可能な媒体と、
    前記非一過性のコンピュータ読み取り可能な媒体にアクセスし、かつ、前記命令を実行するように構成されたプロセッサと、を備え、
    前記分割された画像ボリュームデータは、前記少なくとも1つの解剖学的構造を含む3次元(3D)画像ボリュームを含み、
    前記命令は、着目領域モデリングエンジンを含み、
    前記着目領域モデリングエンジンは、
    前記少なくとも1つの解剖学的構造を含む前記3D画像ボリュームを表すボクセルに紐付けられたハウンズフィールドユニット(HU)の値を閾値と比較して評価することによって前記少なくとも1つの解剖学的構造の1つ以上の着目領域の表面を検出するために、前記少なくとも1つの解剖学的構造についてコンピュータ処理で決定された中心線から外側に向かって探索を行い、
    前記探索に応答して、前記識別された1つ以上の着目領域についての3D画像ボリュームを前記少なくとも1つの解剖学的構造についての分割された画像ボリュームデータから除外することにより、前記少なくとも1つの解剖学的構造の前記1つ以上の着目領域を分離し、
    前記少なくとも1つの解剖学的構造の前記分離された1つ以上の着目領域のボクセルデータセットにマーチングキューブアルゴリズムを適用することにより、着目領域モデルを作成する
    ようにプログラムされている、システム。
  21. 前記命令は、所与の患者の患者領域の第1の組の1つ以上の3D画像ボリュームと、前記患者領域の第2の組の1つ以上の3D画像ボリュームと、を含む画像ボリュームデータを受信し、
    前記1つ以上の3D画像ボリュームの各組における少なくとも1つの解剖学的構造を分離するために、前記第1の組の1つ以上の3D画像ボリュームと前記第2の組の1つ以上の3D画像ボリュームとを分割する
    ようにプログラムされたセグメンテーション方法のコードをさらに含む、請求項20に記載のシステム。
  22. 前記セグメンテーションコードは、前記第1の組の前記1つ以上の3次元画像ボリュームから、少なくとも1つの解剖学的構造についての第1の組の分割された画像ボリュームデータを準備し、前記第2の組の前記1つ以上の3次元画像ボリュームから、少なくとも1つの解剖学的構造についての第2の組の分割された画像ボリュームデータを準備するようにさらにプログラムされ、
    前記少なくとも1つの解剖学的構造についての前記第1の組の分割された画像ボリュームデータは、前記分割された画像ボリュームデータに対応している、請求項21に記載のシステム。
  23. 前記着目領域モデリングエンジンは、
    前記第2の組の分割された画像ボリュームデータにおける3D画像ボリュームを識別するために、前記第1の組の分割された画像ボリュームデータと、前記第2の組の分割された画像ボリュームデータとを評価し、
    前記1つ以上の着目領域の表面を検出するための探索時に、フィルタリングされた分割された画像ボリュームデータを提供するために、前記第2の組の分割された画像ボリュームデータにおける前記識別された3D画像ボリュームに基づいて前記少なくとも1つの解剖学的構造についての前記第1の組の分割された画像ボリュームデータにおける3D画像ボリュームを除外する
    ようにさらにプログラムされている、請求項22に記載のシステム。
  24. 前記評価することは、前記フィルタリングされた分割された画像ボリュームデータの3次元画像ボリュームを表すボクセルに紐付けられたHU値を前記閾値と比較して評価することを含む、請求項23に記載のシステム。
  25. 前記患者領域の前記第1の組の前記1つ以上の3D画像ボリュームは、前記患者が造影剤を投与される前に取得されたものであり、前記患者領域の前記第2の組の前記1つ以上の3D画像ボリュームは、前記患者が前記造影剤を投与された後で取得されたものである、請求項21、22、23または24に記載のシステム。
  26. 前記第2の組の分割された画像ボリュームデータで識別された前記3次元画像ボリュームは、前記造影剤に典型的なものである、請求項25に記載のシステム。
  27. 前記着目領域モデルが石灰化モデルに対応している、請求項20、21、22、23、24、25、26のいずれか1項に記載のシステム。
  28. 前記命令は、前記分割された画像ボリュームデータに基づいて、前記少なくとも1つの解剖学的構造のジオメトリについてのモデルデータを生成するようにプログラムされた解剖学的モデル作成器をさらに含む、請求項20、21、22、23、24、25、26または27に記載のシステム。
  29. 前記命令は、前記着目領域モデルおよび前記解剖学的モデルをディスプレイ上にレンダリングするようにプログラムされた出力生成器をさらに含む、請求項28に記載のシステム。
JP2023106467A 2019-04-04 2023-06-28 解剖学的構造の着目領域をモデリングすること Pending JP2023138979A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024023873A JP2024063055A (ja) 2019-04-04 2024-02-20 解剖学的構造の着目領域をモデリングすること

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962829378P 2019-04-04 2019-04-04
US62/829,378 2019-04-04
PCT/US2020/026699 WO2020206338A1 (en) 2019-04-04 2020-04-03 Modeling regions of interest of an anatomic structure
JP2021559264A JP2022526418A (ja) 2019-04-04 2020-04-03 解剖学的構造の着目領域をモデリングすること

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021559264A Division JP2022526418A (ja) 2019-04-04 2020-04-03 解剖学的構造の着目領域をモデリングすること

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024023873A Division JP2024063055A (ja) 2019-04-04 2024-02-20 解剖学的構造の着目領域をモデリングすること

Publications (1)

Publication Number Publication Date
JP2023138979A true JP2023138979A (ja) 2023-10-03

Family

ID=72662390

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021559264A Pending JP2022526418A (ja) 2019-04-04 2020-04-03 解剖学的構造の着目領域をモデリングすること
JP2023106467A Pending JP2023138979A (ja) 2019-04-04 2023-06-28 解剖学的構造の着目領域をモデリングすること
JP2024023873A Pending JP2024063055A (ja) 2019-04-04 2024-02-20 解剖学的構造の着目領域をモデリングすること

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021559264A Pending JP2022526418A (ja) 2019-04-04 2020-04-03 解剖学的構造の着目領域をモデリングすること

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024023873A Pending JP2024063055A (ja) 2019-04-04 2024-02-20 解剖学的構造の着目領域をモデリングすること

Country Status (6)

Country Link
US (1) US11380043B2 (ja)
EP (1) EP3946061A4 (ja)
JP (3) JP2022526418A (ja)
CN (1) CN113573640A (ja)
CA (1) CA3131069A1 (ja)
WO (1) WO2020206338A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10813612B2 (en) 2019-01-25 2020-10-27 Cleerly, Inc. Systems and method of characterizing high risk plaques
US10867436B2 (en) * 2019-04-18 2020-12-15 Zebra Medical Vision Ltd. Systems and methods for reconstruction of 3D anatomical images from 2D anatomical images
US11969280B2 (en) 2020-01-07 2024-04-30 Cleerly, Inc. Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
WO2021141921A1 (en) 2020-01-07 2021-07-15 Cleerly, Inc. Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
US20220392065A1 (en) 2020-01-07 2022-12-08 Cleerly, Inc. Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
US20230162349A1 (en) * 2021-11-23 2023-05-25 Perkinelmer Health Sciences, Inc. Three-Dimensional Luminescence Imaging
US12033740B2 (en) * 2021-12-04 2024-07-09 Vasileios K. Papaioannou Systems and methods for robust and automatic face de-identification for CT and MRI
US20230289963A1 (en) 2022-03-10 2023-09-14 Cleerly, Inc. Systems, devices, and methods for non-invasive image-based plaque analysis and risk determination

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825908A (en) 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
US6047080A (en) 1996-06-19 2000-04-04 Arch Development Corporation Method and apparatus for three-dimensional reconstruction of coronary vessels from angiographic images
EP1337970A4 (en) 2000-10-02 2006-09-20 Univ New York State Res Found CALCULATION OF AXIAL LINE AND SKELETAL RAMIFICATIONS FOR VIRTUAL OBJECTS
WO2003021532A2 (en) 2001-09-06 2003-03-13 Koninklijke Philips Electronics N.V. Method and apparatus for segmentation of an object
US6728566B1 (en) 2001-11-21 2004-04-27 Koninklijke Philips Electronics, N.V. Vessel tracking and tree extraction method and apparatus
US6782284B1 (en) 2001-11-21 2004-08-24 Koninklijke Philips Electronics, N.V. Method and apparatus for semi-automatic aneurysm measurement and stent planning using volume image data
WO2004110271A1 (en) 2003-06-16 2004-12-23 Philips Intellectual Property & Standards Gmbh Imaging system for interventional radiology
WO2005031635A1 (en) 2003-09-25 2005-04-07 Paieon, Inc. System and method for three-dimensional reconstruction of a tubular organ
US20050152588A1 (en) 2003-10-28 2005-07-14 University Of Chicago Method for virtual endoscopic visualization of the colon by shape-scale signatures, centerlining, and computerized detection of masses
US7197170B2 (en) 2003-11-10 2007-03-27 M2S, Inc. Anatomical visualization and measurement system
US20070274579A1 (en) * 2003-11-26 2007-11-29 Viatronix Incorporated System And Method For Optimization Of Vessel Centerlines
WO2005069228A1 (en) 2004-01-15 2005-07-28 Algotec Systems Ltd. Targeted marching
EP1766550A2 (en) * 2004-06-01 2007-03-28 Spectrum Dynamics LLC Methods of view selection for radioactive emission measurements
US20060036167A1 (en) 2004-07-03 2006-02-16 Shina Systems Ltd. Vascular image processing
CN101036163A (zh) 2004-11-26 2007-09-12 布拉科成像S.P.A.公司 一种把知识结构映射到器官的方法:利用知识结构映射的自动测量和可视化
EP1906858B1 (en) 2005-07-01 2016-11-16 Hansen Medical, Inc. Robotic catheter system
EP1931237A2 (en) 2005-09-14 2008-06-18 Neoguide Systems, Inc. Methods and apparatus for performing transluminal and other procedures
US7860290B2 (en) * 2006-04-21 2010-12-28 Siemens Medical Solutions Usa, Inc. Three-dimensional (3D) modeling of coronary arteries
ATE544132T1 (de) * 2007-05-30 2012-02-15 Cleveland Clinic Foundation Automatisiertes mittellinien-extraktionsverfahren und erzeugung eines entsprechenden analytischen ausdrucks und verwendung hierfür
US8126232B2 (en) 2008-03-05 2012-02-28 Siemens Aktiengesellschaft System and method for 3D vessel segmentation with minimal cuts
DE102009006636B4 (de) * 2008-12-30 2016-02-18 Siemens Aktiengesellschaft Verfahren zur Ermittlung einer 2D-Kontur einer in 3D-Bilddaten abgebildeten Gefäßstruktur
US9424680B2 (en) * 2010-04-16 2016-08-23 Koninklijke Philips N.V. Image data reformatting
JP2012217780A (ja) * 2011-04-14 2012-11-12 Tomtec Imaging Systems Gmbh 医用画像データをセグメント化するための方法及び装置
CN104769641B (zh) * 2012-10-31 2018-01-26 皇家飞利浦有限公司 灌注成像
US9430827B2 (en) * 2013-05-31 2016-08-30 Siemens Aktiengesellschaft Segmentation of a calcified blood vessel
WO2016172691A1 (en) * 2015-04-24 2016-10-27 Massachusetts Insitute Of Technology Mri characterization of placental oxygen transport
US10134144B2 (en) * 2015-09-15 2018-11-20 Wisconsin Alumni Research Foundation System and method for determining dynamic physiological information from four-dimensional angiographic data
CN105741251B (zh) * 2016-03-17 2018-09-21 中南大学 一种肝脏cta序列图像的血管分割方法
CN106127819B (zh) * 2016-06-30 2019-10-08 上海联影医疗科技有限公司 医学图像中提取血管中心线的方法及其装置
CN108074270B (zh) * 2016-11-11 2021-11-30 上海东软医疗科技有限公司 一种pet衰减校正方法和装置
US10438406B2 (en) * 2016-12-16 2019-10-08 University Of Manitoba Medial axis extraction for complex 3D objects

Also Published As

Publication number Publication date
EP3946061A4 (en) 2022-12-14
WO2020206338A1 (en) 2020-10-08
US11380043B2 (en) 2022-07-05
JP2022526418A (ja) 2022-05-24
CA3131069A1 (en) 2020-10-08
JP2024063055A (ja) 2024-05-10
EP3946061A1 (en) 2022-02-09
US20200320775A1 (en) 2020-10-08
CN113573640A (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
US11380043B2 (en) Modeling regions of interest of an anatomic structure
Selle et al. Analysis of vasculature for liver surgical planning
US9495794B2 (en) Three-dimensional image display apparatus, method, and program
US10347033B2 (en) Three-dimensional image display apparatus, method, and program
US11642171B2 (en) Systems and methods for an interactive tool for determining and visualizing a functional relationship between a vascular network and perfused tissue
JP5224451B2 (ja) 投影画像作成装置、方法およびプログラム
US11132801B2 (en) Segmentation of three-dimensional images containing anatomic structures
Beichel et al. Liver segment approximation in CT data for surgical resection planning
US10275946B2 (en) Visualization of imaging uncertainty
CN107004305A (zh) 医学图像编辑
CN107851337B (zh) 交互式网格编辑
Debarba et al. Efficient liver surgery planning in 3D based on functional segment classification and volumetric information
Li et al. Medical image segmentation in oral-maxillofacial surgery
CN113614781A (zh) 用于标识图像中物体的***和方法
Puig et al. An interactive cerebral blood vessel exploration system
Czajkowska et al. Skeleton graph matching vs. maximum weight cliques aorta registration techniques
Balashova et al. 3D organ shape reconstruction from Topogram images
Meinzer et al. Medical imaging: examples of clinical applications
KR102479703B1 (ko) 다단계 심층 강화학습을 이용한 3차원 형태-해부학적 기준점 검출 방법 및 장치
Bartz et al. Visualization and exploration of segmented anatomic structures
Kim et al. Biomedical image visualization and display technologies
CA3105430A1 (en) System and method for linking a segmentation graph to volumetric data
KR20200048746A (ko) 뇌혈관 비교 판독 영상 디스플레이 장치 및 방법
Preim et al. Visualization, Visual Analytics and Virtual Reality in Medicine: State-of-the-art Techniques and Applications
Chlebiej et al. CT/MRI 3D Fusion for Cerebral System Analysis

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206