JP7421689B2 - 介入装置形状の決定 - Google Patents

介入装置形状の決定 Download PDF

Info

Publication number
JP7421689B2
JP7421689B2 JP2023528482A JP2023528482A JP7421689B2 JP 7421689 B2 JP7421689 B2 JP 7421689B2 JP 2023528482 A JP2023528482 A JP 2023528482A JP 2023528482 A JP2023528482 A JP 2023528482A JP 7421689 B2 JP7421689 B2 JP 7421689B2
Authority
JP
Japan
Prior art keywords
image data
interventional device
neural network
dimensional shape
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023528482A
Other languages
English (en)
Other versions
JP2023546521A (ja
Inventor
アユシ シンハ
グジェゴジュ アンジェイ トポレック
モリー ララ フレックスマン
ヨヘン クルッカー
アシシ サッタヤヴラット パンセ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023546521A publication Critical patent/JP2023546521A/ja
Application granted granted Critical
Publication of JP7421689B2 publication Critical patent/JP7421689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本開示は、血管領域内に配置された介入装置の3次元形状を決定することに関する。コンピュータ実装方法、処理装置、システム、及びコンピュータプログラム製品が、開示される。
多くの介入医療処置は、X線撮像下で実行される。X線撮像によって提供される2次元画像は、医師が解剖学的構造内のガイドワイヤ及びカテーテルなどの介入装置をナビゲートするのを支援する。骨などの解剖学的構造の高密度領域、及び介入装置は、X線撮像下で高度に可視である。しかしながら、血管系などの軟組織解剖学的領域は、X線撮像下ではしばしば見えにくく、ナビゲーションを妨げる。2次元X線画像に見られる介入装置の形状を3次元解剖学的構造に頭の中でマッピングすることも、困難であり得る。
一例として、前立腺動脈塞栓術、PAEでは、ガイドワイヤ及びカテーテルなどの介入装置は、小血管を遮断し、それによって前立腺への血液の供給を阻害するために微粒子が注入される治療部位まで、X線撮像下で血管系を通ってナビゲートされる。血管系は、X線画像では目に見えにくいことが多く、X線画像で見られる介入装置の形状を三次元の解剖学的構造に頭の中でマッピングすることは、困難であり得る。
血管系の可視性を改善するために、2次元の処置内デジタルサブトラクション血管造影(digital subtraction angiography)DSA画像が、しばしば造影剤を使用して取り込まれる。しかしながら、一部の患者は、造影剤に対する副作用を有し、その使用を制限してもよい。X線画像における介入装置の形状を三次元解剖学的構造に頭の中でマッピングするという課題に対処するために、コンピュータ断層撮影血管造影法CTA画像などの血管系の術前三次元画像が、そのような介入の前に取得されてもよい。CTA画像は、介入処置をガイドするためのロードマップとしての役割を果たす。しかしながら、これらの手段にもかかわらず、医師は、しばしば、介入装置の位置を確認するために、異なる投影角度から血管系の複数の2次元X線画像を作成する必要がある。
異なる投影角度から血管系の複数の2次元X線画像を生成することも、欠点を有する。放射線量の増加とは別に、X線源及び検出器を支持するCアームの特定の構成が患者又は患者テーブルの位置によって阻止されるため、所望の投影角度が、取得不可能でありうる。
その結果、血管領域内に配置された介入装置の形状がX線画像から決定される方法を改善する余地が残されている。
本開示の第1の態様によれば、血管領域内に配置された介入装置の3次元形状を予測するためのニューラルネットワークを提供するコンピュータ実装方法が、提供される。本方法は、
血管領域の3次元形状を表す体積画像データを受信するステップと、
血管領域内の介入装置の1つ以上の2次元投影を表すX線画像データを受信するステップと、
介入装置の1つ以上の2次元投影に対応する血管領域内の介入装置の3次元形状を表すグラウンドトゥルース介入装置形状データを受信するステップと、
受信されたX線画像データ及び受信された体積画像データをニューラルネットワークに入力し、ニューラルネットワークによって予測される介入装置の3次元形状と受信されたグラウンドトゥルース介入装置形状データとの差を表す第1の損失関数に基づいて、ニューラルネットワークのパラメータを調整し、ニューラルネットワークによって予測される介入装置の3次元形状が、受信された体積画像データによって表される血管領域の3次元形状内にフィットするように、前記調整を束縛することによって、受信されたX線画像データ及び受信された体積画像データから、血管領域によって制約される介入装置の3次元形状を予測するようにニューラルネットワークを訓練するステップと、
を含む。
本開示の第2の態様によれば、血管領域内に配置された介入装置の3次元形状を予測するコンピュータ実装方法が、開示される。本方法は、
血管領域の3次元形状を表す体積画像データを受信するステップと、
血管領域内の介入装置の2次元投影を表すX線画像データを受信するステップと、
受信されたX線画像データ及び受信された体積画像データから、血管領域によって制限される介入装置の3次元形状を予測するように訓練されたニューラルネットワークに、受信されたX線画像データ及び受信された体積画像データを入力し、入力に応答して、ニューラルネットワークを使用して、受信されたX線画像データ及び受信された体積画像データから、血管領域によって制限される介入装置の3次元形状を予測するステップと、
を含む。
本開示の更なる態様、特徴、及び利点は、添付の図面を参照してなされる実施例の以下の説明から明らかになるであろう。
ニューラルネットワークの一例を示す概略図である。 ニューロンの一例を示す概略図である。 介入処置中に阻止される所望のX線画像ビューの一例を示す概略図である。 本開示のいくつかの態様による、介入装置の3次元形状を予測するためのニューラルネットワークを提供する方法の第1の例を示すフローチャートである。 本開示のいくつかの態様による、介入装置の3次元形状を予測するためのニューラルネットワークを提供する方法の第1の例を示す概略図である。 介入装置の3次元形状を予測するためのニューラルネットワークを提供する方法の第1の例を示すフローチャートであり、追加的に、任意選択の動作S170及びS180を含む。 本開示のいくつかの態様による、介入装置の3次元形状を予測する方法の第2の例を示す概略図である。 本開示のいくつかの態様による、介入装置の3次元形状を予測する方法の一例を示すフローチャートである。 本開示のいくつかの態様による、介入装置の3次元形状を予測する方法の一例を示す概略図である。 本開示のいくつかの態様による、介入装置の3次元形状を予測するためのシステム300を示す概略図である。
本開示の例は、以下の説明及び図面を参照して提供される。この説明では、説明の目的のために、特定の例の多くの具体的な詳細が、説明される。本明細書において、「例」、「実施態様」、又は同様の言語への言及は、例に関連して説明される特徴、構造、又は特性が、少なくともその1つの例に含まれることを意味する。また、1つの例に関連して説明された特徴は、別の例においても使用され得、簡潔さのために、すべての特徴が、各例において必ずしも複製されないことを理解されたい。例えば、コンピュータ実装方法に関連して説明される特徴は、対応する方法で、処理装置において、システムにおいて、及びコンピュータプログラム製品において実装され得る。
以下の説明では、血管領域内に配置された介入装置の3次元形状を予測することを含むコンピュータ実装方法が、参照される。ガイドワイヤの形態の介入装置が血管系内に配置されるX線撮像手順が、参照される。しかしながら、本明細書に開示されるコンピュータ実装方法の例は、限定的ではないが、カテーテル、血管内超音波撮像装置、光コヒーレンストモグラフィ装置、スペクトルセンシングなどの感知能力を有するカテーテル、イントロデューサシース、レーザアテレクトミー装置、機械的アテレクトミー装置、血圧装置及び/又は流量センサ装置、形状感知装置、TEEプローブ、針、生検針、アブレーション装置、バルーン、ステント、又はエンドグラフトなど、ガイドワイヤ以外の血管系内で使用され得る他のタイプの介入装置とともに使用され得ることを理解されたい。
本明細書で開示されるコンピュータ実装方法は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに方法を実行させる、記憶されたコンピュータ可読命令を含む非一時的コンピュータ可読記憶媒体として提供され得ることに留意されたい。言い換えれば、コンピュータ実装方法は、コンピュータプログラム製品において実装され得る。コンピュータプログラム製品は、専用のハードウェア又は適切なソフトウェアと関連してソフトウェアを実行することができるハードウェアによって提供されることができる。プロセッサによって提供される場合、方法の特徴の機能は、単一の専用プロセッサ、単一の共用プロセッサ、又はいくつかが共用されることができる複数の個々のプロセッサによって提供されることができる。「プロセッサ」又は「コントローラ」という用語の明示的な使用は、ソフトウェアを実行することができるハードウェアを排他的に指すものとして解釈されるべきではなく、デジタル信号プロセッサ「DSP」ハードウェア、ソフトウェアを記憶するための読取専用メモリ「ROM」、ランダムアクセスメモリ「RAM」、不揮発性記憶装置などを暗黙的に含むことができるが、これらに限定されない。更に、本開示の例は、コンピュータ使用可能記憶媒体又はコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラム製品の形態をとることができ、コンピュータプログラム製品は、コンピュータ又は任意の命令実行システムによって又はそれらと関連して使用するためのプログラムコードを提供する。本説明の目的のために、コンピュータ使用可能記憶媒体又はコンピュータ可読記憶媒体は、命令実行システム、機器、又は装置によって、又はそれに関連して使用するためのプログラムを有する、記憶する、通信する、伝播する、又は移送することができる任意の装置であることができる。媒体は、電子、磁気、光学、電磁、赤外、又は半導体システム又は装置又は伝搬媒体であることができる。コンピュータ可読媒体の例は、半導体又は固体メモリ、磁気テープ、リムーバブルコンピュータディスク、ランダムアクセスメモリ「RAM」、読取専用メモリ「ROM」、剛体磁気ディスク、及び光ディスクを含む。光ディスクの現在の例は、コンパクトディスク読取専用メモリ「CD-ROM」、光ディスク読取/書込「CD-R/W」、ブルーレイTM、及びDVDを含む。
本明細書では、様々なニューラルネットワーク、及びそれらのパラメータを自動的に調整することによるそれらの訓練も参照される。図1は、ニューラルネットワークの一例を示す概略図である。図1の例示的なニューラルネットワークは、入力層、3つの隠れ層h1乃至h3、及び出力層に配置されたニューロンを含むディープフィードフォワードニューラルネットワークである。図1の例示的なニューラルネットワークは、その入力層内のニューロンの入力Input1乃至Inputkにおいて数値又はバイナリ入力値の形で入力データを受け取り、その隠れ層hk乃至h3内のニューロンのを用いて入力値を処理し、その出力層内のニューロンの出力における出力データOutput1..nを生成する。入力データは、例えば画像データ、又は位置データなどを表し得る。入力層内の各ニューロンは、例えば画像のピクセルなど、入力データの一部分を表す。
図2は、ニューロンの一例を示す概略図である。図2に示される例示的なニューロンは、図1の隠れ層h1乃至h3内のニューロン、並びに図1の出力層内のニューロンを提供するために使用され得る。図2の例示的なニューロンは、シグマ記号でラベル付けされた加算部分と、シグモイド活性化関数を表すF(S)でラベル付けされた活性化関数とを含む。動作中、データ入力I0乃至Ij-1は、対応する重みw0乃至wj-1で乗算され、バイアス項Bと共に合計される。合計された結果は、ニューロンの出力を決定するために活性化関数に入力される。バイアス項は、活性化関数を左又は右にシフトし、ニューロンの活性化に閾値を暗黙的に設定し、それによってニューロンの出力を制御する。重みは、ネットワーク内のニューロン間の接続の強度を決定する。重み、バイアス、及びニューロン接続は、ニューラルネットワーク「訓練」プロセス中に「学習される」、すなわち、訓練されることができるニューラルネットワークの「訓練可能なパラメータ」の例である。シグモイド関数、Tanh関数、ステップ関数、正規化線形ユニット「ReLU」、漏洩ReLU、Softmax、Swish関数などの様々な活性化関数が、使用され得る。
上述のように、ニューラルネットワークを訓練するプロセスは、上述の重み及びバイアスを自動的に調整することを含む。教師あり学習は、入力データ及び対応する期待出力データを含む訓練データセットをニューラルネットワークに提供することを含む。訓練データセットは、ニューラルネットワークが訓練後に分析に使用される可能性が高い入力データを表す。教師あり学習の間、入力データを提示されると、ニューラルネットワークが対応する期待出力データを正確に提供するように、重み及びバイアスが自動的に調整される。
ニューラルネットワークを訓練することは、典型的には、大きな訓練データセットをニューラルネットワークに入力することと、訓練されたニューラルネットワークが正確な出力を提供するまで、ニューラルネットワークパラメータを反復的に調整することとを伴う。訓練は、通常、グラフィック処理ユニット「GPU」、又はニューラル処理ユニット「NPU」又はテンソル処理ユニット「TPU」などの専用ニューラルプロセッサを使用して実行される。したがって、訓練は、典型的には、クラウドベース又はメインフレームベースのニューラルプロセッサがニューラルネットワークを訓練するために使用される集中型アプローチを採用する。訓練データセットを用いたその訓練に続いて、訓練されたニューラルネットワークは、新しい入力データ、「推定」と称されるプロセスを分析するための装置に展開され得る。推定中の処理要件は、訓練中に必要とされるものよりも著しく低く、ニューラルネットワークがラップトップコンピュータ、タブレット、携帯電話などの様々なシステムに展開されることを可能にする。推定は、例えば、サーバ上、又はクラウド内の、中央処理ユニット「CPU」、GPU、NPU、TPUで実行され得る。
上述のように、教師あり学習では、入力訓練データが提示されると、ニューラルネットワークが対応する期待出力データを正確に提供するように、重み及びバイアスが、自動的に調整される。損失関数又は誤差の値は、予測出力データと期待出力データとの間の差に基づいて計算される。損失関数の値は、負の対数尤度損失、平均二乗誤差、平均絶対誤差、フーバー損失、ダイス係数損失、又はクロスエントロピー損失などの関数を使用して計算され得る。訓練中、損失関数の値は、典型的には最小化され、訓練は、損失関数の値が停止基準を満たすときに終了される。場合によっては、訓練は、損失関数の値が複数の基準のうちの1つ又は複数を満たすときに、終了される。この最小化問題を解決するために、勾配降下法、準ニュートン法などの様々な方法が知られている。ストキャスティック勾配降下「SGD」、バッチ勾配降下、ミニバッチ勾配降下、ガウス・ニュートン法、レーベンバーグ・マルカート法、モーメンタム法、Adam、Nadam、Adagrad、Adadelta、RMSProp、及びAdamax「オプティマイザ」を含むが、これらに限定されない、これらの方法及びそれらの変形例を実装するために、様々なアルゴリズムが開発されている。
これらのアルゴリズムは、連鎖法を使用して、モデルパラメータに対する損失関数の導関数を計算する。このプロセスは、導関数が最後の層又は出力層において開始して第1の層又は入力層に向かって移動して計算されるので、逆伝搬と称される。これらの導関数は、誤差関数を最小化するためにモデルパラメータをどのように調整されなければならないかをアルゴリズムに知らせる。すなわち、モデルパラメータに対する調整は、出力層から開始し、入力層が達されるまでネットワーク内で後方に動作するように行われる。第1の訓練反復において、初期重み及びバイアスは、しばしばランダム化される。次いで、ニューラルネットワークは、同様にランダムである出力データを予測する。次いで、逆伝搬が、重み及びバイアスを調整するために使用される。訓練プロセスは、各反復において重み及びバイアスを調整することによって反復的に実行される。訓練は、誤差又は予測出力データと期待出力データとの間の差が、訓練データ又はいくつかの検証データについて許容可能な範囲内にあるときに終了される。その後、ニューラルネットワークは、展開されてもよく、訓練されたニューラルネットワークは、そのパラメータの訓練された値を使用して、新しい入力データについて予測を行う。訓練プロセスが成功した場合、訓練されたニューラルネットワークは、新しい入力データから期待出力データを正確に予測する。
上述の訓練プロセスは、ディープフィードフォワードニューラルネットワークに関するが、これは、一例に過ぎず、他のニューラルネットワークも、同様に訓練され得ることを理解されたい。
上述のように、X線撮像下での軟組織の可視性が悪いことは、X線画像の二次元的性質と組み合わされて、介入装置のX線画像を三次元血管系に頭の中でマッピングし、したがって、体内で介入装置をナビゲートするタスクを混乱させる。その結果、放射線科医は、異なる投影角度から血管系の複数のX線画像を作成し得る。しかしながら、所望の投影角度から画像を得ることは、時々、患者の位置によって混乱される。一例として、図3は、介入処置中に阻止される所望のX線撮像ビューの一例を示す概略図である。図3において、患者の脚は、X線撮像光源及び検出器を支持するCアームの移動が、所望の位置に移動し、それによって所望のビューを得るのを阻止する。この状況では、放射線科医は、その後、複数の準最適ビューを用いて患者を撮像しようと試み、それによって患者へのX線線量を増加させ得る。患者又は患者テーブルのいずれかが、特定の所望のX線画像ビューが取得されるのを阻止する多くの同様の状況も、存在する。
上記の欠点の1つ以上に対処するために、血管領域内に配置された介入装置の3次元形状を決定する方法が、提供される。この方法が、図4乃至図6を参照して説明される。図4は、本開示のいくつかの態様による、介入装置の3次元形状を予測するためのニューラルネットワークを提供する方法の第1の例を示すフローチャートである。図4を参照すると、本方法は、血管領域内に配置された介入装置の3次元形状を予測するためのニューラルネットワークを提供するステップを含み、
血管領域の3次元形状を表す体積画像データ110を受信するステップS110と、
血管領域内の介入装置の1つ又は複数の2次元投影を表すX線画像データ120を受信するステップS120と、
介入装置の1つ以上の2次元投影に対応する血管領域内の介入装置の3次元形状を表すグラウンドトゥルース介入装置形状データ130を受信するステップS130と、
受信されたX線画像データ120及び受信された体積画像データ110をニューラルネットワーク140に入力するステップS150、ニューラルネットワーク150によって予測される介入装置の3次元形状と、受信されたグラウンドトゥルース介入装置形状データ130との間の差異を表す第1の損失関数160に基づいて、ニューラルネットワーク140のパラメータを調整するステップS160、ニューラルネットワーク150によって予測される介入装置の3次元形状が、受信された体積画像データ110によって表される血管領域の3次元形状内にフィットするように、調整を拘束するステップによって、受信されたX線画像データ120及び受信された体積画像データ110から、血管領域150によって拘束される介入装置の3次元形状を予測するステップS140と、
を含む。
図5は、本開示のいくつかの態様による、介入装置の3次元形状を予測するためのニューラルネットワークを提供する方法の第1の例を示す概略図である。様々なニューラルネットワークは、畳み込みニューラルネットワーク、エンコーダ・デコーダネットワーク、敵対的生成ネットワーク、カプセルネットワーク、回帰ネットワーク、強化学習エージェント、ベイジアンネットワーク、リカレントネットワークを含むニューラルネットワーク140として機能してもよい。訓練動作S140中に、ニューラルネットワーク140は、血管領域の3次元形状を表す体積画像データ110と、X線画像データ120とを受信し、血管領域150によって拘束される介入装置の3次元形状を予測するように訓練される。訓練は、図1及び図2を参照して上述した方法と一致する形で行われてもよい。訓練データは、血管領域内の介入装置の3次元形状を表すグランドトゥルース介入装置形状データ130の形で提供される。第1の損失関数160の値は、ニューラルネットワーク150によって予測された介入装置の3次元形状と、受信されたグランドトゥルース介入装置形状データ130との間の差に基づいて計算される。第1の損失関数160の値は、ニューラルネットワーク140のパラメータを調整するために使用される。調整は、また、ニューラルネットワーク150によって予測される介入装置の3次元形状が、受信された体積画像データ110によって表される血管領域の3次元形状内にフィットするように拘束される。この拘束は、文献Ren, H., et al., 2018, entitled "Adversarial constraint learning for structured prediction", Proc.27th Int. Joint Conference on Artificial Intelligence, 2637-2643, arXiv:1805.10561v2において開示されるような拘束条件付き学習手法を用いて、ニューラルネットワーク140のパラメータを調整することによって実行され得る。したがって、拘束は、ニューラルネットワーク150によって予測される介入装置の3次元形状が、有効な形状であることを保証する。
体積画像データ110、X線画像データ120、及びグランドトゥルース介入装置形状データ130は、データベース、撮像システム、コンピュータ可読記憶媒体、クラウドなどを含む、様々なソースから受信され得る。データは、有線又は無線データ通信などの任意の形態のデータ通信を使用して受信され得、インターネット、イーサネットを介して、又はUSBメモリ装置、光ディスク又は磁気ディスクなどの可搬型コンピュータ可読記憶媒体を用いてデータを転送することによって受信され得る。
体積画像データ110は、例えば、
コンピュータ断層撮影画像データ、
造影コンピュータ断層撮影画像データ、
3D超音波画像データ、
コーンビームコンピュータ断層撮影画像データ、
磁気共鳴画像データ、
解剖学的アトラスモデルデータ、
血管領域の1つ以上の2次元投影を表すX線画像データを再構成することによって生成される再構成された体積画像データ、
の1つ以上によって提供されてもよい。
グランドトゥルース介入装置形状データ130は、
コンピュータ断層撮影画像データ、
造影コンピュータ断層撮影画像データ、
コーンビームコンピュータ断層撮影画像データ、
国際公開第2007/109778(A1)号に開示されているような介入装置に機械的に結合された複数の光ファイバ形状センサによって生成された光ファイバ形状感知位置データ、
国際公開第2015/165736(A1)号に開示されているような介入装置に機械的に結合された1つ又は複数の電磁追跡センサ又はエミッタによって生成された電磁追跡位置データ、
米国特許出願公開第2019/254564(A1)号明細書に開示されているような介入装置に機械的に結合された1つ又は複数の誘電体センサによって生成された誘電マッピング位置データ、及び
国際公開第2020/030557(A1)号明細書に開示されているような介入装置に機械的に結合された1つ又は複数の超音波追跡センサ又はエミッタによって生成された超音波追跡位置データ、
の1つ以上を含み得る。
いくつかの例では、グランドトゥルース介入装置形状データ130は、代替的に、連続ロボットシステムの運動学的モデルによって提供され得る。
いくつかの実装形態では、体積画像データ110、X線画像データ120、及びグランドトゥルース介入装置形状データ130の座標系は、第1の損失関数160の計算及び/又は拘束演算を容易にするために、互いに位置合わせされ得る。
体積画像データ110、X線画像データ120、又はグランドトゥルース介入装置形状データ130が、画像データによって提供されるとき、セグメンテーション技法が、必要に応じて、介入装置及び血管系を抽出するのに使用されてもよい。閾値化、テンプレートマッチング、アクティブ輪郭、領域成長アルゴリズムの適用、モデルベースのセグメンテーションの使用、手動セグメンテーション、ニューラルネットワークベースのセグメンテーション方法の使用などのセグメンテーション技法が、使用されてもよい。セグメンテーションの結果は、バイナリマスクとして、又は画像空間内の空間座標として、又はパラメトリック方程式として、又は2Dスプラインとして、又はワイヤフレームモデルとして、などで表され得る。様々な適切なセグメンテーション技法が、文献Moccia, S., et al., entitled "Blood vessel segmentation algorithms - Review of methods, datasets and evaluation metrics", Computer Methods and Programs in Biomedicine, Vol.158, Pages 71 - 91に開示されている。
図6は、介入装置の3次元形状を予測するためのニューラルネットワークを提供する方法の第1の例を示すフローチャートであり、追加的に、任意選択の動作S170及びS180を含む。図6に示されるフローチャートは、図4のフローチャートに対応し、加えて、動作S170及びS180を含み、これらは、両方とも独立しており、任意選択であり、一緒に実装されてもよい。
動作S170において、図4を参照して上述した方法は、ニューラルネットワーク150によって予測された介入装置の3次元形状の推定された不確実性を計算するステップS170を含む。一例では、不確実性を表す値が、介入装置の予測された3次元形状に対する損失関数の値と比較される値を出力することによって計算され得る。これは、装置の3次元推定値におけるより高い誤差に関連し、したがって、より高い不確実性にも関連する、装置の短縮された2次元ビューのような特徴をネットワークが学習することを可能にする。別の例では、ドロップアウト技法が、ネットワークの予測における不確実性を推定するのに使用されてもよい。ドロップアウトは、ニューラルネットワーク内のニューロンをランダムに選択し、それらの出力を計算からドロップする。ドロップアウトを使用して推定を繰り返し実行することによって、わずかに異なる予測出力が、各実行において取得され得る。次いで、予測出力の平均及び分散が、計算されることができ、平均は、最終出力を示し、分散は、不確実性を示す。例えば、分散が高い場合、ネットワークの出力の不確実性も高い。別の例では、ニューラルネットワークは、平均及び分散によって定義される分布を直接的に予測するベイジアンネットワークであってもよく、装置の出力された三次元形状は、この分布からのサンプルである。別の例では、不確実性は、例えば介入装置の3次元形状上の点と形状の中心線との間の距離を計算することによって、ニューラルネットワークの予測出力を処理することによって計算され得る。代わりに、推定された不確実性は、例えば、血管領域150によって拘束される介入装置の予測される3次元形状と、血管領域の3次元形状を表す体積画像データ110との間の差に基づき得る。推定された不確実性は、例えば数値的に又は計算された推定精度の空間分布を示すヒートマップとして、表示され得る。
動作S180において、図4を参照して上述された方法は、介入装置の1つ以上の2次元投影を提供するために、受信されたX線画像データ120をセグメント化するステップS180を含み、受信されたX線画像データ120をニューラルネットワーク140に入力するステップS150は、セグメント化された受信されたX線画像データをニューラルネットワーク140に入力することを含む。上述のものを含めて、様々なセグメンテーション技法が、この動作において使用され得る。
いくつかの実装形態では、ニューラルネットワーク140を訓練する動作S140は、ニューラルネットワーク150によって予測される介入装置の3次元形状が介入装置の1つ又は複数の機械的拘束を満たすように、調整を拘束することを含む。機械的拘束は、例えば、介入装置の予測される3次元形状における介入装置の長さ、又は介入装置の予測される3次元形状の最大曲率、又は介入装置の予測される3次元形状の連続性を表し得る。これら及び他の拘束は、調整S160動作において、1つ又は複数の追加の損失関数を用いて実装され得、例えば、予測される点と形状の中心線との間の距離、又は予測される点のその最近傍までの距離、全体ネスト型エッジ検出器において展開されるようなマルチスケール損失、測地損失、又は連続性を促進するために形状のパラメータ表現(例えばスプライン)上で動作し、その値も訓練動作S140中に最小化される損失にペナルティを課す正規化成分を追加する。機械的拘束は、例えば、介入装置のモデルの形で提供されてもよい。
いくつかの実装形態では、解剖学的特徴の位置は、動作S160における調整を更に拘束し、それによって介入装置の予測される3次元形状の精度を改善するために使用され得る。例えば、高密度骨構造が、X線画像データ120において、また、体積画像データ110において検出可能である場合、これらは、介入装置の予測される3次元形状の精度を改善するために使用され得る。これらの実施では、受信された体積画像データ110は、解剖学的特徴の3次元形状を更に表し、受信されたX線画像データ120は、解剖学的特徴の2次元投影を更に表し、ニューラルネットワーク140を訓練するステップS140は、更に、
受信されたX線画像データ120から、介入装置の3次元形状に対する解剖学的特徴の位置を予測するためにニューラルネットワーク140を訓練するステップと、
介入装置の3次元形状に対する解剖学的特徴の予測された位置と受信された体積画像データ110における血管領域の3次元形状に対する解剖学的特徴の位置との間の差に基づいて、調整を拘束するステップと、
を有する。
図7は、本開示のいくつかの態様による、介入装置の3次元形状を予測する方法の第2の例を示す概略図である。図7に示される方法は、図5の方法に対応し、「投影」とラベル付けされた投影動作を追加的に含み、ここでニューラルネットワーク150によって予測される介入装置の3次元形状が、表面上に投影され、「2D投影」180をもたらす。図7に示される方法は、また、2D投影180と入力されたX線画像データ120との間の差に基づいて第2の損失関数170を計算するステップを含む。図7に示される方法では、第2の損失関数の値は、訓練中にニューラルネットワーク140のパラメータを調整するためにも使用される。より詳細には、図7に示される方法は、図4又は図6の方法に対応し、ニューラルネットワーク140のパラメータを調整するステップS160は、ニューラルネットワーク150によって予測される介入装置の3次元形状の2次元投影180と、受信されたX線画像データ120との間の差を表す第2の損失関数170に更に基づいており、介入装置の3次元形状の2次元投影180及び受信されたX線画像データが、共通の表面上に投影される。これは、ニューラルネットワーク150によって予測された介入装置の3次元形状を、X線画像データ120を提供するX線検出器の2次元表面上に投影することによって達成される。典型的には、この共通の表面は、平面であるか、又は平面セグメントを含むか、又はいくつかの実装形態では曲面を含み得る。そうすることで、第2損失関数は、動作S160において、ニューラルネットワークのパラメータの調整のための追加的な拘束を提供する。このような第2の損失関数の使用は、介入装置の予測される3次元形状の精度を改善する。
上で説明した訓練方法の態様は、方法を実行するように構成された1つ又は複数のプロセッサを有する処理装置によって提供され得る。処理装置は、例えば、クラウドベースの処理システム又はサーバベースの処理システム又はメインフレームベースの処理システムであり得、いくつかの例では、1つ又は複数のプロセッサは、1つ又は複数のニューラルプロセッサ又はニューラル処理ユニット「NPU」、1つ又は複数のCPU、又は1つ又は複数のGPUを含み得る。処理システムは、分散コンピューティングシステムによって提供され得ることも企図される。処理装置は、方法を実行するための命令及びそれに関連するデータを集合的に記憶する1つ又は複数の非一時的コンピュータ可読記憶媒体と通信し得る。
訓練されたニューラルネットワーク140の上述の例は、推定中に新しいデータに関する予測を行うために使用され得る。訓練されたニューラルネットワークは、例えば、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、携帯電話などのシステムに展開されてもよい。推定は、例えば、サーバ上、又はクラウド内で、中央処理ユニット「CPU」、GPU、NPU、TPUによって実行され得る。図8は、本開示のいくつかの態様による、介入装置の3次元形状を予測する方法の一例を示すフローチャートである。図8を参照すると、血管領域内に配置された介入装置の3次元形状を予測するコンピュータ実装方法は、
血管領域の3次元形状を表す体積画像データ210を受信するステップS210と、
血管領域内の介入装置の2次元投影を表すX線画像データ220を受信するステップS220と、
受信されたX線画像データ220及び受信された体積画像データ210から、血管領域150によって拘束される介入装置の3次元形状を予測するように、受信されたX線画像データ220及び受信された体積画像データ210を、訓練されたニューラルネットワーク140に入力するステップS230と、
入力するステップS230に応答して、ニューラルネットワーク140を使用して、受信されたX線画像データ220及び受信された体積画像データ210から、血管領域150によって拘束される介入装置の3次元形状を予測するステップS240と、
を含む。
血管領域によって拘束される介入装置の予測された三次元形状は、表示装置に予測三次元形状を表示する、又はメモリ装置に記憶することなどによって出力されてもよい。
上記の方法によって血管領域によって拘束される介入装置の三次元形状を提供することによって、装置及び血管系の改善された可視化が、追加のX線撮像を必要とすることなく提供される。
訓練されたニューラルネットワーク140によって使用される体積画像データ210は、上述のソースのいずれかによって提供され得る。例えば、いくつかの実装形態では、体積画像データ210は、同じ患者の血管系の術前コンピュータ断層撮影画像によって提供される。しかしながら、いくつかの実装形態では、血管系が高い患者間変動性を示さない場合、異なる患者に由来し得る血管領域のモデル、又は複数の異なる患者に由来し得る血管領域の統計モデルは、体積画像データ210として機能し得る。
いくつかの実装形態では、解剖学的特徴の位置は、介入装置の予測される3次元形状の精度を改善するために推定中にニューラルネットワーク140のパラメータを調整するのに使用され得る。これらの実施では、受信された体積画像データ210は、X線画像データにおいて可視である解剖学的特徴の3次元形状を更に表し、受信されたX線画像データ220は、解剖学的特徴の2次元投影を更に表し、ニューラルネットワーク140は、受信されたX線画像データ220から、介入装置の3次元形状に対する解剖学的特徴の3次元位置を予測する。ニューラルネットワーク140のパラメータは、介入装置の予測された3次元形状に対する解剖学的特徴の予測された位置と、受信された体積画像データ210における血管領域の3次元形状に対する解剖学的特徴の位置との間の差に基づいて調整を制約することによって、介入装置の予測された3次元形状の精度を改善するように推定中に調整され得る。
訓練されたニューラルネットワーク140に入力されたX線画像データ220は、一般に、1つ又は複数のX線画像によって提供され得る。いくつかの実装形態では、単一のX線画像が、提供され、ニューラルネットワーク140は、血管領域内の介入装置の1つのみの2次元投影、及び受信された体積画像データ110から、血管領域150によって拘束される介入装置の3次元形状を予測するように訓練される。他の実装形態では、1より多いX線画像が、血管領域によって拘束される介入装置の予測される3次元形状の基礎を形成し得る。これらの実施では、ある時間隔にわたって取得された複数のX線画像が、提供され、ニューラルネットワーク140は、血管領域内の介入装置の複数の2次元投影と、受信された体積画像データ110とから、複数のX線画像内の介入装置の複数の形状に対応する、血管領域150によって制約された介入装置の複数の3次元形状を予測するように訓練される。複数の二次元投影180は、各予測された三次元形状から生成されてもよい。入力として複数の画像又は一連の画像を組み込むことができる様々なニューラルネットワークは、リカレントニューラルネットワーク、長期短期メモリ「LSTM」ネットワーク、時間畳み込みネットワーク、変換器などを含む、ニューラルネットワーク140として機能し得る。
図9は、本開示のいくつかの態様による、介入装置の3次元形状を予測する方法の一例を示す概略図である。図9の概略図は、図8の方法に対応し、加えて、破線の輪郭によって図8にオプションとして示される動作S250を含む。動作S250において、ニューラルネットワーク140によって予測された介入装置の予測された3次元形状は、介入装置の少なくとも1つの予測された2次元投影を提供するために、少なくとも1つの表面上に投影される。表面は、例えば、X線撮像システムのX線放射線受光検出器の表面を表し得る。投影は、任意の所望の投影角度で提供されてもよい。そうすることで、その投影角度でX線撮像システムによって提供されたものであろう画像を表す投影画像が、生成される。表面は、平面又は局面、又は実際には任意の所望の形状であってもよい。介入装置の予測された2次元投影は、表示装置上に投影を表示することによって、又はそれをメモリ装置に記憶することなどによって出力され得る。
いくつかの実装形態では、介入装置の予測される2次元投影は、受信されたX線画像データ220によって表される介入装置の投影とは異なる投影である投影を含み得る。このようにして生成された複数の予測の使用は、介入装置の「仮想」バイプレーン投影を提供するために使用され得る。いくつかの実装形態では、介入装置の予測される3次元形状の第2、第3、第4など、すなわち、複数の投影は、動作S250によって提供され得、それによって介入装置の仮想多面投影を提供する。いくつかの実装形態では、複数の表面が、互いに交差し得る。複数の交差する表面上への投影は、しばしば「X平面」画像と称される。受信されたX線画像データ220によって表される介入装置の投影とは異なる投影の生成は、異なる投影角度で複数のX線画像を撮影する必要性を軽減する。更に、それは、所望の投影が患者又は患者ベッドの位置のために達成不可能であるときに所望の投影を提供する。
いくつかの実装形態では、介入装置の2次元投影は、受信されたX線画像データ220によって表される介入装置の投影と同じ投影であり、介入装置の3次元形状の2次元投影、及び受信されたX線画像データは、共通の表面上に投影される。これらの実施では、図7を参照して上述した第2の損失関数170が、介入装置の予測される3次元形状の精度を改善するように推定中にニューラルネットワーク140のパラメータを調整するのに使用され得る。
いくつかの実装形態では、ニューラルネットワーク140によって使用される体積画像データ210が、介入処置中に取得され得る。これらの実施では、3次元体積画像データは、患者の血管領域に加えて、体積画像が取得されるときに介入装置の3次元形状を含み得る。ニューラルネットワークの予測が正確である場合、体積画像の取得後に取得された介入装置の1つ又は複数の2次元X線画像から、ニューラルネットワーク140によって予測される介入装置の3次元形状は、体積画像内の介入装置の3次元形状に対応するべきである。この対応は、1つ又は複数の追加の損失関数を用いて評価されてもよく、その値は、また、訓練動作S140中に最小化される。損失関数は、既知の装置形状と予測される装置形状との間の類似性を測定してもよく、又は既知の装置形状の位置と拘束血管領域内の予測される装置形状とを比較してもよい。いくつかの実装形態では、体積画像内の介入装置の3次元形状の2次元投影は、シーケンスを作成するために、体積画像の取得後に取得された介入装置の2次元X線画像に「フレーム0」として追加され得、介入装置の3次元形状の2次元投影、及び受信されたX線画像データは、共通の表面上に投影される。ニューラルネットワーク140は、上記で生成されたシーケンス及び受信された体積画像データから、入力されたX線画像(例えば、最新のX線画像)のうちの1つにおける介入装置の3次元形状、又は血管領域によって拘束される複数のX線画像における介入装置の複数の形状に対応する介入装置の複数の3次元形状を予測するように訓練され得る。複数のX線画像における介入装置の複数の形状に対応する介入装置の複数の3次元形状が予測される場合、第1及び第2の損失関数の両方が、介入装置の予測される3次元形状の精度を改善するために、推定中にニューラルネットワーク140のパラメータを調整するのに使用され得、第1の損失関数は、既知の3次元装置形状と「フレーム0」から予測される3次元装置形状とを比較し、第2の損失関数は、介入装置の予測される3次元形状の各2次元投影S250と介入装置の入力された2次元X線画像とを比較する。
介入装置の3次元形状を予測するためのシステムも、提供される。それに加えて、図10は、本開示のいくつかの態様による、介入装置の3次元形状を予測するためのシステム300を示す概略図である。システム300は、コンピュータ実施推定方法に関連して上述した動作のうちの1つ又は複数を実行するように構成された1つ又は複数のプロセッサ390を含む。システムは、また、図10に示されるCアームX線撮像システムのようなX線撮像システム、又はOアーム及びU字形アームなどを含む、Cアームに対する別のタイプの支持構造を有するX線撮像システムを含み得る。使用中、X線撮像システムは、推定方法への入力として使用される、血管領域内の介入装置の2次元投影を表すX線画像データ220を生成し得る。システム300は、また、図10に示されるような1つ以上のディスプレイ、及び/又はキーボード若しくはタッチスクリーンなどのユーザインターフェース装置、並びに方法の実行を制御するためのマウスなどのポインティング装置、及び/又は患者ベッドを含み得る。
上記の例は、本開示を例示するものとして理解されるべきであり、限定するものではない。更なる例も、企図される。例えば、コンピュータ実装方法に関連して説明した例は、対応する方法で、コンピュータプログラム製品によって、又はコンピュータ可読記憶媒体によって、又は処理装置によって、又はシステム300によっても提供され得る。任意の1つの例に関連して記載される特徴は、単独で、又は他の記載される特徴と組み合わせて使用され得、また、別の例の1つ又は複数の特徴、又は他の例の組み合わせと組み合わせて使用され得ることを理解されたい。更に、上記で説明されていない均等物及び修正物も、また、添付の特許請求の範囲で定義される本発明の範囲から逸脱することなく、採用され得る。請求項において、単語「有する」は、他の要素又は動作を排除するものではなく、不定冠詞「a」又は「an」は、複数性を排除するものではない。特定の特徴が相互に異なる従属請求項に記載されているという単なる事実は、これらの特徴の組み合わせが有利に使用されることができないことを示すものではない。請求項におけるいかなる参照符号も、それらの範囲を限定するものとして解釈されるべきではない。

Claims (15)

  1. 血管領域内に配置された介入装置の3次元形状を予測するためのニューラルネットワークを提供するシステムの作動方法において、前記システムは、プロセッサを有し、前記方法は、
    前記プロセッサが、前記血管領域の3次元形状を表す体積画像データを受信するステップと、
    前記プロセッサが、前記血管領域内の前記介入装置の1つ又は複数の2次元投影を表すX線画像データを受信するステップと、
    前記プロセッサが、前記介入装置の前記1つ又は複数の2次元投影に対応する前記血管領域内の前記介入装置の3次元形状を表すグラウンドトゥルース介入装置形状データを受信するステップと、
    前記プロセッサが、前記受信されたX線画像データ及び前記受信された体積画像データから、前記血管領域によって拘束された前記介入装置の3次元形状を予測するためのニューラルネットワークを訓練するステップであって、前記受信されたX線画像データ及び前記受信された体積画像データを前記ニューラルネットワークに入力し、前記ニューラルネットワークによって予測される前記介入装置の3次元形状と、前記受信されたグラウンドトゥルース介入装置形状データとの間の差を表す第1の損失関数に基づいて前記ニューラルネットワークのパラメータを調整し、前記ニューラルネットワークによって予測される前記介入装置の前記3次元形状が、前記受信された体積画像データによって表される前記血管領域の前記3次元形状内にフィットするように、前記調整を拘束することによって、訓練するステップと、
    を有する、方法。
  2. 前記ニューラルネットワークのパラメータの前記調整は、前記ニューラルネットワークによって予測された前記介入装置の前記3次元形状の2次元投影と、前記受信されたX線画像データとの間の差を表す第2の損失関数に更に基づいており、前記介入装置の前記3次元形状の前記2次元投影、及び前記受信されたX線画像データが、共通の表面上に投影される、請求項1に記載の方法。
  3. 前記プロセッサが、前記ニューラルネットワークによって予測される前記介入装置の前記3次元形状の推定される不確実性さを計算するステップを更に有する、請求項1又は2に記載の方法。
  4. 前記体積画像データは、
    コンピュータ断層撮影画像データと、
    造影コンピュータ断層撮影画像データと、
    3D超音波画像データと、
    コーンビームコンピュータ断層撮影画像データと、
    磁気共鳴画像データと、
    解剖学的アトラスモデルデータと、
    前記血管領域の1つ又は複数の2次元投影を表すX線画像データを再構成することによって生成される再構成された体積画像データと、
    のうちの1つ又は複数を有する、請求項1乃至3のいずれか一項に記載の方法。
  5. 前記プロセッサが、前記介入装置の前記1つ又は複数の2次元投影を提供するために、前記受信されたX線画像データをセグメント化するステップを有し、前記受信されたX線画像データを前記ニューラルネットワークに入力することが、前記セグメント化された受信されたX線画像データを前記ニューラルネットワークに入力することを含む、請求項1乃至4のいずれか一項に記載の方法。
  6. 前記グラウンドトゥルース介入装置形状データは、
    コンピュータ断層撮影画像データと、
    造影コンピュータ断層撮影画像データと、
    コーンビームコンピュータ断層撮影画像データと、
    前記介入装置に機械的に結合された複数の光ファイバ形状センサによって生成された光ファイバ形状感知位置データと、
    前記介入装置に機械的に結合された1つ又は複数の電磁追跡センサ又はエミッタによって生成された電磁追跡位置データと、
    前記介入装置に機械的に結合された1つ又は複数の誘電体センサによって生成された誘電体マッピング位置データと、
    前記介入装置に機械的に結合された1つ又は複数の超音波追跡センサ又はエミッタによって生成された超音波追跡位置データと、
    のうちの1つ又は複数を有する、請求項1乃至5のいずれか一項に記載の方法。
  7. 前記ニューラルネットワークを訓練するステップは、前記ニューラルネットワークによって予測される前記介入装置の前記3次元形状が、前記介入装置の1つ又は複数の機械的拘束を満たすように、前記調整を制約することを含む、請求項1乃至6のいずれか一項に記載の方法。
  8. 前記ニューラルネットワークは、畳み込みニューラルネットワーク、エンコーダデコーダネットワーク、敵対的生成ネットワーク、カプセルネットワーク、回帰ネットワーク、強化学習エージェント、再帰ニューラルネットワーク、長期短期メモリネットワーク、時間畳み込みネットワーク、及び変換器のうちの1つ又は複数を有する、請求項1乃至7のいずれか一項に記載の方法。
  9. 前記受信された体積画像データが、解剖学的特徴の3次元形状を更に表し、前記受信されたX線画像データが、前記解剖学的特徴の2次元投影を更に表し、前記ニューラルネットワークの前記訓練が、前記受信されたX線画像データから、前記介入装置の前記3次元形状に対する前記解剖学的特徴の位置を予測するように前記ニューラルネットワークを訓練することを更に含み、更に、前記介入装置の前記3次元形状に対する前記解剖学的特徴の前記予測された位置と、前記受信された体積画像データにおける前記血管領域の前記3次元形状に対する前記解剖学的特徴の前記位置との間の差に基づいて前記調整を拘束することを含む、請求項1乃至8のいずれか一項に記載の方法。
  10. 血管領域内に配置された介入装置の3次元形状を予測するシステムの作動方法において、前記システムは、プロセッサを有し、前記方法は、
    前記プロセッサが、前記血管領域の3次元形状を表す体積画像データを受信するステップと、
    前記プロセッサが、前記血管領域内の前記介入装置の1つ又は複数の2次元投影を表すX線画像データを受信するステップと、
    前記プロセッサが、前記受信されたX線画像データ及び前記受信された体積画像データから、前記血管領域によって拘束される前記介入装置の3次元形状を予測するように訓練されたニューラルネットワークに、前記受信されたX線画像データ及び前記受信された体積画像データを入力し、前記入力に応答して、前記ニューラルネットワークを使用して、前記受信されたX線画像データ及び前記受信された体積画像データから、前記血管領域によって拘束される前記介入装置の3次元形状を予測するステップと、
    を有する方法。
  11. 前記プロセッサが、前記介入装置の少なくとも1つの予測された2次元投影を提供するように、前記ニューラルネットワークによって予測された前記介入装置の前記予測された3次元形状を、少なくとも1つの表面上に投影するステップを更に有する、請求項10に記載の方法。
  12. 前記投影するステップは、前記ニューラルネットワークによって予測された前記介入装置の前記予測された3次元形状を複数の交差する表面上に投影することを含む、請求項11に記載の方法。
  13. 前記ニューラルネットワークは、前記血管領域内の前記介入装置の1つのみの2次元投影と、前記受信された体積画像データとから、前記血管領域によって拘束される前記介入装置の前記3次元形状を予測するように訓練される、請求項10乃至12のいずれか一項に記載の方法。
  14. 血管領域内に配置された介入装置の3次元形状を予測するためのシステムにおいて、請求項10に記載の方法を実行するように構成された1つ又は複数のプロセッサを有する、システム。
  15. 1つ又は複数のプロセッサによって実行されると、前記1つ又は複数のプロセッサに、請求項1又は請求項10に記載の方法を実行させる命令を有するコンピュータプログラム。
JP2023528482A 2020-11-20 2021-11-16 介入装置形状の決定 Active JP7421689B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063116184P 2020-11-20 2020-11-20
US63/116,184 2020-11-20
PCT/EP2021/081758 WO2022106377A1 (en) 2020-11-20 2021-11-16 Determining interventional device shape

Publications (2)

Publication Number Publication Date
JP2023546521A JP2023546521A (ja) 2023-11-02
JP7421689B2 true JP7421689B2 (ja) 2024-01-24

Family

ID=78806493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023528482A Active JP7421689B2 (ja) 2020-11-20 2021-11-16 介入装置形状の決定

Country Status (5)

Country Link
US (1) US20230334686A1 (ja)
EP (1) EP4248404B1 (ja)
JP (1) JP7421689B2 (ja)
CN (1) CN116472553A (ja)
WO (1) WO2022106377A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024110335A1 (en) 2022-11-21 2024-05-30 Koninklijke Philips N.V. Providing projection images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180279974A1 (en) 2017-04-03 2018-10-04 Katharina Breininger Determining stiffness information of a medical instrument
CN111798451A (zh) 2020-06-16 2020-10-20 北京理工大学 基于血管3d/2d匹配的3d导丝跟踪方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5631585B2 (ja) 2006-03-22 2014-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ.ヴィ. 光ファイバ機器センシングシステム
RU2016145933A (ru) 2014-04-29 2018-05-29 Конинклейке Филипс Н.В. Устройство для определения конкретного положения катетера
US10278616B2 (en) 2015-05-12 2019-05-07 Navix International Limited Systems and methods for tracking an intrabody catheter
WO2020030557A1 (en) 2018-08-08 2020-02-13 Koninklijke Philips N.V. Tracking an interventional device respective an ultrasound image plane

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180279974A1 (en) 2017-04-03 2018-10-04 Katharina Breininger Determining stiffness information of a medical instrument
CN111798451A (zh) 2020-06-16 2020-10-20 北京理工大学 基于血管3d/2d匹配的3d导丝跟踪方法及装置

Also Published As

Publication number Publication date
US20230334686A1 (en) 2023-10-19
WO2022106377A1 (en) 2022-05-27
EP4248404B1 (en) 2024-06-26
CN116472553A (zh) 2023-07-21
JP2023546521A (ja) 2023-11-02
EP4248404A1 (en) 2023-09-27

Similar Documents

Publication Publication Date Title
JP7312301B2 (ja) 次数低減モデル及び/または機械学習を使用して血流特性を推定するためのシステム及び方法
CN106037710B (zh) 在医学成像中合成数据驱动的血液动力学测定
US10646185B2 (en) iFR-CT
US11931195B2 (en) Assessment of coronary artery calcification in angiographic images
JP7421689B2 (ja) 介入装置形状の決定
CN111954907A (zh) 基于机器学习的血管成像中的分辨和操纵决策焦点
US20230102246A1 (en) Probabilistic tree tracing and large vessel occlusion detection in medical imaging
US20240020877A1 (en) Determining interventional device position
EP4186455A1 (en) Risk management for robotic catheter navigation systems
JP7426824B2 (ja) 非侵襲的イメージングベースのffrのインタラクションモニタリング
JP2024515068A (ja) 介入装置のナビゲート
EP4181058A1 (en) Time-resolved angiography
EP4173585A1 (en) Method for identifying a vascular access site
US20230178248A1 (en) Thrombus treatment metric
US20240029868A1 (en) Ai-based analysis of coronary angiograms
WO2024110335A1 (en) Providing projection images
WO2023186610A1 (en) Intravascular procedure step prediction
WO2023083700A1 (en) Time-resolved angiography
WO2023072973A1 (en) Identifying a vascular access site
WO2023104559A1 (en) Thrombus treatment metric
Manandhar et al. Automated IVUS Segmentation using Deformable Template Model with Feature Tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240112

R150 Certificate of patent or registration of utility model

Ref document number: 7421689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150