JP2024518533A - マルチスケール超音波追跡および表示 - Google Patents

マルチスケール超音波追跡および表示 Download PDF

Info

Publication number
JP2024518533A
JP2024518533A JP2023570093A JP2023570093A JP2024518533A JP 2024518533 A JP2024518533 A JP 2024518533A JP 2023570093 A JP2023570093 A JP 2023570093A JP 2023570093 A JP2023570093 A JP 2023570093A JP 2024518533 A JP2024518533 A JP 2024518533A
Authority
JP
Japan
Prior art keywords
medical instrument
hmd
image plane
determining
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023570093A
Other languages
English (en)
Inventor
ケー.サウスワース マイケル
マイケル アンドリューズ クリストファー
ソリアーノ イグナシオ
ベア ヘンリー アレクサンダー
アール.シルヴァ ジョナサン
エヌ.アヴァリ シルヴァ ジェニファー
Original Assignee
エクセラ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エクセラ インコーポレイテッド filed Critical エクセラ インコーポレイテッド
Publication of JP2024518533A publication Critical patent/JP2024518533A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

一実施形態において、システムは、ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出する。システムは、医療器具に結合された第2の電磁センサからデータを受信し、電磁場を検出する。システムは、超音波プローブに対するHMDの位置を決定する。システムは、超音波プローブに対する医療器具の位置を決定する。システムは、超音波画像平面に対して配向された医療器具の経路の視覚化を生成する。システムは、HMDを装着しているユーザにHMDによって表示するためのグラフィックを提供し、グラフィックは、超音波画像平面上に表示される超音波プローブによってキャプチャされた視覚化および画像データを含む。

Description

本開示は、一般に、医療環境内の超音波に関与する処置中の情報の表示および注釈に関する。
本出願は、2021年5月10日に出願された米国仮出願第63/186,393号の優先権の利益を主張し、これは、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
超音波画像化に関わる医療処置では、制御された環境または無菌環境で作業する1人または複数のオペレータが、感知された画像情報を直接観察可能な物理情報と組み合わせて医療処置を完了する。直接的および間接的に観察可能な処置情報の翻訳、組み合わせ、および解釈は、医療処置の効率的かつ効果的な完了に障害をもたらす。
場合によっては、実施する医師は、処置中に無菌状態を維持しなければならない。場合によっては、無菌状態の有無にかかわらず、医師は医療処置の間、超音波および他の処置器具の直接的な物理的制御を維持しなければならない。医療処置情報の設定、構成、制御、及び/または表示の態様は、医療処置のいくつかまたはすべての段階の間にアクセス可能である必要があり得る。無菌性または器具の直接制御の要件は、処置が開始されると、処置を停止することなく、および/または、従来の医療情報システムインターフェース、例えば、キーボード、マウス、ジョイスティック、または物理的ボタンを使用して、処置を行う人員の指導の下でタスクを実行するために追加の人員の支援を引き出すことなく、処置を行う人員が重要なタスクを実行する能力を妨げる可能性がある。
本発明の実施形態は、任意の数の器具情報を有する任意の数の画像データを追跡、構成、及び表示するシステムを提供する。一実施形態において、方法は、ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信するステップと、超音波プローブに結合された電磁基準源によって生成された電磁場を検出するステップとを含む。方法は、医療器具に結合された第2の電磁センサからデータを受信し、電磁場を検出するステップをさらに含む。方法は、第1の電磁センサからのデータを処理することによって、超音波プローブに対するHMDの位置を決定するステップをさらに含む。方法は、第2の電磁センサからのデータを処理することによって、超音波プローブに対する医療器具の位置を決定するステップをさらに含む。方法は、HMDの位置および医療器具の位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された医療器具の経路の視覚化を生成するステップをさらに含む。方法は、HMDを装着しているユーザにHMDによって表示されるためのグラフィックを提供するステップをさらに含み、グラフィックは、超音波画像平面上に表示される超音波プローブによってキャプチャされた視覚化および画像データを含む。
一実施形態において、方法は、HMDに結合された第3の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出するステップと、第1の電磁センサからのデータおよび第3の電磁センサからのデータを処理することによって、第1の磁気センサと第2の磁気センサとの間の差動信号に基づいてHMDの向きを決定するステップをさらに含む。一実施形態において、HMDの向きは、HMDの慣性測定ユニットによってキャプチャされたデータに基づいてさらに決定される。
一実施形態において、方法は、医療器具の慣性測定ユニットによってキャプチャされたデータと、第2の電磁センサからのデータとを集約することによって、医療器具の向きを決定するステップをさらに含む。
一実施形態において、方法は、HMDの画像センサによってキャプチャされた画像データを処理することによって超音波プローブの位置を決定するステップをさらに含み、グラフィックは、超音波プローブの位置からのオフセットでユーザに表示される。
一実施形態において、方法は、医療器具の先端と医療器具に結合された第2の電磁センサの位置との間のオフセット距離を決定するステップをさらに含み、視覚化は、オフセット距離に基づいて生成される。
一実施形態において、方法は、医療器具の第1の座標系を超音波プローブの第2の座標系にマッピングするための第1の変換を決定するステップと、HMDの第3の座標系を超音波プローブの第2の座標系にマッピングするための第2の変換を決定するステップとをさらに含み、視覚化は、第1の変換および第2の変換を使用して生成される。
別の実施形態において、システムは、超音波プローブに結合され、電磁場を生成するように構成された電磁基準源と、ヘッドマウントディスプレイ(HMD)に結合され、電磁場を検出するように構成された第1の電磁センサと、医療器具に結合され、電磁場を検出するように構成された第2の電磁センサと、命令を格納する非一時的なコンピュータ可読記憶媒体とを備え、1つまたは複数のプロセッサによって実行されたときに命令は、1つまたは複数のプロセッサに、第1の電磁センサからのデータを処理することによって、超音波プローブに対するHMDの位置を決定することと、第2の電磁センサからのデータを処理することによって、超音波プローブに対する医療器具の位置を決定することと、HMDの位置及び医療器具の位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された医療器具の経路の視覚化を生成することと、HMDを装着しているユーザにHMDによって表示されたグラフィックを提供することであって、画像は、超音波画像平面上に表示される超音波プローブによってキャプチャされた視覚化及び画像データを備えるシステム。
一実施形態において、システムは、超音波プローブ、HMD、および医療器具をさらに備える。一実施形態において、第1の電磁センサ及び第2の電磁センサは無線である。一実施形態において、医療器具は、針、カニューレ、生検装置、または焼灼装置である。
別の実施形態において、方法は、超音波画像平面の画像データを受信するステップを含む。方法は、超音波画像平面に対する医療器具の位置を決定するステップをさらに含む。方法は、超音波画像平面に対する医療器具の向きを決定するステップをさらに含む。方法は、医療器具の位置および向きに基づいて、医療器具の軌道を決定するステップをさらに含む。方法は、ヘッドマウントディスプレイ(HMD)によって、医療器具の軌道を示す器具経路を表示するステップをさらに含む。方法は、軌道に沿った医療器具の更新された位置に基づいて、医療器具が超音波画像平面上の交点に到達したと決定するステップをさらに含む。方法は、HMDによって、医療器具が超音波画像平面上の交点に到達したことを示す器具経路の更新されたバージョンを表示するステップをさらに含む。
様々な実施形態において、非一時的なコンピュータ可読記憶媒体は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに本明細書に記載の方法のいずれかのステップを実行させる命令を格納する。
様々な実施形態における、超音波画像及びデバイス追跡のための処理システムの例示的なシステム環境を示す図である。 様々な実施形態における、超音波イメージングのための例示的なグラフィカルユーザインターフェースを示す図である。 様々な実施形態における、ヘッドマウントディスプレイ上のセンサ位置を示す図である。 様々な実施形態における、図1のシステム環境のブロック図である。 様々な実施形態における、処理システムのデータフロー図である。 様々な実施形態における、器具をナビゲートするための例示的なグラフィカルユーザインターフェースを示す図である。 様々な実施形態における、器具をナビゲートするための追加の例示的なグラフィカルユーザインターフェースを示す図である。 様々な実施形態における、器具をナビゲートするためのヘッドアップディスプレイを示す図である。 様々な実施形態における、複数のセンサを使用して器具を追跡するためのプロセスのフローチャートである。 様々な実施形態における、器具をナビゲートするためのプロセスのフローチャートである。
図面は、例示のみを目的として本発明の実施形態を示す。当業者は、本明細書に例示された構造および方法の代替的実施形態が、本明細書に記載の本発明の原理から逸脱することなく利用することができることを以下の説明から容易に認識する。
I.システム環境
図1は、様々な実施形態における、超音波画像化のための処理システムの例示的なシステム環境を示す。図2は、様々な実施形態における、超音波画像化のための例示的なグラフィカルユーザインターフェースを示す。様々な実施形態において、システムは、ヘッドマウントディスプレイ(HMD)デバイス100、器具110(例えば、針、デバイスを血管に挿入するためのカニューレ、生検デバイス、または焼灼デバイス)、超音波プローブ120、および任意選択のディスプレイ130のうちの1つまたは複数を含む。システムはまた、ユーザ入力方法、任意の数の構成可能な超音波情報源、任意の数の構成可能な器具追跡情報源、デバイス間の通信手段、プロセッサ、および記憶デバイスのうちの1つまたは複数を含み得る。通信手段は、無線及び有線通信の任意の数の組み合わせを含む。
超音波情報源は、複数の物理的デバイスから、または処置中の異なる時間、構成、および位置からの同じ物理的デバイスからであり得る。画像情報はまた、コンピュータ断層撮影(CT)または磁気共鳴撮像(MRI)などの他の画像モダリティから導出されてもよい。様々な実施形態において、超音波情報源は、超音波プローブ120である。
追跡情報源は、電磁(EM)、光学、超音波、慣性、磁力計、加速度計、または全地球測位システム(GPS)センサを含むローカルまたはグローバル測位センサを含む。様々な実施形態において、電磁源は、超音波プローブ120に結合(例えば、剛体結合)されてもよく、さらに、電磁センサは、HMD100及び器具110に結合(例えば、剛体結合)されてもよい。結果として、処理システムは、電磁センサからのデータを使用して、超音波プローブ120の電磁源に対するHMD100及び器具110の位置及び向きを追跡することができる。
HMD100は、ヘッドアップディスプレイまたは拡張現実ディスプレイとしてユーザに提示され得る超音波画像情報または器具情報をユーザが閲覧または対話するための手段を提供する。HMDの例としては、マイクロソフトのHOLOLENSがある。
処置情報の表示は、HMD100を通して達成され、処理システムの追跡に応答して情報源の位置で投影200として表示され得る。図2に示される例において、超音波情報は、追跡された超音波画像平面内の超音波プローブの先端の投影200(「プローブ先端ディスプレイ」)に表示される。別の態様において、超音波情報はまた、医師の作業領域を不明瞭にすることを防止するため、同じ方向(または回転した構成で)でツール先端からの設定可能なオフセットで表示され得る(「プローブロック表示」)。さらに、任意の追加的に追跡された器具は、感知された超音波に対する追跡された向き及び位置(「ポーズ」)で表示され得る。この追加的な器具情報には、システムの追跡情報に応答して、現在の方向および位置、現在の軌道に沿って前進した場合の投影された方向および位置、器具の交点までの距離、および交点の角度が含まれる。
別の態様において、超音波および器具情報は、着用者に対する固定された向きでツール先端の位置に応答して表示され得る(「掲示(billboarded)」)。図2に示される例において、HMD100は、ヘッドアップディスプレイ210として掲示板表示をユーザに提示する。ある態様において、3D針先端ポーズは、超音波画像上に重ねて3Dで直接表示され、画像平面に対する針の距離、サイズ、及び角度を直感的に伝える。掲示板表示はまた、投影された針の軌道および画像平面との交点を示すことができる。別の態様において、2Dまたは3D注釈は、画像平面に重ねられ、画像内の画像平面への針の距離を変換し、これは、図6~図8に関してさらに説明される。
いくつかの実施形態において、超音波および器具のポーズ、距離、および/または交点情報は、3Dコンテンツを2Dディスプレイにレンダリングする従来の技術を介して、HMD100の仮想環境に固定されているか、または医療環境内の物理ディスプレイデバイス130に追加的に表示され得る。HMD100、器具110、および超音波プローブ120の追跡情報は、画像の向きを自動的に変えるかまたは反転して使用され、掲示板表示、プローブ先端表示、およびプローブロック表示において正しい視点で表示し得る。
デバイスの追跡は、異なる空間的及び時間的解像度の追跡情報の複数のソースの全体の組み合わせによって達成される。デバイスは、HMD100、超音波画像源(例えば、超音波プローブ120)、及び1つまたは複数の医療器具110を含む。各追跡情報源は、異なる解像度及び異なる更新レートで、位置、向き、及び対応する速度及び加速度における任意の数の追跡情報の更新を提供する。一実施形態において、異なる電磁追跡センサはHMD100及び器具110に取り付けられ、電磁基準源(electromagnetic reference source)は超音波プローブ120に取り付けられる。超音波プローブ120上の超音波基準源と器具110との間の距離は、例えば、EMセンサデータのより低いノイズに起因して、超音波源とHMDとの間の精度を改善するために減少または最小化される。任意の数の追加の電磁センサまたは基準源は、追跡情報の追加源を提供し、追跡精度を改善し得る。
図3は、様々な実施形態における、ヘッドマウントディスプレイ100上のセンサ位置を示す。いくつかの実施形態において、1つまたは複数の電磁センサまたはアンテナは、HMD100に結合され、HMD100と電磁基準源との間の角度及び距離の精度の処理システムの決定を改善する。図3に示される例において、HMD100は、右電磁センサ300及び左電磁センサ310を含む。異なる空間的及び時間的解像度の追跡システムの整合及び較正は、異なるセンサの剛体変換または基準データセットを介した較正によって達成される。
一実施形態において、複数のセンサは、センサ間の既知または測定可能な距離および向きを有する剛体に固定され、各測定基準フレームからの情報の組み合わせを可能にする。この一例は、HMD100に取り付けられた電磁センサからカメラ測定基準フレームへの剛体変換である。この別の例は、電磁センサまたは基準に固定された光学追跡マーカー(例えば、既知のスケールのQRコード)である。これの別の例は、超音波画像平面内の器具(例えば、針)及び対応する電磁センサポーズの検出及び整合である。いくつかの実施形態において、HMD100は、飛行時間カメラ、同時ローカリゼーション及びマッピング、および1つまたは複数の電磁センサからのネイティブ空間追跡を提供する。
II.データ処理
図4は、様々な実施形態における、図1のシステム環境のブロック図である。HMD100は、ローカルスケールでの整合のための複数のセンサを含む。これには、任意の数の3D画像センサ(例えば、深度カメラ及びLiDAR)、光学画像センサ(2Dカメラ)、慣性センサ、及び電磁センサが含まれる。超音波プローブ120は、超音波画像センサ、電磁基準源、及び任意選択の慣性センサを含む。器具110は、任意選択の慣性センサ及び1つまたは複数の電磁センサを含む。いくつかの実施形態において、処理システム400は、超音波プローブ120に結合された電磁基準源とは異なる1つまたは複数の電磁基準源からのEMセンサデータを使用する。例えば、別の電磁基準源は、システム環境内の固定源であり得る。
処理システム400は、較正及びフィルタリングデータを使用して、各デバイス(すなわち、HMD100、超音波プローブ120、及び器具110)のローカルスケール変換を組み合わせて計算する。処理システム400はさらに、複数のデバイス推定を組み合わせて、各ローカルデバイス、デバイス間、及びセンサ基準フレーム間の変換ならびに較正及びフィルタリングパラメータを更新する。異なるフィルタを使用することによって、処理システム400は、ローカルスケールノイズ(デバイスレベルで)及びグローバルスケールノイズを低減することができ、これにより、処理システム400は、測定誤差と、HMD100及び器具110などのデバイスの実際の移動とを区別することができる。2つの例示的な較正プロセスは、幾何学的制約較正及びハンドアイ較正を含む。
幾何学的制約較正は、ピボットポイントを中心とした器具の回転などの既知の形態が使用する。様々な実施形態において、処理システム400は、幾何学的制約較正を使用して、器具110の先端の位置と器具110に結合されたEMセンサの位置との間のオフセット距離を考慮する。EMセンサが必ずしも医療処置のために追跡される先端に結合されていないため、オフセットが存在する。
3D情報の表面の整合は、反復最近点(IPC)などの整合アルゴリズムを使用して達成されるか、またはレンダリングされた3Dデータ上の相互情報など統計的整合メトリックまたはスケール不変特徴変換(SIFT)またはスピードアップロバスト特徴(SURF)などの特徴ベースのアプローチを使用して2Dから3Dに登録され得る。位置及び向き情報は、カルマンフィルタリングまたは粒子フィルタリングなどのフィルタリング技術を使用して、異なる時間レートからの情報を使用して補間され得る。フィルタリング技術(例えば、アンセンテッドカルマンフィルタリング)からの推定パラメータは、同じモダリティのセンサ間(例えば、電磁センサから電磁センサ)またはモダリティ間(例えば、電磁源基準から光学トラッカー基準へ)の剛体変換を推定および修正するために使用され得る。
ハンドアイ較正(「ロボットワールド」または「ロボットセンサ」較正とも呼ばれる)アルゴリズムはまた、更新された推定値を改善して、各センサ間のモーメントアームの解を更新し得る。様々な実施形態において、処理システム400は、ハンドアイ較正を使用して、座標系を異なる座標系にマッピングする。処理システム400は、異なる座標系を有する複数のセンサ及びデバイスからデータを受信するため、処理システム400は、1つまたは複数のマッピングを実行して、複数の源からデータを集約する。
ハンドアイ較正において、処理システム400は、フィルタリングアルゴリズムまたはフィルタリングアルゴリズムのアンサンブルを使用して各パラメータおよび変換推定を処理し、変換が更新されるときの応答を滑らかにすることができる。これらは、線形二次エスティメータ、拡張カルマンフィルタ、及びアンセンテッドカルマンフィルタを個別に、または組み合わせて、粒子フィルタを使用して前方予測することを含み得る。これらのコンポーネントは、環境の現在の推定モデル内の感知されたオブジェクトの現在の最良の推定モデルを提供する。
超音波画像及び器具EMポーズにおける器具位置の抽出は、画像平面と器具位置との間の較正フィルタを更新するために使用され得る。さらに、この情報は、伝播する超音波の速度に関する周波数、深さ、および組織密度を含む超音波画像のパラメータを更新するために使用され得る。
様々な実施形態において、処理システム400は、組織の深さを使用し、異なる媒体を通る音速の変動に起因する任意の測定誤差を考慮する。超音波画像は、媒体(例えば、組織)を通って伝播する超音波の移動時間に基づくため、異なる組織の深さまたは密度は、処理システム400によって予測される器具の交点に影響を与えることができる。較正中、処理システム400は、特定の媒体または密度に関連付けられた補正係数を使用して、音の測定誤差の任意の速度を低減することができる。
図5は、様々な実施形態における処理システム400のデータフロー図である。処理システム400は、画像整合データ、3D整合データ、及び複数のデバイス、すなわち、HMD100及び超音波プローブ120からの画像ベースの検出及び追跡データを集約するグローバルスケールエスティメータ500を含む。超音波プローブ120は、EM基準源、IMU、光学整合ターゲット、及び超音波画像センサのうちの1つまたは複数からのデータを処理するローカルスケールエスティメータ510を有する。HMD100は、EMセンサ、IMU、3D画像センサ、及び他のタイプの画像センサのうちの1つまたは複数からのデータを処理するローカルスケールエスティメータ520を有する。グローバルスケールエスティメータ500をローカルスケールエスティメータ510および520と組み合わせて使用することにより、処理システム400は、複数のデバイスの互いに対する異なる位置及び向きを同時に解くことができる。例えば、処理システム400は、超音波プローブ120に対するHMD100の位置及び向きを決定する。さらに、処理システム400は、超音波プローブ120に対する1つまたは複数の器具110の位置及び向きを決定する。
いくつかの実施形態において、処理システム400は、反復最近接点(IPC)などのマッチング方法を使用して、個々の(ローカル)追跡システムからのポイントデータを相関させる。この方法において、処理システム400は、現在最もよく知られている時間対応及び各座標系間の幾何学変換を使用してデータ間のポイント対応を決定し、誤差を提供し、時間対応及び幾何学変換を更新する。
別の実施形態において、処理システム400は、異なる距離及び向きからのセンサ間で感知されたデータを使用して、各測定基準フレームからの変換を計算する。この一例は、異なる位置およびポーズからの超音波情報の整合である。この別の例は、HMD100および超音波情報からの3D体積または表面情報の整合である。3D情報は、飛行時間光学センシング、前処置CTまたはMRIなどのセンサを使用して直接検知されてもよく、または運動からの構造復元(SFM)および自己位置推定とマッピングの同時実行(SLAM)などのアルゴリズムを使用して導出されてもよい。
様々な実施形態において、処理システム400は、予測された変換を使用して、これらのデバイスのそれぞれの間の変換を計算する。これらの変換は、粒子フィルタリング及び/またはカルマンフィルタリングなどのフィルタリングを使用して、更新間で補間されるか、または前方に予測される。これらの変換は、測定された剛体変換、および感知された情報からの推定変換を使用して更新される。これらの変換は、ICPなどの3D整合、もしくはMIまたはSIFT/SURFなどの3Dから2Dへの技術を使用して更新され得る。3Dデータは、プローブから感知された超音波またはHMDからの光学画像からSFMまたはSLAMを使用して2Dデータから計算され得る。2Dデータは、物理ベースのレンダリングを使用して3Dから光学または超音波画像に計算され得る。
各デバイスは、各センサ間の変換のローカルスケールを計算して、ローカルスケールエスティメータの一貫したローカル基準フレーム内の各デバイスのポーズ推定を提供する。処理システム400は、複数のローカルスケールエスティメータからのデータを組み合わせて変換を計算することによって、ローカルスケールデータ間のグローバルスケール変換を計算する。さらに、グローバルスケールエスティメータ500は、ローカルスケールエスティメータで使用される基準フレーム間の更新された変換を計算し、ポーズ推定を更新し得る。
III.ユーザインターフェースの例
図6は、様々な実施形態における、器具をナビゲートするための例示的なグラフィカルユーザインターフェースを示す図である。図示された使用例において、ユーザは、針器具110を、例えば、患者の静脈または他の身体部分上のターゲット交点までナビゲートしている。
パネル600は、器具先端が超音波画像平面620からの閾値距離の外側にあるときに、3Dで重ねた器具経路インジケータ610を示すユーザインターフェースを示す。器具経路インジケータ610は、器具の投影軌道である。処理システム400は、例えば、センサデータに基づいて器具経路インジケータ610を更新し、器具のユーザ制御に応答して位置または向きの任意の変化を反映する。マーカー630は、超音波画像平面620上の器具経路インジケータ610の投影された交点を示す。器具経路インジケータ610は、デフォルトの色で塗りつぶされる(または色がない、例えば、透明である)。図6に示される例において、器具経路インジケータ610は円柱として示され、マーカー630は円として示されるが、他の実施形態において、器具経路インジケータ610及びマーカー630は、他のタイプの形状またはグラフィックを使用して示され得る。ユーザインターフェースはまた、他のタイプの2Dまたは3D注釈を含み得る。
パネル640は、器具先端が超音波画像平面620からの閾値距離の間にあるが、まだ超音波画像平面620と交差していないときの器具経路インジケータ610を示す。左山括弧と右山括弧との間の距離は、器具先端と超音波画像平面620との間の距離に比例する。「平面前方の色」で塗りつぶされた器具経路インジケータ610の部分650は、器具が超音波画像平面620からの閾値距離を越えてナビゲートした距離に比例する。器具経路インジケータ610の残りの部分は、デフォルトの色で塗りつぶされる。各山括弧の先端は、交点の方に向けられ、器具経路インジケータ610が超音波画像平面620の方に向けられていることを示す。図6に示される例において、左山括弧および右山括弧は、直角として示されるが、他の実施形態において、この一対のインジケータは、他の角度またはタイプの形状またはグラフィックを使用して示され得る。
パネル660は、器具先端が超音波画像平面620との交点に到達したときのユーザインターフェースを示す。左及び右山括弧は、マーカー630の中心で交差する。図6に示される例において、「平面前方の色」で陰影が付けられている器具経路インジケータ610の割合は、半分である。器具経路インジケータ610の残りの部分は、デフォルトの色で塗りつぶされている。
パネル670は、器具先端が超音波画像平面620を越えてナビゲートしたときのユーザインターフェースを示す。各山括弧の頂点は、交点及びマーカー630から離れる方向を向いており、器具経路が超音波画像平面620から離れる方向を向いていることを示す。この例のパネル660にも示されるように、「平面前方の色」で陰影が付けられている器具経路インジケータ610の割合は、半分のままである。より暗い「平面後方の色」で陰影付けされている器具経路インジケータ610の部分680は、超音波画像平面620を越えた器具先端の距離に比例する。器具経路インジケータ610の残りの部分は、デフォルトの色で塗りつぶされている。
図7は、様々な実施形態における、器具をナビゲートするための追加の例示的なグラフィカルユーザインターフェースを示す図である。パネル700は、器具先端が超音波画像平面からの閾値距離の外側にあるときの、図6のパネル600に示されるシナリオに対応する。パネル710は、器具先端が超音波画像平面との交点に到達するときの、図6のパネル660に示されるシナリオに対応する。パネル720は、器具先端が超音波画像平面を越えてナビゲートしたときの、図6のパネル670に示されるシナリオに対応する。
図8は、様々な実施形態における、器具をナビゲートするためのヘッドアップディスプレイを示す図である。処理システム400は、器具先端の位置に基づいて、ヘッドアップディスプレイ(HMD100によってユーザに提示される)を更新する。例えば、器具経路インジケータ、左山括弧、及び右山括弧の表示は、図6に関して以前に説明された異なるシナリオに従って更新される。
IV.プロセスフローの例
図9は、様々な実施形態における、複数のセンサを使用して器具を追跡するためのプロセス900のフローチャートである。処理システム400は、プロセス900を使用して、HMD100を装着し、器具110を制御するユーザに視覚的ガイダンスを提供し得る。
ステップ910において、処理システム400は、HMD100に結合された(例えば、剛体結合された)第1の電磁センサからデータを受信し、超音波プローブ120に結合された(例えば、剛体結合)電磁基準源によって生成された電磁場を検出する。ステップ920において、処理システム400は、医療器具110に結合された(例えば、剛体結合された)第2の電磁センサからデータを受信し、電磁場を検出する。様々な実施形態において、第1の電磁センサ及び第2の電磁センサは無線である。すなわち、電磁センサは、電磁基準源にハード配線されていない。システム環境は、任意の数の追加の無線電磁センサを含むことができる。システム環境はまた、電磁センサをHMD100、超音波プローブ120、及び医療器具110などの他のデバイスに結合するための取り付けアクセサリを含むことができる。様々な実施形態において、処理システム400は、電磁センサからのデータを、1つまたは複数のIMU、深度センサ、またはカメラなどの他のセンサによってキャプチャされたデータと共に集約する。
ステップ930において、処理システム400は、第1の電磁センサからのデータを処理することによって、超音波プローブ120に対するHMD100の位置を決定する。ステップ940において、処理システム400は、第2の電磁センサからのデータを処理することによって、超音波プローブ120に対する医療器具110の位置を決定する。
ステップ950において、処理システム400は、HMD100の位置及び医療器具110の位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された医療器具110の経路の視覚化を生成する。
ステップ960において、処理システム400は、HMD100を装着しているユーザに、HMD100によって表示されるためのグラフィックを提供する。グラフィックは、超音波画像平面上に表示される超音波プローブ120によってキャプチャされた視覚化および画像データを含む。
図10は、様々な実施形態における器具をナビゲートするためのプロセス1000のフローチャートである。処理システム400は、プロセス1000を使用して、HMD100を装着し、器具110を制御するユーザに視覚的ガイダンスを提供し得る。
ステップ1010において、処理システム400は、超音波画像平面の画像データを受信する。画像データは、超音波プローブ120または別の超音波画像センサによってキャプチャされる。ステップ1020において、処理システム400は、超音波画像平面に対する医療器具110の位置を決定する。ステップ1030において、処理システム400は、超音波画像平面に対する医療器具110の向きを決定する。ステップ1040において、処理システム400は、医療器具110の位置及び向きに基づいて、医療器具110の軌道を決定する。
ステップ1050おいて、HMD100は、医療器具110の軌道を示す器具経路を表示する。ステップ1060において、処理システム400は、軌道に沿った医療器具110の更新された位置に基づいて、医療器具110が超音波画像平面上の交点に到達したと決定する。ステップ1070において、HMD100は、医療器具110が超音波画像平面上の交点に到達したことを示す器具経路の更新されたバージョンを表示する。
V.代替の考慮事項
本発明の実施形態の前述の説明は、例示の目的で提示されており、網羅的であること、または開示された正確な形態に限定することは、意図されていない。関連技術分野の当業者は、上記の開示に照らして多くの修正及び変形が可能であることを理解することができる。
この説明のある部分は、情報に対する動作のアルゴリズムおよび記号表現の観点から本発明の実施形態を説明している。これらのアルゴリズムの説明および表現は、データ処理技術の当業者によって、その作業の内容を他の当業者に効果的に伝えるために一般的に使用されている。これらの動作は、機能的、計算的、または論理的に説明されている一方で、コンピュータプログラムもしくは等価の電気回路、またはマイクロコードなどによって実装されると理解される。さらに、また、普遍性を失うことなく、時にはこれらの動作の配列をモジュールと称することが便利な場合もある。説明される動作およびそれらに関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組み合わせで具現化され得る。
本明細書で説明される任意のステップ、動作、またはプロセスは、単独でまたは他のデバイスと組み合わせることで、1つまたは複数のハードウェアまたはソフトウェアモジュールを用いて実行または実装されてよい。一実施形態において、ソフトウェアモジュールは、説明される任意のまたはすべてのステップ、動作、またはプロセスを実行するコンピュータプロセッサによって実行されることが可能であるコンピュータプログラムコードを含む非一時的なコンピュータ可読媒体を含むコンピュータプログラム製品で実装される。
本発明の実施形態はまた、本明細書で説明されるコンピューティングプロセスによって生成される製品に関する場合がある。このような製品は、コンピューティングプロセスから生じる情報を含むことができ、ここで、この情報は、非一時的で有形のコンピュータ可読記憶媒体に格納され、本明細書で説明されるコンピュータプログラム製品、または他のデータの組み合わせの任意の実施形態を含むことができる。
最後に、明細書で用いられる文言は、主に読み易さおよび説明を目的として選択されたものであり、発明の主題を描写または制限するために選択されていない場合がある。したがって、本発明の範囲は、この詳細な説明によってではなく、本明細書に基づいた出願で発行される特許請求の範囲によって限定されることが意図されている。したがって、本発明の実施形態の開示は、以下の特許請求の範囲に記載される本発明の範囲をするものではなく、例示することを意図している。

Claims (18)

  1. ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出するステップと、
    医療器具に結合された第2の電磁センサからデータを受信し、前記電磁場を検出するステップと、
    前記第1の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記HMDの位置を決定するステップと、
    前記第2の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記医療器具の位置を決定するステップと、
    前記HMDの前記位置および前記医療器具の前記位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された前記医療器具の経路の視覚化を生成するステップと、
    前記HMDを装着しているユーザに、前記HMDによって表示されるためのグラフィックを提供するステップであって、前記グラフィックは、前記超音波画像平面上に表示される前記超音波プローブによってキャプチャされた前記視覚化および画像データを含む、グラフィックを提供するステップと、
    を含む方法。
  2. 前記HMDに結合された第3の電磁センサからデータを受信し、前記超音波プローブに結合された前記電磁基準源によって生成された前記電磁場を検出するステップと、
    前記第1の電磁センサからの前記データと前記第3の電磁センサからの前記データを処理することによって、前記第1の磁気センサと前記第2の磁気センサとの間の差動信号に基づいて前記HMDの向きを決定するステップと、
    をさらに含む、請求項1に記載の方法。
  3. 前記HMDの前記向きは、前記HMDの慣性測定ユニットによってキャプチャされたデータに基づいてさらに決定される、請求項2に記載の方法。
  4. 前記医療器具の慣性測定ユニットによってキャプチャされたデータ、および前記第2の電磁センサからの前記データを集約することによって、前記医療器具の向きを決定するステップをさらに含む、請求項1乃至3のいずれか一項に記載の方法。
  5. 前記HMDの画像センサによってキャプチャされた画像データを処理することによって、前記超音波プローブの位置を決定するステップであって、前記グラフィックは、前記超音波プローブの前記位置からのオフセットで前記ユーザに表示される、ステップをさらに含む、請求項1乃至4のいずれか一項に記載の方法。
  6. 前記医療器具の先端と医療器具に結合された前記第2の電磁センサの位置との間のオフセット距離を決定するステップであって、前記視覚化は、前記オフセット距離に基づいて生成される、ステップをさらに含む、請求項1乃至5のいずれか一項に記載の方法。
  7. 前記医療器具の第1の座標系を前記超音波プローブの第2の座標系にマッピングするための第1の変換を決定するステップと、
    前記HMDの第3の座標系を前記超音波プローブの前記第2の座標系にマッピングするための第2の変換を決定するステップと、をさらに含み、
    前記視覚化は、前記第1の変換及び前記第2の変換を用いて生成される、請求項1乃至6のいずれか一項に記載の方法。
  8. 命令を格納した非一時的なコンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、
    ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出することと、
    医療器具に結合された第2の電磁センサからデータを受信し、前記電磁場を検出することと、
    前記第1の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記HMDの位置を決定することと、
    前記第2の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記医療器具の位置を決定することと、
    前記HMDの前記位置および前記医療器具の前記位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された前記医療器具の経路の視覚化を生成することと、
    前記HMDを装着しているユーザに、前記HMDによって表示されるためのグラフィックを提供することであって、前記グラフィックは、前記超音波画像平面上に表示される前記超音波プローブによってキャプチャされた前記視覚化および画像データを含む、グラフィックを提供することと、
    を行わせる、非一時的なコンピュータ可読記憶媒体。
  9. 超音波プローブに結合され、電磁場を生成するように構成された電磁基準源と、
    ヘッドマウントディスプレイ(HMD)に結合され、前記電磁場を検出するように構成された第1の電磁センサと、
    医療器具に結合され、前記電磁場を検出するように構成された第2の電磁センサと、
    命令を格納する非一時的なコンピュータ可読記憶媒体あって、前記命令は、1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、
    前記第1の電磁センサからのデータを処理することによって、前記超音波プローブに対する前記HMDの位置を決定することと、
    前記第2の電磁センサからのデータを処理することによって、前記超音波プローブに対する前記医療器具の位置を決定することと、
    前記HMDの前記位置および前記医療器具の前記位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された前記医療器具の経路の視覚化を生成することと、
    前記HMDを装着しているユーザに、前記HMDによって表示されるためのグラフィックを提供することであって、前記グラフィックは、前記超音波画像平面上に表示される前記超音波プローブによってキャプチャされた前記視覚化および画像データを含む、グラフィックを提供することと、
    を行わせる、前記コンピュータ可読記憶媒体と、
    を備えたシステム。
  10. 前記超音波プローブ、前記HMD、および前記医療器具をさらに備える、請求項9に記載のシステム。
  11. 前記第1の電磁センサおよび前記第2の電磁センサは、無線である、請求項9または請求項10に記載のシステム。
  12. 前記医療器具が、針、カニューレ、生検装置、または焼灼装置である、請求項9乃至11のいずれか一項に記載のシステム。
  13. 超音波画像平面の画像データを受信するステップと、
    前記超音波画像平面に対する医療器具の位置を決定するステップと、
    前記超音波画像平面に対する前記医療器具の向きを決定するステップと、
    前記医療器具の前記位置および前記向きに基づいて、前記医療器具の軌道を決定するステップと、
    ヘッドマウントディスプレイ(HMD)によって、前記医療器具の前記軌道を示す器具経路を表示するステップと、
    前記軌道に沿った前記医療器具の更新された位置に基づいて、前記医療器具が前記超音波画像平面上の交点に到達したと決定するステップと、
    前記HMDによって、前記医療器具が前記超音波画像平面上の前記交点に到達したことを示す前記器具経路の更新されたバージョンを表示するステップと、
    を含む方法。
  14. 前記医療器具が前記超音波画像平面上の前記交点を通過して移動したことを決定するステップと、
    前記HMDによって、前記医療器具が前記超音波画像平面上の前記交点を通過して移動したことを示す前記器具経路の別の更新されたバージョンを表示するステップと、をさらに含む、請求項13に記載の方法。
  15. 前記器具経路の前記更新されたバージョンは、前記医療器具が前記軌道に沿って移動した距離に基づいて着色された前記器具経路の一部を含む、請求項13または請求項14に記載の方法。
  16. 前記医療器具が前記超音波画像平面上の前記交点に到達したと決定するステップに応答して、前記HMDによって、前記医療器具が前記超音波画像平面上の前記交点に到達したことを示す注釈を前記器具経路上に重ねて表示するステップをさらに含む、請求項13乃至15のいずれか一項に記載の方法。
  17. 組織密度に基づいて前記超音波画像平面上の前記交点を決定するステップをさらに含む、請求項13乃至16のいずれか一項に記載の方法。
  18. 命令を格納した非一時的なコンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、
    超音波画像平面の画像データを受信することと、
    前記超音波画像平面に対する医療器具の位置を決定することと、
    前記超音波画像平面に対する前記医療器具の向きを決定することと、
    前記医療器具の前記位置および前記向きに基づいて、前記医療器具の軌道を決定することと、
    ヘッドマウントディスプレイ(HMD)による表示のために、前記医療器具の前記軌道を示す器具経路を提供することと、
    前記軌道に沿った前記医療器具の更新された位置に基づいて、前記医療器具が前記超音波画像平面上の交点に到達したと判定することと、
    前記HMDによる表示のために、前記医療器具が前記超音波画像平面上の前記交点に到達したことを示す前記器具経路の更新されたバージョンを提供することと、
    を行わせる、非一時的なコンピュータ可読記憶媒体。
JP2023570093A 2021-05-10 2022-05-09 マルチスケール超音波追跡および表示 Pending JP2024518533A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163186393P 2021-05-10 2021-05-10
US63/186,393 2021-05-10
PCT/US2022/028384 WO2022240770A1 (en) 2021-05-10 2022-05-09 Multiscale ultrasound tracking and display

Publications (1)

Publication Number Publication Date
JP2024518533A true JP2024518533A (ja) 2024-05-01

Family

ID=83900973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023570093A Pending JP2024518533A (ja) 2021-05-10 2022-05-09 マルチスケール超音波追跡および表示

Country Status (6)

Country Link
US (1) US20220354462A1 (ja)
EP (1) EP4337125A1 (ja)
JP (1) JP2024518533A (ja)
CN (1) CN117915852A (ja)
CA (1) CA3219946A1 (ja)
WO (1) WO2022240770A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058146B (zh) * 2023-10-12 2024-03-29 广州索诺星信息科技有限公司 一种基于人工智能的超声数据******及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8241274B2 (en) * 2000-01-19 2012-08-14 Medtronic, Inc. Method for guiding a medical device
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US8554307B2 (en) * 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8556815B2 (en) * 2009-05-20 2013-10-15 Laurent Pelissier Freehand ultrasound imaging systems and methods for guiding fine elongate instruments
US20130267838A1 (en) * 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
EP4383272A2 (en) * 2014-02-21 2024-06-12 The University of Akron Imaging and display system for guiding medical interventions
US10188467B2 (en) * 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US9675319B1 (en) * 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
CN109069208B (zh) * 2016-03-14 2023-02-28 ***·R·马赫福兹 用于无线超声跟踪和通信的超宽带定位
US11911144B2 (en) * 2017-08-22 2024-02-27 C. R. Bard, Inc. Ultrasound imaging system and interventional medical device for use therewith
US11484365B2 (en) * 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
US10869727B2 (en) * 2018-05-07 2020-12-22 The Cleveland Clinic Foundation Live 3D holographic guidance and navigation for performing interventional procedures
US10854005B2 (en) * 2018-09-05 2020-12-01 Sean A. Lisse Visualization of ultrasound images in physical space
US11439358B2 (en) * 2019-04-09 2022-09-13 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US20200352655A1 (en) * 2019-05-06 2020-11-12 ARUS Inc. Methods, devices, and systems for augmented reality guidance of medical devices into soft tissue
WO2021087027A1 (en) * 2019-10-30 2021-05-06 Smith & Nephew, Inc. Synchronized robotic arms for retracting openings in a repositionable manner

Also Published As

Publication number Publication date
WO2022240770A1 (en) 2022-11-17
EP4337125A1 (en) 2024-03-20
CN117915852A (zh) 2024-04-19
US20220354462A1 (en) 2022-11-10
CA3219946A1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
US9107698B2 (en) Image annotation in image-guided medical procedures
EP3081184B1 (en) System and method for fused image based navigation with late marker placement
US10238361B2 (en) Combination of ultrasound and x-ray systems
US8248414B2 (en) Multi-dimensional navigation of endoscopic video
US8248413B2 (en) Visual navigation system for endoscopic surgery
US7824328B2 (en) Method and apparatus for tracking a surgical instrument during surgery
US7945310B2 (en) Surgical instrument path computation and display for endoluminal surgery
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
WO2019217795A4 (en) Live 3d holographic guidance and navigation for performing interventional procedures
US20080071141A1 (en) Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
CN107111875B (zh) 用于多模态自动配准的反馈
US20090221907A1 (en) Location system with virtual touch screen
EP3009096A1 (en) Method and system for displaying the position and orientation of a linear instrument navigated with respect to a 3D medical image
BR112014020960B1 (pt) Sistema para processamento em tempo real de um movimento de ponteiro provido por um dispositivo apontador; estação de trabalho ou um aparelho de formação de imagem e método para processamento em tempo real de um movimento de ponteiro provido por um dispositivo apontador
US20220354462A1 (en) Multiscale ultrasound tracking and display
US20230065505A1 (en) System and method for augmented reality data interaction for ultrasound imaging
US12023109B2 (en) Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system
US20230248441A1 (en) Extended-reality visualization of endovascular navigation
US12011239B2 (en) Real time image guided portable robotic intervention system
CN116758248A (zh) 增强现实ToF深度传感器矫正的方法、装置、设备及介质