JP2024518533A - Multi-scale Ultrasound Tracking and Display - Google Patents

Multi-scale Ultrasound Tracking and Display Download PDF

Info

Publication number
JP2024518533A
JP2024518533A JP2023570093A JP2023570093A JP2024518533A JP 2024518533 A JP2024518533 A JP 2024518533A JP 2023570093 A JP2023570093 A JP 2023570093A JP 2023570093 A JP2023570093 A JP 2023570093A JP 2024518533 A JP2024518533 A JP 2024518533A
Authority
JP
Japan
Prior art keywords
medical instrument
hmd
image plane
determining
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023570093A
Other languages
Japanese (ja)
Inventor
ケー.サウスワース マイケル
マイケル アンドリューズ クリストファー
ソリアーノ イグナシオ
ベア ヘンリー アレクサンダー
アール.シルヴァ ジョナサン
エヌ.アヴァリ シルヴァ ジェニファー
Original Assignee
エクセラ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エクセラ インコーポレイテッド filed Critical エクセラ インコーポレイテッド
Publication of JP2024518533A publication Critical patent/JP2024518533A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

一実施形態において、システムは、ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出する。システムは、医療器具に結合された第2の電磁センサからデータを受信し、電磁場を検出する。システムは、超音波プローブに対するHMDの位置を決定する。システムは、超音波プローブに対する医療器具の位置を決定する。システムは、超音波画像平面に対して配向された医療器具の経路の視覚化を生成する。システムは、HMDを装着しているユーザにHMDによって表示するためのグラフィックを提供し、グラフィックは、超音波画像平面上に表示される超音波プローブによってキャプチャされた視覚化および画像データを含む。In one embodiment, the system receives data from a first electromagnetic sensor coupled to a head mounted display (HMD) and detects an electromagnetic field generated by an electromagnetic reference source coupled to an ultrasound probe. The system receives data from a second electromagnetic sensor coupled to a medical instrument and detects the electromagnetic field. The system determines a position of the HMD relative to the ultrasound probe. The system determines a position of the medical instrument relative to the ultrasound probe. The system generates a visualization of a path of the medical instrument oriented relative to an ultrasound image plane. The system provides a graphic for display by the HMD to a user wearing the HMD, the graphic including the visualization and image data captured by the ultrasound probe displayed on the ultrasound image plane.

Description

本開示は、一般に、医療環境内の超音波に関与する処置中の情報の表示および注釈に関する。 This disclosure relates generally to displaying and annotating information during procedures involving ultrasound in a medical environment.

本出願は、2021年5月10日に出願された米国仮出願第63/186,393号の優先権の利益を主張し、これは、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。 This application claims the benefit of priority to U.S. Provisional Application No. 63/186,393, filed May 10, 2021, which is incorporated by reference in its entirety for all purposes.

超音波画像化に関わる医療処置では、制御された環境または無菌環境で作業する1人または複数のオペレータが、感知された画像情報を直接観察可能な物理情報と組み合わせて医療処置を完了する。直接的および間接的に観察可能な処置情報の翻訳、組み合わせ、および解釈は、医療処置の効率的かつ効果的な完了に障害をもたらす。 In medical procedures involving ultrasound imaging, one or more operators working in a controlled or sterile environment combine sensed image information with directly observable physical information to complete the medical procedure. The translation, combination, and interpretation of directly and indirectly observable procedural information presents obstacles to the efficient and effective completion of the medical procedure.

場合によっては、実施する医師は、処置中に無菌状態を維持しなければならない。場合によっては、無菌状態の有無にかかわらず、医師は医療処置の間、超音波および他の処置器具の直接的な物理的制御を維持しなければならない。医療処置情報の設定、構成、制御、及び/または表示の態様は、医療処置のいくつかまたはすべての段階の間にアクセス可能である必要があり得る。無菌性または器具の直接制御の要件は、処置が開始されると、処置を停止することなく、および/または、従来の医療情報システムインターフェース、例えば、キーボード、マウス、ジョイスティック、または物理的ボタンを使用して、処置を行う人員の指導の下でタスクを実行するために追加の人員の支援を引き出すことなく、処置を行う人員が重要なタスクを実行する能力を妨げる可能性がある。 In some cases, the performing physician must maintain asepsis during the procedure. In some cases, with or without asepsis, the physician must maintain direct physical control of ultrasound and other procedure instruments during the medical procedure. Setup, configuration, control, and/or display aspects of the medical procedure information may need to be accessible during some or all stages of the medical procedure. The requirement of sterility or direct control of instruments may impede the ability of the performing personnel to perform critical tasks once the procedure has begun without stopping the procedure and/or without eliciting the assistance of additional personnel to perform tasks under the guidance of the performing personnel using traditional medical information system interfaces, e.g., keyboard, mouse, joystick, or physical buttons.

本発明の実施形態は、任意の数の器具情報を有する任意の数の画像データを追跡、構成、及び表示するシステムを提供する。一実施形態において、方法は、ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信するステップと、超音波プローブに結合された電磁基準源によって生成された電磁場を検出するステップとを含む。方法は、医療器具に結合された第2の電磁センサからデータを受信し、電磁場を検出するステップをさらに含む。方法は、第1の電磁センサからのデータを処理することによって、超音波プローブに対するHMDの位置を決定するステップをさらに含む。方法は、第2の電磁センサからのデータを処理することによって、超音波プローブに対する医療器具の位置を決定するステップをさらに含む。方法は、HMDの位置および医療器具の位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された医療器具の経路の視覚化を生成するステップをさらに含む。方法は、HMDを装着しているユーザにHMDによって表示されるためのグラフィックを提供するステップをさらに含み、グラフィックは、超音波画像平面上に表示される超音波プローブによってキャプチャされた視覚化および画像データを含む。 An embodiment of the present invention provides a system for tracking, organizing, and displaying any number of image data with any number of instrument information. In one embodiment, the method includes receiving data from a first electromagnetic sensor coupled to a head mounted display (HMD) and detecting an electromagnetic field generated by an electromagnetic reference source coupled to an ultrasound probe. The method further includes receiving data from a second electromagnetic sensor coupled to the medical instrument and detecting the electromagnetic field. The method further includes determining a position of the HMD relative to the ultrasound probe by processing the data from the first electromagnetic sensor. The method further includes determining a position of the medical instrument relative to the ultrasound probe by processing the data from the second electromagnetic sensor. The method further includes generating a visualization of a path of the medical instrument oriented relative to an ultrasound image plane based at least in part on the position of the HMD and the position of the medical instrument. The method further includes providing a graphic for display by the HMD to a user wearing the HMD, the graphic including the visualization and image data captured by the ultrasound probe displayed on the ultrasound image plane.

一実施形態において、方法は、HMDに結合された第3の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出するステップと、第1の電磁センサからのデータおよび第3の電磁センサからのデータを処理することによって、第1の磁気センサと第2の磁気センサとの間の差動信号に基づいてHMDの向きを決定するステップをさらに含む。一実施形態において、HMDの向きは、HMDの慣性測定ユニットによってキャプチャされたデータに基づいてさらに決定される。 In one embodiment, the method further includes receiving data from a third electromagnetic sensor coupled to the HMD and detecting an electromagnetic field generated by an electromagnetic reference source coupled to the ultrasound probe, and determining an orientation of the HMD based on a differential signal between the first and second magnetic sensors by processing the data from the first and third electromagnetic sensors. In one embodiment, the orientation of the HMD is further determined based on data captured by an inertial measurement unit of the HMD.

一実施形態において、方法は、医療器具の慣性測定ユニットによってキャプチャされたデータと、第2の電磁センサからのデータとを集約することによって、医療器具の向きを決定するステップをさらに含む。 In one embodiment, the method further includes determining an orientation of the medical instrument by aggregating data captured by an inertial measurement unit of the medical instrument and data from a second electromagnetic sensor.

一実施形態において、方法は、HMDの画像センサによってキャプチャされた画像データを処理することによって超音波プローブの位置を決定するステップをさらに含み、グラフィックは、超音波プローブの位置からのオフセットでユーザに表示される。 In one embodiment, the method further includes determining a position of the ultrasound probe by processing image data captured by an image sensor of the HMD, and the graphic is displayed to the user at an offset from the position of the ultrasound probe.

一実施形態において、方法は、医療器具の先端と医療器具に結合された第2の電磁センサの位置との間のオフセット距離を決定するステップをさらに含み、視覚化は、オフセット距離に基づいて生成される。 In one embodiment, the method further includes determining an offset distance between the tip of the medical instrument and a position of a second electromagnetic sensor coupled to the medical instrument, and the visualization is generated based on the offset distance.

一実施形態において、方法は、医療器具の第1の座標系を超音波プローブの第2の座標系にマッピングするための第1の変換を決定するステップと、HMDの第3の座標系を超音波プローブの第2の座標系にマッピングするための第2の変換を決定するステップとをさらに含み、視覚化は、第1の変換および第2の変換を使用して生成される。 In one embodiment, the method further includes determining a first transformation for mapping a first coordinate system of the medical instrument to a second coordinate system of the ultrasound probe, and determining a second transformation for mapping a third coordinate system of the HMD to the second coordinate system of the ultrasound probe, and the visualization is generated using the first transformation and the second transformation.

別の実施形態において、システムは、超音波プローブに結合され、電磁場を生成するように構成された電磁基準源と、ヘッドマウントディスプレイ(HMD)に結合され、電磁場を検出するように構成された第1の電磁センサと、医療器具に結合され、電磁場を検出するように構成された第2の電磁センサと、命令を格納する非一時的なコンピュータ可読記憶媒体とを備え、1つまたは複数のプロセッサによって実行されたときに命令は、1つまたは複数のプロセッサに、第1の電磁センサからのデータを処理することによって、超音波プローブに対するHMDの位置を決定することと、第2の電磁センサからのデータを処理することによって、超音波プローブに対する医療器具の位置を決定することと、HMDの位置及び医療器具の位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された医療器具の経路の視覚化を生成することと、HMDを装着しているユーザにHMDによって表示されたグラフィックを提供することであって、画像は、超音波画像平面上に表示される超音波プローブによってキャプチャされた視覚化及び画像データを備えるシステム。 In another embodiment, a system includes an electromagnetic reference source coupled to an ultrasound probe and configured to generate an electromagnetic field, a first electromagnetic sensor coupled to a head mounted display (HMD) and configured to detect the electromagnetic field, a second electromagnetic sensor coupled to a medical instrument and configured to detect the electromagnetic field, and a non-transitory computer readable storage medium storing instructions, which when executed by one or more processors, cause the one or more processors to: determine a position of the HMD relative to the ultrasound probe by processing data from the first electromagnetic sensor; determine a position of the medical instrument relative to the ultrasound probe by processing data from the second electromagnetic sensor; generate a visualization of a path of the medical instrument oriented relative to an ultrasound image plane based at least in part on the position of the HMD and the position of the medical instrument; and provide a graphic displayed by the HMD to a user wearing the HMD, the image comprising the visualization and image data captured by the ultrasound probe displayed on the ultrasound image plane.

一実施形態において、システムは、超音波プローブ、HMD、および医療器具をさらに備える。一実施形態において、第1の電磁センサ及び第2の電磁センサは無線である。一実施形態において、医療器具は、針、カニューレ、生検装置、または焼灼装置である。 In one embodiment, the system further comprises an ultrasound probe, an HMD, and a medical instrument. In one embodiment, the first electromagnetic sensor and the second electromagnetic sensor are wireless. In one embodiment, the medical instrument is a needle, a cannula, a biopsy device, or a cauterization device.

別の実施形態において、方法は、超音波画像平面の画像データを受信するステップを含む。方法は、超音波画像平面に対する医療器具の位置を決定するステップをさらに含む。方法は、超音波画像平面に対する医療器具の向きを決定するステップをさらに含む。方法は、医療器具の位置および向きに基づいて、医療器具の軌道を決定するステップをさらに含む。方法は、ヘッドマウントディスプレイ(HMD)によって、医療器具の軌道を示す器具経路を表示するステップをさらに含む。方法は、軌道に沿った医療器具の更新された位置に基づいて、医療器具が超音波画像平面上の交点に到達したと決定するステップをさらに含む。方法は、HMDによって、医療器具が超音波画像平面上の交点に到達したことを示す器具経路の更新されたバージョンを表示するステップをさらに含む。 In another embodiment, a method includes receiving image data for an ultrasound image plane. The method further includes determining a position of a medical instrument relative to the ultrasound image plane. The method further includes determining an orientation of the medical instrument relative to the ultrasound image plane. The method further includes determining a trajectory of the medical instrument based on the position and orientation of the medical instrument. The method further includes displaying, by a head mounted display (HMD), an instrument path indicative of the trajectory of the medical instrument. The method further includes determining, based on an updated position of the medical instrument along the trajectory, that the medical instrument has reached an intersection on the ultrasound image plane. The method further includes displaying, by the HMD, an updated version of the instrument path indicative of that the medical instrument has reached an intersection on the ultrasound image plane.

様々な実施形態において、非一時的なコンピュータ可読記憶媒体は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに本明細書に記載の方法のいずれかのステップを実行させる命令を格納する。 In various embodiments, a non-transitory computer-readable storage medium stores instructions that, when executed by one or more processors, cause the one or more processors to perform any of the steps of the methods described herein.

様々な実施形態における、超音波画像及びデバイス追跡のための処理システムの例示的なシステム環境を示す図である。FIG. 1 illustrates an exemplary system environment of a processing system for ultrasound imaging and device tracking in accordance with various embodiments. 様々な実施形態における、超音波イメージングのための例示的なグラフィカルユーザインターフェースを示す図である。FIG. 1 illustrates an exemplary graphical user interface for ultrasound imaging, according to various embodiments. 様々な実施形態における、ヘッドマウントディスプレイ上のセンサ位置を示す図である。FIG. 1 illustrates sensor locations on a head mounted display in various embodiments. 様々な実施形態における、図1のシステム環境のブロック図である。FIG. 2 is a block diagram of the system environment of FIG. 1 in accordance with various embodiments. 様々な実施形態における、処理システムのデータフロー図である。FIG. 2 is a data flow diagram of a processing system according to various embodiments. 様々な実施形態における、器具をナビゲートするための例示的なグラフィカルユーザインターフェースを示す図である。1A-1C illustrate exemplary graphical user interfaces for navigating instruments according to various embodiments. 様々な実施形態における、器具をナビゲートするための追加の例示的なグラフィカルユーザインターフェースを示す図である。11A-11C illustrate additional exemplary graphical user interfaces for navigating an instrument according to various embodiments. 様々な実施形態における、器具をナビゲートするためのヘッドアップディスプレイを示す図である。FIG. 1 illustrates a head-up display for navigating an instrument in accordance with various embodiments. 様々な実施形態における、複数のセンサを使用して器具を追跡するためのプロセスのフローチャートである。1 is a flowchart of a process for tracking an instrument using multiple sensors according to various embodiments. 様々な実施形態における、器具をナビゲートするためのプロセスのフローチャートである。1 is a flowchart of a process for navigating an instrument according to various embodiments.

図面は、例示のみを目的として本発明の実施形態を示す。当業者は、本明細書に例示された構造および方法の代替的実施形態が、本明細書に記載の本発明の原理から逸脱することなく利用することができることを以下の説明から容易に認識する。 The drawings depict embodiments of the present invention for purposes of illustration only. Those skilled in the art will readily recognize from the following description that alternative embodiments of the structures and methods illustrated herein may be utilized without departing from the principles of the present invention as described herein.

I.システム環境
図1は、様々な実施形態における、超音波画像化のための処理システムの例示的なシステム環境を示す。図2は、様々な実施形態における、超音波画像化のための例示的なグラフィカルユーザインターフェースを示す。様々な実施形態において、システムは、ヘッドマウントディスプレイ(HMD)デバイス100、器具110(例えば、針、デバイスを血管に挿入するためのカニューレ、生検デバイス、または焼灼デバイス)、超音波プローブ120、および任意選択のディスプレイ130のうちの1つまたは複数を含む。システムはまた、ユーザ入力方法、任意の数の構成可能な超音波情報源、任意の数の構成可能な器具追跡情報源、デバイス間の通信手段、プロセッサ、および記憶デバイスのうちの1つまたは複数を含み得る。通信手段は、無線及び有線通信の任意の数の組み合わせを含む。
I. System Environment Figure 1 illustrates an exemplary system environment of a processing system for ultrasound imaging, according to various embodiments. Figure 2 illustrates an exemplary graphical user interface for ultrasound imaging, according to various embodiments. In various embodiments, the system includes one or more of a head mounted display (HMD) device 100, an instrument 110 (e.g., a needle, a cannula for inserting a device into a blood vessel, a biopsy device, or a cauterization device), an ultrasound probe 120, and an optional display 130. The system may also include one or more of a user input method, any number of configurable ultrasound information sources, any number of configurable instrument tracking information sources, a means of communication between devices, a processor, and a storage device. The means of communication include any number of combinations of wireless and wired communication.

超音波情報源は、複数の物理的デバイスから、または処置中の異なる時間、構成、および位置からの同じ物理的デバイスからであり得る。画像情報はまた、コンピュータ断層撮影(CT)または磁気共鳴撮像(MRI)などの他の画像モダリティから導出されてもよい。様々な実施形態において、超音波情報源は、超音波プローブ120である。 The ultrasound information source may be from multiple physical devices or from the same physical device from different times, configurations, and locations during a procedure. Image information may also be derived from other imaging modalities such as computed tomography (CT) or magnetic resonance imaging (MRI). In various embodiments, the ultrasound information source is an ultrasound probe 120.

追跡情報源は、電磁(EM)、光学、超音波、慣性、磁力計、加速度計、または全地球測位システム(GPS)センサを含むローカルまたはグローバル測位センサを含む。様々な実施形態において、電磁源は、超音波プローブ120に結合(例えば、剛体結合)されてもよく、さらに、電磁センサは、HMD100及び器具110に結合(例えば、剛体結合)されてもよい。結果として、処理システムは、電磁センサからのデータを使用して、超音波プローブ120の電磁源に対するHMD100及び器具110の位置及び向きを追跡することができる。 The tracking information sources include local or global positioning sensors, including electromagnetic (EM), optical, ultrasonic, inertial, magnetometer, accelerometer, or Global Positioning System (GPS) sensors. In various embodiments, the electromagnetic source may be coupled (e.g., rigidly coupled) to the ultrasound probe 120, and the electromagnetic sensor may be coupled (e.g., rigidly coupled) to the HMD 100 and instrument 110. As a result, the processing system can use data from the electromagnetic sensor to track the position and orientation of the HMD 100 and instrument 110 relative to the electromagnetic source of the ultrasound probe 120.

HMD100は、ヘッドアップディスプレイまたは拡張現実ディスプレイとしてユーザに提示され得る超音波画像情報または器具情報をユーザが閲覧または対話するための手段を提供する。HMDの例としては、マイクロソフトのHOLOLENSがある。 The HMD 100 provides a means for a user to view or interact with ultrasound image information or instrument information that may be presented to the user as a heads-up display or an augmented reality display. An example of an HMD is Microsoft's HOLOLENS.

処置情報の表示は、HMD100を通して達成され、処理システムの追跡に応答して情報源の位置で投影200として表示され得る。図2に示される例において、超音波情報は、追跡された超音波画像平面内の超音波プローブの先端の投影200(「プローブ先端ディスプレイ」)に表示される。別の態様において、超音波情報はまた、医師の作業領域を不明瞭にすることを防止するため、同じ方向(または回転した構成で)でツール先端からの設定可能なオフセットで表示され得る(「プローブロック表示」)。さらに、任意の追加的に追跡された器具は、感知された超音波に対する追跡された向き及び位置(「ポーズ」)で表示され得る。この追加的な器具情報には、システムの追跡情報に応答して、現在の方向および位置、現在の軌道に沿って前進した場合の投影された方向および位置、器具の交点までの距離、および交点の角度が含まれる。 Display of treatment information is accomplished through the HMD 100 and may be displayed as a projection 200 at the location of the information source in response to tracking by the processing system. In the example shown in FIG. 2, the ultrasound information is displayed in a projection 200 of the tip of the ultrasound probe in the tracked ultrasound image plane ("probe tip display"). In another aspect, the ultrasound information may also be displayed in the same orientation (or in a rotated configuration) with a configurable offset from the tool tip to avoid obscuring the physician's working area ("probe lock display"). Furthermore, any additional tracked instruments may be displayed with a tracked orientation and position ("pose") relative to the sensed ultrasound. This additional instrument information includes the current direction and position, the projected direction and position if advanced along the current trajectory, the distance to the instrument's intersection, and the angle of the intersection in response to the system's tracking information.

別の態様において、超音波および器具情報は、着用者に対する固定された向きでツール先端の位置に応答して表示され得る(「掲示(billboarded)」)。図2に示される例において、HMD100は、ヘッドアップディスプレイ210として掲示板表示をユーザに提示する。ある態様において、3D針先端ポーズは、超音波画像上に重ねて3Dで直接表示され、画像平面に対する針の距離、サイズ、及び角度を直感的に伝える。掲示板表示はまた、投影された針の軌道および画像平面との交点を示すことができる。別の態様において、2Dまたは3D注釈は、画像平面に重ねられ、画像内の画像平面への針の距離を変換し、これは、図6~図8に関してさらに説明される。 In another aspect, ultrasound and instrument information may be displayed in response to the tool tip position in a fixed orientation relative to the wearer ("billboarded"). In the example shown in FIG. 2, the HMD 100 presents the user with a billboard display as a heads-up display 210. In one aspect, the 3D needle tip pose is displayed in 3D directly overlaid on the ultrasound image, intuitively conveying the needle's distance, size, and angle relative to the image plane. The billboard display may also show the projected needle trajectory and intersection with the image plane. In another aspect, 2D or 3D annotations are overlaid on the image plane, translating the needle's distance to the image plane in the image, which is further described with respect to FIGS. 6-8.

いくつかの実施形態において、超音波および器具のポーズ、距離、および/または交点情報は、3Dコンテンツを2Dディスプレイにレンダリングする従来の技術を介して、HMD100の仮想環境に固定されているか、または医療環境内の物理ディスプレイデバイス130に追加的に表示され得る。HMD100、器具110、および超音波プローブ120の追跡情報は、画像の向きを自動的に変えるかまたは反転して使用され、掲示板表示、プローブ先端表示、およびプローブロック表示において正しい視点で表示し得る。 In some embodiments, ultrasound and instrument pose, distance, and/or intersection information may be fixed in the virtual environment of the HMD 100 or additionally displayed on a physical display device 130 in the medical environment via conventional techniques for rendering 3D content to a 2D display. Tracking information of the HMD 100, instrument 110, and ultrasound probe 120 may be used to automatically reorient or flip the images to display in the correct perspective in the billboard view, probe tip view, and probe lock view.

デバイスの追跡は、異なる空間的及び時間的解像度の追跡情報の複数のソースの全体の組み合わせによって達成される。デバイスは、HMD100、超音波画像源(例えば、超音波プローブ120)、及び1つまたは複数の医療器具110を含む。各追跡情報源は、異なる解像度及び異なる更新レートで、位置、向き、及び対応する速度及び加速度における任意の数の追跡情報の更新を提供する。一実施形態において、異なる電磁追跡センサはHMD100及び器具110に取り付けられ、電磁基準源(electromagnetic reference source)は超音波プローブ120に取り付けられる。超音波プローブ120上の超音波基準源と器具110との間の距離は、例えば、EMセンサデータのより低いノイズに起因して、超音波源とHMDとの間の精度を改善するために減少または最小化される。任意の数の追加の電磁センサまたは基準源は、追跡情報の追加源を提供し、追跡精度を改善し得る。 Tracking of the device is achieved by a total combination of multiple sources of tracking information of different spatial and temporal resolutions. The device includes an HMD 100, an ultrasound image source (e.g., an ultrasound probe 120), and one or more medical instruments 110. Each tracking source provides any number of tracking information updates in position, orientation, and corresponding velocity and acceleration at different resolutions and different update rates. In one embodiment, different electromagnetic tracking sensors are attached to the HMD 100 and the instrument 110, and an electromagnetic reference source is attached to the ultrasound probe 120. The distance between the ultrasound reference source on the ultrasound probe 120 and the instrument 110 is reduced or minimized to improve accuracy between the ultrasound source and the HMD, for example, due to lower noise in the EM sensor data. Any number of additional electromagnetic sensors or reference sources may provide additional sources of tracking information and improve tracking accuracy.

図3は、様々な実施形態における、ヘッドマウントディスプレイ100上のセンサ位置を示す。いくつかの実施形態において、1つまたは複数の電磁センサまたはアンテナは、HMD100に結合され、HMD100と電磁基準源との間の角度及び距離の精度の処理システムの決定を改善する。図3に示される例において、HMD100は、右電磁センサ300及び左電磁センサ310を含む。異なる空間的及び時間的解像度の追跡システムの整合及び較正は、異なるセンサの剛体変換または基準データセットを介した較正によって達成される。 Figure 3 shows sensor locations on the head mounted display 100 in various embodiments. In some embodiments, one or more electromagnetic sensors or antennas are coupled to the HMD 100 to improve the processing system's determination of the accuracy of the angle and distance between the HMD 100 and an electromagnetic reference source. In the example shown in Figure 3, the HMD 100 includes a right electromagnetic sensor 300 and a left electromagnetic sensor 310. Alignment and calibration of tracking systems of different spatial and temporal resolutions is achieved by rigid body transformation of the different sensors or calibration via a reference data set.

一実施形態において、複数のセンサは、センサ間の既知または測定可能な距離および向きを有する剛体に固定され、各測定基準フレームからの情報の組み合わせを可能にする。この一例は、HMD100に取り付けられた電磁センサからカメラ測定基準フレームへの剛体変換である。この別の例は、電磁センサまたは基準に固定された光学追跡マーカー(例えば、既知のスケールのQRコード)である。これの別の例は、超音波画像平面内の器具(例えば、針)及び対応する電磁センサポーズの検出及び整合である。いくつかの実施形態において、HMD100は、飛行時間カメラ、同時ローカリゼーション及びマッピング、および1つまたは複数の電磁センサからのネイティブ空間追跡を提供する。 In one embodiment, the multiple sensors are fixed to a rigid body with known or measurable distances and orientations between the sensors, allowing for the combination of information from each measurement frame of reference. One example of this is a rigid body transformation from an electromagnetic sensor attached to the HMD 100 to the camera measurement frame of reference. Another example of this is an optical tracking marker (e.g., a QR code of known scale) fixed to the electromagnetic sensor or fiducial. Another example of this is the detection and alignment of an instrument (e.g., a needle) and the corresponding electromagnetic sensor pose in the ultrasound image plane. In some embodiments, the HMD 100 provides time-of-flight cameras, simultaneous localization and mapping, and native spatial tracking from one or more electromagnetic sensors.

II.データ処理
図4は、様々な実施形態における、図1のシステム環境のブロック図である。HMD100は、ローカルスケールでの整合のための複数のセンサを含む。これには、任意の数の3D画像センサ(例えば、深度カメラ及びLiDAR)、光学画像センサ(2Dカメラ)、慣性センサ、及び電磁センサが含まれる。超音波プローブ120は、超音波画像センサ、電磁基準源、及び任意選択の慣性センサを含む。器具110は、任意選択の慣性センサ及び1つまたは複数の電磁センサを含む。いくつかの実施形態において、処理システム400は、超音波プローブ120に結合された電磁基準源とは異なる1つまたは複数の電磁基準源からのEMセンサデータを使用する。例えば、別の電磁基準源は、システム環境内の固定源であり得る。
II. Data Processing Figure 4 is a block diagram of the system environment of Figure 1 in various embodiments. The HMD 100 includes multiple sensors for local scale alignment, including any number of 3D image sensors (e.g., depth cameras and LiDAR), optical image sensors (2D cameras), inertial sensors, and electromagnetic sensors. The ultrasound probe 120 includes an ultrasound image sensor, an electromagnetic reference source, and an optional inertial sensor. The instrument 110 includes an optional inertial sensor and one or more electromagnetic sensors. In some embodiments, the processing system 400 uses EM sensor data from one or more electromagnetic reference sources different from the electromagnetic reference source coupled to the ultrasound probe 120. For example, the separate electromagnetic reference source may be a fixed source in the system environment.

処理システム400は、較正及びフィルタリングデータを使用して、各デバイス(すなわち、HMD100、超音波プローブ120、及び器具110)のローカルスケール変換を組み合わせて計算する。処理システム400はさらに、複数のデバイス推定を組み合わせて、各ローカルデバイス、デバイス間、及びセンサ基準フレーム間の変換ならびに較正及びフィルタリングパラメータを更新する。異なるフィルタを使用することによって、処理システム400は、ローカルスケールノイズ(デバイスレベルで)及びグローバルスケールノイズを低減することができ、これにより、処理システム400は、測定誤差と、HMD100及び器具110などのデバイスの実際の移動とを区別することができる。2つの例示的な較正プロセスは、幾何学的制約較正及びハンドアイ較正を含む。 The processing system 400 uses the calibration and filtering data to combine and calculate a local scale transformation for each device (i.e., HMD 100, ultrasound probe 120, and instrument 110). The processing system 400 further combines multiple device estimates to update each local device, device-to-device, and sensor reference frame transformation as well as calibration and filtering parameters. By using different filters, the processing system 400 can reduce local scale noise (at the device level) and global scale noise, which allows the processing system 400 to distinguish between measurement errors and actual movement of devices such as the HMD 100 and instrument 110. Two exemplary calibration processes include geometric constraint calibration and hand-eye calibration.

幾何学的制約較正は、ピボットポイントを中心とした器具の回転などの既知の形態が使用する。様々な実施形態において、処理システム400は、幾何学的制約較正を使用して、器具110の先端の位置と器具110に結合されたEMセンサの位置との間のオフセット距離を考慮する。EMセンサが必ずしも医療処置のために追跡される先端に結合されていないため、オフセットが存在する。 Geometric constraint calibration uses known forms such as rotation of the instrument about a pivot point. In various embodiments, the processing system 400 uses geometric constraint calibration to account for an offset distance between the position of the tip of the instrument 110 and the position of an EM sensor coupled to the instrument 110. The offset exists because the EM sensor is not necessarily coupled to the tip that is being tracked for the medical procedure.

3D情報の表面の整合は、反復最近点(IPC)などの整合アルゴリズムを使用して達成されるか、またはレンダリングされた3Dデータ上の相互情報など統計的整合メトリックまたはスケール不変特徴変換(SIFT)またはスピードアップロバスト特徴(SURF)などの特徴ベースのアプローチを使用して2Dから3Dに登録され得る。位置及び向き情報は、カルマンフィルタリングまたは粒子フィルタリングなどのフィルタリング技術を使用して、異なる時間レートからの情報を使用して補間され得る。フィルタリング技術(例えば、アンセンテッドカルマンフィルタリング)からの推定パラメータは、同じモダリティのセンサ間(例えば、電磁センサから電磁センサ)またはモダリティ間(例えば、電磁源基準から光学トラッカー基準へ)の剛体変換を推定および修正するために使用され得る。 Matching of the surfaces of the 3D information can be achieved using matching algorithms such as iterative closest point (IPC) or can be registered from 2D to 3D using statistical matching metrics such as mutual information on the rendered 3D data or feature-based approaches such as scale-invariant feature transform (SIFT) or speed-up robust features (SURF). Position and orientation information can be interpolated using information from different time rates using filtering techniques such as Kalman filtering or particle filtering. Estimated parameters from filtering techniques (e.g., unscented Kalman filtering) can be used to estimate and correct rigid body transformations between sensors of the same modality (e.g., electromagnetic sensor to electromagnetic sensor) or between modalities (e.g., electromagnetic source reference to optical tracker reference).

ハンドアイ較正(「ロボットワールド」または「ロボットセンサ」較正とも呼ばれる)アルゴリズムはまた、更新された推定値を改善して、各センサ間のモーメントアームの解を更新し得る。様々な実施形態において、処理システム400は、ハンドアイ較正を使用して、座標系を異なる座標系にマッピングする。処理システム400は、異なる座標系を有する複数のセンサ及びデバイスからデータを受信するため、処理システム400は、1つまたは複数のマッピングを実行して、複数の源からデータを集約する。 A hand-eye calibration (also called "robot-world" or "robot-sensor" calibration) algorithm may also refine the updated estimates to update the solution for the moment arm between each sensor. In various embodiments, the processing system 400 uses hand-eye calibration to map a coordinate system to a different coordinate system. Because the processing system 400 receives data from multiple sensors and devices with different coordinate systems, the processing system 400 performs one or more mappings to aggregate data from multiple sources.

ハンドアイ較正において、処理システム400は、フィルタリングアルゴリズムまたはフィルタリングアルゴリズムのアンサンブルを使用して各パラメータおよび変換推定を処理し、変換が更新されるときの応答を滑らかにすることができる。これらは、線形二次エスティメータ、拡張カルマンフィルタ、及びアンセンテッドカルマンフィルタを個別に、または組み合わせて、粒子フィルタを使用して前方予測することを含み得る。これらのコンポーネントは、環境の現在の推定モデル内の感知されたオブジェクトの現在の最良の推定モデルを提供する。 In hand-eye calibration, the processing system 400 can process each parameter and transformation estimate using a filtering algorithm or an ensemble of filtering algorithms to smooth the response as the transformation is updated. These can include linear quadratic estimators, extended Kalman filters, and unscented Kalman filters, either individually or in combination, with forward prediction using particle filters. These components provide a current best estimate model of the sensed objects within the current estimated model of the environment.

超音波画像及び器具EMポーズにおける器具位置の抽出は、画像平面と器具位置との間の較正フィルタを更新するために使用され得る。さらに、この情報は、伝播する超音波の速度に関する周波数、深さ、および組織密度を含む超音波画像のパラメータを更新するために使用され得る。 Extraction of the instrument position in the ultrasound image and the instrument EM pose can be used to update the calibration filter between the image plane and the instrument position. Furthermore, this information can be used to update parameters of the ultrasound image including frequency, depth, and tissue density in relation to the speed of propagating ultrasound.

様々な実施形態において、処理システム400は、組織の深さを使用し、異なる媒体を通る音速の変動に起因する任意の測定誤差を考慮する。超音波画像は、媒体(例えば、組織)を通って伝播する超音波の移動時間に基づくため、異なる組織の深さまたは密度は、処理システム400によって予測される器具の交点に影響を与えることができる。較正中、処理システム400は、特定の媒体または密度に関連付けられた補正係数を使用して、音の測定誤差の任意の速度を低減することができる。 In various embodiments, the processing system 400 uses tissue depth to account for any measurement errors due to variations in the speed of sound through different media. Because ultrasound images are based on the travel time of ultrasound propagating through a medium (e.g., tissue), different tissue depths or densities can affect the instrument intersection points predicted by the processing system 400. During calibration, the processing system 400 can use correction factors associated with a particular medium or density to reduce any speed of sound measurement errors.

図5は、様々な実施形態における処理システム400のデータフロー図である。処理システム400は、画像整合データ、3D整合データ、及び複数のデバイス、すなわち、HMD100及び超音波プローブ120からの画像ベースの検出及び追跡データを集約するグローバルスケールエスティメータ500を含む。超音波プローブ120は、EM基準源、IMU、光学整合ターゲット、及び超音波画像センサのうちの1つまたは複数からのデータを処理するローカルスケールエスティメータ510を有する。HMD100は、EMセンサ、IMU、3D画像センサ、及び他のタイプの画像センサのうちの1つまたは複数からのデータを処理するローカルスケールエスティメータ520を有する。グローバルスケールエスティメータ500をローカルスケールエスティメータ510および520と組み合わせて使用することにより、処理システム400は、複数のデバイスの互いに対する異なる位置及び向きを同時に解くことができる。例えば、処理システム400は、超音波プローブ120に対するHMD100の位置及び向きを決定する。さらに、処理システム400は、超音波プローブ120に対する1つまたは複数の器具110の位置及び向きを決定する。 5 is a data flow diagram of the processing system 400 in various embodiments. The processing system 400 includes a global scale estimator 500 that aggregates image alignment data, 3D alignment data, and image-based detection and tracking data from multiple devices, namely, the HMD 100 and the ultrasound probe 120. The ultrasound probe 120 has a local scale estimator 510 that processes data from one or more of an EM reference source, an IMU, an optical alignment target, and an ultrasound image sensor. The HMD 100 has a local scale estimator 520 that processes data from one or more of an EM sensor, an IMU, a 3D image sensor, and other types of image sensors. By using the global scale estimator 500 in combination with the local scale estimators 510 and 520, the processing system 400 can simultaneously solve for different positions and orientations of multiple devices relative to each other. For example, the processing system 400 determines the position and orientation of the HMD 100 relative to the ultrasound probe 120. Additionally, the processing system 400 determines the position and orientation of one or more instruments 110 relative to the ultrasound probe 120.

いくつかの実施形態において、処理システム400は、反復最近接点(IPC)などのマッチング方法を使用して、個々の(ローカル)追跡システムからのポイントデータを相関させる。この方法において、処理システム400は、現在最もよく知られている時間対応及び各座標系間の幾何学変換を使用してデータ間のポイント対応を決定し、誤差を提供し、時間対応及び幾何学変換を更新する。 In some embodiments, the processing system 400 correlates the point data from each (local) tracking system using a matching method such as iterative closest point (IPC). In this method, the processing system 400 determines the point correspondence between the data using the currently best known time correspondence and geometric transformation between each coordinate system, provides the error, and updates the time correspondence and geometric transformation.

別の実施形態において、処理システム400は、異なる距離及び向きからのセンサ間で感知されたデータを使用して、各測定基準フレームからの変換を計算する。この一例は、異なる位置およびポーズからの超音波情報の整合である。この別の例は、HMD100および超音波情報からの3D体積または表面情報の整合である。3D情報は、飛行時間光学センシング、前処置CTまたはMRIなどのセンサを使用して直接検知されてもよく、または運動からの構造復元(SFM)および自己位置推定とマッピングの同時実行(SLAM)などのアルゴリズムを使用して導出されてもよい。 In another embodiment, the processing system 400 uses data sensed between sensors from different distances and orientations to calculate the transformation from each measurement reference frame. One example of this is the alignment of ultrasound information from different positions and poses. Another example of this is the alignment of 3D volumetric or surface information from the HMD 100 and ultrasound information. The 3D information may be sensed directly using sensors such as time-of-flight optical sensing, pre-treatment CT or MRI, or may be derived using algorithms such as structure from motion (SFM) and simultaneous localization and mapping (SLAM).

様々な実施形態において、処理システム400は、予測された変換を使用して、これらのデバイスのそれぞれの間の変換を計算する。これらの変換は、粒子フィルタリング及び/またはカルマンフィルタリングなどのフィルタリングを使用して、更新間で補間されるか、または前方に予測される。これらの変換は、測定された剛体変換、および感知された情報からの推定変換を使用して更新される。これらの変換は、ICPなどの3D整合、もしくはMIまたはSIFT/SURFなどの3Dから2Dへの技術を使用して更新され得る。3Dデータは、プローブから感知された超音波またはHMDからの光学画像からSFMまたはSLAMを使用して2Dデータから計算され得る。2Dデータは、物理ベースのレンダリングを使用して3Dから光学または超音波画像に計算され得る。 In various embodiments, the processing system 400 uses the predicted transformations to calculate the transformations between each of these devices. These transformations are either interpolated between updates or predicted forward using filtering such as particle filtering and/or Kalman filtering. These transformations are updated using the measured rigid body transformations and the estimated transformations from the sensed information. These transformations may be updated using 3D matching such as ICP, or 3D to 2D techniques such as MI or SIFT/SURF. The 3D data may be calculated from 2D data using SFM or SLAM from ultrasound sensed from a probe or optical images from an HMD. The 2D data may be calculated from 3D to optical or ultrasound images using physically based rendering.

各デバイスは、各センサ間の変換のローカルスケールを計算して、ローカルスケールエスティメータの一貫したローカル基準フレーム内の各デバイスのポーズ推定を提供する。処理システム400は、複数のローカルスケールエスティメータからのデータを組み合わせて変換を計算することによって、ローカルスケールデータ間のグローバルスケール変換を計算する。さらに、グローバルスケールエスティメータ500は、ローカルスケールエスティメータで使用される基準フレーム間の更新された変換を計算し、ポーズ推定を更新し得る。 Each device computes a local scale of transformation between each sensor to provide a pose estimate for each device in a consistent local reference frame for the local scale estimator. The processing system 400 computes a global scale transformation between the local scale data by combining data from multiple local scale estimators and computing the transformation. Additionally, the global scale estimator 500 may compute an updated transformation between the reference frames used in the local scale estimators to update the pose estimate.

III.ユーザインターフェースの例
図6は、様々な実施形態における、器具をナビゲートするための例示的なグラフィカルユーザインターフェースを示す図である。図示された使用例において、ユーザは、針器具110を、例えば、患者の静脈または他の身体部分上のターゲット交点までナビゲートしている。
III. Example User Interface Figure 6 illustrates an exemplary graphical user interface for navigating an instrument, according to various embodiments. In the illustrated use case, a user is navigating a needle instrument 110 to a target intersection, for example, on a patient's vein or other body part.

パネル600は、器具先端が超音波画像平面620からの閾値距離の外側にあるときに、3Dで重ねた器具経路インジケータ610を示すユーザインターフェースを示す。器具経路インジケータ610は、器具の投影軌道である。処理システム400は、例えば、センサデータに基づいて器具経路インジケータ610を更新し、器具のユーザ制御に応答して位置または向きの任意の変化を反映する。マーカー630は、超音波画像平面620上の器具経路インジケータ610の投影された交点を示す。器具経路インジケータ610は、デフォルトの色で塗りつぶされる(または色がない、例えば、透明である)。図6に示される例において、器具経路インジケータ610は円柱として示され、マーカー630は円として示されるが、他の実施形態において、器具経路インジケータ610及びマーカー630は、他のタイプの形状またはグラフィックを使用して示され得る。ユーザインターフェースはまた、他のタイプの2Dまたは3D注釈を含み得る。 Panel 600 illustrates a user interface showing an instrument path indicator 610 superimposed in 3D when the instrument tip is outside a threshold distance from the ultrasound image plane 620. The instrument path indicator 610 is the projected trajectory of the instrument. The processing system 400 updates the instrument path indicator 610 based on, for example, sensor data to reflect any changes in position or orientation in response to user control of the instrument. The marker 630 indicates the projected intersection of the instrument path indicator 610 on the ultrasound image plane 620. The instrument path indicator 610 is filled with a default color (or has no color, e.g., is transparent). In the example shown in FIG. 6, the instrument path indicator 610 is shown as a cylinder and the marker 630 is shown as a circle, but in other embodiments, the instrument path indicator 610 and the marker 630 may be shown using other types of shapes or graphics. The user interface may also include other types of 2D or 3D annotations.

パネル640は、器具先端が超音波画像平面620からの閾値距離の間にあるが、まだ超音波画像平面620と交差していないときの器具経路インジケータ610を示す。左山括弧と右山括弧との間の距離は、器具先端と超音波画像平面620との間の距離に比例する。「平面前方の色」で塗りつぶされた器具経路インジケータ610の部分650は、器具が超音波画像平面620からの閾値距離を越えてナビゲートした距離に比例する。器具経路インジケータ610の残りの部分は、デフォルトの色で塗りつぶされる。各山括弧の先端は、交点の方に向けられ、器具経路インジケータ610が超音波画像平面620の方に向けられていることを示す。図6に示される例において、左山括弧および右山括弧は、直角として示されるが、他の実施形態において、この一対のインジケータは、他の角度またはタイプの形状またはグラフィックを使用して示され得る。 Panel 640 shows the instrument path indicator 610 when the instrument tip is within the threshold distance from the ultrasound image plane 620, but has not yet intersected the ultrasound image plane 620. The distance between the left and right angle brackets is proportional to the distance between the instrument tip and the ultrasound image plane 620. The portion 650 of the instrument path indicator 610 filled with the "ahead of plane color" is proportional to the distance the instrument has navigated beyond the threshold distance from the ultrasound image plane 620. The remaining portion of the instrument path indicator 610 is filled with the default color. The tip of each angle bracket is pointed toward the intersection point, indicating that the instrument path indicator 610 is pointed toward the ultrasound image plane 620. In the example shown in FIG. 6, the left and right angle brackets are shown as right angles, but in other embodiments, this pair of indicators may be shown using other angles or types of shapes or graphics.

パネル660は、器具先端が超音波画像平面620との交点に到達したときのユーザインターフェースを示す。左及び右山括弧は、マーカー630の中心で交差する。図6に示される例において、「平面前方の色」で陰影が付けられている器具経路インジケータ610の割合は、半分である。器具経路インジケータ610の残りの部分は、デフォルトの色で塗りつぶされている。 Panel 660 shows the user interface when the instrument tip reaches the intersection with the ultrasound image plane 620. The left and right angle brackets intersect at the center of the marker 630. In the example shown in FIG. 6, the percentage of the instrument path indicator 610 that is shaded with the "pre-plane color" is half. The remaining portion of the instrument path indicator 610 is filled with the default color.

パネル670は、器具先端が超音波画像平面620を越えてナビゲートしたときのユーザインターフェースを示す。各山括弧の頂点は、交点及びマーカー630から離れる方向を向いており、器具経路が超音波画像平面620から離れる方向を向いていることを示す。この例のパネル660にも示されるように、「平面前方の色」で陰影が付けられている器具経路インジケータ610の割合は、半分のままである。より暗い「平面後方の色」で陰影付けされている器具経路インジケータ610の部分680は、超音波画像平面620を越えた器具先端の距離に比例する。器具経路インジケータ610の残りの部分は、デフォルトの色で塗りつぶされている。 Panel 670 shows the user interface when the instrument tip has navigated beyond the ultrasound image plane 620. The apex of each angle bracket points away from the intersections and markers 630, indicating that the instrument path is pointing away from the ultrasound image plane 620. As also shown in this example panel 660, the proportion of the instrument path indicator 610 that is shaded with the "fore-plane color" remains half. The portion 680 of the instrument path indicator 610 that is shaded with the darker "behind-plane color" is proportional to the distance of the instrument tip beyond the ultrasound image plane 620. The remainder of the instrument path indicator 610 is filled with the default color.

図7は、様々な実施形態における、器具をナビゲートするための追加の例示的なグラフィカルユーザインターフェースを示す図である。パネル700は、器具先端が超音波画像平面からの閾値距離の外側にあるときの、図6のパネル600に示されるシナリオに対応する。パネル710は、器具先端が超音波画像平面との交点に到達するときの、図6のパネル660に示されるシナリオに対応する。パネル720は、器具先端が超音波画像平面を越えてナビゲートしたときの、図6のパネル670に示されるシナリオに対応する。 7 illustrates an additional exemplary graphical user interface for navigating an instrument, according to various embodiments. Panel 700 corresponds to the scenario illustrated in panel 600 of FIG. 6 when the instrument tip is outside a threshold distance from the ultrasound image plane. Panel 710 corresponds to the scenario illustrated in panel 660 of FIG. 6 when the instrument tip reaches an intersection with the ultrasound image plane. Panel 720 corresponds to the scenario illustrated in panel 670 of FIG. 6 when the instrument tip has navigated beyond the ultrasound image plane.

図8は、様々な実施形態における、器具をナビゲートするためのヘッドアップディスプレイを示す図である。処理システム400は、器具先端の位置に基づいて、ヘッドアップディスプレイ(HMD100によってユーザに提示される)を更新する。例えば、器具経路インジケータ、左山括弧、及び右山括弧の表示は、図6に関して以前に説明された異なるシナリオに従って更新される。 FIG. 8 illustrates a head-up display for navigating an instrument in various embodiments. The processing system 400 updates the head-up display (presented to the user by the HMD 100) based on the position of the instrument tip. For example, the display of the instrument path indicator, left angle bracket, and right angle bracket are updated according to the different scenarios previously described with respect to FIG. 6.

IV.プロセスフローの例
図9は、様々な実施形態における、複数のセンサを使用して器具を追跡するためのプロセス900のフローチャートである。処理システム400は、プロセス900を使用して、HMD100を装着し、器具110を制御するユーザに視覚的ガイダンスを提供し得る。
IV. EXAMPLE PROCESS FLOW Figure 9 is a flow chart of a process 900 for tracking an instrument using multiple sensors, according to various embodiments. The processing system 400 may use the process 900 to provide visual guidance to a user wearing the HMD 100 and controlling the instrument 110.

ステップ910において、処理システム400は、HMD100に結合された(例えば、剛体結合された)第1の電磁センサからデータを受信し、超音波プローブ120に結合された(例えば、剛体結合)電磁基準源によって生成された電磁場を検出する。ステップ920において、処理システム400は、医療器具110に結合された(例えば、剛体結合された)第2の電磁センサからデータを受信し、電磁場を検出する。様々な実施形態において、第1の電磁センサ及び第2の電磁センサは無線である。すなわち、電磁センサは、電磁基準源にハード配線されていない。システム環境は、任意の数の追加の無線電磁センサを含むことができる。システム環境はまた、電磁センサをHMD100、超音波プローブ120、及び医療器具110などの他のデバイスに結合するための取り付けアクセサリを含むことができる。様々な実施形態において、処理システム400は、電磁センサからのデータを、1つまたは複数のIMU、深度センサ、またはカメラなどの他のセンサによってキャプチャされたデータと共に集約する。 In step 910, the processing system 400 receives data from a first electromagnetic sensor coupled (e.g., rigidly coupled) to the HMD 100 and detects an electromagnetic field generated by an electromagnetic reference source coupled (e.g., rigidly coupled) to the ultrasound probe 120. In step 920, the processing system 400 receives data from a second electromagnetic sensor coupled (e.g., rigidly coupled) to the medical instrument 110 and detects an electromagnetic field. In various embodiments, the first electromagnetic sensor and the second electromagnetic sensor are wireless. That is, the electromagnetic sensors are not hard-wired to the electromagnetic reference source. The system environment can include any number of additional wireless electromagnetic sensors. The system environment can also include mounting accessories for coupling the electromagnetic sensors to other devices such as the HMD 100, the ultrasound probe 120, and the medical instrument 110. In various embodiments, the processing system 400 aggregates the data from the electromagnetic sensors with data captured by other sensors such as one or more IMUs, depth sensors, or cameras.

ステップ930において、処理システム400は、第1の電磁センサからのデータを処理することによって、超音波プローブ120に対するHMD100の位置を決定する。ステップ940において、処理システム400は、第2の電磁センサからのデータを処理することによって、超音波プローブ120に対する医療器具110の位置を決定する。 In step 930, the processing system 400 determines the position of the HMD 100 relative to the ultrasound probe 120 by processing the data from the first electromagnetic sensor. In step 940, the processing system 400 determines the position of the medical instrument 110 relative to the ultrasound probe 120 by processing the data from the second electromagnetic sensor.

ステップ950において、処理システム400は、HMD100の位置及び医療器具110の位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された医療器具110の経路の視覚化を生成する。 In step 950, the processing system 400 generates a visualization of the path of the medical instrument 110 oriented relative to the ultrasound image plane based at least in part on the position of the HMD 100 and the position of the medical instrument 110.

ステップ960において、処理システム400は、HMD100を装着しているユーザに、HMD100によって表示されるためのグラフィックを提供する。グラフィックは、超音波画像平面上に表示される超音波プローブ120によってキャプチャされた視覚化および画像データを含む。 In step 960, the processing system 400 provides a graphic to a user wearing the HMD 100 for display by the HMD 100. The graphic includes a visualization and image data captured by the ultrasound probe 120 that is displayed on the ultrasound image plane.

図10は、様々な実施形態における器具をナビゲートするためのプロセス1000のフローチャートである。処理システム400は、プロセス1000を使用して、HMD100を装着し、器具110を制御するユーザに視覚的ガイダンスを提供し得る。 FIG. 10 is a flowchart of a process 1000 for navigating an instrument in various embodiments. The processing system 400 may use the process 1000 to provide visual guidance to a user wearing the HMD 100 and controlling the instrument 110.

ステップ1010において、処理システム400は、超音波画像平面の画像データを受信する。画像データは、超音波プローブ120または別の超音波画像センサによってキャプチャされる。ステップ1020において、処理システム400は、超音波画像平面に対する医療器具110の位置を決定する。ステップ1030において、処理システム400は、超音波画像平面に対する医療器具110の向きを決定する。ステップ1040において、処理システム400は、医療器具110の位置及び向きに基づいて、医療器具110の軌道を決定する。 In step 1010, the processing system 400 receives image data of an ultrasound image plane. The image data is captured by the ultrasound probe 120 or another ultrasound image sensor. In step 1020, the processing system 400 determines a position of the medical instrument 110 relative to the ultrasound image plane. In step 1030, the processing system 400 determines an orientation of the medical instrument 110 relative to the ultrasound image plane. In step 1040, the processing system 400 determines a trajectory of the medical instrument 110 based on the position and orientation of the medical instrument 110.

ステップ1050おいて、HMD100は、医療器具110の軌道を示す器具経路を表示する。ステップ1060において、処理システム400は、軌道に沿った医療器具110の更新された位置に基づいて、医療器具110が超音波画像平面上の交点に到達したと決定する。ステップ1070において、HMD100は、医療器具110が超音波画像平面上の交点に到達したことを示す器具経路の更新されたバージョンを表示する。 In step 1050, the HMD 100 displays an instrument path indicating the trajectory of the medical instrument 110. In step 1060, the processing system 400 determines that the medical instrument 110 has reached an intersection point on the ultrasound image plane based on the updated position of the medical instrument 110 along the trajectory. In step 1070, the HMD 100 displays an updated version of the instrument path indicating that the medical instrument 110 has reached an intersection point on the ultrasound image plane.

V.代替の考慮事項
本発明の実施形態の前述の説明は、例示の目的で提示されており、網羅的であること、または開示された正確な形態に限定することは、意図されていない。関連技術分野の当業者は、上記の開示に照らして多くの修正及び変形が可能であることを理解することができる。
V. Alternative Considerations The foregoing description of embodiments of the invention has been presented for purposes of illustration and is not intended to be exhaustive or to be limited to the precise form disclosed. Those skilled in the relevant art will recognize that many modifications and variations are possible in light of the above disclosure.

この説明のある部分は、情報に対する動作のアルゴリズムおよび記号表現の観点から本発明の実施形態を説明している。これらのアルゴリズムの説明および表現は、データ処理技術の当業者によって、その作業の内容を他の当業者に効果的に伝えるために一般的に使用されている。これらの動作は、機能的、計算的、または論理的に説明されている一方で、コンピュータプログラムもしくは等価の電気回路、またはマイクロコードなどによって実装されると理解される。さらに、また、普遍性を失うことなく、時にはこれらの動作の配列をモジュールと称することが便利な場合もある。説明される動作およびそれらに関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組み合わせで具現化され得る。 Some portions of this description describe embodiments of the invention in terms of algorithms and symbolic representations of operations on information. These algorithmic descriptions and representations are commonly used by those skilled in the data processing arts to effectively convey the substance of their work to others skilled in the art. While these operations have been described functionally, computationally, or logically, they will be understood to be implemented by computer programs or equivalent electrical circuits, or microcode, or the like. Further, and without loss of generality, it is sometimes convenient to refer to arrangements of these operations as modules. The described operations and their associated modules may be embodied in software, firmware, hardware, or any combination thereof.

本明細書で説明される任意のステップ、動作、またはプロセスは、単独でまたは他のデバイスと組み合わせることで、1つまたは複数のハードウェアまたはソフトウェアモジュールを用いて実行または実装されてよい。一実施形態において、ソフトウェアモジュールは、説明される任意のまたはすべてのステップ、動作、またはプロセスを実行するコンピュータプロセッサによって実行されることが可能であるコンピュータプログラムコードを含む非一時的なコンピュータ可読媒体を含むコンピュータプログラム製品で実装される。 Any step, operation, or process described herein may be performed or implemented using one or more hardware or software modules, alone or in combination with other devices. In one embodiment, the software modules are implemented in a computer program product that includes a non-transitory computer-readable medium that includes computer program code that can be executed by a computer processor to perform any or all steps, operations, or processes described.

本発明の実施形態はまた、本明細書で説明されるコンピューティングプロセスによって生成される製品に関する場合がある。このような製品は、コンピューティングプロセスから生じる情報を含むことができ、ここで、この情報は、非一時的で有形のコンピュータ可読記憶媒体に格納され、本明細書で説明されるコンピュータプログラム製品、または他のデータの組み合わせの任意の実施形態を含むことができる。 Embodiments of the invention may also relate to products produced by the computing processes described herein. Such products may include information resulting from the computing processes, where the information is stored on a non-transitory, tangible computer-readable storage medium, and may include any embodiment of the computer program product described herein, or other data combinations.

最後に、明細書で用いられる文言は、主に読み易さおよび説明を目的として選択されたものであり、発明の主題を描写または制限するために選択されていない場合がある。したがって、本発明の範囲は、この詳細な説明によってではなく、本明細書に基づいた出願で発行される特許請求の範囲によって限定されることが意図されている。したがって、本発明の実施形態の開示は、以下の特許請求の範囲に記載される本発明の範囲をするものではなく、例示することを意図している。 Finally, the language used in the specification has been selected primarily for ease of reading and explanation, and may not have been selected to delineate or limit the subject matter of the invention. Accordingly, it is intended that the scope of the invention be limited not by this detailed description, but by the claims that issue in an application based on this specification. Accordingly, the disclosure of embodiments of the invention is intended to illustrate, but not to limit, the scope of the invention, which is set forth in the following claims.

Claims (18)

ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出するステップと、
医療器具に結合された第2の電磁センサからデータを受信し、前記電磁場を検出するステップと、
前記第1の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記HMDの位置を決定するステップと、
前記第2の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記医療器具の位置を決定するステップと、
前記HMDの前記位置および前記医療器具の前記位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された前記医療器具の経路の視覚化を生成するステップと、
前記HMDを装着しているユーザに、前記HMDによって表示されるためのグラフィックを提供するステップであって、前記グラフィックは、前記超音波画像平面上に表示される前記超音波プローブによってキャプチャされた前記視覚化および画像データを含む、グラフィックを提供するステップと、
を含む方法。
receiving data from a first electromagnetic sensor coupled to a head mounted display (HMD) and detecting an electromagnetic field generated by an electromagnetic reference source coupled to the ultrasound probe;
receiving data from a second electromagnetic sensor coupled to the medical instrument to detect the electromagnetic field;
determining a position of the HMD relative to the ultrasound probe by processing the data from the first electromagnetic sensor;
determining a position of the medical instrument relative to the ultrasound probe by processing the data from the second electromagnetic sensor;
generating a visualization of a path of the medical instrument oriented relative to an ultrasound image plane based at least in part on the position of the HMD and the position of the medical instrument;
providing a user wearing the HMD with a graphic for display by the HMD, the graphic including the visualization and image data captured by the ultrasound probe displayed on the ultrasound image plane;
The method includes:
前記HMDに結合された第3の電磁センサからデータを受信し、前記超音波プローブに結合された前記電磁基準源によって生成された前記電磁場を検出するステップと、
前記第1の電磁センサからの前記データと前記第3の電磁センサからの前記データを処理することによって、前記第1の磁気センサと前記第2の磁気センサとの間の差動信号に基づいて前記HMDの向きを決定するステップと、
をさらに含む、請求項1に記載の方法。
receiving data from a third electromagnetic sensor coupled to the HMD to detect the electromagnetic field generated by the electromagnetic reference source coupled to the ultrasound probe;
determining an orientation of the HMD based on a differential signal between the first magnetic sensor and the second magnetic sensor by processing the data from the first electromagnetic sensor and the data from the third electromagnetic sensor;
The method of claim 1 further comprising:
前記HMDの前記向きは、前記HMDの慣性測定ユニットによってキャプチャされたデータに基づいてさらに決定される、請求項2に記載の方法。 The method of claim 2, wherein the orientation of the HMD is further determined based on data captured by an inertial measurement unit of the HMD. 前記医療器具の慣性測定ユニットによってキャプチャされたデータ、および前記第2の電磁センサからの前記データを集約することによって、前記医療器具の向きを決定するステップをさらに含む、請求項1乃至3のいずれか一項に記載の方法。 The method of any one of claims 1 to 3, further comprising determining an orientation of the medical instrument by aggregating data captured by an inertial measurement unit of the medical instrument and the data from the second electromagnetic sensor. 前記HMDの画像センサによってキャプチャされた画像データを処理することによって、前記超音波プローブの位置を決定するステップであって、前記グラフィックは、前記超音波プローブの前記位置からのオフセットで前記ユーザに表示される、ステップをさらに含む、請求項1乃至4のいずれか一項に記載の方法。 The method of any one of claims 1 to 4, further comprising a step of determining a position of the ultrasound probe by processing image data captured by an image sensor of the HMD, and the graphic is displayed to the user at an offset from the position of the ultrasound probe. 前記医療器具の先端と医療器具に結合された前記第2の電磁センサの位置との間のオフセット距離を決定するステップであって、前記視覚化は、前記オフセット距離に基づいて生成される、ステップをさらに含む、請求項1乃至5のいずれか一項に記載の方法。 The method of any one of claims 1 to 5, further comprising determining an offset distance between a tip of the medical instrument and a position of the second electromagnetic sensor coupled to the medical instrument, the visualization being generated based on the offset distance. 前記医療器具の第1の座標系を前記超音波プローブの第2の座標系にマッピングするための第1の変換を決定するステップと、
前記HMDの第3の座標系を前記超音波プローブの前記第2の座標系にマッピングするための第2の変換を決定するステップと、をさらに含み、
前記視覚化は、前記第1の変換及び前記第2の変換を用いて生成される、請求項1乃至6のいずれか一項に記載の方法。
determining a first transformation for mapping a first coordinate system of the medical instrument to a second coordinate system of the ultrasound probe;
determining a second transformation for mapping a third coordinate system of the HMD to the second coordinate system of the ultrasound probe;
The method of claim 1 , wherein the visualization is generated using the first transformation and the second transformation.
命令を格納した非一時的なコンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、
ヘッドマウントディスプレイ(HMD)に結合された第1の電磁センサからデータを受信し、超音波プローブに結合された電磁基準源によって生成された電磁場を検出することと、
医療器具に結合された第2の電磁センサからデータを受信し、前記電磁場を検出することと、
前記第1の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記HMDの位置を決定することと、
前記第2の電磁センサからの前記データを処理することによって、前記超音波プローブに対する前記医療器具の位置を決定することと、
前記HMDの前記位置および前記医療器具の前記位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された前記医療器具の経路の視覚化を生成することと、
前記HMDを装着しているユーザに、前記HMDによって表示されるためのグラフィックを提供することであって、前記グラフィックは、前記超音波画像平面上に表示される前記超音波プローブによってキャプチャされた前記視覚化および画像データを含む、グラフィックを提供することと、
を行わせる、非一時的なコンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium having stored thereon instructions that, when executed by one or more processors, cause the one or more processors to:
receiving data from a first electromagnetic sensor coupled to a head mounted display (HMD) and detecting an electromagnetic field generated by an electromagnetic reference source coupled to the ultrasound probe;
receiving data from a second electromagnetic sensor coupled to the medical instrument to detect the electromagnetic field;
determining a position of the HMD relative to the ultrasound probe by processing the data from the first electromagnetic sensor;
determining a position of the medical instrument relative to the ultrasound probe by processing the data from the second electromagnetic sensor;
generating a visualization of a path of the medical instrument oriented relative to an ultrasound image plane based at least in part on the position of the HMD and the position of the medical instrument;
providing a user wearing the HMD with a graphic for display by the HMD, the graphic including the visualization and image data captured by the ultrasound probe displayed on the ultrasound image plane;
A non-transitory computer-readable storage medium that causes
超音波プローブに結合され、電磁場を生成するように構成された電磁基準源と、
ヘッドマウントディスプレイ(HMD)に結合され、前記電磁場を検出するように構成された第1の電磁センサと、
医療器具に結合され、前記電磁場を検出するように構成された第2の電磁センサと、
命令を格納する非一時的なコンピュータ可読記憶媒体あって、前記命令は、1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、
前記第1の電磁センサからのデータを処理することによって、前記超音波プローブに対する前記HMDの位置を決定することと、
前記第2の電磁センサからのデータを処理することによって、前記超音波プローブに対する前記医療器具の位置を決定することと、
前記HMDの前記位置および前記医療器具の前記位置に少なくとも部分的に基づいて、超音波画像平面に対して配向された前記医療器具の経路の視覚化を生成することと、
前記HMDを装着しているユーザに、前記HMDによって表示されるためのグラフィックを提供することであって、前記グラフィックは、前記超音波画像平面上に表示される前記超音波プローブによってキャプチャされた前記視覚化および画像データを含む、グラフィックを提供することと、
を行わせる、前記コンピュータ可読記憶媒体と、
を備えたシステム。
an electromagnetic reference source coupled to the ultrasound probe and configured to generate an electromagnetic field;
a first electromagnetic sensor coupled to a head mounted display (HMD) and configured to detect the electromagnetic field;
a second electromagnetic sensor coupled to the medical instrument and configured to detect the electromagnetic field;
A non-transitory computer-readable storage medium storing instructions that, when executed by one or more processors, cause the one or more processors to:
determining a position of the HMD relative to the ultrasound probe by processing data from the first electromagnetic sensor;
determining a position of the medical instrument relative to the ultrasound probe by processing data from the second electromagnetic sensor;
generating a visualization of a path of the medical instrument oriented relative to an ultrasound image plane based at least in part on the position of the HMD and the position of the medical instrument;
providing a user wearing the HMD with a graphic for display by the HMD, the graphic including the visualization and image data captured by the ultrasound probe displayed on the ultrasound image plane;
The computer-readable storage medium causes
A system equipped with.
前記超音波プローブ、前記HMD、および前記医療器具をさらに備える、請求項9に記載のシステム。 The system of claim 9, further comprising the ultrasound probe, the HMD, and the medical instrument. 前記第1の電磁センサおよび前記第2の電磁センサは、無線である、請求項9または請求項10に記載のシステム。 The system of claim 9 or claim 10, wherein the first electromagnetic sensor and the second electromagnetic sensor are wireless. 前記医療器具が、針、カニューレ、生検装置、または焼灼装置である、請求項9乃至11のいずれか一項に記載のシステム。 The system of any one of claims 9 to 11, wherein the medical instrument is a needle, a cannula, a biopsy device, or a cauterization device. 超音波画像平面の画像データを受信するステップと、
前記超音波画像平面に対する医療器具の位置を決定するステップと、
前記超音波画像平面に対する前記医療器具の向きを決定するステップと、
前記医療器具の前記位置および前記向きに基づいて、前記医療器具の軌道を決定するステップと、
ヘッドマウントディスプレイ(HMD)によって、前記医療器具の前記軌道を示す器具経路を表示するステップと、
前記軌道に沿った前記医療器具の更新された位置に基づいて、前記医療器具が前記超音波画像平面上の交点に到達したと決定するステップと、
前記HMDによって、前記医療器具が前記超音波画像平面上の前記交点に到達したことを示す前記器具経路の更新されたバージョンを表示するステップと、
を含む方法。
receiving image data for an ultrasound image plane;
determining a position of a medical instrument relative to the ultrasound image plane;
determining an orientation of the medical instrument relative to the ultrasound image plane;
determining a trajectory of the medical instrument based on the position and the orientation of the medical instrument;
displaying, by a head mounted display (HMD), an instrument path indicating the trajectory of the medical instrument;
determining, based on an updated position of the medical instrument along the trajectory, that the medical instrument has reached an intersection point on the ultrasound image plane;
displaying, by the HMD, an updated version of the instrument path indicating that the medical instrument has reached the intersection point on the ultrasound image plane;
The method includes:
前記医療器具が前記超音波画像平面上の前記交点を通過して移動したことを決定するステップと、
前記HMDによって、前記医療器具が前記超音波画像平面上の前記交点を通過して移動したことを示す前記器具経路の別の更新されたバージョンを表示するステップと、をさらに含む、請求項13に記載の方法。
determining that the medical instrument has moved through the intersection point on the ultrasound image plane;
14. The method of claim 13, further comprising: displaying, by the HMD, another updated version of the instrument path indicating that the medical instrument has moved through the intersection point on the ultrasound image plane.
前記器具経路の前記更新されたバージョンは、前記医療器具が前記軌道に沿って移動した距離に基づいて着色された前記器具経路の一部を含む、請求項13または請求項14に記載の方法。 The method of claim 13 or 14, wherein the updated version of the instrument path includes a portion of the instrument path that is colored based on the distance the medical instrument has traveled along the trajectory. 前記医療器具が前記超音波画像平面上の前記交点に到達したと決定するステップに応答して、前記HMDによって、前記医療器具が前記超音波画像平面上の前記交点に到達したことを示す注釈を前記器具経路上に重ねて表示するステップをさらに含む、請求項13乃至15のいずれか一項に記載の方法。 The method of any one of claims 13 to 15, further comprising, in response to determining that the medical instrument has reached the intersection on the ultrasound image plane, displaying, by the HMD, an annotation overlaid on the instrument path indicating that the medical instrument has reached the intersection on the ultrasound image plane. 組織密度に基づいて前記超音波画像平面上の前記交点を決定するステップをさらに含む、請求項13乃至16のいずれか一項に記載の方法。 The method of any one of claims 13 to 16, further comprising determining the intersection point on the ultrasound image plane based on tissue density. 命令を格納した非一時的なコンピュータ可読記憶媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、
超音波画像平面の画像データを受信することと、
前記超音波画像平面に対する医療器具の位置を決定することと、
前記超音波画像平面に対する前記医療器具の向きを決定することと、
前記医療器具の前記位置および前記向きに基づいて、前記医療器具の軌道を決定することと、
ヘッドマウントディスプレイ(HMD)による表示のために、前記医療器具の前記軌道を示す器具経路を提供することと、
前記軌道に沿った前記医療器具の更新された位置に基づいて、前記医療器具が前記超音波画像平面上の交点に到達したと判定することと、
前記HMDによる表示のために、前記医療器具が前記超音波画像平面上の前記交点に到達したことを示す前記器具経路の更新されたバージョンを提供することと、
を行わせる、非一時的なコンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium having stored thereon instructions that, when executed by one or more processors, cause the one or more processors to:
receiving image data of an ultrasound image plane;
determining a position of a medical instrument relative to the ultrasound image plane;
determining an orientation of the medical instrument relative to the ultrasound image plane;
determining a trajectory of the medical instrument based on the position and the orientation of the medical instrument;
providing an instrument path indicating the trajectory of the medical instrument for display by a head mounted display (HMD);
determining that the medical instrument reaches an intersection point on the ultrasound image plane based on an updated position of the medical instrument along the trajectory;
providing an updated version of the instrument path for display by the HMD indicating that the medical instrument has reached the intersection point on the ultrasound image plane; and
A non-transitory computer-readable storage medium that causes
JP2023570093A 2021-05-10 2022-05-09 Multi-scale Ultrasound Tracking and Display Pending JP2024518533A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163186393P 2021-05-10 2021-05-10
US63/186,393 2021-05-10
PCT/US2022/028384 WO2022240770A1 (en) 2021-05-10 2022-05-09 Multiscale ultrasound tracking and display

Publications (1)

Publication Number Publication Date
JP2024518533A true JP2024518533A (en) 2024-05-01

Family

ID=83900973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023570093A Pending JP2024518533A (en) 2021-05-10 2022-05-09 Multi-scale Ultrasound Tracking and Display

Country Status (6)

Country Link
US (1) US20220354462A1 (en)
EP (1) EP4337125A1 (en)
JP (1) JP2024518533A (en)
CN (1) CN117915852A (en)
CA (1) CA3219946A1 (en)
WO (1) WO2022240770A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058146B (en) * 2023-10-12 2024-03-29 广州索诺星信息科技有限公司 Ultrasonic data safety supervision system and method based on artificial intelligence

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8241274B2 (en) * 2000-01-19 2012-08-14 Medtronic, Inc. Method for guiding a medical device
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US8554307B2 (en) * 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8556815B2 (en) * 2009-05-20 2013-10-15 Laurent Pelissier Freehand ultrasound imaging systems and methods for guiding fine elongate instruments
US20130267838A1 (en) * 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
EP4383272A2 (en) * 2014-02-21 2024-06-12 The University of Akron Imaging and display system for guiding medical interventions
US10188467B2 (en) * 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US9675319B1 (en) * 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
CN109069208B (en) * 2016-03-14 2023-02-28 ***·R·马赫福兹 Ultra-wideband positioning for wireless ultrasound tracking and communication
US11911144B2 (en) * 2017-08-22 2024-02-27 C. R. Bard, Inc. Ultrasound imaging system and interventional medical device for use therewith
US11484365B2 (en) * 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
US10869727B2 (en) * 2018-05-07 2020-12-22 The Cleveland Clinic Foundation Live 3D holographic guidance and navigation for performing interventional procedures
US10854005B2 (en) * 2018-09-05 2020-12-01 Sean A. Lisse Visualization of ultrasound images in physical space
US11439358B2 (en) * 2019-04-09 2022-09-13 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US20200352655A1 (en) * 2019-05-06 2020-11-12 ARUS Inc. Methods, devices, and systems for augmented reality guidance of medical devices into soft tissue
WO2021087027A1 (en) * 2019-10-30 2021-05-06 Smith & Nephew, Inc. Synchronized robotic arms for retracting openings in a repositionable manner

Also Published As

Publication number Publication date
WO2022240770A1 (en) 2022-11-17
EP4337125A1 (en) 2024-03-20
CN117915852A (en) 2024-04-19
US20220354462A1 (en) 2022-11-10
CA3219946A1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
US9107698B2 (en) Image annotation in image-guided medical procedures
EP3081184B1 (en) System and method for fused image based navigation with late marker placement
US10238361B2 (en) Combination of ultrasound and x-ray systems
US8248414B2 (en) Multi-dimensional navigation of endoscopic video
US8248413B2 (en) Visual navigation system for endoscopic surgery
US7824328B2 (en) Method and apparatus for tracking a surgical instrument during surgery
US7945310B2 (en) Surgical instrument path computation and display for endoluminal surgery
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
WO2019217795A4 (en) Live 3d holographic guidance and navigation for performing interventional procedures
US20080071141A1 (en) Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
CN107111875B (en) Feedback for multi-modal auto-registration
US20090221907A1 (en) Location system with virtual touch screen
EP3009096A1 (en) Method and system for displaying the position and orientation of a linear instrument navigated with respect to a 3D medical image
BR112014020960B1 (en) System for real-time processing of a pointer movement provided by a pointing device; workstation or image forming apparatus and method for real-time processing of a pointer movement provided by a pointing device
US20220354462A1 (en) Multiscale ultrasound tracking and display
US20230065505A1 (en) System and method for augmented reality data interaction for ultrasound imaging
US12023109B2 (en) Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system
US20230248441A1 (en) Extended-reality visualization of endovascular navigation
US12011239B2 (en) Real time image guided portable robotic intervention system
CN116758248A (en) Method, device, equipment and medium for correcting augmented reality ToF depth sensor