JP2018514352A - 後期マーカー配置による融合イメージベース誘導のためのシステムおよび方法 - Google Patents

後期マーカー配置による融合イメージベース誘導のためのシステムおよび方法 Download PDF

Info

Publication number
JP2018514352A
JP2018514352A JP2018506089A JP2018506089A JP2018514352A JP 2018514352 A JP2018514352 A JP 2018514352A JP 2018506089 A JP2018506089 A JP 2018506089A JP 2018506089 A JP2018506089 A JP 2018506089A JP 2018514352 A JP2018514352 A JP 2018514352A
Authority
JP
Japan
Prior art keywords
image
interest
marker
early
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018506089A
Other languages
English (en)
Inventor
ミハイル ボクター イマッド
ミハイル ボクター イマッド
ジェイコブ ストルカ フィリップ
ジェイコブ ストルカ フィリップ
バサファ イーサン
バサファ イーサン
フォルーギ ペズマン
フォルーギ ペズマン
ドナルド ヘイガー グレゴリー
ドナルド ヘイガー グレゴリー
Original Assignee
クリア ガイド メディカル,インコーポレーテッド
クリア ガイド メディカル,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クリア ガイド メディカル,インコーポレーテッド, クリア ガイド メディカル,インコーポレーテッド filed Critical クリア ガイド メディカル,インコーポレーテッド
Publication of JP2018514352A publication Critical patent/JP2018514352A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/067Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe using accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0223Magnetic field sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

【課題】予め撮像された二次画像データ(CTスキャン3D画像等)と手術中に撮像されるリアルタイム撮像データ(カメラで撮像した2D画像等)を融合した強調画像を生成するシステムおよび方法を提供する。【解決手段】画像処理ユニット110、カメラ100、およびハンドヘルドのリアルタイム撮像コンポーネント160またはハンドヘルドディスプレイ230を含む画像誘導のためのシステムおよび方法であって、カメラ100は、患者150、器具130、または他のコンポーネント上の視覚的特徴を観察し、画像処理ユニット110は、観察結果を二次画像データ170と動的に位置合わせし、二次画像データ170、位置データ、およびリアルタイム撮像データの1つまたは複数の組み合わせに基づいて強調画像を計算するように構成されている。【選択図】図1

Description

本発明の現在主張されている実施形態の分野は、撮像装置に関し、より詳細には、患者および1つ以上の器具を観察および追跡するための1つ以上のセンサを有する撮像装置に関する。
画像誘導介入の分野においては、手術中の撮像装置および医療器具の追跡および位置特定は非常に重要であり、画像誘導手術(IGS)システムにおける主な実現技術と考えられている。大部分の追跡技術は、1)能動型ロボット(例えば、DaVinciロボット)および受動的にコード化された機械式アーム(例えば、Faro機構アーム)を含む機械ベースの追跡、2)光学ベースの追跡、3)音響ベースの追跡、および4)電磁気(EM)ベースの追跡に分類される。
超音波は、切除処置、生検、放射線療法および外科手術を含む画像誘導介入のための1つの有用なイメージング様式である。文献および研究によれば、超音波誘導介入研究は、追跡システム(光学またはEM方法のいずれか)と超音波(US)撮像システムとを統合することによって、例えば、肝臓アブレーションを追跡し誘導するために、または外部ビーム放射線療法において、実行されている。[EMボーター、M.デオリビエラ、M.Choti、R.Ghanem、RHテイラー、G.ヘイガー、G.Fichtinger、"変形モデルと形状Priorsを介して組織アブレーションの超音波モニタリング"、医療画像コンピューティングとコンピュータ支援介入に関する国際会議、MICCAI 2006; H.Livaz、I.Fleming、L.Assumpcao、G.Fichtinger、U.Hamper、M.Choti、G.Hager、およびE.Boctor、「エラストグラフィによるアブレーションモニタリング:2Dインビボおよび3Dエクスビボ研究」、国際画像医学会議とコンピュータ支援介入、MICCAI 2008; H.Rivaz、P.Foroughi、I.Fleming、R.Zellars、E.Boctor、およびG.Hager、「***放射線療法を標的とするための追跡された規則的な超音波エラストグラフィ」、Medical Image Computing and Computer Assisted Intervention(MICCAI)2009]。現在の商用システムの中には、EMトラッキング装置をハイエンドカートベースの超音波(US)システムに組み込んだものが見られる。小型EMセンサは、超音波プローブの中に統合されてもよく、同様のセンサが関心介入器具に取り付けられ固定されてもよい。
研究および商業的側面の両方における現在のアプローチの限界は、利用可能な追跡技術と、これらのシステムを統合し臨床環境で使用する実現性と、に起因すると考えられている。例えば、機械ベースのトラッカーは高価で押しつけがましい解決策であると考えられている。すなわち、それらは大きなスペースを必要とし、ユーザーの動きを制限する。一方、音響トラッキングは、十分なナビゲーション精度を提供しない。光およびEM追跡技術は、基本カメラ(光学追跡方法の場合)または基準EM送信機(EM方法の場合)を用いた押しつけがましい設定を必要とする。さらに、光学剛体またはEMセンサは、像装置および必要なすべての器具に取り付けなければならず、したがって、オフライン較正および滅菌ステップが必要である。さらに、これらのシステムのいずれも、マルチモダリティ融合位置合わせ(例えば、術前CT/MRI計画と術中超音波との間の)をネイティブにサポートせず、直接的または拡張された視覚化にも寄与しない。したがって、画像誘導手術で使用するための改善された複合画像形成装置および位置合わせ装置が必要とされている。
本発明の態様は、システム、器具、および方法を含むことができる。
本発明のいくつかの実施形態では、医療用画像誘導システムが提供される。当該システムは、画像処理システム、1つ以上のカメラ、ディスプレイを含み、患者の表面および器具の2次画像データおよび視覚的特徴の観察を利用することができる。当該システムにおいては、ディスプレイは、二次画像データおよび観察結果から、位置合わせの計算および二次画像データ、カメラ、患者、および器具間の追跡情報の計算をすることによって画像処理システムによって決定された1台以上のカメラ、ディスプレイ、患者および器具の相対的位置に基づいて導出された強調画像を表示する。二次画像データ中に存在するマーカーの異なる組合せ、医学的介入前に付けられたマーカー、およびカメラによって観察されるマーカーは、前記位置合わせおよび追跡情報を逐次的に計算するために使用され得る。
さらに別の実施形態では、医療用画像誘導のための方法を提示することができる。この方法は、画像処理システムによって、1台以上のカメラから、1人または複数人の患者の画像、人工のマーカー(マーカーは、自己識別マーカーまたはマルチモダリティマーカーであってよい)、自然の特徴、および介入器具を含む入力の観察結果を受信する工程と、前記観察結果に基づいて、現在および以前に観察されたエンティティ間の相対位置を計算する工程と、決定された位置に基づいて、エンティティ間の位置合わせを計算する工程と、リアルタイム画像データ、二次画像データ、および観察結果のうちの少なくとも1つから導出され、画像処理システムによって決定されたディスプレイ、患者、および器具の相対的位置に基づいて、強調画像を表示する工程と、を有する。当該方法は、さらに、前記観察に基づいて、現在観察された表面特徴と以前に観察された表面特徴との間の相対的な変形を計算する工程と、推定された表面変形に基づいて、二次画像データの変形を計算する工程と、画像処理システムによって決定された、変形された二次画像データおよびリアルタイム画像データのうちの少なくとも一つから得られた強調画像を表示する工程とを含む。
更なる目的および利点は、説明、図面及び実施例の考察から明らかになるであろう。
図1は、本発明の一実施形態による撮像システムの実施形態を示す図である。
図2は、本発明の一実施形態による機能を実行する撮像システムの別の実施形態を示す図である。
図3は、本発明の一実施形態による撮像システムの別の実施形態を示す図である。
図4は、本発明の一実施形態による撮像システムの別の実施形態を示す図である。
図5は、本発明の一実施形態による機能を実行する撮像システムの別の実施形態を示す。
図6は、本発明の一実施形態による機能を実行する撮像コンポーネントを示す、撮像システムのマーカーコンポーネントの実施形態を示す図である。
図7は、本発明の一実施形態による機能を実行する撮像システムの別の実施形態を示す図である。
図8は、本発明の一実施形態による機能を実行する撮像システムの別の実施形態を示す図である。
図9は、本発明の一実施形態によるサンプル位置合わせワークフローを示す図である。
図10は、本発明の一実施形態によるワークフローの一例を示す図である。
図11は、本発明の例示的な実施形態を実装する際に使用され得る例示的なコンピュータシステムを示す。
本発明の実施形態を以下に詳細に説明する。実施形態を説明する際には、明確性のために特定の用語を使用する。しかし、本発明は、そのように選択された特定の用語に限定されることを意図するものではない。当業者は、本発明の広範な概念から逸脱することなく他の等価な構成要素を使用することができ、他の方法を開発できることを認識するであろう。本明細書中のいずれの箇所に引用されている全ての参考文献も、それぞれが個別に組み込まれているかのように参照により組み込まれる。
本発明のいくつかの実施形態は、IGI(画像誘導介入)を可能にする「プラットフォーム技術」の形態をとる。この技術は、コンピュータ画像を用いた針の識別および追跡に関連する技術(とりわけ、直交イメージングモダリティの新規な組み合わせによるマルチモダリティ位置合わせ、局所的な検知手法を用いた撮像装置の追跡)を統合することによって、追跡、位置合わせ、視覚化および誘導の限界を同時に克服する。IGIの例は、「Low−cost image−guided navigation and intervention systems using cooperative set of local sensors」と題し、米国特許出願公開第2013/0016185号として公開された米国特許出願第13/511,101号に記載されており、その内容は、参照によりその全体が本明細書に組み込まれる。
本発明は、一般的なイメージング、視覚、および局所感知に使用されるコンポーネントおよび方法の密接に統合された共通のコアを共有する広範な異なる実施形態をカバーする。
発明のいくつかの実施形態は、例えば、エラーを大幅に低減し、患者の予期した結果を増加させる可能性がある医用イメージング装置の追跡を可能にすることができる局所感知アプローチを提供する補完技術のグループを組み合わせることを目的とする。このアプローチは、本発明のいくつかの実施形態による、ディスプレイ、超音波プローブ、または他の撮像装置、介入指導、または情報視覚化の追跡のためのプラットフォーム技術を提供することができる。本発明のいくつかの実施形態によれば、リアルタイム光学イメージングと画像分析アルゴリズムおよび独立した光学慣性センサとを組み合わせることにより、現在の動きを徐々に追跡し、ディスプレイ、患者、手術針の位置および軌道を再構成することができる、および他の器具または対象物を含むことができ、これらの全ては、この追跡データに基づいて異なる撮像モダリティにも位置合わせすることができる。
本発明のいくつかの実施形態は、(視覚、超音波および/または他の画像化および位置特定モダリティを使用して)表面、マーカー、針および他の器具のセグメント化および追跡を可能にし、これにより、例えば、完成された追跡・画像誘導介入システムへの統合を可能にしている。
本発明のいくつかの実施形態は、現在の技術水準と比較して改善された感度および特異性を有する撮像手順を可能にする。これにより、従来、有害なX線/CT、高価なMRI撮像、外部追跡、高価で不正確で時間がかかり、または実際的でないハードウェア設定、またはこれらの組み合わせを必要としていたいくつかのアプリケーションシナリオが実現可能になり、また、生検、RF/HIFU切除、2次元または3次元超音波ベースの針配置、近接照射療法、追跡された画像および追跡された器具に依拠する他のアプリケーション、または神経ブロックおよび硬膜外麻酔のための麻酔針の配置のような画像なしで行われる介入といった、単に正確さと成功の保証が本来的に欠如していたことに悩まされていた手法が実現可能になる。
本発明の実施形態は、即時の超音波−CT/MRI位置合わせ(超音波容量の厄介な収集またはマーカーの正確なデモンストレーションを必要としない)、即時のCT/MRIの患者との位置合わせ、患者、器具、およびディスプレイの低コスト追跡、繰り返し撮像の必要性の低減、ならびに患者の解剖学的構造上の器具および標的の直接的な可視化の組み合わせなどの既存の技術に対する様々な利点を提供する。本発明は、ローカル、コンパクトかつ非侵入的ソリューション、すなわち、ハンドヘルドシステムおよび小型超音波システムのみならず、主に介入およびポイント・ツー・ポイント・モニタリングに使用されるCT、MRI、フルオロ、またはCBCTシステム、さらに、一般的な針/器具追跡のための理想的な追跡システムを実現する。
例えば、本発明のいくつかの実施形態は、超音波プローブ、ディスプレイ、または他の撮像装置を追跡するための装置および方法に関するものである。ハンドヘルド撮像、イメージ分析アルゴリズムおよびプローブ上、ディスプレイ上、または別々に取り付けられたカメラを組み合わせることにより、本発明の一実施形態に従って現時点での動きを段階的に追跡することによって、器具(例えば、外科用器具、外科用針など)、患者、ディスプレイなどの位置および軌道を再構成することができる。これにより、超音波ベースの3Dニードルガイダンスや、以前は高価で不正確で非現実的なハードウェアの設定が必要だったリアルタイムDRRや、他の視覚化を示すトラッキングされたディスプレイを使用した静止画像データの動的再投影といったいくつかのアプリケーションシナリオが実現可能になる。
現在の超音波検査法は、スキャンされた3Dボリューム(「関心領域」(ROI))を介して平面画像スライスを返すハンドヘルド2D超音波(US)プローブを主に採用している。器具誘導を必要とする経皮的介入の場合、器具軌道の予測は、遠位(外部)器具端に取り付けられた追跡センサおよび/または軌道の精神的外挿に基づいていることが多い。3Dイメージング、器具トラッキング、器具軌道予測、対話的ユーザガイダンスを備えた統合システムは非常に有益である。
CT誘導された介入、MRI誘導された介入、フルオロベースの針配置、または手術中のCBCT誘導介入のような他の既存の画像誘導処置は、高放射線被曝、患者ストレス、準最適な人間工学またはワークフロー、および/またはコストを削減できる。器具誘導を必要とする経皮的介入の場合、器具軌道の予測は、通常、器具を適切な位置に達成するために器具を再配置する方法において、適切な器具を用いた繰り返し術中撮像および操作者の「推測航法」に基づいている。あるいは、器具軌道は、遠位(外部)器具端に取り付けられた追跡センサと外挿された経路のシステムサポートディスプレイに基づいて計算することができる。しかしながら、このアプローチは、前述した面倒な位置合わせを必要とする。
二次画像データとの位置合わせを確立し、維持するためのマーカーの単純かつ最適な適用に関連する、画像誘導介入のワークフローへの改良に本発明の中心が寄与する。前記マーカーおよび患者表面のリアルタイム取得および再構成;前記マーカー及び前記表面を利用する自動位置合わせ方法と、操作者が前記位置合わせを初期化することを可能にする最小相互作用方法と、プローブ、器具、患者およびディスプレイを画像化するための追跡方法;および追跡された物体によって誘発される変形の推定のための方法に関する。
提案された発明は、1つ以上のカメラを備えたカメラモジュールによるリアルタイムの光検知を、画像誘導介入システムに統合することができる。これらのカメラモジュールの機能は、マーカーおよび他の表面機能、介入器具、および/またはディスプレイの取得および追跡を含む。これらのタイプの追跡された対象物の全てについて、リアルタイムポーズ情報は、画像処理ユニットによって抽出されてもよく、リアルタイム画像データからの情報(これには、1つ以上の画像化本発明のいくつかの実施形態では、カメラモジュールの位置に基づいて、対応する二次画像データからの情報との、超音波、SPECTなどの光学的検知以外のモダリティ)を含む。カメラは、光学カメラ、赤外線カメラ、UV感受性カメラ、ライトフィールドセンサ、プレノプティックカメラ、または反射屈折型カメラの1つ以上の組み合わせを含むことができる。
画像処理ユニットは、リアルタイム撮像センサと通信し、二次データを受信することにより、二次的であるかリアルタイムであるかにかかわらず、すべての入力画像データを処理することができる。追跡関連情報は、これらが1つ以上のマーカー、既存の特徴、または表面構造を含むか否かにかかわらず、これらの入力に基づいてセグメント化することによって抽出することができる。リアルタイムイメージングデータは、介入器具を追跡するために画像処理ユニットによって使用されてもよい。本発明のいくつかの実施形態では、画像処理ユニットは、入力画像データセット間の位置合わせ、および画像データセットと追跡情報との結果として得られる組み合わせからの強調画像の計算をさらに担当することができる。本発明の実施形態に依存して、それらが有線または無線でユニットに接続されているか、ローカルエリアネットワークを介して通信しているかに関係なく、計算、記憶、または通信などの画像処理機能のいくつかは、(例えば、リモートサーバーやクラウドサービスとして)ネットワーク全体に分散されている。逆に、このような機能は、オール・イン・ワン・コンピュータまたはタブレット型のシステム構成要素に統合されてもよい。
カメラは、器具と患者(このセクションでは一緒に「対象物」と呼ぶ)を直接追跡、観察することを可能にする主な入力モダリティ(様式)として機能することができる。しかし、修正されていない対象物は、特に、例えば、これらの状況下でシステムが正しく動作するように、追加のマーカーを環境に取り入れることができる。本発明の実施形態に応じて、これらのマーカーは、自己識別機能を有するスティック・オン・マーカー(例えば、バーコード、QRコード(登録商標)、またはエイプリルタグ)、マルチ・モダリティ・タグ(可視CT、MRI、フルオロ、PET/SPECTなどの第2の撮像様式で可視)のマーカー、物体に貼り付けることができ、主に線形を提供するパターン化された可撓性または剛性のテープ形状のマーカー(ドレープおよびカバーのような)模様付き被覆、(模様にぴったり合う下着シャツまたは織物に施されたマーキングを有する類似のものなどの)模様付き衣類、または目に見える解剖学的目印、肌の質感および/または毛髪のうちの少なくとも一つを有することができる。
追跡のために使用される視覚的マーカーは、前述したような人工的マーカーと、毛髪、肌の傷跡、解剖学的特徴などの自然の特徴の両方であり得る。関心領域の周りを連続的に追跡することを可能にするために、マーカーは、多数の異なる方向から見えるように配置されてもよい。本発明のいくつかの実施形態では、その後、これらを誘導システムによって連続的に収集し、既知のマーカーに対してカメラモジュールを局所化し、ジオメトリ(幾何学形状)を新たに検出されたマーカーに拡張することによって相対位置を再構築する。そのような拡張集合に沿った再構成誤差を最小にするために、反復最適化手順は、結果として得られるマーカー・関係グラフにおけるループを検出し、これらのループの周辺の固有誤差を算出し、適切に調整された視覚的マーカーメッシュを生成するために、SLAMアプローチにおける「ループ閉鎖」に類似する相対的位置の予測の改善を行う。
マーカーはまた、二次画像データセットに含まれてもよい。自動位置合わせには必須ではないが、これらのマーカーは自動的に抽出されることもある。既知のマーカー形状(形状)およびマーカー位置(患者の表面上)の強力な先例を用いて、画像データを分析して、マーカーの配置および方向を探索することができる。マーカーは、二次画像モダリティにおいて識別可能な含有情報によって自己識別することができる。放射線不透過性、放射放出、音響吸収、音響反射率、または磁気共鳴応答のうちの1つ以上のバリエーションとして、対応する視覚的識別符号を含む自己識別マーカーの場合、視覚データおよび二次画像データセットの両方の観察結果を関連させて明白な位置合わせを確立することができる。このような明示的な関連付けがない場合、本発明のいくつかの実施形態では、例えば、RANSAC方式で2次マーカーの組み合わせを繰り返しランダムに選択し、それらをビジュアルマーカーの組み合わせ(またはその逆)と幾何学的に一致させることによって、または、可能なマーカーの数が比較的少なければ、すべての可能な組み合わせをしらみつぶし的に試して、対応関係を自動的に計算する。
二次画像データにマーカーが存在しない状況では、初期位置合わせを提供して、本発明のいくつかの実施形態の位置合わせ処理を改善することができる。これらの場合には、(マーカーの方向の回復を可能にする)「アンカーマーカー」を使用することができ、システムは、発見的(ヒューリスティック)にマーカーの配置を操作者に対し提案し、後で操作者がアンカーマーカーの患者における実際の位置と提案されたマーカーと精密に対応するようにアンカーマーカーを配置することを期待して、後続する位置合わせ微調整肯定を開始する。操作者は、視認性の制約や、患者の関連する解剖学的構造の位置を表す適切な位置に関する事前知識(例えば、剛性骨構造に近い位置など)のような、術中の要件により良く適合させるために、アンカーマーカーの提案された配置を修正することができる。
異なる追跡関連データの利用可能性に応じて、本発明の実施形態は、共通の順次位置合わせアプローチの変形を使用することができる。図9は、本発明の一実施形態によるサンプル位置合わせワークフローを示しており、アプローチの基本機能に対するオプションのステップを示している。900において、二次3D画像データ170を読み取ることができる。 900から、フローは910に移動することがあります。
910では、早期に取り付けられたマーカー(または「早期マーカー」)220が二次データ170から抽出され得る。フローは、910から920に移動する。
920において、早期マーカー220が識別され、早期アンカーマーカー190が二次データ170から発見または検出されてもよい。フローは、920から930に移動する。
930において、操作者は、患者の表面(例えば、皮膚、衣類、包帯など)に「後期に付随するマーカー」(「後期マーカー」)を取り付けることができる。後期マーカーは、関心領域の周りに集中していてもよい。フローは、930から940に移動する。
940において、アンカーマーカー位置を決定し、操作者に提案することができる。提案されたアンカーマーカー位置は、二次的なデータから発見的(ヒューリスティック)に計算され、および/または検出され得る。提案されたアンカーマーカー位置は、提案されたアンカーマーカー位置の手動修正が可能である。フローは、940から945に移動する。
945において、早期アンカーマーカーが検出された場合、フローは950に移動し、早期アンカーマーカーが検出されなかった場合には、フローは955に移動する。
950において、操作者は、早期アンカーマーカーを調節して、例えば、以前に提案された位置をより良くマッチさせることができる。フローは、950から960に移動する。
955において、操作者は、例えば、以前に提案された位置の近くまたはその位置に、患者表面に後期アンカーマーカーを取り付けることができる。 フローは、955から960に移動する。
960において、患者150は、カメラ100で視覚的に走査されてもよい。システムは、1つ以上の早期マーカー、後期マーカー、アンカーマーカー、または自然特徴から適切な視覚的マーカーメッシュを収集することができる。システムは、これらの観察から患者表面を再構成することができる。フローは、960から970に移動する。
970では、960で収集されたデータを使用してアンカーマーカーを特定することができる。フローは、970から975に移動する。
975において、アンカーマーカーが検出された場合、フローは980に移動する。アンカーマーカーが検出されない場合、フローは990に移動する。
980において、位置合わせは、すべてのモダリティにおけるアンカーマーカーに基づいて初期化されてもよい。例えば、患者の表面および第2の画像データは、すべての様式においてアンカーマーカーを整列させることによって最初に(粗く)位置合わせされてもよい。フローは、980から990に移動する。
990において、全てのモダリティは、マーカー及び表面に基づいて位置合わせされてもよい。例えば、おそらく粗い初期位置合わせから開始して、患者表面および第2の画像データは、1つ以上のマーカーまたは表面を使用して細かく位置合わせされてもよい。
位置合わせは、本発明のいくつかの実施形態のためにマーカー位置が視覚的に確立された直後に開始されてもよい。これにより、観察されたマーカーメッシュにさらなる視覚マーカーの継続的な収集および統合が可能になる一方、マーカー収集が進行中の直観的ではないにしても、位置合わせ動作が直感的になる。
カメラ位置は、本発明の実施形態に応じてカメラ座標内にマーカーを局在化する(したがって、観察されたマーカーセットに対してカメラをローカライズする)ことにより、および/または観察されたマーカーを収集することによって、少なくとも2つの異なる方法で計算することができるそれを第2の画像データに位置合わせする(したがって前記画像データに対してカメラをローカライズする)。第2の撮像装置またはディスプレイ上に搭載されたカメラの場合、これにより、マーカーまたは位置合わせされた第2の画像データに対する前記装置またはディスプレイの位置特定も可能になる。
カメラは、本発明のいくつかの実施形態において、器具を追跡する役目を果たすこともできる。環境のリアルタイム観察を使用して、既知の幾何学的形状(針など)を有する器具および/または既知のマーカーを担持する器具をカメラに対して追跡することができ、そこから座標をハンドヘルド撮像、ディスプレイ、および/または二次画像データの座標に変換することができる。既知のジオメトリまたはパターンを有する器具は、それぞれの器具先端部および/または関心のあるポイントを含めて追跡することができる。
画像処理ユニットは、位置合わせされたデータから計算された強調画像をディスプレイ上に表示する。ディスプレイは、本発明の実施形態に応じて、画像処理ユニットに直接的に接続されていてもよく、ポータブルであってもよく、画像処理ユニットに無線接続されているスマートディスプレイであってもよく、画像処理ユニット自体を包含するスマートディスプレイであってもよく、または、ネットワークを介して接続された画像処理コンポーネントと通信するコンポーネントを含むスマートディスプレイであってもよい。強調画像の種類には、デジタル的に再構成された放射線写真(DRR:Digitally Reconstructed Radiographs)、マルチプレーンまたは可変平面再構成(MPR/VPR:Multi−plane or Variable−plane Reconstructions)、二次データおよび/またはリアルタイム画像からの情報の位置合わせされた拡張現実感オーバーレイ(AR:Augumented Reality)、異なる画像タイプと位置合わせされた標的のオーバーレイ、位置合わせされた融合画像、およびオーバーレイ、追跡された画像の異なる画像タイプへのオーバーレイなどがある。
カメラは、本発明のいくつかの実施形態のディスプレイの観点から患者および/または器具のリアルタイム撮像および/または追跡を可能にするハンドヘルドディスプレイに含まれてもよい。さらに、カメラは、ディスプレイおよび潜在的な二次撮像装置の外部に配置されてもよく、また、ディスプレイおよび/または撮像装置および/または器具を、本発明のいくつかの実施形態に応じて、別個の位置から追跡することもできる。
1台以上のカメラを含むリアルタイム撮像モジュールは、本発明のいくつかの実施形態において、さらに、超音波(US)プローブ、ハンドヘルドSPECTプローブ、オキシメータセンサなどの二次撮像センサを備えることができる。これらの二次撮像センサは、(精密な位置合わせ関係とより正確な追跡を保証するため)カメラに物理的に結合されていてもよく、(よりよい操作性とコンパクト性を考慮して)着脱可能であってもよい。
標的は、二次画像データで定義されてもよいし、操作者によって対話的に二次データ上またはリアルタイム画像データ上に定義されてもよい。本発明のいくつかの実施形態では、これ(標的の定義)は、2Dデータ上でなされてもよく(例えば、表示された画像への直接入力(例えば、立体的データセットから超音波画像、または平面画像へのタップまたはクリック))、または3Dデータ上でなされてもよい(例えば、一方のビュー方向から2Dポイントを経たエピポーラ定義を通じて、別のビュー方向から3Dラインとして再表示され、そのラインの上または近くに別のポイントを定義することによって精緻化される)。標的は、環境から区別される場合、または入力画像モダリティの任意の組み合わせからそれらの位置を推定することができる場合、両方の種類の画像データから自動的にセグメント化することができる。
本発明のいくつかの実施形態では、カメラは、二次データに対する患者の表面の変形を観察することができる(そのような変形は、例えば、構造化された光、シェーディングによる形状、飛翔時間、または直接立体音響から観察することができ、または観察されたマーカーの動きから推測することができる)。表面変形の推定は、既知のハンドヘルド撮像プローブまたは追跡された器具または既知の形状および位置を有する他の物体との衝突をモデル化することによって、観察結果に対して実行または改善されてもよい。次いで、画像処理ユニットは、観察結果または推測された変形を第2の画像データの表面に伝搬させることによって、得られた第2のデータの初期変形を計算することができる。患者の表面が最初の構成に対してさらに変形された場合、画像処理ユニットは同様に、得られた二次データのリアルタイム変形を同様に計算することができる。さらに、表面変形は、例えば、有限要素モデル(FEM:Finite−element model)または前記画像データから得られたばねマスモデル(ばねと質量でモデル化された単純な動解析モデル)に従って、二次撮像またはリアルタイム撮像に現される組織内に伝搬させることができる。結果として生じた組織の変形を用いれば、更新された結果として生じた定義された標的の変形を計算することができる。
次に、本発明のいくつかの実施形態は、結果として生じた入力画像データの変形に従って、リアルタイムで強調された変形画像を計算し、結果として生じる変形画像を、更新された目標位置とともに表示することができる。
本発明のいくつかの実施形態には、更新された追跡、変形、および/または強調画像の計算を容易にするための「推測航法」追跡を可能にする目的で現在の方向および移動の推定値を提供するために、リアルタイム撮像ユニット、モバイルディスプレイ、および/または1つ以上の慣性測定ユニット(加速度計またはジャイロスコープなどのIMU)または磁力計を有する1つ以上の検知装置が含まれている。
リアルタイム撮像が悪いマーカー構成(例えば、同一線上のタグ配列、アンカーマーカー、介入領域、明確な湾曲を有する患者表面領域、標的位置などの関心領域周辺のマーカーの密度不足、アンカーマーカーの不正確な配置など)を示す場合には、本発明のいくつかの実施形態においては、画像処理ユニットが操作者に対して改善された構成を計算し提案することができる。
図1は、本発明の一実施形態による撮像システムの実施形態を示す。ハンドヘルドユニット160は、1つ以上のカメラ100、ディスプレイ230、および画像処理ユニット110を有する。ハンドヘルドユニット160は、例えば、タブレット、ノートブック、またはスマートフォンとすることができ、1台以上のカメラ100および画像処理ユニット110は、ハンドヘルドユニット160の内部構成要素とすることができる。しかし、本発明の広範な概念は、この例にのみ限定されない。図1の例では、1つ以上のカメラ100は、1つ以上のカメラ100の1つ以上のビューイングコーン120内の患者150または患者150のセクションを観察する。ビューイングコーン内には、1つ以上のマーカー220または介入器具130が含まれうる。マーカー220は、自己識別視覚マーカー630、マルチモダリティマーカー640、マーカーストリップ650、または髪、母斑、解剖学的特徴などの視覚により識別可能な固有の特徴のうちの1つ以上のものであってもよく、マーカー220は、患者に取り付けられるものであってもあらかじめ存在しているものであってもよい。一定の状況においては、カメラと環境との間の幾何学的変形140は、例えば、1つ以上のカメラ100から受信したデータを含む入力データから決定することができる。
図1はまた、画像処理ユニット110がハンドヘルドユニット160と結合されているか、または画像処理ユニット110がネットワークを介して接続された追加の遠隔コンポーネントを備えるか、または通信する本発明の異なる実施形態を示す。画像処理部110の機能は「クラウド」内で遠隔操作される。
患者150の二次3D画像データセット170は、収集されてもよく、事前定義された標的180および/または早期マーカーの表示を含むことができ、早期アンカーマーカー190の表示を含むことができる(アンカーマーカーは、方位情報の抽出を可能にする)。かかる二次画像データ170は、さらなる処理および/または例えばディスプレイ230上の表示のために画像処理ユニットに転送されてもよい。
本発明の実施形態に応じて、画像処理ユニット110は、1つ以上の集積回路および/またはマイクロプロセッサを含むことができる。画像処理ユニット110は、マーカー、針、および/または外科器具(例えば、介入器具130)を追跡するための命令を実行することができる。画像処理ユニット110は、二次3D画像170から標的選択180(例えば、腫瘍、血管、疑わしい病変または他の臨床的に関連する部位)を受信することができ、または、1つ以上のカメラ100から得られた画像から直接的に新しい標的選択を受信することができる。新しい標的選択は、例えば、画像を表示するタッチスクリーンディスプレイ230から受け取ることができる。画像処理ユニット110は、器具を追跡し、器具の追跡中にディスプレイ230に器具を表示し、(例えば、1つ以上の垂直線、尖った線配置、および/または色の変化を用いて)ディスプレイ230の器具先端部を示し、器具先端部と標的との間の距離を算出し、器具先端部と標的との間の算出された距離に基づいて変化する音声を出力し、器具追跡の性質に関する視覚的手がかりを出力し、および/または音声または視覚的手がかりによる器具追跡の喪失を示すこともできる。画像処理ユニット110は、さらに、追跡対象の器具を線として表示するか、または追跡対象の器具の観察された長さの関数として器具追跡の性質を表示するようにディスプレイ230に指示することができる。カメラ100の観察領域を横切る追跡された器具130の特定の例については、領域内に物理的に含まれる器具130の特定のセグメントがある。このセグメントの定義された目標に対する方向は、カメラ100、器具130、および/または二次3D画像データ170の間の追跡情報および位置合わせ情報に基づいて画像処理ユニット110によって計算され、器具追跡のための入力として使用され得る。
図2は、本発明の一実施形態による画像誘導手順のステップを説明する、本発明の実施形態による画像処理システムの実施形態を示す。二次3D画像データ170から、画像処理ユニット110が患者表面270を抽出することができる。前記二次3D画像データ170内で、前記画像処理ユニット110は、提案された後アンカーマーカー位置280を計算することができる。次に、遅いマーカー位置の表示290と共にディスプレイ230上に表示することができる。
図3は、本発明の一実施形態による画像誘導手順のステップを説明する図であり、本発明の実施形態による画像処理システムの実施形態を示す。二次画像データ170ならびに介入器具および/または撮像装置340の影響による患者150表面350の変形の1台以上のカメラ100による観察結果から、画像処理ユニット110は、例えば、バイナリ閾値化された二次3D画像データセット170の規則的なメッシュを作成し、それに引き続いて前記画像データセットからのボクセル強度に応じてモデルパラメータをパラメータ化することにより、例えば、二次3D画像データ170から発見的(ヒューリスティック)に導出された質量ばねモデルまたは有限要素モデルに、表面の変形を初期境界条件として組み入れることにより、二次画像データ170の変形された変化320を計算することができる。前記画像処理ユニット110は、二次画像データ170の変形された変化320から、予め定義された標的180の変形380を計算することができる。前記変形された画像データ320は、次に、前記標的380と共にディスプレイ230に表示される。
図4は、本発明の一実施形態による誘導システムの実施形態を示す。外部カメラ100は、マーカー220が取り付けられた患者150と、マーカー420が取り付けられている可能性があるディスプレイ230とを観察することができる。表面およびマーカーの観察結果は、例えば、周知のArunまたはHorn位置合わせ方法(対応する自己識別マーカーを使用する場合)、RANSACバリエーション(自己識別マーカーがなく、または、対応不明の場合)、またはICP位置合わせ(対応がない場合)を用いて、あるいは、単一マーカーの視覚的な基準追跡(E.Olson:「A Robust and flexible visual fiducial system」、IEEE ICRA2011)を用いて、表面およびマーカーについての事前知識または表面およびマーカーの観察結果と幾何学的に一致させることができる。この幾何学的一致は、基準姿勢と現観測姿勢との間の位置合わせ変形である。画像処理ユニット110は、患者に対するディスプレイのかかる位置合わせ変形450(ディスプレイ対カメラの変形と患者対カメラの逆変形の組み合わせ)に基づいて、ディスプレイ230の姿勢に応じた情報を含む強調画像を計算することができる。
図5は、本発明の一実施形態による画像誘導手順の工程を説明する、本発明の実施形態による画像処理システムの実施形態の態様を示す。 1台以上のカメラ100が患者150に対して1つ以上の姿勢を取りながら移動している間に、患者表面マーカー220の異なるサブセットが観察されてもよい。画像処理ユニット110は、例えば、一対観察の結果から、継続的に、部分的なまたは完全なマーカー位置グラフ500を再構築することにより、マーカーの姿勢を決定することができる。前段落で述べたとおり、本発明のいくつかの実施形態では、グラフ500のもとになっているこのマーカーセットは、後に、視覚的追跡、二次画像データから得られる早期マーカー510を用いた二次3D画像データ170への位置合わせ、二次画像データから生成された表面270を用いた二次データ170への位置合わせのために用いられてもよい。
図6は、本発明の異なる実施形態のバリエーションの側面を示す。画像処理ユニット110は、1台以上のカメラ100のモジュールに接続されてもよい。これらのカメラの各々は、患者150を観察するように構成されてもよい。当該患者の表面350には、自己識別ビジュアルマーカー630、マルチモダリティマーカー640、マーカーストリップ650、または視覚的に識別可能な自然の特徴、例えば、天然の解剖学的特徴、皮膚の特徴、または毛髪のうちの少なくとも一つが、取り付けられてもよく、パターンシートまたはパターン被覆に結合されてもよく、あるいは、あらかじめ存在していてもよい。
図7は、本発明の一実施形態による画像誘導手順の工程を説明する例示的なワークフローを示す。画像処理ユニット110に接続された1台以上のカメラ100は、患者150上の複数の患者マーカー220を同時にまたは連続的に観察するように構成されてもよい。画像処理ユニット110は、マーカーの最適でない構成、例えばマーカーが一直線上に配列された構成720を検出し、接続されたディスプレイ23に提案された改良された構成740を表示するように構成されてもよい。
図8は、本発明の一実施形態による誘導システムの実施形態を示す。外部カメラ100は、取り付けられたマーカー220を有する患者150を観察することができる。追跡されたカメラの患者に対する姿勢450に基づいて、画像処理ユニット110は、カメラの姿勢に応じた情報を含む強調画像810を計算し、この画像を接続されたディスプレイ230に表示する。
本発明の一実施形態では、器具130(例えば、針または外科用器具)の追跡は、器具上の1つ以上の目に見える特徴を介して達成することができる。(基本的な器具追跡の技術は、本発明の発明者であるStolkaらの「Navigation whith lokal sensors in handheld 3D ultrasound: initial in−vivo experience.」、フロリダ州レイクブエナビスタのSPIE Medical Imaging 2011、pp.79681J−79681J、2011年国際光学学会、Wangらの「The Kinect as an interventional tracking system;」SPIE Medical Imaging、カリフォルニア州San Diego、pp.83160U−83160U、2012年国際光学学会、Hagerと富山の「The XVision System: A General・Purpose Substrate for Portable Real・Time Vision Applications」、Computer Vision and Image Understanding 69(1)pp.23−37、などの既刊の刊行物に記載されており、その内容は、参照によりその全体が本明細書に組み込まれる)。目に見える特徴としては、擬似ランダムバイナリシーケンス、より一般的にはデブリュインシーケンスを使用して最初に作成された検出可能なパターンを含むことができ、パターンは刻印され、印刷され、エッチングされ、または器具に付される(Stolkaらの米国特許第8,880,151号「Surgical needle for a surgical system with optical recognition」)。パターンは、人体または動物の体内への器具の挿入深さを検出するために使用できる。あるいは、可視的な特徴は、器具に取り付けられたリングのようなアタッチメントが含まれる。リングは、反射性を帯び、および/または円筒形またはハンドル形状であってもよい。リングは、器具の先端の挿入深さを計算する際に使用される検出可能なパターンを含むことができ、検出可能なパターンは、最初に擬似ランダムバイナリシーケンスを使用して作成されてもよい。撮像システム110は、リングから器具の先端までの距離を最初に計算し、この計算された距離を使用して、器具追跡のために撮像システムを較正することができる。
[実施例システム1(「ムーンライト」)]
画像に基づく医療における1つの永続的な課題は、介入状況への位置合わせのための明確な規定なしに取得される二次3D画像データ170の使用である。これには、CT、MRI、PET、SPECT、またはCBCTスキャンなどの既存の三次元測定だけでなく、介入状況と空間的および時間的に近傍で取得されるX線透視または一般的なX線投影などの2D画像データもある。これらの二次画像データセットのいずれも、位置合わせに使用することができるマーカー、例えば、有色のディスク上に小さな放射線不透過性の球を特徴とする周知の標準的なマルチモダリティ・スティック・オン・マーカーを含んでも含まなくてもよい。そのような二次画像データセットの場合、関連する画像部分と実際の患者状況との整合は困難で時間がかかる。操作者は、しばしば、正しい解剖学的一致を頭の中で再構築し、介入期間中を通して重要な特徴を記憶していなければならない。
画像処理ユニット110によれば、特定の方向から観察したときに、解剖学的特徴の相対的な向きなどの介入状況の特定の側面を目立たせまたは対応させることが可能な二次画像データセット170から強調画像を計算することが可能である。二次画像データセット170は、1つ以上の記憶媒体、通信ネットワーク、または撮像装置への接続の組み合わせを通じて画像処理ユニット110にインポートすることができる。次いで、画像処理ユニット110は、強調画像810を示すディスプレイ230と通信することができる。
1つ以上のカメラ100または他の光感受性デバイスを使用することにより、患者150または介入器具130を含む可能性がある介入環境を観察することがき、患者150または介入器具130には、これらとの関係では相対的に静止している状態にあるマーカー220または他の可視的特徴220が取り付けられている。かかる対象(マーカー220)または特徴(可視的特徴220)の観察結果に基づいて、カメラの位置450は、基準位置から測定された対象または特徴の座標系の中で追跡することができる。
このような1台以上のカメラ110または他の感光装置がハンドヘルドディスプレイ230または統合ハンドヘルドユニット160に取り付けられている場合、それらが取り込む画像は、画像処理ユニット110のプログラムに入力され、これにより当該プログラムは、患者150に対するディスプレイ230の位置を効率的に決定することができる。かかるディスプレイ230の位置は、強調画像の計算のための、二次画像データセット170からの前述の視線方向として解釈されてもよい。さらに、そのような1台以上のカメラ110または他の光感受性デバイスは、器具130または他の対象物のビューを捕捉するために使用され、その位置は、患者に対して既知であることが望ましい。これらのビューは、画像処理ユニット110によって処理されて、前記器具位置を決定することもできる。最後に、これらの器具位置を使用して、器具位置の2次元投影に対応する線、ボックス、円柱、点、または円のうちの1つ以上を強調画像上に描画して、器具および2次画像データセットの相対的な姿勢を示すことにより、強調画像上に重ね合わされた誘導情報を提供することができる。
当明細書に記載の実施態様のいくつかを実施する本発明(「ムーンライト」)の1つの例示的な実施形態は、以下のように機能し得る。このようなシステムの特性は、本明細書に記載されているが、動作の原理に影響を及ぼすことなく、他の特性の様々な組み合わせを伴ってもよい。タブレット、ノートブックまたはスマートフォンなどのハンドヘルドコンピュータ160は、ディスプレイ230と、画像処理ユニット機能(「画像処理ユニット」)を実行する中央処理ユニット110と、カメラモジュール100(1つ以上のカメラを含み、表示または物理的に分離する)、記憶装置およびデータ接続を含む。この実施形態の一般的な機能は、ハンドヘルドカメラ100を使用する3D画像データセット170を介した誘導であり、画像処理ユニット110は、3D画像データセット170からの強調画像810をリアルタイムで、ハンドヘルドの視点からハンドヘルドカメラ100と一体化されているか、またはそのカメラ100に接続され、強調画像810を表示しているディスプレイ230を有する。環境(患者150またはワークピースなど)に対するハンドヘルドカメラ100の位置は、その環境の観察結果に基づいて3D画像データセット170に表される画像が計算される。カメラ100と環境との間の変形450(位置合わせとも呼ばれる)は、観察され計算された表面情報270、マーカー220、または自然の目印または解剖学的目印の1つまたは複数に基づいて、画像処理ユニット110によって計算される。介入器具130は、カメラ100でそれらを観察し、画像処理ユニット110によってそれらを検出することによって能動的に追跡することもできる。画像処理ユニット110は、必要な計算が説明された機能を達成することを可能にするようにプログラムされる。以下、詳細に説明する。なお、処理の特定のステップは、記載された順序で実行する必要はない。
図10は、本発明の一実施形態によるサンプルワークフローを示す。 1010において、二次3D画像データセット170(例えば、CTまたはMRI)は、記憶媒体または他の通信相手から画像処理ユニット110によって読み取られる。次に、フローは1010から1020に移動する。
1020において、二次3D画像データセット170は、患者表面270を抽出するために処理される。次に、フローは1020から1030に移動する。
1030において、二次3D画像データセット170は、その中に含まれる可能性があるマーカー220または他の表面特徴ならびにあらかじめ定義されている可能性がある標的180を抽出するために処理される。4つのデータ要素(ボリューム170、表面270、マーカー220、および標的180)が存在する場合、これらは、さらなる処理のために保持することができる。次に、フローは1030から1040に移動する。
1040において、画像処理ユニット110は、正しい位置合わせの初期化を可能にするために、提案されたアンカーマーカー位置280を計算し、患者150における対応する表面位置の最終的な方向および位置をおおまかに定義する画面上のアンカーマーカー290のための仮想位置を設定することができる。このアンカーマーカーの位置は、(「早期マーカー」として存在する場合)3D画像データセット170から抽出されるか、または、後で操作者が(後期マーカーとして)アンカーマーカーを患者に取り付けるため、発見的(ヒューリスティック)に(例えば、「患者の上部中央」の位置に)初期化され得る。次に、フローは1040から1045に移動する。
1045において、早期アンカーマーカー190が検出された場合、フローは1050に移動し、そうでなければ、処理は1055に移動する。
1050において、操作者は1040の処理結果に従って早期アンカーマーカー190を調節することができる。次に、フローは1050から1060に移動する。
1055において、操作者は、1040の処理結果に従って、後期アンカーマーカーを適用することができる。 次に、フローは1055から1060に移動する。
1060において、操作者は、カメラ100で患者150をスキャンすることができる。操作者は、マーカー220を収集してメッシュ500に結合することができる。次に、フローは1060から1070に移動する。
1070において、アンカーマーカーは、1060で収集されたデータから特定することができる。次に、フローは1070から1075に移動する。
1075において、アンカーマーカーが検出された場合、フローは1080に移動し、そうでなければ、フローは1090に移動する。
1080において、メッシュ500および患者表面270の位置合わせは、すべてのモダリティにおけるアンカーマーカーに基づいて初期化されてもよい。 次に、フローは1080から1090に移動する。
1090において、全てのモダリティは、1030で保存されたマーカー220、1060で収集されたマーカー220及び表面270に基づいて位置合わせすることができる。次に、フローは1090から1092に移動する。
1092において、マーカー220が観察され続けてもよく、カメラ100およびディスプレイ230の相対位置が計算されてもよい。次に、フローは1092から1094に移動する。
1094において、カメラ100に対する器具130の位置は、引き続き観察され得る。次に、フローは1094から1096に移動する。
1096において、画像データ170およびマーカー/カメラ/器具の位置に基づいて強調画像810を計算することができる。
1096の処理結果と並行して、第2の結果として、1台以上のカメラ100を介してリアルタイムの状況情報が取得される。最初に、操作者は、追加の後期マーカー220(これだけに限定されるわけではないが、患者150における向きおよび位置が、画面上のアンカーマーカー290の向きおよび二次3D画像データ170の表面270上の位置とほぼ一致するはずの実際のアンカーマーカーを含む。)を患者150に取り付けることができる。操作者による後期マーカーの取り付けは必須ではないが、特に、初期マーカーが二次3D画像データ170に存在しない場合には、今後の追跡のため、より多くの明確に検出可能な特徴が提供される。1台以上のカメラ100は、移動され、環境を観察し、画像処理ユニット110による後続の処理のためのリアルタイム撮像データを取得する。画像処理部110は、引き続きリアルタイム画像を解析してマーカー220または患者150の表面上の他の特徴を検出する。画像処理ユニット110は、これらの観察されたマーカー220または特徴を、それらの相対的な姿勢を含む最適な観察されたマーカーメッシュ500に結合する。二次3D画像データセット170から抽出されたマーカーまたは特徴の存在に応じて、このマーカーメッシュ500は、画像処理ユニット110によって患者表面270または抽出されたマーカー220またはフィーチャの1つ以上と位置合わせされる。この位置合わせは、アンカーマーカーが使用されている場合、画面上のアンカーマーカー290を、実際に観察されたアンカーマーカー220と一致させることによって初期化される。それ以外の場合、初期化は実行されない。対応する早期マーカー220が3D画像データセット170と観察されたマーカーメッシュ500の両方に存在する場合、マーカーセットは厳密に位置合わせされることができる(例えば、Arunらの「Two−Dimension of Two 3D Point Sets」、1987 IEEE、あるいは、Iterative Closest Point(ICP)Pau/McKay、「三次元形状の位置合わせ方法」、IEEE 1992)のアルゴリズムを使用して、1つ以上のマーカーまたは表面を使用して最適な局所位置合わせを見つけることができる。このような局所的最適化による位置合わせが(例えば、後述するように結果として得られるオーバーレイ位置に基づいて)後で操作者によって不正確であると判定された場合、仮想アンカーマーカー290の画面上の修正によって、実際のアンカーマーカー220の位置合わせの再初期化を行ってもよい。画像処理ユニット110により引き続きカメラ画像内のマーカーまたは特徴が検出されることによって、マーカー220または特徴、マーカーメッシュ500、および位置合わせされた二次3D画像データセット170に対する1台以上のカメラ100の位置が特定される。画像処理ユニット110は、(例えば、Stolkら「ハンドヘルド3D超音波におけるローカルセンサによるナビゲーション:初期生体内経験」SPIE Medical Imaging2011に記載の技術により)取得されたカメラ画像内の器具130およびその姿勢を検出することができる。画像処理ユニット110は、カメラ100の位置に対して既知である1台以上のカメラ100の位置、ディスプレイ230の位置、または器具130の位置に応じて、2次3D画像データセット170から強調画像810を生成する。当該強調画像810は、例えば、デジタル的に再構成された放射線写真、またはカメラ/ディスプレイ/器具位置、または他の臨床的に関連する変形に基づく単一以上の平面再構成の形態をとることができる。かかる強調画像810は、観察された器具130と変形された標的180の位置のオーバーレイを含むこともできる。さらに、この手順中、標的180は、ディスプレイ230が異なる視野位置に保持されたときディスプレイ230をタップすることによって、光線交差位置で標的を識別するエピポーラ幾何学を画定することにより、対話的に作成されてもよい。
このシステムは、ハンドヘルドディスプレイ230またはカメラ100を「ウィンドウ」として画像データ170中に配置することによって、二次3D画像データセット170を通した誘導を可能にする。重要なことは、前述のとおり、患者150の画像データ170との位置合わせが、1つ以上の表面270および表面マーカー220または特徴をリアルタイムで取得し、これらを二次3D画像データセットと即時に位置合わせすることによって、操作者によるさらなる操作を必要とすることなく、達成される点にある。表面およびマーカーまたは特徴の視覚的観察により、動的な大規模(長距離)位置合わせおよび連続的な小規模(短距離)追跡の両方が可能になる。器具130の姿勢および変形された標的180の位置は、ディスプレイ230上の画像データ170に直接重ね合わされ、長時間の手動初期化ステップを必要とせずに、表面下の解剖学的構造に対して器具の効果的な位置決めを可能にする。表面マーカー220または特徴は、患者150が二次3D画像データ170と位置合わせされるために存在し、使用されてもよいが、介入の時点までは患者に存在する必要はない。
[実施例システム2(「Moonlander」)]
実施例システム1の動作原理は、カメラ画像を超える二次医療リアルタイム画像データを含むように拡張することができる。これは、異なる解像度、機能的または材料的または時間的撮像特性を有する異なる医用撮像様式を組み合わせるのに役立ち得る。ハンドヘルド二次センサの例は、超音波プローブ、SPECTプローブ、オキシメータ、光学血管視覚化装置であり、静止二次センサの例は、Cアーム、Oアーム、蛍光透視装置、または超音波断層撮影装置を含む。このように、本発明の別の例示的な実施形態(「Moonlander」)は、リアルタイムのハンドヘルド超音波撮像を組み込むことができる。このようなシステムの特性は、本明細書に記載されているが、動作の原理に影響を及ぼすことなく、他の特性の様々な組み合わせを伴ってもよい。このシステムは、実施例システム1(「ムーンライト」)に基づくものであるが、さらに、ステレオカメラコンポーネント100がしっかりと取り付けられ調節されたハンドヘルドプローブ340を用いた撮像によって直接的に、または他の超音波システムを介して間接的に、超音波画像データ300を受信する。ハンドヘルド超音波プローブ340およびステレオカメラ構成要素100を組み合わせれば、リアルタイム撮像モジュールが形成される。システムディスプレイ230は、ハンドヘルドディスプレイ160である必要はない。位置合わせされた二次的3D画像データセットに対する超音波プローブの位置を追跡することによって、リアルタイム超音波画像と、二次3D画像データは、両方のモダリティ(様式)をリアルタイムで一緒に表示するように設定され、操作者が単一のモダリティで発見することが困難な画像の側面を識別するのに役立つ。位置合わせされた二次3D画像データセットに対する追跡された超音波プローブおよび器具位置がわかれば、前記画像データの変形をさらに可能にし、前記変形に基づいて幾何学的に調整された情報を表示することができる。
大部分の動作特性および手順ステップは実施例システム1のものと同様であるが、画像処理ユニット110はさらに超音波画像データ300を受信することができる。このデータは、例えば、それを平面的再構成または3D画像データセット170の3D視覚化画像と重ね合わせることによって、強調画像810の計算に使用することができる。
ハンドヘルドプローブ340の位置および形状を(それぞれ、追跡およびモデリングから)知ることができれば、二次3D画像データ170またはそれから抽出された表面270との衝突を間接的に検出することができ、衝突の幾何学形状(ジオミトリ)は、(例えば、画像データ170とプローブ340のモデルとの交点を計算することによって、または表面270の要素をプローブ340の画像データ170または表面270への侵入深さの分だけずらすことによって)計算され得る。これらの衝突は組織変形を誘発し、その伝搬は、二次3D画像データ170および推定された組織特性に基づいて予め作成された機械的変形モデルを用いて画像処理ユニット110によって推定され得る。そのような推定は、例えば、アトラスまたは強度ベースのセグメンテーションに基づくものであってよい。衝突はまた、表面変形350またはマーカーメッシュ変形を直接観察することによって独立して推測されてもよい。次いで、変形モデルに伝播された変形は、二次3D画像データ170の変形320、または、おそらく事前定義された標的180の変形380を含む前述データから得られた強調画像810の変形320を教示することができる。
画像誘導のための実施例システム2は、手動で目印を定義したり、術前データ中に存在するはずのマーカーを見分けたり、あるいはこれらと同様の工程を行うなどといった、通常必要とされる位置合わせに関連した対話的操作をすることなく、3D画像と超音波データとの画像融合を可能にする。他の誘導システムとは異なり、提案された本発明は、別個の基準または感知ベースユニットの存在を必要とせず、また、1台以上のカメラ100による表面または表面特徴の観察以外の追加のセットアップ工程も必要としない。
[例示的なコンピュータシステム]
図11は、本発明の例示的な実施形態を実施する際に使用され得る例示的なコンピュータシステムを示す。具体的には、図11は、例えば、スタンドアロンまたはクライアントまたはサーバ装置などの電算装置で使用することができるコンピュータシステム1100の例示的な実施形態を示す。本発明(またはその任意の部分または機能)は、ハードウェア、ソフトウェア、またはソフトウェアを使用して実装されてもよく、ファームウェア、またはそれらの組み合わせを含み、1つ以上のコンピュータシステムまたは他の処理システムで実施されてもよい。実際、1つの例示的な実施形態では、本発明は、本明細書で説明される機能を実行することができる1つ以上のコンピュータシステムにより実現されうる。本発明を実施するのに有用な例示的なコンピュータシステムのブロック図の例示的な実施形態を示す、コンピュータシステム1100の一例を図11に示す。具体的には、図11に示す例示的な実施形態では、例えば、(限定するものではないが)MICROSOFT(登録商標)などのオペレーティングシステムを実行するパーソナルコンピュータ(PC)システム、米国ワシントン州レドモンドのMICROSOFT(登録商標)Corporationから入手可能なWINDOWS(登録商標)NT/98/2000/XP/Vista/Windows(登録商標)/Windows(登録商標)8など、米国カリフォルニア州クパチーノのApple(登録商標)のMAC(登録商標)OS、OS X、またはLinux(登録商標)または他のUNIX(登録商標)系のコンピュータを使用している。しかしながら、本発明はこれらのプラットフォームに限定されず、本発明は、任意の適切なオペレーティングシステムを実行する任意の適切なコンピュータシステム上で実施されてもよい。1つの例示的な実施形態では、本発明は、本明細書で説明するように動作するコンピュータシステム上で実施することができる。例示的なコンピュータシステムであるコンピュータ1100が図11に示されている。例えば、コンピューティングデバイス、通信デバイス、電話、パーソナルデジタルアシスタント(PDA)、パーソナルデジタルアシスタント、iPhone(登録商標)、iPad(登録商標)、Surface、およびAndroidデバイス、3G/4Gワイヤレスデバイス、LTEデバイス、ワイヤレスデバイス、パーソナルコンピュータ(PC)、ハンドヘルドPC、ラップトップコンピュータ、スマートフォン、モバイルデバイス、(iTV)、デジタルビデオレコーダー(DVR)、クライアントワークステーション、シンクライアント、シッククライアント、ファットクライアント、プロキシサーバー、ネットワーク通信サーバー、リモートアクセス装置、クライアントコンピュータ、サーバコンピュータ、ピアツーピアデバイス、ルータ、ウェブサーバ、データ、メディア、オーディオ、ビデオ、電話またはストリーミング技術サーバなども、図11に示すようなコンピュータを使用して実装することができる。例示的な実施形態では、例えば、対話型テレビ装置(iTV)、ビデオ・オン・デマンド・システム(VOD)、デジタル・ビデオ・レコーダ(DVR)および/または他のオンデマンド視聴システムを介して、オン・デマンドでサービスが提供される。コンピュータシステム1100および/またはコンピュータシステム1100の一部は、例えば、画像処理ユニット110、ハンドヘルドユニット160、ディスプレイ230および/または1台以上のカメラ100などの図1−8に記載されたネットワーク、処理装置、および/またはコンポーネントを実装するために使用することができる。
コンピュータシステム1100は、これに限定されないが、例えばプロセッサ1104などの1つ以上のプロセッサを含むことができる。プロセッサ1104は、通信インフラストラクチャ1106(例えば、これらに限定されないが、通信バス、クロスオーバ・バー、相互接続、またはネットワークなど)を含むことができる。プロセッサ1104は、命令(例えば、フィールドプログラマブルゲートアレイ(FPGA))を解釈し実行することができる任意のタイプのプロセッサ、マイクロプロセッサ、または処理ロジックを含むことができる。プロセッサ1104は、単一のデバイス(例えば、単一コア)および/またはデバイスのグループ(例えば、マルチコアプロセッサまたはグラフィックス/並列プロセッサ)を備えることができる。プロセッサ1104は、1つ以上の実施形態を実装するように構成されたコンピュータ実行可能命令を実行するように構成されたロジックを含むことができる。命令は、主メモリ1108または二次メモリ1110に存在してもよい。プロセッサ1104は、デュアルコアプロセッサまたはマルチコアプロセッサなどの複数の独立したコアも含むことができる。プロセッサ1104はまた、専用グラフィックスカード、統合グラフィックスソリューション、および/またはハイブリッドグラフィックスソリューションの形態であってもよい1つ以上のグラフィックス処理ユニット(GPU)を含むことができる。様々な例示的なソフトウェアの実施形態を、この例示的なコンピュータシステムに関して説明することができる。この説明を読めば、他のコンピュータシステムおよび/またはアーキテクチャを使用して本発明をどのように実施するかは当業者には明らかになるであろう。
コンピュータシステム1100は、通信インフラストラクチャ1106(または、図示しないフレームバッファなど)から、グラフィックス、テキスト、およびその他のデータなどを表示部230に転送することができるディスプレイインターフェイス1102を含むことができる。表示部230は、例えば、データを表示するためのLCDまたは他の画面(例えば、携帯電話またはタブレット画面)であってもよい。出力はまた、スピーカを介して音声として提供されてもよい。
コンピュータシステム1100は、さらに、例えば、主メモリ1108、ランダムアクセスメモリ(RAM)、および二次メモリ1110などを含むことができるが、これらに限定されない。主メモリ1108、ランダムアクセスメモリ(RAM)および二次メモリ1110などは、1つ以上の実施形態を実装するように構成された命令を格納するように構成されたコンピュータ可読媒体であってもよく、また、ダイナミックRAM(DRAM)装置、フラッシュメモリ装置、スタティックRAM(SRAM)装置などのランダムアクセスメモリ(RAM)を備えてもよい。
二次メモリ1110には、例えば、フロッピー(登録商標)ディスケットドライブ、磁気テープドライブ、光ディスクドライブ、コンパクトディスクドライブCD−ROM、フラッシュメモリなどによって代表されるハードディスクドライブまたはソリッドステートドライブとしてのストレージデバイス1112および/またはリムーバブルストレージドライブ1114が含まれるが、これらに限定されない。磁気リムーバブルストレージドライブ1114は、例えば、よく知られている方法で、リムーバブルストレージユニット1118からの読出しおよび/またはリムーバブルストレージユニット1118への書込みを行うことができるが、これに限定されるものではない。プログラム記憶装置またはコンピュータプログラム製品とも呼ばれる取り外し可能な記憶装置1118は、フロッピーディスク、磁気テープ、光ディスク、コンパクトディスクなどによって代表されるが、これらに限定されるものではない。以上のとおり、リムーバブル記憶装置1118は、コンピュータソフトウェアおよび/またはデータを記憶したコンピュータ使用可能記憶媒体を含むことができることが理解できる。
他の例示的な実施形態では、二次メモリ1110は、コンピュータプログラムまたは他の命令がコンピュータシステム1100にロードされることを可能にする他の同様の装置を含むことができる。そのような装置としては、リムーバブルストレージユニット1122およびインタフェース1120があり、そのようなものの例としては、プログラムカートリッジおよびカートリッジインタフェース(例えば、限定するものではないが、ビデオゲーム装置に見られるもの)、リムーバブルメモリチップ(例えば、これに限定されるものではないが、消去可能プログラマブルリードオンリメモリ(EPROM)、プログラマブルリードオンリーメモリ(PROM))、これらに関連するソケット、リムーバブルストレージユニット1122からコンピュータシステム1100にソフトウェアおよびデータを転送することを可能にする他のリムーバブルストレージユニット1122およびインタフェース1120が含まれる。メインメモリ1109および/または二次メモリ1110は、少なくとも、例えば、図9−10に記載されたワークフローを実行するための非一時的な命令を含むことができる。
コンピュータシステム1100は、さらに、情報が、例えばユーザからコンピュータシステム1100に入力されることを可能にする任意の機構または機構の組み合わせを含み得る入力装置1103を含むことができる。入力装置1103は、コンピュータシステム1100のための情報を、例えば、ユーザーから受け取るように構成されたロジックを含んでもよい。入力装置1103の例は、例えば、マウス、ペンベースのポインティングデバイス、またはデジタイザ、タッチセンシティブディスプレイデバイス、および/またはキーボードまたは他の(ラベルが付けられていない)データ入力デバイスを含むが、これらに限定されない。他の入力装置1103は、例えば、バイオメトリック入力装置、ビデオソース、オーディオソース、マイクロフォン、加速度計またはジャイロスコープなどの慣性センサ、磁力計、ウェブカム、ビデオカメラ、および/または他のカメラ100を含む。
コンピュータシステム1100は、さらに、コンピュータシステム1100から情報を出力することができる任意の機構または機構の組み合わせを含む出力装置1115を含むことができる。出力装置1115は、コンピュータシステム1100から情報を出力するように構成された論理(ロジック)を含むことができる。出力装置1115の実施形態は、ディスプレイ、プリンタ、スピーカ、陰極線管(CRT)、プラズマディスプレイ、発光ダイオード(LED)ディスプレイ、液晶ディスプレイ(LCD)などを含むディスプレイ230、およびディスプレイインタフェース1102を含むが、プリンタ、真空蛍光ディスプレイ(VFD)、表面伝導型電子放出ディスプレイ(SED)、電界放出ディスプレイ(FED)なども含まれる。コンピュータシステム1100は、例えば入力置1103、通信インタフェース1124、ケーブル1128および通信経路1126などを含むことができる。これらのデバイスは、例えば、ネットワークインタフェースカードおよび/またはモデムを含むことができるが、これに限定されない。
通信インタフェース1124は、ソフトウェアおよびデータがコンピュータシステム1100と外部装置との間で転送されることを可能にすることができる。
当明細書では、「コンピュータプログラム媒体」および「コンピュータ可読媒体」という用語は、例えば、リムーバブルストレージドライブ1114、ハードディスクまたはソリッドステート記憶装置1112にインストールされたディスク、フラッシュメモリ、リムーバブルディスク、非リムーバブルディスクなどが含まれるが、これらに限定されるものではない。加えて、無線通信、導線(例えば、ツイストペア、CAT5などであるが、これに限定されない)または光媒体(例えば、これに限定されないが、光ファイバーなど)を介して伝送される電気通信などの様々な電磁放射は、コンピュータ実行可能命令を搬送するように符号化されてもよいことに注意すべきである。プロセッサ内で実行するためのコンピュータ実行可能命令を含むコンピュータ読み取り可能媒体は、本発明の様々な実施形態を格納するように構成されてもよい。「一実施形態」、「実施形態」、「例示的実施形態」、「様々な実施形態」などの言及は、そのように記載された本発明の実施形態が特定の特徴、構造、または特性を含むことを示すが、すべての実施形態が必ずしも特定の特徴、構造、または特性を含むわけではない。
さらに、「一実施形態では」または「例示的実施形態で」という語句の繰り返しの使用は、必ずしも同じ実施形態を指しているとは限らないが、そうでなくてもよい。本明細書に記載された様々な実施形態を組み合わせることができ、および/または実施形態の特徴を組み合わせて新しい実施形態を形成することができる。
特に断りのない限り、以下の説明から明らかなように、明細書全体を通して、「処理する」、「計算する」、「算出する」、「決定する」などの用語を使用する議論は、コンピューティングシステムのレジスタおよび/またはメモリ内の物理量、例えば電子量として表されるデータを同様に物理的に表現される他のデータに変換および/または変換するコンピュータまたはコンピューティングシステムまたは同様の電子コンピューティングデバイスの動作および/計算システムのメモリ、レジスタまたは他のそのような情報記憶装置、伝送装置または表示装置内の量を含む。
同様に、「プロセッサ」という用語は、レジスタおよび/またはメモリから電子データを処理してその電子データをレジスタおよび/またはメモリに格納され得る他の電子データに変換するデバイスの任意のデバイスまたは部分を指してもよい。「コンピューティングプラットフォーム」は、1つ以上のプロセッサを備えることができる。
本発明の実施形態は、ソフトウェアコンポーネントとして多くの異なる方法で具体化されてもよい。例えば、スタンドアロンのソフトウェアパッケージであってもよく、あるいは、例えば科学的モデリング製品などのより大きなソフトウェア製品に「ツール」として組み込まれたソフトウェアパッケージであってもよい。これは、ネットワーク(例えば、ウェブサイト)から、スタンドアロン製品として、または既存のソフトウェアアプリケーションにインストールするためのアドインパッケージとしてダウンロードすることができる。また、クライアント/サーバーソフトウェアアプリケーションとして、またはWeb対応ソフトウェアアプリケーションとして利用できる。また、ネットワークカバレッジと応答性を検出するシステムの一部である場合もありる。汎用コンピュータは、1つ以上のプロセッサが本明細書に示された技術および、例えば、ステップを実行することを可能にするプログラミングロジックを記憶することによって、特殊化することができる。
本発明の実施形態は、本明細書の動作を実行するための装置を含むことができる。該装置は、所望の目的のために特別に構成することができ、または装置に格納されたプログラムによって選択的に起動または再構成された汎用装置を含むことができる。
本発明の様々な実施形態について上述したが、これらの実施形態は単なる例示であり、限定するものではないと解されるべきである。したがって、本発明の範囲は、上記の例示的な実施形態のいずれかによって限定されるべきではなく、むしろ、添付の特許請求の範囲およびそれらの均等物に従ってのみ定義されるべきである。

Claims (31)

  1. 画像処理システムと、
    1台以上のカメラを有し前記画像処理システムと通信する第1撮像モジュールと、を備えた画像誘導システムであって、
    前記画像処理システムは、
    第2撮像装置から二次画像データを受信し、
    第1関心表面を決定するために前記二次画像データを区分し、
    前記第1撮像モジュールからリアルタイム撮像データを受信するように構成され、
    前記1台以上のカメラからの前記リアルタイム撮像データには、第2関心表面およびアンカーマーカーのうちの少なくとも一つの画像が含まれ、
    前記アンカーマーカーは、前記第2関心表面、複数の早期または後期マーカーおよび器具の位置と方向を提供し、
    前記画像処理システムは、さらに、
    前記アンカーマーカー、前記複数の早期または後期マーカー、および前記第2関心表面のうちの少なくとも一つを用いて、前記第2関心表面に対する前記第1関心表面の位置合わせ調整量を算出し、
    前記アンカーマーカー、前記複数の早期または後期マーカー、前記第2関心表面および前記第2関心表面の特徴のうちの少なくとも一つを用いて、前記第1関心表面に対する前記第1撮像モジュールの追跡位置を算出し、
    前記リアルタイム撮像データから得られる情報を、前記第1撮像モジュールの位置に基づいて、前記二次画像データから計算された対応する情報と結合することにより、強調画像を作成するように構成されていることを特徴とする画像誘導システム。
  2. 前記画像処理システムと通信する表示手段をさらに備え、
    前記画像処理システムは、さらに、
    前記表示手段に前記強調画像を表示するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  3. 前記表示手段は、タブレットおよびスマートフォンのうちの少なくとも一つを備えることを特徴とする請求項2に記載の画像誘導システム。
  4. 前記画像処理システムは、さらに、
    前記表示手段に取り付けられた前記複数のマーカーおよび前記表示手段の特徴のうちの少なくとも一つを用いて、前記表示手段に対する前記第1撮像モジュールの追跡位置を算出し、
    前記第1撮像モジュールおよび前記表示手段の位置に基づいて、前記リアルタイム撮像データから得られる情報を、一つ以上の対応する二次画像セグメントから得られる情報と結合することにより、強調画像を作成することを特徴とする請求項2に記載の画像誘導システム。
  5. 前記画像処理システムは、さらに、
    後期アンカーマーカーを前記第1関心表面上に配置する提案位置を算出し、受信し、または二次画像セグメントから抽出し、
    前記第1関心表面上の前記提案位置に基づいて、前記後期アンカーマーカーが前記第2関心表面上に配置されるように、前記第1関心表面および前記後期アンカーマーカーの提案位置を前記表示手段に表示するように構成されていることを特徴とする請求項2に記載の画像誘導システム。
  6. 前記画像処理システムは、計算、データ保管およびデータ送信のうちの少なくとも一つを実行する追加の遠隔システムコンポーネントと通信するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  7. 前記強調画像は、デジタル再構成放射線写真、マルチプレーン再構成、前記追跡された第1撮像モジュールからの画像、および前記二次画像データから計算された対応する画像、カメラ観察に基づいて計算された位置における器具、および前記二次画像データからの所定の標的と操作者から直接得られた所定の標的のうちの少なくとも一つの標的位置のうちの少なくとも一つが結合したものであることを特徴とする請求項1に記載の画像誘導システム。
  8. 前記二次画像データに少なくとも一つの前記早期マーカーが含まれ、
    前記画像処理システムは、さらに、
    当該少なくとも一つの前記早期マーカーを自動的に区分するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  9. 前記二次画像データに少なくとも一つの早期第2のマーカーが含まれ、
    前記画像処理システムは、さらに、
    前記少なくとも一つの早期第2のマーカーと前記第1撮像モジュールからの前記リアルタイム撮像データからの前記複数の早期または後期マーカーの画像との間の対応関係を計算するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  10. 前記二次画像データには少なくとも一つの前記早期マーカーが含まれており、
    前記画像処理システムは、さらに、
    前記第1の関心表面および前記第2の関心表面の両方において知られている前記早期または後期マーカーを用いて前記第1の関心表面を前記第2の関心表面と初期位置合わせし、前記第2関心表面を用いて前記初期位置合わせを微調整するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  11. 前記画像処理システムは、さらに、
    観察されまたは見積もられた変形であって、前記第2の関心表面または前記複数の早期または後期マーカーのうちの少なくとも一つに加えられた変形であって、前記第2関心表面に当接する前記第1撮像モジュール、器具またはその他の対象のうちの少なくとも一つにより加えられた変形に起因する前記第1の関心表面の変形を算出するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  12. 前記画像処理システムは、さらに、
    前記二次画像データ中の予め選択された標的および操作者により直接選択された標的の少なくとも一つから選択された標的位置を受信し、
    前記第1の関心表面に加えられた前記変形に基づいて前記標的位置を再算出するように構成されていることを特徴とする請求項11に記載の画像誘導システム。
  13. 前記画像処理システムは、さらに、
    前記算出された変形を前記一つ以上の対応する二次画像セグメントから得られる情報に加えつつ、前記第1撮像モジュールの位置に基づいて、前記リアルタイム撮像データから得られる情報を、前記二次画像データから計算された対応する情報と結合することにより、変形強調画像を作成するように構成されていることを特徴とする請求項11に記載の画像誘導システム。
  14. 感知装置をさらに備え、前記感知装置は、前記複数の早期または後期マーカーのうちの少なくとも一つが前記1台以上のカメラにより撮像できない場合には、前記感知装置の現在の方向および変位の推定値を提供するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  15. 前記感知装置は、加速度計、ジャイロスコープ、または磁力計のうちの少なくとも一つを含むことを特徴とする請求項14に記載の画像誘導システム。
  16. 前記感知装置は、前記第1撮像モジュールおよび前記画像処理システムと通信する表示手段のうちの少なくとも一つに接続されることを特徴とする請求項14に記載の画像誘導システム。
  17. 前記画像処理システムは、さらに、
    受信した前記リアルタイム撮像データに基づいて、継続的に、前記第2関心表面および前記複数の早期または後期マーカーの相対的位置を再構築するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  18. 前記画像処理システムは、さらに、
    受信した前記早期または後期マーカーの画像、前記二次画像データから抽出された表面情報、前記二次画像データおよび標的位置のうちの少なくとも一つに基づいて、前記早期または後期マーカーの悪い構成を決定し、
    前記複数の早期または後期マーカーの改善された構成を計算し、
    前記改善された構成は、前記アンカーマーカーの位置、他の前記早期または後期マーカーの位置、前記第2関心表面の画像、前記二次画像データおよび標的位置のうちの少なくとも一つに基づくものであり、
    前記画像処理システムは、さらに、
    前記改善された構成を送信するように構成されていることを特徴とする請求項1に記載の画像誘導システム。
  19. 前記アンカーマーカーまたは前記複数の早期または後期マーカーは、自己識別タグ、マルチモダリティマーカー、マーカーストリップ、パターンシート、パターン被覆、天然の解剖学的特徴、皮膚の特徴、または毛髪のうちの少なくとも一つを備えることを特徴とする請求項1に記載の画像誘導システム。
  20. 前記第1撮像モジュールは、1つ以上の二次センサを有し、前記二次センサは、超音波プローブ、SPECTプローブ、オキシメータ、および光学血管視覚化装置のうちの少なくとも一つを有することを特徴とする請求項1に記載の画像誘導システム。
  21. 前記1台以上のカメラは、前記1つ以上の前記2次センサから物理的に切り離されることを特徴とする請求項20に記載の画像誘導システム。
  22. 前記1台以上のカメラは、光学カメラ、赤外線カメラ、UV感受性カメラ、光視野センサ、プレノプティックカメラ、および反射屈折カメラのうちの少なくとも一つを備えることを特徴とする請求項1に記載の画像誘導システム。
  23. 前記二次画像データは、CTスキャン、CBCTスキャン、X線画像、蛍光透視画像、MRIスキャン、PETスキャン、およびSPECTスキャンのうちの少なくとも一つからのデータを備えることを特徴とする請求項1に記載の画像誘導システム。
  24. 1台以上のプロセッサーにより、二次撮像装置から二次画像データを受信する工程と、
    前記1台以上のプロセッサーにより、第1関心表面を決定するために、前記二次画像データを区分する工程と、
    前記1台以上のプロセッサーにより、第1撮像モジュールから、カメラからの視覚データであって、第2関心表面、早期または後期アンカーマーカーの画像および複数の早期または後期二次マーカーの画像のうちの少なくとも一つを有する視覚データを含むリアルタイム撮像データを受信する工程と、
    前記1台以上のプロセッサーにより、前記早期または後期アンカーマーカー、前記早期または後期二次マーカーおよび前記第2関心表面のうちの少なくとも一つを用いて、前記第1関心表面を前記第2関心表面と位置合わせする工程と、
    前記1台以上のプロセッサーにより、前記早期または後期アンカーマーカー、前記複数の早期または後期二次マーカー、前記第2関心表面および前記第2関心表面の特徴のうちの少なくとも一つを用いて、前記第1関心表面に対する前記第1撮像モジュールの位置を算出する工程と、
    前記1台以上のプロセッサーにより、前記第1撮像モジュールの位置に基づいて、前記第1撮像モジュールからの前記リアルタイム撮像データを、対応する前記第2撮像装置からの対応する二次画像と結合することにより、強調画像を作成する工程と、を含む誘導方法。
  25. 前記強調画像を表示手段に表示する工程をさらに含むことを特徴とする請求項24に記載の誘導方法。
  26. 前記1台以上のプロセッサーにより、前記表示手段に貼付された複数のマーカーおよび前記表示手段の特徴のうちの少なくとも一つを用いて、前記表示手段に対する前記第1撮像モジュールの位置を算出する工程と、
    前記1台以上のプロセッサーにより、前記第1撮像モジュールおよび前記表示手段の位置に基づいて、前記第1撮像モジュールからの前記リアルタイム撮像データを、対応する前記第2撮像装置からの対応する二次画像と結合することにより、強調画像を作成する工程と、
    前記強調画像を前記表示手段に表示する工程をさらに含むことを特徴とする請求項25に記載の誘導方法。
  27. 前記1台以上のプロセッサーにより、前記第1関心表面における前記後期アンカーマーカーを配置する提案位置を算出する工程と、
    前記第1関心表面と前記後期アンカーマーカーを配置する前記提案位置を表示手段に表示する工程をさらに含むことを特徴とする請求項24に記載の誘導方法。
  28. 前記二次画像データに含まれる早期マーカーを自動的に区分する工程をさらに含むことを特徴とする請求項24に記載の誘導方法。
  29. 前記二次画像データに含まれる早期マーカーと前記第1撮像モジュールによって観察される前記複数の早期または後期二次マーカーとの間の対応関係を自動的に計算する工程をさらに含むことを特徴とする請求項24に記載の誘導方法。
  30. 前記第1撮像モジュールからの前記リアルタイム撮像データまたは前記カメラからのリアルタイム視覚データに基づいて、前記第1関心表面の変形を算出する工程と、
    前記算出された変形に基づいて、二次画像および標的を変更する工程と、をさらに含むことを特徴とする請求項24に記載の誘導方法。
  31. 前記1台以上のプロセッサーにより、変更された第1関心領域を決定するために、前記変更された二次画像を区分する工程と、
    前記1台以上のプロセッサーにより、前記早期または後期アンカーマーカー、前記複数の早期または後期二次マーカー、前記第2関心表面の特徴および前記第2関心表面のうちの少なくとも一つを用いて、前記変更された第1の関心表面を前記第2の関心表面と順次位置合わせする工程と、をさらに含むことを特徴とする請求項30に記載の誘導方法。
JP2018506089A 2015-04-17 2016-04-18 後期マーカー配置による融合イメージベース誘導のためのシステムおよび方法 Pending JP2018514352A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/689,849 2015-04-17
US14/689,849 US9436993B1 (en) 2015-04-17 2015-04-17 System and method for fused image based navigation with late marker placement
PCT/US2016/028146 WO2016168839A1 (en) 2015-04-17 2016-04-18 System and method for fused image based navigation with late marker placement

Publications (1)

Publication Number Publication Date
JP2018514352A true JP2018514352A (ja) 2018-06-07

Family

ID=55970770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018506089A Pending JP2018514352A (ja) 2015-04-17 2016-04-18 後期マーカー配置による融合イメージベース誘導のためのシステムおよび方法

Country Status (6)

Country Link
US (2) US9436993B1 (ja)
EP (1) EP3081184B1 (ja)
JP (1) JP2018514352A (ja)
CA (1) CA2983145A1 (ja)
ES (1) ES2718543T3 (ja)
WO (1) WO2016168839A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6701438B1 (ja) * 2019-02-01 2020-05-27 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11627944B2 (en) 2004-11-30 2023-04-18 The Regents Of The University Of California Ultrasound case builder system and method
US10343283B2 (en) * 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US11631342B1 (en) 2012-05-25 2023-04-18 The Regents Of University Of California Embedded motion sensing technology for integration within commercial ultrasound probes
US10380919B2 (en) 2013-11-21 2019-08-13 SonoSim, Inc. System and method for extended spectrum ultrasound training using animate and inanimate training objects
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US11600201B1 (en) 2015-06-30 2023-03-07 The Regents Of The University Of California System and method for converting handheld diagnostic ultrasound systems into ultrasound training systems
WO2017055403A1 (en) * 2015-09-29 2017-04-06 Institut National De La Sante Et De La Recherche Medicale (Inserm) Device and system for generating ultrasonic waves in a target region of a soft solid and method for locally treating a tissue
US10052170B2 (en) * 2015-12-18 2018-08-21 MediLux Capitol Holdings, S.A.R.L. Mixed reality imaging system, apparatus and surgical suite
WO2018049196A1 (en) * 2016-09-09 2018-03-15 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for display of patient data in computer-assisted surgery
CN109982657B (zh) * 2016-11-11 2023-06-30 直观外科手术操作公司 具有多模态图像显示的外科手术***
TWI681751B (zh) * 2016-11-14 2020-01-11 鐿鈦科技股份有限公司 植入物環景影像檢視方法及其系統
US10130430B2 (en) 2016-11-14 2018-11-20 Intai Technology Corp. No-touch surgical navigation method and system thereof
EP3544538B1 (en) * 2016-11-23 2022-01-05 Clear Guide Medical, Inc. System for navigating interventional instrumentation
US10748450B1 (en) * 2016-11-29 2020-08-18 Sproutel, Inc. System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education
US11056022B1 (en) * 2016-11-29 2021-07-06 Sproutel, Inc. System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education
CN110072467B (zh) 2016-12-16 2022-05-24 皇家飞利浦有限公司 提供引导手术的图像的***
US10896628B2 (en) 2017-01-26 2021-01-19 SonoSim, Inc. System and method for multisensory psychomotor skill training
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US9892564B1 (en) 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
WO2018195178A1 (en) * 2017-04-18 2018-10-25 Teleflex Medical Incorporated Vascular access training simulator system and transparent anatomical model
CA3072257A1 (en) * 2017-04-21 2018-10-25 The United States Government As Represented By The Department Of Veterans Affairs Using augmented reality in surgical navigation
US11646113B2 (en) * 2017-04-24 2023-05-09 Biosense Webster (Israel) Ltd. Systems and methods for determining magnetic location of wireless tools
EP3430595B1 (en) * 2017-05-23 2020-10-28 Brainlab AG Determining the relative position between a point cloud generating camera and another camera
CN107392995B (zh) * 2017-07-05 2021-12-07 天津大学 机械轴导航***中的人体下肢配准***
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019162217A1 (en) * 2018-02-22 2019-08-29 Koninklijke Philips N.V. Sensor-based shape identification
FR3086423B1 (fr) 2018-09-21 2021-09-10 Diotasoft Procede et systeme de visualisation en realite augmentee
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
KR102182134B1 (ko) * 2018-12-07 2020-11-23 한국 한의학 연구원 마커를 이용하는 니들 시술 가이드 기능을 가진 초음파 영상 기기
US11810473B2 (en) * 2019-01-29 2023-11-07 The Regents Of The University Of California Optical surface tracking for medical simulation
US11495142B2 (en) 2019-01-30 2022-11-08 The Regents Of The University Of California Ultrasound trainer with internal optical tracking
EP3692939B1 (en) 2019-02-07 2021-07-14 Stryker European Operations Limited Surgical systems for facilitating tissue treatment
WO2020181498A1 (zh) * 2019-03-12 2020-09-17 上海复拓知达医疗科技有限公司 体内导航***和方法
KR20220058840A (ko) * 2019-03-25 2022-05-10 퍼스모바일 인코포레이티드 X-선 장치 또는 초음파 장치 환경 내에서 치료 도구의 조준 및 정렬을 위한 시스템 및 방법
CN110192911B (zh) * 2019-05-09 2021-03-16 上海联影医疗科技股份有限公司 目标点穿刺方法、装置、存储介质及计算机设备
US10997448B2 (en) 2019-05-15 2021-05-04 Matterport, Inc. Arbitrary visual features as fiducial elements
WO2021058087A1 (en) * 2019-09-24 2021-04-01 Brainlab Ag Method and system for projecting an incision marker onto a patient
CN111216109A (zh) * 2019-10-22 2020-06-02 东北大学 一种用于临床治疗与检测的视觉跟随装置及其方法
DE102019220579A1 (de) * 2019-12-27 2021-04-22 Siemens Healthcare Gmbh Verfahren und Datenverarbeitungssystem zum Bereitstellen einer Navigationsinformation
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN112155733B (zh) * 2020-09-29 2022-01-28 苏州微创畅行机器人有限公司 可读存储介质、骨建模配准***及骨科手术***
CN112401919B (zh) * 2020-11-17 2023-04-21 上海联影医疗科技股份有限公司 一种基于摆位模型的辅助摆位方法及***
AU2022205690A1 (en) * 2021-01-11 2023-07-27 Digital Surgery Systems, Inc. Registration degradation correction for surgical navigation procedures
US20220331008A1 (en) 2021-04-02 2022-10-20 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
CN113313823B (zh) * 2021-07-28 2021-11-12 康达洲际医疗器械有限公司 一种用于成像***群的协同成像方法与***
US20230062782A1 (en) * 2021-09-02 2023-03-02 Cilag Gmbh International Ultrasound and stereo imaging system for deep tissue visualization
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008093517A1 (ja) * 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
WO2015024600A1 (en) * 2013-08-23 2015-02-26 Stryker Leibinger Gmbh & Co. Kg Computer-implemented technique for determining a coordinate transformation for surgical navigation

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US511101A (en) 1893-12-19 Haery w
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US6379302B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
DE10322738A1 (de) * 2003-05-20 2004-12-16 Siemens Ag Verfahren zur markerlosen automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter Verwendung eines intraoperativ gewonnenen 3D-Datensatzes
WO2005058137A2 (en) * 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US20080123910A1 (en) * 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
US8218847B2 (en) * 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US20130016185A1 (en) 2009-11-19 2013-01-17 The John Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
CA3085777C (en) * 2010-11-08 2022-03-15 Conavi Medical Inc. Systems and methods for improved visualization during minimally invasive procedures
FR2970638B1 (fr) * 2011-01-26 2014-03-07 Inst Nat Rech Inf Automat Procede et systeme d'aide au positionnement d'un outil medical sur la tete d'un sujet
US9886552B2 (en) * 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
WO2013071437A1 (en) * 2011-11-15 2013-05-23 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
WO2013134782A1 (en) * 2012-03-09 2013-09-12 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
US9076246B2 (en) * 2012-08-09 2015-07-07 Hologic, Inc. System and method of overlaying images of different modalities
US20140275994A1 (en) * 2013-03-15 2014-09-18 Covidien Lp Real time image guidance system
EP2981205A4 (en) * 2013-04-04 2017-02-15 Children's National Medical Center Device and method for generating composite images for endoscopic surgery of moving and deformable anatomy
US8880151B1 (en) 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition
WO2015103388A1 (en) * 2014-01-02 2015-07-09 Metritrack, Inc. System and method for tracking completeness of co-registered medical image data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008093517A1 (ja) * 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
WO2015024600A1 (en) * 2013-08-23 2015-02-26 Stryker Leibinger Gmbh & Co. Kg Computer-implemented technique for determining a coordinate transformation for surgical navigation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6701438B1 (ja) * 2019-02-01 2020-05-27 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
WO2020157985A1 (ja) * 2019-02-01 2020-08-06 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
US11207142B2 (en) 2019-02-01 2021-12-28 Tcc Media Lab Co., Ltd Composite image generation system and initial condition resetting system

Also Published As

Publication number Publication date
EP3081184A1 (en) 2016-10-19
ES2718543T3 (es) 2019-07-02
EP3081184B1 (en) 2019-01-30
CA2983145A1 (en) 2016-10-20
US20170116729A1 (en) 2017-04-27
US9978141B2 (en) 2018-05-22
WO2016168839A1 (en) 2016-10-20
US9436993B1 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
US9978141B2 (en) System and method for fused image based navigation with late marker placement
US10762627B2 (en) Method and a system for registering a 3D pre acquired image coordinates system with a medical positioning system coordinate system and with a 2D image coordinate system
US10238361B2 (en) Combination of ultrasound and x-ray systems
US10977787B2 (en) Feedback for multi-modality auto-registration
FR2908628A1 (fr) Procede et systeme de pilotage d'un instrument medical
KR20140127635A (ko) 영상 정합 방법 및 장치
EP3110335B1 (en) Zone visualization for ultrasound-guided procedures
EP3234832A1 (en) Method for optimising the position of a patient's body part relative to an imaging device
WO2011070492A1 (en) Visualization of ultrasound in x-ray images
US20230138666A1 (en) Intraoperative 2d/3d imaging platform
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
Alcérreca et al. A new approach to ultrasound guided radio-frequency needle placement
CN115176283A (zh) 增强现实定位医学视图

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200728