JP2021166706A - 画像誘導手術システムのためのユーザインターフェース - Google Patents

画像誘導手術システムのためのユーザインターフェース Download PDF

Info

Publication number
JP2021166706A
JP2021166706A JP2021065701A JP2021065701A JP2021166706A JP 2021166706 A JP2021166706 A JP 2021166706A JP 2021065701 A JP2021065701 A JP 2021065701A JP 2021065701 A JP2021065701 A JP 2021065701A JP 2021166706 A JP2021166706 A JP 2021166706A
Authority
JP
Japan
Prior art keywords
segments
virtual camera
group
patient
patient model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021065701A
Other languages
English (en)
Inventor
ファテメ・アクバリアン
Akbarian Fatemeh
アタナシオス・パパダキス
Papadakis Athanasios
ジョーダン・アール・トロット
R Trott Jordan
ノーム・ラケーリ
Racheli Noam
イタマル・ブスタン
Bustan Itamar
ジェットミア・パルシ
Palushi Jetmir
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Acclarent Inc
Original Assignee
Biosense Webster Israel Ltd
Acclarent Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd, Acclarent Inc filed Critical Biosense Webster Israel Ltd
Publication of JP2021166706A publication Critical patent/JP2021166706A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】画像誘導手術システムを提供すること。
【解決手段】仮想カメラが、周囲の解剖学的構造、及び解剖学的構造に展開されている被追跡手術用器具の仮想カメラ視野を提供するために、患者の解剖学的構造の3Dモデルに対して位置決めされ得る。手術用器具が非常に狭い解剖学的通路又は腔内で使用されているなどの場合、仮想カメラによって提供される視覚背景が制限され得る。更なる配置柔軟性をもたせるために、仮想カメラを提供するIGSシステムは、特定のセグメントを隠すこと、又は特定のセグメントを半透明にすることを含み得る、3Dモデルの異なるセグメント又は領域の可変視覚特性を定義する入力を受信する。そのようなシステムによって、仮想カメラ視野によって提供された3Dモデルの視野を、より関連性が低いセグメントを除去するか若しくは目立たせないようにするか、より関連性が高いセグメント(例えば、重要な患者の解剖学的構造)を表示するか若しくは強調するか、又はこれらの両方を行うように修正することができる。
【選択図】図1

Description

(優先権)
本出願は、米国仮特許出願第63/007713号、発明の名称「User Interface for Image Guided Surgery System」(2020年4月9日出願)(開示内容は参照により本明細書に組み込まれている)の優先権を主張するものである。
画像誘導手術(image-guided surgery、IGS)は、コンピュータを使用して、患者の身体内に挿入された器具の位置の、術前に得られた画像(例えば、CTスキャン又はMRIスキャン、3Dマップなど)のセットに対するリアルタイムの相関を得ることで、コンピュータシステムが器具の現在の位置を術前に得られた画像に重ねる技術である。IGS処置で使用できる電磁IGSナビゲーションシステムの例は、Biosense−Webster,Inc.(Irvine,California)によるCARTO(登録商標)3 Systemである。いくつかのIGS手技では、術野のデジタルトモグラフィスキャン(例えば、CT又はMRI、3Dマップなど)を外科手術の前に得る。次に、特別にプログラムされたコンピュータを使用して、デジタルトモグラフィスキャンデータをデジタルマップに変換する。外科手術中、センサ(例えば、電磁界を発生させる及び/又は外部で発生した電磁界に反応する電磁コイル)を有する特別な器具を使用して処置を実施し、同時に、センサがコンピュータに各手術用器具の現在位置を示すデータを送る。コンピュータは、センサから受信したデータを、術前トモグラフィスキャンから作成されたデジタルマップと相関付ける。トモグラフィスキャン画像は、スキャン画像内に示される解剖学的構造に対する各手術用器具のリアルタイム位置を示す指標(例えば、クロスヘア又は照明ドットなど)とともにビデオモニタ上に表示される。したがって、外科医が器具自体を体内のその現在の位置において直接視覚化することができない場合であっても、ビデオモニタを見ることによって、各センサ搭載器具の正確な位置を知ることができる。
いくつかのIGSシステムは、追加的に、手術前に得られた画像又は他のデータソースに基づいた、患者の解剖学的構造の三次元のレンダリングされたもの又は3Dモデルを表示することができる。そのような3Dモデルは、患者の解剖学的構造を視覚化し、ナビゲートするための追加のツールを外科医に提供するために、1つ又は2つ以上の二次元画像スライスに加えて表示することができる。3Dモデルをナビゲートすることができる1つの方法は、対応する仮想内視鏡視野を提供する仮想カメラ特徴の使用によるものである。仮想カメラは、同じ位置及び配向で配置された現実の内視鏡によって提供される視野をシミュレーションする、3Dモデルの仮想内視鏡視野を提供するために、3Dモデルに対して位置決め及び配向され得る。この仮想内視鏡視野は、処置中に追加の視覚的詳細を外科医に提供するために、センサ搭載器具のリアルタイム位置の表現と組み合わせることができる。
外科処置において、いくつかのシステム及び方法が製造及び使用されてきたが、本発明者ら以前に、添付の特許請求の範囲に記載される発明を製造又は使用した者はいないと考えられる。
本明細書は、本発明を具体的に示し、明確にその権利を請求する特許請求の範囲をもって結論とするものであるが、本発明は以下の特定の実施例の説明を添付図面と併せ読むことでより深い理解が得られるものと考えられる。図中、同様の参照番号は同様の要素を示す。
患者に使用される例示的な手術ナビゲーションシステムの概略図を描写する。 仮想カメラを配置するために、図1の手術ナビゲーションシステムによって、又はそれとともに実施することができる例示的な一組の高レベル工程を示す。 画像誘導手術ナビゲーション中に表示することができ、かつ仮想カメラインターフェースを含む、例示的なインターフェースを示す。 仮想カメラによる手術部位の視覚化の一例を提供する概略図を示す。 図3のインターフェースを介して表示することができる例示的な仮想カメラ視野を示す。 図5Aの仮想カメラ視野の拡大部分を示す。 図3のインターフェースを介して表示することができる例示的な修正された仮想カメラ視野を示す。 異なる視点からの図5Dの修正された仮想カメラ視野を示す。 仮想カメラ視野を修正するための、図1の手術ナビゲーションシステムによって、又はそれとともに実施することができる例示的な一組の高レベル工程を示す。 仮想カメラ視野のためのフィルタ入力を決定するために実施することができる例示的な一組の工程を示す。 フィルタ入力を仮想カメラ視野に適用するために実施することができる例示的な一組の工程を示す。
図面は、いかなる方式でも限定することを意図しておらず、本発明の様々な実施形態は、図面に必ずしも描写されていないものを含め、他の様々な方式で実施し得ることが企図される。本明細書に組み込まれ、その一部をなす添付図面は、本発明のいくつかの態様を図示したものであり、本説明文とともに本発明の原理を説明する役割を果たすものである。しかし、本発明が、示される正確な配置に限定されない点は理解される。
本発明の特定の実施例の以下の説明文は、本発明の範囲を限定する目的で使用されるべきではない。本発明の他の実施例、特徴、態様、実施形態、及び利点は、本発明を実施するために想到される最良の形態の1つを実例として示す以下の説明文より、当業者には明らかとなろう。理解されるように、本発明は、いずれも本発明から逸脱することなく、他の異なるかつ明白な態様が可能である。したがって、図面及び説明は、限定的な性質のものではなく、例示的な性質のものと見なされるべきである。
「近位」及び「遠位」という用語は、本明細書では、ハンドピースアセンブリを把持している臨床医に対して使用されることが理解されるであろう。すなわち、エンドエフェクタは、より近位のハンドピースアセンブリに対して遠位側にある。便宜上及び明確さのために、「上部」及び「下部」などの空間用語もまた、本明細書において、ハンドピースアセンブリを把持している臨床医を基準にして使用されていることが更に理解されよう。しかしながら、外科器具は、多くの配向及び位置で使用されるものであり、これらの用語は、限定的かつ絶対的なものであることを意図するものではない。
本明細書に記載の教示、表現、変形、実施例などのうちのいずれか1つ又は2つ以上を、本明細書に記載の他の教示、表現、変形、実施例などのうちのいずれか1つ又は2つ以上と組み合わせることができる点も更に理解される。したがって、以下に記載されている教示、表現、変形例、実施例などは、互いに独立して考慮されるべきではない。本明細書の教示に照らして、本明細書の教示を組み合わせることができる様々な好適な方式が、当業者には容易に明らかとなろう。このような修正及び変形は、「特許請求の範囲」内に含まれるものとする。
I.例示的な画像誘導手術ナビゲーションシステム
患者(P)の頭部(H)内で医療処置を実施するとき、特に器具が患者(P)の頭部(H)内の器具の作業要素の内視鏡視野を得ることが困難又は不可能である位置にある場合に、患者(P)の頭部(H)内の器具の位置に関する情報を有することが望ましい場合がある。図1は、画像ガイダンスを使用してENT処置を実施することを可能にする例示的なIGSナビゲーションシステム(10)を示す。本明細書に記載する構成要素及び動作性を有することに加えて、又はその代わりに、IGSナビゲーションシステム(10)は、以下の文献の教示の少なくとも一部に従って構築され、動作可能であり得る:米国特許第7,720,521号、発明の名称「Methods and Devices for Performing Procedures within the Ear,Nose,Throat and Paranasal Sinuses」(2010年5月18日発行)(開示内容は参照により本明細書に組み込まれている)、及び米国特許出願公開第2014/0364725号、発明の名称「Systems and Methods for Performing Image Guided Procedures within the Ear,Nose,Throat and Paranasal Sinuses」(2014年12月11日公開、現在放棄されている)(開示内容は参照により本明細書に組み込まれている)。
この例のIGSナビゲーションシステム(10)は、馬蹄形フレーム(22)に一体化された一組の磁場発生器(24)を備える磁界発生器アセンブリ(20)を備える。磁界発生器(24)は、患者(patient、P)の頭部(head、H)の周りに異なる周波数の交流磁場を発生して、IGSナビゲーションシステム(10)が座標系を関連付ける被追跡エリアを生成するように動作可能である。この実施例では、ナビゲーションガイドワイヤ(40)が患者(P)の頭部(H)に挿入される。ナビゲーションガイドワイヤ(40)は、独立型デバイスであってもよく、又は外科用切断器具若しくは拡張器具などの医療器具のエンドエフェクタ又は他の位置に位置決めされてもよい。この例では、フレーム(22)は、椅子(30)に装着されており、患者(P)は、フレーム(22)が患者(P)の頭部(H)に隣接して位置するように、椅子(30)に着座する。単に一例として、椅子(30)及び/又は磁界発生器アセンブリ(20)は、米国特許第10,561,370号、発明の名称「Apparatus to Secure Field Generating Device to Chair」(2020年2月18日発行)(開示内容は参照により本明細書に組み込まれている)の教示の少なくとも一部に従って構成され、動作可能であり得る。
この例のIGSナビゲーションシステム(10)は、IGSナビゲーションシステム(10)の磁界発生器(24)及び他の要素を制御するプロセッサ(12)を更に備える。例えば、プロセッサ(12)は、磁界発生器(24)を駆動して交流電磁界を発生させ、ナビゲーションガイドワイヤ(40)からの信号を処理して患者(P)の頭部(H)内におけるナビゲーションガイドワイヤ(40)内のセンサの位置を決定するように動作可能である。プロセッサ(12)は、1つ又は2つ以上のメモリと通信する処理ユニット(例えば、組み合わせ論理回路又は他の類似の回路を使用してソフトウェア命令を評価及び実行するように構成された一組の電子回路)を備える。この例のプロセッサ(12)は、キーパッド及び/又はマウス若しくはトラックボールなどのポインティングデバイスを含む動作制御部(14)を備えるコンソール(18)内に装着されている。医師は、外科処置を実施しながら、動作制御部(14)を使用して、プロセッサ(12)と相互作用する。
ナビゲーションガイドワイヤ(40)は、磁界発生器(24)によって発生された交流磁場内の位置決めに応答し、磁場内のセンサの位置を決定するために使用可能なデータを発生させるセンサ(図示せず)を含む。連結ユニット(42)はナビゲーションガイドワイヤ(40)の近位端に固定され、コンソール(18)とナビゲーションガイドワイヤ(40)との間のデータ及び他の信号の通信を提供するように構成されている。連結ユニット(42)は、データ及び他の信号の有線又は無線通信を提供することができる。この例では、位置センサが、ガイドワイヤ(40)内に位置しているが、そのような位置センサは、以下でより詳細に説明するものを含む、拡張カテーテル、ガイドカテーテル、ガイドレール、吸入器具、ポインタ器具、位置合わせプローブ、キューレット、患者追跡装置、及び他の器具などの、様々な他の種類の器具に統合することができる。
プロセッサ(12)は、プロセッサ(12)のメモリに格納されたソフトウェアを使用して、IGSナビゲーションシステム(10)を較正及び動作させる。そのような動作は、磁界発生器(24)を駆動することと、ナビゲーションガイドワイヤ(40)からのデータを処理することと、動作制御部(14)からのデータを処理することと、ディスプレイスクリーン(16)を駆動することと、を含む。プロセッサ(12)は、患者の頭部(H)のビデオカメラ画像、患者の頭部(H)のCTスキャン画像、及び/又は患者の鼻腔内及び患者の鼻腔に隣接する解剖学的構造のコンピュータ生成三次元モデルに関するナビゲーションガイドワイヤ(40)の遠位端の位置を示すビデオを、ディスプレイスクリーン(16)を介してリアルタイムで提供するように更に動作可能である。ディスプレイスクリーン(16)は、外科処置中にそのような画像を同時に及び/又は互いに重ね合わせて表示することができる。そのような表示画像は、ナビゲーションガイドワイヤ(40)などの患者の頭部(H)に挿入された器具のグラフィック表現も含むことができ、したがって、操作者は、その実際の位置で、リアルタイムで器具の仮想のレンダリングされたものを見ることができる。単に一例として、ディスプレイスクリーン(16)は、米国特許第10,463,242号、発明の名称「Guidewire Navigation for Sinuplasty」(2019年11月5日発行)(開示内容は参照により本明細書に組み込まれている)の教示の少なくとも一部に従って画像を提供してもよい。操作者が内視鏡も使用している場合には、内視鏡画像をディスプレイスクリーン(16)に提供することもできる。
II.仮想カメラナビゲーションのための例示的なインターフェース及び方法
仮想カメラを配置及び使用する場合、又はユーザが他の内視鏡視野である場合、ユーザの追加の制御及び視覚背景を可能にする改善されたインターフェース及び方法を提供することが有利であり得る。仮想カメラ視野は、ユーザによって患者モデル内の所望の位置に半静的に位置決めされる、仮想内視鏡視野を提供する。仮想カメラ視野は、ユーザによって再位置決め及び再配向することができるが、他の位置的に追跡される器具又は特徴の移動にかかわらず、設定された視点及び視野を維持するという意味では、半静的である。
他の仮想内視鏡視野の例として、代替の仮想内視鏡視野は、仮想カメラとして半静的に位置決めされるのではなく、創面切除ツールなどの被追跡手術用器具の位置及び配向に基づいて提供することができる。このようにして、真の内視鏡視野を含まない手術用器具は、代わりに、手術用器具の被追跡位置に基づいて3Dモデルの一部分をナビゲート及び表示することによって、使用中に仮想内視鏡視野を提供することができる。仮想内視鏡視野は、ユーザによって所望され得る、半静的仮想カメラ位置と、器具により決定される仮想内視鏡位置との間で切り替えることができる。いくつかの実装形態では、器具により決定される仮想内視鏡位置は、レンダリングされた視点が2つの位置の間で(例えば、既に位置決めされている仮想カメラと手術用器具の現在位置との間で)ジャンプするように、既に他の場所に位置決めされている仮想カメラに切り替えることができるか、又は仮想カメラの位置は、切り替えた時点での被追跡手術用器具の位置に基づいて決定することができる(例えば、仮想カメラの初期位置は、仮想内視鏡視野で手術用器具をナビゲートし、次いで、それが仮想カメラとして適所に残るように視野を結合解除することによって、選択することができる)。本明細書で説明する特徴は、仮想カメラ視野、別の仮想内視鏡視野、又はその両方と組み合わせて、柔軟かつ有用な仮想視野を提供することができる。
図2は、仮想カメラを配置するために、IGSナビゲーションシステム(10)などの手術ナビゲーションシステムによって、又はそれを用いて実施することができる例示的な一組の高レベル工程(50)を示す。IGSナビゲーションシステム(10)は、手術前画像データを獲得した後にそのような画像データを格納することができる病院情報システム又は処置情報システムなどの1つ又は2つ以上の源から、手術前画像データを受信することができる(ブロック52)。手術前画像データは、ディスプレイ(16)などのデバイスを介して仮想カメラ視野を提供するように位置決めされた仮想カメラを含み得る、IGSナビゲーションシステム(10)によって使用され、外科処置中にIGS特徴を提供することができる。IGSナビゲーションシステム(10)は、臨床医が使用して動作制御部(14)などの入力デバイスを介して仮想カメラ位置及び配向を画定する入力を提供することができるディスプレイ(16)を介して、配置インターフェースを提供することができる(ブロック54)。臨床医から配置入力を受信すると(ブロック56)、IGSナビゲーションシステム(10)は、配置インターフェースをリアルタイムで更新して、仮想内視鏡視野又はプレビューを提供し(ブロック58)、これは、臨床医が使用して、処置前にプレビューし、かつ追加の配置入力を提供すること、外科処置の実施中に配置を修正すること、又はその両方を行うことができる。
図3は、画像誘導手術ナビゲーション中に表示することができ、仮想カメラインターフェースを含む、例示的なインターフェース(100)を示す。インターフェース(100)は、仮想カメラを構成及び配置するのを支援するために使用することができ、及び構成後に仮想カメラ視野を表示することもできる、仮想カメラペイン(102)を含む。インターフェース(100)は、IGSナビゲーションに有用な追加の視野も含み、及び図3では、患者の冠状画像スライスを示す第1の視野(104)、患者の矢状画像スライスを示す第2の視野(106)、患者の軸方向画像スライスを示す第3の視野(108)、及び患者のレンダリングされた3Dモデル又は他の視野を示すことができる第4の視野(110)を含むように示されている。視野の各々に示される特定の画像スライス又は視点は、システム(10)の操作者によって選択することができ、ナビゲーションガイドワイヤ(40)の移動に応じて自動的に更新することができ、又は他の方法で選択することができる。インターフェース(100)はまた、例えば、視野の1つ又は2つ以上の画像を選択するために、若しくはその視点を変化させるために相互作用することができるか、又は仮想カメラを配置する、若しくは別様に構成することができる、一組の制御部(112)も含む。
仮想カメラ(120)の表現はまた、第3の視野(108)の場合、仮想カメラの位置を示す黒い点及び仮想カメラ(120)の配向並びに視野の両方を示す陰影のついた三角形又は正方形で、視野(104、106、108、110)の各々の上に位置決めして見ることもできる。図3で分かるように、仮想カメラ(120)は、患者の頭部の腔内に位置決めされ、その腔へのアクセスを提供する副鼻腔通路に向かって配向されている。結果として生じる視野は、仮想カメラペイン(102)内に示される。仮想カメラペイン(102)によって示される一意の視点は、IGSナビゲーションを支援するのに有益な追加の情報を提供することができるが、当該視点は、いくつかの場合では、仮想カメラ(120)が実際のカメラと同様に機能するため制限される場合があるので、典型的に、図3に示すように、関心エリアへの明瞭な視線を提供する腔内に位置決めされる。
実施されている処置のタイプ又は患者の生理学などの要因に応じて、視覚背景を提供するために仮想カメラ(120)を位置決めすることができる、容易に利用可能な腔が存在しない場合、又は腔が小さすぎる若しくは狭すぎるので提供される視覚背景が有用でない場合がある。これは特に、手術用器具又は他の位置的に追跡される物体若しくは解剖学的構造が、同じ狭い腔を占有し得る場合にも当てはまる。仮想カメラ(120)は、ほぼあらゆるスケールに構成することができるので、どんなに小さくてもほぼあらゆる空間に仮想的に「嵌合する」ことができるが、仮想カメラペイン(102)内の画像の結果として生じるスケールは、役に立たないか、又は更には誤解を招く場合がある。
一例として、図4は、仮想カメラによる手術部位の視覚化の一例を提供する概略図を示す。解剖学的通路(例えば、副鼻腔通路、エウスタキオ管など)への開口部(130)を見ることができ、解剖学的通路の壁(138)が、開口部(130)を取り囲む楕円形のドットによって大まかに表されている。開口部(130)を取り囲んでいる他の背景の解剖学的表面も示されている(132、134)。処置(例えば、壁(138)上の類線維腫塊の切断又は創面切除)が解剖学的通路内で実施されているシナリオでは、仮想カメラ(120)の現在の位置は、処置にはあまり重要でない場合のある背景解剖学的構造(132、134)によって視野の大部分が占有されているので、理想的でない場合がある。更に、開口部(130)は、壁(138)の円周よりも狭い場合があるので、開口部(130)の組織自体が処置部位を全体的又は部分的に隠す場合がある。
仮想カメラ(120)の現在の位置はまた、他の重要な解剖学的構造に対して提供することができるという状況でも制限される。例えば、図4はまた、手術部位に近接しているが、背景組織(134)などの介在構造のため見えていない、眼腔(136)などの重要な解剖学的構造を示す破線も含む。壁(138)上の創面切除処置は、眼腔(136)内の視神経、血管、又は他の繊細な解剖学的構造に近接している組織を切断又は除去することを伴うことができ、よって、処置中にそのような重要な構造への近接度のいくつかの指示を提供することができるIGSナビゲーション視野が有利であり得る。図4の位置から仮想カメラ(120)を移動させることは、いくつかの利点を提供し得るが、それでも、スケール及び介在組織又は器具の問題により制限される。
これらの仮想カメラ視野の制限は、仮想カメラペイン(102)内の解剖学的構造のレンダリングを通じた選択的制御を可能にする、仮想カメラシステム及びインターフェースを提供することによって対処することができる。図5A〜図5Dは、仮想カメラの位置決めと関連付けられた問題、並びに選択的なレンダリングによって提供される利点を更に例示する。図5Aはまた、図4に示される視野と類似の視野を示すが、開口部(130)内に見える器具先端(140)も含む。器具先端(140)は、処置で使用するために手術部位にナビゲートされた、位置的に追跡される手術用器具(例えば、組織デブリーダ)の遠位先端を表すことができる。図5Aの視野は、最初に器具先端(140)をナビゲート及び位置決めする際に有用であり得るが、解剖学的通路内の組織創面切除処置又は他の処置中に有用である視覚背景をほとんど提供しない。
図5Bは、仮想カメラ(120)を開口部(130)のより近くに再位置決めすることによって達成され得るような、開口部(130)の拡大図を示す。この観点から、器具先端(140)が大部分の視野を占めていること、並びに器具先端(140)及び開口部(130)を取り囲む組織が解剖学的通路の内部をまだ部分的に遮っていることが分かり得る。手術部位(142)(例えば、通路の壁(138)上の類線維腫)は部分的に見えているが、それでも外科処置の全体にわたって見えている状態を維持しなくなる程度に遮られる。手術部位(142)に近接する眼腔(136)は、拡大図内では見えない。仮想カメラ(120)は、解剖学的通路(144)自体の中に位置決めすることができるが、器具先端(140)と通路(144)の壁(138)との間の距離dが狭いので、結果として生じる視野のスケールが有用な視覚背景を提供しない。一例として、通路(144)内からの手術部位(142)の仮想視野は、手術部位(142)の一部分だけしか示さない場合があり(例えば、視野全体が、類線維腫の一部分にしか合焦されない場合があり)、又は器具先端(140)によって完全に遮られる場合がある(例えば、特に、器具先端(140)が手術部位(142)と物理的に接触している場合に当てはまる)。
選択的に解剖学的構造をレンダリングする仮想カメラの配置及び視野を提供するように構成されたIGSナビゲーションシステムは、現在の処置とは無関係であると判定される、又は別様にレンダリングされた仮想カメラ視野に含めることが望ましくないと判定される解剖学的構造を省略することによって、これらの制限に対処する。図5Cは、図5A及び図5Bと類似の仮想カメラ配置を有する、例示的な修正された仮想カメラ視野を示す。依然として、手術部位(142)に近接して位置決めされた器具先端(140)が見える。しかしながら、開口部(130)及び背景解剖学的構造(132、134)、並びに他の介在組織又は構造が省略されており、したがって、眼腔(136)も見える。そのような視野によって、外科医は、手術部位に対する器具先端(140)の位置を視覚的に確認することができ、また、近隣の眼腔(136)又は他の重要な構造に対する器具先端(140)の位置を視覚的に確認することもできる。図5Dは、仮想カメラ(120)が再位置決めされた後などに示され得る、異なる視点からの、図5Dの修正された仮想カメラ視野を示す。そのような選択的なレンダリングのために構成されたIGSナビゲーションシステムは、以下でより詳細に説明するように、基本的な仮想カメラを超える追加の配置位置及び視覚化能力を可能にする。
IGSナビゲーションシステム(10)などのシステムは、選択的なレンダリングによる仮想カメラの配置及び視野を提供するように構成することができ、プロセッサ(12)などの1つ又は2つ以上のプロセッサは、ディスプレイスクリーン(16)などのディスプレイを介して、仮想カメラ視野を選択的にレンダリング及び表示するように構成されている。図6は、選択的にレンダリングするための、仮想カメラ視野を修正するために実施することができる例示的な一組の高レベル工程(200)を示す。画像データは、一組の手術前画像(例えば、MRIスキャンからの画像スライス)として受信し(ブロック202)、組み合わせてセグメント化して(ブロック204)、患者の解剖学的構造のセグメント化3Dモデルを生成する(ブロック206)ことができる。セグメント化(ブロック204)は、患者の解剖学的構造のボクセルモデルを作成すること、モデルの特定の領域を特定の患者の解剖学的構造と関連付けること、又はその両方を含むことができる。一例として、いくつかの視野(軸方向、冠状、矢状)からの一組のMRI画像スライスは、交差平面が、互いに空間的に関連付けられ、かつボクセル及び下層の画像スライスデータの信号強度、組織タイプ、又は他の属性を示すメタデータと関連付けることができるボクセルを生成するように組み合わせることができる。ボクセルモデル又は他の患者の解剖学的構造モデルの更なるセグメント化は、離散した解剖学的構造を識別及び分類することを含むことができる。解剖学的構造の識別情報は、本開示に照らして当業者に明らかになるように、(例えば、ユーザがボクセル又は他の3Dデータの領域を選択し、それらを眼腔としてラベル付けすることによって)手動で、又は(例えば、特定の形状の、又は他の構造に対して特定の空間関係を有する特定の組織タイプと関連付けられたボクセ又は他の3Dデータを検索し、それらを眼腔としてラベル付けする自動過程によって)自動的に実施することができる。セグメント化から作成されたモデル(ブロック206)は、例えば、格納して、断面視野を生成するために仮想カメラの配置、3D空間内の回転及び操作、並びに画像スライス又はボクセル層を通したステッピングを含む、IGSナビゲーションのために使用することができる。
次いで、IGSナビゲーションシステム(10)は、フィルタ選択を受信することができ(ブロック208)、これは、仮想カメラ視野を提供するために使用する場合にモデルの最終的なレンダリングされたものからフィルタ処理されるべき1つ又は2つ以上のセグメント(例えば、モデル内の3D領域を画定するボクセル、セグメント化及び識別された解剖学的構造、又は他のパラメータ)を識別する。フィルタ処理されたセグメントは、以下でより詳細に説明するように、ホワイトリスト(例えば、列記されていない全てのセグメントがフィルタ処理される)、ブラックリスト(例えば、列記されたセグメントだけがフィルタ処理される)、又は他のタイプのフィルタ処理若しくはその組み合わせなどの、様々な方法で識別することができる。フィルタ選択は、(例えば、ユーザが、レンダリングされたものに含めるべき、又はそれから除外するべきセグメントを選択することによって)手動で、又は自動的に行うことができ、自動フィルタ処理選択は、処置のタイプ(例えば、IGSナビゲーションが特定のタイプの処置に対して開始される場合、フィルタ処理選択は、その処置タイプに基づいて自動的に行うことができる)、又は仮想カメラの配置及び配向(例えば、フィルタ処理選択は、仮想カメラを中心とする特定の円周の球形の範囲内の全てのセグメントを含むことができるか、又は仮想カメラに起因する円錐形又は立方形内の全てのセグメントを含むことができる)などの要因によって決定される。
次いで、システムは、フィルタ選択に基づいてモデル特性を更新して(ブロック210)、どのセグメントが最終的なレンダリングされたものに含められるべきか、及びどのセグメントが最終的なレンダリングされたものからフィルタ処理されるべきか、を決定することができる。次いで、更新及びフィルタ処理されたモデルを、仮想カメラペイン(102)又は第4の視野(110)などの1つ又は2つ以上の視野内に表示し(ブロック212)、処置のナビゲーション及び実施の支援に使用することができる。
セグメント(例えば、ボクセル、識別された解剖学的構造、又は他の3D領域)を選択する場合に実施することができる工程の一例として、図7は、仮想カメラ視野のためのフィルタ入力を決定するために実施することができる例示的な一組の工程(300)を示す。手動フィルタ処理選択は、処置前又は処置中に受信することができる(ブロック302)。処置前に、外科医又は他のユーザは、患者の解剖学的構造の3Dモデルを検討し、マウス、キーボード、又は他の入力デバイスを使用して、モデルをナビゲートし、仮想カメラ視野に含める又はそこから除外するセグメントを選択することができる。手動選択は、モデル自体と相互作用する(例えば、モデルをクリックして、クリックしたセグメント全体を除去する)ことによって、又は列記した若しくは他の一組のデータから選択する(例えば、処置タイプ、一群の解剖学的構造、又は特定の解剖学的構造をクリックする)ことによって行うことができる。選択は、例えば、表示されているセグメントをクリックして、又はタッチスクリーンディスプレイの場合はタッチして、レンダリングされた仮想カメラ視野から当該セグメントを除去することによって、処置中に行うことができる。
手動フィルタ選択(ブロック302)の代わりに又はそれに加えて、システムはまた、1つ又は2つ以上のタイプの自動選択(ブロック306)を実施することを可能にすること(ブロック306)もできる。説明してきたように、自動選択は、処置タイプ又は説明に基づいて実施することができる。一例として、処置が図5Aのような解剖学的通路の壁(138)上の類線維腫を創面切除することと関連付けられている場合、システムは、無関係なセグメントを自動的にフィルタ処理して、図5Cに示されるような視野を提供することができる。そのような自動フィルタ処理は、処置のタイプ、及び処置を実施することと関連付けられた特定の外科医などの他の要因に基づくことができ、したがって、各外科医は、その処置のタイプの自動フィルタ処理に関する自分自身の選好を事前構成することができる。他のタイプの所定の又は静的な自動フィルタ選択は、情報(例えば処置で使用される器具タイプ、一意の生理学若しくはリスクを説明する患者固有の情報、又は処置中の手術用器具若しくは他の被追跡物体の所定の位置)に基づくことができる(例えば、一組の自動的にフィルタ処理されたセグメントは、処置の実施中に、器具先端(140)が様々な位置又はマイルストーンに到達したときに、変更又は更新することができる)。手動フィルタ選択は、受信又は決定した時点で、モデルをレンダリングすることと関連付けられた過程又はプロセッサに提供することができる(ブロック304)。
自動フィルタ選択(ブロック306)はまた、処置中に生じる動的要因に基づいて実施することもできる。これは、例えば、仮想カメラ(120)の位置及び配向、器具先端(140)の位置及び配向、並びに手術部位(142)の又はその近くの患者の解剖学的構造の位置及び配向などのデータに基づいて、フィルタ選択を動的に更新することを含むことができる。動的フィルタ処理の一例としては、仮想カメラの位置及び配向、並びに器具先端(140)、眼腔(136)、手術部位(142)、又は現在の処置に関連し得る他のセグメント、領域、エリア、若しくは物体などの近隣の重要な解剖学的構造などの1つ又は2つ以上の他の関心地点(POI)の位置を説明する座標を受信すること(ブロック308)が挙げられる。次いで、受信された(ブロック308)仮想カメラ及びPOI座標を使用して、POIと仮想カメラとの間及びその周囲のより良好な可視性を提供するように構成された1つ又は2つ以上の動的フィルタ処理選択を決定することができる(ブロック310)。一例として、これは、その配置にかかわらず仮想カメラにPOIが見えるように、仮想カメラ及び1つ又は2つ以上のPOIの光軸に沿って存在する介在セグメントをフィルタ処理することを含むことができる。これはまた、器具先端(140)から構成された距離の範囲(例えば、直径数センチメートルの球形)内にあるセグメントをフィルタ処理して、仮想カメラが近くに位置決めされた場合に明瞭な視線を器具先端(140)に提供することを含むこともできる。前の例と同様に、動的又は他の自動フィルタ処理のパラメータが決定された時点で(ブロック310)、当該パラメータを、モデルをレンダリングすることと関連付けられた過程又はプロセッサに提供することができる(ブロック304)。
動的なフィルタ処理は、他のフィルタ処理選択と組み合わせて、更により多くのフィルタ処理の制御を提供することができ、個々のフィルタは、どのフィルタを制御するのかを決定するための優先度又は階層を与えることができる。先の例を基にして、介在セグメントの自動フィルタ処理は、それらが仮想カメラの視野内に位置決めされ、POIに介在する又はその可視性を遮断する場合であっても、決してフィルタ処理されないセグメントのホワイトリストと組み合わせることができる。図5C及び図5Dを参照すると、これは、眼腔(136)及び手術部位(142)を、それらが常にレンダリングされるようにホワイトリスト登録することを可能にすることができる。次いで、仮想カメラは、モデルの3D空間内の任意の場所に位置決めし、POIとして手術部位(142)に向かって配向することができる。全ての介在セグメントは、レンダリングされたものから自動的にフィルタ処理され、仮想カメラ視野を介した手術部位(142)及び器具先端(140)への明瞭な視線を提供する。仮想カメラが手術部位(142)に配向されたままで円形に進行する場合、レンダリングされたセグメントのホワイトリスト上に構成されることにより、手術部位(142)の視野を完全に又は部分的に遮断する場合であっても常に見える眼腔(136)の場合を除いて、フィルタ処理されたセグメントは、動的に更新し、フィルタ処理又はレンダリングのいずれかを行って、手術部位(142)への明瞭な視線を常に提供することができる。
動的なフィルタ処理のための様々な構成は、仮想カメラ視野を通じた高レベルの制御及び可視性を提供することができ、仮想カメラが様々な軸に沿ってPOIの周りを周回して、器具先端(140)と様々なPOIとの間の関係の視覚的及び空間的視点を得ることを可能にすることができる。そのような仮想カメラの移動は、一組の制御部(112)によって実施することができるか、又は様々なワンタッチ制御(例えば、レンダリングされた仮想カメラ視野の動的なフィルタ処理によって、X軸に沿って仮想カメラをPOIの周りで周回させるワンタッチボタン)に応じて自動的に実施するように構成することができる。仮想カメラの様々な予め構成されたワンタッチ移動は、様々な用途において有利に実装され得るように、インターフェース(100)からトリガすることができ、音声入力によってトリガすることができ、又は処置中に使用されている手術用器具上に位置決めされた制御部によってトリガすることができる。
図8は、手動で構成される、又は自動的に決定される1つ又は2つ以上のフィルタ選択に基づいて、患者モデルを更新するために実施することができる例示的な一組の工程(400)を示す。一組のフィルタ選択が利用可能である場合、システムは、フィルタ選択によって影響を受ける1つ又は2つ以上のセグメント(例えば、ボクセル、セグメント化及び識別された解剖学的構造、又はモデル内に3D領域を画定する他のパラメータ)を決定することができ、次いで、患者モデルのモデル特性を修正し(ブロック406)、修正された患者モデルに基づいて更新された仮想カメラ視野を表示する(ブロック408)。これは、処置中に適用される又は動的に決定される処置又は自動選択中に行われる手動選択の場合、処置前又は処置中に実施することができる。
手動であるか自動であるかにかかわらず、フィルタ選択は、様々なタイプとしてシステムに構成及び格納することができる。システムがフィルタ選択を適用する場合、含める又は除外すると識別されるセグメントは、フィルタタイプによって決定することができる。一例として、いくつかのフィルタ選択は、セグメントをボクセルセット、識別された解剖学的構造、又は他の領域として直接識別することができる(ブロック402)。そのようなセグメントの識別(ブロック404)は、選択に基づいて(例えば、領域を画定するボクセルの範囲によって、識別された解剖学的構造と関連付けられた一意の識別子によって)モデル内の当該セグメントを識別し、フィルタ選択が、識別されたセグメントを表示する場合に、それをモデルに含めて見えるようにするべきであると示すか、又はモデルから除外して隠すべきであると示すかを決定する(ブロック408)ことによって実施することができる。
いくつかのフィルタ選択は、特定のセグメントではなく、セグメントのタイプを示すことができる(ブロック410)。選択されたタイプに基づくセグメントの識別(ブロック412)は、モデルを検索することと、指定されたタイプに整合する全てのセグメントを識別することと、次いで、識別されたセグメントを表示視野)内に見せるべきか、隠すべきかを決定することと(ブロック408)、を含むことができる。一例として、タイプ選択は、「骨」又は「軟組織」などの特定の組織タイプ又は密度を示すデータと関連付けられたボクセルを指定することができ、そのような選択に応じたフィルタ処理は、隠れている軟組織と関連付けられた一組のボクセル若しくはセグメント、又は見えている骨と関連付けられた一組のボクセル若しくはセグメントをもたらし得る。別の例として、タイプ選択は、特定の処置(例えば、副鼻腔類線維腫除去)と関連付けられたセグメントを指定することができる。処置タイプに基づくフィルタ処理の結果として、その処置と関連付けられた一組のセグメントが見えるようにし、一方で、処置に関連していない又は処置の仮想カメラ視野を遮らない場合がある他のセグメントを隠すことができる。別のタイプ選択は、一組の解剖学的構造を器官系(例えば、循環系)などのグループ化によって識別することができ、したがって、フィルタ処理選択は、特定のタイプ、群、又は器官系の全てのセグメント化及び識別された解剖学的構造を見えるようにするか、又は隠すことができる。
いくつかのフィルタ選択は、特定のセグメント化解剖学的構造ではないが、患者モデルが存在する座標系と関連付けられた座標を提供することができる(ブロック414)。これは、マウスによる単一の座標の選択、マウスによる二次元配列の座標のクリック及びドラッグ選択、又は3D座標系内の領域(例えば、3D立方形、球形、又は任意に定義された形状)を画定する別の一組の座標を含むことができる。影響を受けたセグメントの識別(ブロック416)は、座標セットを患者モデルの座標系と関連付けることと、次いで、座標セットに(例えば、全体的又は部分的のいずれかで)触れている、又は含まれている任意のセグメントを識別することと、を含むことができる。このようにして、単一の座標と関連付けられたマウスをクリックすることは、単一のセグメント化された解剖学的構造を見えなくすることだけができ、一方で、マウスをクリックし、次いで、初期点から3D球形又は立方形を拡大するようにドラッグすることは、複数のセグメントを見なくすることができる。また、座標セットを事前構成することを使用して、表示された視野に含める、又はそこから除外する3D領域又はセグメントを画定することができる(ブロック408)。
説明したように、いくつかのフィルタ選択は、セグメントホワイトリスト(ブロック418)、又はセグメントブラックリスト(ブロック422)の形態とすることができる。ホワイトリスト登録セグメントの識別(ブロック420)は、列記されたセグメントを見えるように、かつ全ての他のセグメントを隠すように関連付けることを含むことができ、一方で、ブラックリスト登録セグメントの識別(ブロック424)は、列記されたセグメントを隠すように、かつ全ての他のセグメントを見えるようにすることと関連付けることを含むことができる。介在セグメントに基づくフィルタ選択(ブロック426)もまた説明したが、系内の2つ又は3つ以上の点の間(例えば、仮想カメラと関連付けられた第1の座標と、関心地点又は被追跡手術用器具と関連付けられた第2の座標との間に)にある、座標系内の任意のセグメントを識別する(ブロック428)ことを含むこともできる。識別された(ブロック428)介在セグメントは、次いで、フィルタ選択に応じて、見えるようにするか、又は隠すことができる。
説明したように、異なるタイプのフィルタ選択は、セグメントが関心地点を遮る介在(ブロック428)セグメントであると決定された場合であっても常に見えるホワイトリスト登録した一組のセグメントなどの、互いに対して組み合わせて、優先度を与えることができる。別の例として、ホワイトリスト登録した一組のセグメントは、周囲のセグメントを表示された(ブロック408)レンダリングされたものから除外させるマウス選択又は他の入力によって画定された座標空間内にある場合であっても、常に見えたままにであってもよい。明らかなように、説明したものを超えるフィルタ選択の他の組み合わせ及び優先度が存在する。
フィルタ処理選択に基づく患者モデルの特性を修正する(ブロック406)場合、様々なタイプの視覚的に異なる特性を、単にセグメントを隠す又は見せることを超えて使用することができる。一例として、これは、セグメントを強調すること、セグメントを半透明にすること、フェードインして見えるようになり、フェードアウトして見えなくなるように動的な透明度を伴うセグメントを表示すること、元のセグメントが他の解剖学的構造によって遮られている場合であっても、投影された光若しくは投影された粒子が仮想カメラで見えることができるように、セグメントが光照射野若しくは粒子群をモデルの3D空間内に投影するように構成すること、又は他の視覚特性を含むことができる。
本開示に照らして、上記のシステム、方法、及びインターフェースの変形例が存在し、当業者に明らかになるであろう。例えば、上記の考察の一部は、仮想カメラの位置であるように第1の点を説明しているが、いくつかの実装形態では、第1の点が仮想カメラの配向であり得ることを理解するべきである。これは、臨床医が関心の手術エリア内の位置を決定し、それを配向の点(すなわち、第2の点)として選択することを望み、次いで、選択を行う前に、リアルタイムの仮想内視鏡プレビュー及び関連するフライスルーを使用して、いくつかのカメラ位置(例えば、第1の点)をプレビューする場合に有利であり得る。臨床医が、自分の経験を使用して、最初に仮想カメラの最良の位置を決定することができ、次いで、リアルタイム仮想内視鏡プレビュー及び関連するフライスルーを使用して、当該臨床医が仮想カメラを合焦させたい手術エリアの点を選択することができる場合、第1の点として仮想カメラの位置を選択することが有利であり得る。
III.例示的な組み合わせ
以下の実施例は、本明細書の教示を組み合わせるか又は適用することができる、様々な非網羅的な方法に関する。以下の実施例は、本出願における又は本出願の後の出願におけるどの時点でも提示され得る、いずれの請求項の適用範囲をも限定することを目的としたものではないと理解されよう。一切の棄権を意図するものではない。以下の実施例は、単なる例示の目的で与えられるものにすぎない。本明細書の様々な教示は、他の多くの方法で構成及び適用が可能であると考えられる。また、いくつかの変形では、以下の実施例において言及される特定の特徴を省略してよいことも考えられる。したがって、本発明者又は本発明者の利益の継承者により、後日、そうである旨が明示的に示されない限り、以下に言及される態様又は特徴のいずれも重要なものとして見なされるべきではない。以下に言及される特徴以外の更なる特徴を含む請求項が本出願において、又は本出願に関連する後の出願において示される場合、それらの更なる特徴は、特許性に関連するいかなる理由によっても追加されたものとして仮定されるべきではない。
画像誘導手術システムであって、(a)ディスプレイと、(b)患者と関連付けられた一組の手術前画像と、(c)座標系と関連付けられた一組の器具位置情報を生成するように構成された被追跡手術用器具と、(d)プロセッサであって、(i)一組の手術前画像をセグメント化して、患者モデルを生成し、患者モデルを座標系と関連付けることであって、患者モデルは、複数のセグメントから構成される患者の解剖学的構造の三次元モデルを備える、関連付けることと、(ii)フィルタ選択に基づいて、複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、(iii)2つ又は3つ以上のセグメント群の各々の異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、(iv)座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、(v)一組の仮想カメラ構成及び一組の器具位置情報に基づいて、修正された患者モデルの仮想カメラ視野をディスプレイに表示させることと、を行うように構成されたプロセッサと、を備える、画像誘導手術システム。
(i)2つ又は3つ以上のセグメント群のうちの第1の群と関連付けられた第1の視覚特性は、第1の群内のセグメントを修正された患者モデルに含めさせるように構成され、(ii)2つ又は3つ以上のセグメント群のうちの第2の群と関連付けられた第2の視覚特性は、第2の群内のセグメントを修正された患者モデルから除外させるように構成されている、実施例1に記載のシステム。
フィルタ選択は、第2の群に含まれるセグメントの識別情報を含み、プロセッサは、(i)患者と関連付けられた外科処置前にフィルタ選択を受信することと、(ii)患者と関連付けられた外科処置中に、画像誘導手術システムのユーザ入力デバイスを介して、フィルタ選択を受信することと、を行うように更に構成されている、実施例2に記載のシステム。
フィルタ選択は、処置タイプを含み、プロセッサは、複数のセグメント内の第2の群を、そうしたセグメントと関連付けられた処置タイプに基づいて、識別するように更に構成されている、実施例2又は3に記載のシステム。
フィルタ選択は、組織タイプを含み、プロセッサは、複数のセグメントの各々と関連付けられた組織タイプ特性に整合する組織タイプに基づいて、複数のセグメント内の第2の群を識別するように更に構成されている、実施例2〜4のいずれか一項又は二項以上に記載のシステム。
プロセッサは、(i)座標系内で仮想カメラの位置から構成された距離の範囲内に一組の近接セグメントを、ある複数のセグメントから識別すること、及び(ii)一組の近接セグメントを2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、第1の群の異なる視覚特性は、第1の群内のセグメントを修正された患者モデルから除外させるように構成されている、関連付けること、によって、フィルタ選択を決定するように更に構成されている、実施例1〜5のいずれか一項又は二項以上に記載のシステム。
プロセッサは、(i)座標系内の被追跡手術用器具の位置のから構成された距離の範囲内にある一組の近接セグメントを、複数のセグメントから識別すること、及び(ii)一組の近接セグメントを2つ又は3つ以上のセグメント群の第1の群と関連付けることであって、第1の群の異なる視覚特性は、第1の群内のセグメントを修正された患者モデルから除外させるように構成されている、関連付けること、によって、フィルタ選択を決定するように更に構成されている、実施例1〜6のいずれか一項又は二項以上に記載のシステム。
プロセッサは、(i)仮想カメラと、関心地点と関連付けられた座標系内の位置との間の軸に沿って位置決めされた一組の介在セグメントを、複数のセグメントから識別すること、及び(ii)一組の介在セグメントを2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、第1の群の異なる視覚特性は、第1の群内のセグメントを修正された患者モデルから除外させるように構成されている、関連付けること、によって、フィルタ選択を決定するように更に構成されている、実施例1〜7のいずれか一項又は二項以上に記載のシステム。
関心地点は、患者に実施されている処置と関連付けられた手術部位を含む、実施例8に記載のシステム。
フィルタ選択は、複数のセグメントのうちの1つ又は2つ以上のホワイトリスト登録セグメントを説明するセグメントホワイトリストを更に備え、プロセッサは、ホワイトリスト登録セグメントが第1の群と関連付けられて、修正された患者モデルから除外されるのを防止するように更に構成されている、実施例9に記載のシステム。
プロセッサは、(i)ワンタッチ仮想カメラ移動を生じさせるように構成されたユーザ入力を受信することと、(ii)ユーザ入力に基づいて、座標系内の経路を決定することと、(iii)手術部位上の仮想カメラの配向を維持しながら、仮想カメラが原点に戻るまで、経路に沿って仮想カメラを原点から移動させることと、(iv)経路に沿った仮想カメラの移動中に、一組の介在セグメントの変化に基づいて、患者モデルを更新することと、を行うように更に構成されている、実施例10に記載のシステム。
複数のセグメントは、(i)ボクセル、(ii)複数組の隣接するボクセル、又は(iii)患者モデル内の形状及び位置に基づいて識別された解剖学的構造、のうちの1つ又は2つ以上を含む、実施例1〜11のいずれか一項又は二項以上に記載のシステム。
各異なる視覚特性は、(i)不透明、(ii)部分的に半透明、(iii)透明、並びに(iv)不透明度の段階的な増加及び減少、を含む、一組の視覚特性から選択される、実施例1〜12のいずれか一項又は二項以上に記載のシステム。
仮想カメラによって表示されたセグメントを選択的に制御するための方法であって、(a)プロセッサによって、一組の手術前画像をセグメント化して、患者モデルを生成し、患者モデルを座標系と関連付けることであって、患者モデルは、複数のセグメントから構成される患者の解剖学的構造の三次元モデルを備える、関連付けることと、(b)フィルタ選択に基づいて、複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、(c)2つ又は3つ以上のセグメント群の各々の異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、(d)座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、(e)座標系内の被追跡手術用器具を示す一組の器具位置情報を受信することと、(e)一組の仮想カメラ構成及び一組の器具位置情報に基づいて、ディスプレイに、修正された患者モデルの仮想カメラ視野を表示させることと、を含む、方法。
患者と関連付けられた外科処置前にフィルタ選択を受信することを更に含み、(i)2つ又は3つ以上のセグメント群のうちの第1の群と関連付けられた第1の視覚特性は、第1の群内のセグメントを修正された患者モデルに含めさせるように構成され、(ii)2つ又は3つ以上のセグメント群のうちの第2の群と関連付けられた第2の視覚特性は、第2の群内のセグメントを修正された患者モデルから除外させるように構成され、(iii)フィルタ選択は、2つ又は3つ以上のセグメント群のうちの第2の群に含まれる複数のセグメントのうちの1つのセグメントの識別情報を含む、実施例14に記載の方法。
(a)フィルタ選択に基づいて、処置タイプを決定することと、(b)処置タイプに基づいて、複数のセグメントを、含まれるセグメント群及び除外されるセグメント群に分類することと、を更に含む、実施例14又は15に記載の方法。
(a)フィルタ選択に基づいて、フィルタ処理された組織タイプを決定することと、(b)複数のセグメントの各々と関連付けられた組織タイプ特性と整合する、フィルタ処理された組織タイプに基づいて、複数のセグメントを、含まれるセグメント群及び除外されるセグメント群に分類することと、を更に含む、実施例14〜16のいずれか一項又は二項以上に記載の方法。
(i)座標系内で仮想カメラの位置から構成された距離の範囲内にある一組の近接セグメントを、複数のセグメントから識別すること、及び(ii)一組の近接セグメントを2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、第1の群の異なる視覚特性は、第1の群内のセグメントを修正された患者モデルから除外させるように構成されている、関連付けること、によって、フィルタ選択を決定することを更に含む、実施例14〜17のいずれか一項又は二項以上に記載の方法。
(i)仮想カメラと、座標系内の手術部位との間の軸に沿って位置決めされた一組の介在セグメントを、複数のセグメントから識別すること、及び(ii)一組の介在セグメントを2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、第1の群の異なる視覚特性は、第1の群内のセグメントを修正された患者モデルから除外させるように構成されている、関連付けること、によって、フィルタ選択を決定することを更に含む、実施例14〜18のいずれか一項又は二項以上に記載の方法。
画像誘導手術システムであって、(i)座標系を維持することと、(ii)一組の手術前画像をセグメント化して、患者モデルを生成し、患者モデルを座標系と関連付けることであって、患者モデルは、複数のセグメントから構成される患者の解剖学的構造の三次元モデルを備える、関連付けることと、(iii)フィルタ選択に基づいて、複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、(iv)2つ又は3つ以上のセグメント群の各々の異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、(v)座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、(vi)座標系内の被追跡手術用器具を示す一組の器具位置情報を受信することと、(vii)一組の仮想カメラ構成及び一組の器具位置情報に基づいて、ディスプレイに、修正された患者モデルの仮想カメラ視野を表示させることと、を行うように構成された、1つ又は2つ以上のプロセッサを備える、システム。
IV.その他
本明細書に記載されている実施例のうちのいずれも、上述のものに加えて又はそれに代えて、様々な他の特徴を含み得ることが理解されるべきである。単に一例として、本明細書に記載されている実施例のうちのいずれも、参照により本明細書に組み込まれる様々な参考文献のいずれかに開示されている様々な特徴のうちの1つ又は2つ以上を含むこともできる。
本明細書に記載の教示、表現、実施形態、実施例などのうちのいずれか1つ又は2つ以上を、本明細書に記載の他の教示、表現、実施形態、実施例などのうちのいずれか1つ又は2つ以上と組み合わせることができる点が理解されるべきである。したがって、上記の教示、表現、実施形態、実施例などは、互いに対して独立して考慮されるべきではない。本明細書の教示に照らして、本明細書の教示を組み合わせることができる様々な好適な方式が、当業者には容易に明らかとなろう。このような修正及び変形は、「特許請求の範囲」内に含まれるものとする。
本明細書に参照により組み込まれると言及されるいかなる特許、公報、又はその他の開示内容も、全体的に又は部分的に、組み込まれる内容が現行の定義、見解、又は本開示に記載されるその他の開示内容とあくまで矛盾しない範囲でのみ本明細書に組み込まれると理解されるべきである。それ自体、また必要な範囲で、本明細書に明瞭に記載される開示内容は、参照により本明細書に組み込まれるあらゆる矛盾する記載に優先するものとする。参照により本明細書に組み込まれると言及されているが、現行の定義、見解、又は本明細書に記載される他の開示内容と矛盾する任意の内容、又はそれらの部分は、組み込まれた内容と現行の開示内容との間に矛盾が生じない範囲においてのみ、組み込まれるものとする。
本明細書に開示されるデバイスの変形形態は、1回の使用後に処分されるように設計するか又は複数回使用されるように設計することができる。変形形態は、いずれか又は両方の場合においても、少なくとも1回の使用後に再利用のために再調整され得る。再調整は、デバイスの分解工程、それに続く特定の部品の洗浄又は交換工程、及びその後の再組み立て工程の、任意の組み合わせを含み得る。特に、デバイスの変形形態は、分解することができ、かつ、デバイスの任意の数の特定の部品若しくは部分を、任意の組み合わせにおいて選択的に交換又は取り外してもよい。特定の部分を洗浄時及び/又は交換時に、デバイスの変形形態は、再調整用の施設において、又は外科手技の直前に外科チームによってのどちらかで、その後の使用のために再組み立てすることができる。当業者であれば、デバイスの再調整において、分解、洗浄/交換、及び再組み立てのための様々な技術を利用することができることを理解するであろう。かかる技術の使用、及び結果として得られる再調整されたデバイスは、全て本発明の範囲内にある。
単に一例として、本明細書に記載の変形形態は、手術前に処理することができる。まず、新品又は使用済みの器具を入手し、必要に応じて洗浄することができる。次いで器具を滅菌することができる。1つの滅菌技術では、器具は、プラスチックバッグ又はTYVEKバッグなど、閉鎖され密封された容器に入れられる。次いで、容器及び器具を、γ線、X線、又は高エネルギー電子などの容器を透過し得る放射線野に置くことができる。放射線は、器具上及び容器内の細菌を死滅させることができる。この後、滅菌済みの器具を滅菌容器内で保管することができる。密封容器は、手術設備で開封されるまで器具を滅菌状態に保つことができる。β線若しくはγ線、エチレンオキシド、又は水蒸気が挙げられるがこれらに限定されない、当該技術分野で既知のその他の任意の技術を使用して、デバイスを滅菌してもよい。
本発明の様々な変形形態について図示し説明したが、本明細書で説明した方法及びシステムの更なる応用が、当業者による適切な修正により、本発明の範囲から逸脱することなく実現可能である。そのような可能な修正のうちのいくつかについて述べたが、他の修正も当業者には明らかになるであろう。例えば、上述の実施例、変形形態、幾何形状、材料、寸法、比率、工程などは例示的なものであって、必須ではない。したがって、本発明の範囲は、以下の特許請求の範囲の観点から考慮されるべきものであり、本明細書及び図面に示され記載された構造及び動作の細部に限定されないものとして理解される。
〔実施の態様〕
(1) 画像誘導手術システムであって、
(a)ディスプレイと、
(b)患者と関連付けられた一組の手術前画像と、
(c)座標系と関連付けられた一組の器具位置情報を生成するように構成された被追跡手術用器具と、
(d)プロセッサであって、
(i)前記一組の手術前画像をセグメント化して、患者モデルを生成し、前記患者モデルを前記座標系と関連付けることであって、前記患者モデルは、複数のセグメントから構成される前記患者の解剖学的構造の三次元モデルを備える、関連付けることと、
(ii)フィルタ選択に基づいて、前記複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、前記2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、
(iii)前記2つ又は3つ以上のセグメント群の各々の前記異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、
(iv)前記座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、
(v)前記一組の仮想カメラ構成及び前記一組の器具位置情報に基づいて、前記修正された患者モデルの仮想カメラ視野を前記ディスプレイに表示させることと、を行うように構成されたプロセッサと、を備える、画像誘導手術システム。
(2) (i)前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けられた第1の視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルに含めさせるように構成され、
(ii)前記2つ又は3つ以上のセグメント群のうちの第2の群と関連付けられた第2の視覚特性は、前記第2の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、実施態様1に記載のシステム。
(3) 前記フィルタ選択は、前記第2の群に含まれるセグメントの識別情報を含み、前記プロセッサは、
(i)前記患者と関連付けられた外科処置前に前記フィルタ選択を受信することと、
(ii)前記患者と関連付けられた前記外科処置中に、前記画像誘導手術システムのユーザ入力デバイスを介して、前記フィルタ選択を受信することと、を行うように更に構成されている、実施態様2に記載のシステム。
(4) 前記フィルタ選択は、処置タイプを含み、前記プロセッサは、前記複数のセグメント内の前記第2の群を、そうしたセグメントと関連付けられた前記処置タイプに基づいて、識別するように更に構成されている、実施態様2に記載のシステム。
(5) 前記フィルタ選択は、組織タイプを含み、前記プロセッサは、前記複数のセグメントの各々と関連付けられた組織タイプ特性に整合する前記組織タイプに基づいて、前記複数のセグメント内の前記第2の群を識別するように更に構成されている、実施態様2に記載のシステム。
(6) 前記プロセッサは、
(i)前記座標系内の前記仮想カメラの前記位置から構成された距離の範囲内にある一組の近接セグメントを、前記複数のセグメントから識別すること、及び
(ii)前記一組の近接セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定するように更に構成されている、実施態様1に記載のシステム。
(7) 前記プロセッサは、
(i)前記座標系内の前記被追跡手術用器具の前記位置から構成された距離の範囲内にある一組の近接セグメントを、前記複数のセグメントから識別すること、及び
(ii)前記一組の近接セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定するように更に構成されている、実施態様1に記載のシステム。
(8) 前記プロセッサは、
(i)前記仮想カメラと、関心地点と関連付けられた前記座標系内の位置との間の軸に沿って位置決めされた一組の介在セグメントを、前記複数のセグメントから識別すること、及び
(ii)前記一組の介在セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定するように更に構成されている、実施態様1に記載のシステム。
(9) 前記関心地点は、前記患者に実施されている処置と関連付けられた手術部位を含む、実施態様8に記載のシステム。
(10) 前記フィルタ選択は、前記複数のセグメントのうちの1つ又は2つ以上のホワイトリスト登録セグメントを説明するセグメントホワイトリストを更に備え、前記プロセッサは、前記ホワイトリスト登録セグメントが前記第1の群と関連付けられて、前記修正された患者モデルから除外されるのを防止するように更に構成されている、実施態様9に記載のシステム。
(11) 前記プロセッサは、
(i)ワンタッチ仮想カメラ移動を生じさせるように構成されたユーザ入力を受信することと、
(ii)前記ユーザ入力に基づいて、前記座標系内の経路を決定することと、
(iii)前記手術部位上の前記仮想カメラの配向を維持しながら、前記仮想カメラが原点に戻るまで、前記経路に沿って前記仮想カメラを前記原点から移動させることと、
(iv)前記経路に沿った前記仮想カメラの移動中に、前記一組の介在セグメントの変化に基づいて、前記患者モデルを更新することと、を行うように更に構成されている、実施態様10に記載のシステム。
(12) 前記複数のセグメントは、
(i)ボクセル、
(ii)複数組の隣接するボクセル、又は
(iii)前記患者モデル内の形状及び位置に基づいて識別された解剖学的構造、のうちの1つ又は2つ以上を含む、実施態様1に記載のシステム。
(13) 各異なる視覚特性は、
(i)不透明、
(ii)部分的に半透明、
(iii)透明、並びに
(iv)不透明度の段階的な増加及び減少、を含む、一組の視覚特性から選択される、実施態様1に記載のシステム。
(14) 仮想カメラによって表示されたセグメントを選択的に制御するための方法であって、
(a)プロセッサによって、一組の手術前画像をセグメント化して、患者モデルを生成し、前記患者モデルを座標系と関連付けることであって、前記患者モデルは、複数のセグメントから構成される患者の解剖学的構造の三次元モデルを備える、関連付けることと、
(b)フィルタ選択に基づいて、前記複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、前記2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、
(c)前記2つ又は3つ以上のセグメント群の各々の前記異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、
(d)前記座標系内の前記仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、
(e)前記座標系内の被追跡手術用器具を示す一組の器具位置情報を受信することと、
(f)前記一組の仮想カメラ構成及び前記一組の器具位置情報に基づいて、ディスプレイに、前記修正された患者モデルの仮想カメラ視野を表示させることと、を含む、方法。
(15) 前記患者と関連付けられた外科処置前に前記フィルタ選択を受信することを更に含み、
(i)前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けられた第1の視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルに含めさせるように構成され、
(ii)前記2つ又は3つ以上のセグメント群のうちの第2の群と関連付けられた第2の視覚特性は、前記第2の群内のセグメントを前記修正された患者モデルから除外させるように構成され、
(iii)前記フィルタ選択は、前記2つ又は3つ以上のセグメント群のうちの前記第2の群に含まれる前記複数のセグメントのうちの1つのセグメントの識別情報を含む、実施態様14に記載の方法。
(16) (a)前記フィルタ選択に基づいて、処置タイプを決定することと、
(b)前記処置タイプに基づいて、前記複数のセグメントを、含まれるセグメント群及び除外されるセグメント群に分類することと、を更に含む、実施態様14に記載の方法。
(17) (a)前記フィルタ選択に基づいて、フィルタ処理された組織タイプを決定することと、
(b)前記複数のセグメントの各々と関連付けられた組織タイプ特性と整合する、前記フィルタ処理された組織タイプに基づいて、前記複数のセグメントを、含まれるセグメント群及び除外されるセグメント群に分類することと、を更に含む、実施態様14に記載の方法。
(18) (i)前記座標系内の前記仮想カメラの前記位置から構成された距離の範囲内にある一組の近接セグメントを、前記複数のセグメントから識別すること、及び
(ii)前記一組の近接セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定することを更に含む、実施態様14に記載の方法。
(19) (i)前記仮想カメラと、前記座標系内の手術部位との間の軸に沿って位置決めされた一組の介在セグメントを、前記複数のセグメントから識別すること、及び
(ii)前記一組の介在セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定することを更に含む、実施態様14に記載の方法。
(20) 画像誘導手術システムであって、
(i)座標系を維持することと、
(ii)一組の手術前画像をセグメント化して、患者モデルを生成し、前記患者モデルを前記座標系と関連付けることであって、前記患者モデルは、複数のセグメントから構成される前記患者の解剖学的構造の三次元モデルを備える、関連付けることと、
(iii)フィルタ選択に基づいて、前記複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、前記2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、
(iv)前記2つ又は3つ以上のセグメント群の各々の前記異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、
(v)前記座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、
(vi)前記座標系内の被追跡手術用器具を示す一組の器具位置情報を受信することと、
(vii)前記一組の仮想カメラ構成及び前記一組の器具位置情報に基づいて、ディスプレイに、前記修正された患者モデルの仮想カメラ視野を表示させることと、を行うように構成された、1つ又は2つ以上のプロセッサを備える、システム。

Claims (20)

  1. 画像誘導手術システムであって、
    (a)ディスプレイと、
    (b)患者と関連付けられた一組の手術前画像と、
    (c)座標系と関連付けられた一組の器具位置情報を生成するように構成された被追跡手術用器具と、
    (d)プロセッサであって、
    (i)前記一組の手術前画像をセグメント化して、患者モデルを生成し、前記患者モデルを前記座標系と関連付けることであって、前記患者モデルは、複数のセグメントから構成される前記患者の解剖学的構造の三次元モデルを備える、関連付けることと、
    (ii)フィルタ選択に基づいて、前記複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、前記2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、
    (iii)前記2つ又は3つ以上のセグメント群の各々の前記異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、
    (iv)前記座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、
    (v)前記一組の仮想カメラ構成及び前記一組の器具位置情報に基づいて、前記修正された患者モデルの仮想カメラ視野を前記ディスプレイに表示させることと、を行うように構成されたプロセッサと、を備える、画像誘導手術システム。
  2. (i)前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けられた第1の視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルに含めさせるように構成され、
    (ii)前記2つ又は3つ以上のセグメント群のうちの第2の群と関連付けられた第2の視覚特性は、前記第2の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、請求項1に記載のシステム。
  3. 前記フィルタ選択は、前記第2の群に含まれるセグメントの識別情報を含み、前記プロセッサは、
    (i)前記患者と関連付けられた外科処置前に前記フィルタ選択を受信することと、
    (ii)前記患者と関連付けられた前記外科処置中に、前記画像誘導手術システムのユーザ入力デバイスを介して、前記フィルタ選択を受信することと、を行うように更に構成されている、請求項2に記載のシステム。
  4. 前記フィルタ選択は、処置タイプを含み、前記プロセッサは、前記複数のセグメント内の前記第2の群を、そうしたセグメントと関連付けられた前記処置タイプに基づいて、識別するように更に構成されている、請求項2に記載のシステム。
  5. 前記フィルタ選択は、組織タイプを含み、前記プロセッサは、前記複数のセグメントの各々と関連付けられた組織タイプ特性に整合する前記組織タイプに基づいて、前記複数のセグメント内の前記第2の群を識別するように更に構成されている、請求項2に記載のシステム。
  6. 前記プロセッサは、
    (i)前記座標系内の前記仮想カメラの前記位置から構成された距離の範囲内にある一組の近接セグメントを、前記複数のセグメントから識別すること、及び
    (ii)前記一組の近接セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定するように更に構成されている、請求項1に記載のシステム。
  7. 前記プロセッサは、
    (i)前記座標系内の前記被追跡手術用器具の前記位置から構成された距離の範囲内にある一組の近接セグメントを、前記複数のセグメントから識別すること、及び
    (ii)前記一組の近接セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定するように更に構成されている、請求項1に記載のシステム。
  8. 前記プロセッサは、
    (i)前記仮想カメラと、関心地点と関連付けられた前記座標系内の位置との間の軸に沿って位置決めされた一組の介在セグメントを、前記複数のセグメントから識別すること、及び
    (ii)前記一組の介在セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定するように更に構成されている、請求項1に記載のシステム。
  9. 前記関心地点は、前記患者に実施されている処置と関連付けられた手術部位を含む、請求項8に記載のシステム。
  10. 前記フィルタ選択は、前記複数のセグメントのうちの1つ又は2つ以上のホワイトリスト登録セグメントを説明するセグメントホワイトリストを更に備え、前記プロセッサは、前記ホワイトリスト登録セグメントが前記第1の群と関連付けられて、前記修正された患者モデルから除外されるのを防止するように更に構成されている、請求項9に記載のシステム。
  11. 前記プロセッサは、
    (i)ワンタッチ仮想カメラ移動を生じさせるように構成されたユーザ入力を受信することと、
    (ii)前記ユーザ入力に基づいて、前記座標系内の経路を決定することと、
    (iii)前記手術部位上の前記仮想カメラの配向を維持しながら、前記仮想カメラが原点に戻るまで、前記経路に沿って前記仮想カメラを前記原点から移動させることと、
    (iv)前記経路に沿った前記仮想カメラの移動中に、前記一組の介在セグメントの変化に基づいて、前記患者モデルを更新することと、を行うように更に構成されている、請求項10に記載のシステム。
  12. 前記複数のセグメントは、
    (i)ボクセル、
    (ii)複数組の隣接するボクセル、又は
    (iii)前記患者モデル内の形状及び位置に基づいて識別された解剖学的構造、のうちの1つ又は2つ以上を含む、請求項1に記載のシステム。
  13. 各異なる視覚特性は、
    (i)不透明、
    (ii)部分的に半透明、
    (iii)透明、並びに
    (iv)不透明度の段階的な増加及び減少、を含む、一組の視覚特性から選択される、請求項1に記載のシステム。
  14. 仮想カメラによって表示されたセグメントを選択的に制御するための方法であって、
    (a)プロセッサによって、一組の手術前画像をセグメント化して、患者モデルを生成し、前記患者モデルを座標系と関連付けることであって、前記患者モデルは、複数のセグメントから構成される患者の解剖学的構造の三次元モデルを備える、関連付けることと、
    (b)フィルタ選択に基づいて、前記複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、前記2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、
    (c)前記2つ又は3つ以上のセグメント群の各々の前記異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、
    (d)前記座標系内の前記仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、
    (e)前記座標系内の被追跡手術用器具を示す一組の器具位置情報を受信することと、
    (f)前記一組の仮想カメラ構成及び前記一組の器具位置情報に基づいて、ディスプレイに、前記修正された患者モデルの仮想カメラ視野を表示させることと、を含む、方法。
  15. 前記患者と関連付けられた外科処置前に前記フィルタ選択を受信することを更に含み、
    (i)前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けられた第1の視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルに含めさせるように構成され、
    (ii)前記2つ又は3つ以上のセグメント群のうちの第2の群と関連付けられた第2の視覚特性は、前記第2の群内のセグメントを前記修正された患者モデルから除外させるように構成され、
    (iii)前記フィルタ選択は、前記2つ又は3つ以上のセグメント群のうちの前記第2の群に含まれる前記複数のセグメントのうちの1つのセグメントの識別情報を含む、請求項14に記載の方法。
  16. (a)前記フィルタ選択に基づいて、処置タイプを決定することと、
    (b)前記処置タイプに基づいて、前記複数のセグメントを、含まれるセグメント群及び除外されるセグメント群に分類することと、を更に含む、請求項14に記載の方法。
  17. (a)前記フィルタ選択に基づいて、フィルタ処理された組織タイプを決定することと、
    (b)前記複数のセグメントの各々と関連付けられた組織タイプ特性と整合する、前記フィルタ処理された組織タイプに基づいて、前記複数のセグメントを、含まれるセグメント群及び除外されるセグメント群に分類することと、を更に含む、請求項14に記載の方法。
  18. (i)前記座標系内の前記仮想カメラの前記位置から構成された距離の範囲内にある一組の近接セグメントを、前記複数のセグメントから識別すること、及び
    (ii)前記一組の近接セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定することを更に含む、請求項14に記載の方法。
  19. (i)前記仮想カメラと、前記座標系内の手術部位との間の軸に沿って位置決めされた一組の介在セグメントを、前記複数のセグメントから識別すること、及び
    (ii)前記一組の介在セグメントを前記2つ又は3つ以上のセグメント群のうちの第1の群と関連付けることであって、前記第1の群の前記異なる視覚特性は、前記第1の群内のセグメントを前記修正された患者モデルから除外させるように構成されている、関連付けること、によって、前記フィルタ選択を決定することを更に含む、請求項14に記載の方法。
  20. 画像誘導手術システムであって、
    (i)座標系を維持することと、
    (ii)一組の手術前画像をセグメント化して、患者モデルを生成し、前記患者モデルを前記座標系と関連付けることであって、前記患者モデルは、複数のセグメントから構成される前記患者の解剖学的構造の三次元モデルを備える、関連付けることと、
    (iii)フィルタ選択に基づいて、前記複数のセグメントを2つ又は3つ以上のセグメント群に分類することであって、前記2つ又は3つ以上のセグメント群の各々は、異なる視覚特性と関連付けられる、分類することと、
    (iv)前記2つ又は3つ以上のセグメント群の各々の前記異なる視覚特性に基づいて、修正された患者モデルをレンダリングすることと、
    (v)前記座標系内の仮想カメラの位置及び配向を画定する一組の仮想カメラ構成を受信することと、
    (vi)前記座標系内の被追跡手術用器具を示す一組の器具位置情報を受信することと、
    (vii)前記一組の仮想カメラ構成及び前記一組の器具位置情報に基づいて、ディスプレイに、前記修正された患者モデルの仮想カメラ視野を表示させることと、を行うように構成された、1つ又は2つ以上のプロセッサを備える、システム。
JP2021065701A 2020-04-09 2021-04-08 画像誘導手術システムのためのユーザインターフェース Pending JP2021166706A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063007713P 2020-04-09 2020-04-09
US63/007,713 2020-04-09
US17/194,466 US20210315636A1 (en) 2020-04-09 2021-03-08 User interface for image guided surgery system
US17/194,466 2021-03-08

Publications (1)

Publication Number Publication Date
JP2021166706A true JP2021166706A (ja) 2021-10-21

Family

ID=75438575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021065701A Pending JP2021166706A (ja) 2020-04-09 2021-04-08 画像誘導手術システムのためのユーザインターフェース

Country Status (5)

Country Link
US (1) US20210315636A1 (ja)
EP (1) EP3892225A1 (ja)
JP (1) JP2021166706A (ja)
CN (1) CN113509267A (ja)
IL (1) IL281984A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US20230100698A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
WO2014139032A1 (en) * 2013-03-15 2014-09-18 Colibri Technologies Inc. Data display and processing algorithms for 3d imaging systems
US10463242B2 (en) 2014-07-09 2019-11-05 Acclarent, Inc. Guidewire navigation for sinuplasty
US10499992B2 (en) * 2014-10-30 2019-12-10 Edda Technology, Inc. Method and system for estimating a deflated lung shape for video assisted thoracic surgery in augmented and mixed reality
US10561370B2 (en) 2017-04-26 2020-02-18 Accalrent, Inc. Apparatus to secure field generating device to chair
US20190133694A1 (en) * 2017-11-02 2019-05-09 Covidien Lp Surgical tracking system for tracking and visualizing the relative positioning of two or more surgical components
US10639105B2 (en) * 2017-11-29 2020-05-05 Canon Medical Systems Corporation Navigation apparatus and method
US10885630B2 (en) * 2018-03-01 2021-01-05 Intuitive Surgical Operations, Inc Systems and methods for segmentation of anatomical structures for image-guided surgery

Also Published As

Publication number Publication date
IL281984A (en) 2021-10-31
EP3892225A1 (en) 2021-10-13
CN113509267A (zh) 2021-10-19
US20210315636A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
JP2021166706A (ja) 画像誘導手術システムのためのユーザインターフェース
US11793389B2 (en) Intelligent display
AU2015287961B2 (en) Guidewire navigation for sinuplasty
US20230091099A1 (en) Systems and methods for indicating approach to an anatomical boundary
US7491198B2 (en) Computer enhanced surgical navigation imaging system (camera probe)
US20190388157A1 (en) Surgical navigation system with pattern recognition for fail-safe tissue removal
US20210121238A1 (en) Visualization system and method for ent procedures
CN113453606A (zh) 具有双图像传感器的内窥镜
US20230259248A1 (en) Method for real time update of fly-through camera placement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240228