JP2023513692A - 医療処置における感覚拡張の為のシステム及び方法 - Google Patents

医療処置における感覚拡張の為のシステム及び方法 Download PDF

Info

Publication number
JP2023513692A
JP2023513692A JP2022548406A JP2022548406A JP2023513692A JP 2023513692 A JP2023513692 A JP 2023513692A JP 2022548406 A JP2022548406 A JP 2022548406A JP 2022548406 A JP2022548406 A JP 2022548406A JP 2023513692 A JP2023513692 A JP 2023513692A
Authority
JP
Japan
Prior art keywords
marker
user
head
display device
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022548406A
Other languages
English (en)
Other versions
JPWO2021163039A5 (ja
Inventor
ライアン,マシュー,ウィリアム
ハートマン,アンドリュー,フィリップ
ダル ウォルト,ニコラス ヴァン
ニールセン,ジョナサン,カーク
Original Assignee
インサイト メディカル システムズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/786,938 external-priority patent/US11071596B2/en
Application filed by インサイト メディカル システムズ インコーポレイテッド filed Critical インサイト メディカル システムズ インコーポレイテッド
Publication of JP2023513692A publication Critical patent/JP2023513692A/ja
Publication of JPWO2021163039A5 publication Critical patent/JPWO2021163039A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/154Guides therefor for preparing bone for knee prosthesis
    • A61B17/155Cutting femur
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3916Bone tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Transplantation (AREA)
  • Dentistry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Surgical Instruments (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本明細書では、術中にユーザによって装着される頭部装着型表示デバイスを含む自己完結型手術ナビゲーションシステムを記載する。システムは、表示デバイス上に視覚的表示を生成する為の表示生成器と、少なくとも1つのトラッキングカメラを有するセンサスイートとを含む。システムは更に、支持モジュールのハウジングに取り外し可能に挿入されるユーザ交換可能なモジュール式バッテリと、センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットとを含む支持モジュールを含む。支持モジュールは、頭部装着型表示デバイスに電気的に結合され、頭部装着型表示デバイスに電力及びデータを供給する。表示デバイスと支持モジュールが協働して、外部のセンサ、カメラ、コンピュータ、又は他の電気機器を必要とせずにシステムの全センシング及びコンピューティング能力を構成している。【選択図】図39

Description

(関連出願の相互参照)
本出願は、2020年2月10日に出願された米国特許出願第16/786,938の優先権を主張し、これは、2018年2月15日に出願されたPCT出願PCT/US2018/18330の一部継続出願であり、これは、2017年8月11日に出願された米国特許出願第15/674,749号及び2017年8月11日に出願されたPCT出願PCT/US2017/046438号の一部継続出願であり、両出願は何れも、2016年8月16日に出願された米国仮出願第62/375,483号の優先権の利益を主張し、これらの各々の内容はあらゆる目的で参照によりその全体が援用される。
本発明は、外科手術、診断処置、治療処置、及び麻酔処置を含むがこれらに限定されない医療処置中の位置決め、定位、及び状況認識の為の新規な視覚化及び感覚拡張装置、システム、方法、及び装置に関する。
現在の医療処置は、典型的には、患者に変化をもたらす為に必要な器具以外の殆ど又は全く支援を受けずに、執刀医又は医療従事者によって行われる。例えば、整形外科医には、幾つかの測定器具(例えば、定規又は同様のもの)及び切断具(例えば、鋸又はドリル)を有し得るが、執刀医への視覚的、聴覚的、及び/又は触覚的入力は支援されない。言い換えると、執刀医は、自身が操作しているもの以外何も見ず、手術室の他の関与者からの通常の通信以外何も聞かず、器具又は処置における関心対象の他のアイテムを把持することによる通常のフィードバックの外には何も感知しない。或いは、大型のコンソール型ナビゲーションシステムやロボットシステムが利用され、そのディスプレイやカメラは執刀医から離れた無菌領域の外側に配置されている。これらは、執刀医が手術部位と2次元ディスプレイの間で自身の視線を繰り返し移動させることを要する。又、カメラの遠隔位置は、ドレープ、人員、及び/又は器具が無菌野におけるマーカのカメラの視界を妨害する場合に視線の問題をもたらし、カメラの視座は創傷内の撮像に適さない。解剖学的レジストレーションは、典型的には、マーカがカメラに見えるようにプローブする為に、マーカを有するスタイラスを使用して行われる。
本発明は、外部スクリーンを見る為にユーザの頭部を不自然に動かしたり回したりする必要がない、処置(複数可)に必要なフィードバックをユーザの視野に視覚的に投影することを提供する。オーグメンテッドディスプレイや仮想ディスプレイは、ユーザの視覚の自然な延長又は強化としてユーザに表示される。更に、ユーザのヘッドピース内に在るセンサとカメラは、ユーザと同じ視点を有するので、外部カメラに関連する視線の不明瞭さの問題を最小限に抑えることができる。本発明による解剖学的表面及び特徴の3Dマッピングと、術前スキャンからのモデルとのマッチングは、現在のスタイラス点群アプローチよりも高速で、術中に生体構造をレジストレーションする為のより正確な方法を表す。
本発明は、一般に、医療処置の実施を支援する、ユーザの視覚、聴覚、又は触覚の為の少なくとも1つの拡張からなる新規な感覚拡張デバイス又は装置を含む。視覚支援は、拡張現実の形でユーザの視野にリアルタイムで視覚的オーバーレイの形態で提供され得るものであり、又は仮想現実の形で視覚的シーンの置き換えとして提供され得るものである。聴覚支援は、単純なビープ音やトーン、又は音声や指示等のより複雑な音の形で提供され得る。触覚支援は、ユーザをガイドすることを目的とした単純な警告触覚フィードバック又はより複雑な触覚発生の形で提供され得る。好ましい実施形態では、視覚(オーグメンテッド又は仮想)支援は、音声又は触覚、又は音声及び触覚の両方のフィードバックによって補完される。
本発明は、複合現実手術ナビゲーションシステムを提供するものであり、複合現実手術ナビゲーションシステムは、ユーザ(例えば、執刀医)が術中に装着する、プロセッサユニットと、表示生成器と、少なくとも1つのトラッキングカメラを有するセンサスイートとを備えた頭部装着型表示デバイスと(例えば、ヘッドセット等)、カメラによって追跡可能であり、手術器具に固定的に取り付けられた少なくとも1つの視覚的マーカとを備え、プロセッシングユニットは、センサスイートから受信したデータで関心解剖対象物の部分的に露出した表面の3次元表面をマッピングし、プロセッシングユニットは、3次元表面を解剖対象物の3次元モデルに合わせることによって解剖対象物の基準フレームを確立し、プロセッシングユニットは、センサスイートから受信したデータで手術器具の6自由度のポーズ(位置と配向で構成)を追跡し、プロセッシングユニットは、ディスプレイと通信して、手術器具の所望の特徴の立体視仮想画像とユーザの視野内の解剖対象物の所望の特徴を含む複合現実ユーザインターフェースを提供する。
本発明は更に、医療処置の為の複合現実手術ナビゲーションシステムの使用方法を提供し、前記方法は、(a)(i)プロセッサユニットと、ディスプレイと、少なくとも1つのトラッキングカメラを有するセンサスイートとを備える頭部装着型表示デバイスと、(ii)カメラによって追跡可能な少なくとも1つの視覚的マーカと、を備えた複合現実手術ナビゲーションシステムを提供するステップと、(b)表示デバイスをユーザの頭部に取り付けるステップと、(c)マーカを有する外科手術器具を提供するステップと、(d)関心解剖対象物をセンサスイートでキャンして、解剖対象物の望ましい特徴の3次元表面のデータを得るステップと、(e)3次元表面のデータをプロセッサユニットに送信して、解剖対象物の所望の特徴の仮想3次元モデルをレジストレーションするステップと、(f)センサスイートで6自由度のポーズで手術器具を追跡して、プロセッサユニットに送信するデータを得るステップと、(g)ユーザの視野内に手術器具の特徴及び解剖対象物の特徴の立体視仮想画像を含む複合現実ユーザインターフェースを表示するステップと、を含む。
本発明は更に、複合現実手術ナビゲーションシステムによって提供されるユーザの視野に、手術器具の望ましい特徴及び関心解剖対象物の望ましい特徴の立体視仮想画像を含む、手術ナビゲーションシステムの為の複合現実ユーザインターフェースを提供し、(i)プロセッサユニットと、ディスプレイと、少なくとも1つのトラッキングカメラを有するセンサスイートとを備える頭部装着型表示デバイスと、及び(ii)カメラによって追跡可能な少なくとも1つの視覚的マーカとを備え、複合現実ユーザインターフェースが以下の工程によって取得される:(a)頭部装着型表示デバイスをユーザの頭部に取り付ける工程、(b)マーカを有する手術器具を提供する工程、(c)センサスイートで所望の解剖対象物をスキャンして、解剖対象物の部分的に露出した表面の3次元表面のデータを得る工程、(d)3次元表面のデータをプロセッサユニットに送信して、解剖対象物の特徴の仮想3次元モデルをレジストレーションする工程、(e)センサスイートで6自由度のポーズで手術器具を追跡して、プロセッサユニットに送信するデータを得る工程、及び(f)手術器具の特徴及び解剖対象物の特徴の立体視仮想画像を含む複合現実ユーザインターフェースをユーザの視野に表示する工程。
本発明は更に、外科術中にプローブを追跡する為の方法を提供する。例えば、本方法は、超音波トランスデューサを使用して患者の内部生体構造の二次元画像を受信するステップと、超音波トランスデューサの位置及び配向を追跡するステップと、患者の位置及び配向を追跡するステップと、患者の二次元画像を、患者に対する超音波トランスデューサの位置及び配向と結合するステップと、超音波トランスデューサの位置及び配向と患者の位置及び配向とを用いて共通の基準フレームで二次元画像を再構成して、患者の内部生体構造の3次元画像を生成するステップと、プローブの位置及び配向を追跡するステップと、患者の内部生体構造の3次元画像に対するプローブの先端部の軸及び位置を表示するステップと、患者の内部生体構造に対する位置に基づいてプローブの先端部を所望の位置に前進させるステップとを含み得る。本方法は更に、1つ以上のステレオカメラ又はトラッキングカメラ又は超音波トランスデューサを用いて患者の外部生体構造又は外表面の二次元画像を受け取るステップと、再構成された3次元画像で外部生体構造の二次元画像を表示するステップを含み得る。本方法は、ピン、針、ネジ、注射器具、プローブ等の位置、前進、後退等を監視する為に使用されてもよい。本方法は、本明細書の他の箇所に記載される頭部装着型表示デバイス及び/又は複合現実型外科システムの何れかによって実行されてもよい。
本開示の一態様は、自己完結型頭部装着型手術ナビゲーションシステムを対象とする。幾つかの実施形態において、前記システムは、表示デバイス上に視覚的表示を生成する為の表示生成器と、少なくとも1つのトラッキングカメラを有するセンサスイートと、前記センサスイートからデータを受信し、少なくとも2つのマーカの位置及び配向を、以下によって計算するように構成されたプロセッサユニットとを含む:前記少なくとも1つのトラッキングカメラの視野内の前記少なくとも2つのマーカの第1のマーカの位置を決定し、前記表示デバイス上で前記ユーザに仮想ガイドを表示して、前記第1のマーカに対する前記少なくとも2つのマーカの第2のマーカの位置に前記ユーザを誘導する、及び、前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定する。
本開示の別の態様は、自己完結型手術ナビゲーションシステムを対象とする。幾つかの実施形態では、前記システムは、術中にユーザによって装着される頭部装着型表示デバイスを含み、前記頭部装着型表示デバイスは、前記表示デバイス上に視覚的表示を生成する為の表示生成器と、少なくとも1つのトラッキングカメラを有するセンサスイートとを含む。前記システムは支持モジュールを含み、前記支持モジュールは、前記支持モジュールのハウジングに取り外し可能に挿入されるユーザ交換可能なモジュール式バッテリと、前記センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットと、を含む。
先の実施形態の何れかにおいて、前記システムは更に、フェイスシールド及びヘルメットの内の1つ以上を含み、前記表示デバイスが前記フェイスシールド又は前記ヘルメットに取り付けられるようになっている。
先の実施形態の何れかにおいて、前記システムは、関心対象物を追跡する為に前記関心対象物に固着された少なくとも1つのマーカを更に含む。幾つかのそのような実施形態では、前記少なくとも1つのマーカは、前記少なくとも1つのトラッキングカメラの視野外に在り、その結果、前記プロセッサユニットが更に、前記センサスイートの1つ以上のセンサを使用して、前記ユーザの頭部の角度を追跡し、前記少なくとも1つのマーカが前記少なくとも1つのトラッキングカメラの視野内に配置された時の前記少なくとも1つのマーカの最後の既知の位置に基づいて、前記少なくとも1つのマーカの相対位置を計算し、前記最後の既知の位置は前記頭部の角度に相対しており、前記表示デバイス上に前記ユーザへの仮想ガイドを表示して前記ユーザを前記少なくとも1つのマーカの位置へ誘導する、ように構成される。
先の実施形態の何れかにおいて、前記支持モジュールは、前記頭部装着型表示デバイスに電力及びデータを供給する為に、前記頭部装着型表示デバイスに電気的に結合される。
先の実施形態の何れかにおいて、前記支持モジュールは、前記ユーザの頭部以外の場所で前記ユーザの身体に装着される。
先の実施形態の何れかにおいて、前記表示デバイス及び前記支持モジュールは協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせず、前記システムの全センシング及び計算能力を構成している。
先の実施形態の何れかにおいて、前記システムは更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを含む。第1のマーカは、少なくとも1つのトラッキングカメラの視野内に在り、第2のマーカは、前記少なくとも1つのトラッキングカメラの視野外に在る。幾つかのそのような実施形態では、前記プロセッサユニットは更に、前記少なくとも1つのトラッキングカメラの視野内の前記第1のマーカの位置を決定することと、前記表示デバイス上に仮想ガイドをユーザに表示して、前記第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導することと、前記仮想ガイドからの前記誘導に基づいて前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定することを行うように構成される。
先の実施形態の何れかにおいて、前記システムは更に、前記第1のマーカ及び前記第2のマーカの初期位置を取得することと、前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内にない場合、前記取得した初期位置に基づいて前記第1のマーカに対する前記第2のマーカの位置を推定することを含む。
先の実施形態の何れかにおいて、前記システムは更に、既知の解剖学的マーカに対する前記第1のマーカ及び前記第2のマーカの初期位置を取得することと、前記既知の解剖学的マーカ間の距離を計算することと、前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内にない場合、前記計算された距離に基づいて前記第1のマーカに対する前記第2のマーカの位置を推定することを含む。
先の実施形態の何れかにおいて、前記システムは更に、前記センサスイート内の1つ以上のセンサを使用して、前記ユーザの頭部の動きを追跡することと、前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内に在った時の前記第2のマーカの最後の既知の位置に基づいて、前記第2のマーカの位置を計算することを含む。
先の実施形態の何れかにおいて、前記システムは更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを含む。幾つかのそのような実施形態では、前記少なくとも2つのマーカの一方又は両方は、前記少なくとも1つのトラッキングカメラの視野外に在って、前記プロセッサユニットが更に以下のように構成されるようになっている:前記少なくとも2つのマーカの間に仮想コントロールを表示し、ユーザ入力に基づいて前記仮想コントロールと位置合わせするように構成されるユーザ入力コントロールを表示し、前記ユーザが頭部を回した時に前記仮想コントロールの位置を調整して前記ユーザ入力コントロールを前記仮想コントロールと位置合わせさせる、及び前記少なくとも2つのマーカが両方とも前記少なくとも1つのトラッキングカメラの視野内に在る場合に前記少なくとも1つのトラッキングカメラの視野内に在る前記少なくとも2つのマーカを追跡する。
先の実施形態の何れかにおいて、前記頭部装着型表示デバイスは更に赤外光を含む。
先の実施形態の何れかにおいて、前記システムは更に、可視光と、前記可視光に結合された赤外光フィルタとを含み、前記赤外光フィルタが前記可視光に結合されている時に前記可視光が赤外光を放射することを防止するようになっている。
先の実施形態の何れかにおいて、前記システムは更に、前記赤外光の周囲に配置され、前記赤外光からの光が放射される開口を規定する複数の側壁を含むシュラウドを含む。
先の実施形態の何れかにおいて、前記少なくとも1つのトラッキングカメラ、前記可視光、及び前記赤外光は、前記頭部装着型表示デバイスがヘルメットに取り付けられた時、フェイスシールドの背後に配置される。
先の実施形態の何れかにおいて、前記複数の側壁は、前記頭部装着型表示デバイスが前記ヘルメットに取り付けられた時に前記フェイスシールドに接触して、前記赤外光によって放射された光が前記少なくとも1つのトラッキングカメラに反射されるのを防止すると共に、前記フェイスシールドのみを通過するようになっている。
先の実施形態の何れかにおいて、前記システムは更に、前記フェイスシールド及び前記ヘルメットを含む。
先の実施形態の何れかにおいて、前記支持モジュールの前記ハウジングは更に、前記バッテリから前記プロセッサユニット及び前記頭部装着型表示デバイスに電力を導く為に配置された回路基板を含むベースを含む。
先の実施形態の何れかにおいて、前記支持モジュールの前記ハウジングは更にブラケットを備え、前記ブラケットは、前記ブラケットに配置された時に前記バッテリ及び前記プロセッサユニットを安全且つ取り外し可能に拘束するように構成されている。
本開示の別の態様は、ヘルメット及びフェイスシールドと共に使用するように構成された自己完結型手術ナビゲーションシステムを対象とする。幾つかの実施形態において、前記システムは、術中にユーザによって装着される頭部装着型表示デバイスを含み、前記頭部装着型表示デバイスは、前記表示デバイス上に視覚表示を生成する為の表示生成器と、少なくとも1つのトラッキングカメラ、可視光、赤外光を有するセンサスイートと、前記センサスイートからデータを受信して少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットとを備えている。
先の実施形態の何れかにおいて、前記システムは更に、前記赤外光の周囲に配置され、前記赤外光からの光が放射される開口を規定する複数の側壁を含むシュラウドを含む。
先の実施形態の何れかにおいて、前記少なくとも1つのトラッキングカメラ、前記可視光、及び前記赤外光は、前記頭部装着型表示デバイスがヘルメットに取り付けられた時、フェイスシールドの背後に配置される。
先の実施形態の何れかにおいて、前記複数の側壁は、前記頭部装着型表示デバイスが前記ヘルメットに取り付けられた時に前記フェイスシールドに接触して、前記赤外光によって放射される光が、前記少なくとも1つのトラッキングカメラに反射されるのを防止すると共に、前記フェイスシールドのみを通過するようになっている。
先の実施形態の何れかにおいて、前記システムは更に、前記可視光に結合された赤外光フィルタを含み、前記赤外光フィルタが前記可視光に結合された時に、前記可視光が赤外光を放射することが防止されるようにする。
先の実施形態の何れかにおいて、前記システムは更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを含み、第1のマーカは前記少なくとも1つのトラッキングカメラの視野内に在り、第2のマーカは前記少なくとも1つのトラッキングカメラの視野外に在る。幾つかのそのような実施形態において、前記プロセッサユニットは更に、前記少なくとも1つのトラッキングカメラの視野内の第1のマーカの位置を決定することと、前記表示デバイス上に仮想ガイドをユーザに表示して、前記第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導することと、前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定することを行うように構成される。
先の実施形態の何れかにおいて、前記システムは更に支持モジュールを含み、前記支持モジュールは、前記支持モジュールのハウジングに取り外し可能に挿入されるユーザ交換可能なモジュール式バッテリと、前記センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットと、を備えている。
先の実施形態の何れかにおいて、前記支持モジュールは、前記頭部装着型表示デバイスに電力及びデータを供給する為に、前記頭部装着型表示デバイスに電気的に結合される。
先の実施形態の何れかにおいて、前記支持モジュールは、前記ユーザの頭部以外の場所で前記ユーザの身体に装着される。
先の実施形態の何れかにおいて、前記表示デバイス及び前記支持モジュールは協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせず、前記システムの全センシング及びコンピューティング能力を構成している。
先の実施形態の何れかにおいて、前記シュラウドはモノリシック構造を有する。
先の実施形態の何れかにおいて、前記複数の側壁に結合された前面は前記フェイスシールドと接触しており、前記フェイスシールドの曲率半径に一致する曲率半径を有している。
先の実施形態の何れかにおいて、前記複数の側壁に結合された前面は前記フェイスシールドと接触しており、前記フェイスシールドの曲率半径にほぼ一致する曲率半径を有している。
先の実施形態の何れかにおいて、前記複数の側壁の内の1つ以上は、前記赤外光の中心軸に対して10~20度の角度になっている。
本開示の別の態様は、ヘルメット及びフェイスシールドと共に使用するように構成された自己完結型手術ナビゲーションシステムを対象とする。幾つかの実施形態において、前記システムは、術中にユーザによって装着される頭部装着型表示デバイスを含み、前記頭部装着型表示デバイスは、前記表示デバイス上に視覚表示を生成する為の表示生成器を備え、前記表示デバイスが、手術用ヘルメット及びフェイスシールドの内の1つ以上に装着され、更に、少なくとも1つのトラッキングカメラを有するセンサスイートを備えている。
先の実施形態の何れかにおいて、前記システムは更に、支持モジュールのハウジングに取り外し可能に挿入されるユーザ交換可能なモジュール式バッテリと、プロセッサユニットとを備えた支持モジュールを含む。
先の実施形態の何れかにおいて、前記支持モジュールは、前記頭部装着型表示デバイスに電力及びデータを供給する為に、前記頭部装着型表示デバイスに電気的に結合される。
先の実施形態の何れかにおいて、前記支持モジュールは、前記ユーザの頭部以外の場所で前記ユーザの身体に装着される。
先の実施形態の何れかにおいて、前記表示デバイス及び前記支持モジュールは協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせずに、前記システムの全センシング及びコンピューティング能力を構成している。
先の実施形態の何れかにおいて、前記プロセッサユニットは、前記センサスイートからデータを受信し、前記少なくとも2つのマーカの位置及び配向を、以下により計算するように構成される:前記少なくとも1つのトラッキングカメラの視野内の前記少なくとも2つのマーカの第1のマーカの位置を決定し、前記表示デバイス上に仮想ガイドをユーザに表示して、前記第1のマーカに対する前記少なくとも2つのマーカの第2のマーカの位置に前記ユーザを誘導し、前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定する。
本開示の別の態様は、関節中心を決定する為の頭部装着型手術ナビゲーションシステムを対象とする。本明細書に記載の頭部装着型手術システムの何れかが、関節中心を決定する為に使用されてもよい。前記システムは、表示デバイス上に視覚的表示を生成する為の表示生成器と、少なくとも1つのトラッキングカメラを有するセンサスイートと、骨を追跡する為に前記骨に固着された少なくとも1つの基準マーカであって、前記骨が関節において又は前記関節に対して枢動するように位置決めされている少なくとも1つの基準マーカと、前記関節に対して実質的に固定されるように配置された少なくとも1つの定置基準マーカと、プロセッサユニットを含んでもよい。前記プロセッサユニットは、基準座標フレームにおいて前記骨上の点をレジストレーションすることと、前記レジストレーションされた点に基づいて骨座標フレームを作成することと、前記基準座標フレームから前記骨座標フレームに変換することと、前記少なくとも1つのトラッキングカメラを使用して、前記基準フレームにおける前記少なくとも1つの定置マーカの点を取得し、取得中に前記視覚的表示の少なくとも一部の位置が前記頭部装着型手術ナビゲーションシステムの移動と同期して移動するようにすることと、前記骨座標フレームにおいて関節中心を決定することと、を行うように構成されてもよい。
先の実施形態の何れかにおいて、決定することは、前記骨座標系における前記関節中心の位置を計算することと、最適推定フィルタを通して実質的に連続的に処理して、前記関節中心を決定することを含み、決定することは、全ての点の取得後に、バッチ処理して、前記関節中心を決定すること、又はそれらの組合せを含む。
先の実施形態の何れかにおいて、前記骨は、大腿骨、脛骨、上腕骨、橈骨、又は椎体の内の1つである。
先の実施形態の何れかにおいて、前記関節は、股関節、膝関節、肩関節、肘関節、足関節、又は椎体の内の1つである。
先の実施形態の何れかにおいて、定置は更に、慣性空間において固定されることを含む。
本開示の別の態様は、股関節中心を決定する為の頭部装着型手術ナビゲーションシステムを対象とする。本明細書に記載の頭部装着型手術ナビゲーションシステムの何れかが使用されてもよい。前記システムは、表示デバイス上に視覚的表示を生成する為の表示生成器と、少なくとも1つのトラッキングカメラを有するセンサスイートと、大腿骨を追跡する為に前記大腿骨に固着された少なくとも1つの基準マーカとを含み、前記大腿骨は、股関節において又は前記股関節に対して枢動するように位置決めされ、更に、股関節に対して実質的に固定であるように配置された少なくとも1つの定置基準マーカと、プロセッサユニットを含み得る。プロセッサユニットは、基準座標フレームにおいて前記大腿骨上の点をレジストレーションし、前記レジストレーションされた点に基づいて大腿骨座標フレームを作成し、基準座標フレームから大腿骨座標フレームに変換し、前記少なくとも1つのトラッキングカメラを使用して、前記基準フレームにおける前記少なくとも1つの定置マーカの点を取得し、取得中に、前記視覚的表示の少なくとも一部の位置が前記頭部装着型手術ナビゲーションシステムの移動と同期して移動し、前記大腿骨座標フレームにおいて股関節中心を決定するように構成されている。
先の実施形態の何れかにおいて、決定することは更に、前記大腿座標系における股関節中心の位置を計算することと、前記股関節中心を決定する為に最適推定フィルタを通して実質的に連続的に処理することと、全ての点の取得後にバッチ処理して、前記股関節中心を決定することと、又はそれらの組み合わせを更に含む。
先の実施形態の何れかにおいて、定置は更に、慣性空間において固定されることを含む。
本開示の別の態様は、本明細書に記載の頭部装着型手術ナビゲーションシステムの何れかによって実行されるような、切除角を設定する前に顆頭表面をレジストレーションする方法を対象とする。前記方法は、プロセッサユニットによって実行され、前記頭部装着型手術ナビゲーションシステムのディスプレイ上に、1つ以上の領域を含むターゲットを表示するステップと、前記ディスプレイ上に、顆頭ガイドから受け取った1つ以上の角度をリアルタイムで表す可動式アイコンを提供するステップと、前記ターゲット内の1つ以上の領域に対して可動式アイコンの位置を調整する為の1つ以上のユーザ入力を受信するステップと、前記視覚的にマークされた領域が捕捉された有効な深さ基準点を示すように、前記ディスプレイ上に、前記可動式アイコンの位置の調整中に前記可動式アイコンが相互作用する前記ターゲットの1つ以上の領域の何れかの上に視覚的マーカを出力するステップを含む。
先の実施形態の何れかにおいて、前記方法は更に、以前に捕捉された有効な深さ基準点を記録しないように、前記可動式アイコンの動きを制限するステップを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記キャプチャされた有効な深さ基準点が格納されるデータベースを形成するステップを含む。
先の実施形態の何れかにおいて、前記ターゲットはグリッド又はブルズアイである。
先の実施形態の何れかにおいて、前記1つ以上の領域の各々は、前記可動式アイコンが前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨の前記ユーザに対する指示を前記ディスプレイ上に出力することを前記方法が含むように、順次ハイライトされる。
先の実施形態の何れかにおいて、前記1つ以上の領域の内の任意の1つは、前記可動式アイコンが前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して動かす旨の前記ユーザに対する指示を前記ディスプレイ上に出力することを前記方法が含むようにハイライトされる。
先の実施形態の何れかにおいて、前記方法は、前記ハイライト領域と前記可動式アイコンとが少なくとも部分的に重なった時点で、前記ハイライト領域を不活性化し、前記1つ以上の領域の内の第2の領域をハイライトするステップを更に含む。
先の実施形態の何れかにおいて、前記方法は、前記顆頭ガイドを取り外して切断ガイドを取り付けるように前記ユーザに促すステップを更に含む。
先の実施形態の何れかにおいて、前記方法は更に、前記切断ガイドによって規定される現在の切除面から深さ基準面に対応する有効深さ基準点の1つまでの距離に基づいて切除深さを計算するステップを含む。
先の実施形態の何れかにおいて、本方法は更に、顆頭ガイドを提供することを含み、前記顆頭ガイドは、第1の端部及び第2の端部を有する本体と、前記第1の端部の少なくとも一部の側面領域から延びる少なくとも1つの平面表面であって、1つ以上の大腿顆部に載り、切除深さを計算する為のゼロ深さ平面を構築するように構成されている平面表面と、前記少なくとも1つの平面表面上に配置され、前記顆頭ガイドのポーズを追跡する少なくとも1つのトラッカーと、前記本体の前記第2の端部から延びて切断ガイドに結合するように構成されたコネクタを備えている。
先の実施形態の何れかにおいて、前記顆頭ガイドは、前記本体の前記第1の端部から延びる細長いハンドルを含む。
先の実施形態の何れかにおいて、前記顆頭ガイドの本体は更に、骨への挿入の為にピンをそこを通して受け入れるように構成された開口を規定する。
先の実施形態の何れかにおいて、前記開口の直径は、ピンが前記開口を通して挿入される時に前記顆頭ガイドが傾くことを可能にするような大きさである。
先の実施形態の何れかにおいて、前記顆頭ガイドは更に、前記本体の前記第2の端部から前記コネクタと反対方向に延びる解放機序を含む。先の実施形態の何れかにおいて、前記解放機序は、前記切断ガイドを前記骨にピン留めする前に、前記顆頭ガイドを前記骨に結合するように構成される。
先の実施形態の何れかにおいて、前記顆頭ガイドの前記本体の前記第2の端部の少なくとも一部は、スライダを受け入れるように構成されたスロットを規定し、前記スロット内に、前記コネクタ及び解放機序が、前記スライダの対向する側に挿入される。
先の実施形態の何れかにおいて、前記顆頭ガイドの前記少なくとも1つの平面表面は、大腿骨顆部に接する平面をシミュレートするように構成される。
先の実施形態の何れかにおいて、前記方法は更に、前記少なくとも1つの平面表面上に配置された前記少なくとも1つのトラッカーを使用して前記顆頭ガイドを追跡して、1つ以上の有効な深さ基準点を決定することを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記切断ガイドに結合された前記顆頭ガイドを使用して、前記1つ以上の有効な深さ基準点を決定した後にのみ、前記切断ガイドをピン留めすることを含む。
先の実施形態の何れかにおいて、前記顆頭ガイドの前記コネクタは取り外し可能である。
本開示の別の態様は、切除角を設定する前に顆頭表面をレジストレーションする方法であって、本明細書に記載の頭部装着型手術ナビゲーションシステムの何れかによって前記方法が実行されるような方法を対象とする。前記方法は、プロセッサユニットによって実行され、前記頭部装着型手術ナビゲーションシステムのディスプレイ上に、1つ以上の領域を含むターゲットを表示するステップと、前記ディスプレイ上に、顆頭ガイドから受け取った1つ以上の角度をリアルタイムで受信して表示するステップと、前記ターゲット内の前記1つ以上の領域に対して前記顆頭ガイドを調整する1つ以上のユーザ入力を受信するステップと、前記ディスプレイ上に、前記ターゲットの前記1つ以上の領域の何れかの上に視覚的マーカを出力し、前記視覚的マーカ付き領域が捕捉され有効な深さ基準点を示しているステップとを含む。
先の実施形態の何れかにおいて、本方法は更に、以前に捕捉された有効な深さ基準点の記録を制限するステップを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記捕捉された有効な深さ基準点が格納されるデータベースを形成するステップを含む。
先の実施形態の何れかにおいて、前記ターゲットはグリッド又はブルズアイである。
先の実施形態の何れかにおいて、前記1つ以上の領域の各々は、前記顆頭ガイドの角度が前記ハイライト領域に少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨のユーザに対する指示を前記ディスプレイ上に出力することを前記方法が含むように順次ハイライトされる。
先の実施形態の何れかにおいて、前記方法は更に、前記顆頭ガイドの角度が前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨の前記ユーザに対する指示を前記ディスプレイ上に出力することを前記方法が含むように、前記1つ以上の領域の内の任意の1つがハイライトされるステップを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記ハイライト領域と前記顆頭ガイドの角度とが少なくとも部分的に重なった時点で、前記ハイライト領域を不活性化し、前記1つ以上の領域のうち第2の領域をハイライトするステップを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記顆頭ガイドを取り外して切断ガイドを取り付けるようにユーザに促すステップを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記切断ガイドによって規定される現在の切除面から深さ基準面に対応する前記有効深さ基準点の1つまでの距離に基づいて切除深さを計算することを含む。
先の実施形態の何れかにおいて、前記方法は、顆頭ガイドを提供することを更に含み、前記顆頭ガイドは、第1の端部及び第2の端部を有する本体と、前記第1の端部の少なくとも一部の側面領域から延びる少なくとも1つの平面表面であって、1つ以上の大腿顆部に載って切除深さを計算する為のゼロ深さ面を構築するように構成される平面表面と、前記少なくとも1つの平面表面上に配置され、前記顆頭ガイドのポーズを追跡する少なくとも1つのトラッカーと、前記本体の前記第2の端部から延びて切断ガイドに結合するように構成されたコネクタとを備えている。
先の実施形態の何れかにおいて、前記顆頭ガイドは、前記本体の前記第1の端部から延びる細長いハンドルを含む。
先の実施形態の何れかにおいて、前記顆頭ガイドの本体は更に、骨に挿入する為のピンをそこを通して受け入れるように構成された開口を規定する。
先の実施形態の何れかにおいて、本体によって規定される開口の直径は、ピンが前記開口を通して挿入される時に前記顆頭ガイドが傾くことを可能にするような大きさである。
先の実施形態の何れかにおいて、前記顆頭ガイドは、前記コネクタと反対方向に前記本体の前記第2の端部から延びる解放機序を含み、前記解放機序は、前記切断ガイドを前記骨にピン留めする前に前記顆頭ガイドを前記骨に結合するように構成される。
先の実施形態の何れかにおいて、前記本体の前記第2の端部の少なくとも一部は、スライダを受け入れるように構成されたスロットを規定し、前記スロット内に、前記コネクタ及び前記解放機序が前記スライダの対向する側に挿入される。
先の実施形態の何れかにおいて、前記少なくとも1つの平面表面は、大腿骨顆部に接する平面をシミュレートするように構成される。
先の実施形態の何れかにおいて、前記方法は更に、前記少なくとも1つの平面表面上に配置された前記少なくとも1つのトラッカーを使用して前記顆頭ガイドを追跡し、1つ以上の有効な深さ基準点を決定することを含む。
先の実施形態の何れかにおいて、前記方法は更に、前記切断ガイドに結合された前記顆頭ガイドを使用した後にのみ、前記切断ガイドをピン留めして、前記1つ以上の有効な深さ基準点を決定することを含む。
本発明の幾つかの実施形態は、一例として例示されており、添付の図面によって限定されるものではなく、図面において、同様の参照は同様の要素を示し得る。
本発明の原理による拡張システムのダイアグラム的な描写図である。 図1のシステムの表示デバイスのダイアグラム的な描写の透視正面図である。 図2Aの表示デバイスの透視背面図である。 図1のシステムの表示デバイスの別の実施形態のダイアグラム的な描写図である。 図1のシステムの電気的ハードウェア構成を示す概略図である。 図1のシステムのマーカ及びカメラのダイアグラム的な描写図である。 仮想骨盤を示す股関節置換術における寛骨臼シェルの位置決め中に図1のシステムによって提供される複合現実ユーザインターフェース画像(「MXUI」)のダイアグラム的な描写図である。 仮想骨盤及び仮想寛骨臼インパクタを示す、股関節置換術における寛骨臼シェルの位置決め中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 医療処置中の図1のシステムの動作プロセスを示すフローチャートである。 本発明の原理に従って股関節置換術を実行する為に図1のシステムを使用する方法を示すフローチャートである。 本発明の原理に従って一般的な医療処置を実行する為に図1のシステムを使用する方法を示すフローチャートである。 寛骨臼シェル及び光学マーカを含む股関節インパクタアセンブリをダイアグラム的に描写した透視図である。 図11に示した股関節インパクタアセンブリの分解図である。 図1のシステムに任意選択で含まれる解剖学的マーカアセンブリのダイアグラム的な描写の透視図である。 図13Aに示した解剖学的マーカのクランプアセンブリの透視図である。 図13Aに示した解剖学的マーカアセンブリの分解図である。 図1のシステムに任意選択で含まれる較正アセンブリをダイアグラム的に描写した透視図である。 図15に示した較正アセンブリの分解正面図である。 図16に示した較正アセンブリの分解背面図である。 様々な較正ステップ中に図1のシステムによって提供されるMXUIを示すダイアグラム的な描写図である。 股関節置換術の骨盤レジストレーションステップ中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術の骨盤へのピンの挿入中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術の骨盤レジストレーションステップ中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術の大腿骨レジストレーションステップ中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術での大腿骨頸部の切除中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術における寛骨臼シェルの位置決め中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術における寛骨臼シェルの位置決め中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術における大腿骨の再位置決め中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 股関節置換術の処置中にCアームを使用して図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 本発明の原理に従って、図1のシステムが外科手術においてCアームと連携してどのように使用され得るかを示すフローチャートである。 図1のシステムに任意選択で含まれる機器識別及び追跡ラベルのダイアグラム的な描写の正面図である。 本発明の原理に従って、図1のシステムを使用して医療機器をレジストレーション、共有、及び/又は追跡する為の方法のフローチャートである。 脊椎固定処置における超音波トランスデューサを用いた脊椎のレジストレーション中に図1のシステムによって提供されるMXUIを示すダイアグラム的な描写図である。 開放型脊椎固定術におけるスタイラスでの脊椎のレジストレーション中に図1のシステムによって提供されるMXUIを示すダイアグラム的な描写図である。 図32の手術露出部分のクローズアップ正面図である。 脊椎固定術における椎弓根の穿孔の間に図1のシステムによって提供されるMXUIを示すダイアグラム的な描写図である。 図34の仮想ドリル及びターゲット部分のクローズアップ図である。 図1のシステムのARヘッドセットを装着しているユーザのダイアグラム的な描写の透視正面図である。 保護フェイスシールドを有する図1のシステムのARヘッドセットを装着しているユーザのダイアグラム的な描写の透視背面図である。 手術用ヘルメットを有する図1のシステムのARヘッドセットを装着しているユーザのダイアグラム的な描写の透視正面図である。 図37Aに示したアイテムの透視背面図である。 図1のシステムの様々な構成要素のダイアグラム的な描写の透視前面図である。 図37Aに示した手術用ヘルメットの透視背面図である。 図36Aに示したARヘッドセットの透視正面図である。 図37Aに示した手術用ヘルメットの分解斜視図である。 図40に示した電気機械式結合プレートの透視底面図である。 図40に示した電気機械式結合プレートの透視上面図である。 膝関節置換術で使用される図37Aに示したシステムの構成要素の透視正面図である。 膝関節置換術における遠位大腿骨のレジストレーション中に図1のシステムによって提供されるMXUIを示すダイアグラム的な描写図である。 膝関節置換術における切除面計画中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 膝関節置換術における切断ブロックの位置決めの為のピンの配置中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 膝関節置換術における脛骨切除中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 膝関節置換術中に使用される図1のシステムに任意選択で含まれる膝バランシング装置のダイアグラム的な描写の透視正面図である。 膝関節置換術におけるバランス評価中に図1のシステムによって提供されるMXUIのダイアグラム的な描写図である。 図47に示される膝バランシング装置の透視正面図である。 基準位置における寛骨及び近位大腿骨上の露出面のダイアグラム的な描写図である。 変位した位置における寛骨臼及び近位大腿骨上の露出面のダイアグラム的な描写図である。 大腿骨バージョンを計算する為の基準軸及び平面を示す、股関節及び脚のダイアグラム的な描写図である。 移植されたコンポーネントを有する股関節のダイアグラム的な描写図である。 インパクタ上にマッピングされた表面を示す、股関節インパクタ及びシェルのダイアグラム的な描写図である。 図1のシステムが本発明の原理に従って股関節キネマティクスを分析する為にどのように使用され得るかを示すフローチャートである。 膝関節置換術をナビゲートする例示的な方法を示すフローチャートである。 単顆型インプラントを有する膝のダイアグラム的な描写図である。 単顆型インプラントを有する脛骨のダイアグラム的な描写図である。 基準位置における表面マッピングの為の例示的な領域を示す膝のダイアグラム的な描写図である。 変位した位置における表面マッピングの為の例示的な領域を示す膝のダイアグラム的な描写図である。 表面マッピングの為の例示的な領域を示す膝のダイアグラム的な描写図である。 股関節置換術をナビゲートする例示的な方法を示すフローチャートである。 ブラケットを有するアイピースのダイアグラム的な描写図である。 図60に描写されたアイピースの分解斜視図である。 支持モジュールの分解斜視図である。 支持モジュール回路基板6212の電気的ハードウェア構成を示す概略図である。 支持モジュールの一実施形態に係る回路基板の概略図である。 必要なマーカを包含するようにカメラFOVを位置決めする際にユーザを支援する為の要素を示すMXUIのダイアグラム的な描写図である。 手術パラメータを最適化する例示的な方法を示すフローチャートである。 膝の手術において切除深さを測定するシステムの構成要素を示す図である。 大腿骨上の切除深さを測定する例示的な方法を示すフローチャートである。 調整可能な切断ブロックのダイアグラム的な描写図である。 図68Aに描写された切断ブロックの分解図である。 図60に描写されたアイピース及びブラケットの分解図である。 図60に描写されたアイピース及びブラケットの側面図である。 手術用ヘルメットに取り付けられた、図60に描写されたアイピース及びブラケットを示す図である。 手術用フェイスシールドに対して取り付けられた図60に描写されたアイピースの上面図である。 手術用フェイスシールドに対して取り付けられた図60に描写されたアイピースの側面図である。 図72A~図72Bのシュラウドの拡大図である。 図72A~図72Bのシュラウドの拡大正面図である。 図72A~図72Bのシュラウドの拡大上面図である。 ユーザをガイドして顆頭ガイドを調整する方法の一実施形態を示す図である。 ユーザをガイドして顆頭ガイドを調整する方法の別の実施形態を示す図である。 顆頭ガイドを調整する為にユーザを誘導する方法の別の実施形態を示す図である。 顆頭表面マッピング中にデータベース内に基準深さを格納し、評価する方法の一実施形態を示す図である。 顆頭表面マッピング中にデータベースから基準深さを検索する方法の一実施形態を示す図である。 顆頭ガイドの一実施形態を示す図である。 図79Aの顆頭ガイドの本体によって規定される開口の拡大図を示す図である。 切断ガイドの一実施形態を示す図である。 外科手術の為の関節中心を決定する方法の一実施形態を示す図である。 慣性空間におけるマーカの向きを決定する方法の一実施形態を示す図である。 IMUを頭部装着型ディスプレイビジョンシステムに較正する方法の一実施形態を示す図である。 注視制御方法の一実施形態を示す図である。 音声認識及び/又は注視制御方法の一の実施形態を示す図である。 頭部装着型ナビゲーションシステムを較正する為の固定具の一実施形態の透視図である。 図86Aの固定具の正面図である。
本明細書で使用する用語は、特定の実施形態を説明する目的だけのものであり、本発明を限定することを意図するものではない。本明細書で使用する場合、用語「及び/又は」は、関連する列挙された項目の1つ以上の任意の及び全ての組み合わせを含む。本明細書で使用する場合、単数形「a」、「an」、及び「the」は、文脈が明らかに他に示す場合を除き、単数形と同様に複数形を含むことが意図される。本明細書で使用する場合、用語「備える(comprise)」及び/又は「備えた(comprising)」は、記載された特徴、ステップ、操作、要素、及び/又は構成要素、及び/又はそれらの群の存在を規定することが更に理解されるであろう。
特に定義されない限り、本明細書で使用する全ての用語(技術用語及び科学用語を含む)は、本発明が属する技術分野において通常の技能を有する者が一般的に理解するのと同じ意味を有する。一般的に使用される辞書で定義されるような用語は、関連する技術及び本開示の文脈における意味と一致する意味を有すると解釈されるべきであり、本明細書で明示的にそのように定義されない限り、理想化された意味又は過度に形式にとらわれて解釈されないことが更に理解されよう。
本発明を説明するにあたり、幾つかの技術及びステップが開示されていることが理解されよう。これらの各々は、個々の利点を有し、各々は、他の開示された技術の1つ以上、又は場合によっては全てと組み合わせても使用され得る。従って、明瞭化の為に、本明細書では、個々のステップのあらゆる可能な組み合わせを不必要に繰り返すことを控える。それでも、このような組み合わせは、完全に本発明及び特許請求の範囲の範囲内であることを理解した上で、本明細書及び特許請求の範囲を読むべきである。
医療処置を支援する為のデータを提供する為の新規の感覚拡張デバイス、装置、及び方法を本明細書で論じる。以下の記載では、説明の為に、本発明の完全な理解を提供する為に、多数の具体的な詳細が記載される。しかしながら、当業者には、本発明が具体的な詳細なしでも実施され得ることは明らかであろう。
更に、本明細書に記載された実施形態の何れもが、他の任意の実施形態と組み合わせ可能であることも、当業者には理解されるであろう。例えば、フェイスシールド、ヘルメット、表示デバイス等の任意の組み合わせが本明細書で企図される。更に任意のプロセッサユニットで実行可能な方法は、本明細書に記載された、又は当技術分野で一般に入手可能なフェイスシールド、ヘルメット、表示デバイス等の任意の組み合わせで実施され得る。
I.感覚拡張システム
図1、2A~B、及び3を参照すると、本発明の感覚拡張システム10が、医療処置における使用の為に提供されている。システム10は、1つ以上の視覚的マーカ(100、108、110)と、プロセッシングユニット102と、1つ以上のトラッキングカメラ(複数可)206を有するセンサスイート210と、ユーザ106が見る為の表示デバイス104上の視覚的表示を生成するディスプレイ生成器204を有する表示デバイス104と、を含む。表示デバイス104は、表示デバイス104がユーザの視覚入力を補強できるように、ユーザ106に取り付けられる。一実施形態では、表示デバイス104は、ユーザ106の頭部に取り付けられる。或いは、表示デバイス104は、視覚シーンを拡張しながらもユーザ106とは別に配置される。一実施形態では、マーカ(100、108、及び110)の各々は、カメラ(複数可)206によって個別に追跡され得るように、視覚的に互いから区別可能且つ異なっている。
図2A~2Bを参照すると、表示デバイス104の別の例示的な実施形態は、表示生成器204のビデオディスプレイの焦点をユーザ106の目の上に合わせることを可能にする光学系202を有するバイザーハウジング200を含んでいる。センサスイート210は、表示デバイス104に取り付けられるか、又は表示デバイス104の一部にされる。バイザーハウジング200は、ユーザの106の視覚経路に対する表示デバイス104の位置合わせが一貫して再現可能であるように、ユーザの106の頭又は顔への取り付けを可能にする取り付け機序208を含む。
図3を参照すると、表示デバイス104の別の例示的な実施形態は、ユーザ106の目の視覚経路内にデータ及び画像をオーバーレイする、表示生成器302からのシールド300への投影を可能にする透明なフェイスシールド300を含んでいる。センサスイート306は、ここではフェイスシールド300として示されている表示デバイスに取り付けられるか、又はその一部とされる。フェイスシールド300は更に、取り付け機序304を含む。センサスイート306及びアタッチメント機序304は、上述したセンサスイート210及びアタッチメント機序208と同じ機能を提供する。
システム10の電子ハードウェア構成を示す図4を参照すると、センサスイート(210、306)は、1つ以上のトラッキングカメラ402、404、406(206と同じ)を含むだけでなく、任意選択で慣性測定ユニット(「IMU」)408、他のセンサ又は制御ユニットと通信する為の無線機410、明視野の為の全ての表示項目の除去を含むがこれに限定されない、異なる表示モードの音声起動の為のマイクロフォン416、可聴警告及び他の目的の為の1つ以上のスピーカ418、及びシェーカーモータ、圧電ブザー、又は他の実施形態の形態の触覚フィードバック420を含んでもよい。IMU408は、視覚に基づかないオブジェクトの為の付加的な向き及び位置決めデータを提供する。IMU408は、カメラトラッキングとIMU408のデータからの同時定位及びマッピング(「SLAM」)データの生成の為に使用され得るが、これに限定されず、ローカリゼーション及び関心対象物の表面マップの生成を支援する非マーカ固有の余地(room)特徴を決定する為に使用され得る。更に、センサスイート(複数可)(400、210、及び306)は、有線、無線、又は格納されたメモリによって中継されるような外部データ414を含む。外部データ414は、任意選択で、透視画像、コンピュータ軸断層撮影(「CAT又はCT」)スキャン、ポジトロン放射断層撮影(「PET」)スキャン、及び/又は磁気共鳴画像(「MRI」)データ等の形態であってよい。そのようなデータを、センサスイート(400、210、及び306)によって収集された他のデータと組み合わせて、拡張画像を作成してもよい。
システム10の動作中、表示生成器412(204及び302としても示される)及びプロセッシングユニット401(102としても示される)は、センサスイート(210、306)について上述した構成要素と電子通信している。プロセッシングユニット401は、ディスプレイ管理及びアルゴリズム遂行を制御する中央処理装置(「CPU」)である。図4を参照すると、システム10は、任意選択で、1つ以上のリモートセンサスイート422を含んでもよい。これらのリモートセンサスイート422は、表示デバイス104から離れた場所に物理的に配置されている。これらのリモートセンサスイート422の各々は、センサスイート(210、306)について上述した構成要素の一部又は全て、例えばカメラ425、IMU427、無線機429、及びケーブル431(例えば、システム400とデータを共有する為のもの)を含む。又、任意選択で、別個のリモートプロセッシングユニット423を含んでもよい。リモートセンサスイート422は、データを外部データ414に寄与し、そのデータは所望によりプロセッシングユニット401によって更に処理されてもよい。別の実施形態では、システム10は、リモートスイート(複数可)422を使用して、ユーザ106に対して視野内のオブジェクトを定位する為に、視野内に位置するマーカのみならず、ユーザ106によって装着されたディスプレイユニット104に取り付けられた任意のマーカ(複数可)も追跡する。
1つの例示的な実施形態では、システム10は、センサスイート(複数可)(422、210、306)を使用して、ワークスペース内のオブジェクトを表すデータの3次元点群を作成する。これらのデータは、その後の追跡、視覚化、又は後刻の再生において使用する為に、既にモデル化されたオブジェクトを作成するか、又はそれに一致させる為に使用され得る。
更に、システム10は、視野内のオブジェクトを暈す為に、引き込み具又は、処置の対象でない露出部の周囲の軟組織を含むがこれらに限定されない技術開示された手段を用いて画像及びマスクを任意選択でオーバーレイして、関心領域、アイテム、又は領域を強調することを支援してもよい。一実施形態では、外部画像は、拡張現実(「AR」)モードにおいてオーバーレイと共に投影され得る。別の実施形態では、外部画像は無視されてもよく、コンピュータ生成グラフィックスのみを使用して、仮想現実(「VR」)モードでユーザ106にデータを表示してもよい。VRモードは、表示デバイス104若しくはその一部を不透明にして外部視覚データを遮断する場合、又は集中すべきは外部画像ではなくその画像であることをユーザ106に強調する為に他の何らかの方法が使用される場合にサポートされる。
表示デバイス104の他の代替的な実施形態は、ユーザ106の視野へのホログラフィック又は疑似ホログラフィック表示投影を含み得るが、これらに限定されない。更に、表示デバイスは、任意選択で、ユーザ106の視野に対して最適な表示画像の決定を可能にするアイトラッキングの技術開示された手段を提供してもよい。
システム10は、任意選択で、視野内のアイテムを識別するアルゴリズムを使用して、当面のタスクにとって重要でないオブジェクトに対比した関心対象物を何が構成するかを識別できる。これは、同じ視野で見える軟組織及び器具にも係らず、術前スキャンとの比較及びマージに使用する為に股関節寛骨臼上の骨指標を識別することを含み得るが、これらに限定されない。
図5を参照すると、センサスイート(400、422、210、及び306)の1つ以上のカメラ500、506と1つ以上の視覚的マーカ502、504は、明確なオブジェクト(例えば、手術器具、解剖対象物内の所望の位置等)を視覚的に追跡し、ユーザ106に対する高度、場所、配向、及び/又は位置を決定する為に使用される。一実施形態では、1つ以上のマーカの各々は、視覚的に互いに区別され、異なるものである。マーカ認識には、スタンドアロン物体認識及び機械視覚技術が使用され得る。代替的に、本発明は、マーカ502、504を含むがこれらに限定されない1つ以上の関心対象物上のIMU408を使用したアシストトラッキングも提供する。1つ以上のカメラ500、506は、ユーザ106から遠隔に位置し、追跡及び定位に追加のデータを提供できることに留意されたい。
最適フィルタリングアルゴリズムは、全ての利用可能なソースからのデータを結合して、視野内のアイテムに対する最も正確な位置及び配向データを提供する為に任意選択で使用される。このフィルタリング方式は、カメラ(複数可)視野(複数可)の閉塞、血液、組織、又は所望の関心領域の他の有機的な一時的閉塞、カメラ(複数可)視野(複数可)を関心領域から遠ざける頭部の動き又は他のカメラの動き、データのドロップアウト、及びバッテリ/電源枯渇又は他の機器の損失を含むがこれらに限定されないイベントに対応できるであろう。
図36A~B、37A~B、38A~B、及び39-41A~Bを参照すると、表示デバイス104の別の例示的な実施形態は、自己完結型のARヘッドセット3600である。以前の利用可能システムは、幾つかの技術的問題又は制限を被っていた。例えば、以前の利用可能システムは、(1)ユーザによって装着される表示デバイスの完全な動作の為に外部センサ、カメラ、コンピュータ、及び/又は電源を必要とし、(2)電源の制約により処置中の有用寿命が制限され(例えば、電源はデータ損失を経験せずに処置中に容易に又は迅速に交換可能ではない)、及び/又は(3)自己完結型のシステムは様々なヘルメット、フェイスシールド又はフードに適合可能でなかった。本明細書に記載の自己完結型ARヘッドセットは、これらの技術的課題を技術的解決策で克服する。本明細書の他の箇所でより詳細に説明するように、本開示の自己完結型ARヘッドセットは、(1)外科手術を完全に実行する為に必要な全てのセンサ、カメラ、コンピュータ、及び/又は電源を含む(即ち、外部電気機器は必要ない)と共に、(2)ユーザが交換可能な電源又はバッテリ、又はモジュール式バッテリ(即ち、支持モジュールに組み込まれておらず、支持モジュールから容易に取り外し可能で分離可能である)を含み、手術が遅延なく進行できるように、器具、操作ラッチ、又はデータ損失なしに外科的処置中にバッテリが容易に交換可能である、及び(3)種々の手術用ヘルメット、フード、及びフェイスシールドに容易に適合可能である。次に、このような自己完結型ARヘッドセットの様々な実施形態について、より詳細に説明する。
ARヘッドセット3600は、様々な無菌外科手術(例えば、脊椎固定術、股関節及び膝関節形成術等)で使用される。ARヘッドセット3600は、サムホイール3606を回してヘッドストラップ3604を調整することによって、執刀医3602(即ち、ユーザ106)の頭部にクランプされる。透明保護フェイスシールド3608は、任意選択で、ベルクロストリップ3610への取り付けによって装置3600に取り付けられる。代替的に、取り付けは、接着剤、磁気、フック、又は他の技術的に開示された取り付け手段を介して行われてもよい。結合機構3612は、ARヘッドセット3600に手術用ヘルメット3700を機械的及び電気的の両方で取り付ける為に存在する。手術用ヘルメット3700は、執刀医3602の全身を覆う手術用フード(図示せず)に任意選択で接続される。全身を覆うことは、股関節形成術及び膝関節形成術等の特定の外科手術に有用である。手術用ヘルメット3700が手術用フードに取り付けられると、ファンは、手術用フードを通して空気を空気取入口3702に引き込み、手術用フード及びヘルメットの下で循環させ、執刀医3602を冷却し、光学部品の曇りを防止する。あごピース3704は、ヘルメット3700(及び該当する場合は、取り付けられた手術用フード)を執刀医3602の顔から離して配置する。ARヘッドセット3600に対する手術用ヘルメット3700の位置は、執刀医3602及び全てのカメラ及びセンサの為の手術部位の遮られない視界を可能にするように設計されている。手術用ヘルメット3700は、手術用フードに取り付けてインターフェースする為に必要な機能を含む。可撓性コード3706は、ARヘッドセット3600を支持モジュール3708に接続し、支持モジュール3708は、執刀医3602のベルト又は執刀医の頭以外の執刀医の他の場所に装着され得る。例えば、支持モジュールは、股関節に、腰に、背中に、肩に(例えば、ストラップを使用して)、胸に、大腿に、手首に、上腕二頭筋に、等々、装着され得る。交換可能な電池3800は、支持モジュール3708に挿入される。
図39を参照すると、ARヘッドセット3600は、視覚拡張の為の一対のシースルー光学ディスプレイ3902と、二次元及び3次元デジタルズーム機能を含むトラッキング及び立体映像機能を行う為の1つ以上のトラッキングカメラ3904とを有するディスプレイセクション3900を含んでいる。ディスプレイセクション3900には深さセンサ3906と構造化光プロジェクタ3908が含まれる。深さセンサ3906とプロジェクタ3908は、ディスプレイセクション3900の中央に配置されることが好ましい。手術用ヘッドライト3909は、任意選択でディスプレイセクション3900に取り付けられ、ARヘッドセット3600に電気的に接続されて、音声コマンドによる場合を含むARヘッドセット3600のソフトウェアによってその明るさを制御することができるようにしてもよい。この機能は、例えば、明るい背景に対する仮想コンテンツのより良い視覚化を可能にする為に、複合現実モードの時に手術用ヘッドライトを暗くするか、又はオフにする為に配備されてもよい。それは又、時として標的の高コントラスト照明又は低い周囲照明によって損なわれ得る光学的トラッキングを最適化するように調整されてもよい。別の例示的な実施形態では、手術室ライトは、同じ理由でARヘッドセット3600のソフトウェアによってワイヤレスで制御されてもよい。
図39~40を参照すると、ARヘッドセット3600の後部セクション3910は、マイクロプロセッサ及び内部バッテリのような回路の発熱及び他の構成要素を任意選択で含んでもよい。ARヘッドセット3600のアーチ状のブリッジセクション3912及びヘッドストラップ3604は、後部セクション3910とディスプレイセクション3900とを機械的に接続する。ブリッジセクション3912の一部は、サイズ調整に対応する為に可撓性を有する。ブリッジセクション3912は、ディスプレイセクション3900と後部セクション3910との間の電気的接続を提供する為に、配線又はフレキシブル回路基板を含んでもよい。ブリッジセクション3912は結合機構3612を含み、結合機構3612は、手術用ヘルメット3700のファンに電力供給する為の2つの電気接点3916へのアクセスを提供する開口3918を規定する複数の位置決め穴3914を有する強磁性プレートである。別の実施形態において、結合機構3612は、ベルクロ(登録商標)、ラッチ又はねじ込みファスナー等の他の技術的に開示された手段であり得る。結合機構3612は、任意選択で、トラッキング性能に有害となり得る、手術用ヘルメット3700のファンからARヘッドセット3600への機械的ノイズの伝達を最小化する為の防振マウントを含んでもよい。ファン4004は、機械的ノイズの発生を最小化する為に減速又は停止することを可能にするソフトウェア制御であってもよい。又、執刀医3602が音声コマンドを使用して制御してもよい。可撓性コード3706は、後部セクション3910を、図38Aに示す支持モジュール3708に接続する。
図40を参照すると、手術用ヘルメット3700は、ファン4004による空気の吸い込み先の中空のシェル4002を含み、空気は、執刀医に冷却空気を提供する為にシェル内の様々なベントを通して排気される。ブリム通気口4006は、手術用フードのバイザー上に空気の流れを提供し、後部通気口4008は、ARヘッドセット3600の後部セクション3910を含む後部に冷却空気を提供する。
図41A~Bを参照すると、結合プレート3802は、ARヘッドセット3600の孔3914と位置合わせする為の複数のボス4102を含む。結合プレート3802は又、ファン4004に電力を供給する為にARヘッドセット3600の電気接点3916と接続する、ばね負荷された電気接点4104を含む。結合プレート3802は、結合プレート3802と結合機構3612との間に機械的保持力を提供する磁石4106を更に含む。
図60を参照すると、表示デバイスの別の例示的な実施形態は、アイピース6002にあり、これは、手術用ヘルメット3700等のヘッドバンド又は他の支持構造に適合するように構成されたモジュラーブラケット6004を含む。複数のブラケット6004は、アイピース6002を異なるタイプのヘッドギアに取り付ける為に交換され得る。集束したスポットライト又は可視光6006は統合されて処置部位に照明を提供し、アイピースに対して上下に枢動できるようにブラケットに取り付けられ、アイピースディスプレイ及びスポットライト又は可視光の両方を、互いに独立して、各ユーザに対して正しい角度に調整できるようにする。この実施形態では、ハンドル6008が一体化され、手術用フードの下に装着した場合でも、ユーザが表示デバイスの位置を容易に調整できるようになっている。
ディスプレイに焦点を合わせる為には、ディスプレイをユーザの目に対して正しい距離と角度に配置しなければならない。ユーザ毎の体の構造に関するばらつき故に、各ユーザに対してアイピース6002の位置及び角度を調整する手段を提供することが有益である。図69を参照すると、この調整を可能にするアイピース6002及びブラケット6004の幾つかの追加的な機構が示されている。ブラケット6004は、ネジ等の1つ以上の取り付け機構6902を使用してアイピース6002に取り付けられる。ブラケット6004は、下部ブラケット6912と上部ブラケット6910とを含み、これらはロックノブ6904によって接続されている。上部ブラケット6910は、ヘッドバンド又は手術用ヘルメットのような支持構造体に強固に結合されるように構成されたクランプ6908を更に含む。この実施形態では、クランプ6908は、ブラケット6904をストライカーフライト(Stryker Flyte)手術用ヘルメットに取り付けるように構成されている。下部ブラケット6912は、アイピース6002に強固に結合される。上部ブラケット6910は、ロックノブ6904と干渉するスロット6906を含み、ロックノブ6904が緩められた時に下部ブラケット6912及びアイピース6002が前方及び後方にスライドすることを可能にする。下部ブラケット6912は、更に、ロックノブ6904の周りを枢動してアイピース6002の角度を調整することができる。手術用フード(図示せず)の下に装着した場合、アイピース6002は、半硬質透明フェイスシールドの背後に配置されるので、手が届き難く操作が難しい場合がある。この実施形態では、ハンドル6008が下部ブラケット6912に組み込まれ、フードの下に装着された時に、ユーザがアイピース6002の位置及び角度を調整することを可能にする。
図71を参照すると、アイピース6002及びブラケット6004は、フライト(Flyte)手術用ヘルメットに装着された状態で示されている。ヘルメットは、ブレース7106によって接続されたヘッドバンド7102及びダクト7104を含む。ブラケット6910及びクランプ6908は、ブレース7106を完全に囲み、その側面、上部、及び下部に対して確りと嵌って、ブラケット構成要素(6908、6910)とブレース7106の間の角度運動を防止する。この実施形態では、クランプ6908は、ダクト7104とヘッドバンド7102の両方に接触して、ブラケットがヘルメットに対して前方又は後方に動くのを防止している。ブラケット6910とクランプ6908は、2つのネジによって確りと引き合わされる。
図61を参照すると、アイピース6002の一実施形態の構成要素は、モジュール式透明バイザー6102と、光学ディスプレイ3902を保護する為のハウジング構成要素6114、6116、及び6118を含む。バイザー6102は、損傷又は摩耗の場合に容易に交換できるように、器具なしで取り外しや交換が可能である。スプリングタブ6120は、底部ハウジング6114と係合して、バイザー6102を保持する。バイザーを取り付けるには、ユーザがバイザーを底部ハウジングに対して所定の位置に押し込む。バイザー61002は、タブ6120を持ち上げてバイザーを引き剥がすことによって、底部ハウジング6114から取り外すことができる。様々なサイズ及び形状の複数のオプションのバイザー6102は、処方眼鏡の使用、解剖学的変化、及び好みを考慮して各ユーザに最適な適合を可能にする。一実施形態では、バイザー6102は、外側の視界を最小限に妨害するように構成され、光学ディスプレイ3902内の情報を積極的に見ていない時に、ユーザ106がバイザー6102の下を見ることができるようにする。これは、アイピース6002をユーザ106の視線の高い位置に取り付けることによって、追加的に可能になり得る。更に図61を参照すると、アイピース6002のこの実施形態は、インテル(Intel)のRealsenseD435のようなステレオカメラモジュール6106を含む。一実施形態では、ステレオカメラモジュール6106は赤外光カメラを利用し、カメラの視軸7002は、図70に角度αとして示すように、ディスプレイの中立視角7004から20~30度下がる角度になっている。この実施形態では、カメラモジュール6106は、他の内部電気部品の前方に位置決めされ、冷却空気が、下方のハウジング部品6114及び上方のハウジング部品6118の通気孔を介してカメラモジュールの周囲を通過することを可能にする。カメラモジュール6106をディスプレイモジュールの前方に位置決めすることは、更に、カメラモジュールをフェイスシールド3608(図36Bに示す)に近づけ、フェイスシールド3608からの光の反射の影響を減少させる。アイピース6002は、ステレオカメラモジュール6106の為の照明を提供する為に赤外光6108を更に含み、周囲の部屋又は処置用照明から独立したシーン照明に対する制御を可能にする。一実施形態では、赤外光6108は、ルミレッズ(Lumileds)L1I0-0850090000000等の1つ以上のドームLEDコンポーネントを使用する。一実施形態は、赤外光6108からの光が放射され、その後フェイスシールドを通して輝く開口7316を規定する複数の側壁7320を備えたシュラウド6104を含む。幾つかの実施形態では、複数の側壁7320は、シュラウド6104が円錐形又は連続的な側壁を含むように、単一の側壁に類似している。シュラウド6104は、赤外光6108からカメラモジュール6106への光の反射を最小限にする為に、フェイスシールド3608に密接に嵌るように構成される。シュラウド6104は、ボーダー7310に結合された前面7204から形成されるか、又はそれを含んでもよく、シュラウド6104が容易に交換可能又は取り外し可能であるようにモジュール構造から構成されてもよい。シュラウド6104は、モノリシック構造を含んでもよい。代替的に、ボーダー7310及び前面7204は、結合、接着、又はその他の方法で固定されてシュラウド6104を形成してもよい。シュラウド6104は更に、例えば、シュラウドの高さ、シュラウドの形状(例えば、円錐、楕円、円形等)、又はシュラウドが一方又は両方のトラッキングカメラのFOVにどのように配置又は位置決めされるかの内の1つ以上に基づき、カメラモジュール6106の視野内に延びることを避けるように更に構成される。一実施形態では、シュラウド6104は、器具なしで取り外し及び交換することができ、ユーザ106が、異なるユーザの視力及び生体構造に対するアイピース6002の位置の変動を考慮して、フェイスシールド3608に対する接触を最適化する為に複数のシュラウド6104の中から選択することができるようにする。一実施形態では、スポットライト又は可視光6006は、スポットライト又は可視光からの赤外光がカメラモジュール6106に到達するのを防ぐ為に赤外光フィルタを含む。処置部位を照射してカメラモジュール6106に反射する赤外光も、スポットライト6006に赤外光フィルタを適用して、その出力が可視波長のみに制限されることを保証することによって制限され得る。回路基板6110は、カメラモジュール6106及び光学ディスプレイ3902と、支持モジュール3708に配置されたコンピュータとの通信を調整する。
フェイスシールド3608(明瞭にする為に透明に示されている)に対するその設置済み位置に在るアイピース6002を示す図72A及び72Bを参照すると、シュラウドの幾つかの機構が図示されている。図72Aは、システムの上面図を示し、図72Bは、同じシステムの側面図を示している。アイピース6002の構成要素として図61に示される赤外光6108及びステレオカメラモジュール6106は両方とも、フェイスシールド3608の背後に在る為、赤外光6108がフェイスシールド3608からカメラモジュール3608に反射し、マーカの追跡を混乱させる可能性がある。この課題は、赤外光6108の周囲にフェイスシールド3608まで延びるシュラウド6104を含めることによって軽減される。幾つかの実施形態では、開口7316はフェイスシールド3608に接触し、他の実施形態では、シュラウド6104の複数の側壁7320の外周7324に結合され、及び/又は外周7324を囲む前面7204はフェイスシールド3608に接触するか、フェイスシールド3608に近接している(例えば、0~5mm、0~1mm、0~2mm、0~3mm、0~4mm、0~6mm等)か、或いはフェイスシールドに隣接しており、その結果、赤外光によって放射される光がフェイスシールド越しのみで逸出し、カメラモジュールに干渉しないようになる。シュラウド6104の任意の1つ以上の部分とフェイスシールド3608との間の接触又は近接は、シュラウド6104の複数の側壁7320によって規定された開口7316を通して、従ってフェイスシールド3608越し以外の赤外光の逸出を防止する。フェイスシールド3608からの赤外光6108の如何なる反射も、シュラウド6104内に収容され、カメラモジュール6106に到達することが防止される。シュラウド6104の複数の側壁7320は、ナイロンPA12又はセラコート(Cerakote)セラミックコーティング等の、カメラモジュール6106に識別可能な波長における赤外光の反射率が低い材料から構築、一体化、コーティングされてもよく、或いは含んでいてもよい。フェイスシールド3608がユーザの頭部に対して固定位置に在る間、アイピース6002は、視力及び生体構造の違いを考慮して前方又は後方に調整されてもよく、これによりシュラウド6104からフェイスシールド3608までの距離も減少又は増加される。シュラウドとフェイスシールドとの間の隙間を最小化する為に、図73Cに示すように、様々な長さのL6104の複数のシュラウド6104が配設され得、ユーザが、アイピース6002の所定の位置に対してフェイスシールドの背後に適合する最長のシュラウドを選択することを可能にする。シュラウド6104は、アイピースハウジング上の機構と嵌合する1つ以上の可撓性ばねタブ7202によって所定位置に保持される。シュラウド6104は所定位置に嵌め込まれ、ばねタブを持ち上げて解除することにより、器具なしで取り外され得る。フェイスシールド3608の曲面に最小限の隙間で適合する為に、シュラウド6104は、図72Aに示すように、フェイスシールドの曲率半径とほぼ同じ曲率半径を有する前面7204を有する。言い換えると、シュラウド6014の前面7204の曲率半径は、フェイスシールドの曲率半径と一致、又はほぼ一致する。他の実施形態では(前面7204がない場合)、開口7316は、フェイスシールドの曲率半径とほぼ同じ曲率半径を有する。言い換えると、シュラウド6104の開口7316の曲率半径は、フェイスシールドの曲率半径と一致するか、又はほぼ一致する。フェイスシールドの半径は、約0(平坦)、約0cm~約4cm、約0cm~約8cm、約0cm~約10cm等であってもよい。
図73A~73Cは、シュラウド6104の透視図、正面図、及び側面図を夫々示している。図73A~73Cに示すように、シュラウド6104は、1つ以上の開口を規定する複数の側壁を含む。例えば、複数の側壁7320は、赤外光6108を収容又は囲む開口7316を規定する。付加的に、又は代替的に、第2の複数の側壁7322は、第2の赤外光、カメラモジュール、光投射器、又は他のコンポーネント7330を収容する第2の開口7314を規定してもよい。開口7314、7316を備える実施形態では、第1及び第2の開口7314、7316は、境界7310に結合された前面7204を介してモジュール構成要素に結合される。前面7204はフェイスシールドと界接する。他の実施形態では、シュラウド6104は、前面7204を含まず、その結果、第1及び第2の複数の側壁7322、7320が夫々開口7314、7316を規定する。更に、複数の側壁7320の内の1つ以上は、赤外光6108の中心軸又は赤外光6108によって放射される光のコーン(例えば、コーンは実質的に又は約90度であってもよい)の中心軸から測定される角度α6104を有していてもよい。角度α6104は、約又は実質的に、0~50度、0~40度、0~30度、0~20度、0~10度、0~5度、5~10度、10~20度、5~20度、5~25度等であってよい。一実施形態では、角度α6104は、実質的に又は約12度~約16度である。別の実施形態では、角度α6104は、実質的に又は約10度~約18度である。幾つかの実施形態では、複数の側壁の各々は、同じ又は実質的に同じ角度で角度が付いている。他の実施形態では、対向する側壁は、同じ又は類似の角度を有する。更に他の実施形態では、複数の側壁の各々は、他の側壁と異なる角度で角度が付いている。
支持モジュール3708の一実施形態の分解図を示す図62を参照すると、全ての電子部品がハウジングに収容されるか、又は取り付けられており、ハウジングは、回路基板6212を受け入れるように構成されたベース6202、ハウジングを衣類、ストラップ、ベルト等に結合するように構成されたカプラ6204、及びバッテリ3800及びプロセッサユニット6210を安全且つ取り外し可能に拘束するように構成されたブラケット6206を含む。バッテリ3800は、固定配向でハウジングに受け入れられてよく、他の実施形態では、バッテリ3800は、複数の配向でハウジングに嵌合するように構成される。交換可能なバッテリ3800は、コンピュータモジュール又はプロセッサユニット6210及びARアイピース6002又は頭部装着型表示デバイスに電力を供給する。ブラケット6206は、器具を使用したり機械的ラッチを操作したりすることなく、アシスタントがバッテリ6800を交換できるように構成されている。回路基板6212は、バッテリ3800からコンピュータモジュール又はプロセッサユニット6210及びARアイピース6002に電力を導くように構成されている。一実施形態では、電力及びデータは、USB接続を介して支持モジュール3708とARアイピース6002又は頭部装着型表示デバイスとの間で流れる。一実施形態では、コンピュータモジュール又はプロセッサユニット6210は、単一のUSBコネクタを有する携帯電話である。一実施形態では、コンピュータモジュール又はプロセッサユニット6210は、ワイヤレス充電器6208を介してバッテリ3800から電力を受け取り、コンピュータモジュール又はプロセッサユニット6210のUSBコネクタがフルタイム電力源として動作することを可能にし、電力「シンク」として動作する可能性を減少させる。
支持モジュール回路基板6212の電気回路図が示されている図63Aを参照すると、バッテリコネクタ6302は交換可能なバッテリ3800から電力を受け取り、DC/DC降圧回路6304は電圧を公称システム電圧まで降圧させる。DC/DC LDOレギュレータ6310は、電圧が要求レベルにあることを確実にし、CPU/無線機6308に電力を渡す。電力は、CPU/無線機6308の指示により、ロードスイッチ6314を介してワイヤレスチャージャー6312に流れる。電力は、N-P FETスイッチ6316を介して、電話USBコネクタ6306及びヘッドセットUSBコネクタ6318の両方に流れる。CPU/無線機6308は、バッテリ3800の充電レベルを監視し、無線伝送を用いてコンピュータモジュール6210にそのレベルを報告する。
支持モジュール回路基板6212の電気回路図が示されている図63Bを参照すると、USBコネクタ6320は、ヘッドセットがUSBコネクタ6320に差し込まれると、ヘッドセットの為の電力源及び通信源として機能する。電話機6322からヘッドセットへ供給される電力は、12Vバッテリ6324によって補われる。この場合、ヘッドセットから電話機への負荷スイッチ6326は、CPU6328によって無効化されてもよい。別の実施形態では、CPU6328は、12Vバッテリ6324が存在しないことを検出し、ヘッドセット6320から電話機6322へのロードスイッチ6326を有効にする。この実施形態では、外部USB充電器をUSBコネクタ6320に取り付け、デバイスが互いに直接接続されているかのように、電話機6322のバッテリを再充電する為に使用され得る。
一例示的実施形態では、ARヘッドセット3600は、デバイスの苦情又は設計機能要求を報告する為のシステムとして任意選択的に使用される。ユーザインターフェースは、それが発生した時点で報告を開始する為のメニューオプション又は音声コマンドを有し得る。これは、問題が発生している間、ユーザ106が苦情を3Dで捕捉し、ナレーションすることを可能にする音声及びビデオカメラの記録を起動することになる。ユーザ106は、音声又はオプションの選択により苦情を終了させる。苦情記録は圧縮されてインターネット経由で会社に送信され、苦情処理スタッフに優れたデータをワイヤレスで提供し、より良い診断の為に状況を直接「再現」できるようにする。人工知能を使って苦情資料を解析・集計し、パターンを確立して統計分析を行うことができる。データストリームがリアルタイムで送信されること以外は、同じシーケンスを使用して、処置中にライブの技術サポートに接続することができる。
II.術前処置
本発明は、術前作業及び外科手術に使用され得る。例えば、以下、可能な術前活動を含む代替の一般的な外科手術を説明する。第1に、CT又はMRIのような患者の関心領域のスキャンが取得される。可能であれば、患者は、術中の位置決めに近似した方法で位置決めされることが望ましい。第2に、スキャンデータにセグメンテーションを行って、限定はしないが、歯や骨構造、関心対象の静脈や動脈、神経、腺、腫瘍や腫瘤、インプラント、皮膚表面等を含む関心項目の3次元モデルに変換する。モデルは、後で独立して表示、ラベル付け、又は操作できるように分離される。これらは術前モデルと呼ばれる。第3に、解剖学的基準枠、切除面の目標、切除すべき体積、切除の平面及びレベル、使用すべきインプラントのサイズ及び最適な位置、目標組織にアクセスする為の経路及び軌道、ガイドワイヤ、ドリル、ピン、ネジ又は器具の軌道及び深さを含むが、これらに限定されない項目を特定する為にモデルを用いて(オプションとしてモデルの可視化及び操作にVRを用いて)術前計画が実行される。第4に、モデル及び術前計画データは、手術前又は手術時に表示デバイス104のメモリにアップロードされる。このアップロード工程は、最も好都合には、無線機を介してワイヤレスに実行されることになる。
第5に、患者は手術に向けて準備され、位置決めされる。術中、手術部位は、理想的には、その後のレジストレーション目的の為に皮膚表面の視覚化を最大化する方式でドレープされる。これは、アイオバン(Ioban)を十分に使用することによって達成され得る。アイオバンのように、特定のLED又は可視光エミッタによって広い照明、点、又は投影パターンに照準されると、異なるように蛍光又は反射するフィルムを使用することが有益であろう。このフィルムは又、光学的特徴、マーカ、又はパターンを有することができ、ヘッドピースの光学カメラによって容易に認識されることを可能にした。
第6に、患者が手術に向けて準備され位置決めされた後で、システム10は(例えば、ARヘッドセット3600を介して)現在の皮膚包絡線をスキャンして現在の輪郭を確立し、ユーザ106が表示デバイス104上で見ることができる術前3Dモデルを作成する。好ましい方法は、既知の画像の計算された反り/傾き/スケールから皮膚包絡線を決定することを可能にする赤外光(「IR」)帯のグリッド又はチェッカーボードパターンを投影することである。別の方法としては、マーカを取り付けたスタイラス型の物体を露出した皮膚に沿って前後に動かし、スタイラスの位置と配向追跡、及びそれに続く皮膚包絡線の生成を可能にすることである。任意選択で、皮膚モデルはユーザ106に表示され、ユーザは、次に、スキャンされた露出した皮膚の一般的な領域の輪郭を描くことができる。術前皮膚モデルの最適な位置及び配向が、現在の皮膚表面と一致するように計算される。適切な術前モデルが、表示デバイス104を介して、ユーザ106に3Dで表示される。任意選択で、ユーザ106は、その後、正確な追跡の為に、患者の骨に光学マーカを挿入してもよい。このマーカの配置は、術前モデルの彼の視覚化によって知らされてもよい。術前モデルの位置及び配向は、超音波を含むがこれらに限定されない代替のプロービング又はイメージングによって更に改良され得る。
第7に、術中に、表示デバイス104を有するシステム10を使用するユーザ106は、術前計画情報を見ることができ、器具及びインプラントを追跡し、生体構造に対するドリル又はネジの深さ、器具の角度、骨の切断の角度等を含むがこれらに限定されない様々な種類の術中測定を提供することが可能である。
図8を参照すると、システム10を使用する処置中の動作フローの例示的な実施形態が提示されている。この実施形態では、CPU401は、1つ以上のカメラ402、404、406を起動し(800)、初期化する(802)。カメラ(複数可)402、404、406の視野内に在る時、第1のマーカ100が位置決めされ、識別され(804)、後続のマーカ108、110が続く(806)。これらのマーカ100、108、110の軌跡は、メインカメラの位置と同様に、互いに対する位置と配向を提供する(808)。リモートセンサスイート422からのIMU及びカメラ等のセンサからの代替センサデータ(810)は、任意選択でデータ収集に組み込むことができる。更に、患者、ターゲット、器具、又は環境の他の部分に関する外部支援データ(812)が、アルゴリズムで使用する為に任意選択で組み込まれ得る。本発明で使用するアルゴリズムは、特定の手順及び収集されたデータ用に調整される。アルゴリズムは、表示デバイス(816)で使用する為に、所望のアシストデータを出力する(814)。
III.股関節置換術の処置
本発明の一例示的な実施形態で、図6を参照すると、システム10は股関節置換術に使用され、第1のマーカ600が固定具602を介して骨盤604に取り付けられ、第2のマーカ606が衝撃装置608に取り付けられる。ユーザ106は、表示デバイス104を介して、図6に示す複合現実ユーザインターフェース画像(「MXUI」)を見ることができる。MXUIは、股関節置換術の間、ユーザの視野に骨盤604及びインパクタ604の立体視仮想画像を提供する。
これらの物理的オブジェクト上のマーカ(600、606)の組み合わせは、事前の処理及び特定のアルゴリズムと組み合わされて、寛骨臼シェル612の正確な配置の為の骨盤604に対するインパクタ608のリアルタイムバージョン及び傾斜角度を含む、ユーザ106にとって関心のある測定値の計算を可能にする。更に、限定はしないが脚全体の長さの変化を含む、術前状態から術後状態までの物理的パラメータの測定値が提示され得る。データの提示は、読み取り可能な形態610、又は、器具又は他の誘導形態の3D表現を含むがこれらに限定されないイメージの形態であり得る。
図7は、図6に先に示したMXUIの別の図を描写しており、仮想ターゲット700及び仮想器具702が、所望のバージョン及び傾斜を達成する際に容易に使用できるようにユーザ106に提示される。この実施形態では、仮想現実の更なる組み合わせが、実際の器具702が完全に可視状態の仮想ターゲット700、又は仮想ターゲットが完全に可視状態の仮想器具(図示せず)を有することによって、ユーザにとっての自然な感じの経験を最適化する為に使用される。実像と仮想像の他の組み合わせが任意選択で提供され得る。データの提示は、読み取り可能な形態704、又は、器具の3D表現又は他のガイダンス形態を含むがこれらに限定されない画像の形態であり得る。
図9を参照すると、本発明は更に、システム10を使用して股関節置換術(900)を実行する方法を提供し、股関節置換術(900)では、股関節の骨が寛骨臼をリーミングし、患者の脚で使用する為に置換カップを挿入する。この実施形態では、第1のマーカ(例えば、100、108、又は110等)が、マーカに関して既知の寸法の固定具に設置され、この固定具は、患者の腰骨に設置される(902)。第2の別個のマーカ(例えば、100、108、又は110等)は、第1のマーカに関して既知の寸法のポインティングデバイス上に設置される(904)。股関節固定具に対する骨指標又は他の解剖学的マーカの位置及び配向は、光学マーカ及び股関節とポインタとの間の位置/配向差を用いてレジストレーションされる(906)。これらの点を使用してローカル座標系を決定する(908)。ポインタを使用して、大腿骨が脱臼する前に、又、腰骨の寛骨臼にリーマ加工を施して置換シェルの為のスペースを確保する前に、大腿骨の位置と配向を決定する(910)。交換用シェル付きインパクタには、インパクタの寸法が既知である第3の別個のマーカが取り付けられている(912)。シェル付きインパクタは、股関節マーカ(914)に対して、先に説明したアルゴリズムに従って追跡される。股関節マーカとインパクタとの間の相対的な位置及び配向を使用して、AR又はVRディスプレイを介してシェルを患者の医療要件毎の所望の位置及び角度で寛骨臼に外科的に配置することをガイドする(916)。脚の長さの変化は、置換された大腿骨のマーカ位置及び配向を使用して、処置のこの時点で計算することもできる(918)。別の実施形態では、術前CTデータを用いてこの手順を補強し、コンポーネントの位置決めを決定する。別の実施形態は、AR又はVRの方法でディスプレイ出力を使用して、大腿骨頭切断を決定する。別の実施形態は、データを用いて寛骨臼にネジを配置する。
患者が横たわる手術台又は支持体の座標基準フレームは、幾つかの実施態様において望ましいものである。地面、具体的には重力に関する手術台のアライメントは、以下のように達成され得る。IMU(ARヘッドセット3600内に配置されたもの等のセンサスイートの夫々からの)は、任意の所与の瞬間における重力に対する表示デバイス104のピッチ及びロール配向を提供する。或いは、SLAM又は類似の環境追跡アルゴリズムが、殆どの壁及びそれに関連する機構が重力ベクトルに平行に構築されていると仮定して、重力に対する表示デバイス104のピッチ及びロールの向きを提供することになる。重力に対する表示デバイス104の関係とは別に、手術台の向きは、スタイラスを使用して手術台上の3つの独立した点をレジストレーションすることによって決定されてもよい。表示デバイス104の座標フレームでこれらの3点を選択すると、重力に対する手術台のロール角及びピッチ角も次に決定され得る。或いは、手術台は、重力に対する向きを決定する為に、マシンビジョンアルゴリズムを使用して識別され認識されてもよい。表示デバイス104に対する患者の脊柱のアライメント、従って、股関節マーカによって定義されるような他の任意の目標座標系のピッチ及びロールにおけるアライメントは、今や既知である。ヨー基準を提供する為に、スタイラスを股関節マーカと組み合わせて使用して、患者の頭部がどこに在るかを定義することができ、これにより、患者に対する脊椎の方向が提供される。或いは、患者の頭部の画像認識を用いて自動的に決定することも可能である。最終的に、手術台及び/又は患者の脊柱のロール、ピッチ及びヨーは、今や表示デバイス104及び全ての関連する座標系において完全に定義されている。
図11~図12を参照すると、システム10は、股関節形成術の処置で使用する為の股関節インパクタアセンブリ1100を任意選択で含んでもよい。このアセンブリは、寛骨臼シェル1102と、寛骨臼インパクタ1106に組み立てられた光学マーカ1104(上述の100、108、110、502、504、600、606、804、806、904、912と同じ)とを含んでいる。図12は、光学マーカ1104が、インデックス付きポスト1200をインデックス付き穴1202に挿入することによって、再現可能な方法でインパクタ1106に取り付けられる方法を示す分解図である。寛骨臼シェル1102は、インパクタのねじ付き遠位端1204にねじ込み、ショルダー1206に着座することによって、インパクタ1106に再現可能に組み付けられる。マーカ1104は、第1のフィデューシャル1108、第2のフィデューシャル1110、及び第3のフィデューシャル1112を含み、夫々が、それらの境界が交差する直線を形成する黒及び白の隣接領域を有する。ARヘッドセット3600内のアルゴリズムを使用して、立体カメラ(3904)からの画像を処理して、各フィデューシャルの交点を計算し(1108、1110、1112)、それによってマーカ1104の6自由度のポーズを決定する。本明細書では、「ポーズ」は、オブジェクトの位置と配向の組み合わせとして定義される。フィデューシャル(1108、1110、1112)は、自己粘着性ステッカーへの印刷、白色プラスチック材料の表面への黒色領域のレーザーエッチング、又は代替方法によって作成され得る。シェルは固定穴1114を含み、この固定穴を通して、任意選択で、ネジを使用して、シェル1102を寛骨臼の骨に固定する。
別の例示的な実施形態で、図13A~B及び図14を参照すると、システム10は、クランプアセンブリ1302及び光学マーカ1304を備えた解剖学的マーカアセンブリ1300を任意選択で含む。クランプアセンブリ1302は、第1の涙滴型穴1402及び第2の涙滴型穴1404を規定するベース1400を含む。骨に固定された固定ピン(図示せず)は、涙滴型穴(1402、1404)を通して挿入され、クランプジョー1406と本体1400との間にクランプされ、それによってクランプアセンブリ1302をピンに、従って骨に固定する。クランプねじ1408は、ジョーのねじ山に係合し、アセンブリ1302をピンに締め付ける為に使用される。六角穴1410は、六角ドライバがアセンブリ1302を締め付ける為に使用されることを可能にする。第1の保持ピン1412及び第2の保持ピン1414は、クランプアセンブリ1302の分解を防止する。マーカ本体1416は、第1の位置決めポスト1418、第2の位置決めポスト1420、及び第3の位置決めポスト1422を有し、これらは、2つの位置決めポストをベース内の位置決め穴1424及び位置決めスロット1426と係合させることによって、ベース1400に位置決めを提供する。この設計は、最適な追跡の為に、表示デバイス104(例えば、ARヘッドセット3600)内のカメラ(例えば、3904)に対してマーカ1304を配向させることを可能にするマーカ1304の2つの可能な回転位置を提供する。マーカ本体1416は、ベース1400に十分な保持力を与える磁石(図示せず)を封入している。
図15~図17を参照すると、システム10は、任意選択で、プレート1502と、プレート1502及びマーカ1504を一緒に結合する為の実継ぎ(tongue and groove)アセンブリ機構を有するマーカ1504とを含む較正アセンブリ1500を任意選択で含んでもよい。実継ぎアセンブリ機構は、金属部品とは異なる熱膨張率を有するプラスチック部品に金属部品を正確に組み付ける為に特に有用である。プレート1502は、様々なインパクタタイプを受け入れる為に、複数のネジタイプを有する複数の穴1506を有する。マーカ1504はディンプル1508を有し、その中に、レジストレーションの為にスタイラスの先端が挿入され得る。マーカ1504は、複数のフィデューシャル1510を有する。
図18は、表示デバイス104(例えば、ARヘッドセット3600)を介してユーザ106に示されるMXUIの一例示的な実施形態を示し、較正アセンブリ1500が種々の較正ステップに使用されている様子を示している。先ず、ショルダー1206がプレート1502の表面に対して遊びなく正対するように、股関節インパクタアセンブリ1100がプレート1502の適切な孔にねじ込まれ得る。次いで、ARヘッドセット3600のカメラ3904は、アルゴリズムによって処理される画像を捕捉して、寛骨臼シェルが着座するインパクタのショルダーと股関節インパクタアセンブリ1100のマーカ1104との間の関係を決定できる。追跡の為の複数のフィデューシャル1802を含むスタイラス1800が示されている。スタイラス1800の先端1804は、プレート1502のディンプル1508に挿入され、スタイラス1800のマーカに対する先端1804の座標を決定することを可能にする。マーカ1504に相対する特定の位置でユーザ106の視野に投影される仮想ガイド点1806が示されている。ユーザ106は、実際のスタイラス1800の先端1804を、ユーザ106の奥行き知覚に従って仮想ガイド点1806が位置するところに置き、それによって、実際の視界と仮想ガイド点によって表される仮想視界とを接続させる。次に、アルゴリズムが、ユーザ106の眼内距離等の変数を考慮する為の補正係数を適用する。これは、器具やインプラントの正確な位置の為に、ユーザの奥行き知覚が複合現実状態において当てにされる場合に有益である。
図19は、股関節置換術の開始時に患者1900の表示デバイス104を介してユーザ106に示されるMXUIの例示的な実施形態を描写している。追跡用の複数のフィデューシャル1904を有する大腿骨指標1902が、アイオバン(Ioban)等の粘着テープで患者1900の大腿部の皮膚に貼付されている。或いは、大腿骨指標1902は、図13Bに描かれているようなピン及びクランプアセンブリの使用によって、大腿骨の骨に直接固定され得る。ユーザ106は、スタイラス1800の先端1804を使用して骨盤の前方マーカをレジストレーションし、大腿骨指標1902の基準フレームにおける骨盤の位置を決定して、一時的な骨盤基準フレームを確立する。別の実施形態では、このレジストレーションは、患者の可視表面のSLAMスキャンによって定義される身体基準フレーム内であり得る。別の実施形態では、骨盤の前方マーカは、SLAMで表面マップを生成し、ユーザ106に、頭部の動きによって各マーカ上に仮想点1910を順番に位置決めして各点を特定させることによってレジストレーションされ得る。別の実施形態では、単一のフィデューシャル1906が、レジストレーションする場所に配置され得る。仮想円1908は、その位置がユーザ106の注視によって制御されるマスクを定義する為に使用され得る。マシンビジョンアルゴリズムは、仮想円1908内の単一のフィデューシャル1906を探すだけでよい。レジストレーションステップは、「点をレジストレーションする」等のユーザ106による音声コマンドでトリガされてもよい。又、ユーザ106は、膝蓋骨の中心、又は内側及び外側上顆といった大腿骨遠位部を表す点をレジストレーションしてもよい。各点がレジストレーションされると、小球体等の仮想マーカが位置決めされ、レジストレーション時及びそれ以降の先端の位置に留まり、ユーザ106に視覚的な確認を与え、レジストレーションの品質を確認することができる。
図20は、股関節置換術中に仮想骨盤2000及び仮想大腿骨2002の表示デバイス104を介してユーザ106に示されるMXUIの一例示的実施形態を示す。患者固有のモデルが表示デバイス104にアップロードされていた場合、これらの仮想モデルは、神経血管構造等の関心対象の他の仮想特徴と共に表示されることになる。アップロードされない場合、仮想骨盤及び仮想大腿骨は、レジストレーションされたマーカの間隔に最も一致するようにスケーリングされた性別固有のモデルであり得る。2つの固定ピンの夫々に対する第1の仮想軌道2004及び第2の仮想軌道2006が表示される。他の実施形態では、これらは、管状又は円錐状であってもよい。複数の表面上のマーカを規定する複数のフィデューシャル2010を含むドリル2008が表示され、これにより、そのポーズを様々な視座から追跡することができる。各ピンの挿入は、ドリルが追跡されない場合には実際のピン2012を仮想軌道2004に並べることによって、又はドリルが追跡される場合には仮想ピン(図示せず)を仮想軌道に並べることによって、誘導され得る。ドリルが追跡される場合、骨盤基準フレームに対するドリルの角度は、追加の補強の為に数値的に表示される。仮想テキスト2014は、実際のドリルの表面2016に位置し、ドリルと共に移動して、仮想テキストによって表される角度が関連付けられているオブジェクトをユーザに直感的に理解させる。
図21は、腸骨稜に挿入されたピン2106にクランプすることによって患者の骨盤に取り付けられた解剖学的マーカ1300を有する、股関節置換術中に表示デバイス104を介してユーザ106に示されるMXUIの例示的実施形態を描写している。この時点で、骨盤の追跡に関する基準フレームは、以前の基準フレームから解剖学的マーカ1300の基準フレームに転移される。所望であれば、精度を高める為に、骨盤を再レジストレーションしてもよい。次に、ユーザ106は、切開の位置のガイドとして仮想骨盤2102、仮想大腿骨2104、及び仮想神経血管構造(図示せず)を用いて大腿骨を切開し、筋肉及び関節包を剥離して股関節及び大腿骨の頸部を露出させる。この時点で、ユーザ106は、骨盤に対してほぼ中立的な外転、屈曲及び回転を有する基準位置に脚を配置する。
図22は、股関節置換術の大腿骨レジストレーション中に表示デバイス104を介してユーザ106に示されるMXUIの例示的な実施形態を示す図である。スタイラス1800の先端は、近位大腿骨上の基準点2200上に配置される。この時、マーカ1902と1300との間の関係によって規定される骨盤に対する大腿骨のベースライン配向が決定され、記録される。更に、骨盤基準フレームにおける基準点2200の座標が記録される。基準点2200は、手術用ペンでマーキングすること、骨に小さな穴を開けること、又は小さな鋲を挿入することによって強化されてもよい。レジストレーションの精度を向上させる為に、図22に示すように、スタイラスの先端を中心とする拡大立体画像2202が表示される。処置の後半でユーザ106が基準点を見つけるのを支援する為に、ベースライン画像、又はスタイラスの点の周囲の領域の画像が、レジストレーション時に記録されてもよい。これらは、立体視画像であってもよい。次に、ユーザ106は、スタイラス1800の先端1804を用いて、大腿骨頸部切断の所望の位置の点をレジストレーションする。これは、典型的には、大腿骨頸部の最も上方/側方の点である。この点を適切な外転角とバージョン角で通過する最適な切除平面が計算される。
図23は、仮想切除ガイド2300を用いた股関節置換術の大腿骨頸部の切除中に表示デバイス104を介してユーザ106に示されるMXUIの例示的な実施形態を描写している。矢状鋸2302が示されており、矢状鋸2302のポーズが追跡されることを可能にするマーカを規定する複数のフィデューシャル2304を有している。大腿骨頸部の切除は、ドリルが追跡されない場合、実際の鋸刃2306を仮想切除ガイド2300に整列させることによって、又は鋸2302が追跡される場合、仮想鋸刃(図示せず)を仮想切除ガイド2300に並べることによってガイドされ得る。図20に示した追跡されたドリルと同様に、鋸2302が追跡される場合、鋸2302の角度は、数値的に表示され得る。これらの角度は、骨盤基準フレーム又は大腿骨基準フレームに対して表示され得る。
図24は、股関節置換術の寛骨臼シェルの位置決め中に表示デバイス104を介してユーザ106に示されるMXUIの一例示的実施形態を示し、寛骨臼インパクタアセンブリ1100の為の仮想ターゲット2400及び仮想シェル2402が示されている。寛骨臼インパクタアセンブリ1100の配置は、仮想ターゲット2400と整列するように操作することによってガイドされる。仮想ターゲットのシェル部分の後方/側方の象限は、異なる色で表示されるか、又は他の方法でシェル2402の残りの部分と視覚的に区別されて、ユーザ106に対して寛骨臼へのネジの安全な配置の為のターゲットを規定してもよい。寛骨臼インパクタの数値角度及びリーミング済み又は未リーミングの寛骨臼に対する挿入の深さは、仮想テキスト2404として数値的に表示される。インパクタの先端を中心とする2202と同様の拡大立体画像(図示せず)が表示されて、仮想シェルが仮想骨盤2102の寛骨臼とどのように界接するかを示してもよい。
図25は、股関節置換術の寛骨臼シェルの位置決め中に表示デバイス104を介してユーザ106に示されるMXUIの一例示的な実施形態を示し、寛骨臼インパクタの仮想軸2500及び仮想ターゲット2400が示されている。寛骨臼インパクタの配置は、仮想軸2500を仮想ターゲット2400と整合させるように操作することによってガイドされる。
図26は、股関節置換術の大腿骨の再位置決め及びレジストレーション中に表示デバイス104を介してユーザ106に示されるMXUIの例示的な実施形態を示す図である。ベースライン大腿骨レジストレーション中の骨盤に対する大腿骨の術前配置を表す仮想大腿骨ターゲット2600が示されている。この仮想大腿骨ターゲットの高位頂点は、近位大腿骨上の基準点の近くに配置される。大腿骨の現在の配向を表す仮想大腿骨フレーム2602が示されている。大腿骨が移動されると、仮想大腿骨フレーム2602は、仮想大腿骨ターゲット2600の高位頂点を中心に回転する。大腿骨をベースライン配向に再位置決めすることは、大腿骨を操作して、外転、屈曲、及び回転において仮想大腿骨フレーム2602を仮想大腿骨ターゲット2600に整合させることによって達成される。大腿骨がベースライン配向に再位置決めされた状態で、ユーザは、次に、スタイラス1800の先端1804を使用して、ベースライン測定からの脚長及び横方向オフセットの変化を決定する為に大腿骨近位部上の基準点を再レジストレーションする。ベースライン大腿骨レジストレーション中に先に記録されたベースライン画像2604を表示させて、同じ基準点を正確に再レジストレーションすることを支援してもよい。
IV.トラッキング及び関連方法
アプリケーションによっては、トラッキング精度を最大化する為に、利用可能なピクセルのサイズを効果的に減少させるべく、比較的小さな視野のカメラを使用することが有利な場合がある。その結果、特に、どのマーカが視野内に在るか又は視野内に無いか、或いは全ての必要なマーカを捕捉する為にはどの方向にカメラ(複数可)を向けるべきかがユーザにとって明白でない場合があるので、ユーザが、全ての必要なマーカが視野内に入るようにカメラを配置することはより困難になる。図64は、全ての必要なマーカを含むようにカメラ(複数可)の視野を位置決めする際にユーザを支援するように設計された機能を有するMXUIの一例示的な実施形態を描写している。この実施形態では、2つのマーカ6402及び6408は、点をレジストレーションするか又はナビゲーション出力を計算する為に、カメラ(複数可)によって追跡されることが要求される。1つのマーカ6402は、カメラ(複数可)の視野6404内に配置される。第2のマーカ6408は、カメラ(複数可)の視野6404の外側に在る。仮想ガイド6410(例えば、本明細書の他の箇所で説明するような頭部固定オブジェクト)が、表示デバイス104においてユーザ106に表示され、欠落マーカ6408が発見されそうな方向を示している。仮想ガイド6410は、矢印等の記号、又は方向を示すテキストであってもよい。一実施形態では、マーカ6408の予想位置は、両方のマーカが見えていた時に以前に記録されたか、又は典型的なマーカ配置に基づいてシステムによって推定された、マーカ6402及び6408の相対位置に基づくものである。多くの用途において、マーカは、特定の処置の為に一旦セットアップされると、僅かな距離しか移動しないことが合理的に予想される。例えば、股関節置換術の際に骨盤と大腿部に装着した2つのマーカは、術中ずっと、ほぼ同じ相対位置に留まる。この場合、一旦2つのマーカを同時に検出し(例えば、本明細書の他の箇所で説明するように、それらは慣性固定物体である)、それらの相対位置を測定したシステムは、何れかのマーカがカメラ視野6404内に在る場合、ユーザに対して欠損マーカの配向を示すことが可能である。同様に、典型的な生体構造に関する知識は、マーカの可能性の高い位置についてシステムに通知する。例えば、骨盤の腸骨稜と股関節置換患者の大腿前面にユーザが配置したマーカは、常にほぼ同じ距離離れており、ほぼ同じ方向である。単純な例では、第2のマーカ6408が第1のマーカ6402の正のx軸に沿ってほぼ位置決めされるという仮定は、その軸に沿ってカメラ視野6404をシフトするようにユーザに指示する有用な仮想ガイド6410をシステムが生成することを可能にする。別の実施形態では、例えば、カメラ視野内にマーカがない場合、センサスイート内の慣性センサを使用して、ユーザの頭部の動き(例えば、頭部角度)を追跡し、マーカ6408がカメラ視野6404内に入った時の最後の既知の位置(例えば、現在の頭部位置及び/又は角度から)に基づいて、マーカ6408の相対位置が計算される。別の実施形態では、システムは、マーカ6408が視野6404内に在り、正常に追跡された時に、マーカ6408の3D位置及び配向値を計算する。システムは、視覚慣性オドメトリ(VIO)、SLAM、又は他の同様の方法を使用して、部屋内のユーザの位置を追跡してもよい。システムは、ユーザの頭部の配向、従って視野6404も追跡する。マーカが視野6404を離れる場合、マーカ6408の最後の既知の位置は、ユーザ位置及びディスプレイ視野6404の配向に基づいて伝播され、推定位置(ただし、やはり視野の外)を生成することが可能である。推定位置及び現在測定されたディスプレイ視野6404は、ユーザが視野6404内にマーカ6408を有することを望む場合、どの方向を向くべきかを示すインジケータをユーザに提示する為に使用される。このアプローチは、複数のトラッカーを表す複数のインジケータに使用することができ、それは単一のマーカの場合に限定されない。一実施形態では、仮想コントロール6406(例えば、本明細書の他の箇所に記載のような慣性固定物体)が、ユーザの頭部に取り付けられた表示デバイスを介してユーザに示される。ユーザは、固定レチクル又はカーソル又はユーザ入力コントロール6412(例えば、本明細書の他の箇所に記載のような頭部固定オブジェクト)を仮想コントロール6406に整合させる為に自身の頭部を動かして仮想コントロール6406を起動しなければならない(例えば、点をレジストレーションする為に)。この実施形態では、仮想コントロール6406は、2つの必要なマーカ6402及び6408の間の中心になるようにマーカ6402に対してシステムによって位置決めされ、仮想コントロール6406の位置は、ユーザ入力コントロール6412を仮想コントロール6406と整合させる為に、それらが整合するまでユーザが自身の頭部を転向するにつれ調整される。ユーザが頭部を転向させてユーザ入力コントロール6412を仮想コントロール6406と整合させると、カメラ視野6404が移動又は調整されて両方のマーカ6402及び6408を包含し、それによってカメラの視野内の少なくとも2つのマーカの追跡が可能になる。
本明細書の他の場所で説明したシステム及び装置の何れかの別の実施形態では、システムは、慣性空間内の位置及び/又は配向にロックされた(即ち、慣性的に固定されている)情報画面を提示するか、又はコンテンツを表示する。言い換えると、ユーザの頭部が移動又は回転すると、コンテンツは慣性空間内の所定の位置に留まり、その結果、コンテンツはユーザの視野から離れ、頭部装着型ディスプレイを通してもはや見ることができなくなる可能性がある。ワークフローの変更を減らし、執刀医による使用を容易にする為に、ユーザの為に表示されたコンテンツの自動再位置決めを可能にする複数の方法を提示する。
例えば、システムは、ユーザが予め決められた方法で頭部を傾けた時に、表示されたコンテンツをヨー方向に再中心決めしてもよい。例えば、頭部(及びヘッドセット)を約-10度(+/-約5度)のピッチ角以下に傾けることは、表示されたコンテンツの再中心決めをトリガすることになる。更に例えば、ユーザが自身の耳を肩に触れているように、頭(及びヘッドセット)を約3度(+/-約5度)左又は右に傾けると、表示されるコンテンツの再中心決めがトリガされる。更に例えば、頭部を約10度(+/-約5度)上に傾け、約3度(+/-約5度)左又は右に傾けることを組み合わせたジェスチャーは、表示されたコンテンツの再中心決めをトリガすることになる。この頭部の傾きはピッチに限らず、角度のみに限定されるものではない。ヘッドセット内の慣性測定システムによって解明できる任意のヘッドジェスチャは、この再中心決め動作をトリガする為に使用され得る。
更に例えば、トラッキングマーカがトラッキングシステムによって識別され、トラッキングシステムのFOV内に在る場合、システムは、ディスプレイをヨー方向に再中心決めすることができる。幾つかの実施形態では、ヨー位置は、マーカと整列され得るか、又はマーカからオフセットされ得る。
図82を参照すると、本明細書では更に、頭部装着型ディスプレイ及びナビゲーションシステムを使用して慣性空間内のマーカを決定する方法が提供される。例えば、幾つかの手順(例えば、慣性空間における配向に対応するように調整された寛骨臼カップの配置を報告すること)は、慣性空間に対するマーカの関係の測定(即ち、マーカ座標フレームを慣性フレームに関連付ける)を必要とする。患者の臀部に取り付けられた基準マーカの重力に対する配向の決定は、患者又はマーカに配置されるのではなく代わりに本明細書の他の箇所に記載される頭部装着型ディスプレイ及びナビゲーションシステムの他の場所に配置される慣性測定ユニット(IMU)を用いて測定される。これを達成する為に、以下の方法が、システムによって実行されてもよい:IMUから、頭部装着型ディスプレイ及びナビゲーションシステムからの慣性データ(例えば、加速度データ、レートデータ等)をブロックS8200で受け取るステップと、ブロックS8210で姿勢推定器を使用して頭部装着型ディスプレイIMU基準フレームにおける重力ベクトルの位置を決定するステップと、1つ以上のトラッキングカメラを使用して、ブロックS8220でカメラ基準フレームに対する基準マーカの3次元空間における配向を取得するステップと、ブロックS8230で、カメラ基準フレームからIMU基準フレームへの静的変換行列を生成し、任意選択で中間フレーム変換を含み得る、ステップと、ブロックS8240で、IMUによって測定され姿勢推定によって形成される慣性空間のZ方向の単位ベクトルをIMU基準フレームからマーカ基準フレームへ変換するステップ。
本明細書で使用する場合、「姿勢推定器」は、カルマンフィルタ、相補フィルタ、又は他の技術を使用して加速度計と速度センサデータを組み合わせ、任意の出力形式(例えば、オイラー角、四元数、又は類似物)であり得るヘッドセット用の3D配向を生成する。
幾つかの実施形態では、静的変換行列を生成するステップは、頭部装着型ディスプレイ、IMU、及びカメラの較正手順の機械的構造に基づく。
幾つかの実施形態では、単位ベクトルを変換するステップは、以下を含む。
Figure 2023513692000002
合成ベクトルは、マーカ基準フレームで表される重力ベクトルを表す。例えば、このベクトルは、慣性フレームにおける寛骨臼カップの配向のリアルタイム決定を可能にするが、慣性フレームにおける任意の身体部分、器具、骨、又はその他のもののリアルタイムの配向を決定する為にも使用され得る。
図50~図52を参照すると、システム10は、生体構造に固定された外部フィデューシャルのない解剖学的構造を追跡する為の手段を任意選択で含んでもよい。図50A~Bは、大腿骨5002が転位して、システム10が、センサスイート210を用いて、小転子5010の露出表面の基準3次元表面マップ5014を作成することを可能している例示的な実施形態を描写している。小転子の表面は、処置中ずっと変化しないままであり、追加のフィデューシャルなしに大腿骨を追跡する為にシステム10によって使用され得る。基準3次元表面マップ5014の境界は、任意選択で、カーソル又はポインティングデバイスを使用して曲線をトレースすることによってユーザによって示されてもよく、このデバイスはユーザの注視を追跡することによって動作してもよい。システム10は、基準3次元マップ5014を、点群として、数学的曲面として、又は他の手段で保存してもよい。システム10は、センサスイート210に対する基準フレーム5016を作成し、基準フレーム5016に表面マップ5014の初期ポーズを記録してもよい。ユーザ106は、大腿骨頭5006、大腿骨頸部5008、及び寛骨臼5012等、同じ骨又は剛体上の追加の基準点又は構造をレジストレーションしてもよい。システムは、システム10が基準フレーム5016に対する相対的なポーズを記録する、大腿骨頭、大腿骨頸部、及び寛骨臼の夫々について追加の3次元表面マップ5020、5022、5024を作成してもよい。システム10は、センサスイート210を用いて、小転子5010を連続的に再スキャンし、生体の変位した3次元表面マップ5018を生成する。次に、変位した3次元表面マップ5018を同じ表面について作成された基準3次元表面マップ5014と比較して、システム10は、変位した表面マップ5018及び基準表面マップ5014を最適適合の為に必要な幾何学的回転及び並進を決定する。次に、システム10は、大腿骨5002の剛体上の格納された全ての基準点及び構造に同じ回転及び並進を適用し、センサスイート210の基準フレームに対する全てのそのような点及び構造の現在のポーズを計算する。システム10は、大腿骨頭5006又は寛骨臼5012の直径を計算し、寛骨臼リーマサイズを選択する為のガイドとしてユーザ106に表示してもよい。システム10は、基準面マップ5014に対する大腿骨頭5006の中心を計算してもよい。又、システム10は、骨盤5004に対する寛骨臼5012の中心の位置を計算してもよい。次に、ユーザ106は、付属のフィデューシャル5104を有するブローチ又はリーマ5102を大腿骨の管に挿入し、大腿骨軸5106を特定する。システム10は、大腿骨頭5006と大腿骨軸5106との間の大腿骨頸部軸5118を計算する。膝5110を約90°に屈曲させた状態で、カメラ206は下腿5112をスキャンし、そのおおよその中心軸5114を特定し、これは、大腿骨軸5106と共に使用されて、基準面5116を規定し、そこから固有大腿骨頸部軸5118のバージョン角が計算される。処置の過程で、ネイティブの大腿骨頭5006及び寛骨臼5012は、夫々大腿骨インプラント5202及び寛骨臼インプラント5204に置き換えられる。システム10は、移植された寛骨臼シェル5204及び大腿骨頭5208の中心を検出し、システム10が、大腿骨軸5106から大腿骨頭5208までの距離の変化(大腿骨オフセット)、又は各構造の夫々のネイティブの状態と移植後の状態との間での寛骨臼5208の中心の位置の変化を、計算し表示することを可能にしてもよい。大腿骨頭5006の置換後であり寛骨臼5012の置換前に、システム10は、交換された大腿骨頭5208を用いた大腿骨頸軸5206の新たな計算に基づいて、大腿骨バージョンを計算し表示してもよい。システム10は、大腿骨インプラント5202及び寛骨臼インプラント5204の複合的な外転の目標を達成する為に寛骨臼インプラント5204において必要とされる追加の外転を計算し、表示してもよい。システム10は、処置の結果として生じる大腿骨5002と骨盤5004との間の距離の変化を計算し、表示してもよい。
図53は、補足的フィデューシャルの手段によってではなく、その露出面の一部5302の3次元マップを介して追跡される股関節インパクタ5300の例示的な実施形態を示す。システム10は、カメラ206を使用してシェル5304及びインパクタ表面を同時にスキャンすることにより、寛骨臼シェル5304をこの表面にレジストレーションしてもよい。
図59は、システム10及びそのセンサスイート210が股関節形成術におけるナビゲーションの為にどのように使用され得るかを示すフローチャートを描写している。センサスイート210は、小転子5010をスキャンすることができる(5902)。このスキャンから、基準3次元表面マップ5014を格納することができる(5904)。次いで、システム10は、センサスイート210に対する大腿骨5002の基準フレーム5016を確立することができる(5906)。次に、露出した小転子5010を繰り返しスキャンして、システム10は、各スキャンについて、変位した3次元表面マップ5018を生成する(5908)。連続する各スキャンで、システムは、変位した表面マップ5018を、小転子5010上の同じ領域についての基準表面マップ5014と比較できる。この比較に基づいて、システム10は、変位表面マップ5018を基準表面マップ5014に最適適合させる為に必要な並進及び回転を決定することによって、センサスイート210に対する大腿骨5002のポーズを追跡することができる(5910)。
図54は、システム10及びそのセンサスイート210が、股関節キネマティクスの分析にどのように使用され得るかを示すフローチャートを示している。センサスイート210は、ネイティブの大腿骨頭5006及び寛骨臼5012を含む患者の生体構造の露出表面をスキャンすることができる(5400)。これらの表面から、各構造の3次元マップ5020、5024が格納され得る(5402)。次いで、システム10は、表面を、立位の患者において予想される配向に回転させ、それらを体重の方向に一緒に並進させることができる(5404)。次いで、システム10は、2つの表面間の接触点又はパッチを計算でき、これは、ほぼ球形の表面の中心よりも適切な回転の中心であり得る(5406)。大腿骨インプラント5202及び寛骨臼インプラント5204によるネイティブの生体構造の置換に続いて、システム10は、同様に、インプラントの為の接触点を特定することができる(5408)。インプラントの形状を使用して、システム10は、股関節の角度を摂動して、インプラント間、又はインプラントと骨との間のインピンジメントの前に各方向に許容される角度可動域を計算することができる(5410)。可動域を制限する第1のインピンジメントの位置は、表示デバイス104においてハイライトされ得る(5412)。例えば、大腿骨頸部5008は、寛骨臼5012の露出したリム、又は寛骨臼インプラント5204に突き当たる可能性がある。インピンジ面の少なくとも1つがネイティブの骨上に在る場合、ユーザ106は、可動域を増大させる為に骨を削ることを選択してもよい。インピンジ面の少なくとも1つがインプラント上に在る場合、ユーザ106は、インプラントの位置又は角度を調整することを選択してもよい。
図83を参照すると、幾つかの実施形態では、例えば手術使用中に慣性データと光学追跡の組み合わせが要求される場合に必要な精度を提供する為に、慣性及びビジョンシステムを介して慣性からマーカへのエンドツーエンドの較正が行われることが必要である。例えば、膝の手術における股関節中心の決定は、慣性測定と光学追跡を使用してデータを執刀医に提供できる1つの状況である。更に例えば、股関節寛骨臼カップの配置中の慣性空間における股関節傾斜角決定も、慣性測定及び光学追跡を使用して執刀医にデータを提供できる別の例である。図83に示すように、慣性データ及び光学的追跡を組み合わせる方法は、ブロックS8300で、機械的設計からカメラ対アイピース回転行列を決定するステップ(
Figure 2023513692000003
として示されている)と、ブロックS8310で、機械的設計からアイピース対IMU回転行列を決定するステップ(
Figure 2023513692000004
として示されている)と、ブロックS8320でマーカ対カメラ回転行列を較正するステップ(
Figure 2023513692000005
として示されている)とを含む。
本明細書で使用される場合、「機械的設計」は、カメラとアイピース/ヘッドセットハウジングとの間の角度が決定され得るように、カメラ及び/又はアイピースがどのように構築されたかを示す図面を意味する。
幾つかの実施形態では、較正することは、精密固定具を使用することを含む。更に、幾つかの実施形態では、較正することは、固定具上に既知の座標系を有する基準マーカを位置決めすること、固定具上にアイピースを位置決めし、基準マーカを視野(FOV)内に置くこと、及び基準マーカからカメラまでの回転行列
Figure 2023513692000006
を、例えば、トラッキングを使用して取得すること、を含む。例えば、トラッキングは、マーカを追跡することと、頭部装着型ディスプレイ及びナビゲーションシステムを使用して各マーカの位置及び配向情報を受信することを含む。幾つかの実施形態では、トラッキングを使用して、マーカからカメラへの回転行列を取得する。
幾つかの実施形態において、図83の方法は更に、精密固定具を使用して、IMUを較正することを含む。例えば、この方法は、両方向での3つの直交する位置の全て(合計6つの位置)において正確な位置決めを可能にする固定具に頭部装着型システムを位置決めするステップと、頭部装着型システムのアイピースZ軸が許容範囲内で局所重力ベクトルと整列するように(即ち、「目前」位置)、システムが内部に在る状態で、水平面上に固定具を位置決めするステップと、IMU出力の3軸全てから加速度計データ(A1)を取得するステップと、IMU出力の3軸全てから速度センサデータ(G1)を取得するステップと、残りの5つの位置全てについて繰り返し(即ち、「目線下」「目線後」「目線上」「右耳下」「左耳下」に対応する、G2、G3、G4、G5、G6と共にA2、A3、A4、A5、A6を取得する)、以下の式のうち1つ以上、或いは代替的又は付加的に、最小二乗法又は他の手法を用いてIMUのバイアスとスケールファクタを計算するステップを含んでもよい。
加速度計バイアスX=(A2.x+A4.x)/2
加速度計スケールファクタX=(A2.x-A4.x)/2
加速度計バイアスY=(A5.y+A6.y)/2
加速度計スケールファクタY=(A5.y-A6.y)/2
加速度計バイアスZ=(A1.z+A3.z)/2
加速度計スケールファクタZ=(A1.z-A3.z)/2
本方法は更に、レートセンサデータを平均化して、以下の式を用いてレートセンサの各々についてレートセンサバイアス値を達成することを含んでもよい。
レートバイアスX=(G1.x+G2.x+G3.x+G4.x+G5.x+G6.x)/6
レートバイアスY=(G1.y+G2.y+G3.y+G4.y+G5.y+G6.y)/6
レートバイアスZ=(G1.z+G2.z+G3.z+G4.z+G5.z+G6.z)/6
本方法は更に、IMUから慣性への回転(
Figure 2023513692000007
として示される)を提供する、較正されたIMUデータを使用して姿勢推定を形成することを含んでもよい。
これらの項目の較正は、データを慣性から基準マーカフレームに、又はその逆に変換する際の誤差の低減を可能にする。基準マーカから慣性への変換(
Figure 2023513692000008
として示される)は、以下を乗算して得られる結合変換行列である:
Figure 2023513692000009

慣性→基準マーカ変換は、
Figure 2023513692000010
又は
Figure 2023513692000011
の逆行列である。
図83で使用する、「許容度」は、絶対重力ベクトルからのピッチ及び/又はロールの度数の閾値レベルを意味する。幾つかの実施形態では、許容度は、約1度、約0.5度~約3度、約1度~約2度、約0.75度~約5度、約2度~約4度等であってもよい。
図86A~86Bを参照すると、頭部装着型ディスプレイ及びナビゲーションシステム8610を較正する為の固定具8600の一実施形態である。固定具8600は、システムが較正され得るように頭部装着型ディスプレイ及びナビゲーションシステム8610を保持するように機能する。固定具は、隣接する側壁に対して夫々直交する複数の側壁8620を含む。一実施形態では、固定具8600は、6つの側壁8620a、8620b、8620c、8620d、8620e、8620fを含むが、他の側壁番号も本明細書で想定され、それらは、1、2、3、4、5、6、7、8、9、10である。固定具8600は、システムがそこに配置される時、固定具8600が較正方法中に側壁8620の各々に載るように移動できるように、システム8610に固定的に接続される。固定具8600の1つ以上の側壁8620、例えば側壁8620e、8620b、及び/又は8620fは切り欠き8630を規定してもよく、その結果、ケーブル8650がシステム8610に接続され得るが、固定具8600がその側壁8620の何れか1つ上に定置されている時に、表面上に水平に定置されることを妨げない。側壁8620の何れか1つ以上は更に、固定具8600に配置された時にシステム8610が(例えば、コンポーネント、ユーザ入力要素等と相互作用する為に)、それを通して見える及び/又はアクセスできる開口部8660、8670を規定してもよい。
V.Cアームシステムと連動したシステムの使用
図27は、Cアームによる患者の撮像中に表示デバイス104を介してユーザ106に示されるMXUIの例示的な実施形態を示す図である。X線源2702、撮像ユニット2704及び表示ユニット2706を有するCアーム撮像システム2700が示されている。Cアーム2700には追跡可能なラベル2708が固着されている。仮想股関節アライメントガイド2710及び仮想骨盤アライメントガイド2712が図示されている。これらは、骨盤前面に対して垂直であり、夫々股関節と恥骨結合の上に中心を置く。Cアーム2700の配置は、適切な仮想アライメントガイドと整列するように撮像ユニット2704の表面を調整することによってガイドされる。Cアーム2700が追跡可能である場合、仮想Cアームアライメントガイド2714が表示されることがある。この場合、Cアーム2700の配置は、適切な仮想アライメントガイド2710又は2712と位置合わせされるように仮想Cアームアライメントガイド2714を調整することによってガイドされる。ターゲットに対する位置ずれ及び角度ずれは、仮想テキスト2718として数値的にも表示され得る。
図28は、システム10及びその表示デバイス104(例えば、ARヘッドセット3600)が、外科手術においてCアーム2700と連動して使用され得る方法を示すフローチャートを示している。ARヘッドセット3600に組み込まれたカメラ3904(例えば、高精細カメラ等)は、Cアームモニタに表示される画像を撮影する為に使用され得る(2800)。画像は、カメラ3904がモニタ上の画像に完全に中心を合わせ、モニタ上の画像に対して垂直であった場合に見られるものと一致するように「整える」ように調整され得る(2802)。撮像されている生体構造に対する撮像器及び線源の位置の知識は、線源からのX線ビームの発散による倍率及び視差歪みに対して画像を補正する為に使用され得る(2804)。次いで、補正された画像は、ARヘッドセット3600に表示され得る(2806)。次いで、これを使用して、ユーザ106が、寛骨臼カップ配置又は脚長等の処置に関連する測定を行うことを可能にすることができる(2808)。他の画像は、少なくとも例えば図28のブロック2810に示されるように、ユーザ106が比較を行うことを可能にする為に、同時に表示、オーバーレイ、ミラーリング、又は他の方法で操作され得る。
別の実施形態では、画像キャプチャは、Cアーム2700とARヘッドセット3600との間の無線通信、例えばDICOM形式のファイルの転送によっても達成され得る。或いは、寛骨臼シェルの傾斜及びバージョン等の測定を自動的に行う為に、マシンビジョンを組み込んだアルゴリズムが採用され得る。エッジ検出を使用して、シェルの外形をトレースしてもよい。外形に最適な楕円のパラメータを決定し、それは、最適な楕円の短軸と長軸の長さの比からシェルの前傾を計算する為に使用され得る。傾斜は、例えば、恥骨弓の最も下側の側面に接線を置き、シェル楕円の長軸と接線との間の角度を計算することによって計算され得る。同様に、大腿骨の比較脚長及び横方向のオフセットが決定され得、大腿骨の頭部又はシェルの球形断面の中心から回転中心を認識し、この点を中心に仮想回転を行って外転角度を一致させることにより、大腿骨の外転の変化又は差異が補正され得る。この種の計算は、ほぼ瞬時に実行され得るものであり、時間又は追加のX線撮影画像を撮る必要性を省く。更に、別の実施形態では、アルゴリズムは、骨盤の位置の誤りがシェルの見かけの傾斜及び前転に及ぼす影響を、鈍頭孔を表す放射線透過領域の幅及び縦横比を一致させる為に仮想回転を実行することによって補正し得る。
更に別の実施形態では、Cアーム撮像は、骨盤のような生体構造の位置をレジストレーションする為に使用され得る。この為に、解剖学的マーカ1300は、既知のパターンで既知の幾何学的形状の放射線不透過性機構を組み入れることになる。Cアーム画像は、既知のマーカ特徴に基づいて捕捉され、スケーリングされ、ARヘッドセット3600に表示される。事前のCTスキャンから生成された生体の仮想モデルが、ユーザ106に表示される。ユーザ106は、仮想モデルを操作して、その外形がCアーム画像と一致するように位置決めすることができる。この操作は、好ましくは、SLAMを用いてユーザ106の手の位置と動きを追跡することによって行われる。或いは、ユーザ106は、仮想モデルが物理オブジェクトと共に移動するマーカを組み込んだ物理オブジェクトを操作することもできる。仮想モデルがCアーム画像と正しく位置合わせされると、患者の生体構造と解剖学的マーカ1300との間の関係が計算され得る。これらのステップと操作は、エッジ検出を使用し、それをCTから生成されたモデルのプロファイルの投影に合わせることによって、ソフトウェアによって計算的に実行することも可能である。
利用可能なCアームのサイズが限られている為、ユーザが関心対象の生体構造全体を画像化するようにCアームを配置することが困難であるか又は不可能である場合がある。例えば、ユーザは14インチ幅の骨盤の画像を撮影したいが、10インチ径の視野を撮影できるCアームしか利用できない場合がある。この問題は、Cアーム画像のエッジ付近の歪みによって更に悪化し、使用可能な画像サイズを有効に減少させる。各画像に含まれる共通の特徴を識別して位置合わせをすることに基づいて複数の画像を繋ぎ合わせるアルゴリズムが存在するが、これらの技術は、画像間の重なりに依存してレジストレーションの為の共通の特徴を作り出している。例えば、10インチのCアームを有するユーザは、36インチ離れた2つの解剖学的特徴をそれらの正しい解剖学的アライメントで示す画像を作成する為に、少なくとも4つの(そして4つを超える可能性が高い)重なり合う画像を取得する必要がある。本発明の別の実施形態では、本システムを使用して、Cアーム2700からの複数の画像をデジタル的にステッチして、画像間の重なりなしに患者2716のより大きい部分の画像を作成することが可能である。Cアーム2700によって捕捉された各画像について、ARヘッドセット3600は、ラベル2708等のトラッカーを使用して、患者2716に対するCアーム2700の対応する位置を測定する。次に、システムは、収集された画像をディスプレイ2706又はARヘッドセット3600上に、各画像を共通基準フレームに対して正しい位置及びアライメントで表示し、ユーザ106が、単一の画像に収まり得るよりも大きい患者2716の部分を含む仮想画像上で表示及び測定を行うことができるようにし、それは、例えば、画像サイズが完全な骨盤の範囲よりも小さいCアーム2700で完全な骨盤を撮像する、又は解剖学的アライメントで股関節の単一画像及び足首の単一画像を見る、等である。この機能は、画像処理システムからの放射線を最小限に抑えながら、四肢、脊椎等のアライメント及び/又は長さを評価するのに有用である。
VI.脊椎の処置
図31は、超音波による脊椎のレジストレーション中に表示デバイス104を介してユーザ106に示されるMXUIの一例示的な実施形態を示している。解剖学的マーカ1300は、手術部位に隣接する椎骨に固定される。マーカを定義する複数のフィデューシャル3106を含む超音波トランスデューサ3104が提供される。一実施形態では、超音波トランスデューサ3104は、電池式でコードレスであり、無線を介してARヘッドセット3600と通信できる。ソフトウェアは、マーカ1300の位置に対して2D超音波画像を位置決め及び拡大縮小できるようにする為に必要な幾何学的情報及び他の情報を有する。超音波トランスデューサ3104は、患者3100の表面上で移動されて関心領域をスキャンする。ソフトウェアは、2D画像データを、解剖学的マーカ1300に対する超音波トランスデューサ3104の6自由度のポーズ情報と組み合わせて、関心領域の椎骨の表面を表す仮想モデル3108を生成する。超音波トランスデューサ3104は、より完全な3D画像を得る為に、関心対象の生体構造に対して相対的に回転されてもよい。棘突起の後方輪郭及び左右の乳頭突起を、椎骨のCT生成3Dモデルの同じ特徴に一致させて、椎骨の仮想モデルを複合現実ビューにレジストレーションし、その後位置決めすることが可能である。或いは、超音波スキャンで見える適切な特徴が利用され得る、又は、仮想モデルの位置はSLAMで決定された患者の表面と相対的であってもよい。後者は、患者の関心対象の生体構造が処置の間静止しており、マーカを取り付けることが不必要に侵襲的又は負担となるような処置に適している。超音波は、同様にこのように、骨構造、神経、血管等(これらに限定されない)の、関心対象の生体構造のモデルを生成する為に使用され得る。任意の生体構造のレジストレーションが達成され得る。例えば、骨盤の基準フレームを超音波で確立し、左右のASISの近位頂点と恥骨の位置を特定することができる。同じ方法で、経皮的に器具やインプラントの位置を追跡できる。
図32は、スタイラス1800を用いた脊椎のレジストレーション中に表示デバイス104を介してユーザ106に示されるMXUIの例示的な実施形態を描写している。解剖学的マーカ1300は、手術部位に隣接する椎骨に固定されている。術前撮影から生成された患者の椎骨の仮想モデル3200が表示される。この仮想モデルは、第1のマーカ3202と、第2のマーカ3204と、第3のマーカ3206とを含む。図33は、図32に示す露出した生体構造のクローズアップ図を示す。患者の軟組織は、3つのマーカを含む第1の骨突起3300、第2の骨突起3302、及び第3の骨突起3304を露出させる為に十分に剥離されている。ユーザ106は、仮想モデル上に示されたマーカの位置に最もよく一致する実際の椎骨上の点にスタイラスチップ1804を配置することによって、3つのマーカをレジストレーションする。次に、ソフトウェアは、これらの点を最もよく位置合わせする為に、ユーザの視界内で仮想モデル3200を再位置決めする。ユーザ106は、仮想モデルを椎骨の実際の露出領域と比較することによって、レジストレーションの品質を視覚的に確認する。必要に応じて、ユーザ106は、スタイラス1800の先端1804を使用して仮想モデルを再位置決めすることによって調整を行ってもよい。別の実施形態では、マーカは、各プロセスの最も後方の側面上にトレースされた円弧である。別の実施形態では、露出した突起の輪郭はSLAMで確立され、ソフトウェアは、これらの輪郭に一致するように仮想モデルの位置に対してベストフィットを実行する。
図34は、脊椎固定術の処置中に表示デバイス104を介してユーザ106に示されるMXUIの一例示的な実施形態を描写している。ドリルビットの為の仮想ターゲット3400と、仮想ドリルビット3402とが示されている。仮想ターゲット3400及び仮想ドリルビット3402に対して透明であるようにレンダリングされた仮想椎骨3404が示されている。ドリルビットの角度数と、ドリルビットの先端から最大安全挿入深さまでの貫入深さ又は距離が、仮想テキスト3406として数値的に表示される。図35は、図34に示された仮想ターゲット3400及び仮想ドリルビット3402のクローズアップ図を描写している。仮想ターゲット3400は、近位十字線3502及び遠位十字線3504を有するロッド3500の形態で示される。実際のドリルビットを安全な目標軌道に維持する為に、ユーザは、仮想ドリルビット3402が仮想目標3400の両方の十字線のリングを通過する位置を維持しなければならない。理想的な軌道は、仮想ドリルビット3402が両方の十字線の中心を通過する時に達成される。実際のドリルビットが安全な目標軌道の外に移動した場合、仮想目標3400の色が変化してユーザに警告し、可聴警告が発せられる。遠位十字線3504は、骨の表面上の計画された開始点に位置決めされる。仮想ターゲット3400及び仮想ドリルビット3402の軸方向長さは、ドリルがその最大計画深さに到達した時にそれらの近位端が一致するようにスケーリングされる。仮想ドリルビット3402の変位のモーションの為のスケーリングは、仮想ターゲット3400から遠い時は1:1であるが、近い時はより高い倍率に拡大され、より高い精度を可能にする。
これは、ドリルビットを用いた穿孔の文脈で説明されているが、この複合現実視は、椎弓根のタッピング又は椎弓根ネジの打ち込み、又は椎弓根ネジの管路を見つける為の追跡可能アールの使用を含む複数のステップに使用され得る。ドリル、タップ、ネジを交換する際に、軸方向の位置を迅速に再調製する手段として、ユーザは先端をマーカの窪みに当てる。ARガイダンスによってインプラントをより低侵襲に導入することができ、例えば、PLIF、XLIF又はTLIF処置中に体間ケージを位置決めすることが可能である。
別の実施形態では、手術用ドリルは、ヘッドセットと無線で通信して双方向通信を提供するように装備され得る。これは、例えば、ドリルが安全な目標軌道内にないか又は最大安全深さに達した場合に、ドリルを自動的に停止するか又は操作を防止すること、及び/又は、トルク制限適用に対して適切なトルク設定パラメータを指定する為の便利なユーザインターフェースを提供することを含む様々な安全及びユーザビリティ向上機能を促進し得る。例えば、所定のサイズの椎弓根ネジの最大挿入トルクや、椎弓根ネジのセットネジの着座トルク等である。使用される実際の値は、例えば、穿孔中のトルク曲線、椎弓根ネジ又はセットネジの最終的な着座トルク、椎弓根ネジの移植位置、又は使用された特定のインプラント等の文書化又は研究目的の為に患者記録内に記録され得る。
別の実施形態では、ARヘッドセット3600は、神経モニタリング/神経定位システムに無線接続されて、特にXLIF等の低侵襲処置中に、ユーザ106(例えば、脊椎執刀医)の視野内のリアルタイム警告及び測定値を提供し得る。更に、患者の実際の神経が撮像され、3Dモデルに再構成された術前撮像と連動して使用すると、特定の神経が刺激されたこと、又は刺激プローブが接近していることをシステムが検出した場合、その神経構造を表すホログラムをユーザ106にハイライトして、神経構造への接触又は損傷を避けることを容易にすることが可能である。
VII.膝関節置換術
本発明の別の例示的な実施形態で、図42を参照すると、システム10は、膝置換手術に使用される。膝置換患者の骨盤4202、大腿骨4204、及び脛骨4206が図42に示されており、執刀医4208(即ち、ユーザ106)は、ARヘッドセット3600を装着していることが示されている。大腿骨指標4210及び脛骨指標4212は、夫々大腿骨及び脛骨にピンで固定されている。大腿骨は、大腿骨指標4210の基準フレームにおける股関節の中心の代理として回転中心を決定する為に、可動範囲を通して動かされる。
幾つかの実施形態では、本明細書に記載される頭部装着型表示デバイスの何れも、ナビゲーションシステムに対する障害物が回避され得るように移動する能力をユーザに付与する。これにより、例えば手術室内で固定カメラを使用する定置ナビゲーションシステムに対して、膝関節置換術の為の大腿骨のより大きい及び/又は異なる可動域が可能になる。関節中心(例えば、股関節中心)を決定する為に、慣性空間に固定された1つ以上のトラッカーと、骨(例えば、大腿骨)に固着された1つ以上のトラッカーとを必要とする回転中心最小二乗適合(又は類似のもの)が実行され得る。一例では、図81に示すように、頭部装着型ディスプレイ及びナビゲーション装置を使用して関節中心を決定する方法は、任意選択で(破線で示す)、ブロックS8100で、骨及び関節に対して固定された定置マーカに1つ以上の基準トラッカーを固着するステップと、ブロックS8110で、基準座標フレームに骨上の点をレジストレーションするステップと、ブロックS8120で、骨座標フレーム(例えば、大腿骨座標フレーム)を、レジストレーションされた点に基づいて作成するステップと、ブロックS8130で、基準座標フレームから骨座標フレームに変換するステップと、ブロックS8140で、頭部固定型頭部装着型ディスプレイ及びナビゲーションシステムを用いて基準フレーム内の静止トラッカーの点を取得するステップと、ブロックS8150で、骨座標フレーム内の関節中心を決定するステップを含む。頭部装着型ディスプレイシステム又はナビゲーションシステムの何れが、図81の方法の為に本明細書で使用されてもよい。
幾つかの実施形態では、点の数を制限するか、又は重複する点の数を制限する為に、以前の点から何らかの公称距離又は他の尺度によって分離されている場合にのみ、新たな点が取得される。例えば、ナビゲーションシステムは、或る点の、任意の他の点からの距離を決定するように構成されるように、各点に対する3次元位置を出力する。
本方法の幾つかの実施形態では、ユーザが頭部を動かすことによってシステムの視野を調整できる為、より大きい運動範囲に亘って基準トラッカーを追跡できるように、頭部装着型ディスプレイ及びナビゲーションシステムを取得中に移動させてもよい。
幾つかの実施形態では、点は、大腿座標系に変換され、大腿座標系における股関節中心の位置を計算する為に使用され、股関節中心を決定する為にリアルタイム最適推定フィルタを通じて実質的に連続的に処理され、及び/又は股関節中心を決定する為に全ての点の最終取得後にバッチプロセスとして処理されてもよい。例えば、リアルタイム推定フィルタを通して実質的に連続的に処理することは、例えば執刀医等のユーザに対して、有効な解に近づいているというフィードバックを提供し得る。幾つかの実施形態では、バッチ処理は、多数の点が収集され試行された後に発生し、処理が不十分である場合、ユーザに再試行を促し、再試行する。
次に、膝を、可動域を通して屈曲させて、ベースライン、膝の術前屈曲軸を決定する。次いで、執刀医4208は、切開を行って膝関節を露出させる。スタイラス1800は、滑車部の溝の最遠位点等のマーカに基づいて、大腿骨遠位部の中心をレジストレーションする為に使用される。脛骨の近位中心は、スタイラスの先端でACLのフットプリントをレジストレーションすることによって定義される。特定の低侵襲性処置の場合、スタイラスを1つのポートから関節包に挿入し、第2のポートから挿入された関節鏡4214で可視化することにより、骨指標を関節鏡でレジストレーションすることができる。更に、関節鏡からの関節鏡画像4216は、ARヘッドセット3600にワイヤレスで通信され、MRUIの一部として表示されてもよい。別の実施形態では、追跡可能な関節鏡にスタイラスチップが組み込まれ、マーカレジストレーションが単一のポートを通して実行されることを可能にし得る。次に、スタイラス1800を使用して、内側踝及び外側踝をレジストレーションし、これらの点の補間によって脛骨指標4212の基準フレームにおける足首の中心を決定することができる。この時点で、大腿骨遠位部の中心を原点とし、股関節の中心に向かって延びる第1の軸と、膝の屈曲軸によって定義される第2の軸と、第1及び第2の軸の法線として定義される第3の軸とを有する大腿骨基準フレームが確立される。脛骨近位部の中心を原点とし、足首の中心に向かって延びる第1の軸、膝の屈曲軸で定義される第2の軸、第1の軸と第2の軸の法線となる第3の軸を有する脛骨基準フレームが定義される。これらの基準フレームは、仮想画像としてMRUIに提示されてもよい。
図43は、膝が露出している膝置換術中にARヘッドセット3600を介して執刀医4208に示されるMXUIの一例示的な実施形態を示している。大腿骨顆頭4302及び脛骨プラトー4304の局部マップは、ARヘッドセット3600内の深さセンサ3906を用いたスキャンにより、又は立体カメラ3904及びSLAMの使用により生成され得る。膝は可動域を通じて屈曲され、執刀医4208は、顆頭を可能な限り可視化できるように視座を調整することになる。視野の中心に在る円4306は、執刀医4208がレジストレーションプロセス中に顆を「描く」為に用いられ、マッピングアルゴリズム用のマスクとして用いられる。この円は、マッピングの速度及び精度を高める為に使用される構造化光プロジェクタの投影野と一致してもよい。表面がマッピングされる時、マッピングされた領域の仮想3Dメッシュ4308は、執刀医4208をガイドし、表面レジストレーションの品質の視覚的確認を提供する為に、関節表面に投影され得る。次に、アルゴリズムを用いて、遠位大腿骨及び近位脛骨の関節面上の最下点を決定して、遠位大腿骨及び近位脛骨の切除の深さを決定する。局部マップから理想的なインプラントサイズが決定され得る。
別の例示的な実施形態では、システム10は、大腿骨4204及び脛骨4206の局部マップを使用して、夫々の骨(4204、4206)にフィデューシャルマーカを固着することに代えて、骨(4204、4206)のポーズを追跡してもよい。一実施形態では、ユーザ106は、膝が屈曲及び伸展される時に見えたままである骨(4204,4206)の領域を選択してもよい。図58A~Cを参照すると、ユーザ106は、脛骨5808の前内側面又は遠位大腿骨5806の前内側面をマッピングすることを選択して、基準3次元表面マップ5802及び5804を夫々作成してもよい。これらの領域は、典型的な皮膚切開部を通して見ることができる。可視性を維持する為に、慣用的な引き込み器具及び技法が使用されてもよい。システム10は、基準3次元マップ5802及び5804を、点群として、数学的表面として、又は他の手段で保存してもよい。システム10は、センサスイート210に対して脛骨基準フレーム5812及び大腿骨基準フレーム5810を作成し、基準フレーム5812及び5810に対する表面マップ5802及び5804の初期ポーズを夫々記録してもよい。ユーザ106は、システム10が基準フレーム5812又は基準フレーム5810に対して相対的に記録するポーズの、同じ骨又は剛体上の追加の基準点又は構造をレジストレーションしてもよい。システム10は、センサスイート210を用いて、生体構造の同じセクションを連続的に再スキャンし、脛骨及び大腿骨の夫々について変位した3次元表面マップ5816及び5814を作成する。次に、各変位表面マップ5816、5814を、同じ表面について作成された対応する基準表面マップ5802、5804と比較し、システム10は、変位表面マップ及び基準表面マップを最適適合に揃える為に必要な幾何学的回転及び並進を決定する。次に、システム10は、大腿骨4204又は脛骨4206の剛体上の格納された全ての基準点及び構造に同じ回転及び並進を適用し、センサスイート210の基準フレームに対する全てのそのような点及び構造の現在のポーズを計算する。
図55は、膝関節置換術をナビゲートする為にシステムを使用する為の例示的な方法を示すフローチャートである。ユーザ(106)は、先ず、膝を露出して骨性生体構造を視覚化する(5500)。次いで、センサスイート210は、遠位大腿骨5806の前内側面及び近位脛骨5808の前内側面をスキャンする(5502)。これらの表面から、基準3次元表面マップ5802、5804が格納される(5504)。システムは、任意選択で、大腿顆部5818、滑車部5820、脛骨プラトー5822、後顆5824、又は上顆5826のより大きい領域をスキャンしマッピングすることができる。これらの拡張表面マップ5828、5830、5832、5834、5836夫々から、及び任意選択で外部の解剖データを用いて、システム10は遠位大腿骨4204上の中心及び近位脛骨4206の中心を特定する(5506)。大腿骨は、マッピングされた遠位大腿骨生体構造5804に対する股関節の中心の代理として股関節に関する大腿骨の回転中心を決定する為に遠位大腿骨5806をスキャンしながら可動域を通して動かされる(5508)。次に、ユーザ106は、下腿5112を大腿骨4204に対してほぼ垂直に配置することにより、膝を90°屈曲させた状態で位置決めする。膝を屈曲させた状態で、システム10は、そのセンサスイート210を使用して、遠位大腿骨5806及び下腿部5112をスキャンし、そのおおよその中心軸5114を特定する。或いは、システム10は、そのセンサスイート210を使用して、膝が90度の可動範囲を通って屈曲している時に遠位大腿骨5806及び近位脛骨5808をスキャンして、膝の平均屈曲軸を特定する。次いで、システム10は、原点が遠位大腿骨の中心に在り、第1の軸が股関節の中心に向かって延び、第2の軸が下肢5114の軸に平行であり、第3の軸が第1の軸及び第2の軸の法線として定義される、センサスイート210に対する大腿骨4204の基準フレーム5810を確立する(5510)。或いは、システムは、原点が遠位大腿骨の中心に在り、第1の軸が股関節の中心に向かって延び、第2の軸が膝の屈曲軸に平行であり、第3の軸が第1の軸及び第2の軸の法線として定義される、センサスイート210に対する大腿骨4204の基準フレーム5810を確立する。脛骨に対する後顆の位置が記録され、後顆間に軸が構築される。システム10は、そのポーズを追跡する目的で、足の背側表面の断面の表面マップを生成する。別の実施形態では、足は、皮膚又はその上のドレープ、包帯、又はブーツに固着されたマーカを介して追跡されてもよい。足は、マッピングされた近位脛骨生体構造に対する足首の中心の代理としてその回転中心を決定する為に可動範囲を通して動かされる(5512)。次いで、脛骨の機械軸が近位脛骨と足首の中心との間に構築され、原点が近位脛骨の中心に在り、第1の軸が股関節の中心に向かって延び、第2の軸が下肢5114の軸に平行であり、第3の軸が第1の軸及び第2の軸の法線として定義される、センサスイート210に対する脛骨4206の基準フレーム5812を確立する(5514)。或いは、システムは、原点が近位脛骨の中心に在り、第1の軸が足首の中心に向かって延び、第2の軸が膝の屈曲軸に平行であり、第3の軸が第1の軸及び第2の軸の法線として定義される、センサスイート210に対する脛骨4206の基準フレーム5812を確立する。次に、露出した遠位大腿骨5806及び近位脛骨5808を繰り返しスキャンすることにより、システム10は、各スキャンについて変位表面マップ5814及び5816を生成する(5516)。連続する各スキャンで、システムは、変位表面マップ5814及び5816を、遠位大腿骨5806及び近位脛骨5808上の対応する領域についての元の表面マップ5804及び5802と夫々比較することができる。この比較に基づいて、システム10は、変位した表面マップ5814及び5816を基準表面マップ5804及び5802と位置合わせする為に必要な並進及び回転を決定することによって、センサスイート210に対する大腿骨4204及び脛骨4206のポーズを追跡することができる(5518)。次いで、システム10は、夫々のマッピングされた解剖学的表面と切削器具又はガイドとを同時に追跡することによって、遠位大腿骨及び近位脛骨の切除の角度及び深さを計算し表示する(5520)。次いで、システム10は、仮想ガイドを表示して、ユーザ106が切削器具又はガイドをユーザ定義の目標角度又は深さに位置合わせするのを支援してもよい(5522)。システム10は、外部インプラントデータに基づいて、ユーザ106にインプラントサイズを提案してもよい(5524)。インプラント又は試行インプラントの配置に続いて、システム10は、屈曲の範囲を通して大腿骨及び脛骨を追跡し、例えば、軸回転又は瘤/弁膜回転を表す1つ以上の軸の周りでの大腿骨及び脛骨の相対回転を測定してもよい(5526)。
任意選択で、システム10は、マッピングされたトポグラフィを使用して、遠位大腿骨5804の夫々の中心(例えば、滑車部上の最遠位点又は顆の最も広い部分を通る線の中心を識別することによって)又は近位脛骨5802の中心(例えば、プラトーのセントロイドを計算することによって)を自動的に決定してもよい。任意選択で、中心点の特定は、中心が特定されていた解剖学的局部マップのライブラリのような外部データによって補完されてもよく、それにより、システム10は、生体構造が部分的に不明瞭で、表面全体のマッピングが妨げられた場合に中心点を計算することが可能となる。
図56は、移植された単顆コンポーネントを有する膝を描写している。大腿骨5602及び脛骨5604の各々の1つの区画が切除されている。大腿骨インプラント5606及び脛骨インプラント5608が留置されている。一例示的実施形態では、システム10は、ネイティブの大腿骨5602と脛骨5604の相対運動を追跡し、記録する。次に、カメラ206を用いてインプラント(5606、5608)の表面をスキャン及びマッピングし、システム10は、記録された脛骨-大腿骨の運動に従うインプラント表面の経路を計算してもよい。システム10は又、残りの露出した骨5610をマッピングし、インプラント(5606、5608)と骨5610との間のインピンジメントを検出してもよい。干渉体間の重なりを表す体積が計算され、表示デバイス104に仮想モデルとしてオーバーレイされてもよい。又、システム10は、表示デバイス104に、インピンジメント部位をハイライトしてもよい。例えば、大腿骨インプラント5606は、矢状切除面5610に隣接する脛骨の***に衝合してもよく、又はこの***は、大腿骨インプラント5606に隣接する大腿骨に衝合してもよい。少なくとも1つの接触面が骨である場合、ユーザ106は、接触点を変更する為に骨をトリミングすることを選択してもよい。少なくとも1つの接触面がインプラント上である場合、ユーザ106は、インピンジメントを低減する為にインプラントの位置を調整することを選択してもよい。
図57を参照すると、ネイティブの脛骨大腿キネマティクスを記録したシステム10は、インプラント間接触点5702及び予め定義された安全域5704の軌跡をインプラントの表面上に投影してユーザ106に表示してもよい。
図44を参照すると、仮想脛骨インプラント4402及び仮想大腿骨インプラント4404は、ARヘッドセット3600を介して執刀医4208に示されるMXUIに表示され得る。執刀医4208は、満足するまで、これらの仮想モデルのサイズを切り替え、位置を調整することができる。別の実施形態では、仮想脛骨インプラントは、脛骨コンポーネントの回転整列の為のガイドを提供する為に、ブローチング向けの脛骨の準備中に表示され得る。
図45を参照すると、脛骨切断ブロックの為のピンの位置の為の仮想ガイド4502が、ARヘッドセット3600を介して執刀医4208に示されるMXUIに表示される。遠位大腿骨切断ブロックの為のピンの位置の為の仮想ガイド4504が表示される。フォーインワン切断ブロック用のピンの配置の為の仮想ガイド4506が表示される。実際のピンの配置は、仮想ガイド4502、4504又は4506と位置合わせすることによってガイドされる。その後、大腿骨4508及び脛骨4510は、これらのピン上に切断ブロックを配置することによって切除され得る。
図46は、図45に示すMXUIの別の実施形態を示し、仮想ガイド4602が理想的な切除面を表示する為に使用され、執刀医4208は実際の鋸刃を仮想ガイド4602と位置合わせすることによって骨を直接切除してもよい。或いは、追跡された鋸4604の場合、執刀医4208は、仮想鋸刃4606を仮想ガイド4602と位置合わせすることによって骨を切除してもよい。各切除の内反/外反角度、屈曲角及び深さを示す仮想テキスト4608は、関連する場合、数値的に表示されてもよい。
図47及び図49は、ベース要素4702、ばね4902、顆頭要素4904、及び顆頭プレート4906を有するシステム10に任意選択で含まれ得る膝バランシング装置4700を描写している。ベース要素4702は、ハンドル4908と、ターゲット4714と、脛骨プレート4910とを含む。顆頭要素4904は、ハンドル4912と、円筒形軸受穴4914とを含む。顆頭プレート4906は、円筒軸受シャフト4916、ターゲット4716、及び2つのパドル4706及び4707を含む。顆頭プレート4906は、円筒形軸受4916を中心に枢動し、ベースプレート4910に対する顆頭プレート4906の内側/横方向の傾きを可能にする。別の実施形態では、軸受4916は、顆頭プレート4906の内側/外側及び屈曲/伸展傾斜を可能にするボール型であってもよい。別の実施形態では、顆頭プレート4906は、脛骨インプラントの座面のトポグラフィに一致するような輪郭であってもよい。別の実施形態では、設計は、強固に統合されたディストラクションパドル及びマーカを有する2つの完全に独立した顆頭要素を夫々含み得る。
図47を参照すると、脛骨プレート4910は、切除された脛骨4704上に着座し、ディストラクションパドル4706及び4707は、夫々、内側大腿骨顆部4708及び外側大腿骨顆部4712との接触状態を維持する。ディストラクションパドル4706及び4707は、ばね4902によって押され、前後軸を中心に枢動して、各大腿顆部(4708、4712)と脛骨4704との間にほぼ等しく且つ一定のディストラクション力を提供する。ベース要素4702及び牽引パドル(4706、4704)は、ソフトウェアが各大腿顆部(4708、4712)の牽引の程度を測定することを可能にする光学マーカ(4714、4716)を含む。
膝が可動域に亘って屈曲されると、各ターゲットの位置が、脛骨及び大腿骨のポーズと同様に追跡される。このデータは、屈曲角度の関数としての内側及び外側弛緩のプロットを生成する為に使用される。この情報は、膝の可動域に亘ってバランスをとる為の遠位大腿骨切断ブロック位置決めピンの理想的な位置を計算したり、膝の可動域を通じてバランスをとる為に骨棘の除去や軟組織のリリースを行う際のガイドとして使用される。このプロットは、図48に示すようにMXUIで表示されてもよく、このMXUIでは、第1の3次元円弧4802が膝の可動範囲に亘る内側弛緩を表し、第2の3次元円弧4804が外側弛緩を表している。又、実際の膝の現在の屈曲角における数値が仮想テキスト4806として表示され得る。
図66A及び66Bは、膝の手術において切除深さを測定する為に使用されるシステム10の一実施形態を示している。遠位大腿骨6602は、顆頭6604及び6606、並びに機械軸6614を含む。マーカ6608及び6610は、夫々、大腿骨6602及び顆頭ガイド6612に強固に固定されている。マーカ6620は、切断ガイド6616に強固に固定されている。
切除深さを測定する際の課題は、深さ基準として使用される大腿骨顆が、切除面の角度によってその最も突出した点が変化するように不規則に形成されていることである。一般的な解決策は、顆頭表面に多くの点をレジストレーションしてマッピングすることであり、これは時間が掛かるが、コンピュータが垂直経路に沿って最も突出した点までの距離を計算することによって、特定の角度における深さを計算することを可能にする。図67は、システム10を使用して、顆頭表面をマッピングすることなく、膝の手術において遠位大腿骨の生体構造をレジストレーションし、深さを測定する方法を示すフローチャートである。ユーザ106は、顆頭ガイド6612を顆頭6604、6606に定置する(ブロック6700)。システム10のガイダンスに従って、ユーザ106は、顆頭ガイド6612と顆頭6604、6606の少なくとも1つとの間の接触を維持しながら、顆頭ガイド6612の角度を目標切除角度に調整する(ブロック6702)。システム10は、センサスイート210を使用してマーカ6608及び6610を追跡して、大腿骨6602に対する顆頭ガイド6612のポーズを測定し、顆頭6604、6606の1つ以上と接触している顆頭ガイド6612の表面と一致する深さ基準面6618を記録する(ブロック6704)。次いで、システム10は、機械軸6614と深さ基準面6618との交点に深さ基準点6622を構築し記録する(ブロック6706)。任意選択で、システム10は、顆頭ガイド6612を顆頭6604又は6606の少なくとも1つに接触させたまま、ユーザ106に顆頭ガイド6612を複数の配向に調整するように指示して、追加の深さ基準面6618及び深さ基準点6622を記録してもよい(ブロック6708)。
幾つかの実施形態では、深さ基準点捕捉の為にユーザを異なる方向にガイドする為の追加的又は代替的な方法が存在する。一実施形態では、図74に示すように、例えば1つ以上の領域7410を含むターゲット7400(例えばブルズアイ)が、顆頭ガイドからの1つ以上の角度を表す可動式アイコン7412を示して提示される。円形のターゲットが示されているが、当業者であれば、任意の様式又は形状(例えば、正方形、長方形、二次元、3次元等)が本明細書に含まれることを理解するであろう。本実施形態では、システムは、ガイドを顆頭に対して相対的に動かし、有効な深さ基準点を捕捉する為に可動式アイコン7412を使用してターゲット7400を仮想的にペイント又はマーク又はハイライト7414するようにユーザに指示を出力する。有効な深さ基準点が記録された角度では、システムは、ターゲット上にインジケータ又はマーカを表示又は出力して(ペイントされた領域7414によって示される)、示された領域について有効な深さ基準点が取得されたので、その領域で可動式アイコンを再び動かす必要はないことをユーザに通知する。他の実施形態では、システムは、ユーザが以前に捕捉された有効な深さ基準点を仮想的にペイントすることを制限する。顆頭上でのガイドの移動の間、データベースは、切断ステップで使用する為に取得された有効な深さ基準点の全て又はサブセットから形成される。
別の実施形態では、図75に示すように、1つ以上の領域7510を備えたグリッド7500が、顆頭ガイドからの角度を表す可動式アイコン7512を表示して提示される。この実施形態では、システムは、ガイドを顆頭に対して移動させ、可動式アイコン7512を使用してターゲット7500を仮想的に描く7514ように、ユーザに対する出力指示を表示する。有効な深さ基準点が記録された角度では、システムは、ターゲット7500上に(ペイントされた領域7514によって示される)インジケータ又はマーカを出力又は表示して、指示された領域について有効な深さ基準点データが取得されたので、その領域で可動式アイコンを再び動かす必要がないことをユーザに通知する。顆頭上でのガイドの移動中、データベースは、切断ステップで使用する為に取得された有効な深さ基準点の全て又はサブセットから形成される。
更に別の実施形態では、図76に示すように、ターゲット7600が、1つ以上の領域7602、7604、7606、7608を含んで表示される。例えば、1つ以上の領域が、ターゲット7600の外周7610付近に、それに隣接して、又はそれに近接して配置されてもよい。これらの外側領域の内の1つ、例えば領域7606は、ハイライトされ(例えば、色が変わる、起動される、点灯する、点滅又はブリンクする、可聴ビープ音を出す、震動する、等)、他の領域、例えば領域7608は、不活性化(例えば、グレーアウト)される。顆頭ガイドからの角度を表す可動式アイコン7612が存在する。この実施形態では、システムは、可動式アイコンがハイライト領域7606の上に少なくとも部分的に重なるか又は少なくとも部分的に重なるまで、ガイドを顆頭に対して動かすようにユーザに対する指示を出力又は表示する。これが達成されると、現在ハイライトされている領域7606は不活性化され、次の、後続の、又は隣接する領域、例えば領域7604がハイライトされる。これは、全ての領域7604、7606、7608について繰り返され、その後、システムは、ターゲット7600の中央の領域7602に可動式アイコンを移動させる指示をユーザに出力又は表示する。この動作中、バックグラウンドで深さ基準点が取得される。顆頭上でのガイドの移動中、切断ステップで使用する為に取得された全ての点からデータベースが形成される。
更に別の実施形態では、システムは、移動ターゲットを表示又はユーザに提示し、可動式アイコンがシステムによってハイライトされたターゲットと少なくとも部分的に重なるか又はその上に重なるまでガイドを顆頭に対して移動させる指示をユーザに出力又は表示する。移動ターゲットの速度及びパターンは、装置の精度を優先する領域でデータを取得する目的で、ソフトウェアによって変化させることができる。顆頭に対するガイドの移動中、データベースは、切断ステップで使用する為に取得された全ての点から形成される。
次に、ユーザ106は、大腿骨から顆頭ガイド6612を取り外し、ユーザ106が大腿骨6602上でその角度及び深さを調整できるように構成された切断ガイド6616を取り付ける(ブロック6710)。切断ガイド6616が調整されると、システム10は、トラッキングマーカ6620及び6608によって、大腿骨6602に対する切断ガイド6616の位置を夫々測定する。瞬間的な切除深さは、切断ガイド6616によって規定される現在の切除面から、切断ガイド6616の角度に最もほぼ平行な深さ基準面6618に対応する深さ基準点6622までの法線距離として計算される(ブロック6712)。別の実施形態では、深さ基準面6618に対応する深さ基準点6622は、切断ガイドの現在の配向が、顆頭ナビゲーション中に記録されたものでない場合、異なる配向で取得された基準面及び/又は他の深さ基準点の補間又は外挿の何れかによって決定されてもよい。ユーザ106は、システム10からのフィードバックに従って、切断ガイド6616を所望の切除角度及び深さに調整する(ブロック6714)。深さ測定精度は、顆頭の不規則な形状及び顆頭表面上の最も突出した点を特定することの不確実性に起因して、深さ基準面からの角度が増加するにつれて低下する。位置ずれによる深さ誤差を最小限にする為に、システム10は、切断ガイド6616が最もほぼ平行な深さ基準面6618から所定の角度限界(例えば、1度)を超えて離れている場合、深さ測定値を表示しない。切断ガイド6616が所望の角度及び深さになると、ユーザ106は、スロットを通して又は切断ガイド6616の面に対して鋸引きすることによって、大腿骨を切除する(ブロック6716)。角度限界は、所望の分解能に基づいて選択されてもよい。例えば、1度の角度限界は、約1mm又は実質的に1mmの誤差をもたらし得る。
幾つかの実施形態では、システムは、ユーザに多くの点を手動で選択させることなく、背景の複数の点における基準深さ点(即ち、3次元点)を格納する必要がある。この技術的課題を解決する為に、1つ以上の基準深さ点がデータベース内に格納され、配置され、関連付けられる。基準深さ点は、技術的課題を解決する為にデータベースにおいて必要な最小限の情報量である。データベースの1つの例示的な非限定的な実施形態は、例えばVV角、FE角又は夫々2.4と1.7の基準深さ点の測定値を表すマーカを重ねたグリッド(例えば、両軸で約-3から約+3まで約0.5間隔で)としてのマトリックスを含んでいる。データベースは、測定値に最も近いデータベース内のマーカ又は既知の値が2.5,1.5であると決定又は表示するように構成されると共に、その距離(sqrt((2.5-2.4)^2+(1.5-1.7)^2又は二乗和平方根(RSS)距離として計算)を、その基準深さ点に対する性能指数(FOM)として表現するように構成される。言い換えると、RSS距離はその基準深さ点のFOMである。基準深さ点及び関連するFOMがデータベースに格納されると、フラグ又は他のインジケータが、既知の値又は最も近いインデックス(この例では、2.5、1.5)でデータベースインデックスをマークする。新たに測定された基準深さ点に対して新たな低いFOMが計算された場合、新たな低いFOMと新たに測定された深さ点は、データベース内の以前のエントリを上書きすることになる。新たに測定された基準深さ点に対して新たな、等しい又は高いFOMが計算された場合、新たな等しい又は高いFOMはデータベース内に記録されない。
1つの例示的な実施形態が図77に示されている。本明細書に記載されるシステムの何れかによって実行される図77の方法は、ブロックS7700でN×Mエントリを含むデータベースを作成するステップを含む。顆頭ガイドが使用される前に、システムは、空のデータベース又は二次元マトリックスを作成する。データベースは、N×Mエントリからなり、ここで、Nは、取得されることになる内反/外反(VV)角度の数であり、Mは、取得されることになる屈曲/伸展(FE)角度の数である。NとMを決定する1つの方法は、アレイの最大点を維持しながら、最大希望目標角度から最小希望目標角度を減算し、精度に必要な分解能で割ることである。内外反の例では、最小約-3度、最大約+3度、分解能は約0.5度であり得る。更に例えば、最小値約-3.5度、最大値約+2度のVVで、分解能は約0.25度、最大値と最小値の端点を含めてN値は24となる。この場合、最大及び最小の端点を含めて14のN値が得られることになる。
本方法は更に、ブロックS7710で、データベースを、目標VV角度、目標FE角度、測定されたVV角度の任意の値(例えば、特定の単位のない任意の値であり得る)、任意の値(例えば、特定の単位を伴わない任意の値であり得る)測定されたFE角度、人為的に大きい性能指数(FOM)、(0,0,0)の基準点深さベクトル、及び基準深さが入力されたことを示す基準深さ有効フラグは既に偽に設定されている(即ち、偽とは2D配列又は行列のこの時点でデータが格納されていないことを意味する)ことを示す基準深さ有効フラグで初期化するステップを含む。ブロックS7710は、本明細書の他の場所で説明される方法の何れかを用いて、ユーザによる目標顆頭角への顆頭ガイドの調整に基づいてもよい。図74~75に示されるように、仮想的にペイントされた領域7414、7514は、システムに格納されている有効フラグを間接的に示している。
ブロックS7720を参照すると、方法は、目標顆頭角度に位置決めされたガイドの現在のVV角度又は現在のFE角度の内の一方又は両方を出力するステップを含む。
幾つかの実施形態では、本方法は、ブロックS7730において、データベース内の目標VV角度及び/又は目標FE角度に最も近い位置を決定するステップを含む。例えば、システムは、ブロックS7700で計算された目標角度に対する現在のVV角度及びFE角度の二乗和平方根(RSS)距離を表す性能指数(FOM)を計算してもよい。幾つかの実施形態では、この計算は、バイナリサーチ又は線形方法によって実行され得る。FOMは、SQRT((VV_current-VV_i)^2+(FE_current-FE_j)^2)に等しく、iとjはデータベース内の全ての点に対するFOMを計算する為に変動する。最小FOMは、データベース又は2D配列若しくはマトリックスにおいて、基準深さ点が格納されるべき最も近い点を表す。データベース内のi及びjのインデックスは、後続のステップの為に格納される。
本方法は更に、ブロックS7740で、基準深さが以前にデータベースに記録されていなかった場合、FOM、現在のVV角度、現在のFE角度、及びこれらのインデックスにおいてデータベースに格納すべき深さ基準点を計算するステップと、基準深さ有効フラグを真に設定するステップを含む。このフラグは、2Dアレイ又はマトリックス内のこのポイントに対するデータが正常に格納されたことを示す。
或いは、ブロックS7750で、基準深さが以前にデータベースに記録されていた場合、現在のVV角度のFOM又は現在のFE角度のFOMの一方又は両方をデータベース内のFOMと比較し、現在のFOMが以前に記録された基準深さより小さい場合に、データベース内の基準深さを上書きする。現在のFOMが格納されているものよりも大きい場合は、基準深さを上書きしない。
切断ガイドが装着され、深さ計算の為に基準深さ点が必要な場合、図78に示すような方法を使用して基準深さ点を検索する。図78に示すように、本方法は、ブロックS7800で、所望の深さ又は所望の角度の一方又は両方に配置された切断ガイドの現在のVV角度又は現在のFE角度の一方又は両方を決定するステップを含む。例えば、これは、大腿骨に対する切断ガイドのユーザ調整に基づき得る。
図78の方法は更に、ブロックS7810において、図77で上述したように、データベース内の目標VV角度又は目標FE角度の一方又は両方への最も近い位置を決定するステップを含む。ブロックS7810は、データベース内の目標角度に対する現在のVV角度及びFE角度の二乗和平方根(RSS)距離を表すFOMを計算するステップを含み得る。幾つかの実施形態では、これは、バイナリサーチ又は線形方法によって実行され得る。FOMは、SQRT((VV_current-VV_i)^2+(FE_current-FE_j)^2)に等しく、iとjはデータベース内の全ての点に対するFOMを計算する為に変動する。最小FOMは、基準深さ点が格納されるべきデータベース配列の最も近い点を表す。データベース内のi及びjのインデックスは、後続のステップの為に格納される。
幾つかの実施形態では、本方法は更に、ブロックS7820において、有効な基準深さ点がデータベースに記録されていない場合、又は有効な基準深さ点が(例えば、データベース内の位置の近くのローカル基準点を使用して)補間され得ない場合、基準点が利用できないことを示すインジケータを出力するステップを含む。
或いは、ブロックS7830に示すように、有効な基準深さ点がデータベースに記録された時、又は補間された時、有効な基準点が利用可能である旨のインジケータを出力する。ブロックS7820及びS7830のインジケータは、視覚インジケータ(例えば、頭部装着型ディスプレイのディスプレイ上での表示、点滅信号、点灯インジケータ、テキストインジケータ、ポップアップ等)、可聴インジケータ(例えば、ビープ、特定の音、特定の音等)、又は触覚インジケータ(例えば、頭部装着型ディスプレイ、支持モジュール、ヘルメット等のハプティクス又はフィードバック)であってよい。
図79A~79Bは、顆頭ガイド6612の一実施形態を示している。顆頭ガイド6612は、第1の端部7918及び第2の端部7916を有する本体7914を備えている。細長いハンドル7902は、本体7914の第1の端部7918から延びている。ユーザ106は、ハンドル7902を保持して顆頭ガイド6612の位置を制御する。ハンドル7902は、ユーザ106が微細な角度調整を行うことを可能にし、且つ、例えば、切断ガイド6616を大腿骨6602にピン止めすることから顆頭ガイド6612に加えられる外力に抵抗する為に、好適な長さにされる。顆頭ガイド6612は、第1の端部7918の少なくとも一部の側面領域7920から延びる少なくとも1つの平面表面7904(但し、幾つかの実施形態では2つ以上)を更に含む。平面表面7904は、1つ以上の大腿骨顆頭6604、6606上に載り、切除深さを計算する為のゼロ深さ平面を構築するように構成される。幾つかの実施形態では、平面表面は、大腿骨顆部に接する平面をシミュレートするように構成されている。顆頭ガイド7914は、顆頭ガイド6614のポーズを追跡する為に、平面表面7904上に配置された少なくとも1つのトラッカーを含む。トラッカマーキング7906は、システム10が顆頭ガイド6612のポーズを追跡することを可能にする為に、顆頭ガイド6612上に直接作られる。別の実施形態では、トラッカマーキング7906は、顆頭ガイド6612に剛体的に取り付けられた別個の構成要素上に作られる。平面表面上又は別個の構成要素上に配置されたトラッカーを使用して、1つ以上の有効な深さ基準点を決定する。
顆頭ガイド6612は、本体7914の第2の端部7916から延びるコネクタ7908を更に含み、図80に示すように、切断ガイド6616に結合するように構成される。幾つかの実施形態では、コネクタは取り外し可能である。
幾つかの実施形態では、本体7914は更に、例えば大腿骨のような骨の中に挿入する為にピン7922をそこを通して受け入れるように構成された開口7912を規定する。図79Bに示されるように、開口7912は、ピン7922が開口7912を通して挿入された時に顆頭ガイド6612を傾斜させることを可能にするように構成される、又は開口7912の直径D2、D3はそのようなことを可能にする大きさである。開口7912は、ピン7922が配置された状態で顆頭ガイド6612を傾斜させることができるように、オーバーサイズになっている。オーバーサイズの分量は、ピン軸を中心としたガイド6612の角度の傾斜をより多く又はより少なくできるように変更され得る。例えば、第1の位置における開口7912の直径D1は、ピン7922の直径と実質的に等しくてもよい。第2及び第3の位置における開口7912の直径D2、D3は、夫々、ピン軸7924を中心とするガイド6612の約+/-15度、約+/-10度、約+/-5度、約+/-2度等の角度傾斜を可能にする為にピン7922の直径より大きくてもよい。
幾つかの実施形態では、顆頭ガイド6612は、本体7914の第2の端部7916からコネクタ7908の反対方向に延びる解放機序7910を含む。解放機序7910は、切断ガイド6616を骨にピン留めする前に、顆頭ガイド6612を骨に結合し、切断ガイド6612が大腿骨6602にピン留めされた後に顆頭ガイド6612を除去するように構成される。
幾つかの実施形態において。顆頭ガイド6612の本体7914の第2の端部7916の少なくとも一部は、コネクタ7908及び解放機序7910がスライダ7922の対向する各側に挿入されるスライダ7922を受け入れるように構成されたスロット7926を規定している。スライダ7922は、ユーザがガイド6612を正しい角度に動かした後で、切断ブロックを大腿骨に向かって後方(後ろ)にスライドさせて、ピン止めの前に接触させることを可能にする。大腿骨との接触は、ピン止めの間、切断ガイド6616を支持し、所望の角度から押し退けられる傾向を最小にする。
幾つかの実施形態では、切断ガイド6616のピン止めは、切断ガイド6616に結合された顆頭ガイド6612を使用して1つ以上の有効深さ基準点を決定した後にのみ行われる。
図68A及び68Bは、骨に取り付けた後に調整可能であるように構成された切断ガイド6616の一実施形態を示す。固定ベース6806は、骨に強固に取り付けられる。可動切断ヘッド6802は切断スロット6804を含む。2つの外反調整ネジ6808は、正面平面における切断ヘッド6802の角度を調整する為に回され得るものであり、一方、屈曲調整ネジ6810は、垂直平面における切断ヘッド6802の角度を調整する為に回され得る。外反調整ネジ6808は、相互に噛み合うネジ山によって、夫々左及び右の調整ポスト6814及び6816を作動させる。これらの調整ポスト6814又は6816の何れかの軸方向運動は、次に、外反ピン6818の内の1つの周りで外反ブロック6812及び切断ヘッド6802を回転させる。一実施形態では、外反ピン6818は、大腿骨顆頭6604及び6606とほぼ同じ間隔で配置され、切断ヘッド6802が一方の顆部と整列した軸を中心に回転することを可能にするので、切断スロット6804からその顆部までの距離は、ユーザ106が切断ヘッド6802の角度を調整しても一定のままである。これは、前頭面におけるガイドの角度を調整すると、一方又は両方の顆部から測定される切除の深さも変化するという、既存の切断ガイドに共通する問題に対処するものである。更に図68Bを参照すると、切断ヘッド6802は、屈曲調整ネジ6810が回されると、屈曲ピン6820を中心に外反ブロック6812に対して矢状面内で枢動し、そこに組み込まれた相互嵌合ネジ山6822を介して切断ヘッド6802を作動させるように構成される。
図80は、顆頭ガイド6612に強固に取り付けられた切断ガイド6616の図である。近位面7904は、大腿骨6602と接触した状態で示されている。切断ガイド6616及び顆頭ガイド6612は、近位面7904と切断スロット6804との間の距離8002が、意図する大腿骨インプラントに対応する切除深さ、例えば、約9mmに一致するように構成される。9mmが典型的であるが、約7mm~約12mmの切除深さが使用されてもよい。深さが機械的に固定されているので、ユーザ106は、近位面7904を大腿骨6602上に定置しながら、組み立てられた切断ガイド6616及び顆頭ガイド6612の角度を調整するだけでよい。目標角度が達成されると、ユーザ106がハンドル7902を保持してピン留め中に顆頭ガイド6612の角度が変化するのを防止しながら、1つ以上のピン8004を切断ガイド6616を通して大腿骨6602に挿入する。顆頭ガイド6612は、その後、取り外される。大腿骨6602に対する切断ガイド6616の角度及び深さは、切断ガイド6616に依然として強固に取り付けられている追跡マーカ6620によって、システム10によって依然として測定され報告され得る。切断ガイド6616の位置が依然として許容可能である場合、ユーザ106は、次に、マーカ及び6620を取り外し、スロット6804を介して大腿骨6602を切除する。切断ガイド6616がピン留め中に移動した場合、その角度及び/又は深さは、切除の前に調整され得る。
VIII.他の医療処置
図10を参照すると、本発明は更に、システム10を使用して他の外科的手順を実行する方法を提供する(具体例は以下に提供される)。本方法は、視覚的マーカ及びIMUの追跡及び認識を含むが、これらに限定されないデータ収集(1000)を含む。このデータを使用して、作業ビューにおける複数のアイテムの相対的及び/又は絶対的な配向及び位置を決定する(1002)。外部データ(1004)がアルゴリズムに導入される。アルゴリズムを使用して、特定のユースケースの為にデータを処理し(1006)、必要な出力を決定する(1008)。このデータを拡張現実AR又は仮想現実VR出力ディスプレイ(1010)に使用して、医療従事者を支援する。
例えば、これらの方法は、股関節全置換術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)を使用して、データ収集(1000)及び股関節及び手術器具の位置及び配向を決定(1002)する。アルゴリズム(1006)を使用して、コンポーネントの位置決め、大腿骨頭部の切断、寛骨臼の位置決め、ねじの配置、脚長決定、及び再置換設定の為の寛骨臼内の良好な骨の位置決めを含むがこれらに限定されない解決策を決定する。
これらの方法は、全膝関節形成術にも使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)を使用して、データ収集(1000)及び膝、脛骨、及び手術器具の位置及び配向を決定(1002)する。アルゴリズム(1006)を使用して、脛骨骨切りの位置、角度、及び傾斜、ガイドの配置及び微調整、髄内ガイドの回避、及び/又は大腿骨骨切りの改善を含むがこれらに限定されない解決策を決定する。
これらの方法は、橈骨遠位端骨折の癒合不全の為の矯正骨切り術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に使用され、これは、変形癒合及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャンデータと組み合わされてもよい。アルゴリズム(1006)を使用して、骨切り術の位置、骨切りの角度、及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、複雑で、角度及び回転の修正を伴うことがある骨折を有する上腕骨、上腕骨遠位、橈骨、及び尺骨を含む腕骨の変形癒合に対する修正骨切り術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に使用され、これは、変形癒合及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャンデータと組み合わされてもよい。アルゴリズム(1006)を使用して、骨切り部位の位置、切断の角度、矯正の程度、及び結果の評価を含むが、これらに限定されない解決策を決定する。
これらの方法は、初期の変形性関節症及び不整列を修正する為の遠位大腿骨及び近位脛骨骨切り術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、骨切り位置及びスケール及び手術器具の位置及び配向の決定(1002)の為の術前CTスキャンデータ又は長脚X線画像と組み合わされ得る。アルゴリズム(1006)を使用して、骨切り部位の位置、切断の角度、矯正の程度、及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、寛骨臼形成不全の為の寛骨臼周囲骨切り術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、骨切り位置及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャンデータと組み合わされてもよい。アルゴリズム(1006)を使用して、骨切り部位の位置、角度、矯正の程度、及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、前の実施形態と同様の小児整形外科の骨切り術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、骨切り位置及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャンデータと組み合わされ得る。アルゴリズム(1006)を使用して、骨切り部位の位置、切断の角度、矯正の程度、及び結果の評価を含むが、これらに限定されない解決策を決定する。
これらの方法は、橈骨側副靱帯再建術(RCL)及びUCL再建術(トミー・ジョン)を含むがこれらに限定されない肘靱帯再建術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、靭帯再建及び手術器具の為の等尺点の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと結合されてもよい。アルゴリズム(1006)を使用して、トンネル配置の正確な位置決め及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、MCL、LCL、ACL、PCL及び後外側角再建術を含むが、これらに限定されない膝靭帯再建術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、靭帯再建及び手術器具の為の等尺点の位置及び配向の決定(1002)の為に術前のCTスキャン又はMRIデータと組み合わされ得る。アルゴリズム(1006)を使用して、トンネル配置の正確な位置決め、トンネル深さ、トンネル角度、移植片配置、及び結果の評価を含むが、これらに限定されない解決策を決定する。
これらの方法は、不安定性を修正する為の再建術を含むがこれに限定されない足首の靭帯再建術に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、靭帯再建及び手術器具の為の等尺点の位置及び配向(1002)を決定する為の術前CTスキャン又はMRIデータと組み合わされてもよい。アルゴリズム(1006)を使用して、トンネル配置の正確な位置決め、トンネル深さ、トンネル角度、及び結果の評価を含むが、これらに限定されない解決策を決定する。
これらの方法は、鎖骨へのトンネルの配置を含むがこれに限定されない、肩鎖骨(AC)関節再建外科処置に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、靭帯再建術及び手術器具の為の等尺点の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと組み合わされ得る。アルゴリズム(1006)を使用して、トンネル配置の正確な位置決め、トンネル深さ、トンネル角度、及び結果の評価を含むが、これらに限定されない解決策を決定する。
これらの方法は、再置換TSA/RSAを含む解剖学的及び逆全肩置換(TSA及びRSA)外科処置に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、上腕骨頭、関連マーカ、及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと組み合わせてもよいデータ収集(1000)の為に使用される。アルゴリズム(1006)を使用して、上腕骨頭部の切断及び関節骨配置、ベースプレート及びネジ、並びに関節骨補正の為のリーミング角度及びガイド配置の正確な位置決め、並びに結果の評価を含むが、これらに限定されない解決策を決定する。
これらの方法は、全足首関節形成術の外科手術に使用され得る。マーカ(例えば、100、108、110等)は、解剖学的マーカ及び器具の為のデータ収集(1000)に用いられ、これは、脛骨、腓骨、距骨、舟状骨及び他の関連マーカ及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと組み合わされ得る。アルゴリズム(1006)を使用して、脛骨頭切断の正確な位置決め、解剖学的軸の決定、及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、骨盤骨折、脛骨プラトー、寛骨臼及び骨盤の為の経皮的ねじ配置に使用され得るが、これらの領域に限定されるものではない。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に使用され、これは、解剖学的及び他の関連マーカ並びにネジを含む外科的器具の位置及び配向の決定(1002)の為に術前のCTスキャン又はMRIデータと組み合わされてもよい。アルゴリズム(1006)を使用して、ネジを受容する骨の正確な位置決め、回避すべき周囲の生体構造及び軟組織特徴、ネジの位置決め、(例えば、注射の)挿入角度、(例えば、注射の)挿入深さ、及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、足首、膝、股関節、肩、及び脊椎を含むがこれらに限定されない領域へのインオフィス(in-office)注射に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に使用され、これは、関連マーカ及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと組み合わされてもよい。アルゴリズム(1006)を使用して、効果を最大化し、内臓及び生体構造との相互作用を最小化する為に、注入位置、角度、及び深さの正確な位置決めを含むが、これらに限定されない解決策を決定する。
これらの方法は、腰椎及び胸椎を含む脊椎固定術の為の椎弓根ネジの配置に使用され得るが、これらの領域に限定されるものではない。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に使用され、これは、解剖学的及び他の関連マーカ並びにネジを含む手術器具の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと組み合わされてもよい。アルゴリズム(1006)を使用して、ネジを受容する骨の正確な位置決め、皮質の開口、頭蓋-尾側角形成又は同様のもの、正中-側方傾斜、ネジ挿入軌道、挿入の深さ、及び結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、赤外光、紫外線、足首、膝、股関節、肩、及び脊椎を含むがこれらに限定されない代替スペクトル画像の視覚化に使用され得る。マーカ(例えば、100、108、110等)は、データ収集(1000)の為に使用され、これには、関連するマーカ及び手術器具の位置及び配向の決定(1002)並びに神経、腫瘍、軟組織及び動脈を含む代替スペクトルにおいてより容易に見える解剖学的特徴の位置、位置及びタイプの決定の為の患者の特徴のハイライト用の代替スペクトル感度を有するデュアルカラーカメラ(複数可)及び/又は注入色素が含まれるが、それらに限定されない。アルゴリズム(1006)は、神経、腫瘍、関心対象の軟組織、動脈、及びこの技術で強化できる他の関心対象の特徴の正確な位置決めを含むが、それらに限定されない解決策を決定する為に使用される。
これらの方法は、腫瘍診断、ステージング、及び治癒的外科処置の為に使用され得る。解剖学的マーカ及び器具の為のマーカ(例えば、100、108、110等)は、データ収集(1000)に用いられ、これは、腫瘍位置及び手術器具の位置及び配向の決定(1002)の為に術前CTスキャン又はMRIデータと組み合わされてもよい。或いは、診断術中に、解剖学的マーカに対する腫瘍の定位が実行され得る。アルゴリズム(1006)を使用して、腫瘍部位の位置及び大きさの範囲、除去ガイダンス並びに結果の評価を含むがこれらに限定されない解決策を決定する。
これらの方法は、骨指標、神経、腫瘍、及び他の有機及び無機の物体を含むがこれらに限定されない、関心領域内の物体上の可視光点、又は不可視であるがカメラ可視である光点の投影に使用され得る。マーカ(例えば、100、108、110等)は、解剖学的データの為の外部データセットを補強するか、又はそれに取って代わる為に用いられ、先に説明したような物理的ポインタ又は器具の代わりに使用され得る。光点は、ユーザのヘッドディスプレイ等から表示され得る。光点は、パターン又は他の光の配列としても表示され得る。これらの光(複数可)は、関連するマーカ及び手術器具の位置及び配向の決定(1002)、並びに、透視、CTスキャン及びMRIデータを含むがこれらに限定されないデータセットの拡張の為に、患者上の特徴を強調する。アルゴリズム(1006)を使用して、先に説明した解決策を決定するが、代替又は追加の選択オプションを伴う。
これらの方法は、インプラントの低侵襲的な位置決め及び経皮的にロック用ネジを挿入する為に使用され得る。マーカ(例えば、100、108、110等)が、髄内釘の近位端に取り付けられる。別のマーカ(例えば、100、108、110等)をクロスネジ挿入器具に取り付ける。ロック用クロスネジの目標軌道を含む釘の仮想モデルが表示される。執刀医は、仮想クロスネジを目標軌道に位置合わせすることによって、クロスネジを挿入することができる。別の実施形態では、同じ方法を外部固定プレートに適用することができる。この場合、各穴に対して1つずつ、複数のロック用ネジ軌道を有する仮想ロック用プレートが表示されることになる。
これらの方法は、超音波画像データの視覚化の為に使用され得る。一応用例では、システムは、麻酔薬の注射等の医療処置中の針のガイダンスを支援できる。超音波画像は針の視覚化を支援できるが、針が組織内の超音波視野に入る前は無理であり、針が組織内の超音波視野に入るまでにはその軌道は既に確立されており、患者に痛みを与えることなく調整することができない。本発明のシステムは、挿入前と挿入後の両方において、針の追跡を支援できる。図10及び図31を参照すると、フィデューシャル3106が超音波トランスデューサ3104に取り付けられている。ユーザ106が超音波トランスデューサを使用して患者の内部生体構造の2D画像を収集すると、システム10は同時に超音波トランスデューサ3104の位置及び配向を追跡し、2D超音波画像1004を受信する。システム10は、任意選択的に及び/又は追加的に、患者1900を追跡することができる。次いで、システム10は、患者の2D画像を、患者に対する超音波トランスデューサ3104の位置及び配向と組み合わせ、取得した超音波トランスデューサと患者の位置及び配向データを用いて共通の基準フレームで2D画像を再構成し、再構成した画像又は3D画像をARヘッドセット3600のユーザ106に表示する。システム10は更に、画像解析アルゴリズム1006を使用して、画像データにおいて特定された解剖学的構造から作成された表面又は固体モデル1008を生成及び表示できる。システム10は、任意選択で、針等の1つ以上の物理的器具の追跡された位置に基づいて、3D撮像データに重畳された仮想器具を表示することができる。3D再構成の精度は、様々な組織における音速に起因する倍率の不一致等の誤差の影響を受ける為、仮想器具の相対位置は不完全である可能性がある。しかし、針が超音波の視野に入ると、画像内で針が直接可視化される為、その位置精度が向上する。この時、標準的な2D画像ではランダムな断面から識別することが難しい針先の定位において、針の3D再構成が有用となる。針の軸だけでなく、針の先端の位置を把握することは、ユーザが、隣接する組織に損傷を与えることなく、針を所望の深さまで挿入することを支援する。システム10は、プローブ(例えば、針、注射、ピン、ねじ等)の位置及び配向を追跡し続け、患者の内部生体構造の3D画像に対する軸(例えば、プローブの軸方向長さに沿った)及び/又はプローブの先端の位置を表示する。軸は、例えば、プローブの仮想軸又はプローブのグラフィック表現であってもよい。次に、プローブの先端は、患者の内部生体構造に対する位置に基づいて所望の位置まで前進させられる。任意選択で、図31に示すように、患者の外表面は、ステレオカメラを使用してマッピングされ、患者の内部生体の3D画像及び/又は超音波トランスデューサ3104と関連して表示される。
IX.追跡可能な器具及び装置のデータベース
本発明は、ARヘッドセット3600が、外科領域又は手術室領域にどのような器具が存在するかを識別できるようにする為に、器具及び装置の電子データベースを構築することを任意選択で含む。図29を参照すると、そのようなデータベースの構築を容易にする為に、シリアル化追跡ラベル2900がシステムに任意選択で含まれる。シリアル化追跡ラベル2900は、機械可読シリアル番号コード2902と、対人可読シリアル番号2904と、複数のフィデューシャル2906等の6自由度の光学姿勢追跡を促進する一組の光学的特徴とを含む。一実施形態では、機械可読番号コード2902パターンは、ARヘッドセット3600のカメラ(複数可)3904によって撮像され、機械視覚アルゴリズムを使用して医療器具の姿勢及び位置を決定する為に単独で使用され得る。別の実施形態では、シリアル番号画像2904は、カメラ(複数可)3904によって撮像され、機械視覚アルゴリズムを使用して医療器具のポーズ及び位置を決定する為に単独で使用され得る。更に別の実施形態では、追跡ラベル2900の物理モデル全体がカメラ(複数可)3904によって撮像され、機械視覚アルゴリズムを使用して医療器具のポーズ及び位置を決定する為に単独で使用され得る。別の実施形態では、追跡ラベル2900は、その後、光学認識を使用して自動的に検証することができるキット内の機器の非光学的識別の為の無線RFIDタグを構成又は含んでもよい。
図30を参照すると、拡張現実ヘッドセットを使用する手術で使用する為に、機器の要素タイプ及び物理パラメータをレジストレーションし、このデータを格納及び共有する為のシステムを示すフローチャートが提供されている。この例示的な実施形態では、シリアル化された追跡可能なラベルは、耐久性のある自己粘着材料に予め印刷されている。ラベルは、外科術中又は手術に至る準備作業(即ちバックテーブル手術)において最も有利に見られる位置に、Cアーム、インパクタ、ポインタ、又は処置において使用される他の任意の機器であり得るが、これらに限定されない機器の要素(3000)に固着される(3002)。次に、カメラ(複数可)3904で見ることによってラベルをレジストレーションし(3004)、ラベルを識別し、そのシリアル番号に関連するデータベースレコードを開始する。機器の要素に関連する関心対象形状も、追跡可能なステッカーに関連してレジストレーション(3006)され、格納され得る。例えば、Cアームの場合、レジストレーションスタイラスを使用して、撮像器の面の周囲の3点及びX線ビーム源の原点を表す点をレジストレーションしてもよい。これにより、ARヘッドセット3600のアルゴリズムによって使用する為の、ARヘッドセット3600座標フレームに対するX線ビーム源の座標フレーム、配向(ポーズ)データ、及び位置データが提供される。1つの別の実施形態では、カメラ3904はステレオカメラであり、撮像器の円筒形又は長方形の表面等の主要な機構の認識によってCアームジオメトリをスキャン及び認識する為に使用される。機器の要素に関する追加の関連仕様(3008)は、レコードに入力され得るものであり、機器のタイプ及びモデル、較正期日、電子インターフェースパラメータ、及び無線接続パスワードが含まれるが、これらに限定されない。デバイスの画像は、カメラ(複数可)3904でキャプチャされる(3010)。デバイスの機器ラベルの画像(3012)がキャプチャされる。これら全ての項目は、現在ARヘッドセット3600にローカルである完了したレコード(3014)に追加される。次に、レコードは、タイムスタンプが押され、中央データベース(3016)と共有される。これは、病院システム内のローカルサーバ、又はインターネットを介した任意のクラウドベースのストレージを含む任意のリモートサーバに配置されてもよい。データベースのアップロードは、Wi-Fi共通ネットワークプロトコル又は他の技術開示された手段を介して行われてもよい。上記の動作は、企業の担当者、病院に雇用された技術者、又はその他の訓練を受けた個人によって実行され得る。レジストレーションの不十分な機器がデータベースに入るのを防ぐ為、レコードの取り込みに管理者権限が必要であってもよい。
機器の要素が手術で使用されている時、カメラ(複数可)3904は、ラベルを追跡可能な機器の要素として認識し、シリアル番号を読み取る為に利用される(3018)。次いで、ARヘッドセット3600は、データベースに接続し(3020)、機器記録をダウンロードすることができる(3022)。このようにして、機器は、術中に6自由度の追跡可能な方法で使用され得る(3024)。データラベルを有する機器に適用可能な場合、レコード(3026)は又、機器自体に固有のデータで更新されてもよく、例えば、術中に機器によって捕捉された画像をアップロードし、又は、術中の機器の活動のログをログに捕捉する。手術における機器の使用を記述するログ・エントリは、データベースと、機器の利用を示す患者レコードに追加され得る。このようにして生成されたデータベースは、欠陥のある機器の使用状況を検索する等の様々な理由でマイニングされ得る。
システムは、術中に遭遇する手術器具やインプラントを認識する為にも使用され得る。縮尺に合わせた器具や装置のCADモデルのデータベースがメモリに保持される。術中、SLAM又は類似のマシンビジョンアルゴリズムは、シーン内のアイテムのトポグラフィをキャプチャし、器具及び装置に関するデータベースと比較できる。一致した場合、システムは、患者や手術で使用される他の器具に対する器具の位置や配向を追跡したり、その器具の使用に関連するモードに入る等、適切なアクションを取ることができる。例えば、股関節置換術において、寛骨臼インパクタが検出されると、カップ配置ナビゲーションの為のモードに入る。
システムは又、現在のソフトウェアワークフローステップの知識を使用して、外科技術者のようなORスタッフに適用可能な指示を提供してもよい。指示は、執刀医のシステムとネットワーク接続された遠隔モニタ又は第2のARヘッドセット3600に表示されてもよい。例えば、システムは、ワークフローに来る次のステップに関する情報を表示し、外科技術者又はアシスタントに、必要な器具を見つけ、識別し、又は組み立てる為の画像、ビデオ、又は音声の指示を任意選択で含む、準備すべき器具を指示してもよい。システムのカメラは、特定の器具又は器具セットを識別し、必要な器具をアシスタントに、ARヘッドセットディスプレイを介して指示する為に使用され得る。執刀医又は他の熟練ユーザは、オプションで、手術ワークフローの各ステップについてアシスタント又はスタッフに表示するカスタム指示を入力することができる。
又、本システムは、結果データ又は一般的な慣行に基づいて、インプラントの選択及び/又は配置を最適化する為に使用されてもよい。図65は、手術上の意思決定を支援する為にシステムを使用する為の例示的な方法を示すフローチャートである。システムは、先ず、センサスイート210を使用して、ネイティブの生体構造をスキャンし、マッピングする(ブロック6502)。任意選択で、解剖学的データは、CT又はMRI等の術前撮影によって、拡張されるか、又は置換されてもよい。次に、生体構造をデータベースと比較し、類似の生体構造を有する症例を識別して、システムは、インプラントの種類、アライメント、及び構成要素の位置決めを出力する(ブロック6504)。代替的に、又は追加的に、システムは、生体構造の1つ以上の特性を既知のインプラントのデータベース内の最適適合と一致させる1つ以上の形状一致アルゴリズムに基づいて、インプラントタイプを出力する。1つ以上の形状照合アルゴリズムに用いられる生体構造の1つ以上の特性は、術前撮影スキャンとは対照的に、術中撮影スキャンに基づくものであってよい。ユーザ106は、システム10が実際のアライメント及び位置決めデータを記録すると、手術をナビゲートし完了するように進む(ブロック6506)。システム10は、センサスイート210による自動スキャンによって、又は手動入力によって、ユーザ10によって選択されたインプラントタイプ及びサイズを記録するように進む(ブロック6508)。手術データは、利用可能であれば、手術の結果を含むデータベースにアップロードされる(ブロック6510)。更新されたデータベースは、ブロック6504で次のケースを知らせる為に使用される。提案は、データベースで利用可能であれば、所望の手術結果に基づいてもよいし、同じユーザ106又は類似の状況における他のユーザによる一般的な慣行に基づいてもよい。他のデータは、処置時間及び器具の使用に関するデータを含めて、術中に収集されてもよい。センサスイート2010は、マシンビジョンアルゴリズムを使用して、術中に器具を自動的に識別し、どの器具が各手術で使用されたか、及び器具が何時使用されたかを記録してもよい。病院は、この情報を、最も一般的に使用される器具を含むように器具セットを効率的に包装する為、又は、処置において特定の器具が何時必要であるかについてスタッフを訓練又は指導する為に使用してもよい。本発明は、好ましい実施形態及びその具体例を参照して本明細書に図示及び説明されたが、他の実施形態及び例が同様の機能を果たし、及び/又は同様の結果を達成し得ることは、当業者には容易に理解されよう。そのような同等の実施形態及び例は全て、本発明の精神及び範囲内に在り、それによって企図され、以下の請求項によって網羅されることが意図されている。
X.本明細書のシステム及び方法における音声及び/又は注視の使用
図84に示すように、幾つかの実施形態において、本明細書に記載されるデバイス又はシステムの何れか1つ以上が、注視制御を実装し得る。本明細書で使用する場合、「注視」は、拡張現実仮想オブジェクトが慣性空間(即ち、慣性固定オブジェクト8400)に位置付けられ固定されるが、ユーザによって相互作用されることも可能であるプロセスを意味する。ユーザは、頭部を回転させたり、部屋の中を移動したりすることができ、1つ以上の慣性固定オブジェクト8400は、ローカル環境又は慣性空間に固定されたままである。幾つかの実施形態では、レチクル8410は、アイピースディスプレイの中心又は中心領域に表示される。このレチクル8410が仮想オブジェクト8420の1つと視覚的に並ぶようにユーザが移動した場合、頭部装着型ディスプレイ及びナビゲーションシステムは、仮想オブジェクト8420を作動させるように構成される。一例として、システムは、例えば電球付きボタン等の仮想オブジェクトを提示する。仮想オブジェクトは、ローカル環境又はユーザを取り巻く環境において慣性空間内に固定される。システムは、電球のオブジェクトがアイピースの中心に在るレチクルと一直線上に在るように、ユーザの視界を方向付けるように促してもよい。レチクルと仮想オブジェクトとの間の相互作用が検出され、例えば、ユーザからのこの制御入力(レチクルと仮想オブジェクトとの位置合わせ)に基づいてヘッドランプがオン(又はオフ)にされる等、仮想オブジェクトがアクティブにされる。
この注視制御は、ユーザ入力選択(例えば、ボタン選択、オン又はオフ制御、スライダ制御等)、アルファ数値入力(例えば、仮想キーパッド上の選択を通じて)等を含むが、これに限定されない多くの相互作用に使用され得る。
しかしながら、頭部の位置に関係なく常にコンテンツを表示する頭部固定ディスプレイを有することがより有益である場合もある。これは、「頭部固定」オブジェクト、即ち、頭部装着型ディスプレイの動きに同期して仮想オブジェクトが移動するものと呼ばれる。図84で説明したレチクルは頭部固定オブジェクトであり、図84で示した仮想オブジェクト8400、8420は慣性固定オブジェクトである。
頭部固定オブジェクト対慣性固定オブジェクトは、外科手術において同時に使用する為に管理され得る。具体的には、慣性スクリーンは、情報データ及び注視制御を使用するシステムの制御に使用される。しかし、目標を追跡する際には、慣性スクリーンに加えて、ナビゲーションカメラの追跡シーンを示す「頭部固定」ビデオスクリーンが表示される。慣性スクリーンは、操作部が手術部位に非常に近くなるように配置され得る。執刀医が手術部位を見ると、トラッキングコンテンツを表示する頭部固定スクリーンが表示される。注視制御が同じ視野内に慣性で配置されている為、執刀医は最小限の頭部の動きでシステムを制御できる。
更に、図85に示すように、幾つかの実施形態では、本明細書に記載されるデバイス又はシステムの何れか1つ以上が、音声認識を実装してもよい。本明細書で使用される場合、「音声認識」は、可聴の音声を取り、それを処理して発話を認識するプロセスである。これは、「実行(go)」又は「中止(stop)」のような単語を含み得る。注視制御と音声認識の同時使用は、執刀医の注視制御への依存を減らす(そして、その結果、術中の特定の時間に好ましくない頭部の動きを引き起こす)。音声認識及び注視制御の両方をアクティブにすることは、一方又は他方を排他的に使用することが執刀医にとって低質な相互作用(即ち、音声認識が彼のコマンドを決定できない、又は長い手術には注視制御が面倒である)をもたらすリスクを低減する。
例えば、一実施形態では、システムは、例えば執刀医等のユーザに、レチクル又は仮想コントロール8410を使用して、例えば「前進」ボタン等のユーザ入力要素又は仮想オブジェクト8420を選択するように注視制御を促すことができる。システムは、ユーザからの注視制御ベースの入力を受け入れ、ユーザに「実行(go)」と言うように、「中止(stop)」と言うように、又はトラッキング等を開始するボタンを注視するように促す画面、ウィンドウ、又は他のインジケータ8430を表示するように構成される。幾つかの実施形態では、仮想オブジェクト8420、例えばボタンは、ラベル8440、例えば「実行(go)」と言うテキストをも含んでもよい。ユーザは、システムによって、トラッキングを起動する為に仮想オブジェクト8420を注視するか、「実行(go)」という単語を声に出して言うかの何れかを促される。トラッキングが開始されると、仮想オブジェクトラベル8440は、「中止」に変更されるか、又は例えば赤色等の別のインジケータに変更される。その後、システムは、トラッキングを非アクティブにする為に仮想オブジェクト8420を注視するか、「中止」という単語を言うようにユーザに促してもよい。
特に断らない限り、本明細書で描写された様々な構造の寸法及び幾何形状は、本発明を制限することを意図しておらず、他の寸法又は幾何形状が可能である。複数の構造部品は、単一の統合された構造によって提供され得る。或いは、単一の統合された構造は、別々の複数の構成要素に分割されることもあり得る。更に、本発明の特徴は、図示された実施形態の内の1つだけの文脈で説明されたかもしれないが、そのような特徴は、任意の所定の用途の為に、他の実施形態の1つ以上の他の特徴と組み合わされてもよい。又、本明細書における独自の構造の作製及びその操作も、本発明による方法を構成することが、上記から理解されるであろう。
好ましい実施形態及びその変形例のシステム及び方法は、少なくとも部分的に、コンピュータ可読命令を格納するコンピュータ可読媒体を受け入れるように構成された機械として具現化及び/又は実施され得る。命令は、好ましくは、システム及び支持モジュール内のプロセッサの1つ以上の部分及び/又はコンピューティングデバイスと統合されたコンピュータ実行可能なコンポーネントによって実行される。コンピュータ可読媒体は、RAM、ROM、フラッシュメモリ、EEPROM、光学装置(例えば、CD又はDVD)、ハードドライブ、フロッピードライブ、又は任意の適切な装置等の任意の適切なコンピュータ可読媒体に格納され得る。コンピュータ実行可能なコンポーネントは、好ましくは、汎用又は特殊用途のプロセッサであるが、任意の適切な専用ハードウェア又はハードウェア/ファームウェアの組み合わせで、代替的に又は追加的に命令を実行できる。
本明細書及び特許請求の範囲で使用する、単数形「a」、「an」及び「the」は、文脈によって明らかに指示されない限り、単数及び複数両方の言及を含む。例えば、用語「センサ」は、複数のセンサを含むことができ、又、含むことが企図されている。時として、特許請求の範囲及び開示は、「複数」、「1つ以上」、又は「少なくとも1つ」等の用語を含むことがあるが、そのような用語がないことは、複数が企図されないことを意味することは意図されておらず、そのように解釈されるべきでもない。
数値指定又は範囲(例えば、長さ又は圧力を定義する)の前に使用される場合、用語「約」又は「略」は、(+)又は(-)5%、1%又は0.1%で変動し得る近似を示す。本書に記載された全ての数値範囲は、記載された開始数と終了数を含むものである。用語「実質的に」は、デバイス、物質、又は組成物の大部分(即ち、50%を超える)又は本質的に全てを示す。
本明細書で使用する場合、用語「を備えた(comprising)」又は「含む(comprises)」は、デバイス、システム、及び方法が、言及された要素を含み、更に他の任意の要素を含み得ることを意味することを意図しているものとする。「本質的に~からなる」とは、デバイス、システム、及び方法が、言及された要素を含み、記載された目的の為の組み合わせに本質的な意義を有する他の要素を除外することを意味するものとする。従って、本明細書で定義された要素から本質的になるシステム又は方法は、請求項に記載の開示の基本的且つ新規な特性(複数可)に重大な影響を与えない他の材料、特徴、又はステップを除外しないであろう。「~からなる」とは、デバイス、システム、及び方法が、引用された要素を含み、些細な又は取るに足らない要素又はステップ以上のものを除外することを意味するものとする。これらのつなぎことば(transitional terms)の各々によって定義される実施形態は、本開示の範囲内である。
本明細書に含まれる例及び図解は、例示であって限定ではなく、主題が実施され得る特定の実施形態を示す。他の実施形態は、本開示の範囲から逸脱することなく、構造的及び論理的置換及び変更がなされ得るように、利用され、そこから派生してもよい。本発明の主題のそのような実施形態は、本明細書において、単に便宜上、「発明」という用語によって個別に又は集合的に言及されることがあり、複数の発明が実際に開示されている場合、本願の範囲を任意の単一の発明又は発明概念に自発的に限定することを意図している訳ではない。従って、本明細書では特定の実施形態が図示され、説明されているが、同じ目的を達成する為に計算された任意の配置が、示された特定の実施形態に置き換えられ得る。本開示は、様々な実施形態の任意の及び全ての適応又は変形を網羅することを意図している。上記の実施形態の組み合わせ、及び本明細書に具体的に記載されていない他の実施形態は、上記の説明を検討すれば、当業者には明らかであろう。
1 プロセッサ
10 感覚拡張システム
100、108、110 視覚的マーカ
102 プロセッシングユニット
104 表示デバイス
106 ユーザ
206 トラッキングカメラ
402 カメラ1
404 カメラ2
406 カメラN
408 慣性測定ユニット
410 無線機
416 マイクロフォン
418 スピーカ
420 触覚フィードバック
1100 股関節インパクタアセンブリ
1102 寛骨臼シェル
1104 光学マーカ
1106 寛骨臼インパクタ
1108 第1のフィデューシャル
1110 第2のフィデューシャル
1112 第3のフィデューシャル
1300 解剖学的マーカアセンブリ
1302 クランプアセンブリ
1304 光学マーカ
1400 ベース
1416 マーカ本体
3600 ARヘッドセット
3800 交換可能なバッテリ
3904 立体カメラ
6210 コンピュータモジュール
6212 支持モジュール
6302 バッテリコネクタ
6304 DC/DC降圧回路
6306 電話USBコネクタ
6308 CPU/無線機
6310 DC/DC LDOレギュレータ
6312 ワイヤレスチャージャー
6314 ロードスイッチ
6316 N-P FETスイッチ
6318 ヘッドセットUSBコネクタ

Claims (90)

  1. ヘルメット及びフェイスシールドと共に使用するように構成された自己完結型手術ナビゲーションシステムであって、
    術中にユーザによって装着される頭部装着型表示デバイスであって、
    前記表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    可視光と、
    赤外光と、
    前記センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットとを備えた、頭部装着型表示デバイスと、
    前記赤外光の周囲に配置され、前記赤外光からの光が放射される開口を規定する複数の側壁を含むシュラウドと、を備え、
    前記頭部装着型表示デバイスがヘルメットに取り付けられている時に、前記少なくとも1つのトラッキングカメラ、前記可視光、及び前記赤外光が、フェイスシールドの背後に配置されており、且つ、
    前記複数の側壁は、前記頭部装着型表示デバイスが前記ヘルメットに取り付けられた時に前記フェイスシールドに接触して、前記赤外光によって放射される光が前記少なくとも1つのトラッキングカメラに反射されることを防止すると共に、前記フェイスシールドのみを通過するようになっている、自己完結型手術ナビゲーションシステム。
  2. 前記可視光に結合された赤外光フィルタを更に備え、前記赤外光フィルタが前記可視光に結合された時に、前記可視光が赤外光を放射することが防止されるようにする、請求項1に記載のシステム。
  3. 関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを更に備え、第1のマーカが前記少なくとも1つのトラッキングカメラの視野内に在り、第2のマーカが前記少なくとも1つのトラッキングカメラの視野外に在り、
    前記プロセッサユニットは更に、
    前記少なくとも1つのトラッキングカメラの視野内の前記第1のマーカの位置を決定し、
    前記表示デバイス上にユーザへの仮想ガイドを表示して、前記第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導し、
    前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定する、ように構成されている、
    請求項1乃至2の何れか1項に記載のシステム。
  4. 支持モジュールを更に備え、前記支持モジュールが、
    前記支持モジュールのハウジングに取り外し可能に挿入される、ユーザ交換可能なモジュール式バッテリと、
    前記センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットと、を備えており、
    前記支持モジュールが、前記頭部装着型表示デバイスに電力及びデータを提供する為に前記頭部装着型表示デバイスに電気的に結合され、前記支持モジュールが、前記ユーザの頭部以外の位置で前記ユーザの身体に装着され、
    前記表示デバイスと前記支持モジュールが協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせずに、前記システムの全センシング及びコンピューティング能力を構成している、請求項1乃至3の何れか1項に記載のシステム。
  5. 前記複数の側壁に結合された前面が、前記フェイスシールドと近接し、前記フェイスシールドの曲率半径とほぼ一致する曲率半径を有する、請求項1乃至4の何れか1項に記載のシステム。
  6. 前記複数の側壁の内の1つ以上は、前記赤外光の中心軸に対して約10度~約20度の角度になっている、請求項1乃至5の何れか1項に記載のシステム。
  7. 自己完結型手術ナビゲーションシステムであって、
    術中にユーザによって装着される頭部装着型表示デバイスであって、
    前記表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートとを備えた、頭部装着型表示デバイスと、
    支持モジュールであって、
    前記支持モジュールのハウジングに取り外し可能に挿入される、ユーザ交換可能なモジュール式バッテリと、
    前記センサスイートからデータを受信し、少なくとも1つのマーカの位置と配向を計算するように構成されたプロセッサユニットと、を備えた支持モジュールとを備え、
    前記支持モジュールが、前記頭部装着型表示デバイスに電力及びデータを供給する為に、前記頭部装着型表示デバイスに電気的に結合され、前記支持モジュールが、前記ユーザの頭部以外の場所で前記ユーザの身体に装着され、
    前記表示デバイスと前記支持モジュールが協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせずに、前記システムの全センシング及びコンピューティング能力を構成している、システム。
  8. フェイスシールドとヘルメットの内の1つ以上を更に備え、前記表示デバイスは、前記フェイスシールド又はヘルメットに取り付けられる、請求項7に記載のシステム。
  9. 前記頭部装着型表示デバイスが赤外光を更に含む、請求項7乃至8の何れか1項に記載のシステム。
  10. 前記頭部装着型表示デバイスが、可視光と、前記可視光に結合された赤外光フィルタとを更に備え、前記赤外光フィルタが前記可視光に結合された時に前記可視光が赤外光を放射することを防止するようにした、請求項7乃至9の何れか1項に記載のシステム。
  11. 前記赤外光の周囲に配置され、前記赤外光からの光が放射される開口を規定する複数の側壁を含むシュラウドを更に備え、
    前記頭部装着型表示デバイスが前記ヘルメットに取り付けられた時、前記少なくとも1つのトラッキングカメラ及び前記赤外光が前記フェイスシールドの背後に配置され、
    前記複数の側壁は、前記頭部装着型表示デバイスが前記ヘルメットに取り付けられた時に前記フェイスシールドと近接して、前記赤外光によって放射された光が前記少なくとも1つのトラッキングカメラに反射されるのを防止すると共に、前記フェイスシールドのみを通過するようになっている、請求項7乃至9の何れか1項に記載のシステム。
  12. 関心対象物を追跡する為に前記関心対象物に固着された少なくとも1つのマーカを備え、前記少なくとも1つのマーカは前記少なくとも1つのトラッキングカメラの視野外に在り、前記プロセッサユニットが更に、
    前記センサスイートの1つ以上のセンサを使用して、前記ユーザの頭部の角度を追跡し、
    前記少なくとも1つのマーカが前記少なくとも1つのトラッキングカメラの視野内に配置された時の前記少なくとも1つのマーカの最後の既知の位置に基づいて、前記少なくとも1つのマーカの相対位置を計算し、前記最後の既知の位置は、前記頭部の角度に相対的であり、
    前記少なくとも1つのマーカの位置に前記ユーザを誘導する為に、前記表示デバイス上に前記ユーザへの仮想ガイドを表示する、ように構成されている、請求項7乃至11の何れか1項に記載のシステム。
  13. 関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを更に備え、第1のマーカが前記少なくとも1つのトラッキングカメラの視野内に在り、第2のマーカが前記少なくとも1つのトラッキングカメラの視野外に在り、
    前記プロセッサユニットは、更に、
    前記少なくとも1つのトラッキングカメラの視野内の前記第1のマーカの位置を決定し、
    前記第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導する為に、前記表示デバイス上に前記ユーザへの仮想ガイドを表示し、
    前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定する、ように構成されている、請求項7乃至12の何れか1項に記載のシステム。
  14. 更に、前記第1のマーカと前記第2のマーカの初期位置を取得し、
    前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内にない場合に、前記取得された初期位置に基づいて、前記第1のマーカに対する前記第2のマーカの位置を推定する、ことを含む、請求項7乃至13の何れか1項に記載のシステム。
  15. 更に、既知の解剖学的マーカに対する前記第1のマーカ及び前記第2のマーカの初期位置を取得し、
    前記既知の解剖学的マーカ間の距離を計算し、
    前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内にない場合、前記計算された距離に基づいて、前記第1のマーカに対する前記第2のマーカの位置を推定する、ことを含む、請求項7乃至14の何れか1項に記載のシステム。
  16. 更に、センサスイート内の1つ以上のセンサを使用して、前記ユーザの頭部の動きを追跡し、
    前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内に在った時の前記第2のマーカの最後の既知の位置に基づいて、前記第2のマーカの位置を計算する、ことを含む、請求項7乃至15の何れか1項に記載のシステム。
  17. 前記支持モジュールの前記ハウジングは更に、前記バッテリから前記プロセッサユニット及び前記頭部装着型表示デバイスに電力を導く為に配置された回路基板を含むベースを含む、請求項7乃至16の何れか1項に記載のシステム。
  18. 前記支持モジュールの前記ハウジングは、前記ブラケットに配置された時に前記バッテリ及び前記プロセッサユニットを安全且つ取り外し可能に拘束するように構成されたブラケットを更に備える、請求項7乃至17の何れか1項に記載のシステム。
  19. 更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを備え、前記少なくとも2つのマーカの一方又は両方が、前記少なくとも1つのトラッキングカメラの視野外に在り、
    前記プロセッサユニットは、更に、
    前記少なくとも2つのマーカの間に仮想コントロールを表示し、
    ユーザ入力に基づいて前記仮想コントロールと位置合わせされるように構成されたユーザ入力コントロールを表示し、
    前記ユーザが頭部を回した時に前記仮想コントロールの位置を調整して、前記ユーザ入力コントロールを前記仮想コントロールに位置合わせし、
    前記少なくとも2つのマーカが両方とも前記少なくとも1つのトラッキングカメラの視野内に在る場合に、前記少なくとも1つのトラッキングカメラの視野内で前記少なくとも2つのマーカを追跡する、ように構成されている、請求項7乃至18の何れか1項に記載のシステム。
  20. 自己完結型頭部装着型手術ナビゲーションシステムであって、
    表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    プロセッサユニットとを備え、前記プロセッサユニットは、前記センサスイートからデータを受信し、少なくとも2つのマーカの位置及び配向を以下によって計算するように構成されている:
    前記少なくとも1つのトラッキングカメラの視野内の前記少なくとも2つのマーカの内の第1のマーカの位置を決定し、
    前記表示デバイス上に前記ユーザへの仮想ガイドを表示して、前記少なくとも2つのマーカの内の第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導し、
    前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定する、
    自己完結型頭部装着型手術ナビゲーションシステム。
  21. ヘルメット及びフェイスシールドと共に使用するように構成された自己完結型手術ナビゲーションシステムであって、
    術中にユーザによって装着される頭部装着型表示デバイスを備え、前記頭部装着型表示デバイスが、
    前記表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    可視光源と、
    赤外光源と、を備えており、更に、
    前記センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットと、
    前記赤外光源の周りに配置された複数の側壁を含むシュラウドであって、前記複数の側壁が、前記赤外光源からの光が放射される開口を規定する、シュラウドと、を備え、
    頭部装着型表示デバイスがヘルメットに取り付けられた時に、前記シュラウド、前記少なくとも1つのトラッキングカメラ、前記可視光源、及び前記赤外光源はフェイスシールドの背後に配置され、
    前記複数の側壁は、前記頭部装着型表示デバイスが前記ヘルメットに取り付けられている時に前記フェイスシールドと接触して、前記赤外光源によって放射された光が前記少なくとも1つのトラッキングカメラに反射されるのを防止すると共に、前記フェイスシールドのみを通過するようになっている、自己完結型手術ナビゲーションシステム。
  22. 前記赤外光フィルタが前記可視光源に結合された時に前記可視光源が赤外光を放射することを防止するように、前記可視光源に結合された赤外光フィルタを更に備えた、請求項21に記載のシステム。
  23. 更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを備え、第1のマーカが前記少なくとも1つのトラッキングカメラの視野内に在り、第2のマーカが前記少なくとも1つのトラッキングカメラの視野外に在り、
    前記プロセッサユニットは、更に、
    前記少なくとも1つのトラッキングカメラの視野内の前記第1のマーカの位置を決定し、
    前記表示デバイス上に前記ユーザへの仮想ガイドを表示して、前記第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導し、
    前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定するように構成される、請求項21乃至22の何れか1項に記載のシステム。
  24. 支持モジュールを更に備え、前記支持モジュールが、
    前記支持モジュールのハウジングに取り外し可能に挿入される、ユーザが交換可能なモジュール式バッテリと、
    前記センサスイートからデータを受信し、少なくとも1つのマーカの位置及び配向を計算するように構成されたプロセッサユニットと、を備え、
    前記支持モジュールは、前記頭部装着型表示デバイスに電力及びデータを提供する為に前記頭部装着型表示デバイスに電気的に結合され、前記支持モジュールは、前記ユーザの頭部以外の場所で前記ユーザの身体に装着され、
    前記表示デバイスと前記支持モジュールが協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせずに、前記システムの全センシング及びコンピューティング能力を構成している、請求項21乃至23の何れか1項に記載のシステム。
  25. 前記複数の側壁に結合された前面が、前記フェイスシールドと近接し、前記フェイスシールドの曲率半径とほぼ一致する曲率半径を有する、請求項21乃至24の何れか1項に記載のシステム。
  26. 前記複数の側壁の内の1つ以上が、前記赤外光源の中心軸に対して約10~約20度の角度になっている、請求項21~25の何れか1項に記載のシステム。
  27. 自己完結型手術ナビゲーションシステムであって、
    術中にユーザによって装着される頭部装着型表示デバイスを備え、前記頭部装着型表示デバイスが、
    前記表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    支持モジュールと、を備え、前記支持モジュールが、
    前記支持モジュールのハウジングに取り外し可能に挿入される、ユーザ交換可能なモジュール式バッテリと、
    前記センサスイートからデータを受信し、少なくとも1つのマーカの位置と配向を計算するように構成されたプロセッサユニットと、を備えており、
    前記支持モジュールは、前記頭部装着型表示デバイスに電力及びデータを供給する為に、前記頭部装着型表示デバイスに電気的に結合され、前記支持モジュールは、前記ユーザの頭部以外の場所で前記ユーザの身体に装着され、
    前記表示デバイスと前記支持モジュールが協働して、外部センサ、カメラ、コンピュータ、又は他の電気機器を必要とせずに、前記システムの全センシング及びコンピューティング能力を構成している、自己完結型手術ナビゲーションシステム。
  28. フェイスシールド及びヘルメットの内の1つ以上を更に含み、前記表示デバイスが前記フェイスシールド又は前記ヘルメットに取り付けられる、請求項27に記載のシステム。
  29. 前記頭部装着型表示デバイスが赤外光源を更に備える、請求項27乃至28の何れか1項に記載のシステム。
  30. 前記頭部装着型表示デバイスが、可視光源と、前記可視光源に結合された赤外光フィルタとを更に備え、前記赤外光フィルタが前記可視光源に結合された時に前記可視光源が赤外光を放射することを防止するようにした、請求項27乃至29の何れか1項に記載のシステム。
  31. 前記赤外光源の周囲に配置され、前記赤外光源からの光が放射される開口を規定する複数の側壁を含むシュラウドを更に備え、
    前記頭部装着型表示デバイスがヘルメットに取り付けられた時に、前記シュラウド、前記少なくとも1つのトラッキングカメラ、及び前記赤外光源が、前記フェイスシールドの背後に配置され、
    前記複数の側壁は、前記頭部装着型表示デバイスが前記ヘルメットに取り付けられている時に前記フェイスシールドと近接して、前記赤外光源によって放射された光が前記少なくとも1つのトラッキングカメラに反射されるのを防止すると共に、前記フェイスシールドのみを通過するようになっている、請求項27乃至30の何れか1項に記載のシステム。
  32. 更に、関心対象物を追跡する為に前記関心対象物に固着された前記少なくとも1つのマーカを備え、前記少なくとも1つのマーカは前記少なくとも1つのトラッキングカメラの視野外に在り、前記プロセッサユニットは、更に、
    前記センサスイートの1つ以上のセンサを使用して、前記ユーザの頭部の角度を追跡し、
    前記少なくとも1つのマーカが前記少なくとも1つのトラッキングカメラの視野内に配置された時の前記少なくとも1つのマーカの最後の既知の位置に基づいて、前記少なくとも1つのマーカの相対位置を計算し、前記最後の既知の位置は、前記頭部の角度に相対的であり、
    前記少なくとも1つのマーカの位置に前記ユーザを誘導する為に、前記表示デバイス上で前記ユーザに対する仮想ガイドを表示する、ように構成されている、請求項27~31の何れか1項に記載のシステム。
  33. 更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを備え、第1のマーカが前記少なくとも1つのトラッキングカメラの視野内に在り、第2のマーカが前記少なくとも1つのトラッキングカメラの視野外に在り、
    前記プロセッサユニットは、更に、
    前記少なくとも1つのトラッキングカメラの視野内の前記第1のマーカの位置を決定し、
    前記表示デバイス上で前記ユーザに対して仮想ガイドを表示して、前記第1のマーカに対する前記第2のマーカの位置に前記ユーザを誘導し、
    前記仮想ガイドからの誘導に基づいて、前記少なくとも1つのトラッキングカメラで前記第2のマーカの位置を決定する、ように構成されている、請求項27乃至32の何れか1項に記載のシステム。
  34. 更に、前記第1のマーカと前記第2のマーカの初期位置を取得し、
    前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内にない場合に、前記取得された初期位置に基づいて、前記第1のマーカに対する前記第2のマーカの位置を推定する、ことを含む、請求項27乃至33の何れか1項に記載のシステム。
  35. 更に、既知の解剖学的マーカに対する前記第1のマーカ及び前記第2のマーカの初期位置を取得し、
    前記既知の解剖学的マーカ間の距離を計算し、
    前記第2のマーカが前記少なくとも1つの追跡用カメラの視野内にない場合に、前記計算された距離に基づいて、前記第1のマーカに対する前記第2のマーカの位置を推定する、ことを含む、請求項27乃至34の何れか1項に記載のシステム。
  36. 更に、前記センサスイート内の1つ以上のセンサを使用して、前記ユーザの頭部の動きを追跡し、
    前記第2のマーカが前記少なくとも1つのトラッキングカメラの視野内に在った時の前記第2のマーカの最後の既知の位置に基づいて、前記第2のマーカの位置を計算する、ことを含む、請求項27乃至35の何れか1項に記載のシステム。
  37. 前記支持モジュールの前記ハウジングは更に、前記バッテリから前記プロセッサユニット及び前記頭部装着型表示デバイスに電力を導く為に配置された回路基板を含むベースを備えている、請求項27乃至36の何れか1項に記載のシステム。
  38. 前記支持モジュールの前記ハウジングは更に、前記ブラケットに配置された時に前記バッテリ及び前記プロセッサユニットを安全且つ取り外し可能に拘束するように構成されたブラケットを備えている、請求項27乃至37の何れか1項に記載のシステム。
  39. 更に、関心対象物を追跡する為に前記関心対象物に固着された少なくとも2つのマーカを備え、前記少なくとも2つのマーカの一方又は両方が前記少なくとも1つのトラッキングカメラの視野外に在り、
    前記プロセッサユニットは、更に、
    前記少なくとも2つのマーカの間に仮想コントロールを表示し、
    ユーザ入力に基づいて前記仮想コントロールと位置合わせされるように構成されたユーザ入力コントロールを表示し、
    前記ユーザが頭部を回した時に前記仮想コントロールの位置を調整し、前記ユーザ入力コントロールを前記仮想コントロールと位置合わせし、
    前記少なくとも2つのマーカが両方とも前記少なくとも1つのトラッキングカメラの視野内に在る場合に、前記少なくとも1つのトラッキングカメラの視野内で前記少なくとも2つのマーカを追跡する、ように構成されている、請求項27乃至38の何れか1項に記載のシステム。
  40. 自己完結型頭部装着型手術ナビゲーションシステムであって、
    表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    プロセッサユニットとを備え、前記プロセッサユニットは、以下のステップによって前記センサスイートからデータを受信し、少なくとも2つのマーカの位置及び配向を計算するように構成されている:
    前記少なくとも2つのマーカが前記少なくとも1つのトラッキングカメラの視野内に在る位置に前記ユーザを誘導する為に、前記表示デバイス上の前記ユーザに仮想ガイドを表示し、前記仮想ガイドは、少なくとも1つのマーカに対する特定の位置で前記ユーザの視野に投影され、前記仮想ガイドは、一方又は両方のマーカが配置されている方向を示しており、
    前記少なくとも1つのトラッキングカメラを用いて、前記少なくとも2つのマーカの位置を決定する、
    自己完結型頭部装着型手術ナビゲーションシステム。
  41. 自己完結型頭部装着型手術ナビゲーションシステムであって、
    表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    1つ以上の関心対象物に固着され、前記1つ以上の関心対象物を追跡する為の少なくとも2つのマーカと、
    プロセッサユニットとを備え、前記プロセッサユニットが、
    前記センサスイートからデータを受信し、前記少なくとも2つのマーカの位置を以下によって計算する:
    前記少なくとも1つのマーカに相対する特定の位置で、仮想コントロールを前記ユーザの視野に投影し、
    ユーザ入力に基づいて前記仮想コントロールと位置合わせされるように構成されたユーザ入力コントロールを表示し、
    前記ユーザが頭部を回転させて前記ユーザ入力コントロールを前記仮想コントロールに位置合わせする時に、前記少なくとも2つのマーカが前記少なくとも1つのトラッキングカメラの視野に位置するように、前記仮想コントロールの位置を設定し、
    前記ユーザ入力コントロールを前記仮想コントロールに位置合わせすることによって、前記仮想コントロールをアクティブにし、
    前記少なくとも1つのトラッキングカメラの視野内に在る前記少なくとも2つのマーカを追跡する、
    ように構成されている、自己完結型頭部装着型手術ナビゲーションシステム。
  42. 関節中心を決定する為の頭部装着型手術ナビゲーションシステムであって、
    表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    骨を追跡する為に前記骨に固着された少なくとも1つの基準マーカであって、前記骨が関節で枢動するように又は前記関節に対して枢動するように相対的に位置決めされる、少なくとも1つの基準マーカと、
    前記関節に対して実質的に固定されるように配置された少なくとも1つの定置基準マーカと、
    プロセッサユニットと、を備え、前記プロセッサユニットは、
    前記骨上の点を基準座標フレームにレジストレーションし、
    前記レジストレーションされた点に基づいて骨座標フレームを作成し、
    前記基準座標フレームから骨座標フレームに変換し、
    前記少なくとも1つのトラッキングカメラを使用して、前記基準フレーム内の前記少なくとも1つの定置マーカの点を取得し、取得中に、前記視覚的表示の少なくとも一部の位置が、前記頭部装着型手術ナビゲーションシステムの移動と同期して移動し、
    前記骨座標フレームにおける関節中心を決定する、ように構成されている、頭部装着型手術ナビゲーションシステム。
  43. 決定することが、前記骨座標系における前記関節中心の位置を計算することを含む、請求項42に記載のシステム。
  44. 決定することが、前記関節中心を決定する為に最適推定フィルタを介して実質的に連続的に処理することを含む、請求項42に記載のシステム。
  45. 決定することが、全ての点の取得後に、バッチ処理を行って前記関節中心を決定することを含む、請求項42に記載のシステム。
  46. 前記骨が、大腿骨、脛骨、上腕骨、橈骨、又は椎体の内の1つである、請求項42乃至45の何れか1項に記載のシステム。
  47. 前記関節が、股関節、膝関節、肩関節、肘関節、足関節、椎体の内の1つである、請求項42乃至46の何れか1項に記載のシステム。
  48. 定置は、慣性空間に固定されることを更に含む、請求項42乃至47の何れか1項に記載のシステム。
  49. 切除角を設定する前に顆頭表面をレジストレーションする方法であって、前記方法は頭部装着型手術ナビゲーションシステムによって実行され、前記方法はプロセッサユニットによって実行され、
    前記頭部装着型手術ナビゲーションシステムのディスプレイ上に、1つ以上の領域を含むターゲットを表示するステップと、
    顆頭ガイドから受け取った1つ以上の角度をリアルタイムで表す可動式アイコンを、前記ディスプレイ上に提供するステップと、
    前記ターゲット内の前記1つ以上の領域に対する前記可動式アイコンの位置を調整する為の1つ以上のユーザ入力を受信するステップと、
    前記可動式アイコンの位置の調整中に前記可動式アイコンが相互作用する前記ターゲットの前記1つ以上の領域の何れかに視覚的マーカを前記ディスプレイ上に出力し、前記視覚的にマークされた領域は、捕捉された有効な深さ基準点を示す、ステップと、を含む方法。
  50. 以前に捕捉された有効な深さ基準点の記録を防ぐ為に、前記可動式アイコンの動きを制限するステップとを更に含む、請求項49に記載の方法。
  51. 前記捕捉された有効な深さ基準点が格納されるデータベースを形成するステップを更に含む、請求項49乃至50の何れか1項に記載の方法。
  52. 前記ターゲットがグリッド又はブルズアイである、請求項49乃至51の何れか1項に記載の方法。
  53. 前記1つ以上の領域の各々は、前記方法が、前記可動式アイコンが前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨の前記ユーザへの指示を前記ディスプレイ上に出力するステップを前記方法が含むように順次ハイライトされる、請求項49乃至52の何れか1項に記載の方法。
  54. 前記1つ以上の領域の内の任意の1つは、前記可動式アイコンが前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨の前記ユーザへの指示を前記ディスプレイ上に出力するステップを前記方法が含むようにハイライトされる、請求項49乃至53の何れか1項に記載の方法。
  55. 前記ハイライト領域が前記可動式アイコンと少なくとも部分的に重なった時に、前記ハイライト領域を不活性化し、前記1つ以上の領域の第2の領域をハイライトするステップを更に含む、請求項53又は54の何れか1項に記載の方法。
  56. 前記顆頭ガイドを取り外し、切断ガイドを取り付けるようにユーザに促すステップを含む、請求項49乃至55の何れか1項に記載の方法。
  57. 切断ガイドによって規定された現在の切除面から深さ基準面に対応する有効深さ基準点の内の1つまでの距離に基づいて切除深さを計算するステップを更に含む、請求項56に記載の方法。
  58. 顆頭ガイドを配設するステップを更に含み、前記顆頭ガイドが、
    第1の端部及び第2の端部を有する本体と、
    前記第1の端部の少なくとも一部の側面領域から延びる少なくとも1つの平面表面であって、前記平面表面は、1つ以上の大腿骨顆部に載り、切除深さを計算する為のゼロ深さ面を構築するように構成される、少なくとも1つの平面表面と、
    前記顆頭ガイドのポーズを追跡する為に、前記少なくとも1つの平面表面上に配置された少なくとも1つのトラッカーと、
    前記本体の第2の端部から延び、切断ガイドに結合するように構成されたコネクタと、
    を備えている、請求項49乃至57の何れか1項に記載の方法。
  59. 前記顆頭ガイドが、前記本体の前記第1の端部から延びる細長いハンドルを更に備える、請求項58に記載の方法。
  60. 前記本体が、骨に挿入する為のピンをその中に受け入れるように構成された開口を更に規定する、請求項58乃至59の何れか1項に記載の方法。
  61. 前記開口の直径が、ピンが前記開口を通して挿入される時に顆頭ガイドを傾斜させることを可能にするような大きさである、請求項60に記載の方法。
  62. 前記本体の前記第2の端部から前記コネクタと反対方向に延びる解放機序を更に備え、前記解放機序は、前記切断ガイドを前記骨にピン留めする前に、前記顆頭ガイドを前記骨に結合するように構成されている、請求項58乃至61の何れか1項に記載の方法。
  63. 前記本体の前記第2の端部の少なくとも一部はスロットを規定し、前記スロットは、スライダを受け入れ、前記スライダ内に前記コネクタ及び前記解放機序が前記スライダの対向する両側に挿入されるように構成されている、請求項58乃至62の何れか1項に記載の方法。
  64. 前記少なくとも1つの平面表面は、大腿骨顆部に接する平面をシミュレートするように構成される、請求項58乃至63の何れか1項に記載の方法。
  65. 更に、前記少なくとも1つの平面表面上に配置された前記少なくとも1つのトラッカーを使用して前記顆頭ガイドを追跡し、1つ以上の有効な深さ基準点を決定するステップを含む、請求項49乃至64の何れか1項に記載の方法。
  66. 前記切断ガイドに結合された前記顆頭ガイドを使用して前記1つ以上の有効な深さ基準点を決定した後にのみ前記切断ガイドをピン留めするステップを更に含む、請求項49乃至65の何れか1項に記載の方法。
  67. 前記コネクタが取り外し可能である、請求項58に記載の方法。
  68. 切除角を設定する前に顆頭表面をレジストレーションする方法であって、前記方法は、頭部装着型手術ナビゲーションシステムによって実行され、前記方法は、プロセッサによって実行され、且つ、
    前記頭部装着型手術ナビゲーションシステムのディスプレイ上に、1つ以上の領域を含むターゲットを表示するステップと、
    顆頭ガイドから受信した1つ以上の角度をリアルタイムで受信し、ディスプレイに表示するステップと、
    前記ターゲット内の前記1つ以上の領域に関して前記顆頭ガイドを調整する為の1つ以上のユーザ入力を受信するステップと、
    前記ディスプレイ上に、前記ターゲットの前記1つ以上の領域の何れかに視覚的マーカを出力し、前記視覚的にマークされた領域は、捕捉され有効な深さ基準点を示す、ステップと、を含む方法。
  69. 以前に捕捉された有効な深さ基準点の記録を制限するステップを更に含む、請求項68に記載の方法。
  70. 前記キャプチャされた有効な深さ基準点が格納されるデータベースを形成するステップを更に含む、請求項68乃至69の何れか1項に記載の方法。
  71. 前記ターゲットがグリッド又はブルズアイである、請求項68乃至70の何れか1項に記載の方法。
  72. 前記1つ以上の領域の各々は、前記顆頭ガイドの角度が前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨のユーザへの指示を前記ディスプレイ上に出力することを前記方法が含むように順次ハイライトされる、請求項68乃至71の何れか1項に記載の方法。
  73. 前記1つ以上の領域の内の任意の1つは、前記顆頭ガイドの角度が前記ハイライト領域と少なくとも部分的に重なるまで前記顆頭ガイドを前記顆頭に対して移動させる旨のユーザへの指示を前記ディスプレイ上に出力することを前記方法が含むように強調されている、請求項68乃至72の何れか1項に記載の方法。
  74. 前記ハイライト領域と前記顆頭ガイドの角度とが少なくとも部分的に重なった時に、前記ハイライト領域を不活性化し、前記1つ以上の領域の内の第2の領域をハイライトするステップを更に含む、請求項68乃至73の何れか1項に記載の方法。
  75. 前記顆頭ガイドを取り外し、切断ガイドを取り付けるようにユーザに促すステップを含む、請求項68乃至74の何れか1項に記載の方法。
  76. 前記切断ガイドによって規定された現在の切除面から深さ基準面に対応する有効な深さ基準点の内の1つまでの距離に基づいて切除深さを計算するステップを更に含む、請求項68乃至75の何れか1項に記載の方法。
  77. 顆頭ガイドを配設するステップを更に含み、前記顆頭ガイドが、
    第1の端部及び第2の端部を有する本体と、
    前記第1の端部の少なくとも一部の側面領域から延びる少なくとも1つの平面表面であって、前記平面表面は、1つ以上の大腿骨顆部に載って、切除深さを計算する為のゼロ深さ平面を構築するように構成される、平面表面と、
    前記顆頭ガイドの姿勢を追跡する為に、前記少なくとも1つの平面表面上に配置された少なくとも1つのトラッカーと、
    前記本体の第2の端部から延び、前記切断ガイドに結合するように構成されたコネクタと、
    を備えている、請求項68乃至76の何れか1項に記載の方法。
  78. 前記顆頭ガイドが、前記本体の前記第1の端部から延びる細長いハンドルを更に備える、請求項77に記載の方法。
  79. 前記本体が、前記骨の中に挿入する為のピンをその中に受け入れるように構成された開口を更に規定する、請求項77乃至78の何れか1項に記載の方法。
  80. 前記開口の直径が、ピンが前記開口を通して挿入される時に前記顆頭ガイドが傾くことを可能にするような大きさである、請求項78に記載の方法。
  81. 前記コネクタの反対方向に前記本体の第2の端部から延びる解放機序を更に備え、前記解放機序は、前記切断ガイドを前記骨にピン留めする前に前記顆頭ガイドを前記骨に結合するように構成される、請求項77乃至79の何れか1項に記載の方法。
  82. 前記本体の前記第2の端部の少なくとも一部は、スライダを受け入れるように構成されたスロットを規定し、前記スロット内に、前記コネクタと前記解放機序が前記スライダの対向する側に挿入される、請求項77乃至80の何れか1項に記載の方法。
  83. 前記少なくとも1つの平面表面は、大腿骨顆部に接する平面をシミュレートするように構成されている、請求項77乃至81の何れか1項に記載の方法。
  84. 前記少なくとも1つの平面表面上に配置された前記少なくとも1つのトラッカーを使用して前記顆頭ガイドを追跡して、1つ以上の有効な深さ基準点を決定するステップを更に含む、請求項77乃至82の何れか1項に記載の方法。
  85. 前記切断ガイドに結合された前記顆頭ガイドを使用して1つ以上の有効な深さ基準点を決定した後にのみ前記切断ガイドをピン留めするステップを更に含む、請求項77乃至83の何れか1項に記載の方法。
  86. 股関節の中心を決定する為の頭部装着型手術ナビゲーションシステムであって、
    表示デバイス上に視覚的表示を生成する為の表示生成器と、
    少なくとも1つのトラッキングカメラを有するセンサスイートと、
    大腿骨を追跡する為に前記大腿骨に固着された少なくとも1つの基準マーカであって、前記大腿骨が股関節で枢動するように、又は股関節に対して相対的に枢動するように位置決めされている、少なくとも1つの基準マーカと、
    前記股関節に対して実質的に固定されるように配置された少なくとも1つの定置基準マーカと、
    プロセッサユニットとを備え、前記プロセッサユニットが、
    前記大腿骨上の点を基準座標フレームにレジストレーションし、
    前記レジストレーションされた点に基づいて大腿骨座標フレームを作成し、
    前記基準座標フレームから前記大腿骨座標フレームに変換し、
    前記少なくとも1つのトラッキングカメラを使用して、前記基準フレーム内の前記少なくとも1つの定置マーカの点を取得し、取得中に、前記視覚的表示の少なくとも一部の位置が、前記頭部装着型手術ナビゲーションシステムの移動と同期して移動し、
    前記大腿座標フレームにおける股関節中心を決定する、ように構成されている、頭部装着型手術ナビゲーションシステム。
  87. 決定することが、前記大腿座標系における前記股関節中心の位置を計算することを含む、請求項85に記載のシステム。
  88. 決定することが、前記股関節中心を決定する為に最適推定フィルタを介して実質的に連続的に処理することを含む、請求項85に記載のシステム。
  89. 決定することが、全ての点の取得後に、バッチ処理を行って前記股関節中心を決定することを含む、請求項85に記載のシステム。
  90. 定置は、慣性空間に固定されることを更に含む、請求項85乃至88の何れか1項に記載のシステム。
JP2022548406A 2020-02-10 2021-02-09 医療処置における感覚拡張の為のシステム及び方法 Pending JP2023513692A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/786,938 US11071596B2 (en) 2016-08-16 2020-02-10 Systems and methods for sensory augmentation in medical procedures
US16/786,938 2020-02-10
PCT/US2021/017222 WO2021163039A1 (en) 2020-02-10 2021-02-09 Systems and methods for sensory augmentation in medical procedures

Publications (2)

Publication Number Publication Date
JP2023513692A true JP2023513692A (ja) 2023-04-03
JPWO2021163039A5 JPWO2021163039A5 (ja) 2024-02-05

Family

ID=77291896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022548406A Pending JP2023513692A (ja) 2020-02-10 2021-02-09 医療処置における感覚拡張の為のシステム及び方法

Country Status (6)

Country Link
EP (1) EP4103088A4 (ja)
JP (1) JP2023513692A (ja)
KR (1) KR20220141308A (ja)
CN (1) CN115361916A (ja)
AU (1) AU2021220161A1 (ja)
WO (1) WO2021163039A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019245851A1 (en) 2018-06-19 2019-12-26 Tornier, Inc. Virtual guidance for ankle surgery procedures
US20230293238A1 (en) * 2022-03-18 2023-09-21 DePuy Synthes Products, Inc. Surgical systems, methods, and devices employing augmented reality (ar) for planning
CN114832243A (zh) * 2022-03-31 2022-08-02 西安大医集团股份有限公司 位置调整方法、头显设备及放疗***
DE102022107688A1 (de) * 2022-03-31 2023-10-05 Aesculap Ag Tag für Tracking und Navigation eines Medizinprodukts
EP4331664A1 (en) * 2022-08-31 2024-03-06 Vision RT Limited A system for monitoring position of a patient
CN117687221B (zh) * 2024-02-04 2024-04-12 中国民用航空飞行学院 一种基于飞行模拟检查使用的vr眼镜

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7192151B2 (en) * 2004-12-21 2007-03-20 Depuy Products, Inc. Light array for a surgical helmet
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
GB2536650A (en) * 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11071596B2 (en) * 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
WO2018063528A1 (en) * 2016-08-16 2018-04-05 Insight Medical Systems, Inc. Systems for sensory augmentation in medical procedures
CA3037725A1 (en) * 2016-09-22 2018-03-29 Magic Leap, Inc. Augmented reality spectroscopy

Also Published As

Publication number Publication date
AU2021220161A1 (en) 2022-08-18
EP4103088A4 (en) 2024-03-20
EP4103088A1 (en) 2022-12-21
CN115361916A (zh) 2022-11-18
KR20220141308A (ko) 2022-10-19
WO2021163039A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
US11071596B2 (en) Systems and methods for sensory augmentation in medical procedures
AU2018316092B2 (en) Systems and methods for sensory augmentation in medical procedures
US10398514B2 (en) Systems and methods for sensory augmentation in medical procedures
AU2019270999B2 (en) Surgical system for cutting an anatomical structure according to at least one target plane
JP2023513692A (ja) 医療処置における感覚拡張の為のシステム及び方法
US11607229B2 (en) Surgical system for cutting an anatomical structure according to at least one target plane
US8109942B2 (en) Computer-aided methods, systems, and apparatuses for shoulder arthroplasty
JP4754215B2 (ja) コンピュータ支援膝関節形成術の器具類、システム、および方法
JP2022535738A (ja) 外科手術に拡張現実を利用するためのシステム及び方法
JP6259757B2 (ja) コンピュータ支援手術の搭載器具追跡システム
JP2020511239A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
US20050197569A1 (en) Methods, systems, and apparatuses for providing patient-mounted surgical navigational sensors
KR20150127031A (ko) 가상 구속 경계들을 확립하기 위한 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240126