JP2008526422A - 鍵穴脳神経外科用画像ガイドロボットシステム - Google Patents

鍵穴脳神経外科用画像ガイドロボットシステム Download PDF

Info

Publication number
JP2008526422A
JP2008526422A JP2007550932A JP2007550932A JP2008526422A JP 2008526422 A JP2008526422 A JP 2008526422A JP 2007550932 A JP2007550932 A JP 2007550932A JP 2007550932 A JP2007550932 A JP 2007550932A JP 2008526422 A JP2008526422 A JP 2008526422A
Authority
JP
Japan
Prior art keywords
head
subject
robot
alignment jig
alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007550932A
Other languages
English (en)
Inventor
レオ ジョスコヴィッツ、
モーシェ ショーハム、
ロイベン シャミア、
モーティ フライマン、
エリ ゼハビ、
イーガル ショーシャン、
Original Assignee
メイザー サージカル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メイザー サージカル テクノロジーズ リミテッド filed Critical メイザー サージカル テクノロジーズ リミテッド
Publication of JP2008526422A publication Critical patent/JP2008526422A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/72Micromanipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • A61B90/13Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints guided by light, e.g. laser pointers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3405Needle locating or guiding means using mechanical guide means
    • A61B2017/3407Needle locating or guiding means using mechanical guide means including a base for support on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】最小限の侵襲性鍵穴の脳神経外科において、正確で自動的な標的化のための画像ガイドシステムを提供する。
【解決手段】このシステムは、針、プローブ又はカテーテル挿入のための機械的ガイドに取り付けられた小型ロボットからなる。手術中に、ロボットは頭部クランプ又は患者頭蓋骨に直接、取り付けられる。そのロボットは自動的に、それ自身を所定の入口点に関して位置付け、患者の顔立ちの手術中3D面走査と位置合わせジグとの形態上の位置合わせの後に、手術前CT/MRI画像内を標的にする。位置合わせ処置は新規な3方向スキームであり、手術中表面走査は、位置合わせジグが手術前CT/MRI画像から生成されるモデルに位置合わせされること、ロボット位置が位置合わせジグに関して既知であること、及び入口及びターゲット点が、ロボット位置が入口及びターゲット点に関連付けることができるように、手術前CT/MRI画像から既知であることを含む。
【選択図】図1A

Description

本発明はロボット支援外科手術の分野に関し、特に、患者取付け小型ロボットを使用して鍵穴脳神経外科適用に使用するロボット支援外科手術の分野に関する。
手術前CT/MRI画像に基づいて、脳内部において腫瘍、精神的傷及び形態学上の構造をプローブ、針、カテーテル又は電極で正確に標的にすることは多数の鍵穴脳神経外科処置においてケアの標準である。処置は、とりわけ、腫瘍生検標本、脳水腫、脳深部血腫の吸引及び排出、オマヤカテーテル挿入、脳深部刺激及び最小アクセス開頭を含む。すべての場合において、外科用器具の誤配置は、出血及びひどい神経的な合併症はもとより、非診断組織又はカテーテルの誤配置を生じる。これらの最小限の侵襲性の処置は外科的行為の正確性及び着実性を高めるサポートシステムの援助なしに行うことは困難である。
これの処置は全て次の4つの重要な共通の特性を有する。
1)それらの処置は頭蓋骨硬膜に開かれた3〜30mmの鍵穴を介して行われる最小限の侵襲性外科的処置(MIS)である。
2)それらの処置は正確な標的及び機械的ガイドサポートを要求する。
3)標的及び入口ポイントはCT/MRI画像において手術前に決定される。
4)ほとんど又はまったく脳シフトがMISアプローチにより生じない。
かかる全ての侵襲性鍵穴脳神経外科は、次の概要に示されるように、手術前及び手術中に類似の実施要項に従う。
1.手術前
(a)画像化前準備:頭蓋骨ねじを埋め込む、及び/又は皮膚マーカを貼り付ける。
(b)画像獲得:CT/MRI画像を獲得する。
(c)計画:手術前計画を念入りに作る。:標的及び入口ポイントを識別する。
2.手術中
(a)準備:サポートシステムを設定し、入口ポイント切開を行う。
(b)局部:針/プローブを入口ポイントに配置し、方向を調節する。
(c)ガイダンス:針/プローブ挿入に機械的ガイドを提供する。
(d)挿入:針を適切な速度及び力で計画した深さに挿入する。
(e)必要に応じて、ステップ(a)〜(d)を繰り返す。
最小限侵襲性鍵穴脳神経外科の実行に使用される4つの主なタイプのサポートシステムがある。
1.定位フレーム、
2.ナビゲーションシステム、
3.ロボットシステム、及び
4.介入の画像処理システム。
これらのシステムの各々は、現場で活動する者によって一般的に知覚されるように、相対的な利点及び不利な点を有し、各システムにはその支持者及び反対者がいる。次は、各々の利点及び不利な点の示唆リストを有する概要である。
1.定位フレーム、例えば米国マサチューセッツ州バーリングトンのラジオニクス社によって供給される定位フレーム、又はスウェーデンス国ストックホルムのエレクタABによって供給されるLeksell Gamma Knife(登録商標)において使用される定位フレームは患者頭蓋骨に堅固に取り付けられた手動調節可能フレームで正確な位置決めを提供する。画像獲得前に、4つのフレーム位置決めねじは患者頭蓋骨に埋め込まれる。画像処理調整ボックスはフレームに取り付けられ、また患者はそれで走査される。外科医は画像上の脳標的及び入口ポイントを識別し、対応定位フレーム座標を計算する。手術中、定位フレームは計算座標に従って、調節され、埋込ねじで固定された患者頭蓋骨に取り付けられる。次に、頭蓋骨開口の鍵穴外科手術は行われる。選択的に、線形駆動針挿入ガイドは針挿入及び針後退を自動化するためにフレーム上に取り付けられる。定位フレームの利点は、1)1970年代に導入されるものがケアの現在の標準であり、また広範囲に使用され、臨床検査され、2)それらは比較的に正確(2mm以下の標的)であり、また針挿入の堅固な支持及びガイドを提供し、3)それらは他のシステムに比較して比較的に安価(米国ドル50K)であることである。定位フレームの一般的に知覚される不利益な点は、1)それらが局部麻酔下で頭部ねじの手術前の埋込を要求し、2)それらは外科手術前及び間に患者に不快感を生じさせ、3)それらは大きく、扱いにくく、外科手術中手動調節を要求し、4)それらは、外科手術中、患者頭部の固定を要求し、5)外科手術中に新しい標的ポイントを選択することはフレーム座標を求める新たな手作業計算を要求し、また6)それらは針位置の実時間フィードバック及び確認を提供しないことである。
2.ナビゲーションシステム、例えば米国ミネソタ州ミネアポリスのメドロトニック及びドイツ国ハイムシュテッテンのブレインラボAGによって供給されるものは、標的が規定された手術前画像に手で持つ器具の配置を実時間で示す。かかるシステムは、ブレインラボに譲渡される米国特許出願第2002/0183608号公報、R.D.ブーフホルツの米国特許第5,383,454号公報及び米国特許第5,891,034号公報及び多数の論文、例えばコスギ.Y等の「MRI及びCT画像を使用する可動結合部を有する脳神経外科ナビゲーションシステム」、生物医学英語第35巻(2)のIEEE議事録、1988年、pp147〜152,アカツカ、Y.等の「脳神経外科用ARナビゲーションシステム」、医療画像処理及びコンピュータ支援介入の議事録、2000年、pp833〜838、及びグリムソン、E等の「高精度画像ガイド脳神経外科システムを有する臨床経験」、医療画像処理及びコンピュータ支援介入の議事録、1998年、pp63〜72に記載されている。手術前データ及び患者間の位置合わせは走査前に患者の頭蓋骨に固定されるスキンマーカを介して、又はレーザプローブで又は直接接触によって患者の顔にポイントを獲得することによって行われる。手作業で位置決めされる追跡受動アームで増強されるもの、例えばフィリップス社によって供給されるイージタクシス(EasyTaxis)(商標)又は画像ガイドニューロロジックス社によって供給されるナビガス(Navigus)(商標)システムに関して、またW.A.ホール等の論文、ナビガス軌跡ガイド、脳神経外科、46(2)、pp.502〜4、2000年に記載されるように、それらもまた標的に対する機械的なガイドを提供する。ほとんどすべてのシステムは光学トラッキングを使用するので、カメラ及び追跡器具間の直接の視線の注意深いカメラ位置決め及び維持が常時要求される。ナビゲーションシステムの主な利点は1)それらが標的に対して連続して、実時間で、外科用器具の配置情報を規定した提供すること、2)それらが手術中に新しい標的ポイントの選択ができること、及び3)1990年代に導入されているので、それらが幅広い臨床容認を得ていることである。それらの一般的に知覚できる不利な点は、1)米国ドル200Kの程度の費用、2)それらが動的参照を使用することによって頭部固定又は患者頭部の動きに対する補償を要求すること、3)それらが視線の維持を要求すること、4)それらが時間が掛かり、間違いやすい手作業で受動アームを位置決めすることを要求すること、及び5)それらが手術中の位置合わせを要求し、その正確性が皮膚の位置的な安定性に依存することである。
3.ロボットシステムはフレームなし定位手術を手術前画像に規定される標的に関して自動的に位置決めするロボットアームで提供する。脳神経外科手術に使用されるかかるシステムは、チェン、M.D.等の「定位脳神経外科手術及びその臨床適用のためのロボットシステム」、ロボット工学及びオートメーションの会議事録、1998年、pp995〜1000、マサムネ、K.Ji等の「脳神経外科手術用切り離し可能な駆動部を有する新開発された定位ロボット」、医療画像計算及びコンピュータ支援画像処理、1998年、pp.215〜222、デービス、B.等の「ニューロボット:脳神経外科手術用特殊目的ロボット」、ロボット工学及びオートメーションの国際会議事録、2000年、pp410〜414、ハング、Q.等の「ニューロメイトロボットの適用:フレーム無し及びフレームベース外科手術局所システム間の定量的な比較」、コンピュータ支援外科手術、第7巻(2)、2002年、pp.90〜98、及びマクベス、P.B.等の「脳神経外科手術のロボット」、外科手術のアメリカンジャーナル第188巻、pp.68S〜75S、2004年の論文に記載されている。
それらは手術中の局所化、ガイド、及び挿入(上記概要リストのステップ2b、2c、2d)を単一のシステムで対処する潜在能力を有する。手術前画像及び手術中状況間の位置合わせは直接的な接触又はビデオ又はX線画像で行われる。2つの床設置商業ロボットは米国のインテグレーテッドサージカルシステムによって供給されるニューロメイト(NeuroMate)(商標)及び英国のアームストロングヘルスケア社によって供給されるパスファインダー(PathFider)(商標)を含む。それらのロボットの利点は1)それらがフレーム無し統合的解決法を提供し、2)それらが手術中計画調節を可能にし、及び3)それらが堅固で正確であることである。それらのロボットの一般的に知覚される不利な点は1)それらがそれらの寸法および重量によって嵩張り持ちにくく、したがって潜在的な安全性リスクを引き起こし、2)それらが頭部固定又は実時間トラッキングを要求し、3)それらは高価であり(米国ドル300〜500K)、また4)それらが通常使用されず、約12個のシステムだけが現在配置されるだけであることである。
4.介入画像処理システムは脳形態及び標的に関して現実の針/プローブ位置を示す画像を生成する。かかるシステムは、ツェン、C−S.等の「画像ガイドロボットナビゲーションシステム」、ロボット工学システムのジャーナル、17巻(8)、2000年、pp439〜447、チンゼイ、K及びミラー.K.の「MRIガイド外科用ロボット」、ロボット工学及び自動操作に関するオーストラリア会議、シドニー、2001年、及びカンシー、K.等の「地域住民−介入磁気共鳴画像処理用フレームなし神経ナビゲーションシステム」、医療画像計算及びコンピュータ支援介入の議事録、2003年、pp632〜841の論文に記載される。
いくつかの実験的なシステムもまた、実時間トラッキングデバイス、例えば米国ミズーリ州セントルイスのステレオタクシス社によって供給されるものとロボット位置決めデバイスとを組み込む。主要な利点は、これらのシステムが、脳シフトを説明する実時間最新の画像及び針曲げ加工を提供することである。それらの主要なほぼ知覚できる欠点は1)利用可能性の限界、2)扱いにくい手間の掛かる手術中画像獲得、3)高い名目上の運転費用、また4)手術中のMRIに対して、完全な費用のかかる部屋の遮蔽が要求されるということである。
これら4つの先行技術システムの比較による特徴が最小限の侵襲性の鍵穴脳神経外科手術に対する種々の支持システム技術の一般的に許容される知覚に基づいて、名目上の評価体系を示す表1に、異なる当業者は彼らが支持するシステムに対して幾分異なる評価を考え得るかもしれないが概説される。この表では、「+++」は最も有利であることを示し、「+」は最も有利でないことを示す。また、コラム項目の省略形は、1)臨床の正確性、2)適用範囲、3)手術室での使い易さ、4)手術前計画の手術中適応性、5)寸法及び重量を含む大きさ、6)患者罹患率、7)システム費用に対してである。
表1
Figure 2008526422
現在まで、これらのシステムの臨床の正確さを比較する臨床研究はほとんど行われなかった。フレームなしナビゲーションは、ドルワード、N.L.等の「フレームベースの生体組織検査を超えるフレームなし定位手術生体組織の利点」(脳神経外科手術の英国ジャーナル、第16巻(2)、2002年)による論文のフレームベースの定位手術に比較される。フレームなしロボットは、ハング、Q.等の論文「ニューロメイトロボット(NeuroMate Robot)の適用:フレームなし及びフレームベースの外科局所システムとの量的比較」(コンピュータ支援外科手術、第7巻(2)、2002年、pp90〜98)、モーガン、P.S.等の論文「パスファインダー(PathFinder)脳神経外科手術用ロボットの適用正確性」(コンピュータ支援放射線医学及び外科手術、CAR‘S2003、エルゼビア2003)、及びP.S.モーガン等の論文「パスファインダー(PathFinder)脳神経外科手術用ロボットの改良した正確性」(頭部周囲のコンピュータ支援外科手術の関する国際シンポジウム、CAS−H‘2004、2004)に記載されるフレームベースの定位手術に比較される。
全ての場合において、望ましい標的位置合わせ誤差(TRE)は1〜2mmであり、手術前画像及び手術中状況間の位置合わせに、介入的な画像処理システムを除いてかなり依存する。
表1を再度参照して、最小限侵襲性鍵穴神経性外科システムにおいて正確に標的を狙う既存の支持システムはかかる適用の全てに対する十分満足する解決法を提供していないように思われることが認められる。各方法は、単一の+記号で示されるように、他の方法に比較して、著しく不利益のある少なくとも1つの特徴を有する。したがって、定位フレームは患者の移動を伴い、頭部固定及びフレームの手動調節を要求し、また手術中計画変更を許容しない。ナビゲーション装置はフレームなしであるが、位置センサー及び軌道器具間の見通し線を要求し、機械ガイドアームの手間取る手作業位置決めを要求する。既存のロボットシステムは、限定した自動標的化及び機械的ガイドを行うことができるが、扱いにくく、高価であり、使用し難く、また頭部固定を要求する。介入画像処理システムは手術前計画を導入しておらず、利用可能性は限定的であり、手間が掛かり、高い費用を招く。
したがって、先行技術システムより全体的に不利益が少ない脳内部の構造の正確な自動的な標的化の必要性が画像ガイドシステムに存在し、その必要性は定位フレームの利点、すなわち正確性、比較的低価格、機械的サポートと小さいシステムサイズを有し、また頭部固定を強制しないロボットシステムの利点すなわち患者の罹患率の低減、自動位置決め、手術中計画の適応とを好ましくは組み合わせる。
明細書の本セクション及び他のセクションに開示した刊行物の各々の開示内容は参照によって全体的に導入される。
発明の概要
本発明は、好ましくは配置ピンによって患者の頭蓋骨に、頭部固定クランプに、又は外科部位に近接する固定スタンド、例えば手術台に取り付けられる小型ロボットに基づいて、最小限の侵襲性鍵穴脳神経外科処置を行う新しいシステムを提供する。ロボットは鍵穴穿孔及び針、プローブ又はカテーテルの挿入を支持するために機械的ガイドを手術前の多くの画像によって、例えばCTスキャン又はMRIスキャンによって予め規定される入口ポイント及び標的配置に基づいて位置決めする。このシステムは定位フレーム、ナビゲーションシステム及び利用可能なロボットシステムと同じ脳シフト及び針曲げ加工に関する同じ仮定に基づいている。
新規な3方向位置合わせ手法は手術前CT/MRIの多くの画像、手術中患者の配置及びロボット配置間の共通の基準フレームを確立するために使用される。この位置合わせ手法はリンクを提供するために手術中表面走査を使用する。この方法は、患者の顔上部の特徴を有する重要な領域の手術中3次元表面走査を獲得することによって遂行され、また患者の頭部の計画手術部位に近接する位置に配設されるカスタム位置合わせジグを含み、その後、手術中走査顔特徴をCT/MRI多量画像から得られる手術前幾何モデルに(位置合わせジグなしで)位置合わせ(整合)する。その後、ロボットは走査位置合わせジグに対して既知の位置に取り付けられ、したがって、位置合わせジグが手術前CT/MRI画像に表面走査によって手術前CT/MRI画像に関連付けされるので、手術前CT/MRI画像に関連付けできる位置に取り付けられる。外科手術部位、例えば処置の入口及び標的ポイントは手術前CT/MRI画像から既知であるので、したがってロボットはそれらの入口及び標的ポイントに関連付けできる。使用される位置合わせジグは、各4面間に異なる角度を有する広角四面体なので、好ましくは新規な形状である。四面体は、比較的に大きい基部角度のため、四面体の全4面が広範囲な走査観点から見ることができ、大きい十分な領域は良好な走査サンプリングを提供するために見られるように面スキャナの一般的な方向から見たとき、低い高さを有する。
この位置合わせが一旦行われると、計画及び実際のロボット標的ガイドは位置を整列する変換は計算される。その後、ロボットは自動的に位置決めされ、その標的ガイド軸線が入口ポイント/標的軸線に一致するように適所でロックされる。
患者の顔特徴は患者が一般的に自覚するときは手術前CT/MRI走査の性能と患者が沈静され又は麻酔を掛けられることができるとき、手術中3D走査の性能との間の運動に制約され得るので、これら2つの手術間の顔特徴の位置合わせは不正確さに制約され得る。本発明の別の実施例によれば、手術前CT/MRI画像セット及び手術中走査画像間の位置合わせは、それらの位置がこの位置合わせ工程中に移動しないように患者の頭部に取り付けられる人工的な基準マーカを使用して行われる。
手術前MRI/CTを獲得する前に、好ましくは骨基準形状のマーカは、一般に使用される定位フレームのねじに使用されるものに類似の態様で弱麻酔下で患者頭蓋骨の硬膜にねじ留めされる。その後、CT/MRI画像セットが獲得され、外科医は手術前計画に従って入口及び標的ポイントを選択する。基準マーカもまた、これらの画像において検出され、入口及び標的ポイントに関するそれらの配置はそれらがすべて同じ手術前画像座標システムにおいて同じなので既知である。
手術中に、表面走査は基準マーカの手術中の配置を決定するために行われる。しかしながら、マーカは小さく、したがってマーカからの走査ポイントの数も少ないので、3D面スキャナを使用してそれらの位置の正確な決定を得ることは困難である。この制限を克服するために、基準位置合わせジグとして機能する別の位置合わせジグが、基準マーカの位置に対してその姿勢が知られるように所定の態様で少なくともいくつかの基準に機械的に取り付けられる。その場合、表面走査は上述のように得られ、基準位置合わせジグの十分定義された特徴によって、正確な走査を得ることができる。基準位置合わせジグは走査中に性格にプロットされる任意の都合の良い形態、例えば上記四面体の形態を有することができる。基準位置合わせジグ及び基準マーカ間の関係は知られ、したがって手術中座標システム及び手術前座標システム及びデータ間の関係も知られている。したがって、手術前計画入口及び標的ポイントはロボットの手術中座標システムに関係付けることができる。この実施例において、基準位置合わせジグ及び基準マーカは前の実施例の顔の走査に取って代わり、マーカは患者の頭部に人工的な固定目印のように作用する。この技術の利点は、基準が手術前時間から手術中時間に移動しないので、潜在的により正確であるということである。不利な点は、患者にとって不快となり得る、CT/MRIデータセットの獲得の前に基準が基準マーカ挿入という追加の処置を要求することである。
米国特許出願第2002/0183608号 米国特許第第5,383,454号公報 米国特許第5,891,034号公報
したがって、本出願の発明は上述の先行技術システムより全体として不利益が少ない脳内部の構造を正確に自動的に標的とするための画像ガイドシステムを提供することを追求する。
本発明の別の好ましい実施例によれば、患者の頭蓋骨の手術前画像を手術中に生成される画像に位置合わせ(整合)することは2つのステップで実行され、第1の適切な位置合わせは目印の位置、例えば患者の目及び耳に基づいてのみ実行され、一方、全体的に正確な位置合わせは面外形の大きな領域比較によって実行される。かかる場合、患者の顔の特徴の手術中3D表面走査は好ましくは、正表面走査用の1又はそれ以上の目及び顔前部又は側部獲得用耳及び鼻を含む。
また、システムは、本発明の別の好ましい実施例に従って、外科医がロボット基部又はロボット基部を刺激するための標的ジグを外科手術部位に位置付けるとき、現実のロボットでスクリーン上のその仮想位置を複製できるように、システムの手術前計画モジュールプログラムに連係されかつ外科手術部位の実時間画像に投影される、手術前計画において決定されたロボットの配置用に最適な位置の仮想表示を示す統合ビデオカメラシステムに選択的に適合できる。この処置は患者の頭部の拡張現実表示を利用する。代替的に、また好ましくは、ビデオカメラシステムは手術前計画データに関して指示される最適な計画位置を含む手術前計画データから得られた患者の頭部の拡張仮想表示を提供するために配列でき、ロボット基部又は標的ジグを保持する外科医の手の実時間画像は患者の頭部のその仮想画像に負担を課して、ロボットを位置決める際に外科医を案内する。
システムハードウェアは1)小型ロボット及びそのコントローラ、2)カスタムロボット取付基部、標的ガイド及び位置合わせジグ、3)標準3D面スキャナ、4)標準デジタルビデオカメラ、及び5)PCからなる。調節可能なロボット取付ジグはロボット基部を頭部固定フレーム、頭蓋骨埋込ピン又は手術場所に近接して配置されるスタンドのいずれかに取り付ける。システムソフトウェアモジュールは1)手術前計画、2)手術中ロボット位置決め、3)3D面走査加工、及び4)3方向位置合わせを好ましくは含む。
したがって、本発明の好ましい実施例に従って提供されるのは、
(i)少なくとも被験者の頭部の少なくとも一部分の3次元画像セットを生成する画像処理システムと、
(ii)3次元画像セットを利用する、被験者頭部の少なくとも1つの脳神経外科処置を規定する手術前計画と、
(iii)被験者頭部の少なくとも一部分の手術中表面走査を生成する3次元面スキャナと、
(iv)被験者頭部に対して姿勢が3次元走査に規定されるような位置に取り付ける位置合わせジグと、
(v)位置合わせジグに対して所定の位置に取り付ける小型ロボットと、
(vi)ロボットが手術中に少なくとも1つの脳神経外科処置を行うことができるように、3次元画像セットに対してロボット位置を規定するために表面走査を利用する位置合わせ処置とを含む、被験者に鍵穴脳神経外科手術を行うためのシステムである。
システムは外科用器具を方向付けるためにロボットによって支持される標的ガイドを含むこともでき、脳神経外科処置は被験者の頭部上に少なくとも1つの入口ポイント及び被験者の頭部内に少なくとも1つの標的ポイントを定め、ロボットは入口ポイントから標的ポイントに外科用器具を方向付けるための標的ガイドを整列するために調節される。
上記実施例のいずれかにおいて、位置合わせ処置は被験者の頭部の少なくとも一部分を3次元画像セットから得られる被験者頭部の対応部分の表面モデルに好ましくは整合する。
本発明の別の実施例に従って、上記システムのいずれかは、被験者の頭部に取り付けられた複数の基準マーカを含むこともでき、被験者の頭部の少なくとも一部分の表面走査は基準マーカの配置を含み、位置合わせ処置は基準マーカの配置を3次元画像セットから得られる基準マーカの配置に整合する。これらの基準マーカの少なくとも1つは被験者頭部に取り付けられた骨ねじに好ましくはすることができる。また、基準マーカを含むかかるシステムは、少なくともいくつかの基準マーカに所定の態様で取り付ける基準位置合わせジグを好ましくは含むことができ、被験者頭部の少なくとも一部分の表面走査は基準マーカの配置が基準位置合わせジグの配置から決定されるように基準位置合わせジグの走査を含む。
本発明の別の実施例に従って、被験者頭部の少なくとも一部分の上記表面走査は被験者頭部の複数の目印特徴を好ましくは含み、その場合、位置合わせ処置は目印特徴を3次元画像セットから得られる対応目印特徴に整合する。被験者頭部の複数の目印特徴は被験者の少なくとも1つの形態学的特徴を含む。別方法として、また好ましくは、被験者頭部の複数の目印特徴は被験者の頭部に取り付けられた少なくとも1つの基準マーカを含むことができ、その場合、少なくとも1つの基準マーカは被験者頭部に取り付けられる骨ねじにすることができる。かかる基準マーカがそのように組み込まれるとき、システムは、少なくとも1つの基準マーカに所定の態様で取り付けるための基準位置合わせジグを好ましくは含むことができ、非検査yの頭部の少なくとも一部分の表面走査は、少なくとも1つの基準マーカが基準位置合わせジグの配置から決定されるように基準位置合わせジグの走査を含む。
表面走査が目印特徴を含む上記システムにおいて、患者頭部の顔外形の重要な領域を好ましくは含むこともでき、位置合わせ処置は患者頭部の顔外形の重要な領域の外形を3次元画像セットから得られる対応領域の外形に整合する。
また、本発明の別の望ましい実施例に従って、上述のいずれかのシステムにおいて、3次元画像セットはCT及びMRIの少なくとも一方によって、好ましくは出術前に得られる。さらに、位置合わせジグ及び小型ロボットのいずれか又は両方は被験者頭部、頭部固定クランプに取り付けることができ、又は被験者頭部近傍に配設される固定スタンドに取り付けられる。
また、本発明の別の好ましい実施例に従って提供されるのは、3次元面スキャナが光学レーザスキャナ、複数のビデオカメラ、単一のビデオカメラを有する構造化された光源及びレーダースキャナのいずれか1つである上述のシステムのいずれかである。さらに、位置合わせジグは、異なる角度で相互に配列された4つの面の任意の対を有する四面体を好ましくは含むことができる。
また、本発明の別の好ましい実施例に従って、3次元面スキャナに対して所定の位置に配設されるビデオカメラを備え、また患者頭部の実時間画像を表示する上述のシステムのいずれかが提供され、小型ロボットを配置するための仮想指示を実時間画像に示すための情報が手術前計画からビデオカメラに提供される。その場合、かかるシステムは適切に配置している間にロボットの位置を指示するために使用される位置決めジグを含むこともでき、仮想指示は位置決めジグの仮想表示である。
最後に、上述のシステムの全てにおいて、システムは外部ナビゲーションシステムの必要性なしに動作可能である。
また、本発明の別の好ましい実施例に従って提供されるのは、異なる角度で相互に配列された4つの面の任意の対を有する四面体を含む3次元位置合わせジグである。かかる3次元位置合わせジグは、3次元スキャナによって走査されるとき、その姿勢に関する曖昧なデータを提供する。本発明の別の好ましい実施例によれば、四面体は、4つの全ての面が広範囲の走査角からみることができる、スキャナの一般的な走査方向に十分小さい高さを有する。
また、本発明の別の好ましい実施例に従って提供されるのは、
(i)被験者頭部の少なくとも一部分の3次元画像セットを生成すること、
(ii)被験者頭部に少なくとも1つの脳神経外科処置を規定する手術前計画を生成するために3次元画像を利用すること、
(iii)3次元面スキャナが被験者頭部の少なくとも一部分の手術中表面走査を生成できるように配設された3次元面スキャナを提供すること、
(iv)被験者の頭部に対する位置に位置合わせジグをその姿勢が手術中表面走査において規定されるように取り付けること、
(v)位置合わせジグで被験者頭部の3次元手術中表面走査を生成するために被験者頭部の少なくとも一部分を走査すること、
(vi)位置合わせジグに対する所定の位置に小型ロボットを取り付けること、
(vii)ロボットが手術前計画によって規定される少なくとも1つの脳神経外科処置を手術中に行うことができるように、3次元画像セットに対するロボットの位置を規定するために表面走査を利用して位置合わせ処置を行うことを含む、患者に鍵穴脳神経外科手術を行う方法である。
また、本方法は、外科用器具を方向付けるためにロボットによって支持される標的ガイドを提供するステップを好ましくは含み、該方法において、神経性外科処置は少なくとも1つの入口ポイントを被験者の頭部に、また被験者の頭部内に少なくとも1つの標的ポイントを定める。また、本方法は、外科用器具を入口ポイントから標的ポイントに向かって方向付けるための標的ガイドを整列するためにロボットを調節するステップを含む。
上記2つの実施例のいずれにおいても、位置合わせ処置は患者頭部の少なくとも一部の表面走査を3次元画像セットから得られる患者頭部の対応部分の面モデルに好ましくは整合する。
本発明の別の好ましい実施例に従って、上記方法のいずれかは、複数の基準マーカを被験者頭部に配置するステップも含むことができ、被験者頭部の少なくとも一部を走査するステップは基準マーカの配置を走査することを含み、位置合わせ処置はその基準マーカを3次元画像セットから得られた基準マーカの位置に整合することを含む。この方法において、これらの基準マーカの少なくとも1つは被験者頭部に取り付けられた骨ねじであることが望ましい。また、基準マーカを含む方法は基準位置合わせジグを提供するステップとそれを基準マーカの少なくともいくつかに所定の態様で取り付けるステップとを好ましくは含み、被験者頭部の少なくとも一部の表面走査は基準マーカの配置が基準位置合わせジグの配置から決定されるように基準位置合わせジグの走査を含む。
本発明の別の好ましい実施例に従って、被験者頭部の少なくとも一部分の上記表面走査は被験者の頭部の複数の目印特徴を好ましくは含み、その場合、目印特徴を3次元画像セットから得られた対応目印特徴に整合する。この方法において、被験者頭部の複数の目印特徴は被験者頭部に取り付けられる少なくとも1つの基準マーカを含むことができる。別方法として、また好ましくは、被験者頭部の複数の目印特徴は被験者頭部に取り付けられる少なくとも1つの基準マーカを含むことができ、その場合、少なくとも1つの基準マーカは被験者頭部に取り付けられる骨ねじにすることができる。本方法がかかる基準マーカを使用するとき、本方法は、少なくとも1つの基準マーカに所定の態様で取り付ける基準位置合わせねじを提供するステップを好ましくは含み、その場合、被験者頭部の少なくとも一部分の表面走査は、少なくとも1つの基準マーカの配置が基準位置合わせジグの配置から決定されるように基準位置合わせジグの走査も含む。
表面走査が目印特徴を含む上記方法において、目印特徴は被験者頭部の顔立ちの重要な領域を好ましくは含むことができ、その場合、位置合わせ処置は被験者頭部の顔立ちの重要な領域も外形を3次元画像セットから得られた対応領域の外形に好ましくは整合する。
また、本発明の別の好ましい実施例に従って、上記方法のいずれかにおいて、3次元画像セットはCT及びMRIの少なくとも1つによって手術前に好ましくは得られる。また、位置合わせジグ及び小型ロボットのいずれか又は両方は被験者頭部、頭部固定クランプに取り付け又は被験者頭部の近傍に配設される固定スタンドに取り付けることができる。
また、本発明の別の好ましい実施例に従って提供されるのは、3次元面スキャナが光学レーザスキャナ、複数のビデオカメラ、単一のビデオカメラを有する構造化光源及びレーダースキャナのうちのいずれか1つである上記方法のいずれかである。また、位置合わせジグは異なる角度で相互に配列された4つの面の任意の対を有する四面体を好ましくは含むことができる。
また、本発明の別の好ましい実施例に従って提供されるのは、3次元面スキャナに対して所定の位置にビデオカメラを配設すること及び前記被験者の頭部の実時間画像を表示することも含み、情報が実時間画像に前記小型ロボットを配置するための適切な位置の仮想指示を示すために手術前計画からビデオカメラに提供される。かかる方法はまた、適切な配置の間にロボットの位置を指示するために位置決めジグを提供するステップを含み、その場合、仮想指示は位置決めジグの仮想表示である。
最後に、上述の方法の全てにおいて、外部ナビゲーションの必要はない。
本発明は図面に関連して考慮されると、以下の詳細な説明かたより十分に理解され、また認識される。
まず、図1Aを参照して、本発明の好ましい実施例に従う画像ガイドロボット鍵穴脳神経外科手術システムに使用される小型ロボット10が概略的に示される。小型ロボット10は、好ましくは6次の自由度を有する並列構造を有するが自由度がより少ないロボットも使用できる。それは患者の骨構造又は外科用部位近くの固定スタンドに好ましくは直接取り付けられる。
図1Aから図1D及び本出願の他の図面において、実生活の状況において、患者の頭部は頭蓋骨の位置にあるということが理解されるけれども、システムの実験的な研究に使用されるように、モデルの頭蓋骨に取り付けられるロボットが示される。本発明のシステムに使用される好ましい形式の小型ロボットがM.ショハムの「小型骨取り付け外科用ロボット」の米国特許第6,837,892号公報 に記載され、イスラエル、カエサレアのメーザサージカルテクノロジー社によって供給される。このロボットは、患者の頭蓋骨又は固定スタンドのいずれかに取り付けた取り付けプレート24に取り付ける、固定プラットホーム12と6個の独立線形アクチュエータによって並列に接続される移動プラットホーム14とからなる。移動プラットホームはカスタム標的ガイド16で固定される。図1Aに示される好ましい形式のロボットは5x8x8cmの寸法を有し、その重量は250グラムであり、その仕事量は15cmであり、位置精度は0.1mmであり、外科的臨床適用に対して非常に十分であり、定位フレーム及び商業的トラッキングシステムの適用に対してより良好である。
ロボットは半活動モードにおいて動作するように好ましくは設計される。すなわち、ロボットは所定の配置に標的ガイド16を位置付けかつ方向付け、そこでそれ自体を堅固な構造にするためにロックする。ロボットは10Nの横方向の力に耐えることができる。ロボットは十分消毒可能なカバーに配置することができ、別個の装置に好ましくは収納されるコントローラから単一ケーブル26を介して動作できる。
かかるロボットは、M.ショーアム等の「外科処置用骨取り付け小型ロボット:概念及び臨床適用」、ロボット及びオートメーションに関するIEEE会議資料、第19巻(5)、2003年、pp.893〜901の論文に記載されるように、正確な、細かい位置決めデバイスとして見ることができる。その利点はその小さい寸法及び設計から生じる。すなわち1)ロボットは患者の骨に直接取り付けることができ、2)それはその電力及び移動範囲が限定されているので本質的に安全であり、3)それは目立たず、4)それは消毒可能なスリーブによってカバーされ、そして5)それはより大きい先行技術のロボットよりかなり低い費用である。ロボットは、この限定が予備的な大雑把な位置決め方法を使用することによって補償されねばならないように、その仕事量及び移動の範囲が小さいという欠点を持つ。
かかるロボットは種々の整形外科手術用の先行技術、例えば上記米国特許第6,837,892号公報、WO2003/105,659号として公開されるPCT出願及びWO2004/100758号として公開されるPCT出願に記載されている。鍵穴脳神経外科手術用の本発明のその使用は先行技術に関する多数の共通特徴、例えば1)機械的ガイドを有する正確な標的、2)外科手術の小さい仕事量、及び3)手術前計画に対する必要性と、先行技術の使用例との多数の相違点、例えば1)手術前計画用ソフトウェア、2)3方向位置合わせ基礎及び処置、3)ロボット固定及び標的ガイド、及び4)入口ポイントの近傍でロボットを配置する必要性(大雑把な位置決め)とを有する。
システムの外科的プロトコルは次のステップを含む。患者の手術前容量CT/MRI画像又は画像セットがいかなるマーカ又はフレームの必要性なしに獲得される。次に、手術前計画モジュールで、外科医は画像セットに所望の入口ポイント18及び所望のターゲット配置を定義し、またロボット取り付け形式(臨床規準しだいで頭部クランプ又は頭蓋骨)及び所望のロボット配置を決定する。
手術中、全体的な又は局部的な麻酔下で、頭皮の消毒裁断の後に、外科医はビデオベースの手術中モジュールによって案内されるロボットをその計画した配置に概ね配置する。この処置は、頭蓋骨寸法に対して小型ロボットの動作範囲が比較的に限定されるので必要である。頭蓋骨に取り付けられるとき、2つの4mmピン22が局部麻酔下で頭蓋骨に好ましくはねじ留めされ、ロボット取り付け基部24はそれらに取り付けられる。これは図1B及び図1Cに示されるロボット取り付け基部24は図1Cの矢印によって示されるように、2次元のなんらかの線形調節機構を好ましくは有する。
ロボットが図1Dに示されるように頭部フレーム、例えばメイフィールドクランプ28に取り付けられるとき、ロボット10は好ましくは調節可能機械的アーム又は取り付けプレート29によって頭部フレームに取り付けられる。代替として、また好ましくは、ロボットは頭部クランプによって固定される患者頭部に近接する手術台に直接取り付けできる。
以下の記載において、ロボットが、図1B及び図1Cに示されるように、患者の頭蓋骨に直接取り付けられる基部に取り付けられる好ましい実施例が使用されるが、システムは頭部クランプに又は患者の頭蓋骨に近接するスタンドに取り付けられるロボットを使用して同様に動作可能であり、処置又は装置に対する関連した訂正が要求されることを理解されたい。
次に、図2に関して、特別な位置合わせジグ30は、患者の頭蓋骨に直接又は頭部クランプに、又は患者の頭部に近接する固定スタンドに取り付けられるかどうかにかかわらず、ロボットの位置に対して既知の関係を持つ所定位置に配置される。この所定の位置は、取付基部24の所定のソケットに挿入するために脚32を位置合わせジグに設けることによって好ましくは達成できる。本発明のシステムは、患者及びロボットに面して位置決めされる3次元面スキャナ36を含み、患者の額34又は耳及び位置合わせジグ30の両方を含む3D表面走査(ロボットの配置に依存する正面又は側表面走査)を獲得できる。3D面スキャナ36は好ましくはレーザスキャナ、又はポイント又は面断片の形状で正確な3D面データを提供する他の3次元表面走査デバイス、例えば光学スキャナ、2以上のビデオカメラ、単一のビデオカメラを有する構造化光源、又はミリ波レーダーシステムである。本発明の別の好ましい実施例によれば、手術前のCT/MRI画像処理前に挿入される3D面スキャナは上記概要セクションにおいて説明されるように、基準マーカの位置の手術中走査を提供するために使用される。本実施例において使用されるかかる光学基準マーカ38は患者の頭部に取り付けられて図1Aに示される。図2の表示において、追加の基準位置合わせジグは走査精度を強化するために走査中基準マーカのいくつかに好ましくは取り付けられる。
その場合、位置合わせジグ30はロボット10によってロボット上の標的ガイドに取って代わられる。ロボットは位置合わせジグの位置に対して既知の位置の取付基部に据え付けられるので、したがって手術中3D走査はロボット位置に効率的に相関付けされる。位置合わせモジュールは、手術中位置合わせによって決定される実際の標的ガイド方向及び手術前計画によって決定される望ましい標的ガイド方向間のオフセットを自動的に計算する。次に、位置合わせモジュールは、標的ガイド軸線が計画針挿入軌跡に一致するようにロボットを位置決めし、ロックする。次に、外科医は手作業で針20、プローブ又はカテーテルを所望の深さに挿入できる。代替として、また好ましくは、小型ロボットは挿入軸線に沿う針の移動調節を小さく、典型的には±10mmにするためにプログラムされ得る。外科医の要求に従って、システムは所定の軌跡ごとにロボットを自動的に再位置決めする。手術中計画は新標的ポイントを削除しかつ追加することによって外科手術中調節できる。システムは軌跡及び対応ロボット位置を自動的に計算するためにプログラムされる。
図1Aから図1D及び図2は第1の実施例に従って本出願のシステムの機能的な動作を記載する。本発明の別の好ましい実施例によれば、関連ハードウェアを有する多数の計算モジュールはシステムの正確な動作を容易にするために使用される。図3Aを参照して、システムはCT/MRI画像セットを入力する手術前計画モジュール及びロボット、その仕事量及び標的ガイドの幾何的モデルを含む。システムは、CT/MRI画像セットから頭蓋骨及び額/耳表面44の3次元モデルを自動的に造る。この3D面モデルは当該技術分野に公知であるように、実際の手術中患者の状況に手術前データを位置合わせできるようにするために3D光学スキャナによって手術中に生成される3D表面走査に一致させるために後に使用される。図3Aはこの手術前計画モジュールの1つのスクリーンの一部であり、CT/MRIデータから造られた頭部の3次元モデルを示す。
手術前計画モジュールは大雑把な位置合わせのために後に使用される多数の目印40(目又は耳)を抽出する。これらの目印は頭蓋骨がその他の点でほぼ特徴がないという性質のために使用される。かかる大雑把な位置合わせはロボットの望ましい位置のほぼ正確な初期的評価を行うために使用される。システム全体が基づく正確な位置合わせは後述される面比較アルゴリズムを使用してそのほぼ正確な初期的評価から達成される。そのモジュールによって、図3Aに示されるように、CT/MRIスライス(軸方光景、頭蓋光景及び脳神経外科光景)及び3D頭蓋骨面を可視化でき、外科医が入口ポイント18及び標的ポイント19を定義でき、生じる針の軌跡42を可視化でき、空間的な距離測定を行うことができる。
ある好ましい処置によれば、頭蓋骨及び額/耳表面モデルは2つのステップで構成される。第1に、CT/MRI画像は空気ピクセルから頭蓋骨ピクセルを分離するために低強度閾値でセグメント化される。その後、耳穴ピクセルが識別されかつ充填される。そしてその表面は、好ましくは強化マーチングキューブ面再構成アルゴリズム(enhanced Marching Cubes surface reconstruction algorithm)で再構成される。目/耳目印は、最大曲率の領域をタウビン曲率評価法(Taubin‘s curvature estimation method)で、G.タウビンによる論文「多面体の近似値から免許区立のテンソルを評価すること」、ICCV、pp.902〜907、1995年に記載される三角メッシュに関する計算される。
外科医によって規定される入口18及び標的19並びにロボットモジュール取付けモード(頭蓋骨又は頭部クランプ)に基づいて、モジュールは、ロボット基部の最適な配置及びその範囲を自動的に計算する。このステップは、頭蓋骨寸法に対して小型ロボットの仕事量が制限されるために必要である。最適なロボット基部配置は計画針軌跡42がロボットの仕事量の中心にあるようになっている。最適な配置から離れる配置はそれらがロボット仕事量中心からどれだけ離れているかに基づいて点数が割り当てられる。結果は、図3Bに示されるように、グラフ的に頭蓋骨の表示の陰領域によって外科医に示される。最適配置領域の種々の点数レベルは領域内で異なる色によって示すことができる。その場合、外科医は臨床規準、例えば硬膜静脈洞、側頭筋又は導出静脈を避けることを満足する最適な位置を選択することができる。したがって、手術前計画モジュールは外科手術計画(入口及び標的ポイント)、計画ロボット基部配置及び顔面メッシュ及び目印を含む。
手術前のロボット配置用計算方法を概略的に示す図4を参照する。目標は、画像座標の(入口ポイント画像 入口18及び標的ポイントP画像 標的19によって規定される)計画軌道画像 計画50をロボットのホームポジション、ガイドロボット ホーム52にロボットを有するロボット座標の標的ガイド軸線に整列する変換を計算することである。
ロボット基部24をその計画位置に近接して配置する外科医を支援する際、どのように手術中ロボット位置決めモジュールが頭蓋骨及びフレームに対する場合の両方に対して動作可能であるかを示す図5を参照する。ロボット仕事量が小さく、頭蓋骨上の形態上の目印がないとすれば、この大雑把な位置決めは計画位置からロボット動作範囲以上の偏差を回避するために必要である。これらの偏差は手術前計画をひどく制限し又は無価値にさえする。
図5は、ロボット取付基部54の位置及び方向をその最適位置に調節する際、外科医を支援するために統合ビデオカメラ54の使用を図示するシステムの概略図である。取付基部54に挿入される専用位置決めジグ56が使用され、位置決めジグの位置はそれが手術中ロボット位置決め計算によって決定される計画配置に一致するまで調節される。この動作の目的は計画ロボット基部位置を実時間ビデオカメラ画像58にその望ましい計画位置で重ねることである。ビデオ監視装置は、実際の患者の頭蓋骨及び外科医60の管理下にある、取付基部を有する位置決めジグのビデオ画像と、ロボット基部をその望ましい予め計画した配置62において示す同じジグの仮想画像とからなる実時間増加現実画像58を好ましくは示す。その後、外科医は位置決めジグの位置及び方向をそれが計画配置に一致するまで調節でき、また、これは最適取付基部位置を定義する。図5も、本出願の発明の概要に記載される好ましい方法を使用して、患者の頭部の増加仮想表示を底部右手コーナ部に示すビデオカメラシステムの代替表示スクリーンを示す。
ビデオカメラは3D面スキャナ36(CT/MRI画像生成顔面モデルと患者の特徴の手術中表面走査とを比較するために使用される)に直接又はスキャナに対して既知の位置のいずれかに取り付けられ、2つの座標システム間の変換Tビデオ スキャナは前もって既知であるように予め調整される。顔の3D表面走査が獲得され、後述の3方向位置合わせに使用される同じ方法で幾何的顔モデルに整合される。これは手術前計画及びスキャナ間の変換Tスキャナ 計画を確立する。2つの変換を構成することによって、手術前計画及びビデオ間の変換Tビデオ 計画を得ることができる。
本発明の別の好ましい実施例によれば、システムは表面走査加工モジュールを含む。この表面走査加工モジュールは、3セットのポイント、1)ポイントからなる額(正表面走査)又はポイントからなる耳群(側表面走査)、2)好ましくは4つの目又は耳目印ポイント及び3)ポイントからなる位置合わせジグ群(ジグが走査において存在するとき)を3D面スキャナ36によって生成される手術中3D表面走査から自動的に抽出する。ポイントからなる額/耳群は最初に対応領域を孤立化させかつ外れ値を除去することによって計算される。目印ポイントは三角メッシュを適合しかつCT/MRI画像にあるような最大曲率の領域を識別することによって抽出される。
本発明の別の好ましい実施例に従って、新規な3方向位置合わせ処置において関連リンクを概略的に図示する図6を参照する。3方向位置合わせモジュールは手術前CT/MRIデータ66とロボット取付基部70及び患者頭部68の手術中配置と間の共通基準フレームを確立する変換Tロボット 計画を計算する。これらの3つの独立したセットの共用座標間の接続リンクは患者頭部の特徴の3Dレーザ表面走査72によって確立される。
2つの変換は次の結果に計算される。すなわち、Tスキャナ 計画は手術中の患者の顔/耳走査データ変換に対する手術前計画のためであり、Tスキャナ ロボットはスキャナ変換に対するロボット取付基部のためである。
変換Tスキャナ 計画は、4対の手術前/手術中目印ポイント間の大雑把な一致を初めに計算することによって、例えばホルンの閉形式解を使用することによって好ましくは計算される。その後、変換は、ベスル、P.J.等の「3D形状の位置合わせ方法」、パターン分析及びマシン知能に関するIEEE議事録、第14巻(2)、1992年に記載されるように、例えばロバスト反復最近ポイント(ICP)位置合わせ法を使用することによって、できる限り最高精度に洗練され、小さい部分集合の表面走査ポイント及び顔/耳面上のCT/MRIポイント間で好ましくは行われる。これは高精度手術中表面走査に手術前CT/MRIデータから生成される面モデルを提供する。
変換Tスキャナ ロボットは、図7に概略的に示されるように、位置合わせジグのカスタム設計から得られる。ある好ましい実施例によれば、位置合わせジグ30は好ましくは位置決め脚32によってロボット取付基部に取り付けられる広角四面体である。それは4面全てが走査サンプリング用の十分な領域を有する広範囲の走査観点から見ることができるように設計される。面識別を容易にするために、四面体の隣接する全面間の角度は異なる。
位置合わせジグモデルは当該技術分野に既知のいずれかの方法によって面スキャナに好ましくは位置合わせできる。スキャナは四面体の3つの可視面を識別し、またこれらの3つの面の4つの交差ポイントを決定する。これらの交差ポイントは既知のモデル交差ポイントに相関付けできる。この位置合わせを行う、ある好ましい方法はポイントの位置合わせジグ群のドローネー三角分割法を初めに計算することによって行うことである。次に、各3角メッシュの頂点の平均値は計算され、それらの値に従って5つのグループに分類され、4つのグループは位置合わせジグの平面の各々に対応し、1つはノイズに対応する。平面は各グループのポイントに適合される。3つの面間の交差ポイントに対応する4つのポイントは位置合わせジグの頂点である。4つのポイント及びモデル内の対応するポイント間の疑似変換が計算される。最後に、面ポイントのICP堅固位置合わせはさらに誤差を軽減するために計算される。手術前計画に関する実際のロボット取付基部配置がその変換から決定され、また標的ガイド配置はロボット取付基部配置及びロボット特性から決定される。
したがって、本発明の上記実施例のシステムは既存の解決策の多くの限界を概ね克服する最小限侵襲性鍵穴脳神経外科手術において自動的に正確に標的を狙うことを許容する。システムは定位フレームに関連した罹患率及び頭部固定の要件を排除し、ナビゲーションシステムの視野方向及びトラッキングの要件を排除し、また大きいロボットの嵩張り及び費用を生じることなく安定性のある堅固な機械的ガイドを提供する。上記表1に記載される特性に関して、本発明に従って構成されるシステムはすべての特性に対して+++評価を正確性、範囲及び費用を除いて達成できると考えられる。また、頭部固定はほとんどの実施例において必須ではない。かかる特性の組み合わせは示された先行技術方法によって現在達成されるとは考えられない。
本発明は、本明細書に特に示されたもの及び記載されたものによって限定されないことは当業者に理解される。むしろ、本発明の範囲は本明細書に記載される種々の特徴の組み合わせ及び部分的な組み合わせの両方、並びに上記記載を解釈する際、当業者が思い付くそれらに対する、先行技術ではない変形例及び改変例を含む。
本発明の好ましい実施例に従う画像ガイドロボット鍵穴脳神経外科システムの頭蓋骨取付け小型ロボットを概略的に示し、頭蓋骨のモデルに取り付けたロボットを示す。 本発明の好ましい実施例に従う画像ガイドロボット鍵穴脳神経外科システムの頭蓋骨取付け小型ロボットを概略的に示し、基部取付ピンを示す。 本発明の好ましい実施例に従う画像ガイドロボット鍵穴脳神経外科システムの頭蓋骨取付け小型ロボットを概略的に示し、頭蓋骨上のロボット取付基部を示す。 頭部クランプに取り付けられた図1の小型ロボットを概略的に示す。 図1Cのロボット取付基部上での本発明の特別な位置合わせジグの配置を概略的に示し、3次元面スキャナは頭蓋骨の表面走査を生成する。 本発明のシステムの手術前計画モジュールプログラムの特徴を示し、手術前計画モジュールによって生成される、患者頭部の画像内の入口及び標的ポイントの選択を概略的に示す。 本発明のシステムの手術前計画モジュールプログラムの特徴を示し、手術前計画モジュールによって外科医に提供されるロボット配置の範囲を概略的に示す。 手術前のロボット配置のための計算方法を概略的に示し、図3A、3Bに示される表示画像を生じる。 本発明のシステムの概略図であり、ロボット取付基部の位置及び方向をその最適な位置で調節する際、外科医を支援するために統合ビデオカメラの使用を示す。 本発明の別の好ましい実施例に従って、新規な3方向位置合わせ処置の連合リンクを概略的に示す。 図2に示される広角四面体形状の位置合わせジグの1つの好ましい実施例を示す。

Claims (45)

  1. 被験者の頭部の少なくとも一部分の3次元画像セットを生成する画像処理システムと、
    前記被験者の頭部に関する少なくとも1つの脳神経外科処置を規定する手術前計画であって前記3次元画像セットを利用する手術前計画と、
    前記被験者の頭部の少なくとも一部分の手術中表面走査を行う3次元面スキャナと、
    前記頭部の姿勢が3次元走査において規定されるように前記被験者の頭部に対する位置に取り付ける位置合わせジグと、
    前記位置合わせジグに対して所定の位置に取り付ける小型ロボットと、
    前記ロボットが、前記手術前計画によって規定される前記少なくとも1つの脳神経外科処置を行うことができるように、前記3次元画像セットに対して前記ロボット位置を規定するための、前記表面走査を利用する位置合わせ処置とを含む、被験者に鍵穴脳神経外科手術を行うシステム。
  2. 外科用器具を方向付けるために前記ロボットに支持される標的ガイドを含み、前記脳神経外科処置は前記被験者の頭部に少なくとも1つの入口ポイント及び前記被験者の頭部内で少なくとも1つの標的ポイントを定め、前記ロボットは前記入口ポイントから前記標的ポイントに前記外科用器具を方向付けるために前記標的ガイドを整列するために調節される、請求項1に記載のシステム。
  3. 前記位置合わせ処置は前記被験者の頭部の少なくとも一部分の前記表面走査を前記3次元画像セットから得られる前記被験者の頭部の対応部分の面モデルに整合する、請求項1又は2に記載のシステム。
  4. 前記被験者の前記頭部に取り付けられた複数の基準マーカを含み、前記被験者の前記頭部の少なくとも一部分の前記表面走査は前記基準マーカの前記配置を含み、前記位置合わせ処置は前記基準マーカの前記配置を前記3次元画像セットから得られる前記基準マーカの前記配置に整合する、請求項1から3のいずれかに記載のシステム。
  5. 前記基準マーカの少なくとも1つは前記被験者の頭部に取り付けられた骨ねじである、請求項4に記載のシステム。
  6. 少なくともいくつかの前記基準マーカに所定の態様で取り付ける基準位置合わせジグを含み、前記被験者の前記頭部の少なくとも一部分の前記表面走査は、前記基準マーカの前記配置が前記基準位置合わせジグの前記配置から決定されるように前記基準位置合わせジグの走査を含む、請求項4又は5に記載のシステム。
  7. 前記被験者の前記頭部の少なくとも一部分の前記表面走査は前記被験者の前記頭部の複数の目印特徴を含み、前記位置合わせ処置は前記目印特徴を前記3次元画像セットから得られる対応する目印特徴に整合する、請求項3に記載のシステム。
  8. 前記被験者の前記頭部の前記複数の目印特徴は前記被験者の少なくとも1つの形態上の特徴を含む、請求項3に記載のシステム。
  9. 前記被験者の前記頭部の前記複数の目印特徴は前記被験者の前記頭部に取り付けられた少なくとも1つの基準マーカを含む、請求項3に記載のシステム。
  10. 前記基準マーカの少なくとも1つは前記被験者の頭部に取り付けられた骨ねじである、請求項9に記載のシステム。
  11. 少なくとも1つの前記基準マーカに所定の態様で取り付ける基準位置合わせジグを含み、前記被験者の前記頭部の少なくとも一部分の前記表面走査は、前記少なくとも1つの基準マーカの前記配置が前記基準位置合わせジグの前記配置から決定されるように前記基準位置合わせジグの走査を含む、請求項9又は10に記載のシステム。
  12. 前記被験者の頭部の少なくとも一部分の前記表面走査は前記被験者の頭部の顔の外形の前記重要な領域を含み、前記位置合わせ処置は前記被験者の頭部の顔の外形の前記重要な領域の外形を前記3次元画像セットから得られる前記対応する領域の外形に整合する、請求項7に記載のシステム。
  13. 前記3次元画像セットはCT及びMRIの少なくとも1つによって手術前に得られる、請求項1から12のいずれかに記載のシステム。
  14. 前記位置合わせジグ及び前記小型ロボットの少なくとも1つは前記被験者の頭部に取り付けられる、請求項1から13のいずれかに記載のシステム。
  15. 前記位置合わせジグ及び前記小型ロボットの少なくとも1つは頭部固定クランプに取り付けられる、請求項1から14のいずれかに記載のシステム。
  16. 前記位置合わせジグ及び前記小型ロボットの少なくとも1つは前記被験者の頭部に近接して配設される固定スタンドに取り付けられる、請求項1から15のいずれかに記載のシステム。
  17. 前記3次元面スキャナは光学レーザスキャナ、複数のビデオカメラ、単一のビデオカメラを有する構造化光源及びレーダースキャナのいずれか1つである、請求項1から16のいずれかに記載のシステム。
  18. 前記位置合わせジグは異なる角度で相互に配列された4つの面の対を有する四面体を含む、請求項1から17のいずれかに記載のシステム。
  19. 前記3次元面スキャナに対する所定の位置に配設された、前記被験者の頭部の実時間画像を表示するビデオカメラを含み、前記実時間画像に前記小型ロボットを配置するための適切な位置の仮想指示を示すための情報が前記手術前計画から前記ビデオカメラに提供される、請求項1から18のいずれかに記載のシステム。
  20. 適切な配置を行っている間に前記ロボットの前記位置を指示するために使用される位置決めジグを含み、前記仮想指示は前記位置決めジグの仮想表示である、請求項19に記載のシステム。
  21. 前記システムは外部ナビゲーションを必要とすることなく、動作可能である、請求項1から20に記載のシステム。
  22. 異なる角度で相互に配列された4つの面の対を有する四面体を含む、3次元位置合わせジグ。
  23. 3次元スキャナによって走査されるとき、姿勢に関する曖昧でないデータを提供する、請求項22に記載の3次元位置合わせジグ。
  24. 前記四面体は、4つの全面を広範囲な走査角度から見ることができる前記3次元スキャナの一般的な走査方向に十分に小さい高さを有する、請求項23に記載の3次元位置合わせジグ。
  25. 被験者の頭部の少なくとも一部分の3次元画像セットを生成すること、
    前記被験者の頭部に関する少なくとも1つの脳神経外科処置を規定する手術前計画を生成するために前記3次元画像セットを利用すること、
    前記被験者の頭部の少なくとも一部分の手術中表面走査を生成できるように配設される3次元面スキャナを提供すること、
    前記頭部の姿勢が前記手術中表面走査において規定されるように前記被験者の頭部に対する位置に位置合わせジグを取り付けること、
    前記位置合わせジグで前記被験者の頭部の3次元手術中表面走査を生成するために前記被験者の頭部の少なくとも一部分を走査すること、
    前記位置合わせジグに対して所定の位置に小型ロボットを取り付けること、
    前記小型ロボットが、前記手術前計画によって規定される前記少なくとも1つの脳神経外科処置を行うことができるように、前記3次元画像セットに対して前記小型ロボットの位置を規定するための、前記表面走査を利用する位置合わせ処置を行うことを含む、被験者に鍵穴脳神経外科手術を行う方法。
  26. 外科用器具を方向付けるために前記ロボットに支持される標的ガイドを提供することを含み、前記脳神経外科処置は前記被験者の頭部に少なくとも1つの入口ポイントと前記被験者の頭部内で少なくとも1つの標的ポイントとを定め、前記入口ポイントから前記標的ポイントに前記外科用器具を方向付けるために前記標的ガイドを整列するために前記ロボットを調節することを含む、請求項25に記載の方法。
  27. 前記位置合わせ処置は前記被験者の頭部の少なくとも一部分の前記表面走査を前記3次元画像セットから得られる前記被験者の頭部の対応部分の面モデルに整合する、請求項25又は26に記載の方法。
  28. 前記被験者の前記頭部に複数の基準マーカを取り付けることを含み、前記被験者の前記頭部の少なくとも一部分を走査することは前記基準マーカの前記配置を走査することを含み、前記位置合わせ処置は前記基準マーカの前記配置を前記3次元画像セットから得られる前記基準マーカの前記配置に整合する、請求項25から27のいずれかに記載の方法。
  29. 前記基準マーカの少なくとも1つは前記被験者の頭部に取り付けられる骨ねじである、請求項28に記載の方法。
  30. 基準位置合わせジグを提供すること及び少なくともいくつかの前記基準マーカに所定の態様で取り付けることを含み、前記基準マーカの前記配置が前記基準位置合わせジグの前記配置から決定されるように前記被験者の前記頭部の少なくとも一部分の前記表面走査は前記基準位置合わせジグの走査を含む、請求項28又は29に記載の方法。
  31. 前記被験者の前記頭部の少なくとも一部分の前記表面走査は前記被験者の前記頭部の複数の目印特徴を含み、前記位置合わせ処置は前記目印特徴を前記3次元画像セットから得られる対応する目印特徴に整合する、請求項27に記載の方法。
  32. 前記被験者の前記頭部の前記複数の目印特徴は前記被験者の少なくとも1つの形態上の特徴を含む、請求項27に記載の方法。
  33. 前記被験者の前記頭部の前記複数の目印特徴は前記被験者の前記頭部に取り付けられた少なくとも1つの基準マーカを含む、請求項27に記載の方法。
  34. 前記基準マーカの少なくとも1つは前記被験者の頭部に取り付けられた骨ねじである、請求項33に記載の方法。
  35. 前記基準マーカの少なくとも1つに所定の態様で取り付ける基準位置合わせジグを提供することを含み、前記少なくとも1つの基準マーカの前記配置が前記基準位置合わせジグの前記配置から決定されるように前記被験者の前記頭部の少なくとも一部分の前記表面走査は前記基準位置合わせジグの走査を含む、請求項33又は34に記載の方法。
  36. 前記被験者の頭部の少なくとも一部分の前記表面走査は前記被験者の頭部の顔の外形の重要な領域を含み、前記位置合わせ処置は前記被験者の頭部の顔の外形の前記重要な領域の外形を前記3次元画像セットから得られる前記対応する領域の外形に整合する、請求項31に記載の方法。
  37. 前記3次元画像セットはCT及びMRIの少なくとも1つによって手術前に得られる、請求項25から36のいずれかに記載のシステム。
  38. 前記位置合わせジグ及び前記小型ロボットの少なくとも1つは前記被験者の頭部に取り付けられる、請求項25から37のいずれかに記載の方法。
  39. 前記位置合わせジグ及び前記小型ロボットの少なくとも1つは頭部固定クランプに取り付けられる、請求項25から38のいずれかに記載の方法。
  40. 前記位置合わせジグ及び前記小型ロボットの少なくとも1つは前記被験者の頭部に近接して配設される固定スタンドに取り付けられる、請求項25から39のいずれかに記載の方法。
  41. 前記3次元面スキャナは光学レーザスキャナ、複数のビデオカメラ、単一のビデオカメラを有する構造化光源及びレーダースキャナのうちのいずれか1つである、請求項25から40のいずれかに記載の方法。
  42. 前記位置合わせジグは異なる角度で相互に配列された4つの面の対を有する四面体を含む、請求項25から41のいずれかに記載の方法。
  43. 前記3次元面スキャナに対する所定の位置にビデオカメラを配設すること、及び前記被験者の頭部の実時間画像を表示することを含み、前記小型ロボットを配置するための適切な位置の仮想指示を前記実時間画像に示すための情報が前記手術前計画から前記ビデオカメラに提供される、先行する請求項のいずれかに記載の方法。
  44. 適切な配置の間に前記ロボットの前記位置を指示するために位置合わせジグを提供することを含み、前記仮想指示は前記位置合わせジグの仮想表示である、請求項43に記載の方法。
  45. 外部ナビゲーションを要求しない、請求項25から44のいずれかに記載の方法。
JP2007550932A 2005-01-13 2006-01-12 鍵穴脳神経外科用画像ガイドロボットシステム Pending JP2008526422A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US64342705P 2005-01-13 2005-01-13
PCT/IL2006/000056 WO2006075331A2 (en) 2005-01-13 2006-01-12 Image-guided robotic system for keyhole neurosurgery

Publications (1)

Publication Number Publication Date
JP2008526422A true JP2008526422A (ja) 2008-07-24

Family

ID=36678008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007550932A Pending JP2008526422A (ja) 2005-01-13 2006-01-12 鍵穴脳神経外科用画像ガイドロボットシステム

Country Status (4)

Country Link
US (1) US9492241B2 (ja)
EP (1) EP1855607B1 (ja)
JP (1) JP2008526422A (ja)
WO (1) WO2006075331A2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121341A1 (ja) * 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
WO2013100517A1 (ko) * 2011-12-29 2013-07-04 재단법인 아산사회복지재단 수술 공간과 영상 공간의 정합방법
JP2013530028A (ja) * 2010-05-04 2013-07-25 パスファインダー セラピューティクス,インコーポレイテッド 擬似特徴を使用する腹部表面マッチングのためのシステムおよび方法
JP2013534843A (ja) * 2010-06-16 2013-09-09 エーツー・サージカル 3d患者画像からアクセス領域を決定する方法
JP2013540455A (ja) * 2010-08-04 2013-11-07 メドテック 解剖学的表面の支援型自動データ収集方法
JP2017509450A (ja) * 2014-01-23 2017-04-06 ヴィジュアレーズ,インコーポレーテッド 定位アクセスデバイス及び方法
US10070929B2 (en) 2013-06-11 2018-09-11 Atsushi Tanji Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus
US10130440B2 (en) 2011-08-22 2018-11-20 Visualase, Inc. Stereotactic access devices and methods
JP2018536487A (ja) * 2015-12-14 2018-12-13 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング X線画像を較正する方法
JP2019130290A (ja) * 2017-12-06 2019-08-08 財團法人奇美醫院 骨の3次元骨格画像を作成するためのシステム及び方法
JPWO2018078723A1 (ja) * 2016-10-25 2019-09-05 株式会社 レキシー 手術支援システム
USD874648S1 (en) 2014-01-26 2020-02-04 Visualase, Inc. Access device
JP2021502195A (ja) * 2017-11-09 2021-01-28 クアンタム サージカル 軟組織に対する低侵襲医療介入のためのロボット機器
WO2023112732A1 (ja) * 2021-12-13 2023-06-22 ソニーグループ株式会社 ロボットシステム及び座標統合方法

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8335553B2 (en) 2006-09-25 2012-12-18 Mazor Robotics Ltd. CT-free spinal surgical imaging system
FR2917598B1 (fr) * 2007-06-19 2010-04-02 Medtech Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
EP2468207A1 (en) * 2010-12-21 2012-06-27 Renishaw (Ireland) Limited Method and apparatus for analysing images
WO2016201341A1 (en) * 2015-06-12 2016-12-15 The Trustees Of Dartmouth College Systems and methods for guiding tissue resection
US20160038252A1 (en) 2011-02-17 2016-02-11 The Trustees Of Dartmouth College Systems And Methods for Guiding Tissue Resection
US9320572B2 (en) 2011-04-07 2016-04-26 3Shape A/S 3D system and method for guiding objects
FR2983059B1 (fr) 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
US20130218137A1 (en) * 2011-12-30 2013-08-22 Mako Surgical Corp. Integrated surgery system
US10363102B2 (en) 2011-12-30 2019-07-30 Mako Surgical Corp. Integrated surgery method
TWI572382B (zh) * 2012-05-18 2017-03-01 鄭明輝 填補脂肪裝置
US10758315B2 (en) * 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
EP3932628A1 (en) * 2012-12-10 2022-01-05 Intuitive Surgical Operations, Inc. Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
JP5744084B2 (ja) * 2013-03-06 2015-07-01 株式会社モリタ製作所 歯科用画像表示装置、歯科用施術装置及び歯科用画像表示装置の作動方法
US10512511B2 (en) 2013-07-24 2019-12-24 Centre For Surgical Invention And Innovation Multi-function mounting interface for an image-guided robotic system and quick release interventional toolset
FR3010628B1 (fr) 2013-09-18 2015-10-16 Medicrea International Procede permettant de realiser la courbure ideale d'une tige d'un materiel d'osteosynthese vertebrale destinee a etayer la colonne vertebrale d'un patient
FR3012030B1 (fr) 2013-10-18 2015-12-25 Medicrea International Procede permettant de realiser la courbure ideale d'une tige d'un materiel d'osteosynthese vertebrale destinee a etayer la colonne vertebrale d'un patient
US9642686B1 (en) * 2014-06-02 2017-05-09 Whip-Mix Corporation Method and system for recording characteristics of the occlusal arch of a patient using a portable computing device
AU2015337755B2 (en) 2014-10-29 2019-07-25 Intellijoint Surgical Inc. Systems, methods and devices for anatomical registration and surgical localization
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US10622107B2 (en) 2015-02-13 2020-04-14 Medtronic, Inc. Tools for medical device configuration
US10939962B1 (en) 2015-04-02 2021-03-09 Mazor Robotics Ltd. Cranial insertion placement verification
WO2016206093A1 (zh) * 2015-06-26 2016-12-29 深圳市美德医疗电子技术有限公司 一种大脑皮层电极与磁共振图像融合显示的方法及装置
CA2987058C (en) * 2015-07-13 2019-03-19 Synaptive Medical (Barbados) Inc. System and method for providing a contour video with a 3d surface in a medical navigation system
US10973587B2 (en) * 2015-08-19 2021-04-13 Brainlab Ag Reference array holder
EP3200719B1 (en) 2015-11-02 2019-05-22 Brainlab AG Determining a configuration of a medical robotic arm
EP3370657B1 (en) 2015-11-04 2023-12-27 Medicrea International Apparatus for spinal reconstructive surgery and measuring spinal length
TW201727416A (zh) * 2016-01-27 2017-08-01 Hon Hai Prec Ind Co Ltd 人工標記組合以及進行電腦視覺定位的系統和方法
US11064904B2 (en) * 2016-02-29 2021-07-20 Extremity Development Company, Llc Smart drill, jig, and method of orthopedic surgery
US11432878B2 (en) 2016-04-28 2022-09-06 Intellijoint Surgical Inc. Systems, methods and devices to scan 3D surfaces for intra-operative localization
CN105852970B (zh) * 2016-04-29 2019-06-14 北京柏惠维康科技有限公司 神经外科机器人导航定位***及方法
US10223798B2 (en) * 2016-05-27 2019-03-05 Intellijoint Surgical Inc. Systems and methods for tracker characterization and verification
WO2018049196A1 (en) * 2016-09-09 2018-03-15 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for display of patient data in computer-assisted surgery
WO2018109556A1 (en) 2016-12-12 2018-06-21 Medicrea International Systems and methods for patient-specific spinal implants
RU2670657C9 (ru) * 2017-03-14 2018-12-12 Общество с ограниченной ответственностью "Автом-2" Стереотаксический держатель медицинского инструмента, адаптеры для него
AU2018255892A1 (en) 2017-04-21 2019-11-07 Medicrea International A system for providing intraoperative tracking to assist spinal surgery
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
AU2018265160B2 (en) 2017-05-10 2023-11-16 Mako Surgical Corp. Robotic spine surgery system and methods
TWI670681B (zh) * 2017-06-04 2019-09-01 鈦隼生物科技股份有限公司 判定手術路徑上一個或多個點之方法和系統
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
EP3412242A1 (de) * 2017-06-09 2018-12-12 Siemens Healthcare GmbH Ausgabe von positionsinformationen eines medizintechnischen instruments
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
JP2020524020A (ja) * 2017-06-19 2020-08-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 同軸エンドエフェクタを持つ構成可能なパラレル医療ロボット
WO2019049154A1 (en) * 2017-09-06 2019-03-14 Technion Research And Development Foundation Limited MINIMALLY INVASIVE ROBOTIC SURGERY SYSTEM
US11864934B2 (en) * 2017-11-22 2024-01-09 Mazor Robotics Ltd. Method for verifying hard tissue location using implant imaging
US10918422B2 (en) 2017-12-01 2021-02-16 Medicrea International Method and apparatus for inhibiting proximal junctional failure
US11224484B2 (en) 2018-01-12 2022-01-18 Globus Medical Inc. Surgical sensor anchor system
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
US11246665B2 (en) 2018-07-23 2022-02-15 Brainlab Ag Planning of surgical anchor placement location data
US11007031B2 (en) * 2018-08-14 2021-05-18 Verb Surgical Inc. Setup of surgical robots using an augmented mirror display
EP3843651A1 (en) * 2018-08-30 2021-07-07 Brainlab AG Automated pre-operative assessment of implant placement in human bone
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11980432B2 (en) 2019-03-08 2024-05-14 Moskowitz Family Llc Systems and methods for autonomous robotic surgery
TWI766253B (zh) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11877801B2 (en) 2019-04-02 2024-01-23 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
US11925417B2 (en) 2019-04-02 2024-03-12 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
EP3806037A1 (en) * 2019-10-10 2021-04-14 Leica Instruments (Singapore) Pte. Ltd. System and corresponding method and computer program and apparatus and corresponding method and computer program
CA3154216A1 (en) 2019-10-11 2021-04-15 Beyeonics Surgical Ltd. System and method for improved electronic assisted medical procedures
BR112022007849A2 (pt) 2019-10-29 2022-07-05 Verb Surgical Inc Sistemas de realidade virtual para simulação de fluxo de trabalho cirúrgico com modelo de paciente e sala de operação personalizável
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11769251B2 (en) 2019-12-26 2023-09-26 Medicrea International Systems and methods for medical image analysis
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
CN111887959A (zh) * 2020-08-26 2020-11-06 杭州市第一人民医院 脑出血微创手术定位装置
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN116057519A (zh) 2020-09-08 2023-05-02 美敦力公司 用于增强临床图像管理的成像发现实用程序
JP2022047374A (ja) * 2020-09-11 2022-03-24 富士フイルムヘルスケア株式会社 手術ナビゲーションシステム、手術ナビゲーション機能を備えた医用撮像システム、および、手術ナビゲーション用の医用画像の位置合わせ方法
US20220168048A1 (en) 2020-11-30 2022-06-02 Mazor Robotics Ltd. Autonomous robot tracking
EP4333757A1 (en) * 2021-05-05 2024-03-13 Mazor Robotics Ltd. Systems and methods for generating multiple registrations
DE102021133060A1 (de) * 2021-12-14 2023-06-15 B. Braun New Ventures GmbH Chirurgisches Robotersystem und Steuerverfahren

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69133634D1 (de) * 1990-10-19 2010-08-26 Univ St Louis System zur Lokalisierung einer chirurgischen Sonde relativ zum Kopf
EP0997109B1 (en) 1993-04-26 2003-06-18 ST. Louis University Indicating the position of a surgical probe
US5531520A (en) * 1994-09-01 1996-07-02 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets including anatomical body data
US5588430A (en) * 1995-02-14 1996-12-31 University Of Florida Research Foundation, Inc. Repeat fixation for frameless stereotactic procedure
US5799055A (en) 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
US6132368A (en) * 1996-12-12 2000-10-17 Intuitive Surgical, Inc. Multi-component telepresence system and method
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US6491699B1 (en) 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
US6301495B1 (en) 1999-04-27 2001-10-09 International Business Machines Corporation System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan
DE19960020A1 (de) 1999-12-13 2001-06-21 Ruediger Marmulla Vorrichtung zur optischen Erfassung und Referenzierung zwischen Datensatz, Operationssitus und 3D-Markersystem zur Instrumenten- und Knochensegmentnavigation
ES2180481T3 (es) * 2000-04-05 2003-02-16 Brainlab Ag Referenciacion de un paciente en un sistema de navegacion medica, utilizando puntos luminosos proyectados.
DE10029737B4 (de) 2000-06-23 2006-01-19 Mri Devices Daum Gmbh Navigation eines medizinischen Instrumentes
US6837892B2 (en) * 2000-07-24 2005-01-04 Mazor Surgical Technologies Ltd. Miniature bone-mounted surgical robot
US6697761B2 (en) * 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
US7198630B2 (en) * 2002-12-17 2007-04-03 Kenneth I. Lipow Method and apparatus for controlling a surgical robot to mimic, harmonize and enhance the natural neurophysiological behavior of a surgeon
US7280710B1 (en) * 2002-05-24 2007-10-09 Cleveland Clinic Foundation Architecture for real-time 3D image registration
EP1534141B1 (en) 2002-06-17 2013-08-07 Mazor Robotics Ltd. Robot for use with orthopaedic inserts
JP3735344B2 (ja) * 2002-12-27 2006-01-18 オリンパス株式会社 キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
US8518051B2 (en) 2003-05-16 2013-08-27 Mazor Robotics Ltd. Robotic total/partial knee arthroplastics

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013530028A (ja) * 2010-05-04 2013-07-25 パスファインダー セラピューティクス,インコーポレイテッド 擬似特徴を使用する腹部表面マッチングのためのシステムおよび方法
JP2013534843A (ja) * 2010-06-16 2013-09-09 エーツー・サージカル 3d患者画像からアクセス領域を決定する方法
JP2013540455A (ja) * 2010-08-04 2013-11-07 メドテック 解剖学的表面の支援型自動データ収集方法
US9993655B2 (en) 2011-03-09 2018-06-12 Osaka University Image data processing device and transcranial magnetic stimulation apparatus
JPWO2012121341A1 (ja) * 2011-03-09 2014-07-17 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
WO2012121341A1 (ja) * 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
US10130440B2 (en) 2011-08-22 2018-11-20 Visualase, Inc. Stereotactic access devices and methods
WO2013100517A1 (ko) * 2011-12-29 2013-07-04 재단법인 아산사회복지재단 수술 공간과 영상 공간의 정합방법
US10070929B2 (en) 2013-06-11 2018-09-11 Atsushi Tanji Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus
US9901400B2 (en) 2014-01-23 2018-02-27 Visualise, Inc. Stereotactic access devices and methods
JP2017509450A (ja) * 2014-01-23 2017-04-06 ヴィジュアレーズ,インコーポレーテッド 定位アクセスデバイス及び方法
US10219873B2 (en) 2014-01-23 2019-03-05 Visualase, Inc. Stereotactic access devices and methods
USD874648S1 (en) 2014-01-26 2020-02-04 Visualase, Inc. Access device
JP2018536487A (ja) * 2015-12-14 2018-12-13 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング X線画像を較正する方法
JPWO2018078723A1 (ja) * 2016-10-25 2019-09-05 株式会社 レキシー 手術支援システム
JP2021502195A (ja) * 2017-11-09 2021-01-28 クアンタム サージカル 軟組織に対する低侵襲医療介入のためのロボット機器
JP2019130290A (ja) * 2017-12-06 2019-08-08 財團法人奇美醫院 骨の3次元骨格画像を作成するためのシステム及び方法
WO2023112732A1 (ja) * 2021-12-13 2023-06-22 ソニーグループ株式会社 ロボットシステム及び座標統合方法

Also Published As

Publication number Publication date
WO2006075331A3 (en) 2009-05-22
US9492241B2 (en) 2016-11-15
EP1855607A2 (en) 2007-11-21
US20090177081A1 (en) 2009-07-09
EP1855607A4 (en) 2013-11-27
EP1855607B1 (en) 2017-10-25
WO2006075331A2 (en) 2006-07-20

Similar Documents

Publication Publication Date Title
JP2008526422A (ja) 鍵穴脳神経外科用画像ガイドロボットシステム
US6546279B1 (en) Computer controlled guidance of a biopsy needle
JP7145599B2 (ja) 2d-3d位置合わせの収束を改善するための方法及びシステム
US8311611B2 (en) Method for performing multiple registrations in a navigated procedure
US8301226B2 (en) Method and apparatus for performing a navigated procedure
US8108025B2 (en) Flexible array for use in navigated surgery
US8886331B2 (en) Apparatus and methods for percutaneous cochlear implantation
US9289270B2 (en) Method and apparatus for performing a navigated procedure
US9649168B2 (en) Systems and methods for frameless image-guided biopsy and therapeutic intervention
US20210121237A1 (en) Systems and methods for augmented reality display in navigated surgeries
Fichtinger et al. Image overlay guidance for needle insertion in CT scanner
US20090012509A1 (en) Navigated Soft Tissue Penetrating Laser System
US20140031668A1 (en) Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
US11737696B2 (en) System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US20220378526A1 (en) Robotic positioning of a device
EP2139419A1 (en) Method for performing multiple registrations in a navigated procedure
WO2012033739A2 (en) Surgical and medical instrument tracking using a depth-sensing device
Shamir et al. Robot-assisted image-guided targeting for minimally invasive neurosurgery: planning, registration, and in-vitro experiment
Lim et al. Image-guided robotic mastoidectomy using human-robot collaboration control
EP2142130B1 (en) Flexible array for use in navigated surgery
Joskowicz et al. Miniature robot-based precise targeting system for keyhole neurosurgery: concept and preliminary results
Williamson et al. Image-guided microsurgery
Abbasi et al. Computerized lateral endoscopic approach to invertebral bodies