JP2017526415A - 術中追跡方法 - Google Patents

術中追跡方法 Download PDF

Info

Publication number
JP2017526415A
JP2017526415A JP2017504784A JP2017504784A JP2017526415A JP 2017526415 A JP2017526415 A JP 2017526415A JP 2017504784 A JP2017504784 A JP 2017504784A JP 2017504784 A JP2017504784 A JP 2017504784A JP 2017526415 A JP2017526415 A JP 2017526415A
Authority
JP
Japan
Prior art keywords
dimensional image
patient
model
coordinate system
time point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017504784A
Other languages
English (en)
Other versions
JP6334052B2 (ja
Inventor
階暁 陳
階暁 陳
冠茹 王
冠茹 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2017526415A publication Critical patent/JP2017526415A/ja
Application granted granted Critical
Publication of JP6334052B2 publication Critical patent/JP6334052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Prostheses (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Electrotherapy Devices (AREA)

Abstract

【課題】術中追跡方法を提供することを課題とする。【解決手段】予め計画していた手術経路により患者の実際の手術経路を判定する方法であって、第1時点で収集した情報に関わる該患者の第1の二次元画像をキャプチャすることを含むことができる。第1の座標システムは、該患者と手術室内の装置との間の空間的関係性を説明する。該方法は、第1修正パラメータ値の組で該予め計画していた手術経路を含む該患者の3Dモデルを修正することを更に含む。第2の座標システムは、該3Dモデルを説明し、該3Dモデルが該第1時点より早い第2時点で収集した情報から構築してなる。該方法は、該修正を経た3Dモデルから第2の二次元画像をキャプチャすることと、該第1の二次元画像と該第2の二次元画像の間の第1相関性を計算することと、該第1修正パラメータ値の組により該予め計画していた手術経路を該第1の座標システムに変換することで、該実際の手術経路を識別することを更に含む。【選択図】図2

Description

[関連出願]
本出願は、2015年6月5日に出願された発明の名称が「脳内ナビゲーション方法」である米国仮特許出願第62/171,245号の優先権を主張するものであり、その開示内容及びいかなる関連付属書はすべて参照により本明細書に組み込まれる。
本発明は、術中追跡方法に関し、特に、手術経路を判定する方法に関する。
脳腫瘍、パーキンソン病、癲癇等によく見られる脳疾患は、患者の生活の質を大幅に低下するだけでなく、更に直接的に患者の生命をも危うくすることがある。この種の患者は、薬物又は物理療法等の保守的な治療を経た後でも症状を改善できない場合、通常侵襲性手術で治療が行われる。
一般的に言うと、脳外科医は、特定の術前データにより標的手術部位に到達するための手術経路を計画している。しかしながら、術前データを収集した後でもいくつかの変動要因により、予め計画していた手術経路を修正する場合もある。それら変動要因には、患者の手術台における***の変更、患者の生理状況の変更又は手術器具自体の挿入が含まれる。術前計画した手術経路から外れると、併発症を発症或いは死亡率が上がってしまう。
上記課題を解決するために、鋭意研究を重ねた結果、以下の発明に至った。
本発明の一具体的実施例では、予め計画していた手術経路により患者の実際の手術経路を判定する方法を開示する。該方法は、第1時点で収集した情報に関わる該患者の第1の二次元画像をキャプチャすることと、第1修正パラメータ値の組で該予め計画していた手術経路を含む該患者の3Dモデルを修正することと、該修正を経た3Dモデルから第2の二次元画像をキャプチャすることと、該第1の二次元画像と該第2の二次元画像の間の第1相関性を計算すること、とを含む。第1の座標システムは、該患者と手術室内の装置との間の空間的関係性を説明できる。第2の座標システムは、該3Dモデルを説明でき、該3Dモデルが該第1時点より早い第2時点で収集した情報から構築してなることができる。該第1相関性が閾値を超えた時、該方法は、該第1修正パラメータ値の組により該第2の座標システム内の該予め計画していた手術経路を該第1の座標システムに変換することで、該実際の手術経路を識別することを更に含む。
本発明の別の具体的実施例では、過渡的でないコンピュータ読み取り可能な記憶媒体を開示する。該過渡的でないコンピュータ読み取り可能な記憶媒体は、一組の実行可能なコマンドを含むことができる。該一組の実行可能なコマンドは1個又は複数の手術システムのいずれかの1つのプロセッサで実行された時、該プロセッサは、第1時点で収集した情報に関わる該患者の第1の二次元画像をキャプチャし;第1修正パラメータ値の組で該予め計画していた手術経路を含む該患者の3Dモデルを修正し;該修正を経た3Dモデルから第2の二次元画像をキャプチャし;及び該第1の二次元画像と該第2の二次元画像の間の第1相関性を計算するために用いられる。第1の座標システムは、該患者と手術室内の装置との間の空間的関係性を説明できる。第2の座標システムは、該3Dモデルを説明でき、該3Dモデルが該第1時点より早い第2時点で収集した情報から構築してなることができる。該第1相関性が閾値を超えた時、該プロセッサは、該第1修正パラメータ値の組により該第2の座標システム内の該予め計画していた手術経路を該第1の座標システムに変換することで、該実際の手術経路を識別するために用いられる。
本発明の別の具体的実施例では、予め計画していた手術経路により患者の実際の手術経路を判定する手術システムを開示する。該手術システムは、ストレージシステムとロボットアームと画像収集装置とプロセッサとを含むことができる。該プロセッサは、該ストレージシステム内から該画像収集装置が第1時点で収集した情報の該患者に関わる第1の二次元画像をキャプチャし;第1修正パラメータ値の組で該予め計画していた手術経路を含む該患者の3Dモデルを修正し;該ストレージシステム内の該修正を経た3Dモデルから第2の二次元画像をキャプチャし;及び該第1の二次元画像と該第2の二次元画像の間の第1相関性を計算するために用いられる。第1の座標システムは、該患者と該ロボットアームとの間の空間的関係性を説明できる。第2の座標システムは、該3Dモデルを説明でき、該3Dモデルが該第1時点より早い第2時点で収集した情報から構築してなることができる。該第1相関性が閾値を超えた時、該プロセッサは、該第1修正パラメータ値の組により該第2の座標システム内の該予め計画していた手術経路を該第1の座標システムに変換することで、該実際の手術経路を識別し;及び該実際手術経路により該ロボットアームに手術を行うよう指示するために用いられる。
上記発明内容は、説明のためだけであって本発明を限定して解釈するためのものではない。前述の各方面、具体的実施例及び特徴を除き、本発明の他面、具体的実施例及び特徴が次の詳細な説明に基づくと共に添付図面を参照すると、より一層明瞭にできる。
手術の間に遭遇する可能性のある幾つかの点の間の空間的関係性を示す例示図である。 手術の誘導定位システムの配置を示す例示ブロック図である。 手術経路判定の例示方法を説明するフローチャートである。 第1時点で収集した情報に関わる例示二次元画像である。 第2時点で収集したデータにより構築した例示3Dモデルである。 第1修正パラメータ値の組で修正した3Dモデルを示す例示投影である。 第2修正パラメータ値の組で修正した3Dモデルを示した例示投影である。 エッジ検出処理を経た例示画像である。 エッジ検出処理を経た別の例示画像である。 実際の手術経路判定方法を実施するためのコンピュータプログラム製品を説明するブロック図で、本発明の幾つかの具体的実施例によって配置する。
以下、明細書に添付する図面を参照して詳細に説明する。明細書内に別段の説明がない限り、図面内の類似符号は、通常類似構成要素を示す。以下に記述された具体的実施例、図面及び特許請求の範囲は、説明のためだけであって本発明を限定して解釈するためのものではない。本発明の精神及び範囲を逸脱することなく、その他の具体的実施例を使用し、またその他の変更を行うことができる。ここの概述及び図面で説明する本発明の各方面は、様々な異なる形態として配置、交換、組み合わせ及び設計でき、これら形態がやはり本発明で保護する技術範疇に属する。
本発明は、特別に2つの異なる空間及び2つの異なる時点で収集した二組の画像によって術中手術経路を判定する関連方法、装置及びシステムにつくものである。本明細書において、「投影」とは、通常三次元の点を二次元平面までにマッピングする方法をいう。「手術経路」とは、手術のエントリーポイント、標的手術部位と前記両者の間の1本の経路を包括する。本明細書において、「手術操作」と「手術」は、互換で使用できるものとする。
図1Aは、手術の間に遭遇する可能性のある幾つかの点の間の空間的関係性を示す例示図で、本発明の幾つかの具体的実施例によって配置する。三次元画像120において、手術経路130は、手術のエントリーポイント140と標的手術部位150とを含む。
図1Bは、手術の導引定位システム100の配置を示す例示ブロック図で、本発明の幾つかの具体的実施例によって配置する。手術の導引定位システム100は、主に術前情報収集装置102と術中情報収集装置104と演算装置106とロボットアーム116を包括する手術器具108と、を含む。それらブロックは例示のみであり、開示する具体的実施例の要点に影響を及ぼさないという前提において、幾つかのブロックは、需要に応じて選択でき、より少ないブロックとして合併或いは追加のブロックとして拡張できる。
術前情報収集装置102は、手術操作開始前に手術の対象となる部位(例:脳の特定の部位)の全体情報を収集するために用いる。幾つかの具体的実施例において、コンピュータ断層撮影(Computed Tomography、CT)、磁気共鳴画像(Magnetic resonance imaging、MRI)、脳表撮像、X線(X−ray)撮影、超音波撮影等の方式を通じて該全体情報を取得できる。これら装置のサイズの考慮及び病院管理の観点に基づくと、術前情報収集装置を通常実際に手術操作を行う手術室以外の空間に配置する。この手術の対象となる部位の全体情報(例えば頭蓋内の解剖学的構造(Intracranial Anatomy)、目標又は病変の位置(Lesion Location)又は表面位置の標的或いは体表解剖学(Surface Anatomy)を介して、脳外科医は、手術操作開始前に手術経路を計画できる。
術中情報収集装置104は、手術室内で外科的切開術を行う直前に、患者の手術部位周辺の体表解剖学的情報を収集する。術中情報収集装置104を示す例は、カメラ、赤外線カメラ、X線モジュール、超音波スキャナ及び他の装置を含むものとするが、これに限定されない。患者が手術室の手術台上にいる時、術中情報収集装置104で、患者の体表解剖学的情報を収集できる。
演算装置106は、(1)術前情報収集装置102が収集した情報を処理し;(2)術中情報収集装置104が収集した情報を処理し;及び/或いは(3)処理を経た情報により手術経路を判定するために用いられることができる。その他の関連の委細は、後記の段落で説明する。
手術器具108は、手術を行うためのロボットアーム116を包括することができる。手術器具108は、演算装置106から判定を経た手術経路に関わる情報を受信するために用いられる。受信する情報は、ロボットアーム116が認識できる幾つかの座標データ及びベクトルを包括できる。即ち、ロボットアーム116が座標データ及びベクトルに基づいて手術を行うことができる。
図2は、本発明の幾つかの具体的実施例に係る手術経路の判定を示す例示方法200フローチャートである。方法200は、ハードウェア、ソフトウェア及び/或いはファームウェアで実行できる1個又は複数の操作、功能或いは動作を含むことができ、例えば図内に表示されるステップ210、220、230、240、250、260、270、280及び/或いは290とする。これらステップは、記述された具体的実施例を制限するものではない。記載されたステップと操作は例示のみであって、開示された具体的実施例の要点に影響を及ぼさないという前提において、その中の幾つかのステップと操作は、需要に応じて選択でき、より少ないステップ及び操作として合併、或いは追加のステップ及び操作として拡張できる。図内のステップは順番通り説明したにもかかわらず、それらステップも並行実行及び/或いは図内の順序と異なる順番で実行することもできる。
方法200の進みは、ステップ210である「第1時点で収集した情報に関わる第1の二次元画像をキャプチャする」から始まることができる。幾つかの具体的実施例において、収集した情報は、該患者の体表解剖学的情報に対応でき、該第1時点が外科的切開術を行う直前の時間に対応できる。例示第1時点は、手術当日の朝、患者が手術室内の手術台上にいる時、及び前記両者間の任意の時点を含むものとするが、これに限定されない。このほかに、第1の二次元画像は、カメラ(例えば赤外線カメラ)で撮影した写真とすることができる。例えば、脳の手術過程中において、カメラは手術室における患者の頭部の外科的切開術を行う直前に、患者の頭部の写真1枚を撮影するために用いることができる。カメラは、手術室内の定置装置(例えばロボットアーム)に固定されて、カメラと患者とを手術室内に固定不変の関係を維持させることができる。幾つかの具体的実施例において、カメラはロボットアームの移動時に異なる位置から写真を撮影できる。各位置は1枚の特定写真に対応できる。幾つかの具体的実施例において、第1の座標システムは、患者の体表解剖学的部位(例えば鼻、眼、他の顔の特徴)と手術室内のロボットアームとの間の空間的関係性を特定するために用いることができる。
ステップ210の後にステップ220である「第2時点で収集した情報により3Dモデルを構築する」となる。手術操作を行う前、幾つかの医用イメージングテクノロジーを用いて患者の症状の写真を撮影することで、手術計画を立案することができる。手術部位が患者の脳と仮定する。脳外科医は、脳に対し医用画像のスキャン(例えばCT或いはMRI)を行うよう指示できる。この種の医用画像のスキャンは、手術の3〜5日前に行うことができる。幾つかの既知のアプローチを利用して前記医用画像のスキャンデータによって3Dモデルを構築できる。第2の座標システムは、予め計画していた手術経路と患者の特定の解剖学的部位との空間的関係性を特定できる。
ステップ220の後にステップ230である「3Dモデルの修正パラメータ値(n)を選択する」となる。ステップ220内で構築した3Dモデルは、幾つかの修正パラメータ値で修正できる。例示修正パラメータは、拡大縮小率、回転角度及び並進ベクトルを含むものとするが、これに限定されない。これら修正パラメータは、3Dモデルの修正に用いることができ、これを通じて手術を行う直前により一層適切に患者の状態を反映する。最適な修正パラメータ値の組を見つけ出すため、幾つかの具体的実施例において、N組の修正パラメータ値の組を得ることができる。ここで、nは、1〜Nの整数とすることができる。しかしながら、当業者は、その他の技術上の実現可能なアプローチを運用して反復処理を実施することが、本発明の範囲内にあることは当業者にとって明白だろう。
一例を挙げれば、構築した3Dモデルは、デカルト座標システムで表示できる。拡大縮小率は、デカルト座標システム内の各軸の直線寸法の比例定数を指す。同様に、回転角度は、デカルト座標システム内の特定軸を回る回転角度を指すことができる。並進ベクトルは、デカルト座標システム内の移動ベクトルを指すことができる。
ステップ230の後にステップ240である「n=N?」となる。n≠Nの時、ステップ240の後にステップ250に移り、nが1で逓増する。このほかに、n=Nの時、ステップ240の後にステップ280である「得られた相関性が閾値を超える最適な修正パラメータ値の組を選択する」に移り、なぜならN組の修正パラメータ値の組を使用する全ての相関性の演算をすでに完了したからである。N組の修正パラメータ値の組を使用して得られた相関性の演算結果が閾値を超えていない場合、方法200はnをリセットでき、またステップ230に戻って3Dモデル内の先ほど反復処理で選択したことがない一組の新しい修正パラメータ値の組(n)を選択できる。
ステップ260において、第2の二次元画像は、選択した修正パラメータ値の組(n)で修正した3Dモデルの投影とすることができる。即ち、第2の二次元画像は、特定修正パラメータ値の組に対応できる。いかなる技術上の実現可能なアプローチで投影を行うことができ、例えば平行投影、正投影、透視投影等である。ステップ260においてキャプチャした第2の二次元画像をステップ210においてキャプチャした第1の二次元画像と比較してからステップ270である「相関性を計算並びに保存する」へ進むことができる。
ステップ270では、幾つかの具体的実施例において、第1の二次元画像の第1関心領域と第2の二次元画像の第2関心領域の相関性を計算並びに保存する。第1の二次元画像と第2の二次元画像の輪郭の特徴により、各々第1関心領域と第2関心領域を選択できる。履歴データ又は脳外科医の経験に基づいて選択できる。幾つかの既知のアプローチにより相関性を計算できる。例えば、下式1で相関性corr:を計算できる。
式中:
Nは、第1関心領域におけるポイント数であり;
は、第2の二次元画像データを含んだインデックス配列であり;
は、第1の二次元画像データを含んだインデックス配列であり;
は、P相関性の計算待ちの領域における連続ピクセルの連続i個の値のインデックス配列であり;
は、P相関性を含んだ計算待ちの領域における連続ピクセルの連続i個の値のインデックス配列である。
異なる修正パラメータ値の組があるため、ステップ270内において、各々対応する相関性を計算並び保存する。
幾つかの具体的実施例において、第1の二次元画像と第2の二次元画像に対しエッジ検出を行う。第1の二次元画像と第2の二次元画像がエッジ検出を経た後に生成された画像に対し、両者の相関性を計算できる。例示エッジ検出方法は、Cannyエッジ検出法、1次のエッジ検出法及び2次のエッジ検出法を含むものとするが、これに限定されない。
ステップ230、240、250、260及び270をN回繰り返した後、N組の修正パラメータ値の組で3Dモデルを修正する。N個の修正を経た3Dモデルがあるため、N個の第2の二次元画像をキャプチャすると共にそれを上記相関性の演算に用いる。方法200は、次にステップ280である「得られた相関性が閾値を超える最適な修正パラメータ値の組を選択する」に進むことができる。第1の二次元画像と第2の二次元画像が顕著な相関性の有無を判定するため、閾値を設定する。幾つかの履歴データ(例えば動物試験或いは他の患者から収集したデータ)若しくは脳外科医の経験に基づいて閾値を決定できる。保存した閾値を超える相関性は、第1関心領域と第2関心領域が確かに患者の同じ解剖学的部位に対応することを示す。一具体的実施例において、保存した閾値を超える相関性において、得られた相関性の最大の修正パラメータ値の組を最適な修正パラメータ値の組として選択する。
ステップ280の後にステップ290である「座標を変換する」となる。選択した最適な修正パラメータ値の組により、第2の座標システムの座標を第1の座標システムに変換する。よって、第2の座標システム内の予め計画していた手術経路を第1の座標システムに変換でき、該第1の座標システムは、実際に手術操作を行う手術室を表すために用いられる。第1の座標システム内の変換を経た座標及びベクトルにより、ロボットアームに患者の関連の変動要因を考量して手術操作を行わせるために用いることができる。
図3Aは、第1時点(例えば、手術室内の患者に対し外科的切開術を行う直前で、通常は外科的切開術を行う前の24時間以内に収集する)で収集した情報に関わる例示二次元画像301で、本発明の幾つかの具体的実施例によって配置する。二次元画像301は、赤外線カメラで撮影できる。二次元画像は、患者の幾つかの体表解剖学的部位を含むことができ、例えば右眼311、頬の曲線312、鼻313及び口部314である。二次元画像301の第1関心領域315を選択して別の二次元画像の第2関心領域と比較でき、次に詳細に説明する。第1関心領域315は、幾つかの体表解剖学的部位をカバーでき、例えば右眼311、頬の曲線312、鼻313及び口部314である。第1の座標システム380’を用いて手術室内の装置(例えばロボットアーム)と患者の体表解剖学的部位との間の空間的関係性を説明できる。
図3Bは、第2時点(例えば手術操作日の前で、通常は手術操作前の3日以内に収集する)で収集したデータで構築された例示3Dモデル302で、本発明の幾つかの具体的実施例によって配置する。3Dモデル302は、体表解剖学的部位を含み、例えば右眼321、頬の曲線322、鼻323及び口部324である。医療用スキャン画像302’により、3Dモデル302上に手術経路360を計画できる。手術経路360は、手術のエントリーポイント361を始点とし、標的手術部位362を終点とすることができる。先ほど参照した図1Aの記述通り、手術のエントリーポイント361は、患者の頭蓋骨上にあり、標的手術部位362が患者の脳腫瘤とすることができる。
幾つかの具体的実施例において、デカルトの第2の座標システム380は、手術経路360と右眼321、頬の曲線322、鼻323及び口部324の間の空間的関係性を説明するために用いることができる。例えば、第2の座標システム380内において、手術のエントリーポイント361の座標を(1,2,3)とし、標的手術部位362の座標を(2,3,4)とすることができ、手術のエントリーポイント361と標的手術部位362との間のベクトルを(1,1,1)とする。同様に、第2の座標システム380内において、右眼321の座標を(4,5,6)とし、頬の曲線322の座標を(2,9,11)とし、鼻323の座標を(7,8,9)とし、口部324の座標を(3,7,5)とすることができる。
修正パラメータ値の組で3Dモデル302を修正することで、修正を経た3Dモデル302’を生成できる。例えば、第1例示修正パラメータ値の組は、拡大縮小率が100%、αが45度、βが0度、またγが0度であることを含むが、これに限定されなく、αが第2の座標システム380内のz−軸を回る回転角度を表し、βが第2の座標システム380内のy−軸を回る回転角度を表し、γが第2の座標システム380内のx−軸を回る回転角度を表す。修正を経た3Dモデル302’から第2の二次元画像をキャプチャできる。幾つかの具体的実施例において、第2の二次元画像は、3Dモデル302’の投影である。
図3Cは、第1例示修正パラメータ値の組で修正した3Dモデル302’の例示投影303で、本発明の幾つかの具体的実施例によって配置する。図3Cは、患者の体表解剖学的部位を含むことができ、例えば右眼331、頬の曲線332、鼻333及び口部334である。一緒に図3Aを参照すると、第2関心領域335を選択することで第1関心領域315と第2関心領域335との間の第1相関性を計算できる。
第1相関性を得た後、第2例示修正パラメータ値の組で3Dモデルを修正することで、別の修正を経た3Dモデル302’を生成できる。第2例示修正パラメータ値の組は、拡大縮小率が100%で、αが20度、βが0度、またγが0度であることを含むが、これに限定されない。同様に、修正を経た3Dモデル302’の例示投影をキャプチャできる。図3Dは、第2例示修正パラメータ値の組で修正した3Dモデル302’の例示投影304で、本発明の幾つかの具体的実施例によって配置する。図3Dは、患者の体表解剖学的部位を含むことができ、例えば右眼341、頬の曲線342、鼻343及び口部344である。一緒に図3Aを参照すると、第2関心領域345を選択することで第1関心領域315と第2関心領域345との間の第2相関性を計算できる。
幾つかの具体的実施例において、第1と第2の相関性を計算する前、まず二次元画像301、303及び304を処理する。例えば、エッジ検出方法を運用して二次元画像301、303及び304を処理できる。図3Eは、画像301がエッジ検出処理を経た後に生成した例示画像305で、本発明の幾つかの具体的実施例によって配置する。図3Fは、αが−45度の修正パラメータ値に関わり、エッジ検出処理を経た後に生成された別の例示画像で、本発明の幾つかの具体的な実施例によって配置する。
仮に2組の修正パラメータ値の組(つまり、拡大縮小率が100%、αが45度、βが0度、γが0度であり;及び拡大縮小率が100%、αが20度、βが0度、γが0度である)のみを得て3Dモデル302を修正し、第1相関性と第2相関性を閾値と比較し、これを介してどれが最適な修正パラメータ値の組であるかを判定する。最適な修正パラメータ値の組で第2の座標システム380内の座標を第1の座標システム380’に変換する。
幾つかの具体的実施例において、修正パラメータが拡大縮小率と関係があると仮定し、第2の座標システム380から第1の座標システム380’に変換するのは、該拡大縮小率に第2の座標システム380に掛けた座標を含むことができる。よって、予め計画していた手術経路の第1の座標システム380’におけるベクトルが第2の座標システム380におけるものと同じである。しかしながら、第2の座標システム380内の予め計画していた手術経路の距離と比較すると、第1の座標システム380’内の実際の手術経路の距離は、該拡大縮小率の縮尺によって描かれる。
幾つかの他の具体的実施例において、修正パラメータが回転角度と関係があると仮定する。よって、予め計画していた手術経路の第1の座標システム380’におけるベクトルが変更され、第2の座標システム380におけるベクトルとは異なる。第2の座標システム380から第1の座標システム380’に変換するのは、マトリクス演算を含むことができる。該マトリクスは、第1の座標システム380’と第2の座標システム380との間の変換マトリクスとすることができる。例示変換マトリクスは、下式で表される。

式中、αは、第2の座標システム380内のz−軸を回る回転角度を表し;
βは、第2の座標システム380内のy−軸を回る回転角度を表し;
γは、第2の座標システム380内のx−軸を回る回転角度を表し;
offsetは、第2の座標システム380内のx−軸に沿った変位を表し;
offsetは、第2の座標システム380内のy−軸に沿った変位を表し;
offsetは、第2の座標システム380内のz−軸に沿った変位を表し;
以下の演算を通じて座標変換を終えることができる。
式中、x’、y’、z’は、第1の座標システム380’内の変換を経た座標で、またx、y、zが第2の座標システム380内の座標である。
仮に第2修正パラメータ値の組(つまり、拡大縮小率が100%、αが20度、βが0度、γが0度)は閾値を超え、第1修正パラメータ値の組(つまり、拡大縮小率が100%、αが45度、βが0度、γが0度)が閾値を超えない場合、第2修正パラメータ値の組を最適な修正パラメータ値の組として選択し、変換マトリクスが下式で表される。
上式(3)及び変換マトリクスによれば、第1の座標システム380’内において、手術エントリーポイント371の座標を(1.62373,1.53737,3)、標的手術部位372の座標を(2.90545,2.13504,4)、また手術エントリーポイント371と標的手術部位372の間のベクトルを(1.28172,0.59767,1)とすることができる。前記座標とベクトルを手術室内のロボットアームまで伝送することで脳外科医にロボットアームで手術を行わせることができる。
図4は、本発明に係る一具体的実施例の実際手術経路の判定方法を実行するためのコンピュータプログラム製品400を示すブロック図である。コンピュータプログラム製品400は、信号搬送媒体402を含むことができる。信号搬送媒体402は、その上に保存している1組或いは複数組の実行可能なコマンド404を含むことができる。これらコマンドは図1の演算装置106で実行する時、上記特徴と操作を提供できる。
幾つかの実施方式において、信号搬送媒体402は、過渡的でないコンピュータ読み取り可能な記憶媒体408を含むことができ、例えばハードディスク、コンパクトディスク(CD)、デジタルコンパクトディスク(DVD)、デジタル磁気テープ、メモリ等であるがこれに限られるものではない。幾つかの実施方式において、信号搬送媒体402は記録媒体410を含むことができ、例えばメモリ、読み/書き(R/W)CD、(R/W)DVD等であるがこれに限られるものではない。幾つかの実施方式において、信号搬送媒体402は、通信媒体406を含むが、例えばデジタル及び/或いはアナログ通信媒体(例えば光ファイバーケーブル、導波、有線通信線路、無線通信線路等)であるがこれに限られるものではない。
上文では、ブロック図、フローチャート及び/或いは例を通じて装置及び/或いはプロセスの各具体的実施例を説明した。これらブロック図、フローチャート及び/或いは例の範囲内において1個或いは複数の機能及び/或いは操作を含み、これらブロック図、フローチャート又は例の範囲内の各機能及び/或いは操作は種類が非常に多くのハードウェア、ソフトウェア、ファームウェア若しくはそれらの任意の組み合わせから個別及び/或いは共同で実行できることは当業者は明白だろう。幾つかの具体的実施例において、本発明の標的の幾つかの部分は、特定用途向け集積回路(ASICs)、フィールドプログラマブルゲートアレイ(FPGAs)、デジタルシグナルプロセッサ(DSPs)或いは他の統合フォーマットを通じて実施できる。しかしながら、本明細書で開示されている具体的実施例の幾つかの方面の全部或いは一部が同様に集積回路で実行できることは当業者は理解するであろう。例えば1個或いは複数のコンピュータプログラムが1個或いは複数のコンピュータ上で実行(例えば1個或いは複数のプログラムが1個或いは複数のコンピュータシステム上で実行)し、例えば1個或いは複数のプログラムが1個或いは複数のプロセッサ上で実行(例えば1個或いは複数のプログラムが1個或いは複数のマイクロプロセッサ上で実行)、例えばファームウェア又はその任意の組み合わせである。本発明で開示されている内容により回路及び/或いはソフトウェア及び/或いはファームウェアのためにプログラムコードを作成するのは、本発明の属する分野の技術に属する。このほかに、本発明標的メカニズムは、異なる形式のプログラム製品として散布でき、且つ実際に散布を実行する特定タイプの信号搬送媒体が何かを問わず、本発明標的の例示具体的実施例がいずれも適用されることは当業者は明白だろう。信号搬送媒体の例は、ディスク、ハードディスク、コンパクトディスク(CD)、デジタルコンパクトディスク(DVD)、デジタル磁気テープ、コンピュータメモリ等の記録媒体及び例えばデジタル及び/或いはアナログ通信媒体(例えば光ファイバーケーブル、導波、有線通信線路、無線通信線路)といった送信媒体を含むものとするがこれに限定されない。
発明の詳細な説明の項においてなされた実施例は、あくまでも本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の範囲と精神とから外れることなく、様々な変更を行うことができる。よって本発明の真実範囲及び精神を後記の特許請求の範囲に開示している。
100 手術の導引定位システム
102 術前情報収集装置
104 術中情報収集装置
106 演算装置
108 手術器具
116 ロボットアーム
120 三次元画像
130 手術経路
140 手術エントリーポイント
150 標的手術部位
200 方法
210,210,220,230,240,250,260,270,280,290 ステップ
301 二次元画像
302 3Dモデル
302’ 医療用スキャン画像
303,304 投影
305,306 画像
311 右眼
312 頬の曲線
313 鼻
314 口部
315 第1関心領域
321 右眼
322 頬の曲線
323 鼻
324 口部
331 右眼
332 頬の曲線
333 鼻
334 口部
335 第2関心領域
341 右眼
342 頬の曲線
343 鼻
344 口部
345 第2関心領域
360 手術経路
361 手術エントリーポイント
362 標的手術部位
371 手術エントリーポイント
372 標的手術部位
380 第2の座標システム
380’ 第1の座標システム
400 コンピュータプログラム製品
402 信号搬送媒体
404 実行可能なコマンド
406 通信媒体
408 非過渡的でないコンピュータ読み取り可能記憶媒体
410 記録媒体

Claims (20)

  1. 予め計画していた手術経路により患者の実際の手術経路を判定する方法であって、
    第1時点で収集した情報に関わる該患者の第1の二次元画像をキャプチャし、第1の座標システムで前記患者と手術室内の装置との間の空間的関係性を説明することと、
    第1修正パラメータ値の組で前記予め計画していた手術経路を含む前記患者の3Dモデルを修正し、前記3Dモデルが前記第1時点より早い第2時点で収集した情報から構築してなると共に第2の座標システムで説明することと、
    前記修正を経た3Dモデルから第2の二次元画像をキャプチャすることと、
    前記第1の二次元画像と前記第2の二次元画像の間の第1相関性を計算することと、
    前記第1相関性が閾値を超えた時、前記第1修正パラメータ値の組により前記第2の座標システム内の前記予め計画していた手術経路を前記第1の座標システムに変換することで、前記実際の手術経路を識別することと、
    を含むことを特徴とする予め計画していた手術経路により患者の実際の手術経路を判定する方法。
  2. 前記3Dモデルの修正は、前記修正パラメータ値の組により、前記3Dモデルの拡大や縮小、前記3Dモデルの回転或いは前記3Dモデルの移動を包括することを特徴とする
    請求項1に記載の方法。
  3. 前記第2の二次元画像は、前記修正を経た3Dモデルの投影であることを特徴とする
    請求項1に記載の方法。
  4. 前記第1時点において前記患者が手術室内の手術台上におり、該第2時点において前記患者が医用画像のスキャンを受けていることを特徴とする請求項1に記載の方法。
  5. 前記第1相関性が該閾値を超えていない時、
    第2修正パラメータ値の組で前記予め計画していた手術経路を含む前記患者の前記3Dモデルを修正することと、
    前記第2修正パラメータ値の組で修正した前記3Dモデルから第3の二次元画像をキャプチャすることと、
    前記第1の二次元画像と前記第3の二次元画像の間の第2相関性を計算することと、
    前記第2相関性が閾値を超えた時、前記第2修正パラメータ値の組により前記第2の座標システム内の前記予め計画していた手術経路を前記第1の座標システムに変換することで、前記実際の手術経路を識別することと、
    を更に含むことを特徴とする
    請求項1に記載の方法。
  6. 前記第1の二次元画像及び前記第2の二次元画像に対してエッジ検出を行うことを更に含むことを特徴とする
    請求項1に記載の方法。
  7. 前記エッジ検出は、前記相関性を計算する前に行うことを特徴とする
    請求項6に記載の方法。
  8. 一組の実行可能なコマンドを含む過渡的でないコンピュータ読み取り可能な記憶媒体であって、前記一組の実行可能なコマンドは1個又は複数の手術システムのいずれかの1つのプロセッサで実行された時、前記プロセッサに予め計画していた手術経路により患者の実際の手術経路を判定する方法を実行させ、前記方法は、
    第1時点で収集した情報に関わる該患者の第1の二次元画像をキャプチャし、第1の座標システムで前記患者と手術室内の装置との間の空間的関係性を説明することと、
    第1修正パラメータ値の組で前記予め計画していた手術経路を含む前記患者の3Dモデルを修正し、前記3Dモデルが前記第1時点より早い第2時点で収集した情報から構築してなると共に第2の座標システムで説明することと、
    前記修正を経た3Dモデルから第2の二次元画像をキャプチャすることと、
    前記第1の二次元画像と前記第2の二次元画像の間の第1相関性を計算することと、
    前記第1相関性が閾値を超えた時、前記第1修正パラメータ値の組により前記第2の座標システム内の前記予め計画していた手術経路を前記第1の座標システムに変換することで、前記実際の手術経路を識別することと、
    を含むことを特徴とする
    過渡的でないコンピュータ読み取り可能な記憶媒体。
  9. 前記3Dモデルの修正は、前記修正パラメータ値の組により、前記3Dモデルの拡大や縮小、前記3Dモデルの回転或いは前記3Dモデルの移動を包括することを特徴とする
    請求項8に記載の過渡的でないコンピュータ読み取り可能な記憶媒体。
  10. 前記第2の二次元画像は、前記修正を経た3Dモデルの投影であることを特徴とする請求項8に記載の過渡的でないコンピュータ読み取り可能な記憶媒体。
  11. 前記第1時点において前記患者が手術室内の手術台上におり、該第2時点において前記患者が医用画像のスキャンを受けていることを特徴とする請求項8に記載の過渡的でないコンピュータ読み取り可能な記憶媒体。
  12. 前記第1相関性が該閾値を超えていない時、前記方法は、
    第2修正パラメータ値の組で前記予め計画していた手術経路を含む前記患者の前記3Dモデルを修正することと、
    前記第2修正パラメータ値の組で修正した前記3Dモデルから第3の二次元画像をキャプチャすることと、
    前記第1の二次元画像と前記第3の二次元画像の間の第2相関性を計算することと、
    前記第2相関性が閾値を超えた時、前記第2修正パラメータ値の組により前記第2の座標システム内の前記予め計画していた手術経路を前記第1の座標システムに変換することで、前記実際の手術経路を識別することと、
    を更に含むことを特徴とする
    請求項8に記載の過渡的でないコンピュータ読み取り可能な記憶媒体。
  13. 前記方法は、前記第1の二次元画像及び前記第2の二次元画像に対してエッジ検出を行うことを更に含むことを特徴とする
    請求項8に記載の過渡的でないコンピュータ読み取り可能な記憶媒体。
  14. 前記エッジ検出は、前記相関性を計算する前に行うことを特徴とする
    請求項13に記載の過渡的でないコンピュータ読み取り可能な記憶媒体。
  15. ストレージシステムとロボットアームと画像収集装置とプロセッサとを含む予め計画していた手術経路により患者の実際の手術経路を判定する手術システムであって、
    前記プロセッサは、
    前記ストレージシステム内から前記画像収集装置が第1時点で収集した情報に関わる該患者の第1の二次元画像をキャプチャし、第1の座標システムで前記患者と前記ロボットアームとの間の空間的関係性を説明し、
    第1修正パラメータ値の組で前記予め計画していた手術経路を含む前記患者の3Dモデルを修正し、前記3Dモデルが前記第1時点より早い第2時点で収集した情報から構築してなると共に第2の座標システムで説明し、
    前記ストレージシステム内の前記修正を経た3Dモデルから第2の二次元画像をキャプチャし、
    前記第1の二次元画像と前記第2の二次元画像の間の第1相関性を計算し、
    前記第1相関性が閾値を超えた時、前記第1修正パラメータ値の組により前記第2の座標システム内の前記予め計画していた手術経路を前記第1の座標システムに変換することで、前記実際の手術経路を識別し、
    前記実際手術経路により前記ロボットアームに手術を行うよう指示するために用いられることを特徴とする予め計画していた手術経路により患者の実際の手術経路を判定する手術システム。
  16. 拡大縮小率、回転角度及び/又は並進ベクトルで前記3Dモデルを修正することを特徴とする
    請求項15に記載のシステム。
  17. 前記画像収集装置は、前記ロボットアームの上に固定されることを特徴とする
    請求項15に記載のシステム。
  18. 前記画像収集装置は、前記ロボットアームが移動する時に複数の画像を撮影するために用いられることを特徴とする
    請求項15に記載のシステム。
  19. 前記第1時点において前記患者が手術室内の手術台上におり、該第2時点において前記患者が医用画像のスキャンを受けていることを特徴とする
    請求項15に記載のシステム。
  20. 前記プロセッサは、更に前記第1の二次元画像と前記第2の二次元画像に対してエッジ検出の演算を行うために用いられることを特徴とする
    請求項15に記載のシステム。
JP2017504784A 2015-06-05 2016-06-03 術中追跡方法 Active JP6334052B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562171245P 2015-06-05 2015-06-05
US62/171,245 2015-06-05
PCT/CN2016/084732 WO2016192671A1 (en) 2015-06-05 2016-06-03 Intra operative tracking method

Publications (2)

Publication Number Publication Date
JP2017526415A true JP2017526415A (ja) 2017-09-14
JP6334052B2 JP6334052B2 (ja) 2018-05-30

Family

ID=57440176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504784A Active JP6334052B2 (ja) 2015-06-05 2016-06-03 術中追跡方法

Country Status (10)

Country Link
US (1) US9827053B2 (ja)
EP (1) EP3145420B8 (ja)
JP (1) JP6334052B2 (ja)
KR (1) KR101933132B1 (ja)
CN (1) CN106794044B (ja)
CA (1) CA2949797C (ja)
DK (1) DK3145420T3 (ja)
HR (1) HRP20201646T1 (ja)
TW (1) TWI595437B (ja)
WO (1) WO2016192671A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI670681B (zh) * 2017-06-04 2019-09-01 鈦隼生物科技股份有限公司 判定手術路徑上一個或多個點之方法和系統
CN111032140B (zh) * 2017-08-16 2022-08-16 直观外科手术操作公司 用于在医疗程序期间监测患者运动的***和方法
WO2019137507A1 (en) * 2018-01-11 2019-07-18 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for surgical route planning
CN112770686A (zh) * 2018-08-01 2021-05-07 钛隼生物科技股份有限公司 在手术中跟踪患者位置的方法和***
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
CN109925053B (zh) * 2019-03-04 2021-06-22 杭州三坛医疗科技有限公司 手术路径的确定方法、装置和***、可读存储介质
CN109925052B (zh) * 2019-03-04 2020-12-08 杭州三坛医疗科技有限公司 靶点路径的确定方法、装置和***、可读存储介质
WO2020177725A1 (zh) * 2019-03-04 2020-09-10 杭州三坛医疗科技有限公司 一种靶点路径的确定方法
CN109993792B (zh) * 2019-03-04 2021-05-25 杭州三坛医疗科技有限公司 投影方法、装置及***和可读存储介质
CN109925054B (zh) * 2019-03-04 2020-12-18 杭州三坛医疗科技有限公司 确定靶点路径的辅助方法、装置和***、可读存储介质
AU2020234305A1 (en) * 2019-03-11 2021-10-07 Intellijoint Surgical Inc. Computer assisted surgery system and method to process and communicate planning data
TWI766253B (zh) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
CN113643226B (zh) * 2020-04-27 2024-01-19 成都术通科技有限公司 标注方法、装置、设备及介质
CN112807084B (zh) * 2020-06-01 2023-06-02 上海库欣医疗科技有限公司 用于脑干出血手术导航的颅脑穿刺路径建立方法及导航方法
CN112807083A (zh) * 2020-06-01 2021-05-18 上海库欣医疗科技有限公司 用于神经外科导航的颅脑穿刺路径建立方法和***
CN113797418A (zh) * 2020-06-12 2021-12-17 中强光电股份有限公司 医疗影像设备以及医疗影像显示方法
US11529738B2 (en) * 2020-07-02 2022-12-20 NDR Medical Technology Pte. Ltd. Control system and a method for operating a robot
US11481235B2 (en) * 2021-01-11 2022-10-25 Evicore Healthcare MSI, LLC Database framework model transformation for pathway identification

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017753A (ja) * 1999-11-26 2002-01-22 Marconi Medical Systems Finland Inc 画像装置と協働の介入処置計画を容易にするシステム及び方法
JP2002102249A (ja) * 2000-09-29 2002-04-09 Olympus Optical Co Ltd 手術ナビゲーション装置および手術ナビゲーション方法
JP2005305048A (ja) * 2004-04-26 2005-11-04 Mitsubishi Electric Corp 患者位置決め装置および患者位置決め方法
JP2010540065A (ja) * 2007-10-01 2010-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 介入器具の検出及び追跡
WO2014013393A2 (en) * 2012-07-17 2014-01-23 Koninklijke Philips N.V. Imaging system and method for enabling instrument guidance
JP2014147455A (ja) * 2013-01-31 2014-08-21 Toshiba Corp 医用画像診断装置及び穿刺術支援装置
JP2017524464A (ja) * 2014-08-19 2017-08-31 チェン シェシャオChen, Chieh Hsiao 手術部位におけるプローブの位置を判定する方法及びシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
US6122541A (en) 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
CN1100516C (zh) * 1997-08-27 2003-02-05 北京航空航天大学 机器人脑外科设备***及其所采用的图象和坐标处理方法
US7570791B2 (en) * 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
US20050182319A1 (en) * 2004-02-17 2005-08-18 Glossop Neil D. Method and apparatus for registration, verification, and referencing of internal organs
US7831073B2 (en) * 2005-06-29 2010-11-09 Accuray Incorporated Precision registration of X-ray images to cone-beam CT scan for image-guided radiation treatment
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
WO2008013598A2 (en) * 2006-05-25 2008-01-31 William Beaumont Hospital Real-time, on-line and offline treatment dose tracking and feedback process for volumetric image guided adaptive radiotherapy
US8804901B2 (en) * 2010-06-08 2014-08-12 Accuray Incorporated Imaging methods for image-guided radiation treatment
IT1400684B1 (it) * 2010-07-07 2013-06-28 Esaote Spa Metodo e dispositivo di imaging per il monitoraggio di un corpo in esame.
JP2015505679A (ja) * 2011-10-09 2015-02-26 クリア・ガイド・メディカル・リミテッド・ライアビリティ・カンパニーClear Guide Medical,LLC 超音波画像を融合することによる介入現場画像ガイダンス
US9375196B2 (en) * 2012-07-12 2016-06-28 Covidien Lp System and method for detecting critical structures using ultrasound
CN102999902B (zh) * 2012-11-13 2016-12-21 上海交通大学医学院附属瑞金医院 基于ct配准结果的光学导航定位导航方法
JP6568478B2 (ja) * 2013-03-15 2019-08-28 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. 低侵襲治療のための計画、誘導およびシミュレーションシステムおよび方法
JP6527086B2 (ja) * 2013-03-15 2019-06-05 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. ハイパースペクトル手術用撮像システム
CN103142313B (zh) * 2013-03-19 2015-05-13 张巍 一种基于单目视觉的手术工具位姿实时检测***
WO2015042120A1 (en) * 2013-09-18 2015-03-26 Richard Awdeh Surgical navigation system and method
WO2016019347A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition
CN107072628B (zh) * 2014-10-27 2021-03-26 医科达有限公司 用于放射治疗的图像导引

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002017753A (ja) * 1999-11-26 2002-01-22 Marconi Medical Systems Finland Inc 画像装置と協働の介入処置計画を容易にするシステム及び方法
JP2002102249A (ja) * 2000-09-29 2002-04-09 Olympus Optical Co Ltd 手術ナビゲーション装置および手術ナビゲーション方法
JP2005305048A (ja) * 2004-04-26 2005-11-04 Mitsubishi Electric Corp 患者位置決め装置および患者位置決め方法
JP2010540065A (ja) * 2007-10-01 2010-12-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 介入器具の検出及び追跡
WO2014013393A2 (en) * 2012-07-17 2014-01-23 Koninklijke Philips N.V. Imaging system and method for enabling instrument guidance
JP2014147455A (ja) * 2013-01-31 2014-08-21 Toshiba Corp 医用画像診断装置及び穿刺術支援装置
JP2017524464A (ja) * 2014-08-19 2017-08-31 チェン シェシャオChen, Chieh Hsiao 手術部位におけるプローブの位置を判定する方法及びシステム

Also Published As

Publication number Publication date
TWI595437B (zh) 2017-08-11
WO2016192671A1 (en) 2016-12-08
HRP20201646T1 (hr) 2020-12-25
TW201705078A (zh) 2017-02-01
KR101933132B1 (ko) 2019-03-15
EP3145420A4 (en) 2018-04-04
JP6334052B2 (ja) 2018-05-30
EP3145420A1 (en) 2017-03-29
CA2949797A1 (en) 2016-12-05
US20160354157A1 (en) 2016-12-08
CN106794044B (zh) 2019-09-27
KR20170033858A (ko) 2017-03-27
DK3145420T3 (da) 2020-10-26
CN106794044A (zh) 2017-05-31
EP3145420B8 (en) 2020-12-30
CA2949797C (en) 2019-04-02
US9827053B2 (en) 2017-11-28
EP3145420B1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6334052B2 (ja) 術中追跡方法
Wang et al. A practical marker-less image registration method for augmented reality oral and maxillofacial surgery
EP3007635B1 (en) Computer-implemented technique for determining a coordinate transformation for surgical navigation
US20170084036A1 (en) Registration of video camera with medical imaging
TWI670681B (zh) 判定手術路徑上一個或多個點之方法和系統
US10390892B2 (en) System and methods for updating patient registration during surface trace acquisition
CA2976573C (en) Methods for improving patient registration
KR102233585B1 (ko) 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법
Ferguson et al. Toward image-guided partial nephrectomy with the da Vinci robot: exploring surface acquisition methods for intraoperative re-registration
JP7037810B2 (ja) 画像処理装置と画像処理プログラムと画像処理方法
TWI766253B (zh) 基於影像匹配決定手術路徑之方法與系統
WO2024112857A1 (en) Extended reality registration method using virtual fiducial markers
Wang et al. Augmented Reality for Digital Orthopedic Applications
CN117677358A (zh) 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实***和方法
Ciucci et al. The NEAR project: Active endoscopes in the operating room

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180425

R150 Certificate of patent or registration of utility model

Ref document number: 6334052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250