JP2010200894A - 手術支援システム及び手術ロボットシステム - Google Patents

手術支援システム及び手術ロボットシステム Download PDF

Info

Publication number
JP2010200894A
JP2010200894A JP2009048202A JP2009048202A JP2010200894A JP 2010200894 A JP2010200894 A JP 2010200894A JP 2009048202 A JP2009048202 A JP 2009048202A JP 2009048202 A JP2009048202 A JP 2009048202A JP 2010200894 A JP2010200894 A JP 2010200894A
Authority
JP
Japan
Prior art keywords
surgical
data
surgical instrument
reference position
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009048202A
Other languages
English (en)
Inventor
Tadashi Ukimura
理 浮村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2009048202A priority Critical patent/JP2010200894A/ja
Publication of JP2010200894A publication Critical patent/JP2010200894A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】手術の対象となる腫瘍などの対象部位と、手術器具との現在の位置関係、又は予測される将来の位置関係を算出するための技術を提供する。
【解決手段】処手術支援システムは、コンピュータからなる処理装置1、処理装置に接続された表示装置2(ディスプレイ)、手術室内の様々な器具の位置を検出する位置検出器3、及び、人体に埋め込まれた埋込マーカMMを検出する埋込マーカ検出装置4を備えている。そしてさらに処理装置は、手術対象となるターゲットデータを記憶するための記憶部11、領域色分けモデル生成部12、拡張現実感イメージ生成部13、内視鏡5の位置・姿勢データ生成部14、手術器具(処置具)の位置・姿勢データ生成部15、埋込マーカの位置・姿勢データ生成部16、手術ナビゲーションデータ生成部17、及び表示制御部18を備えている。
【選択図】図2

Description

本発明は、手術支援システム及び手術ロボットシステムに関するものである。
手術を支援するシステムとしては、例えば、非特許文献1記載の「拡張現実感(Augmented reality)イメージガイダンス」のためのシステムがある。
拡張現実感イメージガイダンスとは、手術対象を含む立体空間を撮影した「術中あるいは術前に獲得した二次元画像の集合データ(Volume data)」をデジタル情報としてコンピュータにすべて取り込み、そのデータを源に「対象臓器を中心に手術プランニングに役立つような」3次元画像をコンピュータで再構築し、その3次元モデル(computer graphics)を、通常の手術野を提供する内視鏡画面のディスプレイ(通常は2次元画像)に重ね合わせて重畳表示(superimpose)し、手術視野の向こうにある(実際には隠れて見ることのできない)3次元情報を術者に直接視覚的に提供するという特殊なコンピュータグラフィックス技術である。
そして、非特許文献1には手術プランニングに役立つ3次元モデルとして、術前にCT(Computed Tomography)によって取得した腎臓の3次元立体画像において、腫瘍領域を「赤色」、腫瘍辺縁0〜5ミリ領域を「黄色」、腫瘍辺縁5〜10ミリ領域を「緑色」、腫瘍辺縁10ミリ超領域を「青色」で示す、4領域4色のモデル(4領域4色識別手術プランニングモデル)が提案されている。
非特許文献1の4領域4色識別手術プランニングモデルを、実際の内視鏡ビデオ画面に重畳表示(superimpose)して術者に提示すると、術者は、リアルタイムに術野の向こうの(実際には隠れてみることのできない)腫瘍等の存在を認識することができる。
浮村理 他,"低侵襲手術の正確さ・安全性・スピードの改善のためのComputer-aided Image Guidance",泌尿器外科,Vol.21 No11,pp1481−P1487,医学図書出版株式会社,2008年
本発明は、手術の対象となる腫瘍などの対象部位と、手術器具との現在の位置関係、又は予測される将来の位置関係を算出するための技術を提供することを目的とする。
また、本発明の他の目的は、前記位置関係を、術者に分かり易く提示するための技術を提供することである。
本発明の更に他の目的は、術中の対象部位の移動/変形に対応させることである。
本発明の更に他の目的は、前記位置関係を、ロボット手術の制御に適用することである。
本発明は、手術の対象部位を示す3次元モデルのイメージデータを含むターゲットデータを記憶するための記憶部と、手術器具における特定の基準位置及び/又は手術器具周囲における特定の基準位置が、手術空間において位置する空間座標を、検出する基準位置検出部と、術中の前記対象部位が、前記手術空間において位置する空間座標を、検出する対象部位検出部と、前記ターゲットデータが示す前記3次元モデルが、前記手術空間において位置すべき空間座標を、前記対象部位検出部によって検出された前記対象部位の前記空間座標に基づいて算出する算出部と、前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を示すナビゲーションデータを生成するデータ生成部と、を備えていることを特徴とする手術支援システムである。
前記ナビゲーションデータを画面表示させる表示手段を備え、前記表示手段は、前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を、前記複数の領域それぞれに設定された色で示すための画面を表示させるのが好ましい。
前記基準位置検出部によって前記空間座標の検出対象となる前記基準位置には、前記手術器具の前記姿勢及び/又は前記移動方向に基づいて予測される、前記手術器具の予測位置が含まれるのが好ましい。
前記基準位置には、前記手術器具から延びる仮想的な直線上に含まれる複数の点が含まれるのが好ましい。
前記仮想的な直線は、長尺状の前記手術器具の長手軸方向に一致する直線であるのが好ましい。
前記基準位置には、前記手術器具の周囲に設定された仮想的な球の表面上の位置が含まれるのが好ましい。
前記基準位置には、前記手術器具の周囲に設定された仮想的な半球の表面の位置が含まれる位置が含まれ、前記仮想的な半球は、その半球の天頂を、前記手術器具の先端から延びる仮想的な直線が通過するものであるのが好ましい。
前記対象部位又はその周囲に埋め込まれた複数のマーカによって、術中の前記対象部位の移動及び/又は変形を検出し、検出された前記対象部位の移動及び/又は変形に応じて、前記3次元モデルの座標を移動させる処理、及び/又は、前記3次元モデルを変形させる処理を行う手段を備えているのが好ましい。
他の観点からみた本発明は、前記手術器具の移動を駆動制御する制御部と、前記手術支援システムと、を備えた手術ロボットシステムであって、前記制御部は、前記手術支援システムによって生成されたナビゲーションデータを、取得し、取得したナビゲーションデータに基づいて、前記手術器具の移動を駆動制御することを特徴とする手術ロボットシステムである。
本発明によれば、手術の対象となる腫瘍などの対象部位と、手術器具との現在の位置関係、又は予測される将来の位置関係が算出される。
手術支援システムの全体構成を示す図である。 処理装置の機能ブロック図である。 ターゲットデータTが示す3次元モデル(臓器及び腫瘍)のイメージ図である。 領域色分けモデルのイメージ図である。 手術ナビゲーションデータ生成部の機能ブロック図である。 サージカルシグナルデータ&サージカルレーダデータ生成部の機能ブロック図である。 基準位置を示す図である。 対象部位内外の複数の領域を示す図である。 基準位置と複数の領域の関係を示す図である。 サージカルシグナルデータを示す図である。 サージカルシグナルデータの表示画面を示す図である。 基準位置となる半球表面上の点を示す図である。 yz平面上の投影点qを示す図である。 半球と複数の領域の関係とを示す図である。 サージカルレーダデータの表示画面を示す図である。 手術ロボットシステムの構成図である。
以下、本発明の好ましい実施形態について添付図面を参照しながら説明する。
なお、以下の説明では、内視鏡手術を例として説明するが、本システムが支援の対象とする手術法が内視鏡手術に限定されるものではない。
[1.手術支援システムの全体構成]
図1に示すように、本実施形態に係る手術支援システムは、コンピュータからなる処理装置1、処理装置1に接続された表示装置(ディスプレイ)2、手術室内の様々な器具の位置を検出する位置検出器3、及び、人体に埋め込まれた埋込マーカMMを検出する埋込マーカ検出装置4を備えている。
前記処理装置1には、前記位置検出用器3、埋込マーカ検出装置4、及び内視鏡5が接続されており、前記位置検出用カメラ3、埋込マーカ検出装置4、及び内視鏡5から取得したデータに基づいて、手術支援のためのナビゲーションデータを生成する処理を行う。なお、処理装置1の機能の詳細については後述する。
前記表示装置(ディスプレイ装置)2は、前記処理装置によって生成されたナビゲーションデータ等を画面表示することで、ナビゲーションデータ等を術者(医師)に提示する。
前記位置検出器3は、位置を検出する対象物に取り付けられた光学マーカOM1,OM2,OM3を検出するカメラ(赤外線カメラ)によって構成されている。本実施形態では、光学マーカは、埋込マーカ検出装置4に取り付けられたものOM1と、内視鏡5に取り付けられたものOM2と、手術器具6に取り付けられたものOM3と、がある。ここでの手術器具6とは、切除などの手術のための処置を行う処置具であり、例えば、メスや鉗子などである。
各光学マーカOM1,OM2,OM3は、それぞれ、位置検出対象物の位置及び姿勢を検出できるように、LEDなどの発光体を一つの位置検出対象物について複数(3個又はそれ以上)取り付けて構成されている。なお、光学マーカは、光を発生する能動的なもの以外に、光を反射する受動的なものであってもよい。
各光学マーカOM1,OM2,OM3がそれぞれ有する複数の発光体の光(若しくは反射光)は、カメラからなる前記位置検出器3によって取得される。
位置検出器3によって取得された撮影画像は、処理装置1によって画像処理され、処理装置1において、位置検出対象物4,5,6それぞれの位置及び姿勢を示すデータ(位置・姿勢データ)が生成される。位置検出対象物の位置は、手術支援システムが配置された手術室の空間(手術空間)での空間座標(3次元座標)で表現される。
なお、位置検出対象物4,5,6の位置・姿勢の検出は、光学方式に限られるものではなく、磁気方式など他の方式であってもよい。
前記埋込マーカ検出装置4は、体内(特に、手術の対象となる臓器)に埋め込まれた複数の埋込マーカMM,MMの位置を検出するためのものである。このような埋込マーカ検出装置4としては、カリプソ・メディカル・テクノロジーズ社のカリプソ・4Dローカリゼーション・システム(商標)を利用できる。このような埋込マーカ検出装置4は、磁場を発生する磁場発生装置4aと、磁場を検出するセンサ部4bとを備えている。
埋込マーカMMとしては、上記カリプソ・4Dローカリゼーション・システムにおいて用いられるビーコン・エレクトロマグネティック・トランスポンダとよばれる数mm程度の大きさの無線マーカを利用できる。この無線マーカ(埋込マーカMM)は、コイル及び必要な回路を有しており、磁場発生装置4aの磁場によって、無線マーカ(埋込マーカMM)の位置及び姿勢を特定するための応答信号として磁気信号が励起される。
センサ部4bは、複数の埋込マーカMMそれぞれの前記応答信号を検出し、検出された応答信号は、処理装置1に与えられる。処理装置1は、検出された応答信号に基づいて、各埋込マーカMMの位置及び姿勢を示すデータ(位置・姿勢データ)を生成する。
なお、埋込マーカ検出装置4によって検出される埋込マーカMMの位置・姿勢は、埋込マーカ検出装置4の位置からみた相対的なものである。
ただし、埋込マーカ検出装置4には、前記光学マーカOM1が設けられているため、埋込マーカ検出装置4によって検出された埋込マーカMMの位置・姿勢は、処理装置1において、手術支援システムが配置された手術室の空間(手術空間)での位置・姿勢に変換される。
この埋込マーカ検出装置4は、手術の対象部位を含む臓器の位置、変形を検出するためのものであるが、手術の対象部位を含む臓器の位置、変形を検出するための手段は、このような埋込マーカ検出装置4に限られるものではなく、例えば、レーザ光を臓器に照射してその反射光から臓器の位置・変形などを検出するものであってもよい。
[2.処理装置1の構成]
図2は、処理装置1の機能を示している。処理装置1は、CPU及び記憶装置などを有するコンピュータによって構成されている。処理装置1を構成するコンピュータには、当該コンピュータ1に図2に示す処理装置1としての機能を実現するためのコンピュータプログラムがインストールされている。以下に説明する処理装置1の各機能部は、すべて、当該コンピュータプログラムがコンピュータによって実行されることで発揮されるものである。
処理装置1は、ターゲットデータを記憶するための記憶部11、領域色分けモデル生成部12、拡張現実感イメージ生成部13、内視鏡5の位置・姿勢データ生成部14、手術器具(処置具)6の位置・姿勢データ生成部15、埋込マーカの位置・姿勢データ生成部16、手術ナビゲーションデータ生成部17、及び表示制御部18を備えている。
前記ターゲットデータTは、手術の対象部位(腫瘍など)を含む特定の臓器(腎臓など)の全体形状等を示す3次元モデルの3次元イメージデータ(3次元ボリュームデータ)として構成されている。図3に示すターゲットデータTは、臓器の全体形状を示す3次元モデルのイメージデータT1と、切除の対象となる腫瘍(対象部位)が存在する腫瘍領域(対象部位領域)の、臓器全体からみた位置及び形状を特定する3次元モデルのイメージデータT2とを有している。
このターゲットデータTは、術前に撮影されたCTイメージデータに基づいて生成される。ターゲットデータTの生成には、術前に撮影されたCTイメージデータから自動生成するためのシステムを構築・利用してもよいが、コンピュータ支援により人手で行っても良い。
ターゲットデータT生成のためには、まず、術前に、手術の対象部位を含む特定の臓器内又はその周辺に、前記埋込マーカMMを、複数個、埋め込んでおく。臓器の位置だけを検出する場合、埋め込まれるマーカMMの数は、3個乃至4個程度でもよいが、さらに臓器の変形を検出するには、より多い(例えば、30個程度)のが好ましい。
次に、体内に埋込マーカMMが埋め込まれた患者のCTイメージデータを取得する。そして、そのCTイメージデータから、手術の対象部位を含む臓器を特定し、その臓器の形状を示す3次元モデルの3次元イメージデータT1を生成する。また、CTイメージデータから、その臓器における腫瘍の位置及び形状を特定し、その腫瘍の位置及び形状を特定する3次元モデルの3次元イメージデータT2を生成する。
さらに、前記CTイメージに存在する埋込マーカMMの像から、3次元イメージデータT1(及び3次元イメージデータT2)における各埋込マーカMMの位置・姿勢を特定し、3次元イメージデータT1(及び3次元イメージデータT2)における埋込マーカMMの位置・姿勢データT3を、前記ターゲットデータに含める。
なお、臓器の形状を示す3次元イメージデータT1中に、埋込マーカMMの像が含まれている場合、その埋込マーカMMの像が埋込マーカMMの位置・姿勢を示すため、埋込マーカMMの位置・姿勢を示すデータT3を、3次元イメージデータT1と別に生成していなくてもよい。
以上のようにして生成されたターゲットデータTは、術前に、処理装置1のターゲットデータ記憶部11に記憶される。
なお、ターゲットデータTの元となるイメージは、CTイメージに限られるものではなく、MRI(Magnetic Resonance Imaging)、FMRI(Functional MRI)、PET(Positron Emission Tomography)、超音波断層法、シンチグラムなどによって得られたイメージであってもよい。
前記領域色分けモデル生成部12は、ターゲットデータ記憶部11の前記ターゲットデータTから、図4に示す、領域色分けモデル(4領域4色識別手術ブランニングモデル)を生成する。図4に示す領域色分けモデルは、ターゲットデータTの3次元イメージデータT2が示す腫瘍領域を「赤色」、腫瘍辺縁0〜5ミリ領域を「黄色」、腫瘍辺縁5〜10ミリ領域を「緑色」、腫瘍辺縁10ミリ超領域を「青色」で示した3次元モデルである。
この領域色分けモデルを生成するには、ターゲットデータTの臓器全体形状を示す3次元イメージデータT1において、腫瘍を示す3次元イメージデータT2の部分を「赤色」に色彩設定し、3次元イメージデータT2が示す腫瘍表面から5ミリまでの範囲を「黄色」に色彩設定し、3次元イメージデータT2が示す腫瘍表面から5〜10ミリまでの範囲を「緑色」に色彩設定し、3次元イメージデータT2が示す腫瘍表面から10ミリ超の範囲を「青色」に色彩設定すればよい。
なお、本実施形態においては、処理装置1が、ターゲットデータ記憶部11に記憶されたターゲットデータTから領域色分けモデルを生成するように構成されているが、拡張現実感イメージの表示のためには、前記領域色分けモデルは、術前に生成されたものが、処理装置の記憶部に予め記憶されていてもよい。
前記拡張現実感イメージ生成部13は、図4に示す領域色分けモデルと、内視鏡5にて撮影された映像とを重畳(スーパインポーズ)して、表示装置2に表示させるための拡張現実感イメージを生成する。
術者は、「緑色」の範囲内で、切除を進めれば、十分なガン陰性切除断領域(黄色の領域)腫瘍側につけて、かつ最大限の(青色領域)の腎機能温存を果たすことができる。
なお、拡張現実感イメージは、後述の手術ナビゲーションデータ(サージカルシグナルデータSD及びサージカルレーダデータRD)と一緒に、表示装置2に表示される。
前記内視鏡5の位置・姿勢データ生成部14及び手術器具6の位置・姿勢データ生成部15は、位置検出器3(カメラ)で取得した画像に基づいて、位置検出対象物5,6である内視鏡5及び手術器具6の位置及び姿勢を示すデータ(位置・姿勢データ)を生成する。この位置・姿勢データは、手術支援システムが配置された手術室の空間(手術空間)における座標系の位置・姿勢として表現される。
また、埋込マーカMMの位置・姿勢データ生成部16は、埋込マーカ検出装置4によって検出された複数の埋込マーカMMそれぞれの位置・姿勢データと、位置検出器3によって検出された当該埋込マーカ検出装置4の位置・姿勢データとに基づいて、手術室の空間(手術空間)における座標系での、複数の埋込マーカMMそれぞれの位置・姿勢データを生成する。
これにより、複数の埋込マーカMMそれぞれの位置・姿勢は、内視鏡5及び手術器具6の位置・姿勢データの座標系と同じ座標系で表されることになる。
ここで、埋込マーカMMの位置・姿勢データは、埋込マーカMMが埋め込まれた部位又はその近傍の位置・形状を示しているため、埋込マーカMMの位置・姿勢データは、対象部位(腫瘍)は、手術室の空間(手術空間)における座標系での、位置・形状を示していることになる。
つまり、埋込マーカMMの位置・姿勢データ生成部16は、術中の対象部位が、手術空間において位置する空間座標を検出する対処部位検出部として機能する。
各データ生成部14,15,16にて生成された位置・姿勢データは、前記手術ナビゲーションデータ生成部17に与えられる。
前記手術ナビゲーションデータ生成部17は、ターゲットデータ記憶部11に記憶されたターゲットデータTと、各位置・姿勢データとに基づいて、手術器具6とターゲットデータが示す手術の対象部位(腫瘍)との位置関係を示すナビゲーションデータを生成する。本実施形態では、前記ナビゲーションデータとして、サージカルシグナルデータSD及びサージカルレーダデータRDが生成される。
[3.手術ナビゲーションデータの生成]
前記手術ナビゲーションデータ生成部17は、図5に示すように、ターゲットデータTの移動/変形処理部21、及びサージカルシグナルデータ&サージカルレーダデータ生成部22を備えている。
ターゲットデータ移動/変形処理部21は、ターゲットデータ記憶部11及び埋込マーカの位置・姿勢データ生成部16から、ターゲットデータT及び複数の埋込マーカMMの位置・姿勢データに基づいて、術中の臓器(手術対象の生体器官)の位置/形状に対応したターゲットデータ(以下、修正ターゲットデータという)を生成する。
修正ターゲットデータは、ターゲットデータTにおける複数の埋込マーカMMの位置・姿勢が、埋込マーカの位置・姿勢データ生成部16によって生成された複数の埋込マーカMMの位置・姿勢データが示す位置・姿勢に一致するように、ターゲットデータTが示す臓器の3次元イメージデータT1が前記手術室における空間座標において位置すべき空間座標及び形状を算出することで得られる。
より具体的には、移動/変形処理部21は、ターゲットデータTにおける複数の埋込マーカMMの位置・姿勢と、埋込マーカの位置・姿勢データ生成部16によって生成された複数の埋込マーカMMの位置・姿勢データが示す位置・姿勢と、の誤差が、各埋込マーカMMについて最小となるように、ターゲットデータTの3次元イメージデータT1が示す臓器が空間座標系において位置すべき座標を算出し、必要に応じて3次元イメージデータT1が示す臓器の形状を変形させる。
なお、前記誤差を最小化するアルゴリズムとしては、最小二乗法などの公知のアルゴリズムを最小することができる。
また、対象となる臓器が、移動・変形しないものである場合には、移動/変形処理部21における臓器の移動/変形処理は省略することが可能である。また、移動/変形処理部21では、ターゲットデータTにおける3次元イメージデータT2が示す3次元モデル(腫瘍)の空間座標系における位置だけを算出して、臓器等の変形処理については省略してもよい。
このように、移動/変形処理部21は、ターゲットデータTが示す3次元モデル(腫瘍)が、手術空間において位置すべき空間座標算出する算出部として機能すれば足りる。
ここで、臓器を示す3次元イメージデータT1と、腫瘍を示す3次元イメージデータT2との位置・形状は対応付けられているため、処理部21は、3次元イメージデータT1が示す臓器の位置/形状を算出すると、対応するデータT2が示す腫瘍の位置/形状も併せて算出されることになる。
以上により、ターゲットデータTが示す臓器及び腫瘍(手術の対象部位)の、手術空間での術中のリアルタイムでの位置・形状を示す修正ターゲットデータが求まる。
この修正ターゲットデータは、サージカルシグナルデータ&サージカルレーダデータ生成部22に与えられる。
サージカルシグナルデータ&サージカルレーダデータ生成部22は、修正ターゲットデータ及び、手術器具6の位置・姿勢データ生成部15によって生成された手術器具6の位置・生成データに基づいて、サージカルシグナルデータSD及びサージカルレーダデータRDを生成する。
[3.1 主基準位置と単位ベクトルの算出]
サージカルシグナルデータ&サージカルレーダデータ生成部(以下、単に「データ生成部」という」)22は、図6に示すように、手術器具6の先端ポイントp0を主基準位置として算出するための3次元座標算出部(基準位置検出部)24を備えている。
この3次元座標算出部24は、手術器具6の位置・姿勢データから、特定の主基準位置を算出するためのものであり、主基準位置としては、図7に示すように手術器具6の先端ポイントp0とするほか、手術器具6上のその他の位置又は手術器具6の周囲の位置でもよいが、手術器具6が、切開等のために手術の対象部位に作用する位置又はその近傍であるのが好ましい。
データ生成部22には、手術器具6において光学マーカOM3が設けられている位置と、主基準位置p0との位置関係を示す情報が予め設定されており、算出部24では、手術器具6の(光学マーカOM3における)位置・姿勢データと、予め設定された位置関係情報に基づいて、主基準位置(先端ポイント)p0の、手術空間における3次元座標(空間座標)を算出する。
また、データ生成部22は、主基準位置(先端ポイント)p0における、手術器具6の長手軸方向lを示す単位ベクトルuを算出する算出部25を備えている。この算出部25は、手術器具6の位置・姿勢データから、長尺状の手術器具6の長手軸方向l(手術器具6の姿勢)を求めることで算出することができる。
なお、本実施形態において、単位ベクトルuは、主基準位置(手術器具先端ポイント)における手術器具6の長手軸方向lを示すものであるが、単位ベクトルが示す方向は、長手軸方向lに限られるものではなく、他の方向を示すものであってもよい。また、単位ベクトルが示す方向は、長手軸方向のように手術器具6の姿勢から一意に決定される方向だけでなく、手術器具(の先端)の移動方向を示すものであってもよい。また、予測される移動軌跡は、直線として予測するのが簡便であるが、可能であれば、曲線で示される移動軌跡を予測してもよい。
さらに、データ生成部22は、他のポイント(副基準位置)p1〜pMの3次元座標(空間座標)を算出するための算出部(基準位置検出部)26を備えている。この算出部26によって算出される他のポイントp1〜pMは、主基準位置(先端ポイント)p0から、単位ベクトルuが示す方向(長手軸方向l)に、距離ki(i:1〜Mの整数)ほど離れた点(手術空間における空間座標)として設定される。
距離kiは、データ生成部22におけるポイント間距離ki調整部27によって調整可能であるが、予め設定された固定値であってもよい。ポイント間距離ki調整の詳細については後述する。
なお、本実施形態において、主基準位置p0は、手術器具6の先端の「現在の」位置を示すという意義を有しているのに対し、他の基準位置である副基準位置p1〜pMは、主基準位置p0が「将来」において位置すると予測される予測位置を示している。したがって、主基準位置p0は、手術器具6上か、手術器具6の周囲のごく近傍であるのが好ましく、副基準位置は、手術器具6の長手軸方向や移動方向に鑑みて、p1〜pMは、主基準位置p0が近い将来位置すると予測される位置として設定されるのが好ましい。
以上のようにして算出された基準位置pi(i:0〜M)は、単位ベクトルuが示す方向上の仮想的な直線(手術器具の予測移動軌跡)上に位置する点である。この仮想的な直線は、手術器具6から延びる線であれば、その位置や方向が特に限定されるものではないが、上記のように、手術器具6の先端(主基準位置)から長手軸方向に延びるものが好ましい。なお、曲線で示される予測移動軌跡上に基準位置を設定してもよい。
なお、図7に示すように、本実施形態では、M=2であり、基準位置としては、p0,p1,p2の3つが設定される。なお、基準位置数iは、システムのユーザが調整可能であるが、予め設定された固定値であってもよい。
上記基準位置pi(i:0〜M)は、手術の対象部位(腫瘍)からの距離の判定の対象となる点である。
[3.2 対象部位からの距離に応じた複数の領域について]
ここで、データ生成部22は、各基準位置(ポイント)p0〜pMが属する3次元領域Sj(j:0〜3)を判定するための判定部28を備えている。3次元領域S0〜S3は、修正ターゲットデータが示す腫瘍領域(対象部位)の表面からの距離に応じて区分けしたものである。なお、臓器の移動・変形がない場合には、修正ターゲットデータに代えて、記憶部11に記憶されている修正前のターゲットデータTを用いても良い。
これらの領域S0〜S3のうち、領域S0は、修正ターゲットデータにおいて腫瘍を示す3次元イメージデータT2に対応する3次元領域であり、領域S1〜S3は、腫瘍(対象部位)外の3次元領域を、複数(ここでは、3つ)に分割したものである。なお、領域S0を含めた領域域数jは特に限定されるものではなく、複数であればよい。また、領域数jは、システムのユーザが調整可能であるが、予め設定された固定値であってもよい。
図8に示すように、対象部位の領域S0の大きさ・範囲は、ターゲットデータTにおける3次元イメージデータT2が示す対象部位の大きさ・範囲に対応する。また、対象部位外の領域S1〜S3それぞれの大きさは、マージンw1,w2にて表される。本実施形態において、領域S1は、対象部位(腫瘍)を示す領域S0までの最小距離Dが0より大きくw1以下である点が含まれる3次元領域をいい、領域S2は、対象部位(腫瘍)を示す領域S0までの最小距離Dがw1より大きくw2以下である点が含まれる3次元領域をいい、領域S3は、対象部位(腫瘍)を示す領域S0までの最小距離がw2より大きい3次元領域をいう。
なお、w1=5mm、w2=10mmに設定した場合、領域S0〜S3の分け方は、図4に示す領域色分けモデルと一致することになる。
上記マージンw1,w2は、マージン調整部34によって調整可能であるが、予め設定された固定値でもよい。なお、マージンの調整については後述する。
[3.3 サージカルシグナルデータ]
図9に示すように、前記判定部28は、各基準位置(ポイント)piについて、領域S0からの最小距離D(pi,S0)を求め、各基準位置(ポイント)piが、上記領域Sj(j:0〜3)のいずれに属するかを判定する。
図9の場合、主基準位置p0は領域S2に、第1の副基準位置p1は領域S2に、第2の副基準位置p2は領域S1に存在すると判定される。
図10は、上記判定によって生成されたサージカルシグナルデータSDを示している。このサージカルシグナルデータは、各基準位置piについて、各基準位置が属する領域を示す情報(Area)、各基準位置が属する領域の番号情報(j)、各基準位置が属する領域の色情報(Cj)を示している。
なお、領域の色としては、領域s0には「赤色」、領域s1には「黄色」、領域s2には「緑色」、領域s3には「青色」が設定されている。
図11は、図10のサージカルシグナルデータSDを、表示装置2に画面表示させた場合の画面(サージカルシグナル画面)D1を示している。この画面D1は、サージカルシグナルデータSDに基づいて、処理装置1の表示制御部18によって生成される。
この画面D1は、各基準位置p0〜p2を縦軸方向に並べ、各領域S0〜S3を横軸方向に並べたマトリックス配置の複数の円形状の表示部によって構成されている。この画面D1中の各表示部は、各基準位置p0〜p2について、基準位置p0〜p2が属する領域S0〜S3に対応するものが、設定された色で点灯するよう構成されている。
例えば、図9及び図10の状態では、基準位置p0は領域S2に属しているから、(p0,S2)の位置にある表示部C1が、領域S2に設定された「緑色」で点灯する。基準位置p0が属さない領域S0,S1,S3についての表示部は、非点灯の表示(黒又は白での表示)となっている。また、基準位置p1も領域S2に属しているから、(p1,S2)の位置にある表示部C2が、領域S2に設定された「緑色」で点灯する。基準位置p1が属さない領域S0,S1,S3についての表示部は、非点灯の表示(黒又は白での表示)となっている。また、また、基準位置p2は領域S1に属しているから、(p2,S1)の位置にある表示部C3が、領域S1に設定された「黄色」で点灯する。基準位置p2が属さない領域S0,S2,S3についての表示部は、非点灯の表示(黒又は白での表示)となっている。
図11の画面D1を見た術者は、手術器具6の先端の現在位置p0が、どの領域S0〜S3に属するのか、すなわち、腫瘍S0からみてどの程度の位置にあるのかを、視覚的に容易に把握することができる。
ここで、領域S1〜S3の大きさを決定するマージンw1,w2が、領域色分けモデルと同様に設定された場合、緑色に設定された領域S2は、術者が切除すべき切除ラインが属する領域となる。術者は、緑色に設定された領域S2内で切除を進めることで、十分な癌陰性切除断端領域(黄色の領域s1)を腫瘍側につけて、かつ、青色の領域S3を最大限温存することができる。
図11の画面D1においては、手術器具6の先端の現在位置p0は、切除のための適切な領域S2に位置していることを示しているため、術者は、現在の手術器具の位置は、適切であることを容易に把握できる。
そして、他の基準位置p1,p2は、現在位置p0が将来位置すると予測される予測位置であるから、図11の画面D1を術者がみた場合、現在の手術器具6の姿勢や移動方向が、将来においても適切であるかを容易に把握することができる。
つまり、図11のように、将来の予測位置であるp2(又はp1)が、腫瘍側の領域s1(又は領域S0,S3)属していることを示している場合、現在の手術器具6の姿勢や移動方向では、将来において適切な状態からややずれる可能性を、術者が事前に把握することができる。
一方、画面D1において、p0,p1,p2すべてが領域S2に属することを表示していれば、術者は、現在の手術器具6の姿勢や移動方向は適切であると把握でき、その状態で手術を適切に進めることができる。
[3.4 サージカルレーダデータ]
図6に示すように、データ生成部22は、上記サージカルシグナルデータSDを生成する機能のほか、サージカルレーダデータRDを生成するため、基準位置p0を中心とする半球Hの表面座標算出部29と、半球Hの表面が属する領域S0〜S3の判定部30とを備えている。
サージカルレーダデータRDは、サージカルシグナルデータSDのように、点(基準位置)が属する領域S0〜S3を示すものではなく、点(基準位置)の集合としての面に含まれる各位置が属する領域S0〜S3を示すものである。
本実施形態では、属する領域S0〜S3の判定対象となる面としては、球面が採用される。さらに、本実施形態では、属する領域S0〜S3の判定対象となる面として、球面全体ではなく、球面の一部の面として半球の表面が採用される。属する領域S0〜S3の判定対象となる面は、球表面や半球表面に限定されるものではなく、任意の形状の面(平面又は曲面)とすることができる。
本実施形態において、属する領域S0〜S3の判定対象となる半球面は、単位ベクトルuが示す方向(長手軸方向l)が、頂点(天頂)を通過する半球の表面である。
つまり、図12に示すように、基準位置p0が原点であり、単位ベクトルuの方向(長手軸方向l)に直交する平面をyz座標(zとyとは直交する)とし、単位ベクトルuの方向(長手軸方向l)をx座標とするxyz3次元直交座標系を想定した場合、本実施形態に係る前記半球は、当該xyz3次元直交座標系のx軸が、半球の頂点(天頂)piを通過し、半球の底面(球の大円)がx=0のyz面に存在するものである。
この半球表面上の任意の点hは、h=kir(θ,φ)で表される。ここで、kiは半球の半径であり、r(θ,φ)はp0における単位ベクトルである。θは、単位ベクトルu(p0からpiに向かう単位ベクトル)に対して単位ベクトルrがなす方位角を示し、φは、単位ベクトルに対して単位ベクトルrがなす仰角を示している。ただし、単位ベクトルuの方向(x軸方向)がφ=0である。ここで、前記半球においては、0≦θ<2π,−(π/2)≦φ<(π/2)である。
よって、r(θ,φ)=(cosφ,cosθsinφ,sinθsinφ)であり、半球面上の任意の点hの前記xyz3次元直交座標系の座標は、(kicosφ,kicosθsinφ,kisinθsinφ)として算出される。
半球表面の座標を算出する前記算出部29は、第1基準位置p0及び単位ベクトルuに基づいて、0≦θ<2π,−(π/2)≦φ<(π/2)の範囲におけるr(θ,φ)を算出し、半球面上の各点(基準位置)hの3次元座標を算出する。
なお、半球の半径kiは、調整部30によって調整可能である。半径の調整部30は、ポイント間距離ki調整部27によって設定された距離kiのうちいずれかが、システム又はシステムのユーザによって、半球の半径kiとして決定される。なお、半球の半径kiは、ポイント間距離ki調整部27によって設定された距離kiとは無関係に決定してもよい。
ここで、基準位置hの集合である半球面も、サージカルシグナルデータSDにおける副基準位置p1,p2と同様に、手術器具6(の先端)の現在の位置p0が、将来位置する可能性のある位置を示すという意義を有する。
つまり、サージカルシグナルデータSDにおける副基準位置p1,p2は、検出された単位ベクトルu(手術器具の長手軸方向ないし移動方向)が示す方向の直線上における点であったが、ここでの半球面は、手術器具の長手軸方向ないし移動方向が現在の方向uから、{0≦θ<2π,−(π/2)≦φ<(π/2)}の範囲で変化した場合において、現在位置p0が位置する可能性のある予測位置の集合を示している。
なお、半球は、手術器具の長手軸方向ないし移動方向にみて前方に配置されているため、現在位置p0が位置する可能性のある予測位置の集合として適切なものとなっている。
また、本実施形態では、予測位置の集合として、前記半球表面の全体を対象としたが、半球表面の一部であってもよい。
前記領域判定部31は、半球表面の各点(基準位置)hについて、各点hが属する領域S0〜S3を判定する。この判定は、サージカルシグナルデータSDについての判定と同様に行われる。
領域判定部31における領域判定によって、半球表面の各位置hが、どの領域S0〜S3に属するかを示す3次元のサージカルレーダデータRDが生成される。このサージカルレーダデータRDには、サージカルシグナルデータSDと同様に、半球表面の各位置hの3次元座標と、各位置が属する領域S0〜S3を示す情報とが含まれる。
3次元のサージカルレーダデータRDを3次元表示してもよいが、2次元の表示装置2を採用する場合の便宜を考慮し、本実施形態のデータ生成部22は、3次元のサージカルレーダデータRDを2次元の平面(半球の底面;球の大円;x=0のyz平面)に投影する2次元投影処理部32を備えている。
2次元投影処理部32は、3次元のサージカルレーダデータRDにおける全ての位置hを、前記半球の底面(球の大円;x=0のyz平面)に投影して2次元のサージカルレーダデータRDを生成する。
図13に示すように、投影面であるyz平面(x=0)における任意の投影点qは、原点0(p0の位置)からの距離がkisinφであり、z軸となす角度がθである。
したがって、半球表面上の各位置h(θ,φ)が、前記半球の底面(yz平面)に投影されたときの投影点q(θ,φ)は、q=(kicosθsinφ,kisinθsinφ)によって算出される。なお、{0≦θ<2π,−(π/2)≦φ<(π/2)}である。
2次元投影処理部32は、2次元のサージカルレーダデータRDとして、各投影点qの座標と、各投影点q(各投影点qに対応する位置h)が属する領域S0〜S3を示す情報と、を含めて生成する。サージカルレーダデータRDは、図10に示すサージカルレーダデータSDと同様の形式であって、サージカルレーダデータRD3つの基準位置p0,p1,p2が、前記半球の底面(yz平面)内の多数の投影点qとなったものである。
この2次元のサージカルレーダデータ(周囲データ)RD、処理装置1の表示制御部18によって、図15に示すような画面D2を生成する。
図14に示すように半球の頂点piとしてサージカルデータSDにおける基準位置p2が採用された場合(半球の半径=k2)において、2次元のサージカルデータRDを示す画面D1は図15に示すようになる。
図15は、図14において手術器具6の先端p0を中心とする球SQの一部である半球表面の各位置hが属する領域に対応する色を、先端p0を原点とするyz座標上で表したものである。
図15の画面D2をみた術者は、手術器具6を現在の姿勢ないし移動方向で動かすと、現在位置p0の将来の予測位置p2は領域S1となり腫瘍領域S0にやや近づきすぎた状態であり、手術器具6を姿勢ないし移動方向を、図15における下方に変化させると、さらに腫瘍領域S0に近づいてしまうことがわかる。
一方、図15において、手術器具6の現在の姿勢ないし移動方向からみた予測位置p2よりも上方には、切除に適した領域S2が広がっているから、手術器具6の姿勢ないし移動方向を、図15における上方に変化させるのが好ましい。図15のようなサージカルレーダ表示を術者に提示することで、術者は手術器具6の適切な姿勢ないし移動方向を容易に認識することができる。
そして、図15のようなサージカルレーダ表示の画面D2は、図11のサージカルシグナル表示の画面D1と同時に、術者に提示されるため、術者は、両表示画面D1,D2をみて、手術器具6と腫瘍(対象部位)との現在の位置関係、及び将来の位置関係を一層容易に把握することができる。また、両表示画面D1,D2は、拡張現実感イメージデータの表示とも同時に表示されるため、術者は、これらの表示をみて、複合的に術野の状況を認識することができる。
また、図6に示すように、データ生成部22は、他のサージカルレーダデータとして、手術器具6(の先端p0)から、腫瘍を示す領域(ターゲットエリア)S0中心までの距離を算出する算出部33を備えている。この算出部33によって、手術器具6と腫瘍領域S0中心までの位置関係(距離データ)が算出される。この距離データは、他のデータとともに画面表示され、術者に提示される。
[3.5 スケールの自動調整]
算出部33によって算出された距離データは、ポイント間距離調整部27によるポイント間距離kiの調整、半球の半径調整部30による半径kiの調整、及び/又はマージ調整部34によるマージンw1,w2の調整に用いられる。
各調整部27,30,34は、手術器具6と腫瘍領域S0中心までの距離が大きい場合、調整対象の各値を比較的大きくし、手術器具6と腫瘍領域S0中心までの距離が小さい場合には、調整対象の各値を比較的小さくする。
これにより、手術器具6が腫瘍領域S0から離れている場合には、比較的大きなスケールで、サージカルシグナルデータSD又はサージカルレーダデータRDを表示でき、手術器具6が、腫瘍領域S0に近づくと、各値が自動的にスケールダウンして、詳細な情報を提供することができる。
なお、上記の各値の調整は、システムによる自動調整だけでなく、ユーザの選択によって行われても良い。
[4.手術ロボットシステム]
図16は、上記手術支援システム50を有する手術ロボットシステムを示している。この手術ロボットシステムは、手術器具51と、当該手術器具51を駆動させる駆動部52と、手術器具51が手術のための動作を行うように駆動制御する制御部53と、を備えている。
前記制御部53は、手術支援システム50(の処理装置1)と接続されており、処理装置1が生成したナビゲーションデータ(サージカルシグナルデータ及び/又はサージカルレーダデータ)を取得する。
ナビゲーションデータを取得した制御部53は、ナビゲーションデータに基づいて、手術の対処部位(腫瘍)と手術器具51との現在の又は将来の位置関係を把握できるため、手術器具51の駆動制御を適切に行うことができる。
例えば、制御部53は、手術器具51との現在の又は将来の位置が、腫瘍領域S0又は腫瘍近傍領域S1になることを検出すると、手術器具53の動作を強制停止させる安全制御を行うことができる。
なお、本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
11 記憶部
16 埋込マーカの位置・姿勢データ生成部(対象部位検出部)
21 移動/変形処理部(算出部)
22 サージカルシグナルデータ&サージカルレーダデータ生成部(データ生成部)
24 主基準位置の3次元座標算出部(基準位置検出部)
26 副基準位置の3次元座標算出部(基準位置検出部)

Claims (9)

  1. 手術の対象部位を示す3次元モデルのイメージデータを含むターゲットデータを記憶するための記憶部と、
    手術器具における特定の基準位置及び/又は手術器具周囲における特定の基準位置が、手術空間において位置する空間座標を、検出する基準位置検出部と、
    術中の前記対象部位が、前記手術空間において位置する空間座標を、検出する対象部位検出部と、
    前記ターゲットデータが示す前記3次元モデルが、前記手術空間において位置すべき空間座標を、前記対象部位検出部によって検出された前記対象部位の前記空間座標に基づいて算出する算出部と、
    前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を示すナビゲーションデータを生成するデータ生成部と、
    を備えていることを特徴とする手術支援システム。
  2. 前記ナビゲーションデータを画面表示させる表示手段を備え、
    前記表示手段は、前記ターゲットデータが示す前記3次元モデル及びその周囲を前記3次元モデルからの距離に応じて区分けした複数の領域のうち、前記基準位置が位置する領域を、前記複数の領域それぞれに設定された色で示すための画面を表示させる
    請求項1記載の手術支援システム。
  3. 前記基準位置検出部によって前記空間座標の検出対象となる前記基準位置には、前記手術器具の前記姿勢及び/又は前記移動方向に基づいて予測される、前記手術器具の予測位置が含まれている
    請求項1又は2に記載の手術支援システム。
  4. 前記基準位置には、前記手術器具から延びる仮想的な直線上に含まれる複数の点が含まれる請求項1〜3のいずれか1項に記載の手術支援システム。
  5. 前記仮想的な直線は、長尺状の前記手術器具の長手軸方向に一致する直線である請求項4記載の手術支援システム。
  6. 前記基準位置には、前記手術器具の周囲に設定された仮想的な球の表面上の位置が含まれる請求項1〜3のいずれか1項に記載の手術支援システム。
  7. 前記基準位置には、前記手術器具の周囲に設定された仮想的な半球の表面の位置が含まれる位置が含まれ、
    前記仮想的な半球は、その半球の天頂を、前記手術器具の先端から延びる仮想的な直線が通過するものである請求項1〜3記載の手術支援システム。
  8. 前記対象部位又はその周囲に埋め込まれた複数のマーカによって、術中の前記対象部位の移動及び/又は変形を検出し、検出された前記対象部位の移動及び/又は変形に応じて、前記3次元モデルの座標を移動させる処理、及び/又は、前記3次元モデルを変形させる処理を行う手段を備えている請求項1〜7のいずれか1項に記載の手術支援システム。
  9. 前記手術器具の移動を駆動制御する制御部と、請求項1〜8のいずれか1項に記載の手術支援システムと、を備えた手術ロボットシステムであって、
    前記制御部は、前記手術支援システムによって生成されたナビゲーションデータを、取得し、取得したナビゲーションデータに基づいて、前記手術器具の移動を駆動制御する
    ことを特徴とする手術ロボットシステム。
JP2009048202A 2009-03-02 2009-03-02 手術支援システム及び手術ロボットシステム Pending JP2010200894A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048202A JP2010200894A (ja) 2009-03-02 2009-03-02 手術支援システム及び手術ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048202A JP2010200894A (ja) 2009-03-02 2009-03-02 手術支援システム及び手術ロボットシステム

Publications (1)

Publication Number Publication Date
JP2010200894A true JP2010200894A (ja) 2010-09-16

Family

ID=42963020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048202A Pending JP2010200894A (ja) 2009-03-02 2009-03-02 手術支援システム及び手術ロボットシステム

Country Status (1)

Country Link
JP (1) JP2010200894A (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム
WO2014076931A1 (ja) * 2012-11-15 2014-05-22 コニカミノルタ株式会社 画像処理装置、画像処理方法、およびプログラム
JP2014132980A (ja) * 2013-01-10 2014-07-24 Advanced Healthcare Kk トロカールおよび手術支援システム
JP2014525765A (ja) * 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ 内視鏡手術におけるガイド下注入のためのシステム及び方法
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
WO2016028095A1 (ko) * 2014-08-20 2016-02-25 재단법인 아산사회복지재단 도구의 위치 추적장치
JP2017000772A (ja) * 2015-06-12 2017-01-05 アヴァテラメディカル ゲーエムベーハー ロボット支援手術のための装置及び方法
US9767608B2 (en) 2013-03-13 2017-09-19 Samsung Electronics Co., Ltd. Augmented reality image display system and surgical robot system comprising the same
US20170270678A1 (en) * 2016-03-15 2017-09-21 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
WO2018012207A1 (ja) * 2016-07-12 2018-01-18 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
CN108095761A (zh) * 2012-03-07 2018-06-01 齐特奥股份有限公司 空间对准设备、空间对准***及用于指导医疗过程的方法
US9990744B2 (en) 2014-08-27 2018-06-05 Fujifilm Corporation Image registration device, image registration method, and image registration program
US10049480B2 (en) 2015-08-31 2018-08-14 Fujifilm Corporation Image alignment device, method, and program
US10102638B2 (en) 2016-02-05 2018-10-16 Fujifilm Corporation Device and method for image registration, and a nontransitory recording medium
CN109069009A (zh) * 2016-03-10 2018-12-21 博迪维仁医疗有限公司 用于使用多视图位姿估计的方法和***
US10242452B2 (en) 2015-08-25 2019-03-26 Fujifilm Corporation Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
WO2019164275A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술도구 및 카메라의 위치 인식 방법 및 장치
JP2019184707A (ja) * 2018-04-04 2019-10-24 パナソニック株式会社 画像投影装置
CN110650704A (zh) * 2017-05-25 2020-01-03 柯惠Lp公司 用于检测图像捕获装置的视野内的物体的***和方法
US10631948B2 (en) 2015-09-29 2020-04-28 Fujifilm Corporation Image alignment device, method, and program
WO2021125115A1 (en) * 2019-12-19 2021-06-24 Sony Group Corporation Robotic arm system, method and computer program
US11439358B2 (en) 2019-04-09 2022-09-13 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US11464503B2 (en) 2014-11-14 2022-10-11 Ziteo, Inc. Methods and systems for localization of targets inside a body
US11553974B2 (en) 2017-05-25 2023-01-17 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
JP2023503443A (ja) * 2019-11-25 2023-01-30 ファラパルス,インコーポレイテッド アブレーション機器の追跡及び損傷線の生成のための方法、システム、及び装置

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014525765A (ja) * 2011-06-17 2014-10-02 コーニンクレッカ フィリップス エヌ ヴェ 内視鏡手術におけるガイド下注入のためのシステム及び方法
US11304686B2 (en) 2011-06-17 2022-04-19 Koninklijke Philips N.V. System and method for guided injection during endoscopic surgery
CN108095761A (zh) * 2012-03-07 2018-06-01 齐特奥股份有限公司 空间对准设备、空间对准***及用于指导医疗过程的方法
CN108095761B (zh) * 2012-03-07 2021-10-15 齐特奥股份有限公司 空间对准设备、空间对准***及用于指导医疗过程的方法
US11678804B2 (en) 2012-03-07 2023-06-20 Ziteo, Inc. Methods and systems for tracking and guiding sensors and instruments
JP2013202313A (ja) * 2012-03-29 2013-10-07 Panasonic Corp 手術支援装置および手術支援プログラム
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
WO2013145730A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 手術支援装置および手術支援プログラム
WO2014076931A1 (ja) * 2012-11-15 2014-05-22 コニカミノルタ株式会社 画像処理装置、画像処理方法、およびプログラム
JPWO2014076931A1 (ja) * 2012-11-15 2017-01-05 コニカミノルタ株式会社 画像処理装置、画像処理方法、およびプログラム
JP2014132980A (ja) * 2013-01-10 2014-07-24 Advanced Healthcare Kk トロカールおよび手術支援システム
US9767608B2 (en) 2013-03-13 2017-09-19 Samsung Electronics Co., Ltd. Augmented reality image display system and surgical robot system comprising the same
WO2016028095A1 (ko) * 2014-08-20 2016-02-25 재단법인 아산사회복지재단 도구의 위치 추적장치
US9990744B2 (en) 2014-08-27 2018-06-05 Fujifilm Corporation Image registration device, image registration method, and image registration program
US11464503B2 (en) 2014-11-14 2022-10-11 Ziteo, Inc. Methods and systems for localization of targets inside a body
JP2017000772A (ja) * 2015-06-12 2017-01-05 アヴァテラメディカル ゲーエムベーハー ロボット支援手術のための装置及び方法
US10242452B2 (en) 2015-08-25 2019-03-26 Fujifilm Corporation Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
US10049480B2 (en) 2015-08-31 2018-08-14 Fujifilm Corporation Image alignment device, method, and program
US10631948B2 (en) 2015-09-29 2020-04-28 Fujifilm Corporation Image alignment device, method, and program
US10102638B2 (en) 2016-02-05 2018-10-16 Fujifilm Corporation Device and method for image registration, and a nontransitory recording medium
CN109069009A (zh) * 2016-03-10 2018-12-21 博迪维仁医疗有限公司 用于使用多视图位姿估计的方法和***
CN109069009B (zh) * 2016-03-10 2022-09-23 博迪维仁医疗有限公司 用于使用多视图位姿估计的方法和***
US10078906B2 (en) * 2016-03-15 2018-09-18 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
US20170270678A1 (en) * 2016-03-15 2017-09-21 Fujifilm Corporation Device and method for image registration, and non-transitory recording medium
JPWO2018012207A1 (ja) * 2016-07-12 2019-06-13 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
CN109478092A (zh) * 2016-07-12 2019-03-15 富士胶片株式会社 图像显示***、以及头戴式显示器的控制装置及其工作方法和工作程序
WO2018012207A1 (ja) * 2016-07-12 2018-01-18 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
JP2022101696A (ja) * 2017-05-25 2022-07-06 コヴィディエン リミテッド パートナーシップ 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法
US11553974B2 (en) 2017-05-25 2023-01-17 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
JP2020520752A (ja) * 2017-05-25 2020-07-16 コヴィディエン リミテッド パートナーシップ 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法
US11918299B2 (en) 2017-05-25 2024-03-05 Covidien Lp Systems and methods for detection of objects within a field of view of an image capture device
CN110650704B (zh) * 2017-05-25 2023-05-26 柯惠Lp公司 用于检测图像捕获装置的视野内的物体的***和方法
CN110650704A (zh) * 2017-05-25 2020-01-03 柯惠Lp公司 用于检测图像捕获装置的视野内的物体的***和方法
JP7197511B2 (ja) 2017-05-25 2022-12-27 コヴィディエン リミテッド パートナーシップ 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法
WO2019164275A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술도구 및 카메라의 위치 인식 방법 및 장치
JP2019184707A (ja) * 2018-04-04 2019-10-24 パナソニック株式会社 画像投影装置
US11883214B2 (en) 2019-04-09 2024-01-30 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US11439358B2 (en) 2019-04-09 2022-09-13 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
JP2023503443A (ja) * 2019-11-25 2023-01-30 ファラパルス,インコーポレイテッド アブレーション機器の追跡及び損傷線の生成のための方法、システム、及び装置
JP7473643B2 (ja) 2019-11-25 2024-04-23 ボストン サイエンティフィック サイムド,インコーポレイテッド アブレーション機器の追跡及び損傷線の生成のための方法、システム、及び装置
WO2021125115A1 (en) * 2019-12-19 2021-06-24 Sony Group Corporation Robotic arm system, method and computer program

Similar Documents

Publication Publication Date Title
JP2010200894A (ja) 手術支援システム及び手術ロボットシステム
US11754971B2 (en) Method and system for displaying holographic images within a real object
US11751948B2 (en) Methods and systems for robot-assisted surgery
US11896318B2 (en) Methods and systems for controlling a surgical robot
US11944390B2 (en) Systems and methods for performing intraoperative guidance
US10265854B2 (en) Operating room safety zone
Baumhauer et al. Navigation in endoscopic soft tissue surgery: perspectives and limitations
JP4152402B2 (ja) 手術支援装置
US11737696B2 (en) System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
JP7469120B2 (ja) ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
JP2021505226A (ja) 処置中の視覚化を支援するためのシステム及び方法
EP2438880A1 (en) Image projection system for projecting image on the surface of an object
WO2011134083A1 (en) System and methods for intraoperative guidance feedback
US11779192B2 (en) Medical image viewer control from surgeon's camera
WO2019080358A1 (zh) 3d影像手术导航机器人及其控制方法
US20240225735A9 (en) Dynamic tissue imagery updating
US11771508B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
US11779412B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
Galloway et al. Overview and history of image-guided interventions
CN212490140U (zh) 手术导航***
JP7414611B2 (ja) ロボット手術支援装置、処理方法、及びプログラム
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
Bauemschmitt et al. Improved preoperative planning in robotic heart surgery
CA3233118A1 (en) Anatomical scanning, targeting, and visualization