JP2007531553A - 術中ターゲティングのシステムおよび方法 - Google Patents

術中ターゲティングのシステムおよび方法 Download PDF

Info

Publication number
JP2007531553A
JP2007531553A JP2006536818A JP2006536818A JP2007531553A JP 2007531553 A JP2007531553 A JP 2007531553A JP 2006536818 A JP2006536818 A JP 2006536818A JP 2006536818 A JP2006536818 A JP 2006536818A JP 2007531553 A JP2007531553 A JP 2007531553A
Authority
JP
Japan
Prior art keywords
target site
instrument
image
patient
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006536818A
Other languages
English (en)
Inventor
シャヒード、ラミーン
Original Assignee
ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ
シャヒード、ラミーン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/764,650 external-priority patent/US20050085717A1/en
Priority claimed from US10/764,651 external-priority patent/US20050085718A1/en
Application filed by ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ, シャヒード、ラミーン filed Critical ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ
Publication of JP2007531553A publication Critical patent/JP2007531553A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4416Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3995Multi-modality markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0808Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain
    • A61B8/0816Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the brain using echo-encephalography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Surgical Instruments (AREA)
  • Endoscopes (AREA)

Abstract

本発明のいくつかの実施形態の方法は、ユーザが、患者の体内の表面下標的部位に医療器具を誘導するのを支援する方法である。この方法は、1つまたは2つ以上の術中画像を生成する。本方法は、画像上の標的部位を示す。本方法は、基準座標系中の標的部位の3D座標を決定する。本方法は、(1)基準座標系中の器具の位置を追跡し、(2)表示装置上に、基準座標系中のツールに関する位置から見えるような視野を投影し、(3)表示された視野上に、位置に対応する標的部位の印を投影する。いくつかの実施形態では、視野は、器具の位置からだけでなく、基準座標系中における器具の既知の方向性からの視界である。印を観察することによって、ユーザは、印が表示された視野内に所定の状態で置かれるか保持されるように、器具を移動させることによって、標的部位に向けて器具を誘導することができる。
【選択図】図1

Description

近年、医学界は、外科的処置の侵襲性を最小限に抑えることにますます的を絞っている。イメージング技術と計測化の進歩は、非常に小さな切開による低侵襲手術を用いた処置を可能にした。より小さな切開は、健康な組織の損傷を最小限に抑え、患者の苦痛を低減し、患者の回復を早めるので、この分野における進歩は、従来の開放処置に比べて病的状態が低減されることによって促進されている。小型CCDカメラおよびそれに関連する超小型電子技術の導入は、内視鏡検査の適用を、特別な場合のための生検から十分に低侵襲性の外科切開および吸引にまで拡張している。
低侵襲性の内視鏡手術は、術中および術後の合併症が低減されやすく、苦痛がより少なく、また患者の回復がより早いという利点がある。しかしながら、狭い視野、方向性の欠如、および血液および邪魔な組織の存在が合わさって、ビデオ内視鏡検査では、一般に方向性が失われ、その実施が困難である。現在の3次元(volumetric)外科ナビゲーション技術では、低侵襲性処置のためのより良好な照射線量および方向性が保証されているが、最近の外科ナビゲーション技術を柔組織内視鏡検査に有効に利用するには、依然として、(1)体内において可撓性のある内視鏡の6つの自由度(DOF)をすべて正確に追跡すること、および(2)介入性処置の間の組織変形および標的の動きを補償すること、という2つの困難が障害となっている。
例えば、内視鏡を使用する場合、外科医の視界はカメラの狭い視野に限定されており、レンズは、血液または曇りによって遮られることが多く、その結果、外科医が方向を見失ってしまう。さらに、内視鏡は、可視表面しか表示することができず、そのため、不透明な組織の下に位置する腫瘍、血管、および他の解剖学的構造を視覚化すること(例えば、胃腸内視鏡検査による膵臓腺がんのターゲティング、または肝臓中の塊などの腸周辺構造をサンプリングするための粘膜下組織の病変のターゲティング、あるいは気管支中の管腔下の病変のターゲティング)は困難な場合が多い。
最近、画像誘導治療(IGT)システムが導入されている。これらのシステムは、従来の内視鏡検査を補完するもので、主に、神経外科、鼻腔外科、および脊髄外科で使用されており、骨またはマーカーに基づいた位置合わせにより、手術前画像を用いて適切な標的精度を提供できる(典型的には1〜3mm)。IGTは、器具を方向付け、特定の解剖学的構造を標的とする外科医の能力を向上させるが、柔組織では、術中の組織が移動および変形するため、これらのシステムはターゲティング精度が十分ではない。さらに、内視鏡は3次元(3D)環境の映像表示を提供するので、従来の純粋に2次元(2D)のIGT画像を内視鏡映像と相関させることは困難である。術中3D超音波イメージングから得られた情報をビデオ内視鏡検査と相関させることで、低侵襲性IGT処置における位置確認およびターゲティング精度を大幅に改善することができる。
1990年代中頃まで、イメージガイダンスの最も一般的な用途は、外科用の軌道装置(surgical trajectory device)および基準系が使用される定位生検用であった。従来のフレームに基づいた立体配列法は、患者の頭骨にねじ止めされたフレームに取り付けられた1組の基準マーカーを参照して、頭蓋内の解剖学的構造を定義している。これらの基準点は、術前の断層撮影(MRIまたはCT)画像上で測定される。
軌道強化装置(trajectory−enforcement device)は基準系の上に置かれ、術前データから得られた事前の計算に基づいて、標的病変に生検ツールを誘導するために使用されている。機械的なフレームを使用することで、位置確認の高い精度が可能になったが、患者の不快感が引き起こされ、外科手術の柔軟性が制限され、外科医が、病変への生検ツールの接近を視覚化することができなかった。
フレームの必要性を完全になくす、画像誘導技術が徐々に出現してきている。第1のフレームなしの定位システムは、関節ロボットアームを使用して、手術室内で患者の解剖学的構造を用いて術前イメージングの位置合わせを行っている。これに続いて、音響装置を使用して、操作環境中の器具を追跡している。音響装置は、最終的には、移動体に取り付けられたカメラおよび赤外線ダイオード(またはリフレクタ)を用いて、その位置および方向性を正確に追跡する光学追跡システムに取って代わられた。これらのシステムは、患者の外部に置かれたマーカーを使用して、手術室内で患者の解剖学的構造を用いて術前イメージングの位置合わせを行っている。このような術中ナビゲーション技術は、術前のCTまたはMR画像を用いて、手術中に局所的な情報を提供する。さらに、システムはすべて、手術器具の場所に関するフィードバックを行うことにより、2Dの手術前データに比べて、術中の位置確認を向上させる。
最近まで、3次元外科ナビゲーションは、実時間3D画像を生成するのに必要な計算能力の不足によって制限されていた。様々な3次元撮像手段の用途は進歩し、内科医が、治療を計画および実行するために、3Dで疾病の程度を視覚化し定量化することが可能になった。システムは、現在では、術前3Dデータを、ビデオカメラ、超音波プローブ、外科用顕微鏡、および内視鏡からの術中2Dデータ画像と、実時間で融合させることができる。これらのシステムは、主に、術前データに直接アクセスすることが外科手術作業の実行に大きな役割を果たす、神経外科、鼻腔外科、および脊髄外科で使用されている。これは、外科手術中に組織が移動および変形するため、これらのIGT処置は、術前に獲得した画像に対してそれらの空間的位置合わせを失う傾向があるという事実にもかかわらずある。
本発明のいくつかの実施形態の方法は、ユーザが、患者の体内の表面下標的部位に医療器具を誘導するのを支援する。この方法は、1つまたは2つ以上の術中画像を生成する。本方法は、画像上の標的部位を示す。本方法は、基準座標系中の標的部位の3D座標を決定する。本方法は、
(1)基準座標系中の器具の位置を追跡し、
(2)表示装置上に、基準座標系中のツールに関する位置から見えるような視野を投影し、
(3)表示された視野上に、位置に対応する標的部位の印を投影する。
いくつかの実施形態では、視野は、器具の位置からだけでなく、基準座標系中における器具の既知の方向性からの視界である。印を観察することによって、ユーザは、印が表示された視野内に所定の状態で置かれるか保持されるように、器具を移動させることによって、標的部位に向けて器具を誘導することができる。
いくつかの実施形態では、方法は、患者の超音波画像を生成するための超音波源を用いて術中画像を生成する。これらの実施形態のいくつかでは、画像上に示される空間的標的部位の3D座標は、画像上の空間的標的部位の2D座標および超音波源の位置から決定される。
いくつかの実施形態では、医療器具は内視鏡であって、表示装置上に投影される視野は、内視鏡から見た画像でありえる。表示装置上に投影される視野は、規定の視野を有する医療器具の末口の位置および方向性から見た視野でありえる。表示装置上に投影される視野は、医療器具の末口位置で見た標的とは異なる、器具の軸線に沿った位置から見た視野でありえる。
示される空間的標的部位は、体積、エリア、または点でありえる。いくつかの実施形態では、印は、示される空間的特徴の境界または標的部位内の点の位置を画定する幾何パターンに構成される。印の間の間隔は、標的部位の位置からの器具の距離を示すことができる。
個々の印のサイズまたは形状は、標的部位の位置からの器具の距離を示すことができる。個々の印のサイズまたは形状は、ツールの方向性を示すことができる。例えば、印は、第1に示された空間的特徴と共に、表示画像上の外科手術軌道(surgical trajectory)を画定する第2の空間的特徴を各画像上に提供することができる。患者の表面領域において、器具は、示された空間的特徴と共に表示画像上の外科手術軌道を画定する入口点を示すことができる。表示画像上の外科手術軌道は、第1の組が第1に示された空間的特徴に対応し、第2の組が第2の空間的特徴または示された入口点に対応する、2組の印で示されることができる。表示画像上の外科手術軌道は、その末端領域で第1の空間的特徴および第2の空間的特徴もしくは示された入口点によって画定される幾何学的物体で示されることができる。
いくつかの実施形態は、医療器具を患者の体内の標的部位に誘導するシステムを提供する。このシステムは、3次元座標系中の患者の標的部位をその上で画定することができる1つまたは2つ以上の術中画像を生成するための撮像装置を含む。このシステムはまた、基準座標系中の医療器具および撮像装置の位置を追跡するための追跡システムを含む。このシステムはさらに、それによってユーザがそのような画像上の空間的標的部位を示すことができるインジケータを含む。システムはまた、表示装置、ならびに追跡システム、表示装置、およびインジケータに動作可能に接続されたコンピュータを含む。
最後に、このシステムは、コンピュータ可読コードを含み、これは、コンピュータが、
(i)前記インジケータを用いて、ユーザによって示された標的部位の空間的情報を前記画像上に記録し、
(ii)前記画像上に示された空間的標的部位から、基準座標系中の空間的標的部位の3D座標を決定し、
(iii)基準座標系中の器具の位置を追跡し、
(iv)基準座標系中のツールに対する既知の位置から見える視野を表示装置上に投影し、
(v)所定の位置に対応する空間的標的部位の印を、表示された視野上に投影する、
ように案内する。
いくつかの実施形態では、視野は、器具の位置からだけではなく、基準座標系中の器具の既知の方向性からの視野でもある。印を観察することにより、ユーザは、印が表示された視野内に所定の状態で置かれるまたは保持されるように器具を移動させることによって、器具を標的部位に向けて誘導することができる。
いくつかの実施形態では、撮像装置は、任意の位置からそれぞれ患者の標的部位のデジタル化画像を生成することが可能な超音波撮像装置である。さらに、いくつかの実施形態では、追跡装置は、2つの位置で撮像装置の位置を記録するように操作可能な追跡装置である。また、いくつかの実施形態では、医療器具は内視鏡であって、表示装置上に投影される視野は、内視鏡から見た画像である。
本発明のいくつかの実施形態は、ユーザが医療器具を患者の体内の標的部位に誘導することを支援するために設計されたシステムにおいて、機械可読コードを提供する。システムは、
(a)3次元座標系中の患者の標的部位をその上で画定することができる1つまたは2つ以上の術中画像を生成するための撮像装置と、
(b)基準座標系中の医療器具および撮像装置の位置を追跡するための追跡システムと、
(c)そのような画像上の空間的標的部位をユーザがそれによって示すことができるインジケータと、
(d)表示装置と、
(e)追跡システム、表示装置、およびインジケータに動作可能に接続されたコンピュータと、
を含む。
コードは、
(i)インジケータを用いて、ユーザによって示された標的部位の空間的情報を画像上に記録する命令セットと、
(ii)前記画像上に示された空間的標的部位から、基準座標系中の空間的標的部位の3D座標を決定する命令セットと、
(iii)基準座標系中の器具の位置を追跡する命令セットと、
(iv)前記基準座標系中のツールの既知の位置から見える視野を表示装置上に投影する命令セットと、
(v)既知の位置に対する示された空間的標的部位を示すための印を、表示された視野上に投影する命令セットと、
を含む。
いくつかの実施形態では、視野は、器具の位置からだけではなく、基準座標系中の器具の既知の方向性からの視野でもある。印を観察することにより、ユーザは、印が表示された視野内に所定の状態で置かれるまたは保持されるように器具を移動させることによって、器具を標的部位に向けて誘導することができる。
いくつかの実施形態は、ユーザが医療器具を患者の体内の表面下標的部位に誘導することを支援する方法を提供する。本方法は、
(1)患者の術中画像上の空間的標的部位を示し、
(2)基準座標系中の標的部位の3次元座標を決定し、
(3)基準座標系中の器具の位置を決定し、
(4)表示装置上に、基準座標系中の器具に関する所定の位置から見た視野を投影し、
(5)視野上に、所定の位置に対応する空間的標的部位の印を投影する。
(図面の簡単な説明)
本発明の新規な特徴は、添付の特許請求の範囲に記載される。しかしながら、説明目的のため、本発明のいくつかの実施形態は次の図面に記載される。
図1および2は、本発明のいくつかの実施形態のシステムの手術の代表的なフローチャートである。
図3および4は、本発明のいくつかの実施形態のシステムの代表的なユーザインタフェースディスプレイである。
図5および6は、システムの1つの態様に従った代表的な操作設定の構成である。
以下の説明において、説明目的のため多くの詳細を述べる。しかしながら、当業者であれば、本発明がこれらの特定の詳細を使用することなく実施されてもよいことを理解するであろう。他の例では、周知の構造および装置を、不要な詳細によって本発明の説明が不明瞭にならないように、ブロック図の形態で示す。
図1は、本発明のいくつかの実施形態のプロセス100を示す。このプロセスは患者の体内における所望の位置に医療器具を誘導する。この図に示すように、プロセス100は、最初に(ステップ105において)標的部位の1つまたは2つ以上の術中画像を獲得する。次に、プロセス100は(ステップ110において)、術中画像、患者の標的部位、および手術器具を、共通の座標系内に位置合わせする。
患者、術中画像に関与するイメージングソース、および手術ツールはすべて(登録において)同じ基準系内に置かれなければならない。これは、様々な方法によって行うことができ、そのうちの3つを次に記載する。第1に、壁取付け式の追跡装置を使用して、患者、イメージングソース、および手術ツール(例えば、内視鏡)を追跡することができる。第2に、ツールの位置だけを追跡することができる。そのようなアプローチでは、ツールの先端点で身体上の基準点またはイメージングソースの位置に触れることによって、ツールを、患者およびイメージングソースの位置合わせ点に置くことができる。その後、患者が動いた場合、ツール対患者の接点によって装置を位置合わせすることができる。すなわち、既知の座標から画像が作成されれば、画像ソースの位置をさらに追跡する必要がなくなる。
第3に、患者および画像ソースは、患者の上または画像中の基準点によって、あるいは患者に対する既知の座標で撮像装置を置くことによって、位置合わせ点に置かれる。患者およびツールは、ツールに対する基準点の位置を検出することによって、例えば、ツール上で患者の基準点位置を検出する検出器を使用することによって、位置合わせ点に置かれる。あるいは、患者および内視鏡ツールは、内視鏡中の基準点を撮像し、撮像した位置と内視鏡の位置を一致させることによって、位置合わせ点に置くことができる。
ステップ110の位置合わせ操作の後、プロセス100は(ステップ115において)患者の標的部位に対する手術器具の位置を追跡する。いくつかの実施形態では、ナビゲーションのための内視鏡の追跡を1つの実施に統合するために、磁気追跡システムが使用される。システムは、磁気変換器を内視鏡チップの動作チャンネル内に提供し、最適な感知量がセンサの位置範囲を含むように磁界発生器を配置する。6つの自由度(6つのDOF)を規定する1つの実施において、金属に対する感度を持たない小型化された磁気追跡システムを使用することができる。追跡システムは、較正治具を用いて較正されてもよい。較正対象は、透視変換を逆マッピングすることによって、均一な格子点から非均一な格子点に修正され、その結果、較正対象の点密度は、内視鏡画像全体にわたってほぼ等しくなる。較正治具は防水され、水中環境で作動するように設計されている。適切であれば、治具が操作環境に類似した屈折特性を備えた液体に浸されている間に、較正が行われる。
一実施形態では、超音波較正システムを、3次元超音波データを正確に再構成するのに使用することができる。光学追跡システムは、超音波プローブに付けられる追跡装置の位置および方向性を測定するのに使用される。超音波プローブの内部および外部パラメータの空間較正が実行される。これらのパラメータは、超音波映像を内視鏡の視野の座標フレームに変換するのに使用される。別の実施形態では、磁気追跡システムは超音波プローブに使用される。1つのみの追跡システムを、内視鏡と超音波プローブの両方に使用することで、環境中の障害が低減され、視線追跡の必要性が回避される。
別の実施形態では、プローブの追跡は光学追跡システムを使用して行われる。3Dプローブの較正は、強度に基づいた位置合わせを用いる2D超音波プローブ較正に類似したやり方で行われる。強度に基づいた位置合わせは全自動であって、セグメント化または特徴の識別を必要としない。典型的な2Dの場合では、獲得したイメージは、映像生成および捕捉プロセスのスケーリングに従う。この変換および追跡用超音波較正装置の既知の位置(キャリブレーションファントム)は、超音波撮像ボリュームと超音波プローブの追跡装置との関係を決定するのに使用される。較正が成功すると、変化しない幾何学形状が必要とされる。キャリブレーションファントムは、変形なしに再配置および処理に耐えるように設計される。ファントムに付けられたクイックリリースクランプは、較正プロセスの間、超音波プローブを保持する。
次に、内視鏡映像と動的超音波画像との空間的相関が行われる。各追跡システム、内視鏡、および超音波機械の内部の処理は、各装置の実時間入力と出力との間に独自の時間遅延を引き起こす。出力データストリームは同期されず、異なる間隔でリフレッシュされる。さらに、ナビゲーションシステムがこれらの出力を獲得して処理するのにかかる時間は、ストリームに依存する。したがって、呼吸および他の動作による動きをこれらの独立した待ち時間と組み合わせて、撮像を実際に獲得しているときとは異なる動的な装置の位置を実時間表示させることができる。
いくつかの実施形態では、空間的相関を行うためにコンピュータが使用される。コンピュータは、より大きな画像ボリュームを扱うことができ、物理的な撮像ボリュームのサイズを増大させ、画像解像度をより高くする(256_256_64の代わりに512_512_512まで)ことができる。コンピュータはまた、より高速の3D再構成およびマージ、ならびにより高いフレーム率でのより高品質のパースペクティブボリュームレンダリングを提供する。コンピュータは、追跡およびデータストリームのタイムスタンプを記録し、バッファリングし、次に、追跡された装置の位置および方向性を、画像データのタイムスタンプと一致するように補間する。
必要な時間オフセットを決定する際、超音波プローブを、キャリブレーションファントムのステップ面全体にわたって移動させて、追跡システムと画像データストリームの両方に一時的な階段関数を作成する。相対的な遅れは、各データストリーム中で観察された階段関数のタイムスタンプを比較することによって決定される。内視鏡の待ち時間は、同じファントムを使用して同様に決定される。いくつかの実施形態では、超音波システムが再構成される場合は常にこれが行われる。しかしながら、内視鏡の待ち時間は、内視鏡のエレクトロニクスが変更されない限り再計算する必要はない。患者は超音波プローブによって撮像され、内視鏡は、外科医のための基準系となる。重要な情報は、内視鏡映像に対する超音波データの動的な関係に含まれており、これは、両方の装置の較正および追跡によって理解される。
次に図1に戻ると、プロセスは(ステップ120において)表示装置に患者の標的部位の1つまたは2つ以上の画像を示す。次に、プロセスは(ステップ125において)、患者の標的部位の画像上における、患者の標的部位の空間的特徴に関するユーザの指示を受取る。その後、プロセスは(ステップ130において)、患者の標的部位の空間的特徴に対する手術器具の位置および方向性に関連する印を、画像上に投影する。
図1に示す手順は、目に見える内視鏡画像を越えた動きで、病変を動的に追跡し標的にする。標的が識別されると、超音波ボリューム内の標的を囲む部分領域は、ボリュームの追跡された方向性と共に基準として格納される。前のボリューム中の標的位置で中心にある、連続して獲得された各超音波ボリュームの部分領域は、基準標的部分領域の方向性を用いて再度サンプリングされる。基準部分領域に対する再度サンプリングされた部分領域の3次元の相互相関は、標的の新たな場所を見つけるのに使用される。この動的な追跡は、時間をかけて個々の標的を追跡し、システムが標的ナビゲーションデータを表示している場合、データは実時間で変化して、内視鏡に対する標的の更新された場所に追随する。
血管構造は、強く、よく区別されたドップラー信号を返す。動的な超音波データは、強度に基づいた不透明度フィルタを使用して実時間で描画されて、非血管性の構造を透明にしてもよい。これは、セグメント化のために計算上必要な変形可能な幾何モデルを必要とすることなく、血管構造を有効に分離するので、システムは、動きおよび変形に実時間で追随することができる。
図1に示す手順は、外科医などのユーザが、選択された標的地点または領域を、術中超音波画像(1つまたは2つ以上の3D超音波画像)上にマーク付けすることを可能にする。その後、指定された標的地点または領域は外科手術中に外科医に対して表示されて、標的部位に対するツールの位置および方向性を誘導する。いくつかの実施形態では、標的エリアは、(1)患者の標的エリアを表すフィールドを表示することによって、および(2)患者に対するツールの追跡された位置を用いて、表示フィールドにおけるその位置がマーク付けした標的位置に対するツールの相対位置を示す1つまたは2つ以上の印をフィールドに重ね合わせることによって、ユーザに対して表示される。さらに、いくつかの実施形態では、ツールは、標的部位にアクセスするための軌道の位置および方向性を示すために、患者の上にレーザービームを方向付けるレーザポインタを備える。ユーザは、ツールをレーザービームに合わせることによって、この軌道に追随することができる。
ツールが内視鏡である実施形態では、表示された画像は内視鏡で見られる画像であって、印はこの画像上に表示される。印は、ツールが適切に向けられたときに印が等しいサイズになるように、例えば矢印である印の中央点として、ならびに矢印の伸び具合によってその位置からの標的に達するためのツールの方向性として、標的位置を示してもよい。あるいは、印は中に入るための表面点を示してもよく、矢印の伸びは、その表面点から標的に達するための、ツールの方向性と軌道を示してもよい。
いくつかの実施形態では、外科医が、3次元的に再構成された医用画像を重ねられた、患者の解剖学的構造の局所的エリアの外科用内視鏡による視野を視覚化することが可能になる。この3次元ナビゲーションシステムを使用して、外科医は、外科用内視鏡によって手術部位を視覚化しながら、3次元的に再構成された術前MRIまたはCT画像を介して、患者の解剖学的構造の内部層を調査する。内視鏡の位置および方向性を与えられ、カメラの特性を与えられて、内視鏡によって得られた光学画像と一致する、パースペクティブボリュームレンダリングした画像が描画される。このシステムは、外科医が仮想的に外科手術部位の中およびその周りを飛び回って、代わりとなるアプローチを視覚化し、かつ質的に最良のものを決定することを可能にする。3次元的に再構成された画像は、強度に基づいたフィルタリングおよび直接のパースペクティブボリュームレンダリングを用いて生成され、これは、従来は必要だった高コントラスト画像のセグメント化を不要にする。術中内視鏡画像と一致された、実時間で3D描画された再構成の放射線画像は、低侵襲性の内視鏡手術における新たな可能性を提供する。血管構造に衝撃を与えることが、内視鏡的処置における最大の危険として残っているので、この新技術は、一般に2D再構成画像を表示する従来の画像誘導システムを越える顕著な改善を示す。
手術中、および超音波画像を使用する実施形態に関して、ユーザは、標的領域または部位に対応するマーキングを画像上に作成する。このマーキングは、点、線、またはエリアであってもよい。このマーキングから、および患者の座標系中におけるツールの位置を追跡することにより、システムは、超音波画像から識別した標的の位置を示す視覚情報をユーザに提供するように機能する。
図1のプロセス100を使用するナビゲーションシステムは、3つの別個のモードで作動する。第1のモードは標的識別モードである。外科医が1つまたは2つ以上の対象とする標的領域を見つけ、ターゲティングのためにそれらをマークすることを可能にするために、撮像された超音波ボリュームが表示される。システムは、標的の精密な2D位置決めのために、インタラクティブな3次元レンダリング、ならびに3つまでのユーザが位置決定可能な直交横断面を示す。
第2のモードにおいて、内視鏡は基準系の位置および方向性を設定するために使用される。これらのパラメータに基づいて、かつ内視鏡の光学特性を用いて、システムは、内視鏡映像に標的のナビゲーションデータを重ねる。これによって、外科医が、内視鏡の視野の可視範囲を越えて対象とする領域を標的とすることが可能になる。表示データは、内視鏡の先端に対する標的領域の方向およびそこまでの距離、ならびにこのデータにおけるエラーの潜在的な範囲を含む。
第3のモードは、内視鏡が正しい位置に置かれた後、実際の介入性処置(生検または切除など)を実行するのに使用される。撮像されたインタラクティブな超音波ボリュームおよび横断面は、各画像上に投影された内視鏡の位置およびその先端による軌道と共に表示される。内視鏡ニードル自体もまた、超音波ディスプレイにおいて目に見える。
ナビゲーションシステムは、内視鏡の先端から放射する単一の固定した2D超音波面に限定されることなく、介入ツールを病変の中心に配置することを可能にする。(その2D視野の能力は、超音波横断面を任意に内視鏡に合わせることにより複写することができる。)内視鏡追跡システムの第1の実施では、生検を行うために、磁気センサは動作チャンネルから取り除かれる必要があり、ナビゲーション表示は、その除去の直前に観察された、格納された位置を使用する。別の実施形態では、センサは、較正で適所に配置されるニードルアセンブリに統合される。
ナビゲーションシステムは、内視鏡の位置および方向性の実時間データを提供し、超音波システムは動画像データを提供する。先端位置データは、画像ボリューム中での内視鏡の先端の場所を計算するのに使用され、プローブの方向性データは、レンダリングカメラの位置および方向性を決定するのに使用される。外科医のフィードバックは、ナビゲーションシステムを改善し精密化するために使用される。処置の持続時間および結果は、ナビゲーションおよび画像強化した内視鏡の助けなしにファントム上で実行された、従来の生検処置のものと比較される。
標的が識別されると、いくつかの実施形態は、ボリュームの追跡された方向性と共に、超音波ボリューム中の標的を囲む部分領域を基準として格納する。その後、これらの実施形態は、基準標的部分領域の方向性を使用して、前のボリューム中の標的位置に中心がある、連続して獲得された各超音波ボリュームの部分領域を再度サンプリングする。
いくつかの実施形態は、再度サンプリングされた部分領域と基準部分領域との3次元の相互相関を使用して、標的の新しい場所を見つける。この動的な追跡は、時間をかけて個々の標的を追跡し、システムが標的ナビゲーションデータを表示している場合、データは実時間で変化して、内視鏡に対する標的の更新された場所に追随する。
図2は、本発明のいくつかの実施形態のプロセス200を示す。図1のプロセス100と同様に、プロセス200は患者の体内の所望位置に医療器具を誘導する。図2に示すように、プロセス200は、最初に(ステップ205において)所定の方向性から患者の標的部位の1つまたは2つ以上の2Dまたは3D術中画像を獲得する。次に、プロセスは(ステップ210において)患者の標的部位に対する手術器具の位置を追跡する。
プロセスはその後(ステップ215において)患者の部位、患者の標的部位、および手術器具の術中画像を、共通の3D基準座標系内に位置合わせする。次に、プロセスは(ステップ220において)表示装置上に患者の標的部位の画像を描画する。プロセスはさらに(ステップ225において)画像上で患者の標的部位の空間的特徴(形状および位置)を指定する。その後、そのプロセスは(ステップ230において)手術器具の位置および方向性を標的の特徴に対して相関させる。プロセスは(ステップ235において)、標的の空間的特徴に対する手術器具の位置および方向性に関連する印(例えば、3次元形状、点、および/または線)を術中画像上に投影する。
図3および図4は、図1および図2に示したプロセスを使用する撮像システムのための代表的なユーザインタフェースを示す。図3は、超音波で機能強化した内視鏡検査のための代表的なユーザインタフェース(UI)を示す。左側のパネルは、ターゲティングベクトルおよび距離測定値を重ね合わせた内視鏡画像を示す。右側のパネルは、獲得した3D超音波ボリュームによって再フォーマットされた横断面を示す。図4は、超音波で機能強化した内視鏡検査のための別のUIを示す。左側のパネルは、ドップラー撮像によって獲得した仮想ツールの追跡および視覚化ならびに血管系を含む内視鏡画像を示す。右下のパネルは、ボリュームレンダリングした3D超音波を示す。
図3および図4のUIは、超音波データのインタラクティブレンダリングを支援して、ユーザが、超音波画像ボリュームにおいて対象とする所望の領域を発見しマークすることを可能にする。UIは、ユーザが、対象とする標的領域を発見してマークすることを可能にする。血管構造に衝撃を与えることは、内視鏡的処置における重大な危険である。内視鏡画像中で表面組織の後ろにある血管を視覚化することは、血管構造を回避する(反ターゲティング)助けとなるだろう。
図5および図6はそれぞれ、本発明のいくつかの実施形態に従った代表的な外科手術の構成を示す。これらのシステムは、次のことを可能にする。
500mm以上の可撓性の内視鏡を1.8mmの位置精度および1°の方向性精度で追跡する。
ほぼ実時間でのナビゲーションのために、外部の3D超音波画像を獲得し、それらを処理する。
あらゆる再フォーマットされた3D超音波横断面画像上で、動的に標的を識別できるようにする。
任意に、強度に基づいた不透明度フィルタを用いて描画された動的なドップラー超音波データを、内視鏡画像上に重ねる。
呼吸を止めている間、5mmの精密化された標的精度で、10mmの全体的な粗い標的精度を提供する。
図5のシステムでは、映像ソース500(例えば、顕微鏡またはビデオカメラ)が、映像信号501を生成するのに使用される。後述するいくつかの実施形態では、映像ソース500は内視鏡システムである。術中イメージングシステム502(例えば、超音波システム)は、術中イメージングデータストリーム103を捕捉する。情報は、超音波ディスプレイ504上に表示される。
追跡可能な術中イメージングプローブ505も、1つまたは2つ以上の追跡可能な手術ツール506中に配置される。他のツールは、追跡可能な内視鏡507またはあらゆる術中映像ソースを含む。追跡装置508は、追跡データストリーム510を通信する追跡ワイヤ509を有する。ナビゲーションインタフェース512を備えたナビゲーションシステム511が提供されて、ユーザが、術中ビデオ画像513(透視図)を用いて作業を行うことが可能になる。映像ソースがなければこれは削除され得る。
第1のターゲティングマーカー514(視野外の標的を指す)ならびに第2のターゲティングマーカー515(視野内の標的を指す)を使用することができる。術中画像516および病変標的の画像517は、正射像519(外部の視界)として手術ツールまたは映像ソース518(例えば、内視鏡)の仮想表示で示される。さらに、あらゆる任意の3D形状(解剖学的表現またはツール表現)の画像のオーバレイ520も示すことができる。
図6は、別の代表的な手術の設定を示す。図6では、いくつかの赤外線映像カメラが患者の画像を捕らえる。超音波プローブは、患者の体内における超音波センサの位置を決める。その後、内視鏡などの手術ツールが患者の体内で配置される。赤外線映像カメラは、センサの位置をコンピュータに報告し、コンピュータは次に、3D画像の再構成を生成するワークステーションに収集した情報を転送する。ワークステーションも、データを登録し、操作し、スクリーン上に患者データを視覚化する。ワークステーションはまた、患者の2D画像を捕捉する超音波機械からデータを受取る。
使用中の可撓性の内視鏡の幾何学形状は絶えず変化するので、内視鏡の先端の視野は、内視鏡の他のある部分に付けられた追跡装置の位置に直接依存しない。これにより、直接の光学的または機械的追跡が排除されるが、これらのシステムは、有用かつ正確である一方、制約されない視線または突出した機械的リンク機構が必要とされるので、体内にある可撓性の装置を追跡する場合に使用することができない。
追跡された内視鏡映像を利用するために、撮像システムの6つの外部パラメータ(位置および方向性)および5つの内部パラメータ(焦点距離、光学的中心座標、アスペクト比、およびレンズの歪み係数)が、内視鏡の先端の姿勢およびその光学特性を決定するために求められる。あらゆる所定の構成に対するこれらのパラメータの値は当初は未知である。
磁気変換器は、内視鏡の先端で動作チャンネルに挿入されて、最適な感知量がセンサの位置範囲を含むように磁界発生器を配置する。この時、金属に対する感度を持たない6つのDOFの小型化された磁気追跡システムが使用されるが、最近の開発により近い将来には改善されたシステムが約束される。
獲得した超音波画像を正しくボリュームデータセットに挿入するために、画像中の各ピクセルの世界座標が決定されなければならない。これは、超音波プローブの精密な追跡ならびに超音波画像の較正を必要とする。現在の較正技術は、3D超音波システムを使用するたびにそれに先立って実行するには、手間と時間がかかりすぎる。
超音波データを追跡する場合、対象とする領域はプローブ自体から大幅に遠い場合がある。したがって、撮像される領域を発見するのにプローブの方向性が投影される場合、追跡エラーがあればそれが拡大される。
超音波再構成機関の利点の1つは、あらゆる既存の超音波システム構成に適合させることができる点である。この融通性を活用するために、多様なタイプおよびサイズの超音波プローブに対する単純で信頼性のある追跡センサの搭載能力が使用されるが、これは、追跡センサおよび超音波プローブが、較正後に互いに対して固定の位置を維持することが必要なためである。外科医はまた、プローブを、追跡システムおよびそのプローブアタッチメントとは独立に使用したいと考えることがある。
超音波画像から正確なボリュームを再構成するためには、6つの外部パラメータ(位置および方向性)および縮尺などの任意の必要な内部パラメータを精密に評価する必要がある。追跡センサが超音波プローブに搭載されるか、または、イメージング深さあるいは操作頻度などの関連する超音波撮像パラメータのうちのいずれかが修正されるたびに、較正手順が実行されなければならないため、較正手順は、正確なだけでなく単純かつ迅速でなければならない。光学追跡システムは、超音波プローブに付けられる追跡装置の位置および方向性を測定するのに使用される。システムを臨床環境で使用するのに実用的なものにするために、超音波プローブの内部および外部のパラメータの空間的較正が行われる。その後、これらのパラメータは、超音波画像を内視鏡の視野の座標フレームに適切に変換するために使用される。
最初の解決策は、超音波プローブに磁気追跡を使用することである。他の解決策は、光学追跡システムを使用してプローブを追跡することである。追跡装置および対応する万能の取付け金具が配置される。典型的な2Dの場合では、獲得したイメージは、映像生成および捕捉プロセスのスケーリングに従う。映像出力は使用されないが、3次元超音波データは直接アクセスされるので、これは問題にならない。3Dプローブの内部パラメータは、メーカーによって較正されているので修正されない。組織を模倣する材料の200_200_200mmのファントムは、統合CT可視追跡装置と共に使用される。ファントムの中の3次元すべてに沿って、直径20mmの、および修正済の音響インピーダンスを備えたCTコントラスト材料を含むシリンダおよび立方体が分配される。ファントムは、超音波プローブを用いて撮像されるが、超音波ボリュームと以前に獲得された基準CT3次元画像との変換は、強度に基づいた厳密な位置決め(2つの画像の強度が値ではなく構造において類似していることが求められる)を使用して計算される。この変換およびファントムの追跡装置の既知の位置は、超音波診断ボリュームと超音波プローブの追跡装置との関係を決定するのに使用される。較正が成功すると、変化しない幾何学形状が必要とされる。ファントムは、変形なしに再配置および処理に耐えるように設計される。ファントムに付けられたクイックリリースクランプは、較正プロセスの間、超音波プローブを保持する。
超音波映像ボリュームにおいて対象となる所望の領域を発見しマークするために、インタフェースは、超音波データのインタラクティブレンダリングを支援する。インタラクティブなナビゲーションシステムは、ユーザが対象となる標的領域を発見しマークする方法を必要とする。呼吸および他の動きは、あらゆる標的の元の場所がシフトする原因となる。標的が動的に追跡されなければ、ナビゲーション情報は時間が経つにつれて質が低下する。超音波の下での通常の生検針の可視性は悪く、血管構造に衝撃を与えることは、内視鏡的処置における重大な危険である。内視鏡画像中で表面組織の後ろにある血管を視覚化することは、それを回避する(反ターゲティング)助けとなると考えられるが、セグメント化は困難で、集中的な計算を要するタスクである。上記のことに対処するため、ナビゲーションシステムは3つの別個のモードで作動する。
第1のモードは標的識別モードである。外科医が1つまたは2つ以上の対象とする標的領域を見つけ、ターゲティングのためにそれらをマークすることを可能にするために、撮像された超音波ボリュームが表示される。システムは、標的の精密な2D位置決めのために、インタラクティブな3次元レンダリング、ならびに3つまでのユーザが位置決定可能な直交横断面を示す。
第2のモードにおいて、内視鏡は基準系の位置および方向性を設定するために使用される。これらのパラメータに基づいて、かつ内視鏡の光学特性を用いて、システムは、内視鏡映像に標的のナビゲーションデータを重ねる。これによって、外科医が、内視鏡の視野の可視範囲を越えて対象とする領域を標的とすることが可能になる。表示データは、内視鏡の先端に対する標的領域の方向およびそこまでの距離、ならびにこのデータにおけるエラーの潜在的な範囲を含む。
第3のモードは、内視鏡が正しい位置に置かれた後、実際の生検を実行するのに使用される。撮像されたインタラクティブな超音波ボリュームおよび横断面は、各画像上に投影された内視鏡の位置およびその先端による軌道と共に表示される。内視鏡ニードル自体もまた、超音波ディスプレイにおいて目に見える。
このことは、この場合そうであるように、内視鏡の先端から放射する単一の固定した2D超音波面に限定されることなく、生検針を病変の中心に配置することを支援する。(ただし、その2D視野の能力は、超音波横断面を任意に内視鏡に合わせることにより複写される。)可撓性のある内視鏡の追跡システムの第1の実施では、生検を行うために、磁気センサは動作チャンネルから取り除かれる必要があり、ナビゲーション表示は、その除去の直前に観察された、格納された位置を使用する。しかしながら、最終的には、センサは較正で適所に配置されるニードルアセンブリに統合される。
標的が識別されると、超音波ボリューム内の標的を囲む部分領域は、ボリュームの追跡された方向性と共に基準として格納される。前のボリューム中の標的位置で中心にある、連続して獲得された各超音波ボリュームの部分領域は、基準標的部分領域の方向性を用いて再度サンプリングされる。基準部分領域に対する再度サンプリングされた部分領域の3次元の相互相関は、標的の新たな場所を見つけるのに使用される。
この動的な追跡は、時間をかけて個々の標的を追跡し、システムが標的ナビゲーションデータを表示している場合、データは実時間で変化して、内視鏡に対する標的の更新された場所に追随する。
血管構造は、強く、よく区別されたドップラー信号を返す。動的な超音波データは、強度に基づいた不透明度フィルタを使用して実時間で描画されて、非血管性の構造を透明にしてもよい。これは、セグメント化のために計算上必要な変形可能な幾何モデルを必要とすることなく、血管構造を有効に分離するので、システムは、動きおよび変形に実時間で追随することができる。遅延が顕著な場合、標的が動くとナビゲーション精度が低下する。実際の生検が実行されるときなど、最適な精度が必要な場合、一時的に動きのない呼吸の停止が必要なことがある。
レンズの歪み補償は、実時間のデータ表示に対して実行されるので、重ねられたナビゲーション表示は下にある内視鏡映像に正確にマッピングする。
超音波マシン自体のディスプレイ上であるが恐らくは異なる空間的場所でだが、新しい超音波ボリュームはその全体で次に最も新しいボリュームに取って代わる。これは、誤解を招きやすい古いデータ、データの期限切れ、制限のないイメージングボリューム、および保持レンダリングデータなどの問題の多いエリアを回避する。代わりに、1つがナビゲーションおよび表示に使用されると同時に他方が更新される、単純なピンポンバッファの対が使用されてもよい。このアプローチの別の利益は、低減された計算の複雑さが、より良好なインタラクティブ性能およびより小さなメモリの設置面積に寄与する点である。
すべてのファントムは、ファントムに関連した試験に対して予測されるシステム誤差の少なくとも40分の1の許容差で製造される。この不精確度は、仕様に対する顕著な影響なしに総体的なシステム誤差に含められることができるほど十分に小さい。
コンピュータ化された対象物認識および監視は、レーザターゲティングシステムおよび内部の解剖学的マーカーを使用して、超音波からの手術領域の画像を対象物の3D画像上に重ねるために使用される。3D画像は、高解像度のMRおよびCT画像、ならびにボリューム獲得技術で得られた術中超音波の両方から、ワークステーション内で作成される。システムは、最大の柔軟性および精度を持つ外科医のためのインタラクティブかつ3Dの誘導システムを可能にする。これらの技術により、誘導なしの手術と同じツールおよび基本的な処置で、ただしフレームに基づいた定位によって精度が得られ外傷が最小限に抑えられて、手術が実行される。
システムの代表的な手術が、その特徴を説明するために以下に記載される。切除が計画される深部の内部軸にある脳の病変の場合を考える。術前画像を得る前に、患者に4つのマーカーが置かれる。これらは、皮膚に付着された、パントペック(pantopeque)を充填した球体に包まれた小さな(2mm以下)発光ダイオードでありえる。パントペックは、オイルベースのヨウ素を含むX線造影剤あって、最近まで脊髄撮像に使用されていた。ヨウ素がCT画像上で目に見えるようになる一方、オイルベースはMRI検査において目に見えるようになる。
病変および重要な周囲の解剖学的構造のイメージング特性(すなわち、石灰化があるか否か、それがガドリニウムで亢進するか否かなど)に応じて、CTまたはMRスキャンのいずれか、もしくは両方が実行される。典型的には、高解像度のコントラストが向上したMR画像およびMR血管造影が得られる。画像データは、(病院のコンピュータネットワークを介して)ワークステーションに転送され、ボリュームが描画され、(複数の撮像手段が行われた場合には)融合される。
画像データはセグメント化されて、適切な解剖学的構造上のコンテクストで、選択された内部軸および外部軸の構造ならびに基準点の詳細な視覚化が可能になる。基準マーカー、脳、血管系、および頭皮表面のセグメント化は、全自動である。しかしながら、そのような病変を囲む不規則な解剖学的構造は、現在は、自動的なセグメント化アルゴリズムには予測不能に過ぎるため、病変のセグメント化は、一部のみが自動である。
手術室では、患者は通常の方法で位置付けられる。光学追跡システムは、患者の頭の上方で、その側部に配置される。クロマキー技術は、点滅するマーカーを自動的に識別して、患者の物理的な解剖学的構造を3D画像データセットに対して自動的かつ連続的に位置合わせし、重ね合わせることを可能にする。クロマキーは、3D空間中で、既知の周波数を備えた発光する対象物(例えば、患者の頭部に付けられた点滅する発光ダイオード)を独自に検出することを可能にする映像特殊効果技術である。ダイオードマーカーもまた、定位の空間において追跡するために、従来の超音波プローブおよび手術ツール(例えば、プローブ、メス)に加えることができる。クロマキー技術を使用して、マーカーは自動的に認識され、位置合わせされた3D画像のディスプレイに重ねられる。
超音波プローブ上で3つのマーカーが三角形を形成することによって、それが外科的部位をスキャンする際に動きを追跡することが可能になり、したがってシステムに3次元超音波映像が適用される。患者の解剖学的構造を、術中超音波画像を用いて連続的に術中位置合わせすることは、外科手術中に脳組織が移動および変形するため、非常に重要である。術中に獲得された3D超音波画像は、次いで、術前CTまたはMR画像の両方の手段で目に見える解剖学的特徴、例えば血管構造および病変を用いて、それらの画像と融合される。さらに、外科装置に表示された画像から伸びる外挿ラインは、計画されたアプローチの軌道を示す。ツールを移動させることは、自動的に、表示された潜在的な軌道の変化につながり、ツール上のLEDの場所によって、ツールの精密な深度および場所の決定が可能になり、それによって、手術部位の深度および場所の精密な決定が可能になる。したがって、このシステムは、直接的かつインタラクティブなタスクに対する低侵襲性のアプローチの計画を単純化するだけでなく、超音波画像を用いて術中画像を更新および位置合わせすることによって、従来のシステムよりも精密である。
さらに、ビデオカメラに基づいた対象物認識システム、レーザターゲティングシステムによって提供される情報は、外科的部位の位置確認をさらに支援し、したがって、再度位置合わせが必要とされるエリアの位置確認によって、位置合わせおよび画像重ね合わせの性能および精度が向上される。この情報は、アプローチに適応して(および所望であればそれと重ねられて)、ワークステーションがコンテクスト内で手術フィールドの実時間3D画像を自動的に表示することを可能にする。3D再フォーマットは、ボリューム表示技術を使用し、透明度の瞬間的な変化を可能にする。この技術で、深いならびに表面的な構造がコンテクスト内で見えるようになり、それにより術中誘導が大幅に向上される。
システムソフトウェアは、ユーザインタフェースに対する強化を扱うものと、画像操作および位置合わせのためのアルゴリズムに焦点を合わせたものという、2つの態様を有する。これらのアルゴリズムは、画像セグメント化、3次元の視覚化、画像の融合、および画像の重ね合わせのための手段から成る。一実施形態では、システムは次のものを提供する。
i)手術室での使用を容易にする「ユーザフレンドリーな」インタフェース。
ii)ワークステーションシステム上でのインタラクティブな画像解析および操作ルーチン(例えば、任意の切断、画像のセグメント化、画像の拡大、および変換)。
iii)光学追跡システム(符号化されたダイオードポインタを備える)とコンピュータのワークステーションとのシームレスなインタフェース。
iv)ビデオカメラと、光学追跡システム追尾システムおよびワークステーションを備えたレーザターゲティングシステムとのシームレスなインタフェース。
v)試験対象物の表面に置かれたダイオードマーカーを用いて、(iv)からのビデオ画像を(iii)からの3Dデータに重ね合わせる。対象物中におけるポインタの誘導の精度を試験する。
vi)3D超音波画像を得るために、超音波プローブを光学追跡システムおよびワークステーションに含める。
vii)超音波プローブ上に置かれたダイオードマーカーを用いて、(vi)からの3D超音波画像を(iii)からの3DのMR/CT画像に融合させる。
viii)それらの走査後に試験対象物を変形させる。
対象とする領域の直線的変位を使用して、3D超音波画像の変形を修正するために、試験対象物中におけるポインタの誘導の精度を試験する。試験が進行するに従って試験対象物の複雑性が増大する。
上述した医療システムは多数の利点を有する。例えば、これらのシステムは、内視鏡検査における術中の方向合わせおよび照射線量を向上させ、したがって、外科手術の精度を向上させ、回復期を早めさせて、それにより全体的なコストを削減する。超音波で機能強化した内視鏡検査(USEE)は、内視鏡画像を越えて、隠れている標的(例えば、管腔周辺の病変)の位置確認を改善する。単一の内視鏡画像上で、これらのシステムのいくつかは、術中超音波画像から計算された指向性の情報およびターゲティング情報を動的に重ね合わせる。磁気追跡および3D超音波技術は、正確な内視鏡ターゲティングのための、動的な3D/映像較正および位置合わせアルゴリズムと組み合わせて使用される。USEEで、臨床医は、現在の内視鏡手術に関するのと同じツールおよび基本的処置を使用するが、正確な生検の確率が向上し、異常を完全に切除する可能性が増加する。これらのシステムは、正確な軟組織ナビゲーションを可能にする。システムはまた、術中3D撮像データの有効な較正と、ビデオ内視鏡画像との有効な相関を提供する。
これらのシステムのいくつかは、外部3D超音波画像を獲得し、それらをほぼ実時間でナビゲーションのために処理する。これらのシステムは、あらゆる再フォーマットされた3D超音波横断面上での動的な標的識別を可能にする。処置中に組織が移動または変形すると、システムは、自動的に標的の動きを追跡することができる。これらのシステムは、方向ベクトルの形態で標的の場所を内視鏡画像上に動的にマッピングし、標的までの距離など定量化可能なデータを表示することができる。任意に、システムは、動的な3D超音波画像上にターゲティング情報を提供することができる。システムは、超音波画像中に、また任意に内視鏡画像中にも、追跡された手術ツールの位置および方向性を仮想的に視覚化することができる。これらのシステムはまた、強度に基づいた不透明度フィルタを用いて描画された動的なドップラー超音波データを、内視鏡画像上に重ねることができる。
本発明を特定の実施例に関して記載してきたが、これらは説明目的のみのものであって制限目的として解釈されるべきではない。本発明は、デジタル電子回路構成の中で、もしくはコンピュータのハードウェア、ファームウェア、ソフトウェア、またはそれらの組み合わせの中で実施されてもよい。本発明の装置は、コンピュータプロセッサで実行するために機械可読の記憶装置内で明確に具体化されたコンピュータプログラム製品に導入されてもよく、本発明の方法ステップは、入力データを操作し出力を生成することによって、本発明の機能を実施するプログラムを実行するコンピュータプロセッサによって実施されてもよい。適切なプロセッサは、一例として、汎用および特定目的のマイクロプロセッサの両方を含む。コンピュータプログラム命令を明確に具体化するのに好適な記憶装置は、EPROM、EEPROM、およびフラッシュメモリなどの半導体記憶装置、磁気ディスク(固定のもの、フロッピー、および取外し可能なもの)、テープなどの他の磁気媒体、CD−ROMディスクなどの光学媒体、および磁気光学デバイスなどの、すべての形態の不揮発性メモリを含むが、これらに限定されない。上述のいずれも、特別に設計された特定用途向け集積回路(ASIC)または適切にプログラムされたフィールドプログラマブルゲートアレイ(FPGA)によって補完されるか、あるいはそこに組み込まれてもよい。
上述の開示、および説明目的でそこに開示された特定の変形および修正から、本発明の概念を、記載されたものとは異なる形態で具体化することができることが、当業者には明白であろうと考えられ、また、本発明はそのようなさらなる変形をも含むことが理解されるであろう。本発明の好ましい形態が図面に示され、そこに記載されているものの、好ましい形態の変形は当業者には明白であろうと考えられるため、本発明は、それら特定の形態に限定されるものと解釈されるべきでない。したがって、本発明の範囲は、特許請求の範囲およびそれらの等価物によって定義される。
本発明のいくつかの実施形態のシステムの手術の代表的なフローチャートである。 本発明のいくつかの実施形態のシステムの手術の代表的なフローチャートである。 本発明のいくつかの実施形態のシステムの代表的なユーザインタフェースディスプレイである。 本発明のいくつかの実施形態のシステムの代表的なユーザインタフェースディスプレイである。 システムの1つの態様に従った代表的な操作設定の構成である。 システムの1つの態様に従った代表的な操作設定の構成である。
符号の説明
500 映像ソース
502 術中イメージングシステム
504 超音波ディスプレイ
505 術中イメージングプローブ
506 手術ツール
507 内視鏡
508 追跡装置
511 ナビゲーションシステム
513 術中ビデオ画像
514,515 ターゲティングマーカー

Claims (26)

  1. 医療器具を患者の体内の標的部位に誘導する方法であって、
    前記患者の手術中に少なくとも1つの画像を捕捉すること、
    捕捉した前記画像上の標的部位の指示をユーザから受取ること、
    前記指示に基づいて、基準座標系中の前記患者の標的部位の座標を決定すること、
    前記基準座標系中の前記器具の位置を決定すること、
    前記基準座標系中の前記器具の視点から表示装置上に視野を投影すること、
    前記視野上に、前記器具の位置に対する前記標的部位の位置を指定する印を投影すること、
    を含む方法。
  2. 前記視野が前記器具で捕捉した画像を含む、請求項1に記載の方法。
  3. 前記医療器具が内視鏡であって、前記表示装置上に投影される前記視野が前記内視鏡によって見られる画像である、請求項1に記載の方法。
  4. 前記表示装置上に投影される前記視野が、規定の視野を有する前記医療器具の末口の位置および方向性から見たものである、請求項1に記載の方法。
  5. 前記表示装置上に投影される前記視野が、前記医療器具の末口位置で見た前記標的とは異なる、前記器具の軸線に沿った位置から見たものである、請求項1に記載の方法。
  6. 前記標的部位が点として指定され、前記印が前記標的部位内の点の位置を示す幾何パターンに構成される、請求項1に記載の方法。
  7. 前記標的部位が前記患者の体内の空間的領域である、請求項1に記載の方法。
  8. 前記空間的領域がエリアを有し、前記印が示される前記エリアの境界を画定する幾何パターンに構成される、請求項7に記載の方法。
  9. 前記空間的領域が体積を有し、前記印が示される前記体積の境界を画定する幾何パターンに構成される、請求項7に記載の方法。
  10. 前記座標を決定することが、前記基準座標系中の前記標的部位の3次元座標を決定することである、請求項1に記載の方法。
  11. 前記器具および前記標的部位の前記位置が少なくとも2組の印によって指定される、請求項1に記載の方法。
  12. 印の間の間隔が前記標的部位からの前記器具の距離を示す、請求項11に記載の方法。
  13. 個々の前記印のサイズが前記標的部位からの前記器具の距離を示す、請求項11に記載の方法。
  14. 個々の前記印の形状が前記標的部位からの前記器具の距離を示す、請求項11に記載の方法。
  15. 前記印のサイズが前記器具の方向性を示す、請求項11に記載の方法。
  16. 前記印の形状が前記器具の方向性を示す、請求項11に記載の方法。
  17. 前記示すことが、前記第1に示された標的部位と共に、前記表示画像上の外科手術軌道を画定する第2の標的部位を各画像上で示すことを含む、請求項1に記載の方法。
  18. 前記器具を使用して、前記示された標的部位と共に前記表示画像上の外科手術軌道を画定する、患者の表面領域上の入口点を示すことをさらに含む、請求項1に記載の方法。
  19. 前記表示画像上の前記外科手術軌道が、1組が前記第1に示された標的部位に対応し、第2の組が前記第2の標的部位による2組の印で示される、請求項11または12に記載の方法。
  20. 前記表示画像上の前記外科手術軌道が、その末端領域で前記第1に示された標的部位および前記第2の標的部位もしくは示された入口点によって画定される幾何学的物体で示される、請求項11または12に記載の方法。
  21. 前記印が前記表示された視野内に所定の状態で置かれるまたは保持されるように前記器具を移動させることにより、前記器具を前記標的部位に向けて移動させることをさらに含む、請求項1に記載の方法。
  22. 前記器具の方向性を決定することをさらに含む、請求項1に記載の方法。
  23. ユーザが医療器具を患者の体内の標的部位に誘導することを支援するために設計されたシステムであって、前記システムは、
    (a)手術中に患者の画像を生成するための撮像装置と、
    (b)基準座標系中の前記医療器具および前記撮像装置の位置を追跡するための追跡システムと、
    (c)ユーザが前記画像上の標的部位を示すことを可能にするためのインジケータと、
    (d)表示装置と、
    (e)前記追跡システム、前記表示装置、および前記インジケータに動作可能に接続されたコンピュータと、
    (f)コンピュータ可読コードと、
    を備え、前記コードが、前記コンピュータの動作を制御するのに使用されたときに、
    (i)前記インジケータを用いて、前記ユーザによって示された標的部位の空間的情報を前記画像上に記録するステップと、
    (ii)前記画像上に示された前記標的部位の前記空間的情報から、基準座標系中の前記標的部位の3D座標を決定するステップと、
    (iii)前記基準座標系中の前記器具の位置を追跡するステップと、
    (iv)前記基準座標系中の前記ツールの既知の位置から見える視野を表示装置上に投影するステップと、
    (v)前記既知の位置に対する前記標的部位の前記空間的情報をその状態が示す印を、前記表示された視野上に投影するステップと、
    を実行するように動作可能なシステム。
  24. 前記印の状態が、前記既知の位置に対してだけでなく前記ツールの既知の方向性に対する前記標的部位の前記空間的情報を示す、請求項23に記載のシステム。
  25. 前記ユーザが、前記印の状態を観察することにより、前記印が前記表示された視野内に所定の状態で置かれるまたは保持されるように前記器具を移動させることで、前記器具を前記標的部位に向けて誘導することができる、請求項23に記載のシステム。
  26. ユーザが医療器具を患者の体内の標的部位に誘導することを支援するために設計されたコンピュータプログラムを格納するコンピュータ可読媒体であって、前記コンピュータプログラムが、
    前記患者の手術中に少なくとも1つの画像を捕捉する命令セットと、
    捕捉した前記画像上の標的部位の指示をユーザから受取る命令セットと、
    前記指示に基づいて、基準座標系中の前記患者の標的部位の座標を決定する命令セットと、
    前記基準座標系中の前記器具の位置を決定する命令セットと、
    前記基準座標系中の前記器具の視点から前記表示装置上に視野を投影する命令セットと、
    前記視野上に、前記器具の位置に対する前記標的部位の位置を指定する印を投影する命令セットと、
    を含むコンピュータ可読媒体。

JP2006536818A 2003-10-21 2004-10-21 術中ターゲティングのシステムおよび方法 Pending JP2007531553A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US51315703P 2003-10-21 2003-10-21
US10/764,650 US20050085717A1 (en) 2003-10-21 2004-01-26 Systems and methods for intraoperative targetting
US10/764,651 US20050085718A1 (en) 2003-10-21 2004-01-26 Systems and methods for intraoperative targetting
PCT/US2004/035024 WO2005043319A2 (en) 2003-10-21 2004-10-21 Systems and methods for intraoperative targeting

Publications (1)

Publication Number Publication Date
JP2007531553A true JP2007531553A (ja) 2007-11-08

Family

ID=34527934

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2006536818A Pending JP2007531553A (ja) 2003-10-21 2004-10-21 術中ターゲティングのシステムおよび方法
JP2006536816A Pending JP2007508913A (ja) 2003-10-21 2004-10-21 術中ターゲティングのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2006536816A Pending JP2007508913A (ja) 2003-10-21 2004-10-21 術中ターゲティングのシステムおよび方法

Country Status (4)

Country Link
US (2) US20070225553A1 (ja)
EP (2) EP1680024A2 (ja)
JP (2) JP2007531553A (ja)
WO (2) WO2005039391A2 (ja)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175229A (ja) * 2004-12-20 2006-07-06 General Electric Co <Ge> インターベンショナルシステム内で3d画像を位置合わせする方法及びシステム
JP2007038005A (ja) * 2005-08-02 2007-02-15 Biosense Webster Inc 心房細動を治療するための案内された手技
JP2008188109A (ja) * 2007-02-01 2008-08-21 Olympus Medical Systems Corp 内視鏡手術装置
JP2009233240A (ja) * 2008-03-28 2009-10-15 Univ Waseda 手術支援システム、接近状態検出装置及びそのプログラム
JP2010088699A (ja) * 2008-10-09 2010-04-22 National Center For Child Health & Development 医療画像処理システム
JP2011036600A (ja) * 2009-08-18 2011-02-24 Toshiba Corp 画像処理装置、画像処理プログラムおよび医用診断システム
JP2011212301A (ja) * 2010-03-31 2011-10-27 Fujifilm Corp 投影画像生成装置および方法、並びにプログラム
JP2012081167A (ja) * 2010-10-14 2012-04-26 Hitachi Medical Corp 医用画像表示装置及び医用画像誘導方法
JP2013106780A (ja) * 2011-11-21 2013-06-06 Olympus Medical Systems Corp 医用システム
JP2014511186A (ja) * 2010-12-21 2014-05-15 レニショウ (アイルランド) リミテッド 画像を分析するための方法および装置
JP2014512210A (ja) * 2011-03-18 2014-05-22 コーニンクレッカ フィリップス エヌ ヴェ 神経外科における脳変形の追跡
JP2014512550A (ja) * 2011-02-01 2014-05-22 ナショナル ユニヴァーシティ オブ シンガポール 画像システム及び方法
JP2015107268A (ja) * 2013-12-05 2015-06-11 国立大学法人名古屋大学 内視鏡観察支援装置
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP2017525427A (ja) * 2014-07-15 2017-09-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線スイートにおける画像統合及びロボット内視鏡制御
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US9795446B2 (en) 2005-06-06 2017-10-24 Intuitive Surgical Operations, Inc. Systems and methods for interactive user interfaces for robotic minimally invasive surgical systems
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems
US11399909B2 (en) 2005-06-06 2022-08-02 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system

Families Citing this family (215)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840252B2 (en) 1999-05-18 2010-11-23 MediGuide, Ltd. Method and system for determining a three dimensional representation of a tubular organ
US7778688B2 (en) 1999-05-18 2010-08-17 MediGuide, Ltd. System and method for delivering a stent to a selected position within a lumen
US8442618B2 (en) 1999-05-18 2013-05-14 Mediguide Ltd. Method and system for delivering a medical device to a selected position within a lumen
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US9833167B2 (en) 1999-05-18 2017-12-05 Mediguide Ltd. Method and system for superimposing virtual anatomical landmarks on an image
FR2855292B1 (fr) * 2003-05-22 2005-12-09 Inst Nat Rech Inf Automat Dispositif et procede de recalage en temps reel de motifs sur des images, notamment pour le guidage par localisation
EP2316328B1 (en) * 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
US7379769B2 (en) 2003-09-30 2008-05-27 Sunnybrook Health Sciences Center Hybrid imaging method to monitor medical device delivery and patient support for use in the method
DE102004008164B3 (de) * 2004-02-11 2005-10-13 Karl Storz Gmbh & Co. Kg Verfahren und Vorrichtung zum Erstellen zumindest eines Ausschnitts eines virtuellen 3D-Modells eines Körperinnenraums
US20060020204A1 (en) * 2004-07-01 2006-01-26 Bracco Imaging, S.P.A. System and method for three-dimensional space management and visualization of ultrasound data ("SonoDEX")
US8795195B2 (en) * 2004-11-29 2014-08-05 Senorx, Inc. Graphical user interface for tissue biopsy system
EP1858418B1 (en) * 2005-02-28 2017-08-16 Robarts Research Institute System for performing a biopsy of a target volume and a computing device for planning the same
US20060235299A1 (en) * 2005-04-13 2006-10-19 Martinelli Michael A Apparatus and method for intravascular imaging
WO2006120666A1 (en) * 2005-05-10 2006-11-16 Navicath Ltd. User interface for remote control catheterization
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
WO2007041383A2 (en) * 2005-09-30 2007-04-12 Purdue Research Foundation Endoscopic imaging device
KR20070058785A (ko) * 2005-12-05 2007-06-11 주식회사 메디슨 중재적 시술을 위한 초음파 시스템
GB0613576D0 (en) * 2006-07-10 2006-08-16 Leuven K U Res & Dev Endoscopic vision system
CA2658510C (en) 2006-07-21 2013-01-15 Orthosoft Inc. Non-invasive tracking of bones for surgery
US7728868B2 (en) 2006-08-02 2010-06-01 Inneroptic Technology, Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US7945310B2 (en) * 2006-09-18 2011-05-17 Stryker Corporation Surgical instrument path computation and display for endoluminal surgery
US7824328B2 (en) * 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
US8248413B2 (en) 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
US20080071141A1 (en) * 2006-09-18 2008-03-20 Abhisuek Gattani Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
US8248414B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Multi-dimensional navigation of endoscopic video
KR100971417B1 (ko) * 2006-10-17 2010-07-21 주식회사 메디슨 초음파 영상과 외부 의료영상의 합성 영상 상에 의료용바늘을 디스플레이하기 위한 초음파 시스템
US8340374B2 (en) * 2007-01-11 2012-12-25 Kabushiki Kaisha Toshiba 3-dimensional diagnostic imaging system
US9477686B2 (en) * 2007-01-12 2016-10-25 General Electric Company Systems and methods for annotation and sorting of surgical images
US8251893B2 (en) * 2007-01-31 2012-08-28 National University Corporation Hamamatsu University School Of Medicine Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
US7735349B2 (en) * 2007-01-31 2010-06-15 Biosense Websters, Inc. Correlation of ultrasound images and gated position measurements
US8303502B2 (en) 2007-03-06 2012-11-06 General Electric Company Method and apparatus for tracking points in an ultrasound image
EP2211749B1 (en) * 2007-04-16 2018-10-10 NeuroArm Surgical, Ltd. Methods, devices, and systems useful in registration
JP4934513B2 (ja) * 2007-06-08 2012-05-16 株式会社日立メディコ 超音波撮像装置
DE102007029888B4 (de) * 2007-06-28 2016-04-07 Siemens Aktiengesellschaft Bildgebendes Verfahren für die medizinische Diagnostik und nach diesem Verfahren arbeitende Einrichtung
US20090074265A1 (en) * 2007-09-17 2009-03-19 Capsovision Inc. Imaging review and navigation workstation system
US9439624B2 (en) * 2007-10-19 2016-09-13 Metritrack, Inc. Three dimensional mapping display system for diagnostic ultrasound machines and method
US7940047B2 (en) 2007-11-23 2011-05-10 Sentinelle Medical, Inc. Microcontroller system for identifying RF coils in the bore of a magnetic resonance imaging system
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
JP5154961B2 (ja) * 2008-01-29 2013-02-27 テルモ株式会社 手術システム
JP5468021B2 (ja) * 2008-02-22 2014-04-09 ローマ リンダ ユニヴァーシティ メディカル センター 3d画像化システムにおける空間歪を特徴づけるシステム及び方法
US8340379B2 (en) 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
WO2009122273A2 (en) 2008-04-03 2009-10-08 Superdimension, Ltd. Magnetic interference detection system and method
JP5723766B2 (ja) 2008-05-06 2015-05-27 コリンダス インコーポレイテッド カテーテルシステム
US9198597B2 (en) * 2008-05-22 2015-12-01 Christopher Duma Leading-edge cancer treatment
EP2297673B1 (en) 2008-06-03 2020-04-22 Covidien LP Feature-based registration method
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US20090312629A1 (en) * 2008-06-13 2009-12-17 Inneroptic Technology Inc. Correction of relative tracking errors based on a fiducial
IT1392888B1 (it) 2008-07-24 2012-04-02 Esaote Spa Dispositivo e metodo di guida di utensili chirurgici mediante imaging ecografico.
WO2010025338A1 (en) 2008-08-29 2010-03-04 Corindus Ltd. Catheter control system and graphical user interface
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
EP2408509B1 (en) 2009-03-18 2023-08-09 Corindus, Inc. Remote catheter system with steerable catheter
US20100280363A1 (en) * 2009-04-24 2010-11-04 Medtronic, Inc. Electromagnetic Navigation of Medical Instruments for Cardiothoracic Surgery
RU2011153301A (ru) * 2009-06-01 2013-07-20 Конинклейке Филипс Электроникс Н.В. Система отслеживания положения на основании расстояния
EP2445413B1 (en) 2009-06-23 2020-02-12 Invivo Corporation Variable angle guide holder for a biopsy guide plug
WO2011040769A2 (ko) * 2009-10-01 2011-04-07 주식회사 이턴 수술용 영상 처리 장치, 영상 처리 방법, 복강경 조작 방법, 수술 로봇 시스템 및 그 동작 제한 방법
KR101598774B1 (ko) * 2009-10-01 2016-03-02 (주)미래컴퍼니 수술용 영상 처리 장치 및 그 방법
US9962229B2 (en) 2009-10-12 2018-05-08 Corindus, Inc. System and method for navigating a guide wire
EP2488245B1 (en) 2009-10-12 2019-02-20 Corindus, Inc. Catheter system with percutaneous device movement algorithm
US8758263B1 (en) * 2009-10-31 2014-06-24 Voxel Rad, Ltd. Systems and methods for frameless image-guided biopsy and therapeutic intervention
US9019262B2 (en) 2009-11-27 2015-04-28 Hologic, Inc. Systems and methods for tracking positions between imaging modalities and transforming a displayed three-dimensional image corresponding to a position and orientation of a probe
US9282947B2 (en) 2009-12-01 2016-03-15 Inneroptic Technology, Inc. Imager focusing based on intraoperative data
EP2516001A4 (en) * 2009-12-24 2013-07-17 Imris Inc MRI AND ULTRASOUND GUIDED TREATMENT APPARATUS
CN102883651B (zh) * 2010-01-28 2016-04-27 宾夕法尼亚州研究基金会 可应用于支气管镜引导的基于图像的全局配准***和方法
US20130303887A1 (en) * 2010-08-20 2013-11-14 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation
US9833293B2 (en) 2010-09-17 2017-12-05 Corindus, Inc. Robotic catheter system
US20120083653A1 (en) * 2010-10-04 2012-04-05 Sperling Daniel P Guided procedural treatment device and method
KR101242298B1 (ko) 2010-11-01 2013-03-11 삼성메디슨 주식회사 초음파 영상을 저장하는 초음파 시스템 및 방법
CN103228210B (zh) * 2010-11-24 2016-08-10 美国医软科技公司 基于解剖图的用于软器官的交互式三维手术引导***的***和方法
US9913596B2 (en) 2010-11-25 2018-03-13 Invivo Corporation Systems and methods for MRI guided trans-orifice and transperineal intervention apparatus with adjustable biopsy needle insertion
DE102010062340A1 (de) * 2010-12-02 2012-06-06 Siemens Aktiengesellschaft Verfahren zur Bildunterstützung der Navigation eines medizinischen Instruments und medizinische Untersuchungseinrichtung
DE102011005917A1 (de) 2011-03-22 2012-09-27 Kuka Laboratories Gmbh Medizinischer Arbeitsplatz
KR101114231B1 (ko) 2011-05-16 2012-03-05 주식회사 이턴 수술용 영상 처리 장치 및 그 방법
KR101114232B1 (ko) 2011-05-17 2012-03-05 주식회사 이턴 수술 로봇 시스템 및 그 동작 제한 방법
JP5623348B2 (ja) * 2011-07-06 2014-11-12 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP6071282B2 (ja) * 2011-08-31 2017-02-01 キヤノン株式会社 情報処理装置、超音波撮影装置および情報処理方法
DE102011082444A1 (de) * 2011-09-09 2012-12-20 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur bildunterstützten Navigation eines endoskopischen Instruments
US8670816B2 (en) 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
JP5378628B1 (ja) * 2012-03-06 2013-12-25 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN108095761B (zh) * 2012-03-07 2021-10-15 齐特奥股份有限公司 空间对准设备、空间对准***及用于指导医疗过程的方法
WO2013134782A1 (en) 2012-03-09 2013-09-12 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
US8886332B2 (en) 2012-04-26 2014-11-11 Medtronic, Inc. Visualizing tissue activated by electrical stimulation
CA2794226C (en) * 2012-10-31 2020-10-20 Queen's University At Kingston Automated intraoperative ultrasound calibration
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
EP3633543A1 (en) 2013-03-15 2020-04-08 Hologic, Inc. System and method for reviewing and analyzing cytological specimens
US9592095B2 (en) * 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
WO2015011594A1 (en) * 2013-07-24 2015-01-29 Koninklijke Philips N.V. Non-imaging two dimensional array probe and system for automated screening of carotid stenosis
JP5869541B2 (ja) * 2013-09-13 2016-02-24 富士フイルム株式会社 内視鏡システム及びプロセッサ装置並びに内視鏡システムの作動方法
JP5892985B2 (ja) * 2013-09-27 2016-03-23 富士フイルム株式会社 内視鏡システム及びプロセッサ装置並びに作動方法
EP3054885B1 (en) * 2013-09-30 2020-04-29 Koninklijke Philips N.V. Image guidance system with user definable regions of interest
DE102013222230A1 (de) 2013-10-31 2015-04-30 Fiagon Gmbh Chirurgisches Instrument
US10835203B2 (en) * 2013-11-11 2020-11-17 Acessa Health Inc. System for visualization and control of surgical devices utilizing a graphical user interface
WO2015148529A1 (en) * 2014-03-24 2015-10-01 University Of Houston Interactive systems and methods for real-time laparoscopic navigation
US9999772B2 (en) 2014-04-03 2018-06-19 Pacesetter, Inc. Systems and method for deep brain stimulation therapy
DE102014207274A1 (de) 2014-04-15 2015-10-15 Fiagon Gmbh Navigationsunterstützungssystem für medizinische Instrumente
EP3137917B1 (en) * 2014-04-28 2021-04-07 Tel Hashomer Medical Research Infrastructure and Services Ltd. High resolution intraoperative mri images
JP6604977B2 (ja) * 2014-07-02 2019-11-13 コヴィディエン リミテッド パートナーシップ 3dのナビゲーションの間に距離および向きのフィードバックを提供するシステム
US9770216B2 (en) * 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
TWI605795B (zh) 2014-08-19 2017-11-21 鈦隼生物科技股份有限公司 判定手術部位中探針位置之方法與系統
US10583293B2 (en) 2014-09-09 2020-03-10 Medtronic, Inc. Therapy program selection for electrical stimulation therapy based on a volume of tissue activation
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US10617401B2 (en) 2014-11-14 2020-04-14 Ziteo, Inc. Systems for localization of targets inside a body
CN111494008A (zh) 2014-12-05 2020-08-07 科林达斯公司 用于引导导线的***和方法
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10806346B2 (en) 2015-02-09 2020-10-20 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
US10610315B2 (en) 2015-03-17 2020-04-07 Intuitive Surgical Operations, Inc. Systems and methods for onscreen identification of instruments in a teleoperational medical system
GB2555012B (en) * 2015-03-17 2020-09-09 Synaptive Medical Barbados Inc Method and device for registering surgical images
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
AU2016204942A1 (en) 2015-07-23 2017-02-09 Biosense Webster (Israel) Ltd. Surface registration of a ct image with a magnetic tracking system
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
WO2017075085A1 (en) * 2015-10-28 2017-05-04 Endochoice, Inc. Device and method for tracking the position of an endoscope within a patient's body
CN108471998B (zh) * 2016-01-15 2022-07-19 皇家飞利浦有限公司 使用注释对临床视图进行自动化探头操纵的方法和***
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
CN111329553B (zh) 2016-03-12 2021-05-04 P·K·朗 用于手术的装置与方法
CN106063726B (zh) * 2016-05-24 2019-05-28 中国科学院苏州生物医学工程技术研究所 实时穿刺导航***及其导航方法
US10959702B2 (en) 2016-06-20 2021-03-30 Butterfly Network, Inc. Automated image acquisition for assisting a user to operate an ultrasound device
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10517505B2 (en) 2016-10-28 2019-12-31 Covidien Lp Systems, methods, and computer-readable media for optimizing an electromagnetic navigation system
US10446931B2 (en) 2016-10-28 2019-10-15 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10792106B2 (en) 2016-10-28 2020-10-06 Covidien Lp System for calibrating an electromagnetic navigation system
US10751126B2 (en) 2016-10-28 2020-08-25 Covidien Lp System and method for generating a map for electromagnetic navigation
US10638952B2 (en) 2016-10-28 2020-05-05 Covidien Lp Methods, systems, and computer-readable media for calibrating an electromagnetic navigation system
US10615500B2 (en) 2016-10-28 2020-04-07 Covidien Lp System and method for designing electromagnetic navigation antenna assemblies
US10418705B2 (en) 2016-10-28 2019-09-17 Covidien Lp Electromagnetic navigation antenna assembly and electromagnetic navigation system including the same
US10722311B2 (en) 2016-10-28 2020-07-28 Covidien Lp System and method for identifying a location and/or an orientation of an electromagnetic sensor based on a map
US11547490B2 (en) * 2016-12-08 2023-01-10 Intuitive Surgical Operations, Inc. Systems and methods for navigation in image-guided medical procedures
US11571180B2 (en) * 2016-12-16 2023-02-07 Koninklijke Philips N.V. Systems providing images guiding surgery
US10918445B2 (en) * 2016-12-19 2021-02-16 Ethicon Llc Surgical system with augmented reality display
EP3568070B1 (en) 2017-01-16 2024-01-03 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
AU2018248748A1 (en) 2017-04-07 2019-10-31 Orthosoft Inc. Non-invasive system and method for tracking bones
AU2018265160B2 (en) 2017-05-10 2023-11-16 Mako Surgical Corp. Robotic spine surgery system and methods
US10980509B2 (en) * 2017-05-11 2021-04-20 Siemens Medical Solutions Usa, Inc. Deformable registration of preoperative volumes and intraoperative ultrasound images from a tracked transducer
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US10699410B2 (en) * 2017-08-17 2020-06-30 Siemes Healthcare GmbH Automatic change detection in medical images
US11801114B2 (en) 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
CN109745069A (zh) * 2017-11-01 2019-05-14 通用电气公司 超声成像方法
EP3731724A4 (en) 2017-12-27 2021-10-13 Ethicon LLC FLUORESCENT IMAGING IN A LIGHT ENVIRONMENT
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
US11348257B2 (en) 2018-01-29 2022-05-31 Philipp K. Lang Augmented reality guidance for orthopedic and other surgical procedures
GB201813450D0 (en) * 2018-08-17 2018-10-03 Hiltermann Sean Augmented reality doll
US20200060643A1 (en) * 2018-08-22 2020-02-27 Bard Access Systems, Inc. Systems and Methods for Infrared-Enhanced Ultrasound Visualization
US11684426B2 (en) 2018-08-31 2023-06-27 Orthosoft Ulc System and method for tracking bones
US10806339B2 (en) 2018-12-12 2020-10-20 Voxel Rad, Ltd. Systems and methods for treating cancer using brachytherapy
US11350847B2 (en) * 2018-12-13 2022-06-07 Biosense Webster (Israel) Ltd. Composite visualization of body part
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
JP2020156825A (ja) * 2019-03-27 2020-10-01 富士フイルム株式会社 位置情報表示装置、方法およびプログラム、並びに放射線画像撮影装置
EP3719749A1 (en) 2019-04-03 2020-10-07 Fiagon AG Medical Technologies Registration method and setup
WO2020210532A1 (en) 2019-04-09 2020-10-15 Ziteo, Inc. Methods and systems for high performance and versatile molecular imaging
US11360028B2 (en) 2019-06-20 2022-06-14 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US10979646B2 (en) 2019-06-20 2021-04-13 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11284785B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral, fluorescence, and laser mapping imaging system
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
US11265491B2 (en) 2019-06-20 2022-03-01 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11375886B2 (en) 2019-06-20 2022-07-05 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for laser mapping imaging
US11187657B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Hyperspectral imaging with fixed pattern noise cancellation
US12013496B2 (en) 2019-06-20 2024-06-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed laser mapping imaging system
US11012599B2 (en) 2019-06-20 2021-05-18 Ethicon Llc Hyperspectral imaging in a light deficient environment
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11172810B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Speckle removal in a pulsed laser mapping imaging system
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11221414B2 (en) 2019-06-20 2022-01-11 Cilag Gmbh International Laser mapping imaging with fixed pattern noise cancellation
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11237270B2 (en) 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11986160B2 (en) 2019-06-20 2024-05-21 Cllag GmbH International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US20200397239A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11134832B2 (en) 2019-06-20 2021-10-05 Cilag Gmbh International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11457154B2 (en) 2019-06-20 2022-09-27 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11083366B2 (en) 2019-06-20 2021-08-10 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11218645B2 (en) 2019-06-20 2022-01-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11788963B2 (en) 2019-06-20 2023-10-17 Cilag Gmbh International Minimizing image sensor input/output in a pulsed fluorescence imaging system
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11233960B2 (en) 2019-06-20 2022-01-25 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11294062B2 (en) 2019-06-20 2022-04-05 Cilag Gmbh International Dynamic range using a monochrome image sensor for hyperspectral and fluorescence imaging and topology laser mapping
US11288772B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11712155B2 (en) 2019-06-20 2023-08-01 Cilag GmbH Intenational Fluorescence videostroboscopy of vocal cords
US10952619B2 (en) 2019-06-20 2021-03-23 Ethicon Llc Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11147436B2 (en) 2019-06-20 2021-10-19 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US20200400499A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Pulsed illumination in a hyperspectral imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11122968B2 (en) 2019-06-20 2021-09-21 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral imaging
US10841504B1 (en) 2019-06-20 2020-11-17 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11172811B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11276148B2 (en) 2019-06-20 2022-03-15 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US20240070875A1 (en) * 2020-12-30 2024-02-29 Intuitive Surgical Operations, Inc. Systems and methods for tracking objects crossing body wallfor operations associated with a computer-assisted system
US11786206B2 (en) 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
US11903656B2 (en) * 2021-09-24 2024-02-20 Biosense Webster (Israel) Ltd. Automatic control and enhancement of 4D ultrasound images
US12004821B2 (en) 2022-02-03 2024-06-11 Medtronic Navigation, Inc. Systems, methods, and devices for generating a hybrid image
EP4338698A1 (en) * 2022-09-13 2024-03-20 Caranx Medical SAS Medical image processing apparatus for generating a dynamic image of a patient

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US20030011624A1 (en) * 2001-07-13 2003-01-16 Randy Ellis Deformable transformations for interventional guidance
US7599730B2 (en) * 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies

Cited By (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9101397B2 (en) 1999-04-07 2015-08-11 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
US10433919B2 (en) 1999-04-07 2019-10-08 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US10271909B2 (en) 1999-04-07 2019-04-30 Intuitive Surgical Operations, Inc. Display of computer generated image of an out-of-view portion of a medical device adjacent a real-time image of an in-view portion of the medical device
US9232984B2 (en) 1999-04-07 2016-01-12 Intuitive Surgical Operations, Inc. Real-time generation of three-dimensional ultrasound image using a two-dimensional ultrasound transducer in a robotic system
JP2006175229A (ja) * 2004-12-20 2006-07-06 General Electric Co <Ge> インターベンショナルシステム内で3d画像を位置合わせする方法及びシステム
US11399909B2 (en) 2005-06-06 2022-08-02 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems
US9795446B2 (en) 2005-06-06 2017-10-24 Intuitive Surgical Operations, Inc. Systems and methods for interactive user interfaces for robotic minimally invasive surgical systems
JP2007038005A (ja) * 2005-08-02 2007-02-15 Biosense Webster Inc 心房細動を治療するための案内された手技
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10773388B2 (en) 2006-06-29 2020-09-15 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10730187B2 (en) 2006-06-29 2020-08-04 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US11865729B2 (en) 2006-06-29 2024-01-09 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10737394B2 (en) 2006-06-29 2020-08-11 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10137575B2 (en) 2006-06-29 2018-11-27 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US11638999B2 (en) 2006-06-29 2023-05-02 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US9801690B2 (en) 2006-06-29 2017-10-31 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical instrument
US9788909B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc Synthetic representation of a surgical instrument
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
JP2008188109A (ja) * 2007-02-01 2008-08-21 Olympus Medical Systems Corp 内視鏡手術装置
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9333042B2 (en) 2007-06-13 2016-05-10 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US11399908B2 (en) 2007-06-13 2022-08-02 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US10271912B2 (en) 2007-06-13 2019-04-30 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US11432888B2 (en) 2007-06-13 2022-09-06 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US10695136B2 (en) 2007-06-13 2020-06-30 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US10188472B2 (en) 2007-06-13 2019-01-29 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US11751955B2 (en) 2007-06-13 2023-09-12 Intuitive Surgical Operations, Inc. Method and system for retracting an instrument into an entry guide
US9901408B2 (en) 2007-06-13 2018-02-27 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
US9629520B2 (en) 2007-06-13 2017-04-25 Intuitive Surgical Operations, Inc. Method and system for moving an articulated instrument back towards an entry guide while automatically reconfiguring the articulated instrument for retraction into the entry guide
JP2009233240A (ja) * 2008-03-28 2009-10-15 Univ Waseda 手術支援システム、接近状態検出装置及びそのプログラム
US11638622B2 (en) 2008-06-27 2023-05-02 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US11382702B2 (en) 2008-06-27 2022-07-12 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US9516996B2 (en) 2008-06-27 2016-12-13 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the position and orienting of its tip
US10368952B2 (en) 2008-06-27 2019-08-06 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9717563B2 (en) 2008-06-27 2017-08-01 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxilary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
JP2010088699A (ja) * 2008-10-09 2010-04-22 National Center For Child Health & Development 医療画像処理システム
US10984567B2 (en) 2009-03-31 2021-04-20 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10282881B2 (en) 2009-03-31 2019-05-07 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US11941734B2 (en) 2009-03-31 2024-03-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10271915B2 (en) 2009-08-15 2019-04-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10772689B2 (en) 2009-08-15 2020-09-15 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US11596490B2 (en) 2009-08-15 2023-03-07 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US10959798B2 (en) 2009-08-15 2021-03-30 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US9956044B2 (en) 2009-08-15 2018-05-01 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
JP2011036600A (ja) * 2009-08-18 2011-02-24 Toshiba Corp 画像処理装置、画像処理プログラムおよび医用診断システム
US9622826B2 (en) 2010-02-12 2017-04-18 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10537994B2 (en) 2010-02-12 2020-01-21 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US10828774B2 (en) 2010-02-12 2020-11-10 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
JP2011212301A (ja) * 2010-03-31 2011-10-27 Fujifilm Corp 投影画像生成装置および方法、並びにプログラム
JP2012081167A (ja) * 2010-10-14 2012-04-26 Hitachi Medical Corp 医用画像表示装置及び医用画像誘導方法
US9463073B2 (en) 2010-12-21 2016-10-11 Renishaw (Ireland) Limited Method and apparatus for analysing images
JP2014511186A (ja) * 2010-12-21 2014-05-15 レニショウ (アイルランド) リミテッド 画像を分析するための方法および装置
JP2014512550A (ja) * 2011-02-01 2014-05-22 ナショナル ユニヴァーシティ オブ シンガポール 画像システム及び方法
JP2014512210A (ja) * 2011-03-18 2014-05-22 コーニンクレッカ フィリップス エヌ ヴェ 神経外科における脳変形の追跡
JP2013106780A (ja) * 2011-11-21 2013-06-06 Olympus Medical Systems Corp 医用システム
US11389255B2 (en) 2013-02-15 2022-07-19 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US11806102B2 (en) 2013-02-15 2023-11-07 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP2015107268A (ja) * 2013-12-05 2015-06-11 国立大学法人名古屋大学 内視鏡観察支援装置
JP2017525427A (ja) * 2014-07-15 2017-09-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線スイートにおける画像統合及びロボット内視鏡制御

Also Published As

Publication number Publication date
WO2005039391A3 (en) 2005-12-22
EP1680024A2 (en) 2006-07-19
US20070225553A1 (en) 2007-09-27
WO2005039391A2 (en) 2005-05-06
EP1689290A2 (en) 2006-08-16
JP2007508913A (ja) 2007-04-12
WO2005043319A3 (en) 2005-12-22
WO2005043319A2 (en) 2005-05-12
US20070276234A1 (en) 2007-11-29

Similar Documents

Publication Publication Date Title
JP2007531553A (ja) 術中ターゲティングのシステムおよび方法
JP7341660B2 (ja) 医療手技におけるナビゲーションを補助するための拡張現実の使用
US20050085718A1 (en) Systems and methods for intraoperative targetting
US6850794B2 (en) Endoscopic targeting method and system
US20050085717A1 (en) Systems and methods for intraoperative targetting
JP7505081B2 (ja) 狭い通路における侵襲的手順の内視鏡画像
US8934961B2 (en) Trackable diagnostic scope apparatus and methods of use
US6019724A (en) Method for ultrasound guidance during clinical procedures
JP5190510B2 (ja) 神経外科用多機能ロボット化プラットフォームと位置調整方法
JP4822634B2 (ja) 対象物の案内のための座標変換を求める方法
Grimson et al. Clinical experience with a high precision image-guided neurosurgery system
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
CN109416841A (zh) 影像增强真实度的方法与应用该方法在可穿戴式眼镜的手术导引
JP2020522827A (ja) 外科ナビゲーションにおける拡張現実の使用
WO1996025881A1 (en) Method for ultrasound guidance during clinical procedures
EP1727471A1 (en) System for guiding a medical instrument in a patient body
WO2008035271A2 (en) Device for registering a 3d model
CA2963865C (en) Phantom to determine positional and angular navigation system error
Shahidi et al. Volumetric image guidance via a stereotactic endoscope
Lange et al. Development of navigation systems for image-guided laparoscopic tumor resections in liver surgery
Akatsuka et al. Navigation system for neurosurgery with PC platform
Giraldez et al. Multimodal augmented reality system for surgical microscopy
Chen et al. Development and evaluation of ultrasound-based surgical navigation system for percutaneous renal interventions

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070820