CN108024838A - 用于在图像引导手术中使用配准荧光透视图像的***和方法 - Google Patents

用于在图像引导手术中使用配准荧光透视图像的***和方法 Download PDF

Info

Publication number
CN108024838A
CN108024838A CN201780003111.XA CN201780003111A CN108024838A CN 108024838 A CN108024838 A CN 108024838A CN 201780003111 A CN201780003111 A CN 201780003111A CN 108024838 A CN108024838 A CN 108024838A
Authority
CN
China
Prior art keywords
reference frame
fluoroscopic image
fluoroscopy
medical instruments
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780003111.XA
Other languages
English (en)
Other versions
CN108024838B (zh
Inventor
赵涛
F·巴巴格力
C·Q·登霍欧
V·多文戴姆
M·D·帕里斯
T·D·苏珀尔
O·瓦格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Priority to CN202111060677.0A priority Critical patent/CN113729977A/zh
Publication of CN108024838A publication Critical patent/CN108024838A/zh
Application granted granted Critical
Publication of CN108024838B publication Critical patent/CN108024838B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种由计算***执行的方法,该方法包含:接收当医疗仪器的一部分被定位于患者解剖结构内时的患者解剖结构的荧光透视图像。荧光透视图像具有荧光透视参考框架。该部分在解剖模型参考框架中具有经感测的定位。该方法进一步包含:识别荧光透视图像中的该部分,以及使用荧光透视图像中经识别的该部分,识别在荧光透视参考框架中的该部分的经提取定位。该方法进一步包含:基于该部分的经感测的定位和该部分的经提取的定位,将荧光透视参考框架配准到解剖模型参考框架。

Description

用于在图像引导手术中使用配准荧光透视图像的***和方法
相关申请
本专利申请要求提出于2016年2月12日的题为“SYSTEMS AND METHODS FOR USINGFLUOROSCOPY TO ASSIST INSTRUMENT NAVIGATION IN IMAGE-GUIDED SURGERY(用于使用荧光透视技术协助图像引导手术中仪器导航的***和方法)”的美国临时专利申请号62/294,870和提出于2016年2月12日的题为“SYSTEMS AND METHODS FOR USING REGISTEREDFLUOROSCOPIC IMAGES IN IMAGE-GUIDED SURGERY(用于在图像引导手术中使用配准荧光透视图像的***和方法)”的美国临时专利申请号62/294,879的优先权和权益,这两项申请都因此以参考方式被全文纳入。
技术领域
本公开涉及用于进行图像引导手术的***和方法,更具体地涉及用于在图像引导手术期间使用经配准的实时荧光透视图像和先前时间解剖图像的***和方法。
背景技术
微创医疗技术意在减少在医疗手术期间受损的组织数量,由此减少患者的恢复时间、不适感和有害的副作用。这种微创技术可以通过患者解剖结构中的自然孔或通过一个或更多个手术切口执行。通过这些自然孔或切口,临床医师可以***微创医疗仪器(包括:手术、诊断、治疗或活检仪器),以到达目标组织位置。为了帮助到达目标组织位置,医疗仪器的位置和移动可能与患者解剖结构的术前或在术中以前的静态图像相关。利用与图像相关的图像引导仪器,这些仪器可以在解剖***中导航自然孔道或手术方式造成的孔道,诸如肺、结肠、肠、肾、心脏、循环***等等。传统上,患者解剖结构的术前或术中图像通常是详细的经常是三维的图像。然而,它们是患者解剖结构的静态的先前时间表示。荧光透视是成像方式,该成像方式提供患者解剖结构的实时图像,包括在患者解剖结构上的医疗手术期间使用的任何辐射透不过的仪器。然而,荧光透视图像可能无法捕获到某些类型组织的高质量图像。需要***和方法来配准实时荧光透视图像和先前时间静态图像,以为执行图像引导手术提供增强的导航信息。
发明内容
通过伴随说明书的权利要求对本发明的实施例进行总结。
在一个实施例中,由计算***执行的方法包含:接收当医疗仪器的一部分位于患者解剖结构中时的患者解剖结构的荧光透视图像。荧光透视图像具有荧光透视参考框架。该部分可被称为指示器部分,并且该部分可包含:医疗仪器的任何长度,通过非限制示例的方法,包括:医疗仪器的近处部分、中间部分、远处部分和/或远端。该部分在解剖模型参考框架中具有感测的或另外方式已知的定位。该方法进一步包含:识别该部分在荧光透视图像中的定位,以及使用该部分在荧光透视图像中的定位,识别经提取的该部分在荧光透视参考框架中的定位。该方法进一步包含:基于该部分的经感测的定位和该部分的经提取的定位,将荧光透视参考框架配准到解剖模型参考框架。
在另一个实施例中,由计算***执行的方法包含:识别多个解剖界标(anatomiclandmark)的一组定位,该多个解剖界标在模型参考框架中在患者解剖结构的孔道的解剖模型中被进行渲染,以及接收当医疗仪器的一部分通过患者解剖结构的孔道中的多个解剖界标时的患者解剖结构的荧光透视图像数据。荧光透视图像数据具有荧光透视参考框架。该方法进一步包含:识别在荧光透视参考框架中的多个解剖界标处的一组部分定位,并将模型参考框架中的多个解剖界标的一组定位和荧光透视参考框架中的该组部分定位配准到公共参考框架。
在另一个实施例中,一种由计算***执行的方法包含:在模型参考框架中接收用于患者解剖结构的孔道的解剖模型的一组模型点,以及接收当医疗仪器的指示器部分通过患者解剖结构的孔道时的患者解剖结构的荧光透视图像数据。荧光透视图像数据具有荧光透视参考框架。该方法进一步包含:从荧光透视图像数据中识别荧光透视参考框架中的一组指示器部分定位点,并将每个指示器部分定位点匹配到该组模型点中的模型点以生成一组匹配。该方法进一步包含:基于该组匹配,将模型参考框架配准到荧光透视参考框架。
在另一个实施例中,一种计算机辅助医疗***包含:在手术坐标空间内具有方位平面的荧光透视成像器,以及一个或更多个处理器。一个或更多个处理器被配置为执行方法,该方法包括:接收当医疗仪器的一部分定位在患者解剖结构内的位置处时的患者解剖结构的荧光透视图像,荧光透视图像具有方位平面。该方法还包含:接收命令以驱动医疗仪器的该部分的运动,约束该部分的致动,使得该部分的经致动的移动被约束到荧光透视图像的方位平面,以及用经约束的致动驱动该部分的运动。一方面,***进一步包含:当用经约束的致动驱动该部分的运动时,从医疗仪器接收传感器的信息,从接收的传感器信息识别在荧光透视图像的方位平面外部的该部分的移动,以及接收信号以将该部分调整到荧光透视图像的方位平面。
在另一个实施例中,一种由计算***执行的方法包含:接收患者解剖结构的解剖模型,其中在解剖模型中识别感兴趣的区域。该方法进一步包含:从定位于患者解剖结构内并被配准到解剖模型的仪器的仪器形状传感器中接收形状传感器数据,并基于接收的形状传感器数据和感兴趣的区域,确定用于显示的荧光透视图像平面。
应当理解,上述一般性的描述和以下详细的描述二者都在性质上是示例性的和解释性的,并且意在不限制本公开的范围的情况下提供对本公开的理解。在该方面,根据以下详细的描述,本公开的附加方面、特征和优点对本领域中的技术人员将是明显的。
附图说明
当结合附图阅读下面的详细描述时,本公开的各个方面得到最佳地理解。强调的是,按照行业内的标准做法,不按比例绘制各种特征。事实上,各种特性的尺寸可以任意增加或减少以便于清楚讨论。此外,本公开可以在各种示例中重复引用数字和/或字母。这种重复是为了简单清楚,并且其本身并不规定讨论的各种实施例和/或配置之间的关系。
图1是根据本公开的实施例的远程操作的医疗***。
图2A说明利用本公开的方面的医疗仪器***。
图2B说明根据本公开的实施例的具有扩展的医疗工具的图2A的医疗仪器***的远端。
图3说明定位在人体的肺内的图2A的医疗仪器***的远端。
图4是说明根据本公开的一个实施例的用于在图像引导外科手术中提供引导的方法的流程图。
图5是根据本公开的一个实施例的一种手术坐标空间的侧视图,该手术坐标空间包括医疗仪器和荧光透视成像***。
图6说明了根据本公开的一个实施例的图像引导外科手术的流程图。
图7说明了根据本公开的另一个实施例的图像引导外科手术的流程图。
图8说明了根据本公开的另一个实施例的图像引导外科手术的一部分的流程图。
图9A、图9B和图9C说明用于确定仪器部分在荧光透视参考框架中的定位的荧光透视图像。
图10是根据本公开的一个实施例的显示设备,在该显示设备上显示经配准的并排的荧光透视模型图像和解剖模型图像。
图11是根据本公开的一个实施例的显示设备,在该显示设备上显示经配准的并且覆盖在荧光透视图像上的解剖模型图像。
图12说明了相关表,其描述在荧光透视参考框架和解剖参考框架之间的相关的解剖界标。
图13A和图13B说明荧光透视图像的分割。
图14说明了根据本公开的另一个实施例的图像引导外科手术的一部分的流程图。
图15说明了确定视图的优选的荧光透视平面的方法。
图16说明了用于在二维荧光透视引导下驱动医疗仪器的方法。
具体实施方式
在以下的本发明的各方面的详细的描述中,提出了许多具体细节,以便对所公开的实施例提供全面的理解。然而,本领域技术人员显然可以在没有这些具体细节的情况下实施本公开的实施例。在其他实例下,没有详细地描述众所周知的方法、过程、组件和电路,以免不必要地掩盖本发明的实施例的各方面。并且,为了避免不必要的描述性重复,在适用时,根据一个说明性实施例描述的一个或更多个组件可以被使用或从其他说明性实施例省略。
下面的实施例将根据在三维空间中的它们的状态来描述各种仪器和仪器的各部分。如本文所用,术语“定位”是指在三维空间(例如,沿笛卡尔(Cartesian)X,Y,Z坐标的三个平动自由度)中的物体或物体的一部分的定位。如本文所用,术语“方位”是指物体或物体的一部分的旋转放置(三个旋转自由度,例如,滚动、俯仰和偏航)。如本文所用,术语“位姿(pose)”是指在至少一个平动自由度中物体或物体的一部分的定位和在至少一个旋转自由度(高达总共六个自由度)中该物体或物体的一部分的方位。如本文所用,术语“形状”是指沿着物体测量的一组位姿、定位或方位。
参考附图的图1,例如,用于在手术、诊断、治疗或活检手术中使用的远程操作医疗***一般表示为远程操作医疗***100。如图1所示,远程操作***100一般包括:用于在对患者P执行各种手术时操作医疗仪器***104的远程操作操作机组件102。远程操作操作机组件102也可称为远程操作组件102或操作机组件102。医疗仪器***104也可以称为医疗仪器104。操作机组件102被安装到操作台O上或被安装到其附近。操作者输入***106(也称为“主组件106”)允许临床医师或外科医生S查看介入部位并控制操作机组件102。
操作者输入***106可以位于外科医生控制台,该外科医生控制台通常与操作台O位于相同房间中。然而,应该了解,外科医生S可以位于与患者P不同的房间或完全不同的建筑中。操作者输入组件106通常包括一个或更多个设备用于控制一个或更多个操作机组件102。控制设备可以包括任意数量的各种输入设备,诸如操纵杆、轨迹球、数据手套、触发枪、手动控制器、语音识别设备、主体运动或存在传感器等等。在一些实施例中,控制设备将被提供有与相关医疗仪器104相同的自由度,以为外科医生提供远程存在或者控制设备与仪器104是一体的感知,使得外科医生具有直接控制仪器104的强烈感觉。在其它实施例中,控制设备可以具有比相关医疗仪器104更多或更少的自由度,并且仍然为外科医生提供远程存在。在一些实施例中,控制设备是手动输入设备,该手动输入设备以六个自由度移动,并且其还可以包括:用于致动仪器(例如,用于关闭抓取钳爪、施加电势至电极、递送药物治疗等等)的致动手柄。
远程操作组件102支持医疗仪器***104,并且该远程操作组件102可以包括一个或更多个非伺服控制的链接装置(例如,可以手动地被定位并锁定到位的一个或更多个链接装置,通常被称为设定结构)的运动学结构和远程操作操作机。远程操作组件102包括多个致动器或电机,其响应于来自控制***(例如,控制***112)的命令驱动医疗仪器***104上的输入。电机包括:驱动***,当联接到医疗仪器***104时,该驱动***可将医疗仪器推进自然地或手术方式产生的解剖孔。其他机动的驱动***可在多个自由度中移动医疗仪器的远端,该多个自由度可以包括三个线性运动(例如,沿X、Y、Z笛卡尔轴的线性运动)度和三个旋转运动(例如,关于X、Y、Z笛卡尔轴旋转)度。此外,电机可以用来致动仪器的可铰接末端执行器用于在活检设备的钳爪中抓取组织等等。电机定位传感器,诸如旋转变压器、编码器、电位器、和其他机械机构,可以将描述电机轴的旋转和方位的传感器数据提供给远程操作组件。该定位传感器数据可用来确定由电机操作的物体的运动。
远程操作医疗***100还包括传感器***108,其具有一个或更多个子***用于接收关于远程操作组件的仪器的信息。这种子***可以包括:定位/位置传感器***(例如,电磁(EM)传感器***);用于确定导管尖端和/或沿医疗仪器***104的柔性主体的一个或更多个段的定位、方位、速度、速率、位姿和/或形状的形状传感器***;和/或用于从导管***的远端捕获图像的可视化***。
可视化***(例如,图2A的可视化***231)可以包括查看范围组件,该查看范围组件记录手术部位的并发图像或实时图像,并将图像提供给临床医师或外科医生S。例如,并发图像可以是通过定位在手术部位内的内窥镜捕获的二维或三维图像。在这个实施例中,可视化***包括可一体地或可移除地联接到医疗仪器104的内窥镜组件。然而,在替代实施例中,附接到单独的操作机组件的单独的内窥镜可以与医疗仪器一起使用以对手术部位进行成像。可视化***可以作为硬件、固件、软件或它们的组合来实现,其与一个或更多个计算机处理器交互或通过一个或更多个计算机处理器以其他方式被执行,该一个或更多个计算机处理器可以包括控制***112的处理器(如下所述)。控制***112的处理器可以执行指令,该指令包含对应于本文公开的处理的指令。
远程操作医疗***100还包括显示***110(也称“显示器110”),用于显示由传感器***108的子***生成的手术部位和(一个或更多个)医疗仪器***104的图像或表示。显示***110和操作者输入***106可以被定向,以便操作者能够以远程存在的感知来控制医疗仪器***104和操作者输入***106。
显示***110还可以显示由可视化***捕获的手术部位和医疗仪器的图像。显示***110和控制设备可以被定向,使得范围组件中的成像设备和医疗仪器的相对定位类似于外科医生的眼睛和手的相对定位,使得操作者可以操纵医疗仪器104和手动控制,仿佛以基本上真实存在的方式查看工作区。通过真实存在,这意味着图像的呈现是模拟正在物理上操作仪器104的操作者的视点的真实的透视图像。
替代性地或者附加地,显示***110可以使用来自成像技术的图像数据呈现术前或术中记录的手术部位的图像,成像技术为诸如,计算机断层扫描(CT)、磁共振成像(MRI)、荧光透视、红外热成像、超声、光学相干断层成像(OCT)、热成像、阻抗成像、激光成像或纳米管X射线成像。术前或术中图像数据可以呈现为二维、三维或四维(包括:例如,基于时间的或基于速率的信息)图像或作为从术前或术中图像数据集创建的模型的图像。
在一些实施例中,经常用于成像引导外科手术的目的,显示***110可以显示虚拟的导航图像,其中医疗仪器104的实际位置与术前或并发图像/模式配准(即动态参考)以为临床医师或外科医生S呈现从仪器104的尖端的位置的视点的内部手术部位的虚拟图像。仪器104的尖端的图像或其他图形或字母数字指示符的图像可以叠加在虚拟图像上以协助外科医生控制医疗仪器。替代性地,仪器104在虚拟图像中可以是不可见的。
在其他实施例中,显示***110可以显示虚拟的导航图像,其中医疗仪器的实际位置与术前或并发图像配准以为临床医师或外科医生S呈现从外部视点的在手术部位内的医疗仪器的虚拟图像。医疗仪器的一部分的图像或其他图形或字母数字指示符的图像可以叠加在虚拟图像上以协助外科医生控制仪器104。
远程操作医疗***100还包括控制***112。控制***112包括至少一个存储器和至少一个计算机处理器(未示出),并且通常是多个处理器,用于在医疗仪器***104、操作者输入***106、传感器***108和显示***110之间引起控制。控制***112还包括编程指令(例如,计算机可读介质存储指令),以实现根据本文公开的方面描述的一些或全部方法,包括将配准图像提供给显示***110的指令。虽然控制***112以图1的简化示意图作为单个块示出,该***可包括两个或更多个数据处理电路,其中处理的一部分可选地在远程操作组件102上或相邻远程操作组件102被执行、处理的另一部分在操作者输入***106处被执行等等。可以使用任何各种集中式或分布式数据处理架构。同样,编程指令可以作为若干单独的程序或子例程来实现,或他们可以集成到本文所描述的远程操作***的若干其他方面。在一个实施例中,控制***112支持无线通信协议,诸如蓝牙、红外数据组织IrDA、HomeRF、IEEE 802.11、DECT和无线遥测。
在一些实施例中,控制***112可包括一个或更多个伺服控制器,该伺服控制器接收来自医疗仪器***104的力和/或转矩反馈。响应于反馈,伺服控制器将信号发送到操作者输入***106。(一个或更多个)伺服控制器也可以发送信号,指示远程操作组件102移动(一个或更多个)医疗仪器***104,该(一个或更多个)医疗仪器***104通过在体内的开孔延伸到患者体内的内部手术部位。可以使用任何合适的常规或专用伺服控制器。伺服控制器可以与远程操作组件102分开或与远程操作组件102集成。在一些实施例中,伺服控制器和远程操作组件作为定位为相邻患者身体的远程操作臂的手推车的一部分被提供。
控制***112可进一步包括虚拟可视化***以当在图像引导外科手术中使用时,将导航协助提供给(一个或更多个)医疗仪器***104。使用虚拟可视化***的虚拟导航是基于对所获得的解剖孔道的术前或术中数据集的参考。更具体地,虚拟可视化***处理成像的手术部位的图像,手术部位的图像使用成像技术,诸如计算机断层扫描(CT)、磁共振成像(MRI)、荧光透视、红外热成像、超声、光学相干断层成像(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像等等成像。软件单独或与人工输入相结合,用于将记录图像转换成部分或整个解剖器官或解剖区域的分割的二维或三维复合表示。图像数据集与复合表示是相关联的。复合表示和图像数据集描述孔道的不同位置和形状及其连接。用于生成复合表示的图像可在临床手术期间在先前时间的术前或术中被记录。在一个替代的实施例中,虚拟可视化***可以使用标准表示(即非特定于患者)或标准表示和特定于患者的数据的混合。复合表示和由复合表示所产生的任何虚拟图像可以表示在一个或更多个运动阶段期间(例如,在肺的吸气/呼气循环期间)的可变形解剖区域的静态位姿。
在虚拟导航手术期间,传感器***108可用于计算相对于患者解剖结构的仪器的近似位置。该位置可用于产生患者解剖结构的宏观水平的(外部)追踪图像和患者解剖结构的虚拟内部图像二者。用于使用电磁(EM)传感器、光纤传感器或其他传感器以配准和与术前记录的手术图像(诸如来自虚拟可视化***的图像)一起显示医疗器具的各种***是众所周知的。例如,美国专利申请号13/107,562(提交于2011年5月13日)(公开了“MedicalSystem Providing Dynamic Registration of a Model of an Anatomic Structure forImage-Guided Surgery(提供解剖结构的模型的动态配准的用于图像引导手术的医疗***)”(其全部通过参考并入本文)公开了一种这样的***。
远程操作医疗***100可进一步包括:可选的操作和支撑***(未示出),诸如照明***、转向控制***、冲洗***和/或抽吸***。在替代性的实施例中,远程操作***可以包括多于一个的远程操作组件和/或多于一个的操作者输入***。操作机组件的确切数量将取决于外科手术和手术室内的空间限制,以及其他因素。操作者输入***可以并置,或者它们可以被定位于单独的位置中。多个操作者输入***允许多于一个操作者以多种组合方式控制一个或更多个操作机组件。
图2A说明了医疗仪器***200***(也称“医疗仪器200”或“仪器***200”),其可以作为医疗仪器***104在用远程操作医疗***100执行的图像引导医疗手术中使用。替代性地,医疗仪器***200可用于非远程操作探查术或在涉及传统手动操作的医疗仪器(诸如内窥镜)的手术中使用。附加地或替代性地,医疗仪器***200可用于收集(即测量)对应于患者解剖孔道内的位置的一组数据点。
仪器***200包括联接到仪器主体204的导管***202(也称“导管202”),当用于容纳部件时,仪器主体204可被称为“壳体204”。导管***202包括细长的柔性导管主体216,其具有近端217和远端218(当它是导管主体216的尖端部分时,其可被称为“尖端部分218”)。在一个实施例中,柔性主体216具有大约3mm的外部直径。其它柔性主体外部直径可以更大或更小。导管***202可以可选地包括形状传感器***222(也称“形状传感器222”),用于确定在远端218处的导管尖端和/或沿着导管主体216的一个或更多个段224的定位、方位、速度、速率、位姿和/或形状。在远端218和近端217之间的导管主体216的整个长度可以被有效地分成段224。如果仪器***200是远程操作医疗***100的医疗仪器104,则形状传感器***222可以是传感器***108的组件。如果仪器***200被手动操作或以其它方式用于非远程操作手术,则形状传感器***222可以被联接到追踪***230,该追踪***230询问形状传感器并处理所接收的形状数据。
形状传感器***222可包括与柔性导管主体216对齐的光纤(例如,被提供在内部通道(未示出)内或在外部安装)。在一个实施例中,光纤具有大约200μm的直径。在其它实施例中,尺寸可以更大或更小。形状传感器***222的光纤形成用于确定导管***202的形状的光纤弯曲传感器。在一个替代方式中,包括光纤布拉格光栅(FBG)的光纤用于在一个或更多个维度中在结构中提供应变测量。在美国专利申请号11/180,389(提交于2005年7月13日)(公开了“Fiber optic position and shape sensing device and method relatingthereto(光纤定位和形状感测设备及其相关方法)”);美国专利申请号12/047,056(提交于2004年7月16日)(公开了“Fiber-optic shape and relative position sensing(光纤形状和相对定位感测)”);以及美国专利号6,389,187(提交于1998年6月17日)(公开了“Optical Fibre Bend Sensor(光纤弯曲传感器)”)中描述了用于监控光纤在三维中的形状和相对定位的各种***和方法,其所有全部通过参考并入本文。替代的实施例中的传感器可以采用其它合适的应变感测技术,诸如瑞利(RayLeigh)散射、拉曼散射、布里渊散射和荧光散射。在其它替代的实施例中,可以使用其它技术来确定导管的形状。例如,导管的远处尖端位姿的历史可以用于在时间间隔上重建设备的形状。作为另一示例,历史位姿、定位或方位数据可以沿着交替运动(诸如呼吸)的周期针对仪器***的已知点被存储。该存储的数据可用于开发关于导管的形状信息。替代性地,沿着导管定位的一系列定位传感器(诸如电磁(EM)传感器)可用于形状感测。替代性地,手术期间的来自仪器***上的定位传感器(诸如EM传感器)的数据历史可以用于表示仪器的形状,特别是如果解剖孔道一般是静态的。替代性地,可以使用具有由外部磁场控制的定位或方位的无线设备用于形状感测。可以使用无线设备的定位的历史来确定用于导航的孔道的形状。
医疗仪器***可以可选地包括定位传感器***220。定位传感器***220可以是具有传感器***220的EM传感器***的组件,该EM传感器***包括一个或更多个导电线圈,该线圈可以经受外部产生的电磁场。在这样的实施例中,EM传感器***的每个线圈构成定位传感器***220,其产生感应的电信号,该电信号具有取决于线圈相对于外部产生的电磁场的定位和方位的特性。在一个实施例中,EM传感器***可被配置和被定位以测量六个自由度,例如,三个定位坐标X,Y,Z和三个方位角,该三个方位角指示基点的俯仰、偏航、滚动或五个自由度,例如,三个定位坐标X,Y,Z和两个方位角度,该两个方位角指示基点的俯仰和偏航。在美国专利号6380732(提交于1999年8月11日)(公开了“Six-Degree of FreedomTracking System Having a Passive Transponder on the Object Being Tracked(在被追踪物体上具有被动应答器的六自由度追踪***)”))中提供了EM传感器***的进一步描述,其全部通过引用并入本文。在一些实施例中,形状传感器也可作为定位传感器,因为传感器的形状连同关于形状传感器的基座的位置的信息(在患者的固定的坐标系中)允许沿形状传感器(包括远处尖端)的各个点的位置被计算。
追踪***230可包括定位传感器***220和形状传感器***222,用于确定远端218以及沿着仪器***200的一个或更多个段224的定位、方位、速度、位姿、和/或形状。追踪***230可以作为硬件、固件、软件或它们的组合来实现,其与一个或更多个计算机处理器交互或以其他方式通过一个或更多个计算机处理器执行,该计算机处理器可包括控制***116的处理器。
柔性导管主体216包括被设定尺寸并被设定形状以接收医疗仪器226的通道221(参见图2B)。医疗仪器可包括:例如,图像捕获探针、活检仪器、激光烧蚀纤维或其他手术、诊断或治疗工具。医疗工具可包括具有单个工作部件(诸如手术刀、钝刀片、光纤或电极)的末端执行器。其他的末端执行器可包括:例如,钳、抓取器、剪刀或夹器。电激活的末端执行器的示例包括电外科手术电极、换能器、传感器等等。
在各种实施例中,(一个或更多个)医疗仪器226可以是图像捕获探针,其包括在柔性导管主体216的远端218处或附近具有立体或平面照相机用于捕获图像(包括视频图像)的远处部分,该图像通过可视化***231处理以用于显示。图像捕获探针可以包括电缆,其联接到照相机用于传输捕获的图像数据。替代性地,图像捕获仪器可以是光纤束,诸如纤维内窥镜,其联接到可视化***。图像捕获仪器可以是单个或多个光谱的,例如在可见光、红外或紫外光谱中的一个或更多个中捕获图像数据。
在各种实施例中,医疗仪器226是用于从目标解剖位置移除样本组织或细胞的采样的活检仪器。仪器226可以从通道221的开口向前推进以执行手术,然后当手术完成时缩回到通道中。医疗仪器226可以从导管柔性主体的近端217或沿柔性主体从另一个可选的仪器端口(未示出)移除。
医疗仪器226可以容纳在仪器的近端和远端之间延伸以可控地弯曲仪器的远端的缆线、连杆或其它致动控制(未示出)。在美国专利号7316681(提交于2005年10月4日)(公开了“Articulated Surgical Instrument for Performing Minimally Invasive Surgerywith Enhanced Dexterity and Sensitivity(用于以增强的灵活性和灵敏度执行微创手术的铰接式手术仪器)”)和美国专利申请号12/286,644(提交于2008年9月30日)(公开了“Passive Preload and Capstan Drive for Surgical Instruments(用于手术仪器的无源预加载和绞盘驱动)”)中详细描述了可转向仪器,其全部通过引用并入本文。
柔性导管主体216还可以容纳在壳体204和远端218之间延伸以可控地弯曲远端218(例如,通过远端的虚线描绘219所示)的线缆、连杆或其它转向控制(未示出)。在美国专利申请号13/274,208(提交于2011年10月14日)(公开了“Catheter with RemovableVision Probe(具有可运动视觉探针的导管)”)中详细描述了可转向导管,其全部通过引用并入本文。在其中仪器***200由远程操作组件致动的实施例中,壳体204可包括驱动输入,其可移除地联接到远程操作组件并从远程操作组件的机动驱动元件接收功率。在手动操作仪器***200的实施例中,壳体204可包括抓握特征、手动致动器或其它部件用于手动控制仪器***的运动。导管***可以是可转向的或者替代性地,该***可以是不可转向的,其中没有用于操作者控制仪器弯曲的集成机构。附加地或替代性地,在柔性体216的壁中限定一个或更多个内腔,其中医疗仪器可以通过该内腔被部署并且在目标手术位置处被使用。
在各种实施例中,医疗仪器***200可包括柔性支气管仪器(诸如支气管镜或支气管导管),其用于肺的检查、诊断、活检或治疗。仪器***200还适于通过在任何各种解剖***(包括结肠、肠、肾、脑、心脏、循环***等等)中的天然或手术产生的连接的孔道导航和治疗其它组织。
来自追踪***230的信息可以被发送到导航***232,在该导航***232中,来自追踪***230的信息与来自可视化***231的信息和/或术前获得的模型相结合,以向外科医生或其他操作者提供关于显示***110的实时定位信息,以用于仪器***200的控制。控制***116可以利用定位信息作为反馈用于定位仪器***200。在提交于2011年5月13日的公开了“Medical System Providing Dynamic Registration of a Model of an AnatomicStructure for Image-Guided Surgery(提供解剖结构的模型的动态配准用于图像引导手术的医疗***”)的美国专利申请号13/107,562中提供了用于使用光纤传感器以利用手术图像配准和显示手术仪器的各种***,其全部通过引用并入本文。
在图2A的实施例中,仪器***200在远程操作医疗***100内被远程操作。在一个替代的实施例中,远程操作组件102可被直接操作者控制取代。在直接操作的替代方式中,各种处理和操作者界面可以被包括用于仪器的手持操作。
在替代的实施例中,远程操作***可以包括多于一个的从属操作机组件和/或多于一个的主组件。操作机组件的确切数量将取决于医疗手术和手术室内的空间约束,以及其他因素。主组件可以被并列,或者他们可以被定位在单独的位置中。多个主组件允许多于一个操作者以各种组合控制一个或更多个从属操作机组件。
图3说明了被定位在患者解剖结构的解剖孔道内的导管***202。在该实施例中,解剖孔道是人体肺201的气道。在替代的实施例中,导管***202可用于其他解剖结构的孔道。
图4是说明了用于图像引导外科手术中的一般方法300的流程图。虽然各种提供示例描述在解剖结构内执行的手术应用,但是在替代的实施例中,本公开的设备和方法不需要在解剖结构内使用,而是也可以在患者解剖结构的外部使用。在过程302处,先前的图像数据,包括术前或术中图像数据,从成像技术(诸如计算机断层扫描(CT)、磁共振成像(MRI)、热成像、超声、光学相干断层成像(OCT)、热成像、阻抗成像、激光成像或纳米管X射线成像)中获得。术前或术中图像数据可对应于二维、三维或四维(包括:例如,基于时间或基于速率的信息)图像。例如,图像数据可以代表图3的人体肺201。
在过程304处,计算机软件单独或与手动输入组合被用于将记录的图像转换成分割的二维或三维复合表示或一部分或整个的解剖器官或解剖区域的模型。复合表示和图像数据集描述孔道和其连接的各种位置和形状。更具体地,在分割过程期间,图像被划分成段或元素(例如,像素或体素),其共享某些特性或计算属性,诸如颜色、密度、强度和纹理。这种分割过程导致二维或三维重建,其基于获得的图像形成目标解剖结构的模型和解剖模型。为了代表该模型,分割过程可以勾画代表目标解剖结构的多组体素,并且然后应用(诸如marching cube功能)功能以生成包围体素的3D表面。可以通过生成网格、体积或体素图制作该模型。附加地或替代性地,该模型可包括中心线模型,该中心线模型包括延伸通过模型化的孔道的中心的一组相互连接的线段或点。当该模型包括中心线模型,该中心线模型包括一组相互连接的线段时,那些线段可以被转换成一团或一组点。通过转换线段,对应于相互连接的线段的所需数量的点可被手动地或自动地选择。
在过程306处,在对患者进行图像引导外科手术以前和/或在对患者进行图像引导外科手术的过程期间,解剖模型、用来执行医疗手术的医疗仪器(例如,仪器***200)和患者解剖结构被共同配准在公共参考框架中。公共参考系可以是,例如,手术环境参考框架或患者参考框架。过程306包括关于患者定位医疗仪器。过程306还包括关于患者配准解剖模型。一般来说,配准涉及通过使用刚体和/或非刚体变换对测量点到模型的点进行匹配。测量点可以使用解剖结构中的界标、在手术期间扫描和追踪的电磁线圈或形状传感器***产生。测量点可以被生成以用于在迭代最近点(ICP)技术中使用。在美国临时专利申请号62/205,440和美国临时专利申请号62/205,433中了描述ICP和其他配准技术,该二者都是提交于在2015年8月14日,其全部通过引用并入本文。在过程308处,可以使用解剖模型数据来执行医疗手术以引导医疗仪器的移动。
使用先前的图像数据(例如,CT扫描(即计算机化的断层扫描))创建的解剖模型被用于图像引导外科手术,以提供适合于许多手术的精细解剖细节。然而,基于先前的图像数据的模型遭受配准错误,并且不说明解剖结构的实时配置,其包括:自获得先前图像数据以来可能已经发生的由于周期性或非周期性的解剖移动引起的任何变形、医疗仪器的存在和由于医疗仪器引起的组织变形、或患者解剖结构的其他变化。荧光透视是一种透视成像方式,其使用X射线获得患者解剖结构的实时移动图像。传统的辐射图是通过把患者的一部分放在X射线探测器前方,然后用短X射线脉冲照射它获得的X射线图像。以类似的方式,荧光透视使用X射线以获得患者的内部的实时移动图像,包括辐射透不过的医疗仪器、辐射透不过的染料、和/或在手术环境内的辐射透不过的基准标记。荧光透视***可包括C臂***,其通过手动或自动控制提供定位的灵活性并且能够轨道、水平和/或垂直移动。非C臂***是静止的,并且提供在移动中的较差的灵活性。荧光透视***通常使用图像增强器或平板检测器以生成患者解剖结构的二维实时图像。双平面荧光透视***同时捕获两个荧光透视图像,每个从不同(通常是正交)的视点捕获。X射线图像的质量和实用性可能取决于成像组织的类型而变化。密度较高的材料(诸如骨头和金属),通常比肺部充满气体的软组织在X射线图像中更可见。对于在肺部中的手术,CT模型提供了在荧光透视图像上可能难以辨认的气道和肿瘤的解剖细节,但荧光透视图像提供了医疗仪器和致密的解剖组织的实时可视化。因此,用解剖模型配准的荧光透视图像对于临床医师导航某些解剖结构部分(诸如肺部)可能是有用的。
图5说明了根据一些实施例的示例手术环境350,其具有手术坐标***Xs、Ys、Zs,其中患者P被定位在平台352上。在总的患者移动受到镇静、约束或其它方式的限制的意义上,患者P可以在手术环境中是静止的。除非患者暂时停止呼吸运动,否则包括患者P的呼吸和心脏运动的周期性解剖运动可以继续。在手术环境350内,医疗仪器354被联接到仪器托架356。仪器托架356被安装到在手术环境350内固定或可移动的***台358。仪器托架356可以是远程操作的操作机组件(例如,操作机组件102)的组件,其联接到仪器354以控制***运动(即,在Xs方向上的运动),并且可选地,仪器的远端在包括偏航、俯仰和滚动的多个方向中的运动。仪器托架356或***台358可包括伺服电机(未示出),该伺服电机控制沿着***台的仪器托架的运动。医疗仪器354可以包括联接到近处刚性仪器主体362的柔性导管360。刚性仪器主体362相对于仪器托架356被联接和被固定。光纤形状传感器364沿着仪器354延伸,并且可操作以测量从固定或已知点366到另一点(诸如导管360的部分368)的形状。在描画的实施例中,部分368作为远端部分被示出。在其它实施例中,部分368可以沿着导管360的长度被定位在其它地方,包括在导管的中部处。部分368被设定形状并被构造使得其可以用作导管360的指示器部分(例如,可以在成像数据中被识别的部分368)。医疗仪器354可基本上类似于医疗仪器***200。荧光透视成像***370(也称为荧光透视***370)被布置在患者P附近,以在导管360被延伸到患者体内时获得患者的荧光透视图像。***370可以是,例如,可运动的C臂荧光透视成像***。在一些实施例中,***370可以是来自华盛顿的西门子公司(Siemens Corporation)的多轴Artis Zeego荧光透视成像***。
图6说明了用于在手术环境350中执行图像引导手术的方法450的流程图。包括方法450的这个描述的方法在图6中作为一组块、步骤、操作或过程被说明。并非所有所说明的列举的操作都可以在方法450的所有实施例中执行。另外,在这些方法中未明确地说明的一些附加操作可以包括在所列举的过程之前、之后、之间或者作为所列举的过程的一部分。这个描述的方法的一些实施例包括指令,其对应于存储在存储器中的方法的过程。这些指令可由类似于控制***112的处理器的处理器执行。
因此,方法450的一些实施例可以开始于过程452,其中从诸如CT、MRI、热像图、超声、OCT、热成像、阻抗成像、激光成像或纳米管X射线成像等成像技术中获得先前图像数据,包括术前或术中图像数据。先前图像数据可以对应于二维、三维或四维(包括:例如基于时间的或基于速率的信息)图像。如上所述,根据先前图像数据在解剖模型参考框架中创建解剖模型。在过程454处,仪器传感器模型参考框架(XI,YI,ZI),可与包括在医疗仪器200中的形状传感器222相关,被配准到解剖模型参考框架(XM,YM,ZM)。在模型参考框架和仪器参考框架之间的这种配准可以实现,例如,使用通过引用并入本文的美国临时专利申请号62/205,440和号62/205,433中描述的基于点的ICP技术。替代性地,模型参考框架可以被配准到传感器参考框架或者模型参考框架和传感器参考框架可以被配准到另一公共参考框架。公共参考框架可以是,例如,手术环境参考框架(Xs,Ys,Zs)或患者参考框架。
在过程456处并参照图9B,传感器数据(与从成像确定的形状信息对照)被用于计算位姿信息。例如,在各种实例中,在患者解剖结构内、附近、临近、或外部的位置L处的医疗仪器的一部分的感测的定位和方位被用于确定医疗仪器的位姿信息。可以从传感器数据获得、测量或计算感测的定位和方位。在这个实施例中,医疗仪器的部分368可以称为指示器部分,并且可以包含辐射透不过的远端部分。在其它实施例中,医疗仪器的其他辐射透不过部分(在荧光透视图像上是可见的)可以是指示器部分。指示器部分可以包括医疗仪器的任何长度,其在荧光透视图像上是可见的。传感器信息从光纤形状传感器接收,并且被用于计算传感器参考框架中的指示器部分368的感测的定位和方位。基于在过程454处的仪器传感器参考框架到解剖模型参考框架(或其他公共参考框架)的配准,在传感器框架中的指示器部分的定位和/或方位(即感测的位姿)被转换成在过程458处的解剖模型参考框架。
在过程460处,荧光透视***370捕获患者P和扩展到患者体内的导管360的荧光透视图像数据。当指示器部分368被定位在解剖位置L处或接触解剖位置L时,获得根据荧光透视图像数据渲染的一个或更多个荧光透视图像。当指示器部分368在位置L处时,获得的图像可以来自单个视点或可以是多平面图像组(包括一组双平面图像),其在相同时间和在相同位置从多个视点显示指示器部分368。在一些示例中,导管360可被定位在患者的外部,使得指示器部分368在一个或更多个荧光透视图像内相邻解剖位置L是可见的。
在过程462处,在荧光透视图像数据中识别指示器部分368,并且因此,还识别荧光透视参考框架中的位置L的定位。在各种实施例中,荧光透视***370能够生成多平面图像,因此提供三维荧光透视参考框架(XF,YF,ZF)。使用多个图像还允许用于指示器部分368的方位的确定,因此针对指示器部分提供位姿信息。在其他实施例中,荧光透视***可以提供二维荧光透视参考框架。
为了提取荧光透视图像中的指示器部分368的定位并因此提取荧光透视参考框架中指示的位置L,可以使用各种技术。在一个实施例中,参考图9A和图9B,可以通过比较其中不存在指示器部分368的图像600和其中存在指示器部分368的图像610来识别图像数据中的指示器部分368。例如,通过控制***112的计算机来分析两个图像,以确定两个图像之间的图形差异。因为图像的患者解剖结构部分在两个图像中是相同的,所以包括指示器部分368的导管360可被识别为图像610特有的结构。通过识别与所识别的导管360相关联的图形组件(例如像素、体素),可以计算在荧光透视框架中的指示器部分368的存在和位置。因为指示器部分368位于位置L处,所以位置L的定位也通过提取指示器部分的图形分析确定。
在另一个实施例中,参考图9B和图9C,通过比较其中指示器部分368位于位置K处的图像620和其中指示器部分368位于位置L处的图像610,可以识别图像数据中的指示器部分368。例如,通过控制***112的计算机来分析两个图像,以确定在两个图像之间的图形差异。因为图像的患者解剖结构部分在两个图像中是相同的,所以包括指示器部分368的导管360可被识别为每个图像610、620中特有的结构。通过识别与所识别的导管360的远端相关联的图形组件,可以计算在每个图像的荧光透视框架中的指示器部分368的存在和位置。因为指示器部分368位于位置L和K处,所以位置L和K的定位也通过提取指示器部分的图形分析来确定。
在另一个实施例中,参考图13A,可以通过半自动提取技术在图像数据中识别指示器部分368,在半自动提取技术中,包括仪器1002的荧光透视图像1000被显示给用户。用户使用输入设备,诸如触摸屏、鼠标、追踪球或眼睛凝视以创建仪器1002或仪器的一部分(诸如远处尖端)的轮廓1004。基于从用户接收的轮廓1004输入,分割算法识别图像1000中的仪器1002的特征(例如,像素阴影、尺寸),并且继续以划分与仪器相对应的图像的片段(例如,像素或体素)。
在另一个实施例中,参照图13B,可以通过半自动提取技术在图像数据中识别指示器部分368,在半自动提取技术中,包括仪器1022的荧光透视图像1010被显示给用户。搜索区域1014由用户识别,或者可以预先定义(例如图像的左下象限),以便将医疗仪器的入口点1016搜索到图像中。分割算法可以搜索与医疗仪器的预期形状相关联的预定形状(例如,预期的阴影的连续性或饱和度、预期宽度、预期长度、预期曲率)。在分割算法识别图像1010中的医疗仪器之后,该算法继续以划分与仪器相对应的图像的片段(例如,像素或体素)。
在另一个实施例中,期望的形状通过从形状传感器接收到的形状信息定义,并且所期望的形状被用于识别初始搜索区域用于供半自动提取技术使用。分割算法可以进一步在初始搜索区域中搜索期望的形状,以减少时间和计算资源。在分割算法识别期望的形状之后,该算法继续以划分与仪器相对应的图像的片段(例如,像素或体素)。
在另一个实施例中,可以针对预定的(即期望的或之前已知的)辐射透不过形状(诸如通过形状传感器或通过在导管的末端处的预定的(即期望的或之前已知的)形状或标记器测量的形状),通过图形地分析和识别捕获的荧光透视图像,识别指示器部分368。例如,可以从图像中发现并提取从导管或导管末端处的固定装置上延伸的针状物的已知形状。在荧光透视图像中的这些指示器部分的图形识别提供了在荧光透视框架中的接触的位置L的定位。
再次参照图6,在过程464处,荧光透视图像参考框架被配准到解剖模型参考框架。替代性地,荧光透视图像参考框架和解剖模型参考框架二者被配准到公共参考框架,诸如手术参考框架。因为过程462提供在荧光透视图像参考框架中的在位置L处的指示器部分368的定位和方位,并且过程458提供在模型参考框架中的在位置L处的指示器部分368的定位和方位,所以指示器部分368的相应框架定位被关联以一起配准框架。可以针对患者解剖结构中的多个位置处的指示器部分的多个定位重复过程456、458、460、462。通过关联相应的框架中的这些多个位置并且通过执行对应于多个位置的点的刚体或非刚体变换,可以执行或增强在过程464处的配准。
在过程466处并且参照图10和图11,配准的参考框架被显示为导管穿过患者的解剖结构,允许临床医师查看(一个或更多个)显示图像以利用在具有先前时间图像(例如,CT图像)的解剖细节的荧光透视图像中实时仪器追踪的益处。图10说明了显示器700,其显示具有荧光透视参考框架(XF,YF,ZF)的荧光透视图像710和具有模型参考框架(XM,YM,ZM)的先前时间模型图像720(诸如,通过非限制性示例的方法,通过CT技术捕获的CT图像或通过任何其他适当的成像技术捕获的图像)。荧光透视参考框架和模型参考框架已被配准并且配准的图像被并排显示。利用配准的参考框架,来自一个图像的结构可以可选地叠加或覆盖在另一个图像上,以协助临床医师执行医疗手术。例如,在荧光透视图像710中可见的导管360可以被提取和被覆盖在图像720上。附加地或替代性地,在图720中可见的目标组织730(例如,肿瘤)可以被提取和被覆盖在荧光透视图像720上。
图11说明了显示器800,其显示单个图像810,其中先前图像数据820已被覆盖在荧光透视图像数据830上。在一些实施例中(未示出),到目标组织的路径可以被规划在先前时间模型图像数据内,并被显示在先前时间模型图像(例如,CT图像)内。路径然后可以被提取并且被覆盖在荧光透视图像数据上。
可选地,在荧光透视图像数据被配准到解剖模型之后,可以根据二维或三维图像查看并且分析关键特征,其中从荧光透视图像数据、解剖模型或两者的组合生成二维或三维图像。例如,在荧光透视图像数据中的阴影可以指示肿瘤或可以指示在用于生成解剖模型的分割的CT数据中在哪里寻找肿瘤。
可选地,在荧光透视图像数据被配准到解剖模型之后,虚拟荧光透视视图可以被生成。因为配准指示相对于模型的荧光透视图像平面,患者解剖结构的虚拟视图从视图的另一个平面可以被生成。例如,根据解剖模型可以生成正交于实际的荧光透视图像的平面的虚拟视图以向临床医师提供近似双平面荧光透视图像的体验。
另外或可选地,利用配准到解剖模型的荧光透视视图,在荧光透视图像中可识别解剖特征(诸如目标组织、肿瘤或其他界标),并且可使用它们定位在解剖模型中的对应的特征。例如,肿瘤在荧光透视视图中可以是可见的,以帮助识别在解剖模型中的对应的肿瘤。一旦在解剖模型中识别,肿瘤可以被标记为目标,并且可以在解剖模型中规划到该目标的导航路径。
图7说明用于在手术环境350中执行图像引导手术的另一个方法500的流程图。包括方法500的这个描述的方法作为一组块、步骤、操作或过程在图7中被说明。并非所有的所说明的列举的操作都可以在方法500的所有实施例中执行。另外,在方法中未明确说明的一些附加操作可以包括在列举的过程之前、之后、之间或作为列举的过程的一部分。这个描述的方法的一些实施例包括指令,其对应于存储在存储器中的方法的过程。这些指令可以通过类似于控制***112的处理器的处理器执行。
方法500包括先前所描述的获得患者解剖结构的先前时间成像数据(诸如术前CT扫描)的过程452,和将仪器传感器参考框架配准到解剖模型参考框架的过程454。一系列的过程502描述用于收集和匹配解剖界标点和配准荧光透视参考框架和模型参考框架的子过程。在过程508处,当指示器部分368接触从图像数据生成的荧光透视图像中可见的解剖界标或相邻该解剖界标定位时,荧光透视***370捕获患者P和导管360的荧光透视图像数据。解剖界标可以是在荧光透视中可见的任何独特的结构,诸如,脊柱、肋骨、胸骨、锁骨、隔膜、血管或支气管树的可见部分。在过程510处,指示器部分368在荧光透视图像数据中被识别,并且因此指示的解剖界标在荧光透视参考框架中的定位也被识别。在各种实施例中,荧光透视***370能够产生多平面图像,从而提供了三维荧光透视参考框架(XF,YF,ZF)。在其它实施例中,荧光透视***可以提供二维荧光透视参考框架。用于从荧光透视图像数据提取指示器部分的方法在上面描述。在过程512处,相同的解剖界标在解剖模型中被选择,并且与荧光透视图像数据中的解剖界标相关。例如,当导管的指示器部分接触解剖界标(如在实时荧光透视图像中通过临床医师看到的)时,用户可以在解剖界标的位置处触摸(显示解剖模型的)触摸屏。也可以使用用于定位模型中的解剖界标的其他标记方法。因此,在荧光透视参考框架中的解剖界标的坐标和在模型参考框架中的剖剖界标的坐标可以变得相关。在图12处,相关表900可以被编译,其参考每个界标910到荧光透视参考框架中的定位920和到模型参考框架中的定位930。可以针对多个解剖界标中的每一个重复过程502。例如,可以选择三个或更多个的解剖界标。
在过程514处,荧光透视图像参考框架被配准到解剖模型参考框架。解剖界标点配准在通过参考并入的美国临时专利申请号62/205,440和号62/205,433中描述。例如,一组荧光透视图像解剖参考点与在模型中的解剖界标点匹配。一个或两个组的匹配点然后被旋转、平移或以其他方式通过刚体或非刚体变换***纵以配准荧光透视参考框架和模型参考框架。在过程516处并且参照图10和图11,配准的参考框架被显示为导管通过患者解剖结构,允许临床医师查看(一个或更多个)显示图像以利用在具有先前时间图像(例如CT图像)的解剖细节的荧光透视图像中实时追踪仪器的益处。
图8说明了可用于在方法500中替换过程502的子过程550的流程图。在过程552处,当指示器部分368通过患者解剖孔道时,荧光透视***370捕获患者P和导管360的荧光透视图像数据。在过程554处,在荧光透视图像数据中识别指示器部分368的多个位置点,并且因此也识别荧光透视参考框架中的位置点的定位。在该实施例中,荧光透视***370能够从其中生成多平面图像,从而提供三维荧光透视参考框架(XF,YF,ZF)。在其他实施例中,荧光透视***可以提供二维荧光透视参考框架。上面描述了用于从荧光透视图像数据中提取指示器部分的方法。在过程556处,荧光透视图像参考框架被配准到解剖模型参考框架。点云配准在通过参考并入的美国临时专利申请号62/205,440和号62/205,433中描述。例如,一组荧光透视图像解剖参考点被旋转、平移或以其他方式通过刚体或非刚体变换以匹配解剖模型中的模型点(例如,从孔道的先前或并发CT扫描中接收的模型点)。通过ICP或其他点配准技术,荧光透视参考框架和模型参考框架被配准。
图14说明了用于在手术环境350中执行图像引导手术的方法1100的流程图。方法1100在过程1102处开始,其中包括术前或术中图像数据的先前图像数据从成像技术中获得,成像技术诸如CT、MRI、热像图、超声、OCT、热成像、阻抗成像、激光成像或纳米管X射线成像。先前图像数据可以对应于二维、三维或四维(包括例如,基于时间或基于速率的信息)图像。如上所述,从先前图像数据创建解剖模型。在过程1104处,当医疗仪器的指示器部分被定位在患者解剖结构内的位置L处时,从医疗仪器接收形状传感器信息。
在过程1106处,荧光透视***370捕获患者P和在患者体内延伸的导管360的荧光透视图像数据。当指示器部分368被定位在解剖位置L处或接触解剖位置L时,获得根据荧光透视图像数据渲染的一个或更多个荧光透视图像。当指示器部分368在位置L处时,获得的图像可以是来自单个视点,或可以是一组多平面图像(包括一组双平面图像),其在相同时间和在相同位置从多个视点显示指示器部分368。
在过程1108处,导管360的形状在荧光透视图像数据中被识别,并且在荧光透视参考框架中的位置L(在导管的远端处)的定位也被识别。在各种实施例中,荧光透视***370能够产生多平面图像,因此提供了三维荧光透视参考框架(XF,YF,ZF)。在其它实施例中,荧光透视***可以提供二维荧光透视参考框架。上面描述了用于提取导管的形状和/或指示器部分的位姿的各种实施例。在过程1110处,来自过程1110的形状传感器信息与从荧光透视图像数据中确定的形状信息进行比较。如果形状传感器变得扭曲或急剧弯曲,则从光纤形状传感器确定的形状信息可能包含不准确。此外,误差随着光纤形状传感器的长度而积累,因此较长的仪器的形状和远处尖端定位可能更不准确。通过融合从多个源接收到的仪器形状信息,可以改进传感器信息的准确性。在过程1110处,基于荧光透视图像形状信息修改医疗仪器的形状传感器信息。例如,在形状传感器信息中的远处尖端的位置可以被调整到荧光透视图像形状信息中的远处尖端的定位。在另一个实例中,形状信息可以仅沿预期不准确的部分(例如,远处尖端部分)被平均或被修改。
在过程1112处,使用先前描述的任何配准方法将修改的仪器传感器信息配准到解剖模型。在过程1114处,利用其中修改的传感器信息提供更精确地仪器远处尖端的定位的医疗仪器执行图像引导医疗手术。基于定位的仪器远处尖端,从解剖模型可以产生从远处尖端的视角(定位和方位)的患者解剖结构的虚拟图像。此外,基于定位的仪器远处尖端,覆盖在来自解剖模型的图像上的医疗仪器的虚拟图像可以用于引导医疗仪器的运动。
图15说明了确定优选的荧光透视视图平面的方法1200。在过程1202处,从诸如CT、MRI、热像图、超声、OCT、热成像、阻抗成像、激光成像或纳米管X射线成像等成像技术中获得先前图像数据,其包括术前或术中图像数据。先前图像数据可以对应于二维、三维或四维(包括例如基于时间或基于速率的信息)图像。如上所述,从先前图像数据创建解剖模型。在过程1204处,医疗仪器200的仪器传感器222被配准到解剖模型,如上针对方法450在过程454处所述。在过程1206处,优选的荧光透视视图平面被确定以允许临床医师设想导管的远处尖端的移动、活检针或从导管的远处尖端出现的其他工具的移动和/或该工具要被接合到的组织区域(例如,肿瘤)或该工具要避免的组织区域(例如,肺胸膜以避免穿孔)。更具体地,优选的荧光透视平面可以通过从形状传感器信息确定仪器的远处尖端部分的位姿而被选择。优选的荧光透视平面一般可平行于仪器的远处尖端部分的位姿(例如,图13B的视图平面)。附加地或替代性地,优选的荧光透视平面可以通过测量在仪器的远处尖端部分和感兴趣的组织区域之间的距离和确定提供最大距离的荧光透视视图平面而被确定。该荧光透视视图平面一般可平行于仪器的远处尖端部分和组织区域之间的轨迹,因此向临床医师提供关于活检针是否已截获目标组织区域或已避免会造成患者伤害的区域的最准确的信息。
图16说明了用于在二维荧光透视引导下驱动医疗仪器的方法1300。在过程1302处,从荧光透视***370获得手术参考框架中的患者解剖结构的荧光透视图像数据。可以通过包括外部追踪***的使用、成像基准物或如上针对方法450所述的形状感测数据的使用的各种方法来确定荧光透视***的方位并因此确定成像平面的方位。在2015年9月10日提交的美国临时申请号62/216,494中找到了对荧光透视成像平面的确定的描述,该申请涵盖了Systems and Methods of Pose Estimation and Calibration of PerspectiveImaging System in Image Guided Surgery(图像引导手术中的透视成像***的位姿估计和校准的***和方法),其全部通过参考并入本文。在一些实例中,可以生成荧光透视***的图形渲染,以便于在期望的荧光透视图像平面中获得荧光透视图像。特别地,这种渲染可以协助用户定位荧光透视***(例如,荧光臂或X射线成像器)的元件,以在期望的或预定的荧光透视平面中适当地捕获荧光透视图像。在一些实例中,***或用户可接收用于荧光透视***的一组联合配置,以更好地实现用于在期望的或预定的荧光透视图像平面中获得荧光透视图像的***配置。在过程1304处,根据荧光透视图像数据生成二维荧光透视图像以用于显示。显示的图像具有基于成像平面的方位平面的方位平面。在过程1306处,控制***112接收命令以驱动导管***202的移动。在过程1308处,导管***202的运动或导管的一部分的运动被约束到显示的荧光透视图像的方位平面的平面。在一个实施例中,可以仅导管的指示器部分的运动被约束到荧光透视图像的方位平面。导管的指示器部分的运动可以通过在远程操作***中的操作者控制的限制移动而被约束,使得操作者被阻止在会在约束平面的外部移动导管的一部分的方向上移动控制。附加地或替代性地,导管的指示器部分的运动可以通过限制远程操作操作机组件中的至少一个致动器或致动缆线的移动而被约束。尽管在上述开环约束***中操作者控制或仪器的致动机机构的约束,但是由于来自邻近组织的解剖力,导管的指示器部分仍可能经历约束平面外部的移动。在闭环***中,可以通过控制***接收和分析从医疗仪器的形状、定位或其它传感器接收的传感器信息,以识别指示器部分在荧光透视图像的方位平面外部的移动。响应于识别的出平面移动,控制***可提供信号或命令以将指示器部分调整回到方位平面。在一些实例中,用于调整指示器部分的信号和/或命令可以被拒绝或被忽略。在其它实例中,用于调整指示器部分的信号和/或命令可以自动地将指示器部分调整回到方位平面。在各种实施例中,可以从约束平面的正交或其它非平行平面获得一个或更多个附加荧光透视图像,从而允许临床医师观察指示器部分在约束平面的外部的任何移动。在各种实施例中,可通过包括手动开关、语音激活开关、脚激活开关或其它操作者控制机构的操作者控制开关的致动来启动指示器部分到显示的荧光透视图像的方位平面的约束运动。附加地或替代性地,响应于荧光透视图像的显示或操作者正在查看荧光透视图像的识别,可以由控制***112启动到显示的荧光透视图像的方位平面的指示器部分的约束运动。
虽然本公开描述了用于远程操作***的各种***和方法,它们也被构思用于非远程操作***中的使用,在非远程操作***中,操作机组件和仪器直接地被控制。虽然各种提供的示例描述在解剖结构内执行的手术应用,但是在替代的实施例中,本公开的设备和方法不需要在解剖结构内使用,而是也可以在患者解剖结构的外部使用。
本发明的实施例中的一个或更多个元件可以在软件中实施,以在计算机***(诸如,控制***112)的处理器上执行。当在软件中实施时,本发明的实施例的元素本质上是代码段以执行必要任务。程序或代码段可以存储在非临时处理器可读存储介质或设备中,其包括可以存储信息的任何介质,该介质包括光介质、半导体介质和磁性介质。处理器可读存储设备示例包括电子电路;半导体设备、半导体存储器设备、只读存储器(ROM)、闪存、可擦除的可编程只读存储器(EPROM);软盘、CD-ROM、光盘、硬盘或其他存储设备,代码段可以通过诸如因特网、内联网等计算机网络下载。
注意,呈现的过程和显示可能不是与任何特定的计算机或其他设备内在地联系。对于各种的这些***中所需的结构将在权利要求中作为元素出现。此外,本发明的实施例没有参考任何特定的编程语言描述。应理解的是,可以使用各种编程语言来实施如本文所述的本发明的教导。
虽然本发明的某些示例性实施例已被描述并在附图中被示出,但应理解的是,这些实施例仅仅是对宽的发明的说明而不是限制,而且本发明的实施例不限于被示出和被描述的具体结构和布置,因为本领域技术人员可以想到各种其他修改。

Claims (41)

1.一种由计算***执行的方法,所述方法包含:
接收医疗仪器的一部分被定位在患者解剖结构内时的所述患者解剖结构的荧光透视图像,所述荧光透视图像具有荧光透视参考框架,其中所述部分具有在解剖模型参考框架中的感测的定位;
识别在所述荧光透视图像中的所述部分;
使用在所述荧光透视图像中的识别的部分,识别在所述荧光透视参考框架中的所述部分的提取的定位;以及
基于所述部分的所述感测的定位和所述部分的所述提取的定位,将所述荧光透视参考框架配准到所述解剖模型参考框架。
2.根据权利要求1所述的方法,进一步包含:
使用在所述荧光透视图像中的所述识别的部分,识别在所述荧光透视参考框架中的所述部分的提取的方位,
其中,所述部分在所述解剖模型参考框架中具有感测的方位,以及
其中,将所述荧光透视参考框架配准到所述解剖模型参考框架进一步基于所述部分的所述感测的方位和所述部分的所述提取的方位。
3.根据权利要求1所述的方法,其中识别在所述荧光透视图像中的所述部分包括:识别在所述荧光透视图像中的所述部分的预期的形状。
4.根据权利要求1所述的方法,其中识别在所述荧光透视图像中的所述部分包括:将当所述医疗仪器的所述部分被定位在所述患者解剖结构内时的所述患者解剖结构的所述荧光透视图像与当所述医疗仪器的所述部分没有被定位在所述患者解剖结构内时的记录的所述患者解剖结构的荧光透视图像进行比较。
5.根据权利要求1所述的方法,其中识别在所述荧光透视图像中的所述部分包括:将当所述医疗仪器的所述部分被定位在所述患者解剖结构内的第一位置处时的所述患者解剖结构的所述荧光透视图像与当所述医疗仪器的所述部分被定位在所述患者解剖结构内的第二位置处时记录的所述患者解剖结构的荧光透视图像进行比较。
6.根据权利要求5所述的方法,其进一步包含:在所述解剖模型参考框架中接收用于所述患者解剖结构的孔道的解剖模型的一组模型点。
7.根据权利要求6所述的方法,其中用于孔道的解剖模型的所述一组模型点从计算机化断层扫描中发展而来。
8.根据权利要求6所述的方法,其进一步包含:在所述荧光透视图像的一部分和所述解剖模型的一部分的共同配准的图像内显示所述医疗仪器的所述部分。
9.根据权利要求8所述的方法,其进一步包含:
在所述解剖模型内识别和显示目标组织;以及
在所述荧光透视图像的所述部分的所述共同配准的图像中覆盖所述目标组织。
10.根据权利要求9所述的方法,其进一步包含:
在所述解剖模型中规划到所述目标组织的路径;以及
在所述荧光透视图像的所述部分的所述共同配准的图像中覆盖所述路径。
11.根据权利要求1所述的方法,其进一步包含:
从所述医疗仪器的定位传感器接收传感器定位信息,以确定所述医疗仪器的所述部分的所述感测的定位,其中所述传感器定位信息是在传感器参考框架中;
配准所述解剖模型参考框架和所述传感器参考框架,其中所述解剖模型参考框架与所述患者解剖结构的解剖孔道的解剖模型相关联;以及
从所述解剖模型参考框架和所述传感器参考框架的所述配准中,确定在所述解剖模型参考框架中的所述部分的所述感测的定位。
12.根据权利要求11所述的方法,其中所述定位传感器是沿着所述医疗仪器延伸的光纤形状传感器。
13.根据权利要求11所述的方法,其中,确定在所述解剖模型参考框架中的所述医疗仪器的所述部分的所述感测的定位包括:利用在所述解剖模型参考框架中的相应的一组坐标,参考所述传感器参考框架中的所述传感器定位信息的一组坐标。
14.根据权利要求11所述的方法,其中配准所述解剖模型参考框架和所述传感器参考框架包括:
接收所述解剖模型的一组模型点;
接收从所述解剖孔道内收集的一组测量点,每个点包含在所述传感器参考框架内的坐标;
将所述一组测量点的测量点匹配到所述一组模型点的模型点以生成一组匹配;以及
基于所述一组匹配,相对于所述一组模型点移动所述一组测量点。
15.一种由计算***执行的方法,其包含:
识别多个解剖界标的一组定位,在模型参考框架中的患者解剖结构的孔道的解剖模型中渲染所述多个解剖界标;
接收医疗仪器的一部分通过所述患者解剖结构的所述孔道中的所述多个解剖界标时的所述患者解剖结构的荧光透视图像数据,所述荧光透视图像数据具有荧光透视参考框架;
在所述荧光透视参考框架中识别在所述多个解剖界标处的所述医疗仪器的所述部分的一组定位;以及
将在所述模型参考框架中的所述多个解剖界标的所述一组定位和在所述荧光透视参考框架中的所述多个解剖界标处的所述医疗仪器的所述部分的所述一组定位配准到公共参考框架。
16.根据权利要求15所述的方法,其中在所述荧光透视参考框架中识别所述医疗仪器的所述部分的所述一组定位包括:在所述荧光透视参考框架中识别所述医疗仪器的所述部分的预定形状。
17.根据权利要求15所述的方法,其中识别在所述荧光透视参考框架中的所述医疗仪器的所述部分的所述一组定位包括:将当所述医疗仪器的所述部分被定位在所述多个界标中的至少一个时的所述患者解剖结构的所述荧光透视图像数据与当所述医疗仪器的所述部分没有被定位在所述患者解剖结构内时的记录的所述患者解剖结构的荧光透视图像数据进行比较。
18.根据权利要求15所述的方法,其中识别在所述荧光透视参考框架中的所述一组定位包括:将当所述医疗仪器的所述部分被定位在所述多个界标中的至少一个时的所述患者解剖结构的所述荧光透视图像数据与当所述医疗仪器的所述部分被定位在所述患者的解剖结构内的另一个位置处时的记录的所述患者解剖结构的图像进行比较。
19.根据权利要求15所述的方法,其进一步包含:显示所述荧光透视图像的一部分、所述解剖模型的一部分和所述医疗仪器的所述部分的共同配准图像。
20.根据权利要求15所述的方法,其中所述公共参考框架是所述模型参考框架。
21.根据权利要求15所述的方法,其中,所述公共参考框架是所述荧光透视参考框架。
22.一种由计算***执行的方法,其包含:
在模型参考框架中接收用于患者解剖结构的孔道的解剖模型的一组模型点;
接收当医疗仪器的指示器部分通过所述患者解剖结构的所述孔道时的所述患者解剖结构的荧光透视图像数据,所述荧光透视图像数据具有荧光透视参考框架;
从所述荧光透视图像数据中识别在所述荧光透视参考框架中的一组指示器部分定位点;
将每个指示器部分定位点匹配到所述一组模型点中的模型点以生成一组匹配;以及
基于所述一组匹配,将所述模型参考框架配准到所述荧光透视参考框架。
23.根据权利要求22所述的方法,其中,识别在所述荧光透视参考框架中的所述一组指示器部分定位点包括:识别在所述荧光透视参考框架中的所述指示器部分的期望的形状。
24.根据权利要求22所述的方法,其中,识别在所述荧光透视参考框架中的所述一组指示器部分定位包含:将当所述医疗仪器的所述指示器部分被定位时的所述患者解剖结构的所述荧光透视图像数据与当所述医疗仪器的所述指示器部分没有被定位在所述患者解剖结构内时的记录的所述患者解剖结构进行比较。
25.根据权利要求22所述的方法,其进一步包含:显示从所述荧光透视图像数据生成的所述荧光透视图像的一部分、所述解剖模型的一部分和所述医疗仪器的所述指示器部分的共同配准的图像。
26.根据权利要求22所述的方法,其中,基于所述一组匹配,将所述模型参考框架配准到所述荧光透视参考框架包括:基于所述一组匹配,相对于所述一组模型点移动所述一组指示器部分定位点。
27.一种计算机辅助医疗***,其包含:
在手术坐标空间内的荧光透视成像器;以及
处理单元,其包括一个或更多个处理器,其中所述处理单元被配置为:
从所述荧光透视成像器接收当医疗仪器的一部分被定位在患者解剖结构内的位置处时的所述患者解剖结构的荧光透视图像,所述荧光透视图像具有方位平面;
接收命令以驱动所述医疗仪器的所述部分的运动;
约束所述部分的致动,使得所述部分的致动的移动被约束到所述荧光透视图像的所述方位平面;以及
利用约束的致动,驱动所述部分的所述运动。
28.根据权利要求27所述的计算机辅助医疗***,其中所述处理单元进一步被配置为显示所述荧光透视图像。
29.根据权利要求28所述的计算机辅助医疗***,其中所述处理单元进一步被配置为显示具有第二方位平面的第二荧光透视图像,其中所述部分的非致动的移动是可见的。
30.根据权利要求27所述的计算机辅助医疗***,其中所述处理单元进一步被配置为:
当利用所述约束的致动驱动所述部分的运动时,从所述医疗仪器接收传感器信息;
从接收的传感器信息识别在所述荧光透视图像的所述方位平面外部的所述部分的移动;以及
发送信号以将所述医疗仪器的所述部分调整到所述荧光透视图像的所述方位平面中。
31.根据权利要求30所述的计算机辅助医疗***,其中所述传感器信息接收自光纤形状传感器。
32.根据权利要求27所述的计算机辅助医疗***,其中约束所述部分的所述致动包括:约束远程操作控制***中的操作者控制设备的移动。
33.根据权利要求27所述的计算机辅助医疗***,其中约束所述部分的所述致动包括:约束远程操作操作机组件中的至少一个致动器的移动。
34.根据权利要求27所述的计算机辅助医疗***,其中约束所述部分的所述制动响应于控制开关致动。
35.一种由计算***执行的方法,其包括:
接收患者解剖结构的解剖模型,其中在所述解剖模型中识别感兴趣的区域;
从被定位在所述患者解剖结构内并被配准到所述解剖模型的仪器的仪器形状传感器接收形状传感器数据;以及
基于接收的形状传感器数据和所述感兴趣的区域,确定用于显示的荧光透视图像平面。
36.根据权利要求35所述的方法,其中所述仪器形状传感器被定位在所述仪器的远处尖端部分,并且确定所述荧光透视图像平面包括:
从所述接收的形状传感器数据确定所述仪器的所述远处尖端部分的位姿;以及
确定所述仪器的所述远处尖端部分与所述感兴趣的区域之间的距离。
37.根据权利要求36所述的方法,其中确定所述荧光透视图像平面进一步包括:确定其中在所述仪器的所述远处尖端部分与所述感兴趣的区域之间的所述距离最大的所述荧光透视图像平面。
38.根据权利要求36所述的方法,其中确定所述荧光透视图像平面进一步包括:确定与所述远处尖端部分的所述位姿平行的荧光透视图像平面。
39.根据权利要求35所述的方法,其中所述仪器形状传感器是光纤形状传感器。
40.根据权利要求35所述的方法,其进一步包含:在用于获得确定的荧光透视图像平面中的荧光透视图像的配置中,提供荧光透视***的图形渲染。
41.根据权利要求35所述的方法,其进一步包含:提供针对荧光透视***的一组联合配置,以实现用于获得确定的荧光透视图像平面中的荧光透视图像的***配置。
CN201780003111.XA 2016-02-12 2017-02-10 用于在图像引导手术中使用配准荧光透视图像的***和方法 Active CN108024838B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111060677.0A CN113729977A (zh) 2016-02-12 2017-02-10 用于在图像引导手术中使用配准荧光透视图像的***和方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662294870P 2016-02-12 2016-02-12
US201662294879P 2016-02-12 2016-02-12
US62/294,879 2016-02-12
US62/294,870 2016-02-12
PCT/US2017/017433 WO2017139621A1 (en) 2016-02-12 2017-02-10 Systems and methods for using registered fluoroscopic images in image-guided surgery

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202111060677.0A Division CN113729977A (zh) 2016-02-12 2017-02-10 用于在图像引导手术中使用配准荧光透视图像的***和方法

Publications (2)

Publication Number Publication Date
CN108024838A true CN108024838A (zh) 2018-05-11
CN108024838B CN108024838B (zh) 2021-10-01

Family

ID=59563580

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780003111.XA Active CN108024838B (zh) 2016-02-12 2017-02-10 用于在图像引导手术中使用配准荧光透视图像的***和方法
CN202111060677.0A Pending CN113729977A (zh) 2016-02-12 2017-02-10 用于在图像引导手术中使用配准荧光透视图像的***和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202111060677.0A Pending CN113729977A (zh) 2016-02-12 2017-02-10 用于在图像引导手术中使用配准荧光透视图像的***和方法

Country Status (6)

Country Link
US (3) US10896506B2 (zh)
EP (3) EP3413830B1 (zh)
JP (2) JP7118890B2 (zh)
KR (1) KR20180104764A (zh)
CN (2) CN108024838B (zh)
WO (1) WO2017139621A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973579B2 (en) 2018-12-28 2021-04-13 Industrial Technology Research Institute Optical system
CN114387320A (zh) * 2022-03-25 2022-04-22 武汉楚精灵医疗科技有限公司 医学图像配准方法、装置、终端及计算机可读存储介质

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2007350982A1 (en) 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
EP2297673B1 (en) 2008-06-03 2020-04-22 Covidien LP Feature-based registration method
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
AU2011268321B2 (en) 2010-06-17 2015-10-01 Washington University Biomedical patches with aligned fibers
EP3824853B1 (en) 2012-09-21 2023-07-26 Washington University Biomedical patches with spatially arranged fibers
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
CA2953694A1 (en) 2014-07-02 2016-01-07 Covidien Lp Alignment ct
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
CN108024838B (zh) 2016-02-12 2021-10-01 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的***和方法
US10632228B2 (en) 2016-05-12 2020-04-28 Acera Surgical, Inc. Tissue substitute materials and methods for tissue repair
US11793579B2 (en) * 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US11369440B2 (en) * 2017-04-17 2022-06-28 The John Hopkins University Tactile augmented reality for medical interventions
AU2018266132A1 (en) * 2017-05-09 2019-10-10 Boston Scientific Scimed, Inc. Operating room devices, methods, and systems
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10893843B2 (en) 2017-10-10 2021-01-19 Covidien Lp System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US11464576B2 (en) 2018-02-09 2022-10-11 Covidien Lp System and method for displaying an alignment CT
CN111989022A (zh) 2018-06-19 2020-11-24 直观外科手术操作公司 用于将柔性细长装置保持在姿势中的***和方法
US11678788B2 (en) 2018-07-25 2023-06-20 Intuitive Surgical Operations, Inc. Systems and methods for use of a variable stiffness flexible elongate device
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
CN112804946A (zh) * 2018-08-07 2021-05-14 奥瑞斯健康公司 将基于应变的形状感测与导管控制相结合
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
DE102019203192A1 (de) * 2019-03-08 2020-09-10 Siemens Healthcare Gmbh Erzeugung eines digitalen Zwillings für medizinische Untersuchungen
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
EP3730055A1 (en) * 2019-04-22 2020-10-28 Canon Medical Systems Corporation Medical image processing apparatus, x-ray diagnostic apparatus, and computer-implemented method
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US20210052240A1 (en) * 2019-08-19 2021-02-25 Covidien Lp Systems and methods of fluoro-ct imaging for initial registration
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
DE102019215001B4 (de) * 2019-09-30 2022-11-03 Siemens Healthcare Gmbh Verfahren zur Bildunterstützung bei der Navigation und System
EP3838159A1 (en) * 2019-12-17 2021-06-23 Koninklijke Philips N.V. Navigating bronchial pathways
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) * 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
KR102307919B1 (ko) * 2020-04-22 2021-10-05 한국과학기술연구원 단방향 x선 영상을 이용한 굽힘 가능한 중재의료 기구의 포즈 추정 방법
US11883609B2 (en) * 2020-06-29 2024-01-30 Bard Access Systems, Inc. Automatic dimensional frame reference for fiber optic
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
EP3944809A1 (en) * 2020-07-28 2022-02-02 Koninklijke Philips N.V. Arrangement and method for determining the position of an invasive device
US11980426B2 (en) 2020-08-03 2024-05-14 Warsaw Orthopedic, Inc. System and method for preliminary registration
US20220133228A1 (en) * 2020-11-03 2022-05-05 Biosense Webster (Israel) Ltd. Identification and visualization of non-navigated objects in medical images
WO2022136696A1 (en) * 2020-12-24 2022-06-30 Katholieke Universiteit Leuven Method for shape sensing an optical fiber
CN116829089A (zh) * 2020-12-30 2023-09-29 直观外科手术操作公司 用于基于术中成像更新图形用户界面的***
US11950951B2 (en) 2021-01-29 2024-04-09 Covidien Lp Systems and methods for C-arm fluoroscope camera pose refinement with secondary movement compensation
CN117615724A (zh) 2021-05-11 2024-02-27 直观外科手术操作公司 医疗器械指导***和相关联方法
US20230068745A1 (en) * 2021-09-02 2023-03-02 Covidien Lp Real-time registration using near infrared fluorescence imaging
CN113796960B (zh) * 2021-09-07 2023-11-21 上海联影医疗科技股份有限公司 导管导航装置、设备和存储介质
WO2023060198A1 (en) 2021-10-08 2023-04-13 Intuitive Surgical Operations, Inc. Medical instrument guidance systems, including guidance systems for percutaneous nephrolithotomy procedures, and associated devices and methods

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1421913A1 (en) * 2002-11-19 2004-05-26 Surgical Navigation Technologies, Inc. Image guided catheter navigation system for cardiac surgery
EP1504726A1 (en) * 1999-04-22 2005-02-09 Medtronic Surgical Navigation Technologies Apparatus for image guided surgery
JP2006110351A (ja) * 2004-10-13 2006-04-27 General Electric Co <Ge> 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置
CN1910616A (zh) * 2004-01-21 2007-02-07 美国西门子医疗解决公司 手术中二维图像与手术前三维图像的仿射配准方法和***
WO2007095637A1 (en) * 2006-02-16 2007-08-23 Catholic Healthcare West (D/B/A St. Joseph's Hospital Medical Center) System utilizing radio frequency signals for tracking and improving navigation of slender instruments during insertion into the body
US20080262812A1 (en) * 2007-04-19 2008-10-23 Mako Surgical Corp. Implant Planning Using Captured Joint Motion Information
JP2009519083A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電気生理マッピングおよび治療の際の心臓形態可視化のシステムおよび方法
US20110098553A1 (en) * 2009-10-28 2011-04-28 Steven Robbins Automatic registration of images for image guided surgery
US20110141140A1 (en) * 2009-12-14 2011-06-16 Paul Robert Duhamel Visualization guided acl localization system
WO2011086431A1 (en) * 2010-01-13 2011-07-21 Koninklijke Philips Electronics N.V. Image integration based registration and navigation for endoscopic surgery
WO2013001388A1 (en) * 2011-06-27 2013-01-03 Koninklijke Philips Electronics N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image
CN103767683A (zh) * 2012-10-19 2014-05-07 韦伯斯特生物官能(以色列)有限公司 3d标测图和荧光镜图像之间的整合
CN104023629A (zh) * 2011-09-08 2014-09-03 Apn健康有限责任公司 只使用2d荧光透视自动地确定3d导管位置和取向
US20140276937A1 (en) * 2013-03-15 2014-09-18 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US20150005865A1 (en) * 2013-06-26 2015-01-01 Corindus, Inc. Robotic image control system
CN104274245A (zh) * 2013-07-09 2015-01-14 韦伯斯特生物官能(以色列)有限公司 荧光镜的无辐射位置校准
EP2963616A2 (en) * 2014-07-02 2016-01-06 Covidien LP Fluoroscopic pose estimation
WO2016018646A1 (en) * 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2567149B1 (fr) 1984-07-06 1986-12-05 Solvay Procede pour l'extraction de poly-beta-hydroxybutyrates au moyen d'un solvant a partir d'une suspension aqueuse de micro-organismes
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
AU1616497A (en) 1997-02-13 1998-09-08 Super Dimension Ltd. Six-degree tracking system
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
US9833167B2 (en) * 1999-05-18 2017-12-05 Mediguide Ltd. Method and system for superimposing virtual anatomical landmarks on an image
US7697972B2 (en) * 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7450743B2 (en) 2004-01-21 2008-11-11 Siemens Medical Solutions Usa, Inc. Method and system of affine registration of inter-operative two dimensional images and pre-operative three dimensional images
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
JP5322648B2 (ja) 2005-10-20 2013-10-23 インテュイティブ サージカル, インコーポレイテッド 医療用ロボットシステムにおけるコンピュータディスプレイ上の補助画像の表示および操作
US9968256B2 (en) * 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
WO2008107905A2 (en) * 2007-03-08 2008-09-12 Sync-Rx, Ltd. Imaging and tools for use with moving organs
US8831303B2 (en) * 2007-10-01 2014-09-09 Koninklijke Philips N.V. Detection and tracking of interventional tools
US8384718B2 (en) 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
US20090192385A1 (en) * 2008-01-25 2009-07-30 Oliver Meissner Method and system for virtual roadmap imaging
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
US9554868B2 (en) * 2009-08-07 2017-01-31 DePuy Synthes Products, Inc. Method and apparatus for reducing malalignment of fractured bone fragments
US8494613B2 (en) * 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
US9285246B2 (en) 2010-02-12 2016-03-15 Intuitive Surgical Operations, Inc. Method and system for absolute three-dimensional measurements using a twist-insensitive shape sensor
BR112013009962A2 (pt) * 2010-10-27 2021-05-25 Koninklijke Philips Electronics N.V. sistema,estação de trabalho e método.
WO2012107857A1 (en) * 2011-02-07 2012-08-16 Koninklijke Philips Electronics N.V. Medical imaging device for providing an image representation supporting the accurate positioning of an invention device in vessel intervention procedures
US8900131B2 (en) * 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
WO2013040498A1 (en) * 2011-09-16 2013-03-21 Translucent Medical, Inc. System and method for virtually tracking a surgical tool on a movable display
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
JP2015522324A (ja) * 2012-06-08 2015-08-06 コーニンクレッカ フィリップス エヌ ヴェ 生理的特徴を基準化する分散されたセンシングデバイス
US10799298B2 (en) * 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US20140188440A1 (en) 2012-12-31 2014-07-03 Intuitive Surgical Operations, Inc. Systems And Methods For Interventional Procedure Planning
US9629595B2 (en) * 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
JP6266284B2 (ja) * 2013-09-19 2018-01-24 東芝メディカルシステムズ株式会社 X線診断装置
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US9808230B2 (en) * 2014-06-06 2017-11-07 W. L. Gore & Associates, Inc. Sealing device and delivery system
WO2016134980A1 (en) * 2015-02-27 2016-09-01 Siemens Aktiengesellschaft Robust calcification tracking in fluoroscopic imaging
CN108024699B (zh) 2015-08-14 2020-11-03 直观外科手术操作公司 用于图像引导外科手术的配准***和方法
EP3334324B1 (en) 2015-08-14 2021-01-06 Intuitive Surgical Operations Inc. Systems and methods of registration for image-guided surgery
WO2017044874A1 (en) 2015-09-10 2017-03-16 Intuitive Surgical Operations, Inc. Systems and methods for using tracking in image-guided medical procedure
US10398509B2 (en) * 2015-09-18 2019-09-03 General Electric Company System and method for optimal catheter selection for individual patient anatomy
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
CN108024838B (zh) 2016-02-12 2021-10-01 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的***和方法

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1504726A1 (en) * 1999-04-22 2005-02-09 Medtronic Surgical Navigation Technologies Apparatus for image guided surgery
EP1421913A1 (en) * 2002-11-19 2004-05-26 Surgical Navigation Technologies, Inc. Image guided catheter navigation system for cardiac surgery
CN1910616A (zh) * 2004-01-21 2007-02-07 美国西门子医疗解决公司 手术中二维图像与手术前三维图像的仿射配准方法和***
JP2006110351A (ja) * 2004-10-13 2006-04-27 General Electric Co <Ge> 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置
JP2009519083A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電気生理マッピングおよび治療の際の心臓形態可視化のシステムおよび方法
WO2007095637A1 (en) * 2006-02-16 2007-08-23 Catholic Healthcare West (D/B/A St. Joseph's Hospital Medical Center) System utilizing radio frequency signals for tracking and improving navigation of slender instruments during insertion into the body
US20080262812A1 (en) * 2007-04-19 2008-10-23 Mako Surgical Corp. Implant Planning Using Captured Joint Motion Information
US20110098553A1 (en) * 2009-10-28 2011-04-28 Steven Robbins Automatic registration of images for image guided surgery
US20110141140A1 (en) * 2009-12-14 2011-06-16 Paul Robert Duhamel Visualization guided acl localization system
CN102711650A (zh) * 2010-01-13 2012-10-03 皇家飞利浦电子股份有限公司 用于内窥镜手术的基于图像整合的配准和导航
WO2011086431A1 (en) * 2010-01-13 2011-07-21 Koninklijke Philips Electronics N.V. Image integration based registration and navigation for endoscopic surgery
WO2013001388A1 (en) * 2011-06-27 2013-01-03 Koninklijke Philips Electronics N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image
CN104023629A (zh) * 2011-09-08 2014-09-03 Apn健康有限责任公司 只使用2d荧光透视自动地确定3d导管位置和取向
CN103767683A (zh) * 2012-10-19 2014-05-07 韦伯斯特生物官能(以色列)有限公司 3d标测图和荧光镜图像之间的整合
US20140276937A1 (en) * 2013-03-15 2014-09-18 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US20150005865A1 (en) * 2013-06-26 2015-01-01 Corindus, Inc. Robotic image control system
CN104274245A (zh) * 2013-07-09 2015-01-14 韦伯斯特生物官能(以色列)有限公司 荧光镜的无辐射位置校准
EP2963616A2 (en) * 2014-07-02 2016-01-06 Covidien LP Fluoroscopic pose estimation
CN105232152A (zh) * 2014-07-02 2016-01-13 柯惠有限合伙公司 荧光镜位姿估计
WO2016018646A1 (en) * 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for intraoperative segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JESPER CARL ET AL: "《A new fiducial marker for Image-guided radiotherapy of prostate cancer: Clinical experience》", 《ACTA ONCOLOGICAL》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973579B2 (en) 2018-12-28 2021-04-13 Industrial Technology Research Institute Optical system
CN114387320A (zh) * 2022-03-25 2022-04-22 武汉楚精灵医疗科技有限公司 医学图像配准方法、装置、终端及计算机可读存储介质

Also Published As

Publication number Publication date
KR20180104764A (ko) 2018-09-21
CN108024838B (zh) 2021-10-01
JP2022140730A (ja) 2022-09-27
EP4049612B1 (en) 2024-04-10
EP4349294A3 (en) 2024-06-19
US11636597B2 (en) 2023-04-25
CN113729977A (zh) 2021-12-03
US20230215007A1 (en) 2023-07-06
US10896506B2 (en) 2021-01-19
EP4049612A1 (en) 2022-08-31
JP7118890B2 (ja) 2022-08-16
US20200242767A1 (en) 2020-07-30
US20210073989A1 (en) 2021-03-11
EP4349294A2 (en) 2024-04-10
JP7503603B2 (ja) 2024-06-20
EP3413830B1 (en) 2022-06-15
EP3413830A1 (en) 2018-12-19
JP2019507623A (ja) 2019-03-22
WO2017139621A1 (en) 2017-08-17
EP3413830A4 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
CN108024838A (zh) 用于在图像引导手术中使用配准荧光透视图像的***和方法
JP7072603B2 (ja) 手術中のセグメンテーションについてのシステム及び方法
KR102503033B1 (ko) 화상 안내식 시술을 위한 정치 시스템 및 방법
US20240090963A1 (en) Systems and methods of continuous registration for image-guided surgery
US11382695B2 (en) Systems and methods for intelligently seeding registration
CN110087576B (zh) 用于在图像引导的程序中将细长装置配准到三维图像的***和方法
CN106714724B (zh) 用于规划多个介入程序的***和方法
CN104540439B (zh) 用于多个视觉***的配准的***和方法
CN108024693A (zh) 在图像引导医疗程序中利用跟踪的***和方法
CN110167477A (zh) 图像引导手术的配准***和方法
CN107660134A (zh) 图像引导手术记录的***和方法
CN107111684A (zh) 用于过滤局部化数据的***和方法
CN106794011A (zh) 用于在图像引导程序中显示病理数据的***和方法
CN107690302A (zh) 在图像引导的外科手术中的配准补偿的***和方法
CN107072717A (zh) 用于自适应输入映射的***和方法
CN108095777A (zh) 用于与外部成像集成的机器人医疗***的***和方法
CN110213988A (zh) 使用光学相干断层扫描感测的用于医疗程序的***和方法
CN115916088A (zh) 用于评估解剖模型的可配准性的***和相关联方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant