CN111526794B - 从ct图像中自动分割消融天线 - Google Patents

从ct图像中自动分割消融天线 Download PDF

Info

Publication number
CN111526794B
CN111526794B CN201780097942.8A CN201780097942A CN111526794B CN 111526794 B CN111526794 B CN 111526794B CN 201780097942 A CN201780097942 A CN 201780097942A CN 111526794 B CN111526794 B CN 111526794B
Authority
CN
China
Prior art keywords
image data
percutaneous tool
tool
percutaneous
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780097942.8A
Other languages
English (en)
Other versions
CN111526794A (zh
Inventor
唐祺
欧建新
D·吉若托
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Covidien LP
Original Assignee
Covidien LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Covidien LP filed Critical Covidien LP
Publication of CN111526794A publication Critical patent/CN111526794A/zh
Application granted granted Critical
Publication of CN111526794B publication Critical patent/CN111526794B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1477Needle-like probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • A61B2018/1823Generators therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • A61B2018/1869Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves with an instrument interstitially inserted into the body, e.g. needles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Electromagnetism (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Surgical Instruments (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

根据本公开提供了用于在图像数据中识别经皮工具的***和方法。一种示范性方法包含:接收患者身体的至少一部分的图像数据;在所述图像数据中识别穿过所述患者皮肤的经皮工具的进入点;分析包含穿过所述患者皮肤的所述经皮工具的所述进入点的所述图像数据的一部分,以识别***穿过所述患者皮肤的所述经皮工具的一部分;基于***穿过所述患者皮肤的所述经皮工具的已识别的部分来确定所述经皮工具的轨迹;基于已识别的进入点和所述经皮工具的确定的轨迹,在所述图像数据中识别所述经皮工具的剩余部分;以及在所述图像数据上显示所述经皮工具的已识别的部分。

Description

从CT图像中自动分割消融天线
技术领域
本公开涉及消融天线分割,更具体地涉及用于自动识别和分割计算机断层摄影图像中的消融天线的***、装置和方法。
背景技术
计算机断层摄影(CT)图像通常用于识别患者身体内的对象(诸如生理结构)以及医疗器械。可以在医疗手术之前和/或期间执行各种CT扫描,以识别此类对象并监视医疗手术的进展。然而,仅基于CT图像,可能无法始终部分或全部检测到对象。进一步地,对CT扫描的干扰可能由各种来源引起,并且此类干扰的减轻不总是可能的。下文描述了用于在CT图像中识别对象,尤其是医疗器械的改进的***、装置和方法。
发明内容
根据本公开的实施例提供了一种用于在图像数据中识别经皮工具的方法。在本公开的方面中,一种例示性方法包含:接收患者身体的至少一部分的图像数据;在所述图像数据中识别穿过患者皮肤的所述经皮工具的进入点;分析包含穿过所述患者皮肤的所述经皮工具的所述进入点的所述图像数据的一部分,以识别***穿过所述患者皮肤的所述经皮工具的一部分;基于***穿过所述患者皮肤的所述经皮工具的所述已识别的部分来确定所述经皮工具的轨迹;基于所述已识别的进入点和所述经皮工具的所述确定的轨迹,在所述图像数据中识别所述经皮工具的剩余部分;以及在所述图像数据上显示所述经皮工具的所述已识别的部分。
在本公开的另一方面中,该方法进一步包含接收经皮工具的特性数据,并且在图像数据中识别经皮工具的剩余部分进一步基于经皮工具的特性数据。
在本公开的另一方面中,经皮工具的特性数据包含经皮工具的长度、经皮工具的直径和经皮工具的柔性度量中的一个或多个。
在本公开的另一方面中,基于***穿过患者皮肤的经皮工具的已识别部分确定经皮工具的轨迹包含:确定***穿过患者皮肤的经皮工具的已识别的部分的***角度,以及基于***穿过患者皮肤的经皮工具的已识别部分的***角度来确定经皮工具的轨迹。
在本公开的又一方面中,该方法进一步包含:识别图像数据中的目标位置;确定从进入点到目标位置的路径;确定经皮工具的轨迹是否对应于所述路径;以及在图像数据上显示经皮工具的已识别的部分、轨迹和路径。
在本公开的另一方面中,如果确定经皮工具的轨迹不对应于路径,则该方法进一步包含确定轨迹和路径之间的差异,并且基于轨迹和路径之间确定的差异,显示用于调节经皮工具的角度的引导。
在本公开的另一方面中,经皮工具是消融针,并且该方法进一步包含:接收用于消融手术的配置设置;在图像数据中识别经皮工具的辐射部分的位置;基于配置设置和经皮工具的辐射部分的已识别的位置来确定投影的消融区域;以及在图像数据上显示投影的消融区域。
在本公开的另一方面中,该方法进一步包含:接收经皮工具的辐射部分已经被激活的指示;基于配置设置和经皮工具已经被激活的时间来确定消融手术的进展;以及基于消融手术的确定的进展来显示估计的经消融区域。
在本公开的另一方面中,该方法进一步包含:在图像数据中识别经皮工具的远端部分,确定在进入点和经皮工具的远端部分之间的图像数据中的线,以及在图像数据上显示确定的线。
在本公开的另一方面中,基于经皮工具的特性数据识别经皮工具的远端部分。
在本公开的还一方面中,基于包含在经皮工具中的电磁传感器识别经皮工具的远端部分。
在本公开的另一方面中,识别经皮工具的剩余部分包含:分析图像数据以识别沿确定的线的高强度区域;以及包含沿确定的线的长度并且在所确定的线的半径内的高强度区域的部分,并且该半径基于经皮工具的直径特性来确定。
在本公开的另一方面中,识别经皮工具的剩余部分进一步包含将沿确定的线的长度并且在确定的线的半径之外的高强度区域的部分排除在外。
根据本公开的实施例提供了一种用于在图像数据中识别经皮工具的***。在本公开的方面中,该***包含经皮工具、显示装置和计算装置,该计算装置包含处理器和存储指令的存储器,所述指令在由处理器执行时使计算装置:接收患者身体的至少一部分的图像数据;在所述图像数据中识别穿过所述患者皮肤的所述经皮工具的进入点;分析所述图像数据的包含穿过所述患者皮肤的所述经皮工具的所述进入点的一部分,以识别***穿过所述患者皮肤的所述经皮工具的部分;基于***穿过所述患者皮肤的所述经皮工具的所述已识别的部分来确定所述经皮工具的轨迹;基于所述经皮工具的所述已识别的进入点和所述确定的轨迹来识别所述图像数据中的所述经皮工具的剩余部分;以及在所述图像数据上显示所述经皮工具的所述已识别的部分。
根据本公开的实施例提供了一种存储用于在图像数据中识别经皮工具的程序的非暂时性计算机可读存储介质。在本公开的方面中,该程序包含指令,所述指令当由处理器执行时使计算装置:接收患者身体的至少一部分的图像数据;在所述图像数据中识别穿过患者皮肤的所述经皮工具的进入点;分析包含穿过所述患者皮肤的所述经皮工具的所述进入点的所述图像数据的一部分,以识别***穿过所述患者皮肤的所述经皮工具的一部分;基于***穿过所述患者皮肤的所述经皮工具的所述已识别的部分来确定所述经皮工具的轨迹;基于所述已识别的进入点和所述经皮工具的所述确定的轨迹,在所述图像数据中识别所述经皮工具的剩余部分;以及在所述图像数据上显示所述经皮工具的所述已识别的部分。
根据本公开的实施例提供了一种用于在图像数据中识别经皮工具的方法。在本公开的方面中,一种例示性方法包含:接收患者身体的至少一部分的图像数据;在所述图像数据中识别所述经皮工具的远端部分;识别在离所述经皮工具的所述已识别的潜在远端部分的预定距离内的所述经皮工具的潜在轴部分;确定从所述经皮工具的所述已识别的潜在远端部分到所述经皮工具的所述已识别的潜在轴部分的线;基于所述线,在所述图像数据中识别所述经皮工具的潜在剩余部分;以及在所述图像数据上显示所述经皮工具的所述已识别的潜在远端部分、所述已识别的潜在轴部分和所述已识别的潜在剩余部分。
在另一方面中,该方法进一步包含接收经皮工具的特性数据,并且在图像数据中识别经皮工具的剩余部分进一步基于经皮工具的特性数据。
在另一方面中,经皮工具的特性数据包含经皮工具的长度、经皮工具的直径和经皮工具的柔性度量中的一个或多个。
在另一方面中,该方法进一步包含确定经皮工具的已识别的潜在远端部分、已识别的潜在轴部分和已识别的潜在剩余部分是否对应于有效的经皮工具。
在又一方面中,该方法进一步包含:识别图像数据中的目标位置;确定从进入点到目标位置的路径;基于进入点和经皮工具***到患者身体内的角度确定经皮工具的轨迹;确定经皮工具的轨迹是否对应于路径;以及在图像数据上显示轨迹和路径。
在另一方面中,如果确定经皮工具的轨迹不对应于路径,则该方法进一步包含确定轨迹和路径之间的差异,并且基于轨迹和路径之间确定的差异,显示用于调节经皮工具的角度的引导。
在另一方面中,经皮工具是消融针,并且该方法进一步包含:接收用于消融手术的配置设置;在图像数据中识别经皮工具的辐射部分的位置;基于配置设置和经皮工具的辐射部分的已识别的位置来确定投影的消融区域;以及在图像数据上显示投影的消融区域。
在另一方面中,该方法进一步包含:接收经皮工具的辐射部分已经被激活的指示;基于配置设置和经皮工具已经被激活的时间来确定消融手术的进展;以及基于消融手术的确定的进展来显示估计的经消融区域。
在另一方面中,该方法进一步包含在图像数据中识别经皮工具进入患者身体的进入点,确定在进入点和经皮工具的已识别的潜在远端部分之间的图像数据中的线,以及在图像数据上显示确定的线。
在又一方面,识别经皮工具的潜在剩余部分包含:分析图像数据以识别沿确定的线的高强度区域;以及包含沿确定的线的长度并且在确定的线的半径内的高强度区域的部分,并且该半径基于经皮工具的直径特性来确定。
在另一方面中,识别经皮工具的潜在剩余部分进一步包含将沿确定的线的长度并且在确定的线的半径之外的高强度区域的部分排除在外。
在另一方面中,基于经皮工具的特性数据识别经皮工具的远端部分。
在又一方面中,基于包含在经皮工具中的电磁传感器识别经皮工具的远端部分。
根据本公开的实施例提供了一种用于在图像数据中识别经皮工具的***。在本公开的方面中,一种例示性***包含经皮工具、显示装置和计算装置,该计算装置包含处理器和存储指令的存储器,所述指令在由处理器执行时使计算装置:接收患者身体的至少一部分的图像数据;在图像数据中识别经皮工具的潜在远端部分;识别在离经皮工具的已识别的潜在远端部分预定距离内的经皮工具的潜在轴部分;确定从经皮工具的已识别的潜在远端部分到经皮工具的已识别的潜在轴部分的线;基于该线,在图像数据中识别经皮工具的潜在剩余部分;以及在图像数据上显示经皮工具的已识别的潜在远端部分、已识别的潜在轴部分和已识别的潜在剩余部分。
根据本公开的实施例提供了一种存储用于在图像数据中识别经皮工具的程序的非暂时性计算机可读存储介质。在本公开的方面中,该程序包含指令,所述指令当由处理器执行时使计算装置:接收患者身体的至少一部分的图像数据;在图像数据中识别经皮工具的潜在远端部分;识别在离经皮工具的已识别的潜在远端部分预定距离内的经皮工具的潜在轴部分;确定从经皮工具的已识别的潜在远端部分到经皮工具的已识别的潜在轴部分的线;基于该线,在图像数据中识别经皮工具的潜在剩余部分;以及在图像数据上显示经皮工具的已识别的潜在远端部分、已识别的潜在轴部分和已识别的潜在剩余部分。
在不脱离本公开的范围的情况下,可以对本公开的任何上述方面和实施例进行组合。
附图说明
下面参考附图描述本公开的各个方面和特征,其中:
图1是根据本公开的实施例的用于规划和进行微波消融手术的示范性***的示意图;
图2是根据本公开的实施例的形成图1的***的一部分的计算装置的简化框图;
图3A至图3C示出了根据本公开的实施例的用于规划和进行微波消融手术的示范性方法的流程图;
图4A和图4B示出了根据本公开的实施例的在消融手术期间可以由图2的计算装置显示的示范性图形用户界面;
图5A示出了根据本公开的实施例的可以在识别医疗器械的同时由图2的计算装置显示的示范性图形用户界面;
图5B示出了根据本公开的实施例的可以在识别医疗器械的同时由图2的计算装置显示的另一示范性图形用户界面;以及
图6示出了根据本公开的实施例的可以在导航医疗器械的同时由图2的计算装置显示的示范性图形用户界面。
具体实施方式
本公开大体上涉及用于在射线照相图像中识别和分割诸如消融针的医疗器械的***和方法。具体地,通过基于***穿过患者皮肤的医疗器械的轨迹来确定线和/或确定从器械的远端部分延伸的线,可以将在离该线预定距离内的射线照相图像中识别的高强度区域分割为医疗器械的一部分,并且可以将离该线大于预定距离的高强度区域排除在外。
可以在医疗手术期间获得诸如计算机断层摄影(CT)图像、磁共振成像(MRI)图像、锥束计算机断层摄影(CBCT)图像、二维(2D)和/或三维(3D)X射线图像、2D和/或3D超声图像和/或各种其它成像模态的射线照相图像,以识别诸如消融针的医疗器械在患者身体内的放置,特别是在治疗部位周围的放置。尽管在开放和/或腹腔镜手术期间可以经由视觉检查来确认医疗器械的放置,但是在经皮手术中这种视觉检查通常是不可能的。这样,射线照相成像技术用于引导和确认医疗器械的放置。然而,在射线照相图像中识别医疗器械不是完美的过程,并且由于射线照相图像的有限分辨率和清晰度,除医疗器械之外的结构和/或对象可能被错误地识别为医疗器械的一部分。进一步地,以穿过多个成像平面和/或图像切片或横穿显著干扰区域的角度***的医疗器械可能难以在射线照相图像中识别。
当在试图识别射线照相图像中的医疗器械时考虑医疗器械的诸如长度、直径、***点和/或轨迹之类的特性时,可以显著改善射线照相图像中的医疗器械的识别。例如,通过基于***穿过患者皮肤的医疗器械的轨迹来确定线,可以确定在关于医疗器械位置的图像数据中识别的哪些高强度区域应当被包含作为医疗器械的一部分,以及哪些高强度区域应当被排除。然后,当医疗器械的位置,可以提供用于将医疗器械导航到目标位置的引导。一旦医疗器械被放置在目标位置处,就可以基于消融针的辐射部分的位置来确定投影的消融区域,并且可以将投影的消融区域显示给临床医生,使得临床医生可以相对于射线照相图像显现消融区域,从而确定消融区域是否包围临床医生正在寻求治疗的整个区域。
用于在诸如CT图像的射线照相图像中自动识别和分割经皮工具方法、提供用于将经皮工具导航到目标位置的引导方法以及监视治疗手术(诸如消融手术)的进展的方法可以实施为电磁导航(EMN)***的一部分。通常,在实施例中,EMN***可以用于通过确定到目标位置(诸如治疗位置)的路径,将消融针***到患者身体内以及将消融针定位在目标位置附近来规划和执行对患者身体的区域(诸如患者的肺)的治疗。EMN***可以被配置为显示患者身体的各种视图,包含射线照相图像和/或基于放射图像生成的患者身体的三维(3D)模型。
参照图1,示出了可用于在射线照相图像中自动识别和分割消融针的***100。***100可以包含:显示装置110;包含电磁(EM)场发生器121的工作台120;包含远端辐射部分131的治疗工具130;连接到超声工作站150的超声传感器140;蠕动泵160;以及附接到微波发生器170或与其可操作地通信的计算装置180。显示装置110被配置为输出与医疗手术的执行有关的指令、图像和消息。
工作台120可以是例如手术台或其它适于在医疗手术中使用的工作台,包含EM场发生器121。EM场发生器121用于在医疗手术期间产生EM场,并且形成EM跟踪***的一部分,该EM跟踪***用于例如通过跟踪包含在和/或联接至治疗工具130的一个或多个EM传感器的位置来跟踪医疗器械在患者身体内的位置。EM场发生器121可以包含各种部件,诸如放置在工作台120或病床下面或集成到其中的专门设计的衬垫。此类EM跟踪***的实例是由Northern Digital Inc.销售的AURORATM***。
治疗工具130是用于经皮进入和诊断和/或治疗目标位置处的组织的医疗器械。例如,治疗工具130可以是具有用于消融组织的微波消融针或天线的消融针。在其它实施例中,治疗工具130可以是用于在目标位置获得组织样本的活组织检查工具。本领域技术人员将认识到,在不脱离本公开的范围的情况下,也可以使用各种其它类型的经皮工具,包含例如用于将导管或其它工具引导到治疗部位的插管。在治疗工具130是消融针的实施例中,治疗工具130包含远端辐射部分131,并且可以进一步包含或联结至到一个或多个EM传感器,该EM传感器使得EM跟踪***能够跟踪患者身体内治疗工具130的位置、定位和方位(也称为“姿态”)。如下面进一步详细解释的,治疗工具130可被描述为具有多个部分。例如,当将治疗工具130***患者身体内时,可以将治疗工具130描述为具有***患者身体内的部分和患者体外的部分。***到患者身体内的治疗工具130的部分可以进一步被分成***穿过患者皮肤的部分(即,治疗工具130的与患者皮肤的各层接触的部分)和***到患者身体内的剩余部分(即,除了与患者皮肤的各层接触的部分之外的治疗工具130的剩余部分)。同样地,***患者身体内的治疗工具130的剩余部分可以进一步被分成远端部分(其可以包含远端辐射部分131)和近端部分。远端部分可以是治疗工具130***患者身体内最远的部分。
蠕动泵160可以被配置为在医疗手术期间泵送流体通过治疗工具130以冷却治疗工具130。微波发生器170可以被配置为经由远端辐射部分131将微波能量输出到治疗工具130。计算装置180可以是例如膝上型计算机、台式计算机、平板计算机或其它类似装置。计算装置180可以被配置为控制微波发生器170、蠕动泵160、电源(未示出)和/或与***100相关或形成***100的一部分的任何其它附件和***装置。在一些实施例中,微波发生器170控制蠕动泵160的操作。虽然本公开描述了***100在手术环境中的使用,但是还可以预见,***100的一些或全部部件可以用于可替换的设置,例如成像实验室和/或办公室设置。
除了EM跟踪***之外,还可以通过使用CT和/或超声成像来显现在医疗手术期间使用的手术器械,诸如治疗工具130。诸如超声棒的超声传感器140可以用于在医疗手术期间对患者身体进行成像,以显现诸如治疗工具130的外科器械在患者身体内的位置。超声传感器140可以具有嵌入在超声棒内或附接在超声棒上的EM跟踪传感器,例如夹式传感器或粘贴传感器。超声传感器140可以相对于治疗工具130定位,使得治疗工具130与超声图像平面成一定角度,从而使得临床医生能够显现治疗工具130与超声图像平面和与被成像的对象的空间关系。进一步地,EM跟踪***还可以跟踪超声传感器140的位置。在一些实施例中,一个或多个超声传感器140可以放置在患者身体内。EM跟踪***然后可以跟踪在患者身体内的此类超声传感器140和治疗工具130位置。超声工作站150可以用于配置、操作和/或查看由超声传感器140捕获的图像。同样地,计算装置180可以用于直接地或经由超声工作站150中继来配置、操作和/或查看由超声传感器140捕获的图像。
在执行医疗手术期间,也可以使用各种其它的外科器械或外科工具,诸如装置、外科缝合器等。在治疗工具130是微波消融针的实施例中,微波消融针用于通过使用微波能量加热组织以使癌细胞变性或杀死癌细胞来消融病灶或肿瘤(以下称为“目标位置”)。包含此类消融针的***的构造和使用在以下文件中更全面地进行了描述:由Dickhans于2014年8月26日提交的名称为“MICROWAVE ABLATION SYSTEM(微波消融***)”的共同未决的美国专利申请公开号2016/0058507、由Latkow等人于2013年3月15日提交的名称为“MICROWAVE ABLATION CATHER AND METHOD OF UTILIZING SAME(微波消融方法及其应用方法)”的美国专利第9,247,992号,以及由Brannan等人于2013年3月15日提交的名称为“MICROWAVE ENERGY-DELIVERY DEVICE AND SYSTEM(微波能量输送装置和***)”的美国专利第9,119,650号,其中的每一个的全部内容通过引用并入本文。
如上所述,治疗工具130在患者身体内的位置可以在医疗手术期间被跟踪。跟踪治疗工具130的位置的示例性方法是通过使用EM跟踪***,该***通过被联接至或结合至治疗工具130中的跟踪传感器(诸如EM传感器)来跟踪治疗工具130的位置。可以使用各种类型的传感器,诸如印刷传感器,在由Greenburg等人于2015年10月22日提交的名称为“MEDICALINSTRUMENT WITH SENSOR FOR USE IN A SYSTEMAND METHOD FORELECTROMAGNETIC NAVIGATION(用于电磁导航***和方法的带传感器的医疗器械)”的共同未决的美国专利申请公开号2016/017487314/919,950中更全面地描述了该印刷传感器的构造和使用,该专利申请的全部内容通过引用并入本文。类似于上述***100的经皮治疗***在由Girotto等人于2016年4月15日提交的名称为“MICROWAVE ABLATION PLANNING ANDPROCEDURE SYSTEMS(微波消融规划和手术***)”的共同未决的美国专利申请公开号2016/0317224中被进一步描述,该专利申请的全部内容通过引用并入本文。
虽然上述***100使用微波发生器170来向治疗工具130提供微波能量,但是本领域技术人员将理解,在不脱离本公开的范围的情况下,可以使用各种其它类型的发生器和工具。例如,从RF发生器接收RF能量的射频(RF)消融工具可以代替上述的微波发生器和消融工具。
参考图2,示出了计算装置180的简化框图。计算装置180可以包含至少一个存储器202、一个或多个处理器204、显示器206、网络界面208、一个或多个输入装置210,和/或输出模块212。存储器202可以存储应用程序281和/或图像数据214。应用程序281在由处理器204执行时可使显示器206显示用户界面216。应用程序281还可以提供治疗工具130相对于目标位置的位置指示,以及消融区域的大小、形状和位置,如下面进一步描述的。
存储器202可包含用于存储数据和/或软件的任何非暂时性计算机可读存储介质,该数据和/或软件可由处理器204执行并控制计算装置180的操作。在实施例中,存储器202可以包含一个或多个固态存储装置,诸如闪存芯片。可替换地,或者除了一个或多个固态存储装置之外,存储器202可以包含通过大容量存储控制器(未示出)和通信总线(未示出)连接到处理器204的一个或多个大容量存储装置。尽管此处所包含的计算机可读介质的描述指的是固态存储装置,但本领域的技术人员应理解,计算机可读存储介质可以是可由处理器204访问的任何可用介质。即,计算机可读存储介质可包含以用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据等)的任何方法或技术实现的非暂时性、易失性和非易失性、可移动和不可移动介质。例如,计算机可读存储介质可包含随机存取存储器(RAM)、只读存储器(ROM)、电可编程序只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM)、闪存或其它固态存储器技术、只读光盘驱动器(CD-ROM)、数字化视频光盘(DVD)、蓝光或其它光存储、磁带盒、磁带、磁盘存储或其它磁存储装置,或可用于存储所需信息并可由计算装置180访问的任何其它介质。
网络界面208可以被配置为连接到诸如局域网(LAN)的网络,该局域网由有线网络和/或无线网络、广域网(WAN)、无线移动网络、蓝牙网络和/或因特网组成。输入装置210可以是用户可通过其与计算装置180交互的任何装置,例如鼠标、键盘、脚踏开关、触摸屏和/或语音接口。输出模块212可以包含任何连接端口或总线,例如并行端口、串行端口、通用串行总线(USB)或本领域技术人员已知的任何其它类似连接端口。
现在转向图3A至图3C,示出了根据本公开的实施例的示范性方法300的流程图,该方法300用于自动识别和分割射线照相图像中的消融针,并提供用于将消融针导航到目标位置的引导。方法300可以例如通过使用上述***100来执行。具体地,在计算装置180上执行的应用程序281可用于执行方法300的步骤或使***100的其它部件执行方法300的步骤。尽管以下以示范性顺序描述了方法300的各个步骤,但是本领域技术人员将认识到,在不脱离本公开的范围的情况下,可以以不同的顺序执行、重复和/或省略这些步骤中的一些或全部。
从图3A的步骤S302开始,应用程序281接收患者身体的图像数据。图像数据可以是射线照相图像数据,诸如CT图像数据、MRI图像数据、CBCT图像数据、X射线图像数据、超声图像数据等。出于示范性的目的,将在下面提供的描述中使用CT图像数据。图像数据可以直接从诸如CT扫描仪的成像装置接收,和/或可以预先存储在计算装置180的存储器202中。可以在医疗手术开始时和/或在执行医疗手术期间接收图像数据。例如,如下面进一步描述的,当需要识别消融针时,可以在医疗手术期间的不同时间接收多组图像数据。
附加地,图像数据可以用于手术前的目的,诸如用于在步骤S304处识别图像数据中的患者身体,并在步骤S306处生成患者身体的3D模型。患者身体的3D模型可以包含患者身体的一个或多个部分,并且特别地,可以包含患者身体的将进行医疗手术的部分,例如目标位置所在的部分。在下面描述的实例中,图像数据包含患者胸部的一部分,因此在步骤S306处生成的3D模型是患者胸部的一部分。
在生成3D模型之后,或在生成3D模型时,在步骤S308处,应用程序281处理图像数据以识别目标位置。在实施例中,临床医生诸如经由输入装置210或计算装置180提供输入以标识目标位置。例如,临床医生可以检查在步骤S302处接收的图像数据和/或在步骤S306处生成的3D模型,并且选择或标记一个或多个目标位置。应用程序281可以进一步确定一个或多个推荐进入点,在该推荐进入点,治疗工具130应当***穿过患者皮肤以使得能够进入在步骤S308处识别的目标位置。然后,应用程序281可以使显示装置110和/或显示器206显示使治疗工具130***穿过患者皮肤的引导。
此后,在步骤S310处,应用程序281确定在图像数据中是否已经识别出治疗工具130。如果确定没有识别出治疗工具130(在步骤S310处为“否”),则处理进行到步骤S350(下面参照图3B进行描述))可替换地,如果确定治疗工具130已经被识别(步骤S310处为“是”),则处理进行到步骤S312。
现在转到图3B,在步骤S350处,应用程序281选择要使用的消融针检测算法。可以使用各种算法来检测图像数据中的消融针。为了本公开的目的,将描述两种消融针检测算法。例如,步骤S352至S358和步骤S370至S376可以对应于第一示范性算法,而步骤S362至S368和步骤S370至S376可以对应于第二示范性算法。然而,本领域技术人员将认识到,在不脱离本公开的范围的情况下,也可以使用各种其它消融针检测算法。
第一示范性算法的处理可以开始于步骤S352,其中应用程序281接收治疗工具130的特性数据。特性数据可以包含所使用的治疗工具130的类型(诸如消融针)、治疗工具130的长度、治疗工具130的直径、治疗工具160的柔性度量(诸如杨氏模量)、治疗工具130中包含的一个或多个EM传感器的位置、治疗工具130中的远端辐射部分131的位置、射线可透过的基准标记的位置和/或设计为在超声成像下可见的特征等。特性数据可以由应用程序281从存储器202访问,可以由临床医生经由输入装置210输入,和/或可以由治疗工具130和/或发生器170提供给应用程序281。
此后,在步骤S354处,应用程序281识别治疗工具130的一个或多个潜在远端部分。例如,应用程序281可以处理在步骤S302处接收的图像数据和/或随后在整个医疗手术中接收的附加图像数据,以基于诸如在步骤S352处接收的治疗工具130的特性数据来识别治疗工具130的一个或多个远端部分。在实施例中,应用程序281可以仅处理图像数据一部分,其包含患者身体、在步骤S308处确定的目标位置附近的区域,和/或在步骤S308处确定的推荐进入点附近的区域。例如,应用程序281可以将一个或多个具有类似于重叠的形状的高强度像素区域识别为治疗工具130的潜在远端部分。在实施例中,应用程序281可以确定治疗工具130***到患者身体内的深度,然后可以设法识别治疗工具130的潜在远端部分,该潜在远端部分与在步骤S308处确定的推荐进入点大约有相应的距离。治疗工具130***患者身体内的深度可以基于治疗工具130上的线和/或标记(图1中未示出)和/或包含在治疗工具130中的一个或多个EM传感器来确定。附加地或可替换地,应用程序281可以基于一个或多个EM传感器、射线可透过的基准标记和/或包含在治疗工具130中的其它射线不可透过的元件的位置来识别治疗工具130的远端部分。例如,包含在治疗工具130中的一个或多个EM传感器和/或射线可透过的基准标记相对于治疗工具130的远端部分的位置可以是已知的,因此治疗工具130的远端部分的位置可以基于一个或多个EM传感器和/或射线可透过的基准标记的检测位置来确定。
接下来,在步骤S356处,应用程序281识别出在步骤S354处识别出的治疗工具130的潜在远端部分附近的治疗工具130的一个或多个可能的轴部分。例如,应用程序281可以进一步处理图像数据以识别在治疗工具130的已识别的潜在远端部分的预定距离内的高强度像素区域。在实施例中,应用程序281可以识别治疗工具130的已识别的潜在远端部分的48毫米(mm)内的高强度像素区域。在进一步的实施例中,应用程序281可以识别距治疗工具130的已识别的潜在远端部分大于44mm但小于48mm的高强度像素区域。
此后,在步骤S358处,应用程序281确定从在步骤S354处识别的治疗工具130的潜在远端部分延伸通过在步骤S356处识别的治疗工具130的潜在轴部分的线。在实施例中,应用程序281可以确定从治疗工具130的已识别的潜在远端部分中的每一个延伸到治疗工具130的其对应的已识别的潜在轴部分中的每一个的线。在进一步的实施例中,应用程序281可以仅确定一条线,该线从治疗工具130的确定的潜在远端部分中的每一个延伸到治疗工具130的对应的确定的潜在轴部分,潜在轴部分与在步骤S308处确定的推荐进入点中的至少一个一致。例如,如图5A所示,应用程序281可以确定图像数据中从已识别的潜在远端部分550到潜在已识别的轴部分延伸到推荐进入点560的线525。可替换地或附加地,应用程序281可以基于图像数据和/或特性数据来确定图像数据中的对应于工具530(表示治疗工具130)的轮廓的多条线540。
接下来,在步骤S370处,应用程序281沿着每条确定的线525识别图像数据中的高强度区域。例如,应用程序281可以沿着每条确定的线525的长度识别图像数据中的亮点和/或区域。高强度区域可以表示金属对象,诸如治疗工具130。然后,在步骤S372处,应用程序281包含每条确定的线525的半径内的高强度区域的部分,作为图像数据中已识别的潜在治疗工具130的一部分。每条确定的线525的半径内的高强度区域的部分可以对应于治疗工具130的潜在剩余部分。例如,应用程序281可以包含在基于作为已识别的潜在治疗工具130的一部分的特性数据(在步骤S352处接收的)所确定的半径内的全部高强度区域。在应用程序281在步骤S370处确定多条线540的实施例中,应用程序281可以仅包含治疗工具130的轮廓中包含的区域内的高强度区域(如确定的线540所示),作为已识别的潜在治疗工具130的一部分。
同样地,在步骤S374处,应用程序281将每条确定的线525的半径之外的高强度区域的部分从图像数据中已识别的潜在治疗工具130中排除。在应用程序281在步骤S370处确定多条线540的实施例中,应用程序281可以将不在包含在治疗工具130的轮廓中的区域内的所有高强度区域(如确定的线540所示)排除在已识别的潜在治疗工具130的一部分之外。应用程序281可以进一步填充距每条确定的线525的半径内的区域中的任何间隙或遗漏,且因此可预期被包含在已识别的潜在治疗工具130中。
接下来,在步骤S376处,应用程序281确定每个已识别的潜在治疗工具130是有效还是无效治疗工具130。例如,如上所述,确定从治疗工具130的已识别的潜在远端部分中的每一个延伸到治疗工具130的对应的已识别的潜在轴部分的线。因此,可识别多个潜在治疗工具130。应用程序281可以进一步基于在步骤S352处接收的特性数据来处理图像数据,以自动地和/或经由来自临床医生的输入来确定在图像数据中识别的潜在治疗工具130中的哪一个(如果有的话)是有效治疗工具130。在实施例中,多个治疗工具130可以被***到患者身体内并被同时识别,因此在一些实施例中,应用程序281可以在步骤S376处确定多个潜在治疗工具130是有效治疗工具130。在全部的潜在治疗工具130被分析并确定为有效或无效之后,处理返回到步骤S310,在步骤S310中再次确定在图像数据中是否已经识别出治疗工具130。
第二示范性算法的处理可以开始于步骤S362,其中应用程序281接收治疗工具130的特性数据。与第一示范性算法一样,特性数据可以包含所使用的治疗工具130的类型(诸如消融针)、治疗工具130的长度、治疗工具130的直径、治疗工具160的柔性度量(诸如杨氏模量)、治疗工具130中包含的一个或多个EM传感器的位置、治疗工具130中的远端辐射部分131的位置、射线可透过的基准标记的位置和/或设计为在超声成像下可见的特征等。特性数据可以由应用程序281从存储器202访问,可以由临床医生经由输入装置210输入,和/或可以由治疗工具130和/或发生器170提供给应用程序281。
此后,应用程序281可以接收患者身体的附加图像数据,并且在步骤S364处处理该附加图像数据,以识别***穿过患者皮肤的治疗工具130的一部分。例如,应用程序281可以分析在步骤S308处确定的推荐进入点附近的区域的图像数据,以识别***穿过患者皮肤的治疗工具130的部分。应用程序281可以基于治疗工具130的已识别的部分进一步确定治疗工具130穿过患者皮肤的***角度,并且因此可以基于治疗工具130穿过患者皮肤的进入点和***角度来确定治疗工具130的轨迹。例如,如图5B所示,应用程序281可以分析患者身体(“P”)的图像数据,以识别***穿过身体P的皮肤的工具530的部分510。
接下来,在步骤S366处,应用程序281在图像数据中识别治疗工具130的潜在远端部分。类似于步骤S354,应用程序281可以处理在步骤S302处接收的图像数据和/或随后在整个医疗手术中接收的附加图像数据,以基于诸如在步骤S362处接收的治疗工具130的特性数据来识别治疗工具130的一个或多个远端部分。在实施例中,应用程序281可以仅处理图像数据的一部分,其包含患者身体、在步骤S308处确定的目标位置附近的区域和/或在步骤S364处确定的进入点附近的区域。例如,应用程序281可以将一个或多个具有类似于重叠的形状的高强度像素区域识别为治疗工具130的潜在远端部分。在实施例中,应用程序281可以确定治疗工具130***到患者身体内的深度,然后可以设法识别治疗工具130的潜在远端部分,该潜在远端部分与在步骤S364处确定的进入点大约有相应的距离。治疗工具130***患者身体内的深度可以基于治疗工具130上的线和/或标记(图1中未示出)和/或包含在治疗工具130中的一个或多个EM传感器来确定。附加地或可替换地,应用程序281可以基于一个或多个EM传感器、射线可透过的基准标记和/或包含在治疗工具130中的其它射线不可透过的元件的位置来识别治疗工具130的远端部分。例如,包含在治疗工具130中的一个或多个EM传感器和/或射线可透过的基准标记相对于治疗工具130的远端部分的位置可以是已知的,因此治疗工具130的远端部分的位置可以基于一个或多个EM传感器和/或射线可透过的基准标记的检测位置来确定。
此后,在步骤S368处,应用程序281确定在步骤S364处确定的进入点与在步骤S366处识别的治疗工具130的潜在远端部分中的每一个之间的线。例如,如图5B所示,基于在步骤S362处接收的治疗工具130的特性数据,应用程序281可以确定图像数据中的线525,其沿着工具530(表示治疗工具130)的中心轴从在患者皮肤中识别的治疗工具130的部分510延伸到治疗工具130的已识别的潜在远端部分。线525的角度和/或轨迹可以基于在步骤S364处确定的***穿过患者皮肤的治疗工具130的角度和/或轨迹。可替换地或附加地,应用程序281可以基于图像数据和/或特性数据来确定图像数据中的对应于工具530(表示治疗工具130)的轮廓的多条线540。此后,处理进行到步骤S370,其如以上在第一示范性算法的描述中所描述地执行。
现在返回到图3A,在步骤S312处,应用程序281确定***穿过患者皮肤的治疗工具130的进入点(如在步骤S308和/或步骤S364处识别的)到在步骤S308处识别的目标位置的路径。例如,如图6所示,应用程序281可以确定从进入点到目标605的路径627。
此后,在步骤S314处,应用程序281确定治疗工具130是否沿着在步骤S312处确定的路径。在实施例中,应用程序281可以接收患者身体的一个或多个部分的进一步的图像数据,并且可以确定治疗工具130穿过患者皮肤的***角度,并因此确定治疗工具130的轨迹。然后,应用程序281可以将治疗工具130的轨迹与在步骤S312处确定的路径进行比较,以确定治疗工具130的轨迹是否对应于在步骤S312处确定的路径,从而确定治疗工具130是否沿着在步骤S312处确定的路径。例如,如图6所示,应用程序281可以确定工具630(表示治疗工具130)的轨迹625。应用程序281可以进一步确定工具630的轨迹625与路径627之间的差异。如果确定治疗工具130没有沿着该路径(在步骤S314处为“否”),则处理进行到步骤S316,其中应用程序281生成并使显示装置110和/或显示器206显示用于调节治疗工具130的位置和/或角度的引导。例如,如图6所示,应用程序281可以生成指令以指导临床医生如何调整治疗工具130的位置和/或将治疗工具130导航到目标位置(由目标605表示)。在图6所示的实例中,应用程序281使显示装置110和/或显示器206显示引导650,该引导650指示临床医生将治疗工具130的角度在箭头635所示的方向上调整10度,并将治疗工具130进一步***患者身体内5cm。此后,处理返回到步骤S314,其中应用程序281再次确定治疗工具130是否沿着在步骤S312处确定的路径。如果在步骤S314处确定治疗工具130沿着路径(步骤S314处为“是”),则处理进行到步骤S318。
在步骤S318处,应用程序281确定治疗工具130是否已经到达目标位置。例如,应用程序281可以接收患者身体的该部分的另外的图像数据,并且可以再次在图像数据中识别治疗工具130,如上所述,以确定治疗工具130是否已经被放置在目标位置。附加地或可替换地,应用程序281可以例如经由计算装置180的输入装置210从临床医生接收输入,指示治疗工具130已经被放置在目标位置。如果应用程序281确定治疗工具130还没有到达目标位置(步骤S318处为“否”),则处理返回到步骤S314。可替换地,如果应用程序281确定治疗工具130已经到达目标位置(步骤S318处为“是”),则处理进行到步骤S320。
现在转到图3C,在步骤S320处,应用程序281可以接收消融手术的配置设置。在一些实施例中,在医疗手术中较早地接收配置设置,或者在医疗手术开始之前对配置设置进行预先配置。配置设置可以包含消融手术的位置、在消融手术的位置附近的已识别的解剖结构、消融手术的持续时间、在消融手术期间将由治疗工具130输出的瓦数、建模的消融手术性能等。配置设置可以被预先配置,例如被包含在由临床医生在医疗手术开始之前配置的治疗计划中或基于该治疗计划,和/或可以由临床医生在医疗手术开始时或期间(例如)通过使用计算装置180的输入装置210来输入。
接下来,在步骤S322处,应用程序281识别辐射部分131的治疗工具130。例如,应用程序281可以基于在步骤S321处接收的治疗工具130的特性数据来确定辐射部分131的位置。此后,在步骤S324处,应用程序281确定投影的消融区域。可以基于已识别的辐射部分131的位置和在步骤S320处接收的消融手术的配置设置来确定投影的消融区域。然后,在步骤S326处,应用程序281可以使计算装置180的显示器206和/或显示装置110显示投影的消融区域。投影的消融区域可以显示在图像数据上。可替换地或另外,可以在步骤S306处生成的3D模型上显示投影的消融区域。例如,如图6所示,投影的消融区域617可以显示为以工具630的辐射部分615(表示辐射部分131)为中心。如本领域技术人员所理解的,在医疗手术期间,投影的消融区域617可以选择性地显示在任何点,并且不必限于仅在将治疗工具放置在目标位置之后显示。因此,如图6所示,投影的消融区域617在工具630正被导航到目标605时被显示,使得临床医生可以基于治疗工具130的当前位置和消融手术的配置设置看到在投影的消融区域内的组织区域。
此后,在步骤S328处,确定治疗工具130的辐射部分131是否已经被激活。例如,治疗工具130和/或发生器170可以通知计算装置180,并因此通知应用程序281以下内容:按钮、触发器和/或激活开关已经被激活,允许微波能量从治疗工具130的辐射部分131发射。如果确定辐射部分131尚未被激活(步骤S328处为“否”),则处理进行到步骤S334。
可替换地,如果确定辐射部分131已被激活(步骤S328处为“是”),则处理进行到步骤S330,在步骤S330处,应用程序281确定消融手术的进展。可以基于在步骤S320处接收的配置设置、在步骤S326处确定的投影的消融区域和/或从辐射部分被激活起经过的时间来确定消融手术的进展。此后,在步骤S332处,应用程序281可以显示消融手术的估计进展。例如,应用程序281可以使计算装置180的显示器206和/或显示装置110显示消融区域的估计进展。类似于在步骤S326处显示的投影的消融区域617,可以在图像数据和/或3D模型上显示消融手术的估计进展。
接下来,在步骤S334处,应用程序281确定消融手术是否已经完成。确定消融手术是否已经完成可以基于在步骤S332处确定的消融手术的估计进展和/或在步骤S320处接收的配置设置。如果确定消融手术尚未完成(步骤S334处为“否”),则处理返回到步骤S328。可替换地,如果确定消融手术已经完成(步骤S334处为“是”),则处理结束。
现在转向图4A,示出了示范性图形用户界面(GUI)400,其可以在上述医疗手术期间的不同时间由计算装置180和/或显示装置110显示。GUI 400可以包含或基于在步骤S302处接收的图像数据和/或在图3的方法300的步骤S304处生成的3D模型。GUI 400可以示出生理结构410和治疗工具130的已识别的部分420。生理结构410可以是在图像数据和/或3D模型中可识别的与医疗手术相关的任何生理结构,并且可以基于临床医生的偏好被选择性地显示。
图4B示出了另一示范性GUI 400,其包含相同的生理结构410。图4B的GUI 400示出了实施例,其中多个治疗工具被同时***患者身体内,并且因此包含治疗工具130的多个已识别的部分420a、420b。GUI 400还示出了治疗工具130的已识别的部分420a的已识别的辐射部分425。
装置、包含此类装置的***以及使用此类装置的方法的详细实施例如本文所述。然而,这些详细实施例仅仅是本公开的实例,其可以以各种形式实施。因此,本文公开的具体结构和功能细节不应被理解为限制性的,而是应理解为仅仅作为权利要求的基础以及作为允许本领域技术人员以适当的详细结构不同地使用本公开的代表性基础。

Claims (20)

1.一种用于在图像数据中识别经皮工具的***,所述***被配置为执行包括以下各项的步骤:
接收患者身体的至少一部分的图像数据;
在所述图像数据中识别穿过患者皮肤的经皮工具的进入点;
分析包含穿过所述患者皮肤的所述经皮工具的所述进入点的所述图像数据的一部分,以识别与所述患者皮肤的一层或多层接触的所述经皮工具的一部分;
基于与所述患者皮肤的一层或多层接触的所述经皮工具的已识别的部分来确定所述经皮工具的轨迹;
基于已识别的进入点和所述经皮工具的确定的轨迹,在所述图像数据中识别所述经皮工具的***在所述患者的身体内的除了与所述患者皮肤的一层或多层接触的所述一部分之外的剩余部分;以及
在所述图像数据上显示所述经皮工具的已识别的部分。
2.根据权利要求1所述的***,其进一步被配置为执行以下步骤:接收所述经皮工具的特性数据,其中在所述图像数据中识别所述经皮工具的所述剩余部分进一步基于所述经皮工具的所述特性数据。
3.根据权利要求2所述的***,其中所述经皮工具的所述特性数据包含以下中的一个或多个:
所述经皮工具的长度;
所述经皮工具的直径;以及
所述经皮工具的柔性度量。
4.根据前述权利要求中任一项所述的***,其中基于与所述患者皮肤的一层或多层接触的所述经皮工具的已识别的部分来确定所述经皮工具的轨迹的步骤包含以下步骤:
确定与所述患者皮肤的一层或多层接触的所述经皮工具的已识别的部分的***角度;以及
基于与所述患者皮肤的一层或多层接触的所述经皮工具的已识别的部分的所述***角度来确定所述经皮工具的轨迹。
5.根据前述权利要求中任一项所述的***,其中所述***进一步被配置为执行包括以下各项的步骤:
识别所述图像数据中的目标位置;
确定从所述进入点到所述目标位置的路径;
确定所述经皮工具的所述轨迹是否对应于所述路径;以及
在所述图像数据上显示所述经皮工具的已识别的部分、所述轨迹和所述路径。
6.根据权利要求5所述的***,其中如果确定所述经皮工具的所述轨迹不对应于所述路径,则所述***进一步被配置为执行包括以下各项的步骤:
确定所述轨迹与所述路径之间的差异;以及
基于所述轨迹和所述路径之间的确定的差异,显示用于调节所述经皮工具的角度的引导。
7.根据前述权利要求中任一项所述的***,其中所述***进一步被配置为执行包括以下各项的步骤:
接收用于消融手术的配置设置;
在所述图像数据中识别所述经皮工具的辐射部分的位置;
基于所述配置设置和所述经皮工具的所述辐射部分的已识别的位置来确定投影的消融区域;以及
在所述图像数据上显示所述投影的消融区域。
8.根据权利要求7所述的***,其中所述***进一步被配置为执行包括以下各项的步骤:
接收所述经皮工具的所述辐射部分已经被激活的指示;
基于所述配置设置和所述经皮工具已经被激活的时间来确定消融手术的进展;以及
基于所述消融手术的确定的进展来显示估计的经消融区域。
9.根据前述权利要求中任一项所述的***,其中所述***进一步被配置为执行包括以下各项的步骤:
在所述图像数据中识别所述经皮工具的远端部分;
确定所述进入点与所述经皮工具的所述远端部分之间的所述图像数据中的线;以及
在所述图像数据上显示确定的线。
10.根据权利要求9所述的***,其中基于所述经皮工具的特性数据来识别所述经皮工具的所述远端部分。
11.根据权利要求9或者10所述的***,其中基于包含在所述经皮工具中的电磁传感器来识别所述经皮工具的所述远端部分。
12.根据权利要求9-11中任一项所述的***,其中识别所述经皮工具的所述剩余部分的步骤包含以下步骤:
分析所述图像数据以识别沿确定的线的高强度区域;以及
包含沿确定的线的长度并且在确定的线的半径内的所述高强度区域的部分,其中基于所述经皮工具的直径特性来确定所述半径。
13.根据权利要求12所述的***,其中识别所述经皮工具的所述剩余部分的步骤进一步包含将沿确定的线的所述长度并且在确定的线的所述半径之外的所述高强度区域的部分排除在外的步骤。
14.一种存储用于在图像数据中识别经皮工具的程序的非暂时性计算机可读存储介质,所述程序包含指令,所述指令在由处理器执行时使计算装置:
接收患者身体的至少一部分的图像数据;
在所述图像数据中识别穿过患者皮肤的所述经皮工具的进入点;
分析包含穿过所述患者皮肤的所述经皮工具的所述进入点的所述图像数据的一部分,以识别与所述患者皮肤的一层或多层接触的所述经皮工具的一部分;
基于与所述患者皮肤的一层或多层接触的所述经皮工具的已识别的部分来确定所述经皮工具的轨迹;
基于已识别的进入点和所述经皮工具的确定的轨迹,在所述图像数据中识别所述经皮工具的***在所述患者的身体内的除了与所述患者皮肤的一层或多层接触的所述一部分之外的剩余部分;以及
在所述图像数据上显示所述经皮工具的已识别的部分。
15.一种用于在图像数据中识别经皮工具的***,所述***包括:
经皮工具;
显示装置;以及
计算装置,其包含:
处理器;以及
存储指令的存储器,所述指令在由所述处理器执行时使所述计算装置:
接收患者身体的至少一部分的图像数据;
在所述图像数据中识别穿过患者皮肤的所述经皮工具的进入点;
分析包含穿过所述患者皮肤的所述经皮工具的所述进入点的所述图像数据的一部分,以识别与所述患者皮肤的一层或多层接触的所述经皮工具的一部分;
基于与所述患者皮肤的一层或多层接触的所述经皮工具的已识别的部分来确定所述经皮工具的轨迹;
基于已识别的进入点和所述经皮工具的确定的轨迹,在所述图像数据中识别所述经皮工具的***在所述患者的身体内的除了与所述患者皮肤的一层或多层接触的所述一部分之外的剩余部分;以及
在所述图像数据上显示所述经皮工具的已识别的部分。
16.根据权利要求15所述的***,其中所述指令在由所述处理器执行时使所述计算装置:
在所述图像数据中识别目标位置;
确定从所述进入点到所述目标位置的路径;
确定所述经皮工具的所述轨迹是否对应于所述路径;以及
在所述图像数据上显示所述经皮工具的已识别的部分、所述轨迹和所述路径。
17.根据权利要求16所述的***,其中如果确定所述经皮工具的所述轨迹不对应于所述路径,那么所述指令在由所述处理器执行时使所述计算装置:
确定所述轨迹与所述路径之间的差异;以及
基于所述轨迹和所述路径之间的确定的差异,显示用于调节所述经皮工具的角度的引导。
18.根据权利要求15所述的***,其中所述指令在由所述处理器执行时使所述计算装置:
接收用于消融手术的配置设置;
在所述图像数据中识别所述经皮工具的辐射部分的位置;
基于所述配置设置和所述经皮工具的所述辐射部分的已识别的位置来确定投影的消融区域;以及
在所述图像数据上显示所述投影的消融区域。
19.根据权利要求18所述的***,其中所述指令在由所述处理器执行时使所述计算装置:
接收所述经皮工具的所述辐射部分已经被激活的指示;
基于所述配置设置和所述经皮工具已经被激活的时间来确定消融手术的进展;以及
基于所述消融手术的确定的进展来显示估计的经消融区域。
20.根据权利要求15所述的***,其中所述指令在由所述处理器执行时使所述计算装置:
在所述图像数据中识别所述经皮工具的远端部分;
确定所述进入点与所述经皮工具的所述远端部分之间的所述图像数据中的线;以及
在所述图像数据上显示确定的线。
CN201780097942.8A 2017-12-04 2017-12-04 从ct图像中自动分割消融天线 Active CN111526794B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/114461 WO2019109211A1 (en) 2017-12-04 2017-12-04 Automatic ablation antenna segmentation from ct image

Publications (2)

Publication Number Publication Date
CN111526794A CN111526794A (zh) 2020-08-11
CN111526794B true CN111526794B (zh) 2024-05-28

Family

ID=66750783

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780097942.8A Active CN111526794B (zh) 2017-12-04 2017-12-04 从ct图像中自动分割消融天线

Country Status (5)

Country Link
US (2) US11638612B2 (zh)
EP (1) EP3720354A4 (zh)
JP (1) JP7421488B2 (zh)
CN (1) CN111526794B (zh)
WO (1) WO2019109211A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI790447B (zh) * 2020-06-10 2023-01-21 長庚大學 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1788692A (zh) * 2004-10-22 2006-06-21 伊西康内外科公司 使用组织作为基准来治疗组织的***和方法
JP2008237906A (ja) * 2007-03-23 2008-10-09 General Electric Co <Ge> 心臓弁の経皮的置換におけるツールの動きを追跡するシステム及び方法
CN101449292A (zh) * 2006-05-24 2009-06-03 皇家飞利浦电子股份有限公司 坐标系配准
CN102598088A (zh) * 2009-11-11 2012-07-18 艾克提维尤斯有限公司 规划和执行穿刺程序的***及方法
CN102961187A (zh) * 2012-10-26 2013-03-13 深圳市旭东数字医学影像技术有限公司 经皮穿刺的手术规划方法及其***
CN103829949A (zh) * 2012-11-19 2014-06-04 韦伯斯特生物官能(以色列)有限公司 体内探头跟踪***中的患者运动补偿

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064904A (en) * 1997-11-28 2000-05-16 Picker International, Inc. Frameless stereotactic CT scanner with virtual needle display for planning image guided interventional procedures
JP2000102533A (ja) * 1998-09-30 2000-04-11 Shimadzu Corp X線ct装置
DE10005628B4 (de) * 2000-02-09 2006-04-20 Siemens Ag Verfahren und Vorrichtung zur Ausrichtung eines medizinischen Instruments am Körper eines Patienten unter Verwendung eines Computer-Tomographen
US6785572B2 (en) * 2001-11-21 2004-08-31 Koninklijke Philips Electronics, N.V. Tactile feedback and display in a CT image guided robotic system for interventional procedures
JP4467927B2 (ja) 2003-08-19 2010-05-26 株式会社東芝 超音波診断装置
US8123691B2 (en) 2003-08-19 2012-02-28 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus for fixedly displaying a puncture probe during 2D imaging
CA2553885C (en) * 2004-01-13 2017-01-03 Robarts Research Institute An ultrasound imaging system and methods of imaging using the same
US20080039715A1 (en) 2004-11-04 2008-02-14 Wilson David F Three-dimensional optical guidance for catheter placement
US20070100234A1 (en) * 2005-10-27 2007-05-03 Arenson Jerome S Methods and systems for tracking instruments in fluoroscopy
EP3032456B1 (en) * 2006-03-30 2018-04-25 Stryker European Holdings I, LLC System and method for optical position measurement and guidance of a rigid or semi-flexible tool to a target
CN101969855A (zh) * 2007-03-03 2011-02-09 埃克特维有限公司 用于规划针刺过程的方法、***和计算机产品
US8303502B2 (en) * 2007-03-06 2012-11-06 General Electric Company Method and apparatus for tracking points in an ultrasound image
US20090281452A1 (en) 2008-05-02 2009-11-12 Marcus Pfister System and method for a medical procedure using computed tomography
JP5486449B2 (ja) * 2010-09-28 2014-05-07 富士フイルム株式会社 超音波画像生成装置及び超音波画像生成装置の作動方法
US9226729B2 (en) 2010-09-28 2016-01-05 Fujifilm Corporation Ultrasound diagnostic system, ultrasound image generation apparatus, and ultrasound image generation method
US9037653B2 (en) 2011-12-09 2015-05-19 Facebook, Inc. Mobile ad hoc networking
WO2013111791A1 (ja) * 2012-01-27 2013-08-01 株式会社 東芝 X線ct装置、x線ctシステム
JP6283872B2 (ja) 2012-01-27 2018-02-28 キヤノンメディカルシステムズ株式会社 X線ct装置、x線ctシステム
JP6017146B2 (ja) * 2012-02-14 2016-10-26 東芝メディカルシステムズ株式会社 X線ct装置
EP3488803B1 (en) * 2012-02-03 2023-09-27 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
US20130316318A1 (en) * 2012-05-22 2013-11-28 Vivant Medical, Inc. Treatment Planning System
DE102013213727A1 (de) * 2013-07-12 2015-01-15 Siemens Aktiengesellschaft Interventionelles Bildgebungssystem
JP6334869B2 (ja) * 2013-08-30 2018-05-30 キヤノンメディカルシステムズ株式会社 X線ct装置
US20160317225A1 (en) * 2015-04-30 2016-11-03 Covidien Lp Microwave ablation planning and procedure systems using a three-dimensional model of a patient
US10548666B2 (en) * 2015-11-17 2020-02-04 Covidien Lp Systems and methods for ultrasound image-guided ablation antenna placement
US11172895B2 (en) * 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US10716627B2 (en) * 2017-05-03 2020-07-21 Covidien Lp Method and system for planning a surgical instrument path

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1788692A (zh) * 2004-10-22 2006-06-21 伊西康内外科公司 使用组织作为基准来治疗组织的***和方法
CN101449292A (zh) * 2006-05-24 2009-06-03 皇家飞利浦电子股份有限公司 坐标系配准
JP2008237906A (ja) * 2007-03-23 2008-10-09 General Electric Co <Ge> 心臓弁の経皮的置換におけるツールの動きを追跡するシステム及び方法
CN102598088A (zh) * 2009-11-11 2012-07-18 艾克提维尤斯有限公司 规划和执行穿刺程序的***及方法
CN102961187A (zh) * 2012-10-26 2013-03-13 深圳市旭东数字医学影像技术有限公司 经皮穿刺的手术规划方法及其***
CN103829949A (zh) * 2012-11-19 2014-06-04 韦伯斯特生物官能(以色列)有限公司 体内探头跟踪***中的患者运动补偿

Also Published As

Publication number Publication date
EP3720354A1 (en) 2020-10-14
JP7421488B2 (ja) 2024-01-24
JP2021505330A (ja) 2021-02-18
US20230263577A1 (en) 2023-08-24
CN111526794A (zh) 2020-08-11
US20200375664A1 (en) 2020-12-03
WO2019109211A1 (en) 2019-06-13
EP3720354A4 (en) 2021-07-28
US11638612B2 (en) 2023-05-02

Similar Documents

Publication Publication Date Title
US11596475B2 (en) Systems and methods for ultrasound image-guided ablation antenna placement
US11622815B2 (en) Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
EP3291736B1 (en) Microwave ablation planning and procedure systems
US10238455B2 (en) Pathway planning for use with a navigation planning and procedure system
WO2011058516A1 (en) Systems &amp; methods for planning and performing percutaneous needle procedures
US20180060524A1 (en) Pathway planning for use with a navigation planning and procedure system
US20220323161A1 (en) Systems and methods for displaying guidance images with spatial annotations during a guided medical procedure
US20230263577A1 (en) Automatic ablation antenna segmentation from ct image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant