CN106535774A - 在针对介入流程的3d成像工作流中的智能实时工具和解剖结构可视化 - Google Patents

在针对介入流程的3d成像工作流中的智能实时工具和解剖结构可视化 Download PDF

Info

Publication number
CN106535774A
CN106535774A CN201580038623.0A CN201580038623A CN106535774A CN 106535774 A CN106535774 A CN 106535774A CN 201580038623 A CN201580038623 A CN 201580038623A CN 106535774 A CN106535774 A CN 106535774A
Authority
CN
China
Prior art keywords
image
instrument
sensors
reference position
stacking chart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580038623.0A
Other languages
English (en)
Other versions
CN106535774B (zh
Inventor
S·巴拉特
A·K·贾殷
A·博尼拉斯瓦卡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN106535774A publication Critical patent/CN106535774A/zh
Application granted granted Critical
Publication of CN106535774B publication Critical patent/CN106535774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • A61B10/0241Pointed or sharp biopsy instruments for prostate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3786Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument receiver only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

一种用于跟踪仪器的***,包括两个或更多个传感器(22),所述两个或更多个传感器被沿着仪器的长度设置并且与邻近的传感器间隔开。解释模块(45)被配置为根据所述两个或更多个传感器的位置来选择并更新来自三维图像体积的图像切片。所述三维图像体积包括两个或更多个传感器相对于所述体积中的目标的位置。图像处理模块(48)被配置为生成指示所述图像切片中的参考位置的叠加图(80)。所述参考位置包括所述两个或更多个传感器的所述位置以及与显示中的所述图像切片的相对偏移,以提供用于对所述仪器进行定位和取向的反馈。

Description

在针对介入流程的3D成像工作流中的智能实时工具和解剖结 构可视化
相关申请信息
本申请主张要求享有于2014年7月16日提交的序列号为62/025481的临时申请的权益,在此通过引用将其整体并入本文。
技术领域
本公开涉及医学仪器,并且更具体涉及在利用工具和解剖可视化的超声引导下跟踪针的***和方法。
背景技术
活检能够被描述为微创流程,其中,获得组织的样本以用于体外病理分析。通常,活检设备(或活检枪)能够包括内部探针和外部中空套管,这两者都能够被附接到活检***柄。在许多实例中,活检枪可能是一次性设备。典型的活检设备能够在一些形式的图像引导(通常为超声(US))下被定位在组织中并且然后“开火”。开火的动作通常首先部署内部探针并且然后快速相继地部署外部套管,由此在内部探针的槽中捕获组织样本。在开火之前,活检样本的实际部位可能偏离活检设备的静止位置。对活检枪和针的恰当定位是从正确部位取回组织中的重要因子。
发明内容
根据本原理,一种用于跟踪仪器的***,包括两个或更多个传感器,所述两个或更多个传感器沿着仪器的长度设置并且与邻近的传感器间隔开。解释模块被配置为根据所述两个或更多个传感器的位置选择并更新来自三维图像体积的图像切片。所述三维图像体积包括两个或更多个传感器相对于所述体积中的目标的位置。图像处理模块被配置为生成指示所述图像切片中的参考位置的叠加图。所述参考位置包括所述两个或更多个传感器的所述位置以及与显示中的图像切片的相对偏移,以提供用于对所述仪器进行定位和取向的反馈。
另一种用于跟踪仪器的***包括两个或更多个传感器,所述两个或更多个传感器沿着仪器的长度设置并且与邻近的传感器间隔开。成像***被配置为在多个图像切片中对所述两个或更多个传感器的位置进行成像。解释模块被配置为选择并更新对应于三维图像中的平面的来自多个图像切片的图像切片。所述解释模块基于参考位置的部位来选择所述图像切片。所述参考位置包括至少所述两个或更多个传感器和目标的位置。图像处理模块被配置为生成指示所述图像切片中的所述参考位置的叠加图,所述参考位置包括所述两个或更多个传感器的所述位置以及与显示中的所述图像切片的相对偏移,以提供用于对所述仪器进行定位和取向的反馈。
一种用于跟踪医学仪器的方法,包括:检测两个或更多个传感器的位置,所述两个或更多个传感器沿着仪器的长度设置并且与邻近的传感器间隔开;选择并更新来自三维体积的图像切片,所述三维图像体积包括相对于所述体积中的目标的所述两个或更多个传感器;并且生成指示所述图像切片中的参考位置的叠加图,所述参考位置包括两个或更多个传感器的位置以及与显示中的所述图像切片的相对偏移;并且根据来自包括所述两个或更多个传感器的位置以及与所述图像切片的相对偏移的叠加图的反馈,来对所述仪器进行定位和取向。
本公开的这些和其他目标、特征和优点将从结合附图阅读的对本公开的说明性实施例的如下详细描述中变得显而易见。
附图说明
本公开将参考如下附图详细呈现优选实施例的如下描述,在附图中:
图1是示出了根据一个实施例的用于使用2D切片来跟踪医学设备的***的示意性框图/流程图;
图2是根据一个实施例的具有指示传感器位置和相对偏移的叠加图的图像;
图3是根据一个实施例的具有在叠加图中指示的平面内参考位置的图像;
图4是根据一个实施例的具有指示传感器位置、估计的活检部位和活检目标位置的叠加图的图像;
图5是示出了根据说明性实施例的用于跟踪医学仪器的方法的流程图;并且
图6是示出了根据说明性实施例的用于选择用于跟踪医学仪器的透视或者实用操作的方法的流程图。
具体实施方式
根据本原理,提供了实施例,其解释医学仪器(例如,活检工具)相对于当前图像或图像切片(例如,经直肠超声(TRUS)、磁共振图像(MRI)等)的跟踪的三维(3D)位置和取向,选取并且重新绘制二维(2D)图像或图像切片以进行显示,因此它们包括(一个或多个)实时跟踪的工具位置以及在适当图像或图像切片(例如,倾斜磁共振(MR)切片)上的叠加图工具表示。
靶向***活检流程可以在流程中采集的3D TRUS图像集被配准到流程前3D MR图像集之后在实时2D TRUS成像下被执行。实况3D TRUS成像是有吸引力的,因为能够潜在地在不移动(或者通过最低限度地移动)TRUS探头的情况下对***进行成像,从而得到更为准确的TRUS-MR配准。然而,在这样的3D工作流中,以用户友好和直观方式识别和显示活检工具是具有挑战性的。
本原理采用超声(US)跟踪技术(例如,“原位”),其被配置为在3D US环境中工作。因为传感器的3D位置是已知的,因此能够估计传感器相对于给定2D图像平面的部位。这是非常有用的特征,因为即使在3D工作流中,常常使用2D图像绘制来执行引导。提供了一种用于对医学工具(例如,活检针)和周边解剖结构的智能实时可视化的方法。这辅助通过以用户友好和直观的方式实现对活检工具的识别和显示,来调整针对介入流程的3D工作流。
在一个实施例中,(一个或多个)跟踪传感器的实时3D跟踪位置被用于定量地估计相对于当前2D成像平面的传感器部位。每个传感器可以由不同尺寸的(尺寸越大,其距当前图像平面越远(或者反之亦然))圆形或其他形状以及其距当前图像平面的距离来表示。在另一实施例中,所显示的2D TRUS图像被(从实况3D图像)实时地重新绘制,以包括活检工具的当前姿态。这提供了在活检工具附近的解剖结构的实时视图,其在工具的***期间会是尤其有用的。在另一实施例中,已知的TRUS-MR配准被用于连续更新和显示示出活检工具的2D MR切片。这提供附加的值,因为在提供更丰富的软组织信息的MR图像中对活检进行导航更加直观。活检工具也被指示。
应当理解,将依据医学仪器来描述本发明;然而,本发明的教导宽泛得多并且能应用于任何可跟踪的仪器。在一些实施例中,在跟踪或分析复杂生物或机械***的过程中采用本原理。具体而言,本原理能应用于对生物***的内部追踪流程以及在诸如肺、胃肠道、***器官、血管等的身体的所有区域中的流程。在附图中描绘的元件可以在硬件与软件的各种组合中得以实施,并且提供可以被组合在单个元件或多个元件中的功能。
能够通过使用专用硬件以及能够运行与合适的软件相关联的软件的硬件来提供在附图中所示的各个元件的功能。当由处理器提供时,所述功能能够由单个专用处理器、由单个共享处理器、或者由多个个体处理器(它们中的一些能够被共享)来提供。此外,术语“处理器”或“控制器”的明确使用不应当被解释为排他地指代能够运行软件的硬件,并且能够暗含地包括而不限于数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性存储设备等。
此外,在本文中记载本发明的原理、各方面和实施例以及其具体范例的所有陈述旨在涵盖其结构和功能两者的等价物。另外,这样的等价物旨在包括当前已知的等价物以及未来发展的等价物(即,执行相同功能的所开发的任何元件,而不管结构如何)。因此,例如,本领域技术人员将认识到,在本文中呈现的框图表示实现本发明的原理的说明性***部件和/或电路的概念视图。类似地,将认识到,任何流程表、流程图等表示基本上可以被表示在计算机可读存储介质中并因此可以由计算机或处理器来运行的各种过程,而无论这样的计算机或处理器是否被明确地示出。
此外,本发明的实施例能够采取计算机程序产品的形式,所述计算机程序产品能从计算机可用或计算机可读存储介质存取,所述计算机可用或计算机可读存储介质提供用于由计算机或任何指令运行***使用或者与计算机或任何指令运行***结合使用的程序代码。出于该描述的目的,计算机可用或计算机可读存储介质能够是可以包括、存储、传送、传播或传输用于由指令运行***、装置或设备使用或与其结合使用的程序的任何装置。所述介质能够是电子的、磁性的、光学的、电磁的、红外的或半导体***(或装置或设备)或传播介质。计算机可读介质的范例包括半导体或固态存储器、磁带、可移除计算机软盘、随机存取存储器(RAM)、只读存储器(ROM)、刚性磁盘以及光盘。光盘的当前范例包括压缩盘-只读存储器(CD-ROM)、压缩盘-读/写(CD-R/W)、Blu-RayTM以及DVD。
此外,应当理解,此后可能开发的任何新的计算机可读介质也应当被视为可以根据本发明和公开的示范性实施例使用或涉及的计算机可读介质。
在说明书中对本原理的“一个实施例”或“实施例”以及其变型的引用意指结合所述实施例描述的特定特征、结构、特性等被包括在本原理的至少一个实施例中。因此,贯穿说明书的出现在各个地方的短语“在一个实施例中”或“在实施例中”以及任何其他变型的出现不一定全部指的是相同实施例。
应当理解,下文“/”、“和/或”和“……中的至少一个”中的任一个的使用,例如,在“A/B”、“A和/或B”和“A和B中的至少一个”的情况下,旨在涵盖对仅第一列出选项(A)的选择、或者对仅第二列出选项(B)的选择、或者对这两个选项(A和B)的选择。作为另一范例,在“A、B和/或C”和“A、B和C中的至少一个”的情况下,这样的短语旨在涵盖对仅第一列出选项(A)的选择、或者对仅第二列出选项(B)的选择、或者对仅第三列出选项(C)的选择、或者对仅第一列出选项和第二列出选项(A和B)的选择、或者对仅第一列出选项和第三列出选项(A和C)的选择、或者对仅第二列出选项和第三列出选项(B和C)的选择、或者对所有三个选项(A和B和C)的选择。如本领域和相关领域中的普通技术人员容易显而易见的,这可以针对如所列出的许多项扩展。
还将理解,当元件,诸如层、区域或材料,被称为在另一元件“上”或“之上”时,其能够直接在其他元件上或者还可以存在中介元件。相比之下,当元件被称为“直接在另一元件上”或“直接在另一元件之上”时,不存在中介元件。还将理解,当元件被称为被“连接”或“耦合”到另一元件时,其能够被直接连接或耦合到其他元件或者可以存在中介元件。相比之下,在元件被称为被“直接连接”或“直接耦合”到另一元件时,不存在中介元件。
现在参考附图,在附图中,相似附图标记表示相同或相似的元件,并且首先参考图1,根据一个实施例示出了说明性跟踪或活检***10。***10包括活检枪或者被配置用于跟踪的其他仪器12。仪器12可以包括活检针14,活检针14具有被设置在外部套管18内的内部探针22。针14包括与其相关联的一个或多个跟踪传感器22。跟踪传感器22可以包括超声传感器,但其他类型的传感器也可以被用于跟踪针14。
在一个实施例中,适配器电子器件26可以包括噪声消除模块28(软件和/或硬件)、放大器30以及处理来自传感器22的所接收的信号的所需的任何其他信号处理模块34。
传感器22可以包括一个或多个超声***。传感器22可以是一次性或非一次性的。在一个实施例中,针对传感器22的超声***可以包括PZT、PVDF或者被设置在导电板或层之间其他压电元件。传感器线缆34能够被提供为针对工作站或其他设备的输出,但还预期无线接口。
能够使用原位(InSitu)技术来跟踪一个或多个超声***或传感器22。如果采用至少两个传感器22,则能够估计针14的取向。因此,活检部位坐标能够在将针14开火之前来计算。
原位技术通过分析在成像探头的波束扫掠FOV时由传感器接收的信号来估计诊断B模式图像的视场(FOV)中的被动超声传感器(例如,PZT、PVDF、共聚物或其他压电材料)的位置。渡越时间测量结果提供PZT传感器距成像阵列的轴向/径向距离,而幅度测量结果和波束开火序列的知识提供传感器的横向/角度位置。在成像探头的波束扫掠视场时,传感器被动地听取撞击在其上的超声波。对这些信号的分析产生在超声图像的参考系中的工具上的传感器的位置。所述位置然后能够被叠加图在超声图像上以用于增强的工具可视化,并且所述位置以及其历史能够被记录以用于跟踪、分割和其他应用。
当与3D换能器(例如,2D矩阵阵列)一起使用时,能够以类似的方式获得(一个或多个)传感器22的仰角位置。因此,能够实时地估计传感器22的3D位置,只要其存在于成像换能器的FOV内。因为能够确认传感器22的3D位置,因此还能够估计该传感器22相对于给定2D图像平面的部位。
靶向***活检流程当前在术中采集的3D TRUS图像集被配准到术前3D MR图像集之后在实时2D经直肠US(TRUS)下执行。实况3D TRUS成像是有吸引力的,因为能够潜在地在不移动(或者通过最低限度地移动)成像探头的情况下对器官进行成像,从而得到更准确的配准(例如,US到MR)。然而,在这样的3D工作流中,以用户友好和直观的方式识别和显示活检工具是具有挑战性的。
原位US跟踪技术能够适于在3D US环境中工作。因为传感器22的3D位置是已知的,因此能够估计该传感器22相对于给定2D图像平面的部位。这是非常有用的特征,因为即使在3D工作流中,引导常常是使用2D成像绘制来执行的。仪器12和周边解剖结构的智能实时可视化能够根据本原理来提供,以使得临床医师能够通过提供对与3D工作流相关联的数据解释问题的解决方案来受益于3D工作流的优点。
***10可以结合工作站或控制台42工作或者被集成在工作站或控制台42中,从所述工作站或控制台监督和/或管理流程。工作站42优选包括一个或多个处理器44和用于存储程序和应用的存储器46。存储器46可以存储被配置为解释来自传感器22的反馈信号的解释模块45。解释模块45被配置为采用所述信号反馈(和任何其他反馈,例如,电磁(EM)跟踪)来重建针14或其他医学设备或仪器的位置和取向。其他医学设备可以包括导管、导丝、探头、内窥镜、机器人、电极、滤波器设备、球囊设备或其他医学部件等。
在一个实施例中,工作站42包括图像处理模块48,所述图像处理模块48被配置为从传感器22接收反馈,并且进一步处理信息以确定体积(对象)54内的传感器22的位置和取向。空间或体积54的图像50能够被生成并且被显示在显示设备52上,其指示实况图像中的针14(和其他部件)的表示53的位置和取向。
解释模块45也能够被配置为确定其中将在对象54中获取活检样本的估计的位置/目标55。解释模块45可以将该信息传达到图像处理模块48以生成示出对所估计的位置的部位来辅助用户的图像。该图像可以包括线或其他形状,以提供视觉指示器(53)。
工作站42包括用于查看对象(患者)或体积54的内部图像的显示器52,并且可以包括作为叠加图或其他绘制的图像,所述叠加图或其他绘制具有传感器22的表示23、针14的表示53、目标55的表示、解剖特征等。显示器52还可以允许用户与工作站42或者其部件和功能或***内的任何其他元件交互。这还由接口60促进,所述接口可以包括键盘、鼠标、操纵杆、触觉设备或任何其他外设或控制,以允许来自工作站42的用户反馈以及与工作站42的交互。
成像***70(例如,实时地)被提供用于对针或其他仪器进行成像以用于引导和定位。在一个实施例中,成像***70包括超声成像***,所述超声成像***采用成像探头72。成像探头72提供由传感器22接收的超声能量。传感器22被电气连接(无线地或者通过采用有线,未示出)到用于信号处理和放大的适配器电子器件26。适配器电子器件26继而可以被连接到工作站42,在工作站42中,解释模块45进一步处理所述信号,将针14或其他仪器(和其他部件)配准到由成像***70收集的图像。尽管成像***70被描述为超声成像***70,但是可以采用其他成像技术。
解释模块45可以被用于解释跟踪的3D图像体积76,以确定活检工具或针14相对于当前图像切片或图像78的位置和取向。解释模块45选择的图像切片78,例如,2D TRUS/MR图像切片,以进行显示,因此其包含(一个或多个)实时跟踪的工具位置。解释模块45采用包括全部或一些可跟踪特征(例如,传感器位置、仪器位置、活检/目标部位等)的视场。使用位置(例如,深度),解释模块45选择最好地限定针14上的传感器22与活检部位之间的关系的图像切片(50)。解释模块45可以选择其中所有可跟踪位置存在的平面或者可以基于最好地示出所述关系的存储在解释模块45中的准则来选择另一平面。所述准则可以包括用于最佳地查看内部器官、最佳地查看目标、最佳地查看针或其他仪器等的角度。活检工具或针14可以被叠加图在要在显示器52上查看的适当切片(例如,TRUS/MR切片、倾斜MR切片)上。叠加图80可以被生成为针14的表示、针的图像等。
参考图2,示出了相对于当前2D TRUS图像102的活检工具的说明性可视化。注意,在3D使用的情况(其正被解决)下,该2D图像102是由3D探头中的元件的子集形成的平面。该范例是针对经***活检流程的。TRUS图像102是***的矢状视图。活检工具或针118在图像的右侧通过***进入。工具118被装备有两个传感器120和122(例如,用于原位跟踪)。圆形126和128的尺寸分别指示该传感器120、122距所显示的2D图像平面的距离。注意,在该图示中,传感器122出平面1.2cm,并且传感器120出平面0.7cm。还注意,活检部位116被估计为在当前图像平面中(平面内)。因此,本原理使得能够识别在给定图像平面中的活检部位116,即使工具本身不在图像平面中。虚线指示估计的活检工具杆118(在当前图像平面中的投影)。
(一个或多个)传感器120、122的实时3D跟踪位置被用于定量地估计其相对于图像102的当前2D成像平面(例如,页面的平面)的部位。每个传感器120、122能够由不同尺寸(例如,尺寸越大,其距当前图像平面越远)的圆形连同其距当前图像平面的距离来表示。还可以显示其他形状或信息。因为在3维中计算传感器位置,因此能够计算距当前平面的绝对距离。
针对经***活检流程,2D TRUS图像102(***的矢状视图)提供由3D探头中的元件的子集形成的平面。活检工具118以及其两个传感器120、122(连接到其)在右侧通过***进入。应当理解,可以采用多于两个传感器。传感器120、122使用超声反馈来定位;信号被用于在图像空间中对传感器120、122进行定位。传感器120、122的位置由解释模块45(图1)来解释,并且诸如圆形126、128的形状被生成以指示传感器120、122相对于成像平面的位置。圆形126、128的尺寸例如指示传感器距所显示的2D图像平面的距离,例如,传感器122出平面(在L-R方向上)1.2cm并且传感器120出平面0.7cm。所投影的活检样本部位被估计为在当前图像平面中;因此,所述方法使得能够识别在给定图像平面中的活检部位,即使工具本身不在该图像平面中。尽管此处针对经***活检图示了该实施例,但是本原理也可应用于其他流程,例如,经直肠活检、经***或经直肠治疗(和在3D US图像引导下执行的其他介入流程)。同样地,尽管已经指示了两个传感器,但是设想到了多于两个传感器。一个传感器也可能使用其他数据。利用一个传感器,当使用仅传感器数据时仅可以实现位置估计,因为不能够仅利用一个传感器确定工具的取向。在模板/网格被利用(并且被配准到3D图像)的情况下,网格进入点可以与估计的传感器部位相组合,以估计工具的取向。
参考图3,2D US图像202包括具有两个传感器220、222的活检工具杆204以及所估计的活检部位226,其全部处在图像平面(页面的平面)中。所显示的2D TRUS图像202被实时绘制(从实况3D图像)为与活检工具杆204的当前位置和姿态一致。在工具204被推进时,通过改变对3D探头阵列的元件的子集的选择来更新在屏幕上的2D图像202。注意,理论上存在能够包含活检工具204(其实质上是线)的无限平面。然而,使用3D探头阵列的元件,这样的平面将是唯一的。换言之,两个或三个参考点的平面内位置被用于选择视图平面。该特征提供活检工具附近的解剖结构的实时视图,所述实时视图在工具204的***期间会是尤其有用的。
参考图4,2D MR图像302被绘制为包括活检工具杆314。注意,两者传感器320、322和估计的活检部位326全部处在图像平面中,注意,MR图像302中的较大的软组织对比度使得导航更容易。已知的TRUS-MR配准被用于连续地更新和显示包括活检工具314的3D MR切片。在工具314被推进时,屏幕上的2D MR图像302被更新。这提供附加的值,因为在MR图像302中对活检工具314进行导航更为直观,所述MR图像提供更丰富的软组织信息。如果局部活检目标在MR图像302中被描绘,则所述方法实现以更准确和用户友好的方式的针对MR活检目标330(希望的部位)的工具引导。虚线圆形可以被用于指示在活检针从当前部位开火时将从其进行活检的估计的部位326。
根据本实施例,实况3D TRUS被提供。在这样的情况下,能够潜在地在不移动(或者通过最低限度地移动)TRUS探头的情况下对***进行成像,从而得到更准确的TRUS-MR配准。这辅助通过以用户友好和直观的方式实现对活检工具的识别和显示来采用用于介入流程的3D工作流。
超声跟踪技术(原位)的使用能够被用于更准确地估计活检样本的真实部位。例如,原位技术能够被用于通过分析在成像探头的波束扫掠FOV时由传感器接收的信号来估计诊断B模式图像的视场(FOV)中的一个或多个无源超声传感器(例如,PZT、PVDF、共聚物或其他压电材料)的位置。渡越时间测量结果能够被用于提供(一个或多个)传感器(图1)距成像阵列的轴向/径向距离,而幅度测量结果和波束开火序列的知识能够被用于提供(或确定)传感器的横向和角度位置。当与3D换能器(例如,2D矩阵阵列)(US成像探头)一起使用时,还能够以类似的方式获得传感器的仰角位置。因此,能够实时地估计传感器的3D位置,只要其存在于成像换能器的FOV内。
在成像探头的波束扫掠视场时,传感器被动地听取撞击在其上的超声波。对这些信号的分析产生在超声图像的参考系中的传感器的位置。所述位置然后能够被叠加图在超声图像上以用于增强的可视化,并且所述位置以及其历史能够被记录以用于跟踪、分割和其他应用。其中存在两个或更多个点或参考的图像切片可以被选择用于可视化以进一步改进使用。当与3D换能器(例如,2D矩阵阵列)一起使用时,还能够以类似的方式获得传感器的仰角位置。因此,能够实时地估计传感器的3D位置,只要其存在于成像换能器的FOV内。因为能够确认传感器的3D位置,因此例如还能够估计该传感器相对于给定2D图像平面的部位。
参考图5,说明性地示出了用于跟踪医学仪器的方法。在方框402中,检测沿着仪器的长度设置的两个或更多个传感器的位置。所述传感器优选与邻近的传感器间隔开以提供取向信息以及仪器的位置。在方框404中,从多个图像切片选择并且更新图像切片。所选择的图像切片可以根据参考位置来选择。可以在三维体积中跟踪相对位置,所述三维体积被解释为界定有用图像切片。例如,有用图像切片可以包括相对于三围体积中的目标的两个或更多个传感器。将图像切片与三维体积配准。根据传感器移动来更新图像切片。以这种方式,能够在不移动成像探头的情况下更新图像。
在方框406中,图像切片被选择为包括至少一个平面内参考位置(例如,传感器位置、仪器位置、目标位置等)。在方框408中,使用三维体积选择图像切片。可以使用实时成像***来跟踪并且解释仪器的三维(3D)位置和取向以确定例如包括相对于目标的两个或更多个传感器的切片。也可以使用来自仪器的所跟踪的三维(3D)位置和取向的图像来配准和解释来自三维体积的图像切片,所述图像可以包括相对于使用实时成像***收集的当前图像切片的两个或更多个传感器的表示。另外,可以利用来自第二补充成像模态的配准的图像来查看图像中的两个或更多个传感器的位置。
在方框410中,生成叠加图,所述叠加图指示图像切片中的参考位置。所述参考位置可以包括两个或更多个传感器以及与从显示界面中的图像切片的相对偏移。在方框412中,生成所述叠加图以表示如下中的一项或多项:估计的活检部位和仪器部位。在方框414中,生成叠加图以表示针对每个参考位置的形状和/或偏移距离中的至少一个,其中,所述形状可以相对于偏移距离的幅度成比例地定尺寸。在方框416中,根据来自包括两个或更多个传感器的位置和与图像切片的相对偏移的叠加图的反馈来对仪器进行定位和取向。
参考图6,说明性地示出了用于选择针对在针对介入流程医学仪器中的成像工作流中的工具和解剖结构可视化的透视的方法。在方框502中,提供了根据本原理的***。第一成像模态(例如,实时成像***,例如,超声、X射线等)被用于获得体积的2D图像,第二补充模态(例如,MR、CT、PET等)还可以被用于将其图像配准到第一模态,以提供对图像显示的增强。使用被设置在仪器上的两个或更多个传感器来跟踪医学仪器,例如针。在方框504中,所述仪器被定位在体积内。在流程期间的任何时间处,可以执行如下方框506、508和/或510中的一项或多项以提供透视并且提供更加用户友好的视觉交互。
在方框506中,用户(临床医师)选择包括活检目标和解剖结构的特定区而不必包括仪器的2D平面。在这种情况(传感器跟踪)下,意图是提供关于每个传感器(并且因此,仪器)距选定的2D成像平面多远的信息。这可以允许用户确认仪器距目标的路径中的任何敏感区(“禁飞区”,诸如,例如尿道)足够远。在该实施例中选择的2D图像平面的范例能够为由当前可用2D TRUS探头成像的常规矢状图像平面。
在方框508中,用户可能希望查看包括仪器的姿态的2D平面,以查看当前围绕仪器(仪器跟踪)的解剖结构。这样的2D图像平面的范例能够为包括图像姿态的倾斜平面(取决于实现的姿态,这可能不同于真实矢状平面)。
在方框510中,用户可能希望在选定的平面中但是采用来自次级成像源的信息来查看仪器。仪器平面类似于方框510中所描述的被选择,除了可视化的2D图像平面来自配准的第二补充成像模态(例如,MRI、PET、PET-CT等)。这允许基于US的设备跟踪与从第二成像模态可用的较好的解剖信息相组合的益处。
在方框512中,流程继续。在任何时间处,用户可以选择采用方框506、508和/或510中的任一个,以辅助执行流程。注意,可以在图5中描绘的方法中的任何点处调出和执行方框506、508和/或510的功能。能够取决于临床需要在介入流程期间的任何时间处执行方框506、508和/或510中的每个。
在解释权利要求书时,应当理解:
a)词语“包括”不排除除了在给定的权利要求中列出的元件或动作以外的其他元件或动作的存在;
b)元件前面的词语“一”或“一个”不排除多个这样的元件的存在;
c)权利要求中的任何附图标记不限制其范围;
d)若干“单元”可以由相同项或者硬件或软件实施的结构或功能来表示;并且
e)除非明确地指示,否则并不旨在要求动作的具体顺序。
已经描述了针对在针对介入流程的3D成像工作流中的智能实时工具和解剖结构可视化的优选实施例(其旨在为说明性的而非限制性的),应当指出,本领域技术人员能够鉴于以上教导而做出修改和变型。因此应当理解,可以在所公开的本公开的特定实施例中做出变化,所述变化在如权利要求书所概括的本文所公开的实施例的范围内。因而已经描述了专利法所要求的细节和特性,由专利证书所主张并期望保护的内容在权利要求书中得到阐述。

Claims (21)

1.一种用于跟踪仪器的***,包括:
两个或更多个传感器(22),其被沿着仪器的长度设置并且被与邻近的传感器间隔开;
解释模块(45),其被配置为根据所述两个或更多个传感器的位置来选择并更新来自三维图像体积的图像切片,所述三维图像体积包括两个或更多个传感器相对于所述体积中的目标的所述位置;以及
图像处理模块(48),其被配置为生成指示在所述图像切片中的参考位置的叠加图(80),所述参考位置包括所述两个或更多个传感器的所述位置以及与显示中的所述图像切片的相对偏移,以提供用于对所述仪器进行定位和取向的反馈。
2.根据权利要求1所述的***,其中,所述仪器(12)包括活检针,并且所述图像处理模块生成针对估计的活检部位的叠加图(55)。
3.根据权利要求1所述的***,其中,所述仪器(12)包括活检针,并且图像生成模块生成针对所述活检针的叠加图(53)。
4.根据权利要求1所述的***,其中,所述解释模块(45)选择所述图像切片以包括至少一个平面内参考位置。
5.根据权利要求1所述的***,其中,所述解释模块(45)选择所述图像切片以包括所有平面内参考位置。
6.根据权利要求1所述的***,其中,所述叠加图(80)指示针对每个参考位置的形状和/或偏移距离中的至少一个。
7.根据权利要求6所述的***,其中,所述形状(23)被相对于所述偏移距离的幅度成比例地定尺寸。
8.根据权利要求1所述的***,其中,所述参考位置额外地包括目标、估计的位置或医学设备的表示中的一个或多个。
9.根据权利要求1所述的***,还包括第一成像***,所述第一成像***被配置为生成所述体积的三维(3D)图像(302)并且将所述3D图像与在包括所述两个或更多个传感器的视场中由第二成像***(70)实时获取的二维图像配准。
10.一种用于跟踪仪器的***,包括:
两个或更多个传感器(22),其被沿着仪器的长度设置并且被与邻近的传感器间隔开;
成像***(70),其被配置为在多个图像切片中对所述两个或更多个传感器的位置进行成像;
解释模块(45),其被配置为选择并更新来自所述多个图像切片的对应于三维图像中的平面的图像切片,所述解释模块基于参考位置的部位来选择所述图像切片,所述参考位置包括至少所述两个或更多个传感器和目标的位置;以及
图像处理模块(48),其被配置为生成指示所述图像切片中的所述参考位置的叠加图(80),所述参考位置包括所述两个或更多个传感器的所述位置以及与显示中的所述图像切片的相对偏移,以提供用于对所述仪器进行定位和取向的反馈。
11.根据权利要求10所述的***,其中,所述成像***(70)包括经直肠超声探头,所述仪器包括活检针(14),并且所述图像处理模块生成针对估计的活检部位的叠加图(55)。
12.根据权利要求10所述的***,其中,所述图像处理模块生成针对所述仪器的叠加图(53)。
13.根据权利要求10所述的***,其中,所述解释模块(45)选择所述图像切片以包括至少一个平面内参考位置。
14.根据权利要求10所述的***,其中,所述叠加图(80)指示针对每个参考位置的形状和/或偏移距离中的至少一个,其中,所述形状被相对于所述偏移距离的幅度成比例地定尺寸。
15.根据权利要求10所述的***,其中,所述参考位置额外地包括所述仪器的表示(53)。
16.一种用于跟踪医学仪器的方法,包括:
检测(402)沿着仪器的长度设置并且与邻近的传感器间隔开的两个或更多个传感器的位置;
选择并更新(404)来自三维体积的图像切片,所述三维体积包括相对于所述体积中的目标的所述两个或更多个传感器;
生成(410)指示所述图像切片中的参考位置的叠加图,所述参考位置包括两个或更多个传感器的位置以及与显示中的所述图像切片的相对偏移;并且
根据来自包括所述两个或更多个传感器的位置以及与所述图像切片的所述相对偏移的所述叠加图的反馈,来对所述仪器进行定位和取向(416)。
17.根据权利要求16所述的方法,其中,生成叠加图包括生成(412)所述叠加图以表示如下中的一项或多项:估计的活检部位和仪器部位。
18.根据权利要求16所述的方法,其中,选择并更新包括选择(406)所述图像切片以包括至少一个平面内参考位置。
19.根据权利要求16所述的方法,其中,生成叠加图包括生成(412、414)所述叠加图以表示针对每个参考位置的形状和/或偏移距离中的至少一个,其中,所述形状被相对于所述偏移距离的幅度成比例地定尺寸。
20.根据权利要求16所述的方法,其中,选择并更新来自三维体积的图像切片包括解释(408)包括相对于使用实时成像***收集的当前图像切片的所述两个或更多个传感器的所述仪器的跟踪的三维(3D)位置和取向。
21.根据权利要求16所述的方法,其中,选择并更新来自三维体积的图像切片包括在包括第二补充成像模态图像的图像中查看(408)所述两个或更多个传感器的所述位置。
CN201580038623.0A 2014-07-16 2015-07-14 在针对介入流程的3d成像工作流中的智能实时工具和解剖结构可视化 Active CN106535774B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462025481P 2014-07-16 2014-07-16
US62/025,481 2014-07-16
PCT/IB2015/055320 WO2016009350A1 (en) 2014-07-16 2015-07-14 Intelligent real-time tool and anatomy visualization in 3d imaging workflows for interventional procedures

Publications (2)

Publication Number Publication Date
CN106535774A true CN106535774A (zh) 2017-03-22
CN106535774B CN106535774B (zh) 2020-08-25

Family

ID=54072893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580038623.0A Active CN106535774B (zh) 2014-07-16 2015-07-14 在针对介入流程的3d成像工作流中的智能实时工具和解剖结构可视化

Country Status (5)

Country Link
US (2) US11298192B2 (zh)
EP (1) EP3169244B1 (zh)
JP (1) JP6782688B2 (zh)
CN (1) CN106535774B (zh)
WO (1) WO2016009350A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113905669A (zh) * 2019-05-30 2022-01-07 皇家飞利浦有限公司 被动超声传感器的相对位置确定

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3188662A4 (en) * 2014-09-05 2018-05-23 Procept Biorobotics Corporation Physician controlled tissue resection integrated with treatment mapping of target organ images
EP3297562A1 (en) * 2015-05-18 2018-03-28 Koninklijke Philips N.V. Intra-procedural accuracy feedback for image-guided biopsy
EP3454757B1 (en) 2016-05-10 2020-06-10 Koninklijke Philips N.V. 3d tracking of an interventional instrument in 2d ultrasound guided interventions
JP6733434B2 (ja) * 2016-09-02 2020-07-29 富士ゼロックス株式会社 情報表示システムおよび画像形成装置
US11369340B2 (en) * 2016-09-30 2022-06-28 Koninklijke Philips N.V. Tracking a feature of an interventional device
EP3551081B1 (en) * 2016-12-12 2022-11-09 Koninklijke Philips N.V. Smart tracked interventional tools including wireless transceiver
WO2018115200A1 (en) * 2016-12-20 2018-06-28 Koninklijke Philips N.V. Navigation platform for a medical device, particularly an intracardiac catheter
EP3558151B1 (en) 2016-12-20 2023-07-05 Koninklijke Philips N.V. Navigation platform for an intracardiac catheter
DE102017203025A1 (de) * 2017-02-24 2018-08-30 Siemens Healthcare Gmbh Verfahren zu einem Unterstützen einer Planung einer Magnetresonanzuntersuchung an einem Patienten mit einer Magnetresonanzvorrichtung sowie eine Magnetresonanzvorrichtung zu einem Ausführen des Verfahrens
EP3755229A1 (en) * 2018-02-22 2020-12-30 Koninklijke Philips N.V. Interventional medical device tracking
WO2019238526A1 (en) * 2018-06-15 2019-12-19 Koninklijke Philips N.V. Synchronized tracking of multiple interventional medical devices
WO2020030665A1 (en) 2018-08-08 2020-02-13 Koninklijke Philips N.V. Interventional device positioning respective an ultrasound image plane
EP3632331A1 (en) * 2018-10-05 2020-04-08 Koninklijke Philips N.V. Interventional device positioning using ultrasound signals
WO2020030746A1 (en) 2018-08-08 2020-02-13 Koninklijke Philips N.V. Interventional device positioning using ultrasound signals
WO2020030557A1 (en) 2018-08-08 2020-02-13 Koninklijke Philips N.V. Tracking an interventional device respective an ultrasound image plane
EP3632333A1 (en) 2018-10-05 2020-04-08 Koninklijke Philips N.V. Interventional device positioning respective an ultrasound image plane
EP3632332A1 (en) * 2018-10-05 2020-04-08 Koninklijke Philips N.V. Tracking an interventional device respective an ultrasound image plane
CN112601496A (zh) * 2018-08-22 2021-04-02 皇家飞利浦有限公司 对介入医学设备的3d跟踪
EP3659514A1 (en) * 2018-11-29 2020-06-03 Koninklijke Philips N.V. Image-based device identification and localization
EP3771432A1 (en) * 2019-07-31 2021-02-03 Koninklijke Philips N.V. Relative location determining for passive ultrasound sensors
EP3975863A1 (en) * 2019-05-31 2022-04-06 Koninklijke Philips N.V. Passive-ultrsound-sensor-based initialization for image-based device segmentantion
EP3771435A1 (en) * 2019-07-31 2021-02-03 Koninklijke Philips N.V. Passive-ultrasound-sensor-based initialization for image-based device segmentation
EP3771433A1 (en) * 2019-07-30 2021-02-03 Koninklijke Philips N.V. Differentiating passive ultrasound sensors for interventional medical procedures
JP2022536625A (ja) * 2019-06-13 2022-08-18 コーニンクレッカ フィリップス エヌ ヴェ 介入医療処置のための受動型超音波センサの区別

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997029682A1 (en) * 1996-02-15 1997-08-21 Biosense Inc. Locatable biopsy needle
CN101408976A (zh) * 2007-10-11 2009-04-15 通用电气公司 用于基于容积的配准的增强的***和方法
CN101467896A (zh) * 2007-12-29 2009-07-01 西门子(中国)有限公司 超声波设备和图像捕捉方法
US20100022871A1 (en) * 2008-07-24 2010-01-28 Stefano De Beni Device and method for guiding surgical tools
WO2010125505A1 (en) * 2009-04-28 2010-11-04 Koninklijke Philips Electronics N.V. Biopsy guide system with an ultrasound transducer and method of using same
CN102525558A (zh) * 2010-12-01 2012-07-04 通用电气公司 超声成像的方法和***
US20140142425A1 (en) * 2009-02-17 2014-05-22 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4407294A (en) * 1982-01-07 1983-10-04 Technicare Corporation Ultrasound tissue probe localization system
JPH0357442A (ja) * 1989-07-26 1991-03-12 Toshiba Corp 超音波穿刺用プロープ
DE69726576T2 (de) * 1996-02-15 2004-10-14 Biosense, Inc., Miami Probe zur Ortsmarkierung
GB2329709B (en) * 1997-09-26 2001-12-19 Roke Manor Research Catheter localisation system
JP3057442U (ja) 1998-08-19 1999-06-02 有限会社イリエ ステンレス線製抗菌お玉掛け
JP3057442B1 (ja) 1999-02-08 2000-06-26 アテナ工業株式会社 即席食品等の容器
DE10115341A1 (de) * 2001-03-28 2002-10-02 Philips Corp Intellectual Pty Verfahren und bildgebendes Ultraschallsystem zur Besimmung der Position eines Katheters
WO2005116923A1 (en) * 2004-05-28 2005-12-08 Koninklijke Philips Electronics N.V. An image processing apparatus, an imaging system, a computer program and a method for enabling scaling of an object in an image
JP2006220636A (ja) * 2004-07-27 2006-08-24 Matsushita Electric Works Ltd 音波センサ
US7869854B2 (en) * 2006-02-23 2011-01-11 Magnetecs, Inc. Apparatus for magnetically deployable catheter with MOSFET sensor and method for mapping and ablation
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
US8632468B2 (en) * 2009-02-25 2014-01-21 Koninklijke Philips N.V. Method, system and devices for transjugular intrahepatic portosystemic shunt (TIPS) procedures
US8556815B2 (en) * 2009-05-20 2013-10-15 Laurent Pelissier Freehand ultrasound imaging systems and methods for guiding fine elongate instruments
BR112013017901A2 (pt) * 2011-01-17 2016-10-11 Koninkl Philips Electronics Nv sistema para detecção de dispositivo médico, sistema de biopsia para detecção de dispositivo médico e método para detecção de dispositivo médico
US20120259209A1 (en) * 2011-04-11 2012-10-11 Harhen Edward P Ultrasound guided positioning of cardiac replacement valves
US8670816B2 (en) * 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
US9375194B2 (en) * 2012-05-28 2016-06-28 Doron Kwiat Real-time localization of an interventional tool
GB201303917D0 (en) * 2013-03-05 2013-04-17 Ezono Ag System for image guided procedure

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997029682A1 (en) * 1996-02-15 1997-08-21 Biosense Inc. Locatable biopsy needle
CN101408976A (zh) * 2007-10-11 2009-04-15 通用电气公司 用于基于容积的配准的增强的***和方法
CN101467896A (zh) * 2007-12-29 2009-07-01 西门子(中国)有限公司 超声波设备和图像捕捉方法
US20100022871A1 (en) * 2008-07-24 2010-01-28 Stefano De Beni Device and method for guiding surgical tools
US20140142425A1 (en) * 2009-02-17 2014-05-22 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
WO2010125505A1 (en) * 2009-04-28 2010-11-04 Koninklijke Philips Electronics N.V. Biopsy guide system with an ultrasound transducer and method of using same
CN102525558A (zh) * 2010-12-01 2012-07-04 通用电气公司 超声成像的方法和***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113905669A (zh) * 2019-05-30 2022-01-07 皇家飞利浦有限公司 被动超声传感器的相对位置确定

Also Published As

Publication number Publication date
US20220192760A1 (en) 2022-06-23
EP3169244A1 (en) 2017-05-24
WO2016009350A1 (en) 2016-01-21
JP6782688B2 (ja) 2020-11-11
US20170202625A1 (en) 2017-07-20
JP2017520346A (ja) 2017-07-27
US11298192B2 (en) 2022-04-12
EP3169244B1 (en) 2019-05-15
CN106535774B (zh) 2020-08-25
US11786318B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
US11786318B2 (en) Intelligent real-time tool and anatomy visualization in 3D imaging workflows for interventional procedures
US11147532B2 (en) Three-dimensional needle localization with a two-dimensional imaging probe
CN103619278B (zh) 用于内窥镜手术期间的引导注射的***
CN103327907B (zh) 用于在图像引导的活检中检测针部署的***和方法
US8409098B2 (en) Method and apparatus for collection of cardiac geometry based on optical or magnetic tracking
CN105934215B (zh) 具有光学形状感测的成像设备的机器人控制
CN103957772B (zh) 形状感测辅助的医疗过程
CN107666876A (zh) 用于图像引导的活检的术中准确度反馈
US10799146B2 (en) Interactive systems and methods for real-time laparoscopic navigation
US9892557B2 (en) Integrated system for focused treatment and methods thereof
MX2013015358A (es) Correccion de imagen intraoperativa para intervenciones guiadas por imagen.
EP3054885B1 (en) Image guidance system with user definable regions of interest
CN110300549A (zh) 超声***中用于设备跟踪的路径跟踪
EP3019088B1 (en) Imaging apparatus for biopsy or brachytherapy
KR20180066781A (ko) 의료 영상을 표시하는 방법 및 장치
CN106535807A (zh) 用于一次性活检针的超声跟踪装置
US10076311B2 (en) Method and apparatus for registering medical images
JP2018134197A (ja) 医用手技ナビゲーションシステムおよび方法
EP3545852B1 (en) Electromagnetic navigation bronchoscopy using ultrasound

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant