CN105899138A - 部署建模 - Google Patents

部署建模 Download PDF

Info

Publication number
CN105899138A
CN105899138A CN201480072410.5A CN201480072410A CN105899138A CN 105899138 A CN105899138 A CN 105899138A CN 201480072410 A CN201480072410 A CN 201480072410A CN 105899138 A CN105899138 A CN 105899138A
Authority
CN
China
Prior art keywords
equipment
data
intervening
disposing
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480072410.5A
Other languages
English (en)
Other versions
CN105899138B (zh
Inventor
R·弗洛朗
O·博纳富
H·G·莫拉莱斯巴雷拉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN105899138A publication Critical patent/CN105899138A/zh
Application granted granted Critical
Publication of CN105899138B publication Critical patent/CN105899138B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/12Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord
    • A61B17/12022Occluding by internal devices, e.g. balloons or releasable wires
    • A61B17/12027Type of occlusion
    • A61B17/12031Type of occlusion complete occlusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/12Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord
    • A61B17/12022Occluding by internal devices, e.g. balloons or releasable wires
    • A61B17/12099Occluding by internal devices, e.g. balloons or releasable wires characterised by the location of the occluder
    • A61B17/12109Occluding by internal devices, e.g. balloons or releasable wires characterised by the location of the occluder in a blood vessel
    • A61B17/12113Occluding by internal devices, e.g. balloons or releasable wires characterised by the location of the occluder in a blood vessel within an aneurysm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/12Surgical instruments, devices or methods, e.g. tourniquets for ligaturing or otherwise compressing tubular parts of the body, e.g. blood vessels, umbilical cord
    • A61B17/12022Occluding by internal devices, e.g. balloons or releasable wires
    • A61B17/12131Occluding by internal devices, e.g. balloons or releasable wires characterised by the type of occluding device
    • A61B17/12168Occluding by internal devices, e.g. balloons or releasable wires characterised by the type of occluding device having a mesh structure
    • A61B17/12172Occluding by internal devices, e.g. balloons or releasable wires characterised by the type of occluding device having a mesh structure having a pre-set deployed three-dimensional shape
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/82Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Vascular Medicine (AREA)
  • Reproductive Health (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Neurosurgery (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

将用于部署的设备成功定位在动脉瘤内部例如依赖于在介入流程内发生的过程。例如,介入设备的位置、取向或轨迹能够影响被部署在所述介入设备上的用于部署的设备的最终位置。因此,有用的是,基于仅感兴趣目标内的介入设备的当前定位来预测用于部署的设备的部署位置。

Description

部署建模
技术领域
本发明涉及用于医学部署预测的图像处理设备、用于医学设备部署预测的医学成像***、用于操作用于医学设备部署预测的图像处理设备的方法、计算机程序单元,以及计算机可读存储介质。
背景技术
脑动脉瘤是脑中的动脉的壁的不正常的局部肿胀。处置这样的动脉瘤的一种方法是血管内介入。这样的介入的基本原理是使用用于部署的血管内设备来减缓动脉瘤内部的血流。这可以引起动脉瘤内部的血栓形成反应。用于执行血管内介入的己知技术为例如放入线圈或者引入引流器。计算机辅助的工具可用于在手术前规划血管内设备的定位以进行布署。用于血管内规划的当前流程在血管内介入之前被执行。然而,在介入期间,用于部署的血管内设备的错误放置也隐含某些风险。专利公布WO 2011/121516讨论了这样的方法。
发明内容
因此,可以存在考虑在血管内介入期间用于部署的血管内设备的错误放置的效果的需要。
本发明的目标通过独立权利要求的主题得以解决,其中,另外的实施例被并入从属权利要求。应当指出,以下描述的本发明的各方面也适用于本文中讨论的设备、***、方法、计算机程序单元,以及计算机可读介质。
根据本发明,提供了一种用于医学设备部署预测的图像处理设备。所述设备包括:输入单元、处理单元,以及输出单元。
所述输入单元被配置为向所述处理单元提供目标的感兴趣区域的3D目标数据。所述输入单元也提供用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据。最后,所述输入单元提供所述感兴趣区域的实况介入图像数据,所述实况介入图像数据包括被提供用于对用于部署的所述设备进行部署的介入设备的空间信息。
所述处理单元被配置为完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位所述介入设备,并且然后被配置为执行对所述介入图像数据与所述3D目标数据的空间配准。
所述处理单元还被配置为根据所述感兴趣区域的所述3D目标数据使用所述介入设备在所述3D目标数据内的所述定位来调整所述3D设备模型数据,并且被配置为将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内。生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系。最后,所述输出单元被配置为显示所述预期空间关系。
有利地,如由以上讨论的图像处理设备所提供的预测的部署的可视化在其被部署在当前定位的位置处的情况下向用户提供关于用于部署的设备的最终位置的反馈。这允许用户即时评估保持在介入设备上的用于部署的设备的当前定位的相关性。
如果当前位置处的部署将造成所部署的用于部署的设备的次优的定位,则可以进行对所述介入设备的定位的调节。因此,使得更可能进行对用于部署的所述设备的最优放置。这从流程中去除了“猜想工作”。
换言之,在介入流程期间,完全基于介入设备在目标(患者)内的定位来计算用于部署的所述设备的“虚拟部署”,并且然后将所述“虚拟部署”在屏幕上显示给用户(外科医生)。
能够提供关于虚拟地部署的设备如何与靶解剖结构相关的分析和测量。在脑血管内流程期间的血管内设备部署的成功高度取决于在设备部署时携带用于部署的所述设备的介入设备的位置、取向或轨迹的特性。能够执行对目标(患者)内部的介入设备的介入位置的定位。所述定位仅基于对所述介入设备的探测,而不管用于部署的设备是否被适配到所述介入设备。能够计算对经调整的3D设备模型与(在介入之前采集的)3D数据之间的预期空间关系的计算。这样的对用于部署的所述设备当被嵌入在3D数据内时在介入设备的所定位的区域处的预期空间关系的计算能够允许用户识别用于部署的所述设备是否己经被所述介入设备定位在最优位置中。因此,血管内流程的更高的成功可能性是可能的。
根据本发明,也提供了一种用于医学设备部署预测的医学成像***,包括:图像采集装置、如先前所述的设备,以及显示单元。所述图像采集装置适于采集图像数据并且适于向所述处理单元提供所述数据。
根据本发明,也提供了一种用于操作用于医学设备部署预测的图像处理设备的方法。所述方法包括以下步骤:
a)提供目标的感兴趣区域的3D目标数据;
b)提供用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据;
c)提供所述感兴趣区域的实况介入图像数据,所述实况介入图像数据包括被提供用于对用于部署的所述设备进行部署的介入设备的空间信息;
d)完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位所述介入设备,并且然后执行对所述介入图像数据与所述3D目标数据的空间配准;
e)根据所述感兴趣区域的所述3D目标数据使用所述介入设备在所述3D目标数据内的所述定位来调整所述3D设备模型数据;并且将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内;由此生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系;并且
f)显示所述预期空间关系。
根据本发明,提供了一种用于对装置进行控制的计算机程序单元,所述计算机程序单元当由处理单元运行时适于执行所述方法的步骤。
根据本发明,提供了一种存储有先前讨论的程序单元的计算机可读介质。
因此能够看到,完全基于对介入设备的测量的位置和/或取向和/或轨迹的探测的虚拟部署状况被显示给用户。介入设备能够形成用于部署的设备在血管内网络内部的递送***。针对要执行的介入设备的定位,不是必须要呈现用于部署的设备。这样的***组合了先前己知的患者的解剖结构几何与用于部署的设备的模型。形成3D目标数据的几何数据能够经由CT扫描或能够提供目标(患者)的脉管***的3D表示的任何其他成像***来获得。几何数据能够例如在流程之前从存储服务器或盘加载。
提供在流程之前获得的患者内部的用于部署的设备的模型,所述模型例如是从制造商数据表或实验室测量结果获得的。所述模型可以用数据格式来表达,其描述了用于部署的设备在其未部署位置与部署位置之间的几何关系和/或机械关系。因此,所述模型可以被存储在服务器上,从盘加载,或者从制造商的网站下载。所述***也提供用于定位介入设备的器件。这样的器件可以是双平面采集的或者是电磁定位的。也提供用于投影、显示或根据对递送***的当前定位来指示部署结果的器件。
在本说明书中,术语“3D目标数据”定义例如由CT扫描器或者由MRI扫描器采集的数据,所述数据包含至少关于患者的血管的结构的信息。所述数据可以例如被存储在盘上或者从服务器加载。
术语“3D设备模型数据”定义用于在患者内部进行部署的设备的虚拟模型。该数据能够从制造商信息、3D成像,以及实验室测量结果、或这些的组合中获得。这样的用于部署的设备的模型以数学方式定义了构成设备的零件之间在其从未部署位置到部署位置移动时的关系。当然,所述模型可以是表示零件之间的动态机械关系的详细的有限元模型。备选地,可以使用仅依赖于几何的简化模型。
术语“实况介入图像数据”是指在介入流程期间当在患者内部定位设备期间实时取得的图像。通常,实况介入图像数据将示出介入设备的当前位置。任选地,诸如辐射不透明标记物的标记物可以被使用在介入设备上以使得能够进行更加容易的定位。
因此,定位是仅使用介入设备来执行的,并且不使用被适配到介入设备的用于部署的设备。
通常,实况介入图像数据是使用双平面定位来获得的。然而,可以使用任何定位方法,只要其使得能够在血管内流程期间对介入设备进行定位。
术语“空间配准”是指创建3D目标数据与介入图像数据之间的几何关系。3D目标数据通常是静态的,这是因为其在介入流程之前己经被采集。实况介入图像数据通常不是静态的,这是因为其是实时采集的。3D目标数据和实况介入图像数据是使用不同的模态采集的。因此,需要将3D目标数据的几何变换到介入图像数据的几何框架中(或者反之亦然),以使得能够对两者图像中包含的信息进行组合。这样的步骤是使用3D目标数据与介入图像数据之间的空间配准来执行的,其是对本领域技术人员来说己知的技术。
术语“嵌入经调整的3D设备模型数据”意指这样的过程:调整定义3D设备模型的网格或坐标的集合,直到设备模型已经被重新定型为使得其与3D目标数据的特征相一致。这样的过程例如可以被迭代地执行,和/或使用几何求解方法或有限元方法。能够用于针对3D目标数据来调整3D设备模型的许多技术都是适用的。
术语“生成预期空间关系”是指对定义由3D目标数据中的脉管***提供的边界的方程进行迭代地求解的过程,并且所述方程限定3D设备数据的限制。因此,3D目标数据将至少表示血管,其将提供3D设备模型数据从其在血管内部所定位的位置处的开始位置的扩展的边界条件。
术语“预期空间关系”能够指所部署的用于部署的设备关于由血管所强加的边界条件的最终位置,以及介入设备的所定位的位置,所述介入设备的所定位的位置是虚拟部署的开始点。应当理解,由于虚拟部署的用于部署的设备的部署的位置在现实中将符合或者至少考虑血管形状,因此虚拟部署的设备将具有复杂的形状。因此,预期空间关系将必然具有复杂的性质。在一个范例中,用于部署的设备的几何网的网列表能够包括数千个点。每个点将符合由血管所强加的边界条件,可能关于用于部署的设备的模型的机械限制。
术语“介入设备”是指这样的设备:其在血管内介入中被使用以递送用于在目标(患者)内部进行部署的未部署的设备,例如,将未部署的支架或电线线圈递送到用于部署的设备应当被部署的感兴趣区域。这能够是导管或另一类型的支架递送***或电线线圈递送***。所述介入设备可以被***到目标(患者)中并且可以由用户操纵到感兴趣区域。在一范例中,介入设备可以包含标记物,所述标记物是能够使用X射线或电磁器件来探测的。这样的标记物能够允许介入设备的改进的定位。介入设备能够被***到患者中而无需用于部署的设备可见。在支架的情况下,这意味着例如未部署的支架不被附接到介入设备的端部。在电线线圈递送***的情况下,电线线圈在被保持在介入设备内部时将自然是不可见的。
术语“目标的感兴趣区域”是指这样的区:在这样的区中,涉及使用介入设备对用于部署的设备的放置的介入过程发生在人类身体内部。介入区域可以例如包含动脉瘤。
本说明书中对“用户”的讨论是指医学人员,例如,外科医生。
参考下文描述的实施例,本发明的这些方面和其他方面将变得明显并且得到阐明。
附图说明
下面将参考以下附图来描述本发明的示范性实施例:
图1示出了用于医学设备部署预测的图像处理设备。
图2示出了血管内介入中的设备部署的范例。
图3进一步示出了血管内介入中可能的部署模态。
图4示出了血管内介入。
图5示出了医学成像***。
图6示出了用于医学设备部署预测的医学成像***。
图7示出了用于操作用于医学设备部署预测的图像处理设备的方法。
具体实施方式
图1示出了用于医学设备部署预测的图像处理设备10,所述图像处理设备10包括输入单元20、处理单元30,以及输出单元40。
所述输入单元被配置为向处理单元30提供目标的感兴趣区域的3D目标数据50、用于使用介入设备在目标内部进行部署的设备的3D设备模型数据60,以及感兴趣区域的实况介入图像数据70,所述实况介入图像数据70包括被提供用于所述设备的部署的介入设备的空间信息。处理单元30被配置为完全基于在实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位所述介入设备,然后被配置为执行对所述介入图像数据与所述3D目标数据的空间配准。处理单元30被配置为根据所述感兴趣区域的3D目标数据使用所述介入设备在所述3D目标数据内的定位来调整3D设备模型数据,并且然后被配置为将表示用于部署的设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据中。这生成了用于部署的设备与目标的感兴趣区域之间的预期空间关系。输出单元40被配置为显示所述预期空间关系。
所述输入单元可以提供3D目标数据以及来自外部数据库80和82的3D设备模型数据。备选地,该数据可以被存储在盘上,从USB设备上载,或者从互联网下载。对技术人员而言,提供该数据的许多方法都将是己知的。
3D目标数据是感兴趣目标(患者)的解剖结构的基于体素的模型,或者是允许目标(患者)的感兴趣区域的血管布置的3D重建的任何其他表示。这样的数据是使用CT扫描器采集的,尽管其他技术也将是己知的。
所述介入图像数据是例如从使用两幅X射线C型臂图像的双平面定位来提供的。双平面定位技术对于本领域技术人员来说是公知的。
在实践中,处理单元30可以是适合于处理来自输入单元20的数据输入的任何器件。因此,能够使用具有适当规格的计算机。可以提供装备有用于加速特定计算的器件的计算机,所述器件例如为并行处理器、或FPGA或GPU协同处理器。
输出单元40可以包括常规计算机监视器或投影屏,用于显示在特定介入设备定位处的预期空间关系(虚拟部署结果)。虚拟部署可以被叠加在3D数据的合成重建上,或者可以被叠加在血管几何的内部位置上。备选地,虚拟部署可以被叠加在由双平面成像获得的实况2D图像上。
图2A至图2D中图示了当在动脉瘤内部放置用于部署的设备时面向用户的一个问题。图2A示出了具有动脉瘤102的血管或动脉100。动脉瘤被附接到颈部(孔口)处的血管,用标记104指示。能够看出,介入设备106被***到血管内部并且由用户向上朝向动脉瘤102移动。介入设备可以例如是导管。安装在介入设备的端部上的是未部署的用于部署的设备108。利用虚线110定义的是动脉瘤的主轴。
在该假想的范例中,如在图2A的范例中能够看出,介入设备以显著的偏斜成角度,离主轴110成θ度。图2B中示出了在该位置中部署用于部署的设备的效果。这也示出了在部署之后的介入设备。介入设备现在并不连接到所部署的用于部署的设备。所部署的用于部署的设备被示为在112处。然而,能够看出,在动脉瘤102内部存在大的空间114,这是因为用于部署的设备被部署为离最优部署角度一大的角度而造成的。
图2B中图示的情形是有问题的。所部署的用于部署的设备能够随时间而变得从动脉瘤离开原位。另外,所部署的用于部署的设备可能不起作用为止住血流从血管100进入动脉瘤102的流动。如果是这样的情况,则血栓形成反应将不会在动脉瘤内部发生,并且该流程将注定是己经失败的。
图2C图示了被示为在部署到动脉瘤102中之前在血管100内部的用于部署的设备116。在该情况下,发散角118,δ度,比图2A中所示的要小得多。用于部署的设备在其未部署的位置己经与动脉瘤的主轴基本上对齐。假想地,将有利的是将用于部署的设备部署地离动脉瘤的主轴的虚线尽可能地近,归因于假想的所图示的用于部署的设备的特性。
因此,如图2D中所示,当用户选择部署用于部署的设备112时,能够看出,在所部署的用于部署的设备的边界与动脉瘤的壁之间基本上没有间隙。有利地,这意味着,用于部署的设备己经被正确地部署,并且能够按期望地起作用以引起动脉瘤内部的血栓形成反应,由此成功地止住血流流动。
当然,其他用于部署的设备是己知的。例如,线圈能够被***到动脉瘤中以减缓血流。支架能够被放置为覆盖血管100中的动脉瘤的入口。应当意识到,在所有这些情况下,关键问题是介入设备是否已经以正确的取向被定位,以便允许在动脉瘤内发生血栓形成反应。
应当意识到,不同类型的用于部署的设备将必要地有关于介入设备和3D目标数据而具有不同的最优部署状况。以上范例不应被解读为将在本文中描述的技术限于一个最优部署状况,而是,将其限于相关于适当的用于部署的设备当在介入中被使用时的最优部署状况。
图3A图示了介入设备的位置的一个可能的变型。在图3A中,介入设备120被示为处于离介入设备122的另一位置的一偏移处,以虚线示出。各自的未部署的用于部署的设备124和126被示为分离开线性距离δx。因此,当被部署在动脉瘤内部时,距离δx能够引起部署形状的差异。
图3B中示出了备选的情形。介入设备120和介入设备122被示为以不同角度进入动脉瘤102。位置之间的差异是δθ度。部署位置的该角度变化也能够引起用于部署的设备的误放置。能够设想的另一种情形是,介入设备120或122己经沿循不同的轨迹进入动脉瘤,该情形未被图示。当然,本领域技术人员将理解,通常,在一个时刻仅单个介入设备通常存在于动脉瘤内,并且附图中的多个介入设备的显示仅仅用于示出它们的不同部署位置。
处理单元30的操作在下文中有关于该方法进行最佳地描述,所述操作是在来自输入单元20的数据上执行的。
根据本发明的实施例,图像处理设备10的范例如先前所描述地被提供,其中,输入单元20还被配置为从用户接收显示命令。处理单元30还被配置为在接收到显示命令时生成和显示预期空间关系。因此,在该实施例中,对于用户来说可能的是定义这样的时刻:在所述时刻,输出单元显示用于部署的设备与目标的3D目标数据之间的预期的空间配准。
预期空间关系针对大部分流程可能不被显示,并且在用于部署的所述设备几乎在部署位置中的其他点处,医学专业人员能够触发所部署的用于部署的设备与目标的3D目标数据之间的预期的空间配准。预期的空间配准的显示可以例如利用“鬼影”技术来实现,其中,示出所部署的用于部署的设备在如由所定位的介入设备定义的所部署的用于部署的设备的当前部署位置中的半透明印象。以此方式,用户被提供以所部署的用于部署的设备在所定位的位置处的清晰印象,但是仍然能够查看脉管***。
根据本发明的实施例,提供了图像处理设备10的范例,其中,处理单元30还被配置为监测介入设备的实况介入图像数据,并且被配置为在介入设备的实况介入图像数据的变化在触发的阈值之下时生成预期的空间配准。
可能不总是要求对在感兴趣区域内的3D目标数据与所部署的用于部署的设备之间的预期的空间配准的连续显示。例如,介入设备在其到达诸如动脉瘤的部署位点处之前必须行进长的距离通过脉管***。因此,在该实施例中,所部署的用于部署的设备与3D目标数据之间的预期空间关系不被显示,直到实况介入图像数据的变化低于触发的阈值,例如,介入设备可以以更低的速度移动,意指介入设备己经到达部署位点前面的停止处。
例如,处理单元被配置为监测介入设备的实况介入图像数据,并且被配置为在用于部署的设备的速度的变化在触发阈值以下时生成预期空间关系。
在另一范例中,处理单元被配置为监测介入设备的实况介入图像数据,并且被配置为在介入设备在线介入数据中的变化超过触发阈值,例如,在触发阈值以下时,生成预期空间关系。
根据本发明的实施例,提供了图像处理设备10的范例,其中,处理单元30还被配置为监测介入设备的实况介入图像数据,并且被配置为在介入设备的实况介入图像数据的变化超过触发的阈值时生成预期的空间配准。
根据备选方案,实况介入图像数据可以示出介入设备相对于动脉瘤的定位超过触发的阈值。例如,在该实施例中,如果未部署的用于部署的设备的部署角度超过了阈值(其将引起3D目标数据中的动脉瘤与部署的动脉瘤之间预期的空间配准不利地变得太大),则所部署的用于部署的设备与3D目标数据之间的预期的空间配准将被显示以向用户提供警告。
根据备选方案,提供了图像处理设备10,其中,所述处理单元被配置为监测介入设备的实况介入图像数据,并且被配置为在介入设备的实况介入图像数据的变化位于较低触发阈值与较高触发阈值之间时生成预期的空间配准。
根据备选方案,实况介入图像数据的变化指代介入设备在介入图像数据内的定位的变化。
根据本发明的实施例,图像处理设备10的范例被配置为向处理单元提供用于部署的设备的最终最优部署数据。
处理单元30还被配置为使用介入设备在3D目标数据内的定位来计算i)用于部署的设备的最终最优部署位置数据与根据感兴趣区域的3D目标数据的经调整的3D设备模型数据之间的差异度量。处理单元30还被配置为计算ii)用于部署的设备的最终最优部署位置数据与经调整的3D设备模型数据之间的差异度量。输出单元40被配置为显示用于部署的设备的最终最优部署位置与经调整的3D设备模型数据之间的差异度量。
在该实施例中,输入单元20被额外地配置为向处理单元30提供用于部署的设备的最终最优部署位置数据。这可以例如来自在临床流程开始之前的3D设备模型在3D目标数据内部的虚拟定位。然后,用户具有足够的时间来考虑用于部署的设备的最优定位。该数据被存储并且任选地在血管内流程期间被显示在输出单元40上。介入设备的定位以及3D设备模型在所定位的位置处的部署状态的实况计算是可能的。因此,可能的是,将在血管内流程之前所选择的最终最优部署位置与在血管内流程期间的当前部署位置进行比较。因此,简化的度量130能够任选地在输出单元40上被提供给用户。
所述度量例如是在血管内流程之前由用户选择的最优部署位置和根据对介入设备的当前定位得到的经调整的3D设备模型数据之间的百分比最优性。这样的差异度量例如能够通过配准所定位的3D设备模型的外部体在其当前部署位置的位置与用于部署的设备的最终最优部署位置数据上的相同点来计算。由这样的配准的关系围住的体积表示介入设备的最优位置与所定位的位置之间的当前差异。因此,通过在空间上对该体积进行积分,能够计算放置的百分比最优性。当然,存在评估和计算这样的最优性度量的不同的方法。
根据本发明的实施例,提供了图像处理设备10的范例,其中,所述输出单元被配置为将处于用于部署的所述设备的所述最终最优部署位置中的用于部署的第一设备的表示显示在感兴趣区域的所述3D目标数据中,并且被配置为将处于由所述定位所定义的位置中的用于部署的第二设备的表示显示在感兴趣区域的所述3D目标数据中,其中,用于部署的所述第二设备的所述位置是根据用于部署的所述第二设备与所述目标的所述感兴趣区域之间的预期空间关系来显示的。
图4示出了输出单元40在部署场景期间的屏幕。血管100和介入设备106与未部署的用于部署的设备132一起被示出。预期空间关系在134处被计算和示出。点线印记134意指预期空间关系在部署场景期间持续被更新和显示以在放置决策中辅助用户。动脉瘤102内部的最终最优部署位置136也能够被显示,如所示出。
该最优放置己经由医学专业人员使用虚拟设备放置技术在血管内流程之前所决定。
可以在介入之前执行虚拟设备放置。3D目标数据可以被加载到计算机屏幕,并且被显示给用户。用户可以从适当的设备的列表选择用于部署的设备。然后,使用计算机接口(鼠标、键盘、操纵杆、触摸屏),用户可以将用于部署的设备定位在3D目标数据内部,如所显示。虚拟设备放置可以将在设备的部署的位置处的设备建模为在3D目标数据内部的选定的点处。用户可以在3D目标数据中对该模型进行重新定位,直到获得最优放置。
差异度量130被如前所述地计算,但是应当意识到,存在计算和显示这样的差异度量的多种不同方式。在图4中,最优性度量示为百分之一,这是因为,与在使用“虚拟设备部署”的血管内介入之前定义的最优情况相比,对未部署的用于部署的设备在用标记132指示的在“当前”位置处的用于部署的设备的部署将得到非常差的匹配。
因此,根据该实施例,尽管显示差异度量是可能的,但是也能够显示真实表示,使得用户能够获得用于部署的设备的放置与在操作之前选择的用于部署的设备的最终最优部署位置相比的最优性的解剖视图。
因此,有利地,血管内流程之前的“虚拟设备部署”的益处通过以下被放大:通过允许在血管内介入之前确定的最优放置在血管内介入期间被利用,通过监测介入设备的定位,如根据实况介入图像数据70所确定。
在备选方案中,应当意识到,在达到特定水平的放置最优性时,可以向用户提供音频反馈。
根据本发明的实施例,处理单元30被配置为使用实况介入图像数据来计算定位数据。其中,所述定位数据是从包括以下的组中选择的:
i)介入设备相对于感兴趣区域的即时位置;
ii)介入设备相对于感兴趣区域的即时取向;
iii)介入设备的先前轨迹;或者
iv)i)至iii)的任何组合。
如先前所讨论的,实况介入图像数据可以被用于计算许多不同类型的定位数据,从而使得能够进行介入设备的定位。这些位置、取向、或轨迹可以使用对本领域技术人员而言己知的图像处理技术来计算。
根据备选方案,未部署的用于部署的设备的特定形式可以被用于改进对介入设备的位置的探测的鲁棒性。
根据本发明的实施例,图像处理设备10的范例是根据前面的说明而被提供的,其中,介入设备是练习设备。
“练习设备”是指没有适配用于部署的设备的介入设备。有利地,用户可以在流程之前练习在介入流程期间对用于部署的设备的部署,其中,用于部署的设备要被放置。根据该实施例的图像处理设备可以使得能够根据所定位的练习设备与3D目标数据之间的预期空间关系来对在用于部署的设备的位置中的用于部署的设备进行实况显示。显示在之前流程中的预测的部署的能力能够有利地允许用户练习所述部署以确保意想不到的不测事件不会在真实部署中发生。
根据本发明,所述介入设备可以例如是递送***。
所述递送***能够被用于放置用于部署的设备,例如,球囊导管、受限鞘***(其允许鞘被拉去时卷曲的支架扩张)、栓塞线圈递送***、编织的内桥(woven endobridge)递送***、或者本领域己知的另一这样的用于部署的设备。因此,所述递送***可以在患者的脉管***内部被跟踪,甚至,在用于部署的设备没有被适配到所述递送***时(或者在线圈没有被所述递送***部署时)也是这样。这允许临床专业人员使用适当的递送***来“练习”对用于部署的设备在患者内部的适当位置处的部署,并且允许临床专业人员检查虚拟部署的递送***的虚拟生成的最终停留位置,而无需使用(并且从而“损坏”)用于部署的真实设备。以此方式,由患者的脉管***和递送***的相互作用造成的影响支架或线圈的部署的未预见的问题可以被预见。
根据本发明的实施例,提供了图像处理设备10的范例,其中,介入设备的位置的实况介入图像数据来自双平面采集。
双平面采集能够被用于定位介入设备。双平面采集是使用在两个平面中的探测和跟踪以及简单的3D图像配准来执行的。双平面数据能够例如使用与患者中的感兴趣区域相交的两个C型臂来获得。使用双平面图像采集,在每个平面中单独跟踪目标在图像中的2D位置是可能的。通过对每个平面的2D坐标信息的组合,能够导出目标中的介入设备的3D位置。
根据本发明的实施例,提供了图像处理设备10的范例,其中,介入设备的位置的实况介入图像数据来自电磁***。电磁***允许使用电磁器件来对介入设备进行实时3D跟踪。
根据本发明的实施例,提供了图像处理设备10的范例,其中,用于部署的设备是从包括以下的组中选择的:引流器、线圈、编织的内桥、luna(TM)阀、听阀假体、支架,或球囊。
应当意识到,用于部署的设备可以被部署在动脉瘤内部,并且可以因此被称为“内囊”。备选地,用于部署的设备可以被部署在动脉瘤外部,并且可以因此被称为“外囊”。
引流器是能够将血流重定向为离开动脉瘤的单个血管内支架设备。这是通过将支架设备定位在动脉瘤外部来实现的。引流器支架的有效部署取决于这样的因素:例如,有关于上级血管的几何的位置、正确的大小定型,以及开口的角度。
备选地,用于部署的设备可以是线圈。放线圈是处置脑动脉瘤的流行的血管内治疗。该流程涉及***小且细的生物兼容的金属线,该金属线部分地填充动脉瘤腔。通过降低流速,线圈改变动脉瘤内的血流动力学。通过增加血液驻留时间,可以触发血栓形成。
根据备选方案,用于部署的设备可以是编织的内桥。不同于引流支架,用于部署的设备被定位在主血管中并且不在动脉瘤中,编织的内桥被定位在动脉瘤腔体内,如图2D中所图示的。类似于编织的内桥的是“Luna”(TM)动脉瘤栓塞***。
在前面的说明中,己经对脑动脉瘤中的用于部署的设备之间的预期空间关系的建模进行了参考。然而,应当意识到,本文中描述的技术广泛地适用于设备被引入到脉管***中并且在脉管***内扩张的任何情形。
根据本发明,可以提供一种用于医学设备部署预测的医学成像***150。
所述医学成像***150包括:图像采集装置150、如先前所描述的用于医学设备部署预测的图像处理设备,以及显示单元156。
所述图像采集装置152适于采集图像数据并且适于向所述处理单元提供所述数据。
图5图示了如上所述的***,并且示出了具有X射线源和X射线探测器的X射线图像采集装置151和152。这些设备例如可以被安装在C型臂上。所述设备被示为适合于执行双平面实况图像采集。图像采集装置是可移动***,其具有安装在支撑体上的X射线源、能够被布置在躺在具有抬升的支撑部分的床上的患者之下的便携式探测器。其他X射线***能够被使用,例如,固定地安装的***或者具有被安装到诸如机器人臂的可移动部分的源和探测器的***。X射线图像采集设备被连接到处理单元154。处理单元154向显示单元156输出图像或视频序列。
在一范例中,图像采集设备向处理单元提供像素区信息。
如图6所示,也提供了用于操作用于医学设备部署预测的图像处理设备的方法200。所述方法包括以下步骤:
a)提供202目标的感兴趣区域的3D目标数据;
b)提供204用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据;
c)提供206所述感兴趣区域的实况介入图像数据,所述实况介入图像数据包括被提供用于对介入设备进行部署的介入设备的空间信息;
d)完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位208所述介入设备,并且然后执行对所述介入图像数据与所述3D目标数据的空间配准;
e)根据所述感兴趣区域的所述3D目标数据使用所述介入设备在所述3D目标数据内的定位来调整210所述3D设备模型数据;并且将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内;由此生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系;并且
f)显示212所述预期空间关系。
在步骤a)中,目标的感兴趣区域的3D目标数据通常能够根据从CT扫描获得的预介入数据来获得,或者根据诸如C型臂CT脉管重建的***介入重建来获得。该3D表示应当包含用于部署的设备的着陆点及其脉管周围环境。例如,在神经血管内手术中,其能够是动脉瘤和所附着的周围血管的3D几何结构。
在步骤b)中,用于使用介入设备在目标内部进行部署的设备的3D设备模型数据——其中,所述设备是血管内设备——能够从以下来获得:制造商信息、3D成像,以及实验室测量结果,或者这些的组合。3D设备模型数据提供关于用于部署的设备在目标内部在未部署状态与部署状态之间的几何布置或机械布置的演变的信息。
在步骤c)中,可以例如使用双平面成像方法来提供感兴趣区域的实况介入图像数据。这样的成像方法是在血管内介入操作期间执行的。所述介入设备在双平面采集的两个平面中是可见的。所述介入设备被实时地探测和跟踪。然后能够在三维中建立递送***的简单模型,由此提供介入设备在相关脉管***内部的位置、取向或轨迹。
在步骤d)中,定位完全基于对介入设备的探测来执行。因此,为了要被执行的定位,用于部署的设备(例如,未部署的支架,电线线圈,或编织的内桥)不需要被探测。有利地,这意味着,用于部署的设备不需要被部署,或者不需要被适配到所述介入设备,以便医学专业人员确定用于部署的设备的最终位置的印记。
在备选方案中,能够使用电磁跟踪来提供主动***器件。
在备选方案中,要被成像的目标的3D几何数据和3D设备模型数据在尚未被部署时能够被使用,与图像处理算法相结合,来改进介入期间对介入设备的定位的鲁棒性。
因此,有了3D目标数据、3D设备模型数据,以及实况介入图像数据——其如前所述地产生对介入设备的实况定位——可能的是,实时地跟踪介入设备在3D目标数据内的位置并且使虚拟部署完全基于介入设备在患者中的位置。
通过应用算法方法来模拟用于部署的设备从其未部署位置到其部署位置的部署,能够生成用于部署的设备与目标的感兴趣区域之间的预期空间关系。在实践中,为模拟用于部署的设备从未部署位置到部署位置的演变,用于虚拟部署的快速求解器可以被提供有表示患者解剖结构的3D目标数据,被提供有介入设备的定位结果并且被提供有3D设备模型数据。本领域技术人员应当理解,来自虚拟部署的快速结果是可期望的,这是因为预期的空间配准在临床情形下利用最小延迟来显示是方便的。
在备选方案中,预期的空间配准在介入设备***纵时通过探测例如介入设备的位置、角度或轨迹将是可获得的。为了实现该目的,能够使用快速求解器来即时地更新预期关系。例如快速求解器能够使用表示患者解剖结构和3D设备模型数据的3D目标数据的几何数据。
在备选方案中,可以应用有限元求解方法。
虚拟部署利用基于几何的设备建模可能是更快的,这是因为不需要模拟机械性质。
在先前描述的方法的步骤f)中,显示预期的空间配准的步骤使得用于部署的设备的虚拟部署结果能够在介入设备的当前定位的位置被可视化。这提供了对当前递送定位的相关性的反馈。
应当意识到,根据本发明的方法在先前描述的根据本发明的图像处理设备的处理单元上运行。
根据本发明的一方面,提供了一种用于操作用于医学设备部署预测的图像处理设备的方法,所述方法包括以下步骤:
a)提供目标的感兴趣区域的3D目标数据;
b)提供用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据;
c)提供所述感兴趣区域的实况介入图像数据,所述实况介入图像数据包括被提供用于对用于部署的所述设备进行部署的介入设备的空间信息;
d)完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位所述介入设备,并且然后执行对所述介入图像数据与所述3D目标数据的空间配准;
e)根据所述感兴趣区域的所述3D目标数据使用所述介入设备在所述3D目标数据内的定位来调整3D设备模型数据;并且将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内;由此生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系;并且
f)显示所述预期空间关系。
有利地,根据本发明的方法能够被用于显示用于部署的设备在其未部署的状态中在表示目标的感兴趣区域的3D目标数据内的所定位的位置之间的预期的空间配准。在一范例中,所述目标可以是人类身体。在一范例中,所述感兴趣区域可以是动脉瘤、脑动脉瘤,或者人类身体中用于部署的设备必须要被放置的区域。
应当意识到,步骤a)、b)和c)中的数据的提供可以以任何顺序发生而没有损失。
现在,下面是若干另外的实施例,其定义可以与以上定义的方法相结合或者组合的示范性步骤。
根据第一实施例,提供了一种用于操作用于医学设备部署预测的图像处理设备的方法,所述方法包括以下步骤:
a)提供目标的感兴趣区域的3D目标数据;
b)提供用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据;
c)提供所述感兴趣区域的实况介入图像数据,所述实况介入图像数据包括被提供用于对用于部署的所述设备进行部署的介入设备的空间信息;
d)完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位所述介入设备,并且然后执行对所述介入图像数据与所述3D目标数据的空间配准;
e)根据所述感兴趣区域的所述3D目标数据使用所述介入设备在所述3D目标数据内的定位来调整3D设备模型数据;并且将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内;由此生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系;并且
f)显示所述预期空间关系。
根据所述方法的第二实施例,提供了一种根据第一实施例的方法,所述方法还包括在步骤b)与步骤c)之间的步骤:
b1)接收来自用户的显示命令;并且
其中,在步骤d)和步骤e)中,预期空间关系的生成是在所述显示命令被接收时执行的。
根据所述方法的第三实施例,提供了一种根据第一实施例或第二实施例的方法,所述方法还包括在步骤d)与步骤e)之间的步骤:
d1)监测介入设备的实况介入图像数据,并且其中,在步骤e)和f)中,预期空间关系的生成是在介入设备在实况介入图像数据中的位置的变化在触发阈值以下时执行的。
根据所述方法的第四实施例,提供了一种根据第一实施例至第三实施例中的一个的方法,所述方法还包括在步骤d)与步骤e)之间的步骤:
d2)监测介入设备的实况介入图像数据;
其中,在步骤e)和f)中,预期空间关系的生成是在介入设备在介入设备的实况介入图像数据中的部署角度的变化超过触发阈值时执行的。
根据所述方法的第五实施例,提供了一种根据第一实施例至第四实施例中的一个的方法,其中,在步骤b)与步骤c)之间提供了另外的步骤:
b2)提供用于部署的设备的最终最优部署位置数据;
其中,在步骤e)与步骤f)之间是以下步骤:
e1)使用对3D目标数据内的介入设备的定位来计算用于部署的设备的最终最优部署位置数据与根据感兴趣区域的3D目标数据的经调整的3D设备模型数据之间的差异度量;
e2)计算用于部署的所述设备的最终最优位置数据与经调整的3D设备模型数据之间的差异度量;并且
其中,步骤f)还包括:
f1)显示用于部署的设备的最终最优部署位置与经调整的3D设备模型数据之间的差异度量。
根据所述方法的第六实施例,提供了一种根据第五实施例的方法,其中,步骤f)还包括:
f2)将处于用于部署的设备的最终最优部署位置中的用于部署的第一设备的表示显示在感兴趣区域的3D目标数据中;并且
f3)将处于由所述定位所定义的位置中的用于部署的第二设备的表示显示在感兴趣区域的3D目标数据中,
其中,用于部署的第二设备的位置是根据用于部署的所述第二设备与目标的感兴趣区域之间的预期空间关系来显示的。
根据所述方法的第七实施例,提供了一种根据第一实施例至第六实施例中的一个的方法,其中,在步骤e)中,对定位数据的计算是通过由以下表示的定位数据来执行的:
e3)介入设备相对于感兴趣区域的即时位置;或者
e4)介入设备相对于感兴趣区域的即时取向;或者
e5)介入设备的先前轨迹;或者
e6)步骤e3)至步骤e5)中的定位数据中的任何组合。
根据所述方法的第八实施例,提供了一种根据第一实施例至第七实施例中的一个的方法,其中,在步骤c)中,介入设备是练习设备。
根据所述方法的第九实施例,提供了一种根据第一实施例至第八实施例中的一个的方法,其中,在步骤c)中,介入设备的定位的实况介入图像数据来自双平面采集。
根据所述方法的第十实施例,提供了一种根据第一实施例至第九实施例中的一个的方法,其中,在步骤c)中,介入设备的定位的实况介入图像数据来自电磁***。
根据所述方法的第十一实施例,提供了一种根据第一实施例至第十实施例中的一个的方法,其中,用于部署的设备是从包括以下的组中选择的:分流器、线圈、支架或编织的内桥。
根据所述方法的第十二实施例,提供了一种根据第一实施例至第十一实施例中的一个的方法,其中,所述介入设备是递送***。
根据所述方法的第十三实施例,提供了一种根据第一实施例至第十二实施例中的一个的方法,其中,所述介入设备是导管。
当然,尽管本说明书讨论了用于在脑血管内区域对用于部署设备的放置,但是本文中描述的方法也适用于在诸如患者的目标内部进行部署的设备必须根据被用于对用于部署的设备进行部署的介入设备的定位来实时确定的任何情形。
在本发明的另一示范性实施例中,提供了一种计算机程序或计算机程序单元,其特征在于,其适于在适当的***上执行根据前述实施例中的任一个所述的方法的方法步骤。
另外,提供了一种存储有先前描述的程序单元的计算机可读介质。
因此,计算机程序单元可以被存储在计算机单元中,所述计算机程序单元也可以是本发明的实施例的部分。该计算单元可以适于执行或引发对上述方法的步骤的执行。此外,该计算单元可以适于操作上述装置的部件。该计算单元能够适于自动操作和/或运行用户的命令。计算机程序可以被加载到数据处理器的工作存储器中。因此,可以装备数据处理器来执行本发明的方法。
本发明的该示范性实施例覆盖从一开始就使用本发明的计算机程序,以及借助于将现有程序更新转换为使用本发明的程序的计算机程序二者。
更进一步地,计算机程序单元可以能够提供所有必要步骤以完成如上所述的方法的示范性实施例的流程。
根据本发明另外的示范性实施例,提出了一种计算机可读介质,例如CD-ROM,其中,该计算机可读介质具有被存储于所述计算机可读介质上的计算机程序单元,所述计算机程序单元由前面的章节所描述。
计算机程序可以被存储和/或被分布在合适的介质上,例如,与其他硬件一起或作为其他硬件的部分供应的光学存储介质或固态介质,但是也可以以其他形式被分布,例如,经由互联网或其他有线或无线的电信***被分布。
然而,计算机程序也可以被呈现在网络上,如万维网,并且能够从这样的网络被下载到数据处理器的工作存储器中。根据本发明的另外的示范性实施例,提供了用于使计算机程序单元可用于下载的介质,所述计算机程序单元被布置为执行根据本发明的先前描述的实施例中的一个的方法。
必须指出,本发明的实施例是参考不同主题来描述的。尤其地,一些实施例是参考方法型权利要求来描述的,而其他实施例是参***装置型权利要求来描述的。然而,除非另有说明,本领域技术人员将从以上和以下的描述中推断出,除属于一种类型的主题的特征的任意组合之外,涉及不同主题的特征之间的任意组合也被认为在本申请中被公开。然而,所有的特征都能够被组合来提供多于特征的简单加合的协同效应。
尽管已经在附图和前面的描述中详细图示和描述了本发明,但是这样的图示和描述应当被认为是图示性或示范性的,而非限制性的;本发明不限于所公开的实施例。本领域技术人员通过研究附图、公开内容以及权利要求,在实践请求保护的发明时能够理解并实现对所公开的实施例的其他变型。
在权利要求中,“包括”一词不排除其他元件或步骤,并且词语“一”或“一个”不排除多个。单个处理器或其他单元可以实现在权利要求中记载的若干项的功能。尽管某些措施被记载在互不相同的从属权利要求中,但是这并不指示不能有利地使用这些措施的组合。权利要求中的任何附图标记都不应被解释为对范围的限制。

Claims (15)

1.一种用于医学设备部署预测的图像处理设备(10),包括:
-输入单元(20);
-处理单元(30);以及
-输出单元(40);
其中,所述输入单元被配置为向所述处理单元提供目标的感兴趣区域的3D目标数据;以及用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据;以及包括被提供用于对用于部署的所述设备进行部署的介入设备的空间信息的所述感兴趣区域的实况介入图像数据;并且所述输入单元被配置为完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位所述介入设备,并且然后被配置为执行对所述介入图像数据与所述3D目标数据的空间配准;
其中,所述处理单元被配置为根据所述感兴趣区域的所述3D目标数据使用在所述3D目标数据中对所述介入设备的所述定位来调整所述3D设备模型数据,并且被配置为将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内;由此生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系;并且
其中,所述输出单元被配置为显示所述预期空间关系。
2.根据权利要求1所述的图像处理设备,
其中,所述输入单元还被配置为接收来自用户的显示命令;
其中,所述处理单元还被配置为在接收到所述显示命令时生成所述预期空间关系。
3.根据权利要求1或2所述的图像处理设备,
其中,所述处理单元还被配置为监测所述介入设备的所述实况介入图像数据,并且被配置为在用于部署的所述设备的速度的变化在触发阈值以下时生成所述预期空间关系。
4.根据前述权利要求中的任一项所述的图像处理设备,
其中,所述处理单元被配置为监测所述介入设备的所述实况介入图像数据;并且被配置为在用于部署的所述设备在所述实况介入图像数据中的部署角度的变化超过触发阈值时生成所述预期空间关系。
5.根据前述权利要求中的任一项所述的图像处理设备,
其中,所述输入单元被配置为向所述处理单元提供用于部署的所述设备的最终最优部署位置数据;
其中,所述处理单元还被配置为使用对所述介入设备在所述3D目标数据内的所述定位来计算i)用于部署的所述设备的所述最终最优部署位置数据与根据所述感兴趣区域的所述3D目标数据的所述经调整的3D设备模型数据之间的差异度量;并且其中,所述处理器还被配置为计算ii)用于部署的所述设备的最终最优部署位置数据与所述经调整的3D设备模型数据之间的差异度量;并且
其中,所述输出单元被配置为显示用于部署的所述设备的最终最优部署位置与所述经调整的3D设备模型数据之间的所述差异度量。
6.根据权利要求5所述的图像处理设备,
其中,所述输出单元被配置为将处于用于部署的所述设备的所述最终最优部署位置中的用于部署的第一设备的表示显示在感兴趣区域的所述3D目标数据中,并且被配置为将处于由所述定位所定义的位置中的用于部署的第二设备的表示显示在感兴趣区域的所述3D目标数据中,其中,用于部署的所述第二设备的所述位置是根据用于部署的所述第二设备与所述目标的所述感兴趣区域之间的预期空间关系来显示的。
7.根据前述权利要求中的任一项所述的图像处理设备,
其中,所述处理单元被配置为使用所述实况介入图像数据来计算所述定位数据,其中,所述定位数据是从包括以下的组中选择的:
i)所述介入设备相对于所述感兴趣区域的即时位置;
ii)所述介入设备相对于所述感兴趣区域的即时取向;
iii)所述介入设备的先前轨迹;或者
iv)i)至iii)的任何组合。
8.根据前述权利要求中的任一项所述的图像处理设备,
其中,所述介入设备的所述定位的所述实况介入图像数据来自电磁***。
9.根据前述权利要求中的任一项所述的图像处理设备,
其中,用于部署的所述设备是从包括以下的组中选择的:分流器、支架、线圈或编织的内桥。
10.根据权利要求中1-9中的任一项所述的图像处理设备,
其中,所述介入设备是递送***。
11.根据权利要求中1-9中的任一项所述的图像处理设备,
其中,所述介入设备是导管。
12.一种用于医学设备部署预测的医学成像***(150),包括:
-图像采集装置(151、152);
-根据权利要求1至11中的任一项所述的设备;以及
-显示单元(156);
其中,所述图像采集装置适于采集所述图像数据并且适于向所述处理单元提供所述数据。
13.一种用于操作(200)用于医学设备部署预测的图像处理设备的方法,包括以下步骤:
a)提供(202)目标的感兴趣区域的3D目标数据;
b)提供(204)用于使用介入设备在所述目标内部进行部署的设备的3D设备模型数据;
c)提供(206)所述感兴趣区域的实况介入图像数据,所述实况介入图像数据包括被提供用于对用于部署的所述设备进行部署的介入设备的空间信息;
d)完全基于在所述实况介入图像数据中对所述介入设备的探测来在所述3D目标数据内定位(208)所述介入设备,并且然后执行对所述介入图像数据与所述3D目标数据的空间配准;
e)根据所述感兴趣区域的所述3D目标数据使用所述介入设备在所述3D目标数据内的所述定位来调整(210)所述3D设备模型数据;并且将表示用于部署的所述设备的、经调整的3D设备模型数据嵌入到所述感兴趣区域的3D数据内;由此生成用于部署的所述设备与所述目标的所述感兴趣区域之间的预期空间关系;并且
f)显示(212)所述预期空间关系。
14.一种用于控制根据权利要求1至12中的任一项所述的装置的计算机程序单元,所述计算机程序单元当由处理单元运行时适于执行根据权利要求13所述的方法的步骤。
15.一种存储有根据权利要求14所述的程序单元的计算机可读介质。
CN201480072410.5A 2014-01-06 2014-12-23 部署建模 Active CN105899138B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14305009.4 2014-01-06
EP14305009 2014-01-06
PCT/EP2014/079101 WO2015101545A1 (en) 2014-01-06 2014-12-23 Deployment modelling

Publications (2)

Publication Number Publication Date
CN105899138A true CN105899138A (zh) 2016-08-24
CN105899138B CN105899138B (zh) 2019-11-05

Family

ID=49956107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480072410.5A Active CN105899138B (zh) 2014-01-06 2014-12-23 部署建模

Country Status (5)

Country Link
US (1) US10019800B2 (zh)
EP (1) EP3091931B8 (zh)
JP (1) JP6831242B2 (zh)
CN (1) CN105899138B (zh)
WO (1) WO2015101545A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108475427A (zh) * 2016-02-18 2018-08-31 微软技术许可有限责任公司 对象扫描能力的实时检测

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008151204A1 (en) 2007-06-04 2008-12-11 Sequent Medical Inc. Methods and devices for treatment of vascular defects
WO2009135166A2 (en) 2008-05-02 2009-11-05 Sequent Medical Inc. Filamentary devices for treatment of vascular defects
US9078658B2 (en) 2013-08-16 2015-07-14 Sequent Medical, Inc. Filamentary devices for treatment of vascular defects
US9955976B2 (en) 2013-08-16 2018-05-01 Sequent Medical, Inc. Filamentary devices for treatment of vascular defects
US9629635B2 (en) 2014-04-14 2017-04-25 Sequent Medical, Inc. Devices for therapeutic vascular procedures
FR3057460B1 (fr) * 2016-10-18 2018-12-07 Universite Jean Monnet Saint Etienne Procede d'assistance a la realisation d'un dispositif sur mesure deployable implantable
EP3664739A4 (en) * 2017-08-10 2021-04-21 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR DISPLAYS OF INTERACTION POINTS IN A TELEOPERATIONAL SYSTEM
US10639105B2 (en) 2017-11-29 2020-05-05 Canon Medical Systems Corporation Navigation apparatus and method
JP7309377B2 (ja) * 2019-02-12 2023-07-18 キヤノンメディカルシステムズ株式会社 X線診断装置、医用情報処理装置及びプログラム
WO2020190639A1 (en) 2019-03-15 2020-09-24 Sequent Medical, Inc. Filamentary devices for treatment of vascular defects
EP3908209A4 (en) 2019-03-15 2022-10-19 Sequent Medical, Inc. FIBROUS DEVICES FOR TREATMENT OF VASCULAR DEFECTS
JP7483743B2 (ja) 2019-03-15 2024-05-15 マイクロベンション インコーポレイテッド 血管障害の治療のための可撓性継合部を有するフィラメント状デバイス
WO2021183793A2 (en) 2020-03-11 2021-09-16 Microvention, Inc. Devices for treatment of vascular defects
CN116172697B (zh) * 2023-05-04 2023-06-27 杭州脉流科技有限公司 对植入血管的支架进行拖拉后长度估计方法、装置及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101150986A (zh) * 2005-03-29 2008-03-26 皇家飞利浦电子股份有限公司 观测在脉管***中的导管的方法与设备
JP2008237906A (ja) * 2007-03-23 2008-10-09 General Electric Co <Ge> 心臓弁の経皮的置換におけるツールの動きを追跡するシステム及び方法
CN102077248A (zh) * 2008-06-25 2011-05-25 皇家飞利浦电子股份有限公司 用于在受试者内定位感兴趣对象的设备和方法
WO2011121516A2 (en) * 2010-04-01 2011-10-06 Koninklijke Philips Electronics N.V. Virtual stent deployment
CN102473303A (zh) * 2009-08-12 2012-05-23 皇家飞利浦电子股份有限公司 生成对象数据
WO2012140553A1 (en) * 2011-04-12 2012-10-18 Koninklijke Philips Electronics N.V. Embedded 3d modelling
US20120289777A1 (en) * 2011-05-13 2012-11-15 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840393B1 (en) * 2000-10-04 2010-11-23 Trivascular, Inc. Virtual prototyping and testing for medical device development
US7289652B2 (en) * 2001-11-21 2007-10-30 Koninklijke Philips Electronics, N. V. Medical viewing system and method for detecting and enhancing structures in noisy images
US8095382B2 (en) * 2006-06-16 2012-01-10 The Invention Science Fund I, Llc Methods and systems for specifying a blood vessel sleeve
US8060186B2 (en) * 2007-02-15 2011-11-15 Siemens Aktiengesellschaft System and method for intraoperative guidance of stent placement during endovascular interventions
JP5140857B2 (ja) * 2008-05-12 2013-02-13 株式会社大野興業 手術シミュレーション用軟質血管モデルの製造方法
JP2010172504A (ja) * 2009-01-29 2010-08-12 Toshiba Corp X線診断装置
JP5641707B2 (ja) * 2009-04-08 2014-12-17 株式会社東芝 X線診断装置
DE102010009017A1 (de) * 2009-08-31 2011-03-10 Siemens Aktiengesellschaft Verfahren zur Bildung eines endovaskulären Behandlungshilfsmittels mit Hilfe von selbstorganisierenden, aus Catomen (Cat) bestehenden Nanoroboter und dazu gehöriges System
EP2575621B1 (en) * 2010-05-27 2015-08-26 Koninklijke Philips N.V. Determining the specific orientation of an object
EP2685924B1 (en) 2011-03-17 2016-10-26 Brainlab AG Method for preparing the reconstruction of a damaged bone structure
JP5911570B2 (ja) * 2011-06-13 2016-04-27 アンジオメトリックス コーポレーション 解剖学的および機能的パラメータ分析のための多機能誘導ワイヤアセンブリおよびシステム
US9429696B2 (en) * 2012-06-25 2016-08-30 Intuitive Surgical Operations, Inc. Systems and methods for reducing measurement error in optical fiber shape sensors

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101150986A (zh) * 2005-03-29 2008-03-26 皇家飞利浦电子股份有限公司 观测在脉管***中的导管的方法与设备
JP2008237906A (ja) * 2007-03-23 2008-10-09 General Electric Co <Ge> 心臓弁の経皮的置換におけるツールの動きを追跡するシステム及び方法
CN102077248A (zh) * 2008-06-25 2011-05-25 皇家飞利浦电子股份有限公司 用于在受试者内定位感兴趣对象的设备和方法
CN102473303A (zh) * 2009-08-12 2012-05-23 皇家飞利浦电子股份有限公司 生成对象数据
WO2011121516A2 (en) * 2010-04-01 2011-10-06 Koninklijke Philips Electronics N.V. Virtual stent deployment
WO2012140553A1 (en) * 2011-04-12 2012-10-18 Koninklijke Philips Electronics N.V. Embedded 3d modelling
US20120289777A1 (en) * 2011-05-13 2012-11-15 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108475427A (zh) * 2016-02-18 2018-08-31 微软技术许可有限责任公司 对象扫描能力的实时检测

Also Published As

Publication number Publication date
EP3091931B1 (en) 2020-02-19
US10019800B2 (en) 2018-07-10
US20160335757A1 (en) 2016-11-17
CN105899138B (zh) 2019-11-05
EP3091931B8 (en) 2020-04-01
JP6831242B2 (ja) 2021-02-17
EP3091931A1 (en) 2016-11-16
JP2017507685A (ja) 2017-03-23
WO2015101545A9 (en) 2015-09-03
WO2015101545A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
CN105899138A (zh) 部署建模
JP7093801B2 (ja) 手術中の位置調整および誘導を容易にするシステム
US10959780B2 (en) Method and system for helping to guide an endovascular tool in vascular structures
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
US9504852B2 (en) Medical image processing apparatus and radiation treatment apparatus
EP2925216B1 (en) Stenosis therapy planning
JP6964309B2 (ja) 放射線治療用追跡装置
Hostettler et al. A real-time predictive simulation of abdominal viscera positions during quiet free breathing
CN104272349B (zh) 多相机设备跟踪
EP3079622B1 (en) Radiation-free registration of an optical shape sensing system to an imaging system
US20200320775A1 (en) Modeling regions of interest of an anatomic structure
CN103460246A (zh) 嵌入式3d建模
CN106164981A (zh) 外科手术中为手术器械***显示计时信号的方法和***
CN106456080A (zh) 用于修改x射线数据中的对tee探头的成像的设备
WO2011121516A2 (en) Virtual stent deployment
KR20160092799A (ko) 혈관 정보를 포함하는 의료 영상을 디스플레이하는 장치 및 방법
CN108430376A (zh) 提供投影数据集
CN104869904B (zh) 介入***
US11657519B2 (en) Method for deformation correction
KR101525040B1 (ko) 시술 전 영상의 촬영 범위를 결정하기 위한 레퍼런스 영상 생성 방법 및 그 장치
CN103814379B (zh) 血管注释器
EP2725546B1 (en) Display processing method and apparatus
EP3602569A1 (en) Simulation of transcatheter aortic valve implantation (tavi) induced effects on coronary flow and pressure
JP2021020069A (ja) リアルタイムでの内部人工器官の展開の改良されたシミュレーション
RU2574374C2 (ru) Определение конкретной ориентации объекта

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant