CN104039260B - 位置确定装置 - Google Patents
位置确定装置 Download PDFInfo
- Publication number
- CN104039260B CN104039260B CN201280065799.1A CN201280065799A CN104039260B CN 104039260 B CN104039260 B CN 104039260B CN 201280065799 A CN201280065799 A CN 201280065799A CN 104039260 B CN104039260 B CN 104039260B
- Authority
- CN
- China
- Prior art keywords
- unit
- spatial relationship
- intervention apparatus
- real image
- intervention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 64
- 238000005516 engineering process Methods 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims 1
- 230000005855 radiation Effects 0.000 abstract description 8
- 230000003287 optical effect Effects 0.000 description 26
- 238000004590 computer program Methods 0.000 description 14
- 238000002594 fluoroscopy Methods 0.000 description 13
- 238000012937 correction Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000002591 computed tomography Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000005452 bending Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 239000013307 optical fiber Substances 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 238000001574 biopsy Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000004164 analytical calibration Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010309 melting process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000007674 radiofrequency ablation Methods 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/00234—Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Gynecology & Obstetrics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Endoscopes (AREA)
Abstract
本发明涉及一种位置确定装置(6),其用于确定对象(4)内的介入器械(1)的位置。基于对象内的介入器械的实际图像和提供的第二部分的位置,确定对象外的介入器械的第二部分(3)与对象内的介入器械的第一部分(2)的位置之间的空间关系,所述对象内的介入器械的实际图像优选是X射线图像。一旦已经确定空间关系,当在对象内移动介入器械时,基于确定的空间关系和确定的对象外的第二部分的实际位置,能够确定对象内的介入器械的位置,而不必采集又一实际图像。如果X射线用于采集实际图像,这能够允许辐射剂量的减少。
Description
技术领域
本发明涉及一种用于确定对象内的介入器械的位置的位置确定装置、位置确定方法以及位置确定计算机程序。本发明还涉及一种用于执行介入过程的介入***、介入方法和介入计算机程序。
背景技术
在介入过程中,一般X射线透视***用于生成X射线透视图像,其示出患者内的介入器械。然后基于X射线透视图像确定介入器械的位置,尤其,介入器械的尖端的位置,并且在显示器上进行显示,以允许医师在介入器械的确定和示出位置的引导下执行介入过程。应用X射线来确定介入器械在患者内的位置的必要性导致被应用到患者和执行介入过程的人员的相对高的辐射剂量。
发明内容
本发明的目的是提供一种用于确定对象内的介入器械的位置的位置确定装置、位置确定方法和位置确定计算机程序,其中,能够减少被应用到对象的辐射剂量。本发明的又一目的是提供一种用于执行介入过程的介入***、介入方法和介入计算机程序,其使用所述位置装置。
在本发明的第一方面中,提出一种用于确定对象内的介入器械的位置的位置确定装置,其中,当第一部分被引入对象时,介入器械包括要被引入对象的第一部分和对象外的第二部分,其中,所述位置确定装置包括:
-图像数据集提供单元,其用于提供对象的内部的图像数据集,
-器械位置提供单元,其用于确定介入器械的第二部分的位置,
-实际图像提供单元,其用于提供对象内的介入器械的实际图像,
-空间关系确定单元,其用于基于实际图像和第二部分的位置来确定对象外的第二部分的位置与对象内的第一部分的位置之间的空间关系,以及
-位置确定单元,其用于根据第二部分的位置以及第一部分与第二部分之间的空间关系,确定在提供的图像数据集内的第一部分的位置。
由于空间关系确定单元基于实际图像和第二部分的位置来确定对象外的第二部分与对象内的第一部分的位置之间的空间关系,其中,位置确定单元根据第二部分的位置以及第一部分与第二部分之间的空间关系,确定提供的图像数据集内的第一部分的位置,通常通过将辐射剂量应用到对象而生成的实际图像仅仅被需要用于确定空间关系,而不用于确定第一部分的位置。由此,一旦已经确定空间关系,能够在对象内移动介入器械,并且基于对象外的第二部分的实际位置和确定的空间关系,能够确定对象内的介入器械的位置,不必需要又一实际图像的生成。如果辐射用于采集对象内的介入器械的实际图像,这允许减少被应用到对象的辐射剂量。
介入器械优选是针或导管。
图像数据集优选是三维图像数据集,如计算机断层摄影、磁共振、超声、单光子发射计算机断层摄影、正电子发射断层摄影等数据集。图像数据集提供单元能够包括存储单元,图像数据集已经被存储在所述存储单元中,并且从所述存储单元中能够提供图像数据集。图像数据集提供单元也能够是接收单元,其用于经由有线或无线数据连接来接收图像数据集,并且用于提供接收到的图像数据集。图像数据集提供单元也能够是相应的成像模态本身。
实际图像提供单元优选是X射线成像单元,其用于采集对象内的介入器械的实际X射线投影图像。实际图像优选是二维X射线透视图像。
位置确定装置还优选包括显示单元,其用于显示在提供的图像数据集内的第一部分的确定的位置处的第一部分的表示。
在介入过程中,知道对象内的介入器械的尖端的位置通常是很重要的。因此,确定的空间关系优选提供在介入器械的第二部分上的一个或若干个标记与介入器械的尖端之间的空间关系。在介入器械的第二部分上的标记取决于器械位置提供单元所使用的技术,所述器械位置提供单元用于提供介入器械的第二部分的位置。例如,标记能够是光源,如红外光源,其中,器械位置提供单元能够采集在不同方向上的光源的至少两幅图像、探测至少两幅图像中的光源,并且基于探测到的至少两个图像中的光源的位置来确定第二部分的位置。
对象优选是生物,如患者或如动物,其中,位置确定装置能够适于在活检过程、消融过程等期间确定在生物内的例如针或导管的尖端的位置。
提供的图像数据集、确定的第二部分的位置以及对象内的介入器械的至少第一部分的实际图像优选涉及或能够涉及相同的参考坐标系,以便允许空间关系确定单元来确定第一部分与第二部分之间的空间关系,并且允许位置确定单元来确定在提供的图像数据集内的第一部分的位置。
在实施例中,实际图像是由实际图像提供单元采集的二维图像,所述实际图像提供单元是透视成像单元,其关于三维参考坐标系的位置也能够由器械位置提供单元或由另一位置确定单元来确定,其中,空间关系确定单元基于二维图像来确定介入器械的尖端的二维位置,并且将二维位置转换成三维参考坐标系内的三维位置。此外,优选地,器械位置提供单元也确定第二部分关于三维参考坐标系的位置,其中,空间关系确定单元根据确定的第一部分和第二部分的位置来确定第一部分与第二部分之间的空间关系。
优选地,空间关系确定单元适于基于实际图像来确定介入器械的远端尖端的位置,并且适于通过确定对象外的第二部分的位置与确定的对象内的远端尖端的位置之间的空间关系,确定对象外的第二部分(尤其,在第二部分上的标记)的位置与第一部分的位置之间的空间关系,其中,位置确定单元适于根据第二部分的位置以及所述远端尖端与第二部分之间的空间关系,确定提供的图像数据集内的远端尖端的位置。具体而言,实际图像提供单元能够适于提供对象内的介入器械的实际图像,其示出介入器械的第一部分的远端尖端,其中,空间关系确定单元适于通过探测实际图像中的远端尖端来确定对象内的远端尖端的位置。这允许精确地确定对象内的介入器械的远端尖端的位置。
空间关系确定单元能够提供图形用户界面,其允许用户指示在实际图像中远端尖端的位置,以探测远端尖端的位置,和/或空间关系确定单元能够适于使用例如基于阈值的已知分割技术,来探测在实际图像中的远端尖端的位置。
介入器械的第一部分优选是略长的并可弯曲的。在实施例中,其具有在对象内的已知长度,其中,空间关系确定单元适于探测对象内的介入器械的形状,尤其,弯曲度,并且根据探测到的对象内的形状和对象内的已知长度,确定对象内的远端尖端的位置。此外,实际图像可以仅仅示出对象内的介入器械的第一部分的中间区域,其中,空间关系确定单元能够适于探测中间区域的形状,从而探测对象内的中间区域的路径,并且通过将探测到的路径外推到对象内的已知长度的末端,确定远端尖端的位置。即使在实际图像中远端尖端本身不可见,这允许精确地确定对象内的远端尖端的位置。
在实施例中,空间关系确定单元适于执行光学形状感测过程,以确定对象外的第二部分与对象内的第一部分的位置之间的空间关系,其中,基于对象内的第一部分的形状和对象外的第二部分的位置来确定空间关系,其中,通过具有约束的光学形状感测来确定对象内的第一部分的形状,所述约束是第一部分的确定的形状必须对应于在实际图像中示出的第一部分的形状。因此,实际图像能够用于提高光学形状感测过程的精确度。根据在WO2011/141829A1中公开的过程能够执行光学形状感测过程,在此通过引用并入本文。
优选地,实际图像提供单元适于提供至少两幅实际图像,其已经在不同采集方向上被采集,其中,空间关系确定单元适于基于提供的至少两幅实际图像来确定对象内的第一部分的位置。这还增加确定空间关系以及由此确定对象内的第一部分的位置的精确度。
在优选实施例中,空间关系确定单元适于基于第二部分的位置和在实际图像中示出的对象内的第一部分,通过校正初始提供的空间关系,确定空间关系。使用精确确定的初始空间关系来确定实际空间关系还能够增加确定空间关系以及由此确定对象内的第一部分的位置的精确度。
确定的空间关系优选提供在介入器械的第二部分上的一个或若干个标记与第一部分上的一个或若干个位置之间的空间关系。例如,空间关系能够是在介入器械的第二部分上的一个或若干个标记与介入器械的远端尖端之间的空间关系。为了确定空间关系,在实际图像中能够探测对象内的介入器械的尖端的位置和/或形状,其中,该位置和/或形状信息能够用于确定对象外的第二部分与对象内的第一部分之间的空间关系。在实施例中,通过将介入器械的尖端定位在已知参考位置并且通过确定第二部分上的一个或若干个标记的位置,初始地提供空间关系。
还优选地,器械位置提供单元适于通过光学或磁性技术中的至少一个,确定介入器械的第二部分的位置。例如,为了确定介入器械的第二部分的位置,尤其,为了追踪介入器械的第二部分,当移动介入器械时,器械位置提供单元能够适于使用在WO 1999/056654A1中公开的光学追踪方法,在此通过引用并入本文。具体而言,介入器械的第二部分能够包括作为被定位在位置处的标记的红外光源,尤其,其关于介入器械是已知的,其中,器械位置提供单元能够包括至少两个相机,用于生成示出红外光源的图像,并且根据在生成图像中的红外光源的位置,确定介入器械的第二部分的位置。
在本发明的又一方面中,提出了一种用于执行介入过程的介入***,其中,所述介入***包括:
-介入器械,其用于执行对象内的介入过程,以及
-根据权利要求1所述的位置确定装置,其用于确定对象内的介入器械的位置。
在本发明的又一方面中,提出了一种用于确定对象内的介入器械的位置的位置确定方法,其中,当第一部分被引入对象时,介入器械包括要被引入对象的第一部分和在对象外的第二部分,其中,所述位置确定方法包括:
-由图像数据集提供单元提供对象的内部的图像数据集,
-由器械位置提供单元确定介入器械的第二部分的位置,
-由实际图像提供单元提供对象内的介入器械的实际图像,
-由空间关系确定单元,基于实际图像和第二部分的位置,确定对象外的第二部分的位置与对象内的第一部分的位置之间的空间关系,以及
-由位置确定单元,根据第二部分的位置以及第一部分与第二部分之间的空间关系,确定在提供的图像数据集内的第一部分的位置。
在本发明的又一方面中,提出了一种用于确定对象内的介入器械的位置的位置确定计算机程序,其中,所述位置确定计算机程序包括程序代码模块,当所述计算机程序在控制根据权利要求1所述的位置确定装置的计算机上运行时,所述程序代码模块用于令所述位置确定装置执行根据权利要求12所述的位置确定方法的步骤。
在本发明的又一方面中,提出了一种用于执行介入过程的介入计算机程序,其中,所述介入计算机程序包括程序代码模块,当所述计算机程序在控制根据权利要求11所述的介入***的计算机上运行时,所述程序代码模块用于令所述介入***执行以下步骤:
由介入器械(1)执行对象(4)内的介入过程;并且
根据权利要求12所述的,由位置确定装置(16)确定所述对象(4)内的所述介入器械(1)的所述位置。
应当理解,根据权利要求1所述的位置确定装置、根据权利要求11所述的介入***、根据权利要求12所述的位置确定方法、根据权利要求13所述的位置确定计算机程序以及根据权利要求14所述的介入计算机程序具有(尤其根据从属权利要求中所述的)相似和/或相同的优选实施例。
应当理解,本发明的优选实施例也能够是从属权利要求与各个独立权利要求的任何组合。
参考下文描述的实施例,本发明的这些和其他方面将显而易见并得以阐述。
附图说明
在下图中:
图1示意性且范例性地示出了用于执行介入过程的介入***的实施例,以及
图2示出了范例性地图示了用于执行介入过程的介入方法的实施例的流程图。
具体实施方式
图1示意性且范例性地示出了用于执行介入过程的介入***20的实施例。介入***20包括介入器械1,在该实施例中,所述介入器械1是针,其用于执行位于工作台5的患者4内的介入过程。介入***20还包括位置确定装置6,其用于确定患者4内的介入器械1的位置。当第一部分2被引入患者4时,介入器械1包括要被引入患者4的第一部分2和在患者4外的第二部分3。
位置确定装置6包括:图像数据集提供单元7,其用于提供患者4的内部的图像数据集;器械位置提供单元8、9、10,其用于确定介入器械1的第二部分3的位置;以及,实际图像提供单元11,其用于提供患者4内的介入器械1的实际图像。位置确定装置6还包括:空间关系确定单元15,其用于基于实际图像和第二部分3的位置,确定患者4外的第二部分3与患者4内的第一部分2的位置之间的空间关系;以及,位置确定单元16,其用于根据第二部分3的位置以及第一部分2与第二部分3之间的空间关系,确定在提供的图像数据集内的第一部分2的位置。
实际图像提供单元11是X射线成像单元,其用于在介入过程期间采集患者4内的介入器械1的实际X射线投影图像。在该实施例中,实际图像提供单元11是C-臂X射线透视***,其采集二维X射线透视图像以提供患者4内的介入器械1的实际图像。其包括X射线源12,所述X射线源12生成被定向到介入器械1位于的患者4内的区域的X射线21。生成的X射线21贯穿患者4,并且由X射线探测单元13探测贯穿的X射线22。X射线源12和X射线探测单元13被安装在C-臂上,使得它们能够相对于患者4移动,特别是旋转,以便允许实际图像提供单元11提供示出了在期望方向上的患者4内的期望区域的实际图像。X射线源12和X射线探测单元13由透视控制单元14控制。
图像数据集是三维图像数据集,在该实施例中,所述三维图像数据集是三维计算机断层摄影图像数据集。在其他实施例中,图像数据集也能够是二维图像数据集。此外,图像数据集能够是另一成像模态的图像数据集,如磁共振、超声、单光子发射计算机断层摄影、正电子发射断层摄影等图像数据集。图像数据集提供单元7是存储单元,图像数据集已经被存储在所述存储单元中,并且从所述存储单元中能够提供图像数据集。图像数据集提供单元也能够是接收单元,其用于经由有线或无线数据连接来接收图像数据集,并且用于提供接收到的图像数据集。此外,在另一实施例中,图像数据集提供单元也能够是相应的成像模态本身。在该实施例中,实际图像提供单元11适于采集在不同方向上的患者4的投影图像,并且在执行介入过程之前,基于投影数据,将计算机断层摄影图像重建为提供的图像数据集,其被存储在存储单元中。然而,图像数据集也能够由计算机断层摄影***生成。
器械位置提供单元适于以光学方式确定介入器械1的第二部分3的位置。器械位置提供单元包括两个相机8、9,其用于采集被附接到介入器械1的第二部分3的标记23的图像。标记23能够是被动标记,其不主动向相机8、9发送光学辐射,或它们能够是主动标记,即,向相机8、9发送辐射的光源。例如,标记23能够是红外光源,并且相机8、9能够是用于采集示出红外光源23的红外图像的红外相机。由相机8、9采集的图像被提供到器械位置确定单元10,以基于采集到的图像中的标记23的位置,确定介入器械1的第二部分3(尤其是第二部分3上的标记23)的位置。如果需要,然后基于标记23关于介入器械1的第二部分3的已知真实位置和确定的标记23的位置,能够确定整个第二部分3的位置。为了基于由相机8、9采集的图像来确定第二部分3的位置,能够使用已知追踪算法,如在WO 1999/056654中公开的追踪算法,在此通过引用并入本文。也能够使用其他已知光学或非光学(例如磁性)追踪技术来确定在患者4外的介入器械1的第二部分3的位置。
在该实施例中,空间关系确定单元15适于基于实际图像来确定介入器械1的远端尖端17的位置,并且适于通过确定患者4外的第二部分3(尤其是第二部分的标记23)的位置与确定的患者4内的远端尖端17的位置之间的空间关系,确定患者4外的第二部分3的位置与第一部分2的位置之间的空间关系,其中,位置确定单元16适于根据第二部分3的位置以及远端尖端17与第二部分3之间的空间关系,确定提供的图像数据集内的远端尖端17的位置。具体而言,实际图像提供单元11适于提供患者4内的介入器械1的实际图像,其示出介入器械1的第一部分2的远端尖端17,其中,空间关系确定单元15适于通过探测实际图像中的远端尖端17,确定对象4内的远端尖端17的位置。空间关系确定单元15能够提供图形用户界面,其用于允许用户指示实际图像中的远端尖端17的位置,以探测远端尖端17的位置,和/或空间关系确定单元15能够适于使用例如基于阈值的已知分割技术来探测实际图像中的远端尖端17的位置。
基于第二部分3的位置和在实际图像中示出的患者4内的第一部分2,通过校正初始提供的空间关系,能够执行空间关系的确定。为了确定初始空间关系,当由器械位置提供单元8、9、10确定第二部分3(尤其是标记23)的位置时,在执行介入过程之前,介入器械1的远端尖端17能够位于患者4外的已知位置处。由此,通过校准过程能够提供初始空间关系,其中,将尖端17被放置在已知参考点处。
具体而言,基于确定的介入器械1的第二部分3的位置和初始提供的空间关系,在介入过程期间能够确定患者4内的远端尖端17的未校正位置。能够定义投影平面,其包含该未校正位置,并且其垂直于透视***11的轴,所述透视***11连接X射线源12和X射线探测器13。在该投影平面上,实际图像中(即,透视图像中)的远端尖端17的真实位置能够被虚拟地投影,于是能够确定未校正的远端尖端位置与真实的远端尖端位置之间的偏移。该偏移能够被添加到远端尖端与第二部分之间(尤其是远端尖端与第二部分上的标记之间)的初始空间关系,以校正空间关系,从而确定患者4外的第二部分3的位置与对象4内的第一部分2的位置之间的实际空间关系。
相机8、9被刚性地附接到X射线探测器13,使得器械位置提供单元8、9、10和实际图像提供单元11关于彼此被配准,即,第一部分和第二部分(尤其是第二部分上的标记与远端尖端)的相应位置关于相同参考坐标系是已知的,在所述相同参考坐标系中,能够执行探测和确定过程。备选地或额外地,相机能够被刚性地附接到支撑X射线源12和X射线探测器13的C-臂上。如果在另一实施例中,器械位置提供单元和实际图像提供单元未被刚性地附接到彼此,它们能够通过其他方式进行配准。例如,器械位置提供单元也能够适于确定实际图像提供单元(尤其是透视***11)的位置,以便关于彼此配准实际图像提供单元和器械位置提供单元。为了确定实际图像提供单元的位置,实际图像提供单元能够包括标记,其能够由器械位置提供单元探测。
关于由器械位置提供单元和实际图像提供单元提供的位置和图像来配准提供的图像数据集。例如,如果实际图像提供单元11不仅用于提供一幅或若干幅实际图像,而且用于提供投影数据,其用于重建图像数据集(即,在该实施例中,X射线计算机断层摄影图像数据集),则能够自动实现该配准。备选地或此外,其他配准技术能够用于将患者4的内部的图像数据集与由器械位置提供单元和实际图像提供单元提供的位置和图像进行配准。例如,在实际图像中可见的特征和图像数据集能够用于将实际图像和图像数据集关于彼此进行配准。
位置确定装置6还包括显示单元19,其用于显示在提供的图像数据集内(即,在该实施例中,三维计算机断层摄影图像数据集内)的确定位置处的第二部分2(尤其是远端尖端17)的表示。
透视***11能够提供两幅或更多幅实际图像,即,两幅或更多幅二维X射线透视图像,其已经在不同采集方向上被采集,其中,空间关系确定单元15能够适于基于提供的至少两幅实际图像,确定患者4内的第一部分2的位置,尤其是远端尖端17的位置。
介入器械1的第一部分2优选是略长可弯曲的部分。在实施例中,介入器械1在患者4内的部分的长度是已知的,并且实际图像未示出介入器械的远端尖端17。例如,根据标记,能够已知介入器械1在患者4内的长度,所述标记刚好在患者4外并且已经指定为所述标记的患者4内的相应长度,或从介入器械1的全部长度中能够确定和减去介入器械在患者4外的长度。在该实施例中,空间关系确定单元15能够适于探测患者4内的介入器械1的形状,尤其弯曲度,并且根据患者4内的探测到的形状和患者4内的已知长度,确定患者4内的远端尖端17的位置。实际图像可以仅仅示出患者4内的介入器械1的第一部分2的中间区域,其中,空间关系确定单元15可以适于探测中间区域的形状,从而探测患者4内的中间区域的路径,并且通过将探测到的路径外推到患者4内的已知长度的末端,确定远端尖端17的位置。
在又一实施例中,空间关系确定单元能够适于执行光学形状感测过程,以确定在患者4外的第二部分3和患者4内的第一部分2的位置之间的空间关系,其中,基于患者4内的第一部分2的形状和患者4外的第二部分3的位置来确定空间关系,并且其中,通过具有约束的光学形状感测来确定患者4内的第一部分2的形状,所述约束是第一部分2的确定的形状必须对应于在实际图像中示出的第一部分2的形状。具体而言,通过光学形状感测确定的第一部分2的形状能够被虚拟地投影在X射线探测单元13的二维探测表面上,其中,光学形状感测过程能够确定患者4内的第一部分2的形状,使得投射形状类似于在实际图像中探测到的第一部分的形状。为了执行光学形状感测过程,介入器械能够包括光纤,并且介入器械经由任选光学连接18与空间关系确定单元连接,以允许空间关系确定单元来确定患者内的介入器械的第一部分的形状。已知光学形状感测技术基于三维纤维形状的迭代重建,所述三维光纤形状的迭代重建基于对光纤中的应变的测量结果。为了更详细地描述该已知光学形状感测过程,例如,参考WO 2011/141829A1,在此通过引用并入本文。
在下文中,将参考图2中所示的流程图,范例性地描述用于执行介入过程的介入方法的实施例。
在步骤101中,由图像数据集提供单元7提供患者的内部的图像数据集。具体而言,提供患者4的三维计算机断层摄影图像。在步骤102中,通过使用介入器械1执行患者4内的介入过程。例如,针被引入患者4。然后,在步骤103中,由器械位置提供单元8、9、10确定介入器械的第二部分的位置,并且在步骤104中,由实际图像提供单元11提供患者4内的介入器械的实际图像。在步骤105中,由空间关系确定单元15,基于实际图像和第二部分的位置,确定患者外的第二部分与患者内的第一部分的位置之间的空间关系。在步骤106中,由位置确定单元16,根据第二部分的位置以及第一部分与第二部分之间的空间关系,确定提供的图像数据集内的第一部分的位置,其中,在步骤107中,显示单元19显示具有确定的第一部分的位置的提供的图像数据集。
在其他实施例中,能够以另一顺序执行这些步骤。例如,在提供实际图像之后,能够确定介入器械的第二部分的位置,或者能够同时执行这些确定和提供操作。此外,也能够同时执行步骤105和106。例如,通过校正患者内的第一部分的未校正确定位置,能够确定空间关系,所述患者内的第一部分的未校正确定位置已经基于初始提供的空间关系来确定,其中,基于在实际图像中示出的第一部分的实际位置,能够校正确定的第一部分的位置,从而同时校正并且由此确定空间关系和患者内的第一部分的位置。如果介入过程继续,例如,如果介入器械在患者内被进一步移动,基于校正的空间关系和第二部分的实际位置,能够确定第一部分(尤其是介入器械的远端尖端)的实际位置,不必需要又一实际图像,尤其不需要又一X射线透视图像。
步骤102到107能够被认为是用于确定对象内的介入器械的位置的位置确定方法的步骤。
在人体中的微创过程期间,介入设备追踪(即,介入器械追踪)是很重要的,以便能够精确地到达用于诊断或处置的校正定位。追踪介入设备的方式是通过使用X射线引导。尽管利用X射线引导能够执行追踪,缺点是被应用到患者和医师的X射线剂量。为了减少该X射线剂量,例如在WO 1999/056654A1中公开的,基于被附接到X射线设备的探测器的若干个相机,已经引入光学引导。基于患者外的介入设备的三维成像和患者的三维成像,该光学引导允许不具有X射线剂量的器械追踪。该光学技术的缺点是不能够看见身体内部,并且因此,对设备的追踪基于在身体外所能看见的。与该已知光学引导方法一起出现的问题是在介入设备形变时,例如在***期间针的弯曲,光学引导方法就变得不太精确。
当进行光学追踪时,参考图1以上描述的位置确定装置能够改善对介入设备的远端尖端的定位,同时将需要的X射线剂量最小化。通过利用在WO 1999/056654A1中描述的光学标记来执行介入器械追踪,位置确定装置能够解决介入器械的尖端的不精确定位的现有技术问题,其中,在***介入器械期间,获得至少一幅实际图像,即,至少一幅二维X射线透视图像,其中,根据该图像,推断介入器械的弯曲度或介入器械的尖端的实际位置,并且其中,尖端的弯曲度或实际位置被用在光学追踪中,以校正对身体内的介入器械的尖端的预测。假如在进一步***介入器械期间,预期偏离先前探测到的弯曲度的弯曲度或导致尖端位置不同于预测尖端位置的弯曲度,医师能够执行确定介入器械的形变或确定实际尖端位置的其他更新,以便获得更精确的光学引导。由此,基于实际图像,能够校正患者外的介入器械的外部(尤其,在介入器械的该外部上的标记之间)和患者内的尖端之间的空间关系,其中,然后光学引导能够基于该经校正的空间关系,从而改善光学引导的精确度。为了确定介入器械的形变和/或患者内的尖端的位置,优选利用不同角度获得两幅透视图像。
介入***能够适于共同配准器械位置提供单元,所述器械位置提供单元优选是光学引导***,实际图像提供单元优选是透视***,并且图像数据集是例如来自计算机断层摄影***、磁共振成像***或组合的正电子发射断层摄影和计算机断层摄影成像***的三维图像数据集。在提供的图像数据集中,能够确定轨道和/或感兴趣位置,应当沿着所述轨道将介入器械***患者,应当将介入器械导航到所述感兴趣位置。具体而言,用户能够指示在图像数据集中的轨道和/或感兴趣位置,例如通过使用图形用户界面和输入器件(如键盘或鼠标),可以在显示单元19上示出所述轨道和/或感兴趣位置。介入***也能够包括轨道和/或感兴趣位置确定单元,其用于自动地确定轨道和/或感兴趣位置。然后通过使用优选为光学引导***的器械位置提供单元,用户能够沿着确定的轨道和/或朝感兴趣位置来引导介入器械,其中,患者内的介入器械的位置的确定基于身体外的介入器械的可见的第二部分。然后,能够采集实际图像,所述实际图像优选是被部分***的介入器械的透视图像,并且所述实际图像能够用于确定身体内的第一部分的弯曲度和/或身体内的远端尖端的位置。然后弯曲度信息和/或有关介入器械的远端尖端的实际位置的信息能够用于校正介入器械的光学引导。然后基于经校正的光学引导,能够执行朝向身体内的期望位置的介入器械的进一步引导,所述经校正的光学引导使用在介入器械的可见外部第二部分与介入器械的内部第一部分之间的经校正的空间关系。
通过对着已知参考点放置介入器械的尖端,并且通过测量介入器械的第二部分上的标记相对于参考点的位置,介入器械能够与器械位置提供单元进行配准,所述器械位置提供单元优选是光学追踪***。由于使用期间介入器械的偏转或弯曲,尖端位置可以不同于校准位置,使得在已知介入***中,追踪可以是不精确的。然而,通过使用参考图1以上描述的介入***,尽管介入器械是偏转或弯曲的,能够精确地确定患者内的尖端的位置。
具体而言,已经由医师通过将介入器械的尖端放置在已知参考点处来校准介入器械之后,能够确定患者内的靶位置。然后介入器械能够被部分地***患者,其中,基于确定的介入器械的外部第二部分的位置以及在患者外的第二部分(尤其是患者外的第二部分的标记)与通过位置确定装置的校准而确定的介入器械的尖端之间的初始空间关系,能够确定介入器械的尖端的位置。然后,能够采集实际图像,即,优选为透视图像,其中,透视图像示出了介入器械的尖端。借助于计算机视觉算法,能够手动或自动地确定实际图像中的介入器械的尖端的二维位置,并且通过将实际图像提供单元(尤其是透视***)的姿势和追踪的介入器械进行组合,能够将所述介入器械的尖端的二维位置转换成三维参考坐标系。由器械位置提供单元(尤其是由光学追踪***)和/或由位置编码器能够提供两种姿势。然后,通过将尖端位置调整为垂直于实际图像提供单元的轴,即,通过将尖端位置调整为在图像平面内或平行于图像平面,能够更新介入器械的校准,即,定义介入器械的尖端相对于介入器械的第二部分的标记的位置的空间关系。如果需要,来自不同角方向(尤其是来自垂直于第一实际图像的角方向)的至少一个额外实际图像,能够用于提供尖端位置的完整三维校正。然后通过使用更新的器械校准,即,通过使用介入器械的第二部分上的标记与介入器械的尖端之间的更新的空间关系,医师能够在位置确定装置的引导下(尤其在光学引导下)继续介入过程。由此,当医师在患者内导航介入器械时,显示单元能够示出在提供的三维图像数据集中的确定的患者内的介入器械的尖端的位置,所述提供的三维图像数据集优选是三维计算机断层摄影图像数据集,其中,患者内的尖端的位置的确定基于经校正的空间关系。根据需要,能够重复实际图像的采集、基于实际图像的空间关系的校正以及由此确定的患者内的尖端位置的校正。
代替执行初始校准过程以确定第二部分(尤其,第二部分的标记)与介入器械的尖端之间的初始空间关系,在不具有这样的初始校准的情况下,可以执行位置确定方法和介入方法。例如,如果介入器械是略长器械,如针,位置确定单元首先能够确定由线定义的近似尖端位置,其被确定为患者外的介入器械的第二部分在由器械位置提供单元确定的方向上的延伸。当显示单元可以示出在提供的图像数据集内的近似尖端位置,即,对应线时,介入器械可以被部分地***患者,所述提供的图像数据集示出患者的内部。医师能够在介入器械上标记靶深度,并且在将到达靶之前很好地停止***。
如果患者内的介入器械的长度是未知的,在不使用患者内的介入器械的实际图像的情况下,位置确定单元仅仅能够确定由延伸线定义的近似尖端位置,而不是介入器械的尖端的准确位置。然而,空间关系确定单元基于确定的介入器械的第二部分(尤其,在第二部分上的标记)的位置和示出介入器械的尖端的实际图像,能够确定介入器械的尖端与在介入器械的第二部分上的标记之间的空间关系。然后医师的进一步引导能够基于确定的空间关系,即,位置确定单元根据介入器械的第二部分的位置以及介入器械的尖端与第二部分之间的空间关系,能够确定提供的图像数据集内的尖端的位置,其中,在显示单元上能够示出在图像数据集内的尖端的确定的位置,以便允许医师基于如在显示单元示出的患者内的尖端的实际位置来导航介入器械。
作为对位置确定装置的添加,能够执行器械形变的外推。一些介入器械(如具有不均匀尖端的针)倾向于向一个方向漂移。从至少一个实际图像中,针的曲率能够被提取并且用于预测漂移的量和方向。当***针时,能够更新预测的尖端位置,作为漂移和***长度的函数。通过更新预测的尖端位置,更新介入器械的尖端与介入器械的第二部分之间的空间关系,其中,当将介入器械被进一步导航到期望位置时,更新的空间关系能够用于确定介入器械的尖端的位置。
介入***能够包括警告单元,如果确定的介入器械的第一部分的位置偏离规划轨道,所述警告单元用于提供警告。
尽管在以上描述的实施例中器械位置提供单元包括使用两个相机的光学追踪***,在其他实施例中,器械位置提供单元也能够包括另一光学或非光学追踪***,如提到的光学形状感测***、电磁追踪***、铰接臂、射频追踪***等。
在要求通过X射线进行设备追踪微创过程(诸如针刺活检、射频消融等)期间,能够使用介入***和位置确定装置。
本领域技术人员通过研究附图、公开内容和权利要求书,在实践所主张的本发明的过程中,能够理解和实现对所公开实施例的其他变型。
在权利要求中,“包括”一词不排除其他元素或步骤,以及不定冠词“一”或“一个”不排除复数。
单个的单元或设备可以实现在权利要求中列举的若干项功能。在互不相同的从属权利要求中列举的某些措施的事实不表明不能够使用这些措施的组合以获益。
由一个或若干个单元或设备执行的确定,如空间关系的确定和对象内的第一部分的位置的确定,能够由任何其他数量的单元或设备来执行。例如,步骤105和106能够由单个单元或由任何其他数量的不同单元来执行。所述确定和/或根据介入方法对介入***的控制和/或根据位置确定方法对位置确定装置的控制,能够作为计算机程序的程序代码模块和/或作为专用硬件来实施。
计算机程序可以被存储/分布在合适的介质上,诸如与其他硬件一起提供或作为其他硬件的一部分的光学存储介质或固态介质,但也可以以其他形式分布,诸如经由互联网或其他有线或无线通信***。
在权利要求中的任何参考标记不应被解释为限制范围。
本发明涉及一种用于确定对象内的介入器械的位置的位置确定装置。基于对象内的介入器械的实际图像和第二部分的提供的位置,确定对象外的介入器械的第二部分的位置与对象内的介入器械的第一部分的位置之间的空间关系,所述对象内的介入器械的实际图像优选是X射线图像。一旦已经确定空间关系,当在对象内移动介入器械时,基于确定的空间关系和确定的对象外的第二部分的实际位置,能够确定对象内的介入器械的位置,而不必采集又一实际图像。如果X射线用于采集实际图像,这能够允许辐射剂量的减少。
Claims (13)
1.一种用于确定对象内的介入器械的位置的位置确定装置,其中,当第一部分(2)被引入所述对象(4)时,所述介入器械(1)包括要被引入所述对象(4)的所述第一部分(2)和所述对象(4)外的第二部分(3),所述位置确定装置(6)包括:
-图像数据集提供单元(7),其用于提供所述对象(4)的内部的图像数据集,
-器械位置提供单元(8、9、10),其用于确定所述介入器械(1)的所述第二部分(3)的位置,
-实际图像提供单元(11),其用于提供所述对象(4)内的所述介入器械(1)的实际图像,
-空间关系确定单元(15),其用于基于所述实际图像和所述第二部分(3)的所述位置,确定所述对象(4)外的所述第二部分(3)的位置与所述对象(4)内的所述第一部分(2)的位置之间的空间关系,以及
-位置确定单元(16),其用于在不必需要生成又一实际图像的情况下根据所述第二部分(3)的所述位置以及所述第一部分(2)与所述第二部分(3)之间的所述空间关系,确定在提供的图像数据集内的所述第一部分(2)的位置。
2.根据权利要求1所述的位置确定装置,其中,所述空间关系确定单元(15)适于基于所述实际图像来确定所述介入器械(1)的远端尖端(17)的位置,并且适于通过确定所述对象(4)外的所述第二部分(3)的所述位置与确定的所述对象(4)内的所述远端尖端(17)的位置之间的空间关系,确定所述对象(4)外的所述第二部分(3)的所述位置与所述第一部分(2)的所述位置之间的空间关系,其中,所述位置确定单元(16)适于根据所述第二部分(3)的所述位置以及所述远端尖端(17)与所述第二部分(3)之间的所述空间关系,确定在所述提供的图像数据集内的所述远端尖端(17)的所述位置。
3.根据权利要求2所述的位置确定装置,其中,所述实际图像提供单元(11)适于提供所述对象(4)内的所述介入器械(1)的实际图像,所述实际图像示出所述介入器械(1)的所述第一部分(2)的所述远端尖端(17),其中,所述空间关系确定单元(15)适于通过检测所述实际图像中的所述远端尖端(17)来确定所述对象(4)内的所述远端尖端(17)的所述位置。
4.根据权利要求2所述的位置确定装置,其中,所述介入器械(1)的所述第一部分(2)是具有在所述对象(4)内的已知长度的略长可弯曲部分,其中,所述空间关系确定单元(15)适于检测所述对象(4)内的所述介入器械(1)的形状,并且根据所述对象(4)内的检测到的形状和所述对象(4)内的所述已知长度,确定所述对象(4)内的所述远端尖端(17)的所述位置。
5.根据权利要求4所述的位置确定装置,其中,所述实际图像示出所述对象(4)内的所述介入器械(1)的所述第一部分(2)的中间区域,其中,所述空间关系确定单元(15)适于检测所述中间区域的形状,从而检测所述对象(4)内的所述中间区域的路径,并且通过将检测到的路径外推到所述对象(4)内的所述已知长度的末端,确定所述远端尖端(17)的所述位置。
6.根据权利要求1所述的位置确定装置,其中,所述空间关系确定单元(15)适于执行光学形状感测过程,以确定所述对象(4)外的所述第二部分(3)与所述对象(4)内的所述第一部分(2)的所述位置之间的空间关系,其中,基于所述对象(4)内的所述第一部分(2)的所述形状和所述对象(4)外的所述第二部分(3)的所述位置,确定所述空间关系,其中,通过具有约束的光学形状感测来确定所述对象(4)内的所述第一部分(2)的所述形状,所述约束是所述第一部分(2)的确定的形状必须对应于在所述实际图像中示出的所述第一部分(2)的所述形状。
7.根据权利要求1所述的位置确定装置,其中,所述实际图像提供单元(11)适于提供至少两幅实际图像,所述至少两幅实际图像已经在不同采集方向上被采集,并且其中,所述空间关系确定单元(15)适于基于提供的至少两幅实际图像来确定所述对象内的所述第一部分(2)的所述位置。
8.根据权利要求1所述的位置确定装置,其中,所述空间关系确定单元(15)适于基于所述第二部分(3)的所述位置和在所述实际图像中示出的所述对象(4)内的所述第一部分(2),通过对初始提供的空间关系进行校正,确定所述空间关系。
9.根据权利要求1所述的位置确定装置,其中,所述器械位置提供单元(8、9、10)适于通过光学或磁性技术中的至少一个来确定所述介入器械的所述第二部分的所述位置。
10.根据权利要求1所述的位置确定装置,其中,所述位置确定装置(6)还包括显示单元(19),其用于显示在所述提供的图像数据集内的所述第一部分(2)的确定的位置处的所述第一部分(2)的表示。
11.一种用于执行介入过程的介入***,所述介入***(20)包括:
-介入器械(1),其用于执行对象(4)内的介入过程,以及
-根据权利要求1所述的位置确定装置(6),其用于确定所述对象(4)内的所述介入器械(1)的所述位置。
12.一种用于确定对象(4)内的介入器械(1)的位置的位置确定方法,其中,当第一部分(2)被引入所述对象(4)时,所述介入器械(1)包括要被引入所述对象(4)的所述第一部分(2)和所述对象(4)外的第二部分(3),所述位置确定方法包括:
-由图像数据集提供单元(7)提供所述对象(4)的内部的图像数据集,
-由器械位置提供单元(8、9、10)确定所述介入器械(1)的所述第二部分(3)的位置,
-由实际图像提供单元(11)提供所述对象(4)内的所述介入器械(1)的实际图像,
-由空间关系确定单元(15),基于所述实际图像和所述第二部分的所述位置,确定所述对象(4)外的所述第二部分(3)的位置与所述对象(4)内的所述第一部分(2)的位置之间的空间关系,以及
-在不必需要生成又一实际图像的情况下,由位置确定单元(16)根据所述第二部分(3)的所述位置以及所述第一部分(2)与所述第二部分(3)之间的所述空间关系,确定在提供的图像数据集内的所述第一部分(2)的位置。
13.一种用于确定对象(4)内的介入器械(1)的位置的位置确定装置,其中,当第一部分(2)被引入所述对象(4)时,所述介入器械(1)包括要被引入所述对象(4)的所述第一部分(2)和所述对象(4)外的第二部分(3),所述位置确定装置包括:
-用于由图像数据集提供单元(7)提供所述对象(4)的内部的图像数据集的模块,
-用于由器械位置提供单元(8、9、10)确定所述介入器械(1)的所述第二部分(3)的位置的模块,
-用于由实际图像提供单元(11)提供所述对象(4)内的所述介入器械(1)的实际图像的模块,
-用于由空间关系确定单元(15)基于所述实际图像和所述第二部分的所述位置来确定所述对象(4)外的所述第二部分(3)的位置与所述对象(4)内的所述第一部分(2)的位置之间的空间关系的模块,以及
-用于在不必需要生成又一实际图像的情况下由位置确定单元(16)根据所述第二部分(3)的所述位置以及所述第一部分(2)与所述第二部分(3)之间的所述空间关系来确定在提供的图像数据集内的所述第一部分(2)的位置的单元。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261582514P | 2012-01-03 | 2012-01-03 | |
US61/582,514 | 2012-01-03 | ||
PCT/IB2012/057682 WO2013102827A1 (en) | 2012-01-03 | 2012-12-24 | Position determining apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104039260A CN104039260A (zh) | 2014-09-10 |
CN104039260B true CN104039260B (zh) | 2017-12-19 |
Family
ID=47741196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280065799.1A Active CN104039260B (zh) | 2012-01-03 | 2012-12-24 | 位置确定装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10842409B2 (zh) |
EP (1) | EP2800534B1 (zh) |
JP (1) | JP6130856B2 (zh) |
CN (1) | CN104039260B (zh) |
RU (1) | RU2634296C2 (zh) |
WO (1) | WO2013102827A1 (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9510771B1 (en) | 2011-10-28 | 2016-12-06 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
US10842461B2 (en) | 2012-06-21 | 2020-11-24 | Globus Medical, Inc. | Systems and methods of checking registrations for surgical systems |
US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
US10874466B2 (en) | 2012-06-21 | 2020-12-29 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11786324B2 (en) | 2012-06-21 | 2023-10-17 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11896446B2 (en) | 2012-06-21 | 2024-02-13 | Globus Medical, Inc | Surgical robotic automation with tracking markers |
US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
US11589771B2 (en) | 2012-06-21 | 2023-02-28 | Globus Medical Inc. | Method for recording probe movement and determining an extent of matter removed |
US10624710B2 (en) | 2012-06-21 | 2020-04-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
US11963755B2 (en) | 2012-06-21 | 2024-04-23 | Globus Medical Inc. | Apparatus for recording probe movement |
US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
US9848922B2 (en) | 2013-10-09 | 2017-12-26 | Nuvasive, Inc. | Systems and methods for performing spine surgery |
US10786309B2 (en) | 2013-12-10 | 2020-09-29 | Koninklijke Philips N.V. | Radiation-free registration of an optical shape sensing system to an imaging system |
JP6118465B2 (ja) | 2013-12-19 | 2017-04-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 対象物トラッキング装置 |
FR3015883B1 (fr) * | 2013-12-31 | 2021-01-15 | Inria Inst Nat Rech Informatique & Automatique | Systeme et procede de suivi du deplacement d'un instrument medical dans le corps d'un sujet |
US10307079B2 (en) | 2014-01-27 | 2019-06-04 | Edda Technology, Inc. | Method and system for surgical instrument guidance and tracking with position and orientation correction |
EP3037056B1 (en) | 2014-12-23 | 2021-04-21 | Stryker European Holdings I, LLC | System for reconstructing a trajectory of an optical fiber |
CN104523230B (zh) * | 2014-12-29 | 2016-07-13 | 华中科技大学 | 一种静脉穿刺针头位置定位的装置 |
CN104644205A (zh) | 2015-03-02 | 2015-05-27 | 上海联影医疗科技有限公司 | 用于影像诊断的患者定位方法及*** |
US11576645B2 (en) * | 2015-03-02 | 2023-02-14 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for scanning a patient in an imaging system |
US11576578B2 (en) * | 2015-03-02 | 2023-02-14 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for scanning a patient in an imaging system |
CN108366834B (zh) * | 2015-12-17 | 2021-04-09 | 皇家飞利浦有限公司 | 导航辅助*** |
JP6878435B2 (ja) * | 2015-12-18 | 2021-05-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療機器の追跡 |
US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
US10806468B2 (en) * | 2016-03-16 | 2020-10-20 | Koninklijke Philips N.V. | Optical camera selection in multi-modal X-ray imaging |
US10695134B2 (en) * | 2016-08-25 | 2020-06-30 | Verily Life Sciences Llc | Motion execution of a robotic system |
JP7049325B6 (ja) * | 2016-09-23 | 2022-06-01 | コーニンクレッカ フィリップス エヌ ヴェ | 体外画像における器具に関連する画像オブジェクトの可視化 |
JP6979049B2 (ja) * | 2018-06-07 | 2021-12-08 | グローバス メディカル インコーポレイティッド | 自然基準を使用した共登録を提供するロボットシステムおよび関連方法 |
DE102019207803A1 (de) * | 2019-05-28 | 2020-12-03 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Registrierungseinrichtung, Verfahren zum Registrieren, entsprechendes Computerprogramm und computerlesbares Speichermedium |
US11596484B2 (en) * | 2020-02-14 | 2023-03-07 | Brainlab Ag | Compensation of tracking inaccuracies |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101918855A (zh) * | 2007-09-24 | 2010-12-15 | 外科视象设备公司 | 使用外科手术工具的预定义数据和mri图像数据的实时可视化的mri外科手术*** |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH105245A (ja) | 1996-06-25 | 1998-01-13 | Shimadzu Corp | 外科手術支援装置 |
DE69929026T2 (de) | 1998-05-05 | 2006-08-24 | Koninklijke Philips Electronics N.V. | Bildgebungsverfahren für bildgesteuerte chirurgie |
WO2002039917A1 (en) * | 1998-05-14 | 2002-05-23 | Calypso Medical, Inc. | Systems and methods for locating and defining a target location within a human body |
US20040006268A1 (en) * | 1998-09-24 | 2004-01-08 | Super Dimension Ltd Was Filed In Parent Case | System and method of recording and displaying in context of an image a location of at least one point-of-interest in a body during an intra-body medical procedure |
DE10004764A1 (de) * | 2000-02-03 | 2001-08-09 | Philips Corp Intellectual Pty | Verfahren zur Positionsbestimmung eines medizinischen Instruments |
DE10037491A1 (de) * | 2000-08-01 | 2002-02-14 | Stryker Leibinger Gmbh & Co Kg | Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren |
JP4219170B2 (ja) * | 2001-02-27 | 2009-02-04 | スミス アンド ネフュー インコーポレーテッド | 膝関節全置換術のシステム及び方法 |
US8150495B2 (en) * | 2003-08-11 | 2012-04-03 | Veran Medical Technologies, Inc. | Bodily sealants and methods and apparatus for image-guided delivery of same |
US7313430B2 (en) * | 2003-08-28 | 2007-12-25 | Medtronic Navigation, Inc. | Method and apparatus for performing stereotactic surgery |
US7720521B2 (en) * | 2004-04-21 | 2010-05-18 | Acclarent, Inc. | Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses |
DE102005062582B4 (de) | 2005-12-27 | 2017-08-03 | Siemens Healthcare Gmbh | Abbilduingssystem und Verfahren zur Anfertigung von Röntgen- und optischen Bildern |
WO2007113713A2 (en) | 2006-03-31 | 2007-10-11 | Koninklijke Philips Electronics, N.V. | Image guided surgery system |
JP2007296341A (ja) * | 2006-04-27 | 2007-11-15 | Siemens Medical Solutions Usa Inc | X線ベースでカテーテル先端位置決定を行うためのシステムおよび方法 |
WO2007141784A2 (en) | 2006-06-05 | 2007-12-13 | Technion Research & Development Foundation Ltd. | Controlled steering of a flexible needle |
EP1886641A1 (de) * | 2006-08-11 | 2008-02-13 | BrainLAB AG | Verfahren und System zum Bestimmen der relativen Lage eines medizinischen Instruments relativ zu einer Körperstruktur |
US8248414B2 (en) | 2006-09-18 | 2012-08-21 | Stryker Corporation | Multi-dimensional navigation of endoscopic video |
US20100030063A1 (en) | 2008-07-31 | 2010-02-04 | Medtronic, Inc. | System and method for tracking an instrument |
BRPI0917591A2 (pt) | 2008-12-11 | 2015-11-17 | Koninkl Philips Electronics Nv | sistema para gerar uma imagem e método para gerar uma imagem |
DE102009025249A1 (de) | 2009-06-17 | 2010-12-30 | Siemens Aktiengesellschaft | Medizinsystem |
JP5517526B2 (ja) | 2009-08-27 | 2014-06-11 | Ntn株式会社 | 遠隔操作型アクチュエータの工具先端位置検出装置 |
WO2011098926A1 (en) * | 2010-02-09 | 2011-08-18 | Koninklijke Philips Electronics N.V. | Apparatus, system and method for imaging and treatment using optical position sensing |
DE102010028446A1 (de) * | 2010-04-30 | 2011-11-03 | Siemens Aktiengesellschaft | Verfahren zur Rekonstruktion eines aktuellen dreidimensionalen Bilddatensatzes eines Objekts während eines Überwachungsvorgangs und Röntgeneinrichtung |
WO2011141829A1 (en) | 2010-05-11 | 2011-11-17 | Koninklijke Philips Electronics N.V. | Method and apparatus for dynamic tracking of medical devices using fiber bragg gratings |
-
2012
- 2012-12-24 WO PCT/IB2012/057682 patent/WO2013102827A1/en active Application Filing
- 2012-12-24 US US14/369,788 patent/US10842409B2/en active Active
- 2012-12-24 JP JP2014549605A patent/JP6130856B2/ja active Active
- 2012-12-24 CN CN201280065799.1A patent/CN104039260B/zh active Active
- 2012-12-24 EP EP12824917.4A patent/EP2800534B1/en active Active
- 2012-12-24 RU RU2014132069A patent/RU2634296C2/ru active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101918855A (zh) * | 2007-09-24 | 2010-12-15 | 外科视象设备公司 | 使用外科手术工具的预定义数据和mri图像数据的实时可视化的mri外科手术*** |
Also Published As
Publication number | Publication date |
---|---|
RU2634296C2 (ru) | 2017-10-24 |
CN104039260A (zh) | 2014-09-10 |
RU2014132069A (ru) | 2016-02-20 |
EP2800534A1 (en) | 2014-11-12 |
JP2015504721A (ja) | 2015-02-16 |
JP6130856B2 (ja) | 2017-05-17 |
WO2013102827A1 (en) | 2013-07-11 |
US10842409B2 (en) | 2020-11-24 |
EP2800534B1 (en) | 2021-04-28 |
US20140357989A1 (en) | 2014-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104039260B (zh) | 位置确定装置 | |
US10762627B2 (en) | Method and a system for registering a 3D pre acquired image coordinates system with a medical positioning system coordinate system and with a 2D image coordinate system | |
US20200375663A1 (en) | Computed tomography system | |
CN101449292B (zh) | 坐标系配准 | |
CN107106241B (zh) | 用于对外科器械进行导航的*** | |
US9572539B2 (en) | Device and method for determining the position of an instrument in relation to medical images | |
CA3061191A1 (en) | Tissue imaging system and method for tissue imaging | |
US20210113276A1 (en) | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter | |
CN106108951B (zh) | 一种医用实时三维定位追踪***及方法 | |
FR2908628A1 (fr) | Procede et systeme de pilotage d'un instrument medical | |
CN105408939A (zh) | 用于配准成像设备与跟踪设备的配准*** | |
CN106999130A (zh) | 用于确定在投影图像中介入仪器的位置的装置 | |
JP2019069037A (ja) | 放射線撮像装置、画像処理方法及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |