CN105592816B - 具有用户可定义的感兴趣区域的图像引导*** - Google Patents
具有用户可定义的感兴趣区域的图像引导*** Download PDFInfo
- Publication number
- CN105592816B CN105592816B CN201480053949.6A CN201480053949A CN105592816B CN 105592816 B CN105592816 B CN 105592816B CN 201480053949 A CN201480053949 A CN 201480053949A CN 105592816 B CN105592816 B CN 105592816B
- Authority
- CN
- China
- Prior art keywords
- imaging system
- interest
- area
- sensor
- computing engines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 100
- 238000005259 measurement Methods 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000007175 bidirectional communication Effects 0.000 claims abstract description 22
- 230000008878 coupling Effects 0.000 claims abstract description 5
- 238000010168 coupling process Methods 0.000 claims abstract description 5
- 238000005859 coupling reaction Methods 0.000 claims abstract description 5
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000006854 communication Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 210000003484 anatomy Anatomy 0.000 claims description 3
- 238000002203 pretreatment Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 12
- 239000000523 sample Substances 0.000 description 11
- 238000002604 ultrasonography Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000010859 live-cell imaging Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Gynecology & Obstetrics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
用于图像引导的***和方法,包括被配置为生成图像的成像***(124),所述成像***包括显示器(126),以允许用户在图像中选择感兴趣区域。一个或多个对象(134、138)在图像中是可见的。计算引擎(116)被配置为将成像***、感兴趣区域以及一个或多个对象的坐标系进行组合,以提供测量和/或位置信息。双向通信通道(122)被配置为将所述成像***与所述计算引擎进行耦合,以允许将所述图像和所述感兴趣区域传送到所述计算引擎,并且允许将所述测量和/或位置信息传送到所述成像***。
Description
技术领域
本公开涉及一种医学器械,并且更具体地,涉及超声***中的实时介入信息的双向数据传递和可视化。
背景技术
超声引导的图像介入允许临床医生实时地观察患者的解剖结构和被***组织内的介入设备。使用三维超声的图像引导的介入流程能够涵盖心脏病学、肿瘤学、放射学等的介入。在这些介入流程中,在超声***的屏幕上对二维或三维超声图像进行可视化,以引导临床医生准确地在患者的解剖结构中的目标位置处放置介入装置,并且利用被嵌入在诸如导管、导丝等的设备上的传感器来进行流程内实时测量。尽管这些图像能够由超声***捕获并且被显示在超声***屏幕上,测量结果通常被显示在由设备制造商提供的分离的控制台上。
US专利公布号No.2008/200808;WO专利公布号No.2012/143885;以及WO专利公布号No.2010/073162公开了用于介入流程的成像***。
发明内容
根据本原理,一种图像引导***,其包括被配置为生成图像的成像***,所述成像***包括显示器,以允许用户选择图像中的感兴趣区域。在所述图像中,一个或多个对象是可见的。计算引擎被配置为将图像***、感兴趣区域和一个或多个对象的坐标系进行组合,以提供测量和/或位置信息。双向通信通道被配置为耦合成像***和计算引擎,以允许将图像和感兴趣区域传送到计算引擎,以及将测量和/或位置信息传送到成像***。
一种工作站,其包括处理器和被耦合到处理器的存储器。成像***被耦合到所述处理器,并且被配置为生成图像,所述成像***包括显示器,以允许用户选择图像中的感兴趣区域。存储器包括计算引擎,所述计算引擎被配置为将所述成像***、感兴趣区域和在图像中可见的一个或多个对象的坐标系进行组合,以提供测量和/或位置信息。所述成像***和计算引擎通过双向通信通道被耦合,并且被配置为允许将图像和感兴趣区域传送到所述计算引擎,以及将测量和/或位置信息传送到成像***。
一种用于图像引导的方法,其包括使用成像***来生成受试体的图像。使用成像***的显示器在图像中选择感兴趣区域。所述成像***、所述感兴趣区域和在所述图像中可见的一个或多个对象的坐标系被组合,以提供测量和/或位置信息。使用耦合所述成像***和所述计算引擎的双向通信通道,所述图像和所述感兴趣区域被传送到计算引擎,并且所述测量和/或位置信息被传送到所述成像***。
根据下文对其图示实施例的详细描述,并结合附图来阅读这些图示的实施例,本公开的这些和其他目的、特征和优点将是显而易见的。
附图说明
参考以下附图,本公开将详细呈现优选实施例的以下描述,其中:
图1是示出了根据一个例示性实施例的采用双向通信通道来耦合成像***和计算引擎的图像引导***的方框/流程图;
图2是示出了根据一个例示性实施例的由用户选择的关键结构的成像***的显示器;
图3示出了根据一个例示性实施例在多平面格式中的超声图像;
图4是示出了根据一个例示性实施例的实时传感器数据的成像***的显示器;
图5示出了根据一个例示性实施例的围绕感兴趣区域构造的空间边界框;以及
图6是示出了根据一个例示性实施例的用于图像引导的方法的方框/流程图。
具体实施方式
根据本原理,提供了用于图像引导的介入的***、工作站和方法。超声***可以被用于使用例如针、导管、导丝等的医学设备在图像引导的介入流程的背景下生成三维超声图像流。介入流程也可以采用一个或多个传感器,测量组织的属性,诸如,例如温度、接触力等。计算引擎将图像的成像坐标系以及跟踪的医学设备和跟踪的传感器的跟踪坐标系配准到全局坐标系。计算引擎可以构造一个或多个二维(2D)平面。每个平面包括以下中的至少两个的交叉:跟踪的医学设备、传感器、感兴趣区域(例如,关键结构)等。可以针对每个交叉生成多个平面。
超声***可以通过双向通信通道被耦合到计算引擎。双向通信通道允许图像和用户选择的点和感兴趣区域从超声***到计算引擎的传输。双向通信通道也允许2D平面从计算引擎到超声***以及任何传感器数据的传输。超声***的显示器可以将由从计算引擎传输的数据指定的2D平面的任一平面中的成像数据进行可视化。传感器数据也可以被显示在超声***的显示器上。
有利地,双向通信通道允许将涉及介入的数据传送回超声***。另外,双向通信通道允许其他信息源被显示回超声***的屏幕上,诸如,一个或多个医学设备的实时位置、在医学设备与一个或多个传感器的实时位置之间的距离、在介入装置与用户指定的感兴趣区域的实时位置之间的距离(例如,成像数据中的关键结构)以及来自传感器的实时测量数据。
应当理解,本发明将在医学器械方面进行描述;然而,本发明的教导宽泛得多并且适用于任何光纤器械。在一些实施例中,在跟踪或分析复杂生物或机械***中采用本原理。具体地,本原理适用于生物***的成像流程、身体中诸如肺、肝脏、肾脏、腹部区域、胃肠、***器官、血管等的所有区域的流程。在附图中描绘的元件可以以任何硬件和软件的各种组合来实现,并且提供可以以单个元件或多个元件组合的功能。
在附图中示出的不同元件的功能能够通过使用专用硬件以及能够执行与适当软件联合的软件的硬件来提供。当由处理器提供时,能够由单个专用处理器、单个共享处理器或者其中一些能够共享的多个独立处理器来提供功能。另外,术语“处理器”或“控制器”的明确使用不应当被解读为仅仅涉及能够执行软件的硬件,并且能够隐含包括而不限于数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性存储器等。
此外,本文中引用本发明的原理、各方面和实施例以及其特定范例的所有陈述旨在包括其结构和功能等价物两者。另外,其目的是,这样的等价物包括当前己知的等价物以及将来发展出的等价物(即,发展出的执行相同的功能的任何元件,无论其结构如何)。因此,例如,本领域技术人员将理解,本文中给出的方框图表示例示性***部件的概念性视图和/或实现本发明的原理的电路。类似地,应当理解,任何流程图、流程图表以及类似物表示基本上在计算机可读存储介质中表示并且因此由计算机或处理器执行的各种过程,不管是否明确地示出了这样的计算机。
另外,本发明的各实施例可以采取能够从计算机可用或计算机可读存储介质访问的计算机程序产品的形式,所述计算机可用或计算机可读存储介质提供由计算机或任何指令执行***使用或结合计算机或任何指令执行***使用的程序代码。出于这种说明的目的,计算机可用或计算机可读存储介质可以是能够包括、存储、通信、传播或转移程序以供指令执行***、装置或设备使用或结合指令执行***、装置或设备使用的任何***。所述介质可以是电子的、磁的、光学的、电磁的、红外的或半导体***(或装置或设备)或传播介质。计算机可读介质的范例包括半导体或固态存储器、磁带、可移除计算机盘、随机存取存储顺(RAM)、只读存储器(ROM)、硬磁盘和光盘。光盘的当前范例包括:光盘-只读存储器(CD-ROM),光盘-读/写(CD-R/W),蓝光TM和DVD。
现在参考附图,其中,相同的附图标记表示相同或相似的元件,并且首先参考图1,例示性示出了根据一个实施例的用于空间跟踪和感测数据整合的***100。***100可以包括工作站或控制台102,从所述工作站或控制台监督和/或管理流程。工作站102优选包括一个或多个处理器104以及用于存储程序、应用和其他数据的存储器110。
工作站102包括显示器106,其用于观察例如涉及流程的图像或数据。显示器106也可以允许用户与工作站102及其部件和功能或者***100内的任何其他元件进行交互。这还便于由接口108来实现,所述接口可以包括键盘、鼠标、控制杆、触摸设备或任何其他外部设备或控件。应当理解,***100的部件和功能可以被集成到一个或多个***或工作站,或者可以是更大的***或工作站的一部分。
成像***124优选包括超声(US)***,所述超声***具有跟踪的探头或换能器130,以提供二维(2D)或三维(3D)体积图像114的实况流。应当理解,成像***124不限于超声***,而是可以包括任何成像***,特别是适于实时成像的那些成像***,诸如荧光透视等。探头130可以优选使用跟踪设备(未示出)来跟踪,诸如,例如电磁(EM)跟踪设备、光学跟踪设备等。跟踪设备允许在成像跟踪***中对探头130的实时空间跟踪。成像跟踪***还能够实现在成像坐标系中对医学设备134的位置和姿态(即,取向)的实时跟踪。探头130的空间跟踪信息被存储作为探头***118。
成像***124可以包括其自身的显示器128和接口128用于用户交互。例如,接口128可以允许用户在图像上选择感兴趣的区域或点作为用户输入112。感兴趣点可以包括如在图像114中可视化的传感器138的位置、受试体132内的关键结构等。用户选择的点是在成像跟踪***中选择的,并且被传送到工作站102。在一个示例性实施例中,显示器128能够以多平面格式,即多个平面(通常为2,也可以包括更多),来示出3D图像。3D图像可以是沿任意的用户选择的平面进行切片的。有利地,成像***124经由双向通信通道122被耦合到工作站102,所述双向通信通道能够将3D图像和元数据(例如,图像相关属性、用户选择的点坐标等)传达到工作站102作为图像114,并能够从工作站102实时地接收数据。
关键结构是受检者132体内将受到医学设备132的路径的交叉或者受到利用在期望位置上放置的医学设备132执行期望治疗的不利影响的部位或区域(例如,组织)。关键结构可以例如界标,诸如肿瘤目标部位、用于用户确定定位信息的血管分支点或者其他感兴趣部位。这些位置由用户(使用接口128)在成像坐标系中选择,并且被传输至计算引擎116,以转换到全局坐标系中。在一些实施例中,计算引擎116邻近关键结构实时地构造表示跟踪的医学设备124的位置的2D平面。例如,每个平面包括由用户识别的设备134的顶端与关键结构的交叉。2D平面可以通过双向通信线缆122被发送到成像***124。这允许用户做出对跟踪的设备轨迹的适合性、与目标或参考点(如脉管分支点)的紧密度、或设备134被保持在远离关键结构的程度的视觉判断。
暂时参考图2,继续参考图1,根据一个例示性实施例示出了成像***124的范例性显示器126。显示器126示出具有顶端部分202的医学设备134。显示器126可以被用于对介入流程的图像引导。由用户在成像坐标系中选择关键结构204。坐标信息被发送到计算引擎116,所述计算引擎将坐标信息转换到全局坐标系,以构造示出所选关键结构204与顶端部分202的交叉的至少一个2D平面。所述2D平面也可以示出其他设备、传感器、感兴趣区域等之间的交叉。
在用户已经选择关键结构(例如,目标、参考点等)或传感器138的情况下,成像***124的显示器126可以提供在医学设备134(例如,顶端)与所选关键结构之间的实时距离。所述距离可以是从关键结构到医学设备134的实时顶端位置,或者是从关键结构到设备134的最近点。例如,这允许用户通过确保保持一定最小距离来操作医学设备134安全地离开关键结构。
在一些实施例中,如果医学设备134进入与关键结构的预定阈值距离内,则可以通知用户。在其他实施例中,可以基于对传感器数据的分析(例如,温度超过用户定义的阈值、接触力过小或过大、压力/流量读数正常/异常等)来通知用户。所述通知可以包括例如可听到的警报、彩色灯、闪烁灯、屏幕上的弹出消息、触觉响应等。
返回参考图1,计算引擎116将来自探头***118和测量***120的数据与来自成像***124的用户输入112和图像114进行整合。成像***124通过双向通信通道122被耦合到工作站102。双向通信通道122允许外部设备发送和接收涉及介入的数据返回到成像***124中。另外,双向通道122允许其他信息源被显示回成像***124的显示器126,诸如,例如来自介入设备的实时位置和测量数据。
成像***124可以提供涉及在图像114中可见的一个或多个对象的用户介入流程的图像引导。一个或多个对象可以包括设备或器械134、一个或多个传感器138等。设备134优选包括医学设备,诸如,例如针、导管、导丝、探头、内窥镜、机器人、电极、过滤设备、球囊设备或其他医学部件等。医学设备134通过线缆被耦合到工作站102,所述线缆根据需要可以包括光纤、电子联接或其他器械等。
医学设备134可以使用被耦合到医学设备134的跟踪设备136来跟踪。跟踪设备136可以包括例如EM跟踪设备、光学跟踪设备等。当跟踪设备136基于跟踪坐标系被放置到例如空间跟踪***中的受试体132的组织中时,其能够实现对医学设备134的实时空间跟踪。医学设备134的空间跟踪信息被存储在测量***120中。
在一些实施例中,可以存在被***到受试体132体内的多个医学设备134。例如,射频、冷冻消融或微波消融探头可以同时出现在感兴趣组织中。来自一个或多个这样的设备的信号可以将实时空间跟踪数据提供给测量***120。
一个或多个传感器138可以被放置在受试体132体内。传感器138可以被直接耦合到跟踪的医学设备134或者被独立地放置在受试体132的目标区域(例如,被处置组织)附近。传感器138能够测量受试体132(例如,受试体132的组织)的属性,所述属性可以被用于处置监测。传感器138可以包括例如温度传感器、接触力传感器、流量传感器等。传感器138能够通过有线或无线接口将测量数据实时地发送到工作站102。如果传感器138被耦合到跟踪的医学设备134,则与医学设备134的测量和空间跟踪信息相关联的传感器数据可以被同时传送到工作站102。来自传感器138的传感器数据也被存储在测量***120中。
来自传感器138的传感器数据可以由计算引擎116预处理,以产生对于用户有意义的输出。例如,温度传感器数据可以是直接有意义的,而光谱传感器映射每个波长的响应;然而,对于用户有意义的输出不是谱的实际原始数据,而是对这一响应的信号处理,以做出组织分类确定(例如,组织被分类为健康、患病、被处置或未被处置)。预处理的性质可以取决于传感器类型。有意义的输出是被发送回成像***124的输出。
如果在跟踪的医学设备134附近存在多个传感器138,传感器138需要由用户在图像114中能够区别,并且对每个传感器138的识别必须在空间位置中被唯一地确定。在3D图像114中识别的传感器与对应的数据测量流的关联和对于计算引擎116是已知的。计算引擎116确保根据包括传感器的2D平面来呈现针对传感器的数据。
传感器可以被跟踪或者不被跟踪。非跟踪的传感器138可以由用户(例如,使用接口128)来选择,以在成像数据中(在成像坐标系中)识别传感器位置。跟踪的传感器138可以涉及例如被耦合到传感器138的EM跟踪设备、光学跟踪设备等。传感器138的位置在跟踪设备的跟踪坐标系中被跟踪并且被实时报告给测量***120。通过这种方式,用户不需要在图像112中识别传感器138并将其坐标传输到计算引擎116。跟踪的传感器138将传感器测量数据与空间跟踪数据同步传输到测量***120。
计算引擎116接收以下信号。1)来自成像***124的3D图像,其具有与探头130上的任意但固定的点(例如,探头130的表面的中心)相对的坐标系(即,成像坐标系)。2)在成像坐标系中的用户选择(用户识别)的传感器138的空间位置。3)来自医学设备134的实时空间跟踪信息,其在跟踪***136的坐标框架(即,跟踪坐标系)中。4)来自传感器138的实时数据测量。5)任选地,来自目标区域中或目标区域周围的其他跟踪设备或传感器138的实时空间跟踪信息,其中,3D图像114和医学设备134位于跟踪坐标系中。
计算引擎116使用空间配准技术将图像114与实时空间跟踪的数据组合到单个全局坐标系中。空间配准将成像坐标系(来自例如成像数据、所选择的关键结构、所选择的传感器等)与跟踪坐标系(来自例如跟踪医学设备134、跟踪传感器138等)组合到全局坐标系中。例如,使用校准变换(通常是4x4矩阵),成像坐标系的图像114可以被映射到跟踪坐标系,反之亦然。在另一实施例中,传感器138在成像坐标系中的位置可以被映射到跟踪坐标系。也设想到了其他的配准方式。
一旦在全局坐标系中定义了所有图像和设备/传感器位置,计算引擎116在来自3D图像的2D平面中定义设备134和传感器138的姿态(即,位置和取向)。计算引擎116可以使用设备134的顶端位置、其取向以及传感器138的一个或多个位置来定义所述姿态。例如,能够构造2D平面,所述2D平面示出了在3D图像中设备134沿其顶端的整个轴。然而,在这一平面内仍然存在要定义的一个自由度,以允许围绕轴的完整旋转。所述平面能够被锁定,以包括围绕设备134的州的旋转角,其也允许一个传感器138位置是平面内的。这确保了设备134的顶端和杆以及一个传感器138在一个2D平面内。该平面的姿态能够利用设备134和传感器138的实时空间跟踪的位置来进行更新。计算引擎116可以构造示出在额外的设备、传感器、感兴趣区域等之间的共平面交叉的额外的平面。在一些实施例中,计算引擎116将跟踪的设备134和/或传感器138表示为在显示器126上所示的与实况成像数据融合或者被叠加在实况成像数据上的虚拟对象,这是因为这些器械和传感器自身在成像数据中可能不是清晰可见的。
计算引擎116使用双向通信通道122将2D平面的3D姿态传输到使用成像坐标系的成像***124中。双向通信通道122可以是无线、有线或较大线缆的一部分。如果在跟踪坐标系中计算所述姿态,则可以向所述姿态应用适当的转换。成像***124接收2D平面的姿态并且根据由2D平面交叉的3D图像来计算对应的2D图像。对应于2D平面的姿态的一幅或多幅2D图像被显示在成像***124的显示器126上。
暂时参考图3,继续参考图1,根据一个例示性实施例,多平面格式示出了超声图像300。两幅2D超声图像被同时显示在诸如显示器126的超声显示器上。超声图像包括第一2D平面302和第二2D平面304。具有顶端部分306的医学设备312可以被定位在受试体(例如,患者)体内。传感器308和关键结构310位于目标区域附近内。传感器308和关键结构310可以由用户来选择,使得两个平面302、304包括对设备304的顶端部分306和杆的选择,以及用户所选择的传感器308或关键结构310。
返回参考图1,双向通信通道122被用于将来自传感器138的实时(经预处理的)测量数据传送到成像***124。成像***124可以将对应的实时传感器测量数据显示在适合于所示测量类型的图形用户接口中。这可以涉及显示器126和/或接口128。可以根据用户对传感器的选择显示测量数据,或者根据哪些传感器相关来自动地显示测量数据。相关传感器可以基于在任何时刻在可视化中出现哪些用户识别的关键结构或其他感兴趣结构来确定。
暂时参考图4,继续参考图1,根据一个例示性实施例示出了成像***124的范例性显示器126。显示器126示出了具有顶端部分402的医学设备134。由用户选择传感器138,使得至少一个2D平面包括传感器138以及顶端部分402。传感器的数据能够被实时传送并作为实时传感器值404在显示器126进行可视化。
返回参考图1,在一些实施例中,可以构造空间边界框。空间边界框是包含对用户来说感兴趣区域的3D体积。通常,这一感兴趣区域包括设备134的顶端、设备134的杆的靠近顶端的部分以及在边界框内的所有一个或多个传感器138。空间边界框的坐标可以通过双向通信通道122被传送到成像***124
成像***124接收空间边界框的坐标并确定3D超声图像的3D子体积。这允许超声***任选地绘制仅子体积视图以及子体积内的2D平面。成像***124的显示器126的信号处理属性,诸如增益、焦点、深度、时间增益补偿(TGC)、帧速率、可视化增强等,能够根据子体积位置被动态地优化。当3D感兴趣区域对成像***是已知的时,3D采集的较高帧速率是可能的。
暂时参考图5,继续参考图1,根据一个例示性实施例示出了空间边界框500内的感兴趣区域。围绕感兴趣区域构造空间边界框502。感兴趣区域包括医学设备514的顶端部分504、关键结构508和传感器506位置。使用双向通行通道122将边界框坐标传输到成像***,允许成像***来优化边界框内的视图。边界框502包括第一2D平面510和第二2D平面512。可以由用户选择传感器506和关键结构508,使得两个平面510、512包括对顶端部分504的选择以及用户所选择的传感器506或关键结构508。
现在参考图6,根据一个实施例例示性描绘了示出一种用于图像引导600的方法的方框/流程图。在方框602中,使用成像***生成受试体(例如,患者、体积等)的图像(例如,3D)。成像***优选包括具有跟踪的探头的超声***。在方框604中,使用成像***的显示器来选择图像中的感兴趣区域。感兴趣区域可以包括(非跟踪的)传感器、关键结构等。
在方框606中,成像***、感兴趣区域以及在图像中可见的一个或多个对象的坐标系被组合,以提供测量和/或位置信息。一个或多个对象可以包括一个或多个设备(例如,医学器械)、一个或多个传感器等。测量和/或位置信息可以包括可视化信息、来自传感器的数据等。在成像坐标系中跟踪成像数据以及由用户选择的在图像数据中被识别的感兴趣区域(例如,非跟踪的传感器、关键结构)。跟踪的设备和跟踪的传感器的空间位置在跟踪坐标系中被跟踪。在方框608中,组合包括将成像***、感兴趣区域和一个或多个对象的坐标系配准到全局坐标系,以提供测量和/或位置信息。
在方框610中,构造一个或多个2D平面,使得每个2D平面示出以下中的至少两个或更多的交叉:一个或多个对象(例如,设备、传感器等)和感兴趣区域(例如,关键结构、感兴趣点等)。在一个实施例中,针对2D平面中的目标区域构造空间边界框。目标区域可以包括跟踪的设备、一个或多个传感器、感兴趣区域等。在方框612中,一个或多个对象可以被表示为成像***的显示器中的虚拟对象。在方框614中,生成通知。所述通知可以基于一个或多个对象与感兴趣区域之间的距离,或者基于一个或多个传感器的数据。
在方框616中,使用双向通信通道,3D图像和用户选择被传送到计算引擎,并且,测量和/或位置信息被传送到成像***。双向通信通道将成像***与计算引擎耦合,允许信息源被显示在成像***中。
在对权利要求的解释中,应当理解:
a)词语“包括”不排除给定的权利要求中列出的那些之外的其他元件或动作的存在;
b)元件前面的词语“一”或“一个”不排除存在多个这样的元件;
c)权利要求中的任何附图标记均不限制它们的范围;
d)可以由同一项目或硬件或软件实施结构或功能来表示若干“单元”;以及
e)除非明确地指出,否则不特意要求动作的具体顺序。
已经描述了针对超声***中的实时介入信息的双向数据传输和可视化的优选实施例(其意为例示性而非限制性的),应当注意,本领域技术人员能够根据上述教导进行修改和变型。因此,能够理解,在所公开的内容的具体实施例中进行变化,所述具体实施例在如所附权利要求书中列举的公开的实施例的范围内。已经如此描述了由专利法要求的细节和特性,在所附权利要求书中陈述由专利许可要求权利和期望保护的内容。
Claims (15)
1.一种图像引导***,包括:
成像***(124),其被配置为生成图像,所述成像***包括显示器(126),以允许用户在所述图像中选择感兴趣区域;
一个或多个对象(134、138),其在所述图像中是可见的,其中,所述一个或多个对象、所述成像***或者所述感兴趣区域中的至少一个具有彼此不同的坐标系;
计算引擎(116),其被配置为将来自所述成像***、所述感兴趣区域以及所述一个或多个对象的坐标系的信息进行组合,以提供测量和/或位置信息;以及
双向通信通道(122),其被配置为将所述成像***与所述计算引擎进行耦合,以允许将所述图像和所述感兴趣区域传送到所述计算引擎,并且允许将所述测量和/或位置信息传送到所述成像***。
2.根据权利要求1所述的***,其中,所述计算引擎还被配置为将所述成像***、所述感兴趣区域以及所述一个或多个对象的坐标系配准到全局坐标系,以提供所述测量和/或位置信息。
3.根据权利要求1所述的***,其中,所述计算引擎还被配置为构造一个或多个二维平面(302、304),每个平面示出了以下中的两个或更多个的交叉:所述一个或多个对象和所述感兴趣区域。
4.根据权利要求1所述的***,其中,所述一个或多个对象包括以下中的至少一个:跟踪的设备(134)和传感器(138)。
5.根据权利要求1所述的***,其中,所述成像***还被配置为在所述显示器上将所述一个或多个对象表示为虚拟对象。
6.根据权利要求1所述的***,其中,所述成像***的所述显示器被配置为允许所述用户选择包括以下中的至少一个的感兴趣区域:一个或多个关键结构(204、310)、一个或多个解剖部位以及表示未跟踪的传感器的一个或多个位置。
7.根据权利要求4所述的***,其中,所述计算引擎还被配置为在将所述传感器的数据传送到所述成像***之前处理所述传感器的数据。
8.根据权利要求1所述的***,其中,所述计算引擎还被配置为构造针对目标区域的空间边界框(502)。
9.根据权利要求4所述的***,其中,所述显示器还被配置为基于所述用户的选择而选择性地对所述传感器的数据(404)进行可视化,和/或基于空间边界框和/或所述感兴趣区域的存在而自动地对所述传感器的数据(404)进行可视化。
10.根据权利要求1所述的***,其中,所述计算引擎还被配置为基于以下中的至少一项来生成通知:所述一个或多个对象与所述感兴趣区域之间的距离,以及传感器的数据。
11.根据权利要求1所述的***,其中,所述成像***包括超声***,并且所述一个或多个对象包括导引器、针、导管和导丝中的至少一个。
12.一种工作站,包括:
处理器(104);
存储器(110),其被耦合至所述处理器;
成像***(124),其被耦合至所述处理器,并且被配置为生成图像,所述成像***包括显示器(126),以允许用户在所述图像中选择感兴趣区域;
所述存储器包括计算引擎(116),所述计算引擎被配置为将来自所述成像***、所述感兴趣区域以及在所述图像中可见的一个或多个对象的坐标系的信息进行组合,以提供测量和/或位置信息,
其中,所述成像***和所述计算引擎通过双向通信通道(122)被耦合,所述双向通信通道被配置为允许将所述图像和所述感兴趣区域传送到所述计算引擎,并且允许将所述测量和/或位置信息传送到所述成像***。
13.一种用于图像引导的方法,包括:
使用成像***来生成(602)受试体的图像;
使用所述成像***的显示器在所述图像中选择(604)感兴趣区域;
使用计算引擎将来自所述成像***、所述感兴趣区域以及在所述图像中可见的一个或多个对象的坐标系的信息进行组合(606),以提供测量和/或位置信息;并且
使用双向通信通道将所述图像和所述感兴趣区域传送(616)到所述计算引擎,并且将所述测量和/或位置信息传送到所述成像***,所述双向通信通道将所述成像***与所述计算引擎进行耦合。
14.根据权利要求13所述的方法,其中,所述一个或多个对象包括传感器,并且所述方法还包括基于所述选择中的一个选择性地对所述传感器的数据进行可视化,和/或基于空间边界框和/或所述感兴趣区域的存在自动地对所述传感器的数据进行可视化。
15.根据权利要求13所述的方法,还包括基于以下中的至少一项来生成(614)通知:所述一个或多个对象与所述感兴趣区域之间的距离,以及传感器的数据。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361884197P | 2013-09-30 | 2013-09-30 | |
US61/884,197 | 2013-09-30 | ||
PCT/IB2014/064852 WO2015044901A1 (en) | 2013-09-30 | 2014-09-26 | Image guidance system with user definable regions of interest |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105592816A CN105592816A (zh) | 2016-05-18 |
CN105592816B true CN105592816B (zh) | 2019-06-07 |
Family
ID=51845466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480053949.6A Active CN105592816B (zh) | 2013-09-30 | 2014-09-26 | 具有用户可定义的感兴趣区域的图像引导*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160228095A1 (zh) |
EP (1) | EP3054885B1 (zh) |
JP (2) | JP2016531713A (zh) |
CN (1) | CN105592816B (zh) |
WO (1) | WO2015044901A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114366298A (zh) * | 2020-10-15 | 2022-04-19 | 西门子医疗有限公司 | 用于控制x射线设备的方法和医学*** |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10835210B2 (en) * | 2015-03-30 | 2020-11-17 | Siemens Medical Solutions Usa, Inc. | Three-dimensional volume of interest in ultrasound imaging |
US10939963B2 (en) | 2016-09-01 | 2021-03-09 | Covidien Lp | Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy |
CN109788940B (zh) * | 2016-09-30 | 2022-12-02 | 皇家飞利浦有限公司 | 跟踪介入设备的特征 |
US11120070B2 (en) * | 2018-05-21 | 2021-09-14 | Microsoft Technology Licensing, Llc | System and method for attribute-based visual search over a computer communication network |
EP3840661B1 (en) * | 2018-08-22 | 2024-02-28 | Koninklijke Philips N.V. | 3d tracking of interventional medical devices |
WO2022009407A1 (ja) * | 2020-07-10 | 2022-01-13 | 朝日インテック株式会社 | 医療装置、及び、画像生成方法 |
WO2023118996A1 (en) * | 2021-12-20 | 2023-06-29 | Biosense Webster (Israel) Ltd. | Visualizing a medical probe in a four-dimensional ultrasound image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080200808A1 (en) * | 2007-02-15 | 2008-08-21 | Martin Leidel | Displaying anatomical patient structures in a region of interest of an image detection apparatus |
WO2010073165A1 (en) * | 2008-12-23 | 2010-07-01 | Koninklijke Philips Electronics, N.V. | Automated three dimensional acoustic imaging for medical procedure guidance |
WO2012143885A2 (en) * | 2011-04-21 | 2012-10-26 | Koninklijke Philips Electronics N.V. | Mpr slice selection for visualization of catheter in three-dimensional ultrasound |
US20120289820A1 (en) * | 2011-05-10 | 2012-11-15 | The University Of British Columbia | Apparatus And Method For Imaging A Medical Instrument |
CN102869306A (zh) * | 2010-05-03 | 2013-01-09 | 皇家飞利浦电子股份有限公司 | 用于产生感兴趣对象的成角视图的医学观察***和方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7343195B2 (en) * | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
JP3875841B2 (ja) * | 2000-03-28 | 2007-01-31 | アロカ株式会社 | 医療システム |
KR20030058423A (ko) * | 2001-12-31 | 2003-07-07 | 주식회사 메디슨 | 중재적 초음파를 사용하는 3 차원 초음파 진단 시스템에서검침 도구의 관찰 및 이의 대상체로의 진입을 용이하게하기 위한 방법 및 장치 |
US8721655B2 (en) * | 2002-04-10 | 2014-05-13 | Stereotaxis, Inc. | Efficient closed loop feedback navigation |
US7758508B1 (en) * | 2002-11-15 | 2010-07-20 | Koninklijke Philips Electronics, N.V. | Ultrasound-imaging systems and methods for a user-guided three-dimensional volume-scan sequence |
WO2004086082A1 (en) * | 2003-03-27 | 2004-10-07 | Koninklijke Philips Electronics N.V. | Guidance of invasive medical devices by wide view three dimensional ultrasonic imaging |
EP1680024A2 (en) * | 2003-10-21 | 2006-07-19 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for intraoperative targetting |
JP4060829B2 (ja) * | 2004-07-09 | 2008-03-12 | 株式会社東芝 | 超音波治療装置 |
JP4396983B2 (ja) * | 2005-05-26 | 2010-01-13 | 日本ライフライン株式会社 | 温熱・加熱治療装置 |
JP4398405B2 (ja) * | 2005-05-30 | 2010-01-13 | アロカ株式会社 | 医療システム |
JP4730889B2 (ja) * | 2005-07-26 | 2011-07-20 | 日立アロカメディカル株式会社 | 超音波画像形成システム |
US8068648B2 (en) * | 2006-12-21 | 2011-11-29 | Depuy Products, Inc. | Method and system for registering a bone of a patient with a computer assisted orthopaedic surgery system |
DE102007043731A1 (de) * | 2007-09-13 | 2009-04-02 | Siemens Ag | Medizinische Bildaufnahmeeinrichtung, insbesondere zur Erstellung von Bildaufnahmen im Rahmen einer Behandlung von Herzrhythmusstörungen, sowie zugehöriges Verfahren |
JP2011502687A (ja) * | 2007-11-16 | 2011-01-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 3d造影超音波を使用する介入ナビゲーション |
JP5416900B2 (ja) * | 2007-11-22 | 2014-02-12 | 株式会社東芝 | 超音波診断装置及び穿刺支援用制御プログラム |
ATE554721T1 (de) * | 2008-06-20 | 2012-05-15 | Koninkl Philips Electronics Nv | System zur durchführung von biopsien |
US20100286519A1 (en) * | 2009-05-11 | 2010-11-11 | General Electric Company | Ultrasound system and method to automatically identify and treat adipose tissue |
WO2010144419A2 (en) * | 2009-06-08 | 2010-12-16 | Surgivision, Inc. | Mri-guided interventional systems that can track and generate dynamic visualizations of flexible intrabody devices in near real time |
US20110082351A1 (en) * | 2009-10-07 | 2011-04-07 | Inneroptic Technology, Inc. | Representing measurement information during a medical procedure |
US9173634B2 (en) * | 2010-03-31 | 2015-11-03 | Osaka Prefecture University Public Corporation | Fatty tissue image display device |
-
2014
- 2014-09-26 JP JP2016545077A patent/JP2016531713A/ja active Pending
- 2014-09-26 EP EP14792885.7A patent/EP3054885B1/en active Active
- 2014-09-26 WO PCT/IB2014/064852 patent/WO2015044901A1/en active Application Filing
- 2014-09-26 CN CN201480053949.6A patent/CN105592816B/zh active Active
- 2014-09-26 US US15/024,089 patent/US20160228095A1/en not_active Abandoned
-
2019
- 2019-04-26 JP JP2019085249A patent/JP6938559B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080200808A1 (en) * | 2007-02-15 | 2008-08-21 | Martin Leidel | Displaying anatomical patient structures in a region of interest of an image detection apparatus |
WO2010073165A1 (en) * | 2008-12-23 | 2010-07-01 | Koninklijke Philips Electronics, N.V. | Automated three dimensional acoustic imaging for medical procedure guidance |
CN102869306A (zh) * | 2010-05-03 | 2013-01-09 | 皇家飞利浦电子股份有限公司 | 用于产生感兴趣对象的成角视图的医学观察***和方法 |
WO2012143885A2 (en) * | 2011-04-21 | 2012-10-26 | Koninklijke Philips Electronics N.V. | Mpr slice selection for visualization of catheter in three-dimensional ultrasound |
US20120289820A1 (en) * | 2011-05-10 | 2012-11-15 | The University Of British Columbia | Apparatus And Method For Imaging A Medical Instrument |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114366298A (zh) * | 2020-10-15 | 2022-04-19 | 西门子医疗有限公司 | 用于控制x射线设备的方法和医学*** |
Also Published As
Publication number | Publication date |
---|---|
US20160228095A1 (en) | 2016-08-11 |
EP3054885A1 (en) | 2016-08-17 |
WO2015044901A1 (en) | 2015-04-02 |
JP6938559B2 (ja) | 2021-09-22 |
JP2019130393A (ja) | 2019-08-08 |
JP2016531713A (ja) | 2016-10-13 |
CN105592816A (zh) | 2016-05-18 |
EP3054885B1 (en) | 2020-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105592816B (zh) | 具有用户可定义的感兴趣区域的图像引导*** | |
US20220192611A1 (en) | Medical device approaches | |
RU2608322C2 (ru) | Голографические пользовательские интерфейсы для медицинских процедур | |
CN103735312B (zh) | 多模影像超声引导手术导航*** | |
JP5976627B2 (ja) | 放射性イメージングのための画像生成装置および方法 | |
US9561019B2 (en) | Methods and systems for tracking and guiding sensors and instruments | |
CN105934215B (zh) | 具有光学形状感测的成像设备的机器人控制 | |
CN106456105A (zh) | 一种具有立体图像引导或跟踪的超声波*** | |
EP3074947B1 (en) | Multi-imaging modality navigation system | |
CN106535774A (zh) | 在针对介入流程的3d成像工作流中的智能实时工具和解剖结构可视化 | |
US9607381B2 (en) | Accurate and rapid mapping of points from ultrasound images to tracking systems | |
CN105611877A (zh) | 引导超声图像采集的方法和*** | |
EP2760360B1 (en) | Self-localizing medical device | |
CN105979879A (zh) | 具有光学形状感测设备视角的虚拟图像 | |
JP6706576B2 (ja) | 最小侵襲性のインターベンションのための形状センスされるロボット超音波 | |
CN107072743A (zh) | 被布置为与光学形状感测使能的介入设备协作的处理*** | |
US20180249953A1 (en) | Systems and methods for surgical tracking and visualization of hidden anatomical features | |
NL2011735C2 (en) | Method and system for imaging a volume of interest in a human or animal body. | |
CN118236174A (zh) | 手术辅助***、方法、电子设备及计算机存储介质 | |
De Paolis et al. | Visualization System to Improve Surgical Performance during a Laparoscopic Procedure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |